Les «faux profonds» sont-ils la nouvelle frontière de la criminalité numérique?

La technologie des effets spéciaux a connu un véritable essor au cours des dernières décennies, avec CGI passant de rudimentairement brut et primitif à presque indiscernable de la réalité. Aujourd'hui, alors que la création d'images véridiques devient de plus en plus courante, les experts politiques et les experts de la justice pénale anticipent une panique autour de la technologie dite `` fausse profonde '', qui a le potentiel de compliquer davantage une discussion internationale en cours sur les `` fausses nouvelles ''. Mais qu'est-ce qu'un `` faux profond '' et quelle menace cette technologie posera-t-elle à l'avenir?





La technologie Deep Fake (parfois stylisée comme `` deepfake '') fait référence à des images et / ou des vidéos synthétisées et / ou superposées créées par l'intelligence artificielle à l'aide d'images et de vidéos existantes. En utilisant l'apprentissage automatique, cette technologie pourrait théoriquement créer des images convaincantes d'une personne exécutant un acte qui ne s'est jamais réellement produit dans la vie réelle.

Owen Williams, ingénieur logiciel professionnel et artiste d'effets visuels, a offert une explication simple.



`` C'est une façon d'utiliser un système logiciel automatisé pour remplacer le visage d'une personne dans une vidéo par un autre visage qui est beaucoup plus automatique et convaincant que cela n'avait été possible avec la technologie passée '', a déclaré Williams. Oxygen.com .



Heidi Broussard et Margot Carey, 2 semaines

Williams a noté que les films grand public et populaires tels que `` Jurassic Park '' et `` Blade Runner: The Final Cut '' utilisaient un logiciel informatique pour certaines scènes d'une manière qui aurait pu être un précurseur de faux profonds: `` Dans l'industrie cinématographique, c'est vraiment courant. Disons que vous avez un personnage qui a besoin d'effectuer une cascade et que vous préférez que son visage soit visible. La solution de contournement classique serait que vous ne les voyiez que de l'arrière, ou que leurs cheveux seraient sur leur visage, donc vous ne pouviez pas dire que c'était un double. Mais il y a une histoire assez complexe de cinéastes utilisant des ordinateurs pour mettre le visage d'un acteur sur un double cascadeur.



«Auparavant, c'était un processus très manuel», a poursuivi Williams. `` Maintenant, avec une technologie fausse profonde, vous alimentez un ordinateur de deux choses: d'abord la vidéo que vous allez remplacer, puis un tas d'entrées du visage par lequel vous allez remplacer. Vous devez obtenir suffisamment d'images d'une personne faisant des expressions faciales différentes et sous différents angles. Vous créez une bibliothèque de ce à quoi le visage de cette personne peut ressembler dans différentes situations, puis l'ordinateur passe et regarde la vidéo. Il n'a pas non plus besoin d'une correspondance exacte. Il peut écraser et transformer ce qu'il contient dans la bibliothèque pour l'adapter à ses besoins. Ce qui exigeait des dizaines d'artistes des centaines d'heures pour essayer d'exécuter un effet vraiment compliqué n'est plus qu'une simple pression sur un bouton.

Une facette de cette technologie qui inquiète les gens est qu'une personne n'a pas nécessairement besoin de soumettre volontairement son visage pour que ce processus soit exécuté, compte tenu du nombre de photos en ligne de la plupart des gens - en particulier des célébrités et des personnalités politiques.



comment empêcher une invasion de domicile

«Il y a suffisamment de photos de n'importe quelle célébrité sous des angles suffisants pour que vous puissiez créer cette bibliothèque [sans consentement]», a déclaré Williams. `` Il y a un certain travail à faire pour ce faire, mais pour tout personnage marginalement populaire, ce truc va exister. Mon sentiment est qu'il est moins probable que ce soit aussi possible pour une personne ordinaire.

Les premières fausses vidéos profondes sont apparues sur les forums Reddit à la fin de 2017, selon Variété . Un utilisateur a affirmé avoir utilisé son ordinateur pour créer des vidéos pornographiques très réalistes de diverses célébrités engagées dans des activités sexuelles qui ne se sont jamais produites dans la vraie vie. L'utilisateur a affirmé qu'il avait alimenté son ordinateur des milliers de photos des étoiles, à partir desquelles l'IA pouvait trouver les expressions faciales et les mouvements représentés. Une application utilisée par de faux créateurs profonds et partagée sur Reddit a finalement été téléchargée plus de 100000 fois. (Reddit finirait par interdire ce type de contenu, affirmant qu'il violait leur politique sur la `` pornographie involontaire '', selon The Verge .)

Le réalisme que ce médium peut atteindre pour le moment est mis en doute par Williams.

`` Si vous avez déjà regardé l'un de ces faux profonds ... il y a une certaine bizarrerie là-bas '', a déclaré Williams. «Ils ne sont pas polis. Cela ira probablement de mieux en mieux, cependant, surtout parce qu'Hollywood a intérêt à rendre ces artistes automatisés plutôt que de payer des artistes coûteux.

De même, Williams a deviné que malgré la panique autour du faux porno profond , l'évolution des attitudes culturelles autour de la nature de choses comme le porno de vengeance ou les fuites d'images nues signifie que les personnes qui créent ce type de média seraient probablement condamnées et ne seraient pas célébrées, même dans l'industrie du divertissement pour adultes.

la disparition du documentaire de maura murray

«Cela ne sera jamais grand public», théorisa Williams. 'Après ' Le Fappening 'chose s'est produite sur Reddit, les gens ont pu changer la conversation et dire:' Ce n'est pas un scandale, c'est un crime sexuel. ' Donc, je ne vois tout simplement pas que cela devienne un scandale autant que les gens le pensent. Les gens peuvent également trouver assez facilement le porno original à partir duquel le faux profond a été créé, ce qui signifie qu'il est assez facile à démystifier.

Mais cela ne cause pas seulement des inquiétudes, car il pourrait être utilisé pour créer du faux porno de célébrités. Les gens s'inquiètent également des ramifications politiques.

Des experts politiques ont commencé à écrire sur la prolifération des faux profonds en 2018. Un article du Guardian à partir de novembre de la même année, on note la propagation virale d'une vidéo montrant le président Donald Trump encourageant la nation belge à se retirer de l'Accord de Paris sur le climat. Cela a catalysé une discussion plus large sur le potentiel pour divers gouvernements d'utiliser cette technologie dans des campagnes de désinformation de masse, une conversation qui avait déjà commencé grâce à l'enquête en cours sur l'implication de la Russie dans l'élection présidentielle américaine de 2016.

La panique autour des faux profonds a même inspiré le comité de rédaction de Bloomberg Media Group à rédiger un éditorial fortement exprimé sur la question.

corey feldman corey haim charlie sheen

«Les preuves vidéo sont devenues un pilier du système de justice pénale ... précisément parce que le film semble être un enregistrement fiable du discours ou des actions de quelqu'un. Des faux profonds pourraient rendre ces preuves suspectes '' ils ont écrit en juin 2018. 'Un défi majeur, alors, sera d'identifier et de dénoncer ces faux - si cela est possible.'

Williams a convenu que la nature des faux profonds menaçait nos notions de `` réalité '' en ce qui concerne les preuves vidéo, mais a noté que ce bourbier juridique n'est pas unique à notre paysage numérique contemporain.

`` Cela revient en quelque sorte à cette idée que les gens ont cette vidéo égale la vérité, ce qui n'a jamais été le cas. Nous le savions depuis Rodney King. Ou, pensez à Eric Garner : Les gens pensaient que [l'officier qui l'a tué] était innocent, quelle que soit la vidéo de l'incident prédit. Pour moi [beaucoup de craintes autour des faux profonds] me semblent quelque peu infondées ».

Williams a énuméré plusieurs autres incidents n'impliquant pas de fausse technologie profonde qui ont montré comment la vidéo a été audacieusement manipulée pour fausser l'opinion publique sur une question, comme Le retrait controversé d'ACORN par James O'Keefe et un scandale récent impliquant vidéo trafiquée montrant le journaliste de CNN Jim Acosta attaquant un employé de la Maison Blanche .

La conclusion ultime de Williams était que l'hystérie entourant les faux profonds est quelque peu exagérée.

«Ce que je vois arriver, c'est que cela fonctionnera dans les deux sens. Si une vidéo sort et qu'elle est réelle, les gens prétendront qu'elle est fausse. Si une vidéo sort et qu'elle est fausse, les gens prétendront qu'elle est réelle. Chaque cas suppose une certaine quantité de vérité attribuée à la vidéo [elle-même]. Il est difficile de savoir dans quelle direction tout cela ira. Si Le ruban pipi en fait est sorti, par exemple, vous savez exactement ce qui se passerait: la moitié des gens diraient: 'Ce sont des taureaux - t, c'est un acteur!' et la moitié des gens disaient: «Ça y est! C'est vrai!' Donc rien ne changerait vraiment. C'est généralement ce qui se passe avec les nouvelles technologies: les choses ne changent pas autant que les gens le pensent.

[Photo: SAUL LOEB / AFP / Getty Images]

Articles Populaires