Dans un monde où voir ne croit plus, les experts avertissent que la société doit adopter une approche à plusieurs volets pour lutter contre les dommages potentiels des médias générés par ordinateur.
Comme Bill Whitaker le rapporte cette semaine sur 60 minutes, l'intelligence artificielle peut manipuler des visages et des voix pour donner l'impression que quelqu'un a dit quelque chose qu'ils n'ont jamais dit.Le résultat est des vidéos de choses qui ne se sont jamais produites, appelées "Deepfakes."Souvent, ils ont l'air si réels, les gens qui regardent ne peuvent pas dire.Ce mois-ci, Justin Bieber a été trompé par une série de vidéos DeepFake sur la plate-forme vidéo de médias sociaux Tiktok qui semblait être de Tom Cruise.
Ces vidéos fabriquées, nommées pour une combinaison de la pratique de l'informatique connu sous le nom de "Deep Learning" et "Fake", sont arrivées pour la première fois sur Internet vers la fin de 2017.La sophistication de Deepfakes a progressé rapidement au cours des quatre années qui ont suivi, ainsi que la disponibilité des outils nécessaires pour les fabriquer.
Mais au-delà de divertir les utilisateurs de médias sociaux et de tromper des chanteurs pop sans méfiance, Deepfakes peut également constituer une menace sérieuse.
Dans un document de revue de droit de California 2018, les chercheurs juridiques Bobby Chesney et Danielle Citron ont décrit les dommages potentiels que Deepfakes posent aux individus et à la société.Deepfakes, ont-ils écrit, peuvent potentiellement déformer le discours démocratique;manipuler les élections;Éroder la confiance dans les institutions;mettre en danger la sécurité publique et la sécurité nationale;réputation des dommages;et saper le journalisme.
La principale menace des folkes profonds découle de personnes convaincus que quelque chose de fictif s'est vraiment produit.Mais Deepfakes peut déformer la vérité d'une autre manière insidieuse.Alors que les vidéos manipulées imprègnent Internet, il peut devenir progressivement difficile de séparer les faits de la fiction.Donc, si une vidéo ou un audio peut être truqué, alors n'importe qui peut rejeter la vérité en affirmant qu'il s'agit de médias synthétiques.
C'est un paradoxe Chesney et Citron appellent le "dividende du menteur."
"Alors que le public devient plus conscient de l'idée que la vidéo et l'audio peuvent être truqués de manière convaincante, certains essaieront d'échapper à la responsabilité de leurs actions en dénonçant une vidéo et un audio authentiques que DeepFakes", ont-ils écrit."En termes simples: un public sceptique sera prêt à douter de l'authenticité de véritables preuves audio et vidéo."
Alors que le public en apprend davantage sur les menaces posées par DeepFakes, les efforts pour démystifier les mensonges peuvent plutôt sembler légitimer la désinformation, car une partie du public pense qu'il doit y avoir une certaine vérité dans la revendication frauduleuse.C'est le soi-disant "dividende" versé au menteur.
Un exemple public de cela s'est produit l'année dernière, lorsque Winnie Heartsstrong, un candidat républicain au Congrès, a publié un rapport de 23 pages affirmant que la vidéo du meurtre de George Floyd était en fait un Fakefake.Le faux rapport a allégué que Floyd avait été mort depuis longtemps.
"Nous concluons que personne dans la vidéo n'est vraiment une seule personne, mais ce sont tous des composites numériques de deux ou plusieurs personnes réelles pour former des personnes numériques complètement nouvelles utilisant la technologie DeepFake", a écrit Heartsstrong dans le rapport, selon The Daily Beast.
Nina Schick, politologue et consultante en technologie, a écrit le livre Deepfakes.Elle a déclaré à 60 minutes que le concept de "dividende de menteur" comptait le potentiel d'éroder l'écosystème de l'information.
Les vidéos, a-t-elle souligné, sont actuellement des preuves convaincantes devant un tribunal.Mais si les jurés ne peuvent pas s'entendre sur leur authenticité, la même vidéo pourrait exonérer quelqu'un - ou l'envoyer en prison pendant des années.
"Nous devons vraiment réfléchir à la façon dont nous dans la sécurité de la sécurité afin que nous puissions nous assurer qu'il y a un certain degré de confiance avec tout le contenu numérique avec lequel nous interagissons au quotidien", a déclaré Schick."Parce que si nous ne le faisons pas, alors une idée d'une réalité partagée ou d'une réalité objective partagée va absolument disparaître."
À la recherche de la vérité - comment authentifier les vraies vidéos
Mais comment les gens peuvent-ils déterminer si une vidéo a été truquée?Schick a dit qu'il y avait deux façons d'aborder le problème.La première consiste à créer une technologie qui peut déterminer si une vidéo a été manipulée - une tâche plus difficile qu'il n'y paraît.
En effet.Gans se compose de deux réseaux de neurones, qui sont une série d'algorithmes qui trouvent des relations dans un ensemble de données, comme une collection de photos de visages.Les deux réseaux - l'un un «générateur», l'autre un «discriminateur» - sont ensuite opposés les uns aux autres.
Le générateur tente de perfectionner une sortie, des images de visages, par exemple, tandis que le discriminateur essaie de déterminer si les nouvelles images avaient été créées artificiellement.Alors que les deux réseaux se contressent dans une sorte de concurrence, ils se concentrent les uns les autres.Le résultat est une sortie qui s'améliore de plus en plus au fil du temps.
"Ce sera toujours un jeu de chat et de souris", a déclaré Schick."Parce que dès que vous construisez un modèle de détection qui peut détecter un type defake Deep, il y aura un générateur qui pourra battre ce détecteur."
Schick l'a comparé aux logiciels antivirus qui doivent être continuellement mis à jour car les virus progressent plus rapidement que le logiciel qui les trouve.
Plutôt que d'essayer de détecter des vidéos qui ont été truquées, a déclaré Schick, la réponse peut résider dans la validation de vraies vidéos.C'est une approche connue sous le nom de "Provenance des médias."
Pour ce faire, la technologie devra être intégrée dans le matériel et les logiciels.Pour une vidéo, la technologie indiquerait où la vidéo a été tournée et conserverait comment elle avait été manipulée.Pensez-y, d'une certaine manière, comme un filigrane numérique imprimé chaque fois qu'une vidéo est modifiée.
Pour que cela fonctionne, le filigrane doit être permanent, incapable d'être modifié par les parties externes.Ensuite, il n'y aurait pas de contestation, par exemple, que la vidéo du meurtre de George Floyd avait été tournée à l'extérieur de 3759 Chicago Ave.à Minneapolis le 25 mai 2020 et jamais modifié.
"C'est exactement le genre d'idée plus large pour la provenance des médias", a déclaré Schick, "que vous avez une chaîne, presque comme un grand livre, immuable, dans l'ADN de ce contenu que personne ne peut altérer, personne ne peut éditer pour vous montrernon seulement que c'est réel, mais là où il a été pris, quand il a été pris."
Aujourd'hui, les formes les plus populaires de registre immuable sont créées par la technologie blockchain.Il fonctionne comme une base de données électronique publique sécurisée, qui est l'approche sous-jacente qui permet aux crypto-monnaies telles que le bitcoin pour enregistrer les transactions.
Si un fabricant de systèmes d'exploitation de téléphonie mobile devait adopter cette approche, par exemple, toute photo ou vidéo prise par un smartphone pourrait être authentifiée par cette chaîne de provenance.
Mais les entreprises individuelles utilisant une technologie d'authentification ne suffit pas, a déclaré Schick.Au lieu de cela, la société devra avoir une approche à multiples facettes, avec des décideurs travaillant avec des technologues et des entreprises.
D'autres sont d'accord.Adobe, en partenariat avec Twitter et le New York Times, a annoncé en 2019 la Contenu Authenticity Initiative, une coalition de journalistes, de technologues, de créateurs et de leaders "qui cherchent à aborder la désinformation et l'authenticité du contenu à grande échelle."Plus tôt cette année, Adobe, Microsoft, la BBC et d'autres ont formé la coalition pour la provenance et l'authenticité du contenu, un consortium travaillant sur des normes communes pour la provenance des médias numériques.
"Vous parlez vraiment d'essayer de trouver un moyen de construire des garanties et une résilience à cet écosystème d'information en évolution rapide", a déclaré Schick, "qui est devenu de plus en plus corrompu, dans lequel les fesses profondes sont vraiment la dernière menace émergente et évolutive."
La vidéo ci-dessus a été produite par Brit McCandless Farmer et Will Croxton.Il a été édité par Will Croxton.
Download our Free App
For Breaking News & Analysis Download the Free CBS News app