En un mundo donde ver cada vez más no es creer, los expertos advierten que la sociedad debe adoptar un enfoque múltiple para combatir los daños potenciales de los medios generados por computadora.
Como Bill Whitaker informa esta semana en 60 minutos, la inteligencia artificial puede manipular caras y voces para que parezca que alguien dijo algo que nunca dijo..El resultado son videos de cosas que nunca sucedieron, llamados "Deepfakes."A menudo, se ven tan reales que la gente que mira no puede decir.Justo este mes, Justin Bieber fue engañado por una serie de videos de Deepfake en la plataforma de video de redes sociales Tiktok que parecía ser de Tom Cruise.
Estos videos fabricados, llamados así por una combinación de la práctica de la informática conocida como "aprendizaje profundo" y "falso", llegaron por primera vez a Internet cerca de finales de 2017.La sofisticación de Deepfakes ha avanzado rápidamente en los siguientes cuatro años, junto con la disponibilidad de las herramientas necesarias para hacerlas.
Pero más allá de entretener a los usuarios de las redes sociales y engañar a los desprevenidos cantantes pop, Deepfakes también puede representar una seria amenaza.
En un documento de revisión de la ley de California 2018, los académicos legales Bobby Chesney y Danielle Citron describieron los posibles daños que los profundos posan para los individuos y la sociedad.Los profundos, escribieron, pueden distorsionar el discurso democrático;manipular las elecciones;erosionar confianza en las instituciones;poner en peligro la seguridad pública y la seguridad nacional;reputación de daño;y socavar el periodismo.
La principal amenaza de los defensores se deriva de las personas que se convencen de que algo ficticio realmente ocurrió.Pero los defensores pueden distorsionar la verdad de otra manera insidiosa.A medida que los videos manipulados impregnan Internet, puede ser progresivamente más difícil separar los hechos de la ficción.Entonces, si se puede falsificar un video o audio, entonces cualquiera puede descartar la verdad al afirmar que es un medio sintético.
Es una paradoja Chesney y Citron llaman al "dividendo de mentiroso."
"A medida que el público se vuelve más consciente de la idea de que el video y el audio pueden ser convincentemente falsos, algunos intentarán escapar de la responsabilidad por sus acciones denunciando videos y audio auténticos como defensores", escribieron."En pocas palabras: un público escéptico estará preparado para dudar de la autenticidad de la evidencia de audio y video real."
A medida que el público aprende más sobre las amenazas planteadas por Deepfakes, los esfuerzos para desacreditar mentiras pueden parecer legitimar la desinformación, ya que una parte de la audiencia cree que debe haber algo de verdad en la afirmación fraudulenta.Ese es el llamado "dividendo" pagado al mentiroso.
Un ejemplo público de esto ocurrió el año pasado, cuando Winnie Heartstrong, un candidato republicano al Congreso, publicó un informe de 23 páginas alegando que el video del asesinato de George Floyd era en realidad un defake profundo.El falso informe alegó que Floyd había sido muerto mucho.
"Concluimos que nadie en el video es realmente una persona, sino que todos son compuestos digitales de dos o más personas reales para formar personas digitales completamente nuevas que usan tecnología Deepfake", escribió Heartstrong en el informe, según The Daily Beast.
Nina Schick, un politólogo y consultora de tecnología, escribió el libro Deepfakes.Ella le dijo a 60 minutos este concepto de "dividendo de mentiroso" conlleva el potencial de erosionar el ecosistema de información.
Los videos, señaló, actualmente son pruebas convincentes en un tribunal de justicia.Pero si los miembros del jurado no pueden estar de acuerdo con su autenticidad, el mismo video podría exonerar a alguien, o enviarlo a prisión durante años.
"Realmente tenemos que pensar en cómo construimos algún tipo de seguridad para que podamos asegurarnos de que haya algún grado de confianza con todo el contenido digital con el que interactuamos en el día a día", dijo Schick.."Porque si no lo hacemos, entonces cualquier idea de una realidad compartida o una realidad objetiva compartida va a desaparecer absolutamente."
Buscando la verdad: cómo autenticar videos reales
Pero, ¿cómo puede la gente determinar si un video ha sido falsificado?Schick dijo que hay dos formas de abordar el problema.La primera es construir tecnología que pueda determinar si se ha manipulado un video, una tarea que es más difícil de lo que parece.
Esto se debe a que la tecnología que hace posible a DeepFakes es un tipo de aprendizaje profundo llamado redes adversas generativas (GANS).Gans consisten en dos redes neuronales, que son una serie de algoritmos que encuentran relaciones en un conjunto de datos, como una colección de fotos de caras.Las dos redes, una un "generador", la otra un "discriminador", se enfrentan entre sí.
El generador intenta perfeccionar una salida, imágenes de caras, por ejemplo, mientras que el discriminador intenta determinar si las nuevas imágenes se habían creado artificialmente.A medida que las dos redes trabajan entre sí en una especie de competencia, se perfeccionan el uno al otro..El resultado es un resultado que mejora cada vez más con el tiempo.
"Este siempre será un juego de gato y ratón", dijo Schick."Porque tan pronto como construya un modelo de detección que pueda detectar un tipo de defake profundo, habrá un generador que podrá vencer a ese detector."
Schick lo comparó con el software antivirus que debe actualizarse continuamente porque los virus avanzan más rápidamente que el software que los encuentra.
En lugar de intentar detectar videos que han sido falsificados, dijo Schick, la respuesta puede estar validando videos reales.Es un enfoque conocido como "procedencia de medios."
Para hacer esto, la tecnología deberá integrarse en hardware y software.Para un video, la tecnología indicaría dónde se filmó el video y mantendría un registro de cómo se había manipulado.Piénselo, en cierto modo, como una marca de agua digital impresa cada vez que se edita un video.
Para que funcione, la marca de agua debe ser permanente, incapaz de ser cambiada por partes externas.Entonces no habría disputas, por ejemplo, que el video del asesinato de George Floyd había sido filmado fuera de 3759 Chicago Ave.en Minneapolis el 25 de mayo de 2020 y nunca modificado.
"Ese es exactamente cuál es el tipo de idea más amplia para la procedencia de los medios", dijo Schick, "que tienes una cadena, casi como un libro mayor, inmutable, en el ADN de ese contenido con el que nadie puede manipular, nadie puede editar para mostrarteno solo que esto es real, sino donde fue tomado, cuando fue tomado."
Hoy, las formas más populares de libro mayor inmutable se están creando a través de la tecnología blockchain.Funciona como una base de datos electrónica pública segura, que es el enfoque subyacente que permite que las criptomonedas como Bitcoin registren transacciones.
Si un fabricante del sistema operativo de teléfonos móviles adoptara este enfoque, por ejemplo, entonces cualquier foto o video tomada por un teléfono inteligente podría ser autenticado a través de esta cadena de procedencia.
Pero las empresas individuales que usan tecnología de autenticación no son suficientes, dijo Schick.En cambio, la sociedad necesitará tener un enfoque multifacético, con formuladores de políticas que trabajan con tecnólogos y empresas.
Otros están de acuerdo.Adobe, en asociación con Twitter y el New York Times, en 2019 anunció la Iniciativa de autenticidad de contenido, una coalición de periodistas, tecnólogos, creadores y líderes "que buscan abordar la información errónea y la autenticidad de contenido a escala."A principios de este año, Adobe, Microsoft, la BBC y otros formaron la Coalición de Procedencia y Autenticidad de Contenido, un consorcio que trabaja en estándares comunes para la procedencia de medios digitales.
"Realmente estás hablando de tratar de encontrar una manera de construir salvaguardas y resistencia a este ecosistema de información que cambia rápidamente", dijo Schick, "que se ha vuelto cada vez más corrupto, en el que los profundos son realmente las últimas amenazas emergentes y en evolución."
El video de arriba fue producido por Brit McCandless Farmer y Will Croxton.Fue editado por Will Croxton.
Download our Free App
For Breaking News & Analysis Download the Free CBS News app