• Tecnologia
  • Equipamento elétrico
  • Indústria de Materiais
  • Vida digital
  • política de Privacidade
  • Ó nome
Localização: Casa / Tecnologia / O impacto de DeepFakes: como você sabe quando um vídeo é real?

O impacto de DeepFakes: como você sabe quando um vídeo é real?

techserving |
2112

Em um mundo em que ver cada vez mais não acredita, os especialistas estão alertando que a sociedade deve adotar uma abordagem multifacetada para combater os possíveis danos da mídia gerada por computador.

Como Bill Whitaker relata esta semana aos 60 minutos, a inteligência artificial pode manipular rostos e vozes para fazer parecer que alguém disse algo que nunca disse.O resultado são vídeos de coisas que nunca aconteceram, chamadas "DeepFakes."Muitas vezes, eles parecem tão reais, as pessoas assistindo não podem dizer.Apenas neste mês, Justin Bieber foi enganado por uma série de vídeos de Deepfake na plataforma de vídeo de mídia social Tiktok que parecia ser de Tom Cruise.

Esses vídeos fabricados, nomeados para uma combinação da prática de ciência da computação conhecida como "Deep Learning" e "Fake", chegou à Internet perto do final de 2017.A sofisticação de DeepFakes avançou rapidamente nos quatro anos seguintes, juntamente com a disponibilidade das ferramentas necessárias para torná -las.

Mas, além de divertir os usuários de mídia social e enganar cantores pop inocentes, os deepfakes também podem representar uma ameaça séria.

Em um artigo de revisão da lei da Califórnia em 2018, os estudiosos do direito Bobby Chesney e Danielle Citron delinearam os potenciais danos que DeepFakes representam para indivíduos e sociedade.Deepfakes, eles escreveram, podem potencialmente distorcer o discurso democrático;manipular eleições;corroer a confiança nas instituições;comprometer a segurança pública e a segurança nacional;dano reputações;e minar o jornalismo.

A principal ameaça de deepfakes decorre de as pessoas que ficam convencidas de que algo fictício realmente ocorreu.Mas os deepfakes podem distorcer a verdade de outra maneira insidiosa.À medida que os vídeos manipulados permeiam a Internet, pode se tornar progressivamente mais difícil separar o fato da ficção.Portanto, se algum vídeo ou áudio puder ser falsificado, qualquer um poderá descartar a verdade alegando que é uma mídia sintética.

É um paradoxo chesney e citron chamam o "dividendo do mentiroso."

"À medida que o público se torna mais consciente da idéia de que o vídeo e o áudio podem ser falsificados de forma convincente, alguns tentarão escapar da responsabilidade por suas ações denunciando vídeo e áudio autênticos como deepfakes", eles escreveram eles."Simplificando: um público cético será preparado para duvidar da autenticidade de evidências reais de áudio e vídeo."

À medida que o público aprende mais sobre as ameaças representadas por DeepFakes, os esforços para desmascarados podem parecer legitimar a desinformação, pois uma parte do público acredita que deve haver alguma verdade na afirmação fraudulenta.Esse é o chamado "dividendo" pago ao mentiroso.

The impact of deepfakes: How do you know when a video is real?

Um exemplo público disso ocorreu no ano passado, quando Winnie Heartstrong, um candidato republicano do Congresso, divulgou um relatório de 23 páginas alegando que o vídeo do assassinato de George Floyd era na verdade um Deepfake.O falso relatório alegou que Floyd havia sido morto há muito tempo.

"Concluímos que ninguém no vídeo é realmente uma pessoa, mas todos são compósitos digitais de duas ou mais pessoas reais para formar pessoas digitais completamente novas usando a tecnologia Deepfake", escreveu Heartstrong no relatório, de acordo com o Daily Beast.

Nina Schick, cientista político e consultor de tecnologia, escreveu o livro Deepfakes.Ela disse à 60 minutos que este conceito de "dividendo de mentiroso" carrega o potencial de corroer o ecossistema de informações.

Os vídeos, ela apontou, estão atualmente convincentes de evidências em um tribunal.Mas se os jurados não podem concordar com sua autenticidade, o mesmo vídeo poderá exonerar alguém - ou enviá -los para a prisão por anos.

"Nós realmente temos que pensar em como embutimos algum tipo de segurança para que possamos garantir que haja algum grau de confiança com todo o conteúdo digital com o qual interagimos no dia-a-dia", disse Schick."Porque se não fizermos, então qualquer idéia de uma realidade compartilhada ou uma realidade objetiva compartilhada vai desaparecer."

Procurando a verdade - como autenticar vídeos reais

Mas como as pessoas podem determinar se um vídeo foi falsificado?Schick disse que existem duas maneiras de abordar o problema.A primeira é criar tecnologia que pode determinar se um vídeo foi manipulado - uma tarefa que é mais difícil do que parece.

Isso ocorre porque a tecnologia que torna os deepfakes possível é um tipo de aprendizado profundo chamado Redes Adversárias Geradoras (GANs).Os Gans consistem em duas redes neurais, que são uma série de algoritmos que encontram relacionamentos em um conjunto de dados, como uma coleção de fotos de rostos.As duas redes - uma "geradora", a outra "discriminadora" - são então colocadas uma contra a outra.

O gerador tenta aperfeiçoar uma produção, imagens de rostos, por exemplo, enquanto o discriminador tenta determinar se as novas imagens foram criadas artificialmente.Enquanto as duas redes funcionam um contra o outro em uma espécie de competição, eles aprimoram a capacidade um do outro.O resultado é uma saída que melhora cada vez mais com o tempo.

"Este sempre será um jogo de gato e mouse", disse Schick."Porque assim que você criar um modelo de detecção que pode detectar um tipo de Deepfake, haverá um gerador que poderá vencer esse detector."

Schick o comparou ao software antivírus que deve ser atualizado continuamente porque os vírus avançam mais rapidamente do que o software que os encontra.

Em vez de tentar detectar vídeos que foram falsificados, disse Schick, a resposta pode estar na validação de vídeos reais.É uma abordagem conhecida como "proveniência da mídia."

Para fazer isso, a tecnologia precisará ser incorporada em hardware e software.Para um vídeo, a tecnologia indicaria onde o vídeo foi filmado e manteria um registro de como foi manipulado.Pense nisso, de certa forma, como uma marca d'água digital impressa toda vez que um vídeo é editado.

Para funcionar, a marca d'água deve ser permanente, incapaz de ser alterada por partes externas.Depois, não haveria disputas, por exemplo, que o vídeo do assassinato de George Floyd foi baleado fora da Avenida de Chicago 3759.em Minneapolis em 25 de maio de 2020 e nunca modificado.

"É exatamente isso que é o tipo de idéia mais ampla para a proveniência da mídia", disse Schick, "que você tem uma cadeia, quase como um livro, imutável, no DNA desse conteúdo com o qual ninguém pode mexer, ninguém pode editar para mostrar a vocênão apenas isso é real, mas onde foi levado, quando foi levado."

Hoje, as formas mais populares de livro imutável estão sendo criadas através da tecnologia blockchain.Ele funciona como um banco de dados eletrônico seguro e seguro, que é a abordagem subjacente que permite que as criptomoedas, como o Bitcoin, registrem transações.

Se um fabricante do sistema operacional de telefone celular adotasse essa abordagem, por exemplo, qualquer foto ou vídeo tirado por um smartphone poderá ser autenticado por meio dessa cadeia de proveniência.

Mas empresas individuais que usam tecnologia de autenticação não são suficientes, disse Schick.Em vez disso, a sociedade precisará ter uma abordagem multifacetada, com os formuladores de políticas trabalhando com tecnólogos e empresas.

Outros concordam.A Adobe, em parceria com o Twitter e o New York Times, em 2019 anunciou a Iniciativa de Autenticidade do Conteúdo, uma coalizão de jornalistas, tecnólogos, criadores e líderes "que procuram abordar a desinformação e a autenticidade do conteúdo em escala."No início deste ano, a Adobe, a Microsoft, a BBC e outros formaram a coalizão para proveniência e autenticidade do conteúdo, um consórcio que trabalha em padrões comuns para proveniência da mídia digital.

"Você está realmente falando sobre tentar descobrir uma maneira de criar salvaguardas e resiliência a esse ecossistema de informações em rápida mudança", disse Schick, "que se tornou cada vez mais corrupto, no qual os deepfakes são realmente a mais recente ameaça emergente e em evolução."

O vídeo acima foi produzido por Brit McCandless Farmer e Will Croxton.Foi editado por Will Croxton.

Download our Free App

For Breaking News & Analysis Download the Free CBS News app