InvestigateTV - A tecnologia usada para criar vídeos realistas de um ator internacionalmente famoso, um ex-presidente dos EUA e até mesmo um líder mundial em meio a um conflito violento está sendo usada em americanos comuns.
O motivo: usar seu rosto amigável pode facilmente envolver pessoas que você conhece em um golpe.
Essas falsificações misteriosas são criadas com ciência da computação de ponta projetada para imitar o cérebro humano.
Na comunidade de inteligência artificial (IA), os vídeos são chamados de “deepfakes”. O termo é usado para áudio, imagens ou vídeos que foram manipulados para parecerem reais.
Deepfakes usam uma forma de IA chamada “aprendizagem profunda”, uma tecnologia que tenta copiar como os humanos pensam e aprendem. É também onde o “deep” em deepfake é derivado.
Recentemente, o usuário do Tiktok Chris Ume se tornou viral com seu deepfake do ator Tom Cruise. Em 2018, o diretor Jordan Peele e o Buzzfeed divulgaram um deepfake do ex-presidente Barack Obama para alertar as pessoas sobre os avanços da tecnologia e como eles poderiam espalhar informações erradas por meio do uso indevido.
Quando se trata de rastrear esses vídeos potencialmente problemáticos, uma das poucas organizações com dados sobre deepfakes é a Sensity, uma empresa com sede em Amsterdã que emprega aprendizado profundo e tecnologias de computador para detectar deepfakes.
De acordo com a Sensity, os deepfakes surgiram no final de 2017 e os números online aumentaram rapidamente. Em 2018, a empresa rastreou mais de 7.000 vídeos deepfake online. Em dezembro de 2020, o relatório mostra que o número disparou para mais de 85.000 deepfakes online.
Os dados da Sensity rastreiam apenas incidentes envolvendo figuras públicas. Não inclui incidentes envolvendo particulares. No entanto, os hackers estão falsificando mais do que apenas celebridades e políticos.
Hackeado e deepfaked
Kyle Hawkins sabe disso muito bem. Ele entrou involuntariamente no mundo dos deepfakes quando suas contas de mídia social foram hackeadas em fevereiro de 2022.
Hawkins é um agente de seguros especializado em Medicare e planejamento de aposentadoria em Richmond, Virgínia.
Um dia, ele abriu o Instagram e disse que viu uma mensagem de um velho amigo. Hawkins pensou que o amigo estava procurando seus serviços e pedindo ajuda.
“Recebi uma mensagem através do Instagram de alguém de quem eu era amigo, que presumi que a mesma coisa tivesse acontecido com eles, mas não sabia”, disse Hawkins.
Acontece que esse amigo foi hackeado. Quando Hawkins clicou em um link na mensagem, ele disse que rapidamente perdeu o controle de sua conta.
“Eu não estava pensando em nada sobre isso”, disse Hawkins. “E então eu meio que consegui acessar o Instagram naquela manhã e, quando verifiquei que era hora do almoço, tudo estava errado lá.”
Hawkins disse que tanto seu Instagram quanto sua conta vinculada ao Facebook foram hackeados, abrindo seus seguidores para ataques semelhantes.
Foi aí que ele disse que o deepfake começou. Hawkins disse que um vídeo deepfake de 16 segundos foi enviado a seus amigos e seguidores, incentivando-os a investir na mineração de Bitcoin. Ele confirmou que o vídeo parece e soa exatamente como ele.
“Parece real, mas eles estão enviando para as pessoas. Eles fizeram outros, eu acho”, disse Hawkins.
Ele disse que o vídeo foi postado nas histórias do Instagram todos os dias desde o hack inicial. Nele, ele disse que o “falso Hawkins” compartilha quanto dinheiro ele ganhou com o Bitcoin. O problema é que Hawkins disse que nunca investiu em criptomoeda.
“Não tenho nenhum Bitcoin, então não fiz isso”, disse Hawkins.
Hawkins disse que entrou em contato com ambas as plataformas de mídia social na esperança de encerrar sua conta, mas suas contas do Instagram e do Facebook ainda estão ativas.
Expansão e regulamentações do deepfake
Ben Coleman, CEO da Reality Defender, trabalha com organizações e agências governamentais para escanear áudio, imagens e vídeos para proteger a privacidade dos indivíduos, bem como além de combater fraudes, conteúdo impróprio e buscar uma solução para o aumento de deepfakes.
“A troca de rostos é uma falsificação profunda”, disse Coleman. “Alguns deles são engraçados e alguns deles são usados para fraude.”
Ele disse que os vídeos também podem ser potencialmente perigosos.
Em 16 de março, durante a ação militar da Rússia na Ucrânia, um deepfake surgiu nas redes sociais do presidente ucraniano Volodymyr Zelensky. O vídeo mostrava Zelensky fazendo um discurso. No entanto, ele estava pixelado e tinha uma voz mais profunda do que o normal. Depois que o vídeo foi rotulado como deepfake, a Meta - empresa controladora do Facebook - rapidamente agiu para remover o vídeo de todas as suas plataformas e emitiu a seguinte declaração, dizendo que a empresa “revisou e removeu rapidamente este vídeo por violar nossa política contra mídia manipulada enganosa, e notificou nossos colegas em outras plataformas.”
Esta não foi a primeira vez que Meta abordou deepfakes. Antes da eleição presidencial de 2020, a empresa proibiu deepfakes e outros vídeos manipulados citando táticas perigosas que poderiam enganar o público.
Em um comunicado de imprensa do Facebook de 2020, a empresa disse que está trabalhando no problema e "reforçando sua política em relação a vídeos manipulados enganosos". A política de mídia manipulada do Facebook descreve que vídeos não paródicos ou satíricos editados para enganar as pessoas ou vídeos que usam IA para parecer autêntico serão removidos.
Não há números públicos sobre quantos vídeos deepfake o Facebook removeu, mas em um comunicado, a empresa disse que está “trabalhando com outras pessoas nesta área para encontrar soluções com impacto real”.
Em setembro de 2019, a empresa criou um “Deep Fake Detection Challenge” que pediu a especialistas da área que ajudassem a criar ferramentas de código aberto para detectar deepfakes.
CLIQUE AQUI PARA ASSISTIR AO VÍDEO DO DESAFIO
A Meta também fez parceria com meios de comunicação como a Reuters para ajudar a identificar deepfakes e fornecer treinamento online gratuito sobre como identificar imagens manipuladas.
Ben Coleman disse que enquanto as empresas e organizações de mídia social estão tentando combater o problema, ainda existem obstáculos significativos.
“Muitas vezes, essas empresas têm grandes desafios porque têm moderadores humanos e moderadores humanos simplesmente não conseguem mais distinguir entre real e falso”, disse Coleman.
O senador Rob Portman (R-OH) apresentou um projeto de lei no Congresso no ano passado para exigir que o Departamento de Segurança Interna e o Escritório de Política Científica e Tecnológica da Casa Branca estabelecessem uma Força-Tarefa Nacional de Proveniência Deepfake temporária. O projeto de lei foi encaminhado ao Comitê de Segurança Interna e Assuntos Governamentais e foi “ordenado para ser relatado sem emendas favoráveis”.
Coleman disse que não há políticas atuais nos EUA que exijam que as empresas sinalizem mídia sintética e falsa da maneira como sinalizam nudez e violência infantil.
“Na maioria das vezes, [as empresas estão] pedindo aos usuários que sinalizem coisas”, disse Coleman. “Eles esperam que os usuários sejam especialistas e, se virem algo, devem dizer algo e, em seguida, enviar para uma equipe de moderadores humanos”.
Soluções de deepfake públicas e privadas
De acordo com Coleman, a Reality Defender está atualmente trabalhando na criação de uma extensão de navegador e site para ajudar os consumidores a detectar deepfakes em seus computadores pessoais.
Mas o Reality Defender não está sozinho na luta contra os deepfakes.
Na Universidade da Virgínia, uma equipe de alunos do terceiro ano está desenvolvendo um site para o público, onde um dia os consumidores poderão enviar vídeos e fotos questionáveis para verificar se são falsos.
Dois desses alunos, Ahmed Hussain e Sam Buxbaum, estão estudando ciência da computação e física. A dupla ganhou o prêmio máximo na competição Innovative Discovery Science Platform (iDISPLA). A proposta deles, que visava combater deepfakes usando IA, surgiu depois que a dupla viu um aumento de vídeos deepfake surgindo na internet.
“É definitivamente possível que deepfakes nos próximos cinco anos sejam quase indistinguíveis de pessoas reais em alguns casos”, disse Hussain. “Eles estão chegando ao ponto em que é muito difícil fazer isso.”
Hussain disse acreditar que a solução não é combater fogo com fogo, mas usar blockchain, um sistema que registra informações e dificulta hackear ou enganar o sistema.
Buxbaum disse que seu site permitiria que as pessoas enviassem um vídeo e o algoritmo indicasse se o vídeo é falso.
“Algumas das coisas que são diferentes entre um deepfake e um vídeo real são detectáveis apenas por um computador, mas ainda fazem você se sentir estranho quando assiste”, disse Buxbaum.
Protegendo sua conta e detectando deepfakes
À medida que as soluções on-line e os legisladores alcançam a tecnologia, Coleman sugeriu várias etapas para ajudar a impedir que um hacker use suas fotos e vídeos para criar deepfakes:
Quando se trata de detectar deepfakes, os pesquisadores do Instituto de Tecnologia de Massachusetts sugerem observar as características faciais do vídeo:
Kyle Hawkins disse que sua experiência o deixou cauteloso com as mídias sociais e esse novo estilo de fraude cibernética.
“Apenas seja mais cauteloso hoje em dia sobre qualquer coisa que você colocar lá, postar lá, responder ou clicar.”
Copyright 2022 Gray Media Group, Inc. Todos os direitos reservados.