À medida que aumenta o burburinho em torno do metaverso, muitos estão levantando preocupações sobre os riscos potenciais em um ambiente onde as fronteiras entre os mundos físico e virtual continuam a se confundir.
O metaverso é um mundo de realidade virtual caracterizado por uma experiência tridimensional e multissensorial (em comparação com a atual internet bidimensional – texto e imagens em telas planas). Segundo alguns especialistas, o que há de mais próximo do metaverso hoje pode ser visto em jogos como Fortnite e experiências no Roblox.
Você leu?
Construindo ecossistemas de confiança
Abordar a necessidade de construir ecossistemas confiáveis dentro das tecnologias desenvolvidas para o metaverso é uma consideração crítica. Esses ecossistemas confiáveis constituirão a construção de algoritmos, estruturas, estruturas, regulamentos e políticas dentro dos ciclos de desenvolvimento de hardware e software para abordar os elementos distintos de segurança, privacidade e proteção dentro do DNA da tecnologia.
A maneira como os dados são compartilhados em mundos virtuais precisará ser considerada com mais cuidado para garantir a privacidade. Uma segunda dimensão a ser considerada nas considerações de privacidade do desenvolvimento do metaverso é a eliminação de vieses que levarão a uma adaptação não inclusiva ou maliciosa do mundo real. Engajar-se no metaverso constituirá uma utilização de tecnologias emergentes integrativas. Isso exige um processo global de validação de segurança de caixa aberta da proteção fornecida nos ambientes contra violação de confidencialidade, integridade ou outros aspectos de segurança.
Esses ecossistemas de confiança contribuirão para criar uma existência estável, inclusiva e proposital de uma existência virtual e imersiva.
Como esses riscos podem se desdobrar no metaverso?
Para entender como os riscos à segurança podem se tornar mais prevalentes no metaverso, uma construção-chave desse futuro digital deve ser compartilhada: “Central ao conceito de o metaverso é a ideia de que ambientes 3D virtuais que são acessíveis e interativos em tempo real se tornarão o meio transformador para o engajamento humano. Se eles se tornarem práticos, esses ambientes dependerão da adoção generalizada da realidade estendida”.
Mesmo que não seja uma existência totalmente imersiva, é provável que muitas pessoas passem mais tempo misturando interações offline e virtuais, caminhando para uma realidade mista (RM). Violações de privacidade e segurança são caminhos que podem comprometer a segurança das interações e dos usuários. Por exemplo, isso pode assumir a forma de alguém disfarçado de médico para obter acesso à tecnologia do centro cirúrgico para cirurgias realizadas digitalmente.
Uma boa noção dos riscos potenciais pode ser encontrada em alguns aplicativos existentes que criam “mundos virtuais”, como em muitas plataformas de jogos. É claro que existem desafios de segurança significativos que já se apresentaram nesses ambientes. Por exemplo, recriações do tiroteio na mesquita de Christchurch em 2019 destinadas a crianças muito pequenas foram encontradas várias vezes na plataforma Roblox, apesar dos esforços significativos da parte da empresa para conter a maré de tal conteúdo.
Conteúdo terrorista e extremista violento não é o único mal nesses mundos virtuais. Recentemente, no Oculus Quest VR Headset do Facebook, um funcionário experimentou um discurso racista que durou vários minutos enquanto jogava Rec Room e não conseguiu identificar ou denunciar o usuário. Apalpar também tem sido um problema que surgiu no metaverso, por vários motivos.
Onde estamos hoje em relação aos riscos digitais?
Dando um passo para trás e olhando para o contexto digital atual, os riscos de danos já estão crescendo. De acordo com o último Relatório de Avaliação de Ameaças Globais da WEProtect Global Alliance, 1 em cada 3 (34%) entrevistados da pesquisa global Economist Impact foi solicitado a fazer algo sexualmente explícito on-line com o qual se sentiam desconfortáveis durante a infância. Além disso, a The Internet Watch Foundation viu um aumento de 77% no material sexual infantil "autogerado" de 2019 a 2020.
Para abordar a segurança de maneira abrangente à medida que o metaverso emerge, precisamos fazer parceria com outras pessoas no governo, indústria, academia e sociedade civil.
Mesmo antes do COVID-19, mais da metade das meninas e mulheres jovens haviam sofrido abuso online, de acordo com uma pesquisa global do ano passado pela Web Foundation, uma organização co-fundada pelo inventor da web, Tim Berners-Lee. Compartilhar imagens, vídeos ou informações privadas sem consentimento - conhecido como doxxing - foi a questão mais preocupante para meninas e mulheres jovens em todo o mundo, de acordo com a pesquisa da Web Foundation. Um em cada quatro negros americanos e um em cada 10 hispano-americanos enfrentaram discriminação online como resultado de sua raça ou etnia, em comparação com apenas 3% dos americanos brancos. Os riscos já são altos, especialmente para grupos vulneráveis.
"Contribuir para o metaverso de maneira responsável exigirá pesquisa, colaboração e investimento em segurança no que se refere ao XR", explica Antigone Davis, chefe global de segurança da Meta. " Por exemplo, estamos investindo em controles que permitem aos usuários gerenciar e relatar conteúdo e conduta problemáticos, bem como ferramentas de segurança projetadas para experiências imersivas. Mas não podemos fazer isso sozinhos. Para abordar a segurança de maneira abrangente à medida que o metaverso emerge , precisamos fazer parceria com outros no governo, indústria, academia e sociedade civil."
Isso é muito importante, visto que os riscos digitais no metaverso parecerão mais reais com base em como nossos cérebros interpretam a experiência imersiva; Mary Anne Franks, presidente da Cyber Civil Rights Initiative, observou em seu artigo sobre realidade virtual e aumentada que pesquisas indicam que o abuso em RV é “muito mais traumático do que em outros mundos digitais”.
Como os riscos podem ser exacerbados no metaverso?
Existem várias maneiras pelas quais os riscos atuais podem ser exacerbados no metaverso. Em primeiro lugar, dependendo da forma como estes espaços digitais são governados, existem riscos de contacto indesejado num ambiente multimodal mais intrusivo. Hoje, se alguém que não conhecemos ou com quem não queremos nos envolver, entra em contato por mensagem, amizade ou tenta entrar em contato conosco em plataformas como Instagram, Facebook etc., sua capacidade de contato é limitada principalmente a estendendo mensagens baseadas em texto, fotos, emojis, etc.
No entanto, imagine um indivíduo indesejado sendo capaz de entrar no espaço virtual de alguém e “chegar perto” dessa pessoa no metaverso. Sem mecanismos robustos para relatar, prevenir e agir em tempo real, isso pode levar a uma conduta indesejada. Com a tecnologia háptica, os riscos de danos no metaverso parecerão mais “reais” não são exagerados, visto que muitas empresas estão trabalhando para incorporar o toque como uma sensação adicional em uma realidade imersiva.
Por exemplo, luvas hápticas desenvolvidas por muitas organizações visam fornecer feedback tátil para fornecer uma sensação mais precisa e realista de qualquer movimento. Embora, é claro, isso possa criar um melhor senso de realidade e aumentar a conexão em um ambiente virtual, isso também pode ser potencialmente abusado por pessoas mal-intencionadas de maneiras que podem não ser totalmente compreendidas ainda.
O conteúdo prejudicial que se prolifera muito rapidamente em nossas vidas digitais atuais também pode se traduzir no metaverso em conteúdo indesejado mais gráfico, 3D e auditivo que parece mais intrusivo e tem um impacto maior devido à natureza multissensorial do ambiente em que é propagado.
O aumento das moedas virtuais pode muitas vezes ser outro desafio na proliferação de conteúdo e atividades prejudiciais online. Por exemplo, afirma-se que as crianças estão usando seus avatares para fornecer lap dances em clubes de strip-tease virtuais em troca da moeda virtual “Robux”. As criptomoedas são uma opção popular para quem compra material de abuso sexual infantil (CSAM), pois seu controle descentralizado e a independência de instituições financeiras também garantem o anonimato, de acordo com um relatório da ActiveFence.
Dado o papel que se espera que as moedas digitais desempenhem no metaverso, os incentivos financeiros e as estruturas de pagamento que levam à proliferação de conteúdo prejudicial provavelmente aumentarão em tamanho e complexidade com a mudança para esta web 3.0.
Existe um risco adicional de rastreamento e retenção de dados biométricos, fornecendo plataformas com “uma nova qualidade de informação que é composta por sua identidade real combinada com estímulos – indicando o que você pode pensar, gostar e querer de maneira única.”, de acordo com a especialista em tecnologia e direitos humanos Brittan Heller; em seu artigo Reimagining Reality: Human Rights and Immersive Technology, ela cunha o termo “psicografia biométrica” e discute as possíveis implicações da nova coleta de dados com tecnologias imersivas para direitos humanos, privacidade e autocensura.
Então, o que pode ser feito sobre isso?
Muitas empresas, especialistas acadêmicos e da sociedade civil, reguladores, estão defendendo leis e novas regulamentações para que coisas que não são permitidas no mundo real são igualmente criminalizados em espaços online. Por exemplo, Bumble está pressionando para criminalizar o cyberflashing. Seu CEO, Whitney Wolfe Herd, perguntou aos legisladores: "Se atentado ao pudor é crime nas ruas, então por que não está em seu telefone ou computador?"
A advogada de direitos humanos Akhila Kolisetty disse que Índia, Canadá, Inglaterra, Paquistão e Alemanha estão entre um pequeno número de países que proibiram o abuso sexual baseado em imagens, onde fotos privadas são compartilhadas sem consentimento. Muitos países carecem de leis para formas emergentes de abuso digital, como “deepfakes”, em que o rosto de uma mulher pode ser sobreposto a um vídeo pornô e compartilhado em plataformas de mensagens.
Australia eSafety Commissioner fornece suporte para aqueles que sofrem tais abusos, mas muitos outros países estão ficando para trás em tais mecanismos e funções regulatórias. O mesmo se aplica à proteção de crianças online. “Nossa sociedade diz que vamos proteger as crianças no mundo físico, mas ainda não vimos isso da mesma forma no lado digital”, disse Steven J. Grocki, que lidera o seção de exploração infantil e obscenidade do Departamento de Justiça. Atualizar as leis a serem aplicadas em um contexto digital será um componente chave para governar o metaverso.
Hoda Alkhzaimi, Professor Assistente de Pesquisa, Engenharia da Computação; O diretor do Centro de Segurança Cibernética da NYU Abu Dhabi acrescentou que há uma evolução constante nos meios pelos quais construímos mecanismos de ataque em uma plataforma virtual. Este nunca é um ciclo de desenvolvimento fixo. Devemos estar atentos a como construímos os elementos de software e hardware da tecnologia para incluir elementos indígenas de consideração de segurança para proteger a integridade do conteúdo desenvolvido, as interações criadas pelos usuários dentro do ambiente e holisticamente a estabilidade do mundo virtual apresentado. Não há um único fator a ser considerado aqui, pois todos os aspectos de confidencialidade, integridade, autenticidade, acessibilidade, privacidade e segurança precisam ser desenvolvidos. Ataques em dispositivos virtuais foram construídos no passado por meio de plataformas de código aberto, como a plataforma OpenVR da Valve.
Como podemos garantir que isso não seja um fato recorrente dentro de uma infraestrutura virtual crítica?
Organizações da sociedade civil, como Access Now e EFF, estão pedindo aos governos e outras partes interessadas que abordem os direitos humanos no contexto da realidade virtual e aumentada.
A outra área importante que pode ser aprimorada são as políticas, a aplicação e os mecanismos gerais de moderação que as plataformas adotam.
“As plataformas VR e AR precisam de termos de serviço específicos para ambientes imersivos, com base em como essa tecnologia interage com nossos cérebros. Não podemos simplesmente aplicar as regras das mídias sociais existentes ao Metaverso”, diz Heller, especialista em tecnologia e direitos humanos. “Isso é importante”, enfatiza Heller, “porque a governança de plataformas em mundos digitais deve regular o comportamento, além do conteúdo”.
No momento, uma das formas mais comuns de governança em mundos virtuais é uma forma reativa e punitiva de moderação. Isso não impede que os danos ocorram em primeiro lugar e, muitas vezes, as consequências podem ser contornadas à medida que os maus atores se tornam mais sofisticados em como seguir a linha das políticas. Encontrar maneiras de incentivar melhores comportamentos e talvez recompensar interações positivas pode precisar se tornar uma parte maior de um futuro digital mais seguro, especialmente devido ao aumento dos riscos de segurança no metaverso.