A medida que aumentan los rumores sobre el metaverso, muchos plantean preocupaciones sobre los riesgos potenciales en un entorno donde los límites entre el mundo físico y el virtual siguen desdibujándose.
El metaverso es un mundo de realidad virtual caracterizado por una experiencia tridimensional y multisensorial (en comparación con el Internet bidimensional actual: texto e imágenes en pantallas planas). Según algunos expertos, lo más parecido al metaverso hoy en día se puede ver en juegos como Fortnite y experiencias en Roblox.
¿Has leído?
Construir ecosistemas de confianza
Abordar la necesidad de construir ecosistemas confiables dentro de las tecnologías desarrolladas para el metaverso es una consideración crítica. Estos ecosistemas confiables constituirán la construcción de algoritmos, estructuras, marcos, regulaciones y políticas dentro de los ciclos de desarrollo de hardware y software para abordar los distintos elementos de seguridad, privacidad y protección dentro del ADN de la tecnología.
La forma en que se comparten los datos dentro de los mundos virtuales deberá considerarse con más cuidado para garantizar la privacidad. Una segunda dimensión a considerar dentro de las consideraciones de privacidad del desarrollo del metaverso es la eliminación de sesgos que conducirán a una adaptación no inclusiva o maliciosa del mundo real. Participar en el metaverso constituirá una utilización de tecnologías emergentes integradoras. Esto exige un proceso global completo de validación de seguridad de caja abierta de la protección proporcionada dentro de los entornos contra la violación de la confidencialidad, la integridad u otros aspectos de la seguridad.
Estos ecosistemas de confianza contribuirán a crear una existencia estable, inclusiva y decidida de una existencia virtual e inmersiva.
¿Cómo podrían desarrollarse estos riesgos en el metaverso?
Para comprender cómo los riesgos para la seguridad podrían volverse más frecuentes en el metaverso, se debe compartir una construcción clave de este futuro digital: "Es central para el concepto de el metaverso es la idea de que los entornos virtuales en 3D que son accesibles e interactivos en tiempo real se convertirán en el medio transformador para el compromiso humano. Si se vuelven prácticos, estos entornos dependerán de la adopción generalizada de la realidad extendida”.
Aunque no sea una existencia totalmente inmersiva, es probable que muchas personas pasen más tiempo combinando interacciones virtuales y fuera de línea, moviéndose hacia una realidad mixta (MR). Las violaciones de la privacidad y la seguridad son vías que pueden comprometer la seguridad de las interacciones y los usuarios. Por ejemplo, esto podría tomar la forma de alguien que se hace pasar por médico para obtener acceso a la tecnología de quirófano para cirugías realizadas digitalmente.
Se puede encontrar una buena idea de los riesgos potenciales en algunas aplicaciones existentes que crean "mundos virtuales", como en muchas plataformas de juegos. Está claro que existen importantes desafíos de seguridad que ya se han presentado en estos entornos. Por ejemplo, se han encontrado recreaciones del tiroteo en la mezquita de Christchurch de 2019 dirigido a niños muy pequeños varias veces en la plataforma Roblox a pesar de los esfuerzos significativos por parte de la compañía para detener la ola de dicho contenido.
El contenido terrorista y extremista violento no es el único daño en estos mundos virtuales. Recientemente, en los auriculares Oculus Quest VR de Facebook, un empleado experimentó una diatriba racista que duró varios minutos mientras jugaba Rec Room y no pudo identificar o denunciar al usuario. Tantear también ha sido un problema que ha surgido en el metaverso, por una variedad de razones.
¿Cuál es nuestra posición actual sobre los riesgos digitales?
Dando un paso atrás y observando el contexto digital actual, los riesgos de daños ya están aumentando. Según el último Informe de Evaluación de Amenazas Globales de WEProtect Global Alliance, a 1 de cada 3 (34 %) de los encuestados en su encuesta global de Economist Impact se les pidió que hicieran algo sexualmente explícito en línea con lo que se sintieron incómodos durante la infancia. Además, The Internet Watch Foundation vio un aumento del 77 % en el material sexual infantil "autogenerado" de 2019 a 2020.
Para abordar la seguridad de manera integral a medida que emerge el metaverso, debemos asociarnos con otros en el gobierno, la industria, la academia y la sociedad civil.
Incluso antes del COVID-19, más de la mitad de las niñas y mujeres jóvenes habían sufrido abusos en línea, según una encuesta mundial realizada el año pasado por Web Foundation, una organización cofundada por el inventor de la web, Tim Berners-Lee. Compartir imágenes, videos o información privada sin consentimiento, conocido como doxing, fue el problema más preocupante para las niñas y mujeres jóvenes en todo el mundo, según la encuesta de Web Foundation. Uno de cada cuatro afroamericanos y uno de cada 10 hispanoamericanos han enfrentado discriminación en línea como resultado de su raza o etnia, en comparación con solo el tres por ciento de los estadounidenses blancos. Los riesgos ya son altos, especialmente para los grupos vulnerables.
"Contribuir al metaverso de manera responsable requerirá investigación, colaboración e inversión en seguridad en lo que respecta a XR", explica Antigone Davis, directora global de seguridad en Meta. " Por ejemplo, estamos invirtiendo en controles que permiten a los usuarios administrar y reportar contenido y conducta problemáticos, así como herramientas de seguridad diseñadas para experiencias inmersivas. Pero no podemos hacer esto solos. Para abordar la seguridad de manera integral a medida que emerge el metaverso , necesitamos asociarnos con otros en el gobierno, la industria, la academia y la sociedad civil".
Esto es muy importante dado que los riesgos digitales en el metaverso se sentirán más reales en función de cómo nuestros cerebros interpreten la experiencia inmersiva; Mary Anne Franks, presidenta de Cyber Civil Rights Initiative, señaló en su artículo sobre realidad virtual y aumentada que las investigaciones indican que el abuso en la realidad virtual es "mucho más traumático que en otros mundos digitales".
¿Cómo podrían exacerbarse los riesgos en el metaverso?
Existen numerosas formas en que los riesgos actuales podrían exacerbarse en el metaverso. En primer lugar, dependiendo de cómo se gobiernen estos espacios digitales, existen riesgos de contacto no deseado en un entorno multimodal más intrusivo. Hoy en día, si alguien a quien no conocemos o con quien no queremos relacionarnos, nos envía mensajes, se hace amigo o intenta comunicarse con nosotros en plataformas como Instagram, Facebook, etc., su capacidad de contacto se limita principalmente a extendiendo mensajes basados en texto, fotos, emojis, etc.
Sin embargo, imagine que una persona no deseada puede ingresar al espacio virtual de alguien y "acercarse" a esa persona en el metaverso. Sin mecanismos sólidos para informar, prevenir y actuar sobre esto en tiempo real, esto podría conducir a una conducta no deseada. Con la tecnología háptica, los riesgos de que los daños en el metaverso se sientan más "reales" no son descabellados dado que muchas empresas están trabajando para incorporar el tacto como una sensación adicional en una realidad inmersiva.
Por ejemplo, los guantes hápticos que están desarrollando muchas organizaciones tienen como objetivo proporcionar una respuesta táctil para brindar una sensación más precisa y realista a cualquier movimiento. Si bien, por supuesto, esto puede crear un mejor sentido de la realidad y aumentar la conexión en un entorno virtual, los malos actores también pueden abusar de esto de maneras que quizás aún no se entiendan completamente.
El contenido dañino que prolifera con demasiada rapidez en nuestras vidas digitales actuales también puede traducirse en el metaverso a contenido no deseado más gráfico, 3D y auditivo que se siente más intrusivo y tiene un mayor impacto debido a la naturaleza multisensorial del entorno. en que se propaga.
El auge de las monedas virtuales a menudo puede ser otro desafío en la proliferación de contenido y actividades dañinos en línea. Por ejemplo, se supone que los niños están usando sus avatares para proporcionar bailes eróticos en clubes virtuales de striptease a cambio de la moneda virtual, "Robux". Las criptomonedas son una opción popular para quienes compran material de abuso sexual infantil (CSAM), ya que su control descentralizado y su independencia de las instituciones financieras también garantizan el anonimato, según un informe de ActiveFence.
Dado el papel que se espera que desempeñen las monedas digitales en el metaverso, es probable que las estructuras de pagos e incentivos financieros que conducen a la proliferación de contenido dañino aumenten en tamaño y complejidad con el paso a esta web 3.0.
Existe un riesgo adicional por el seguimiento y la retención de datos biométricos, que brindan a las plataformas "una nueva calidad de información que se compone de su identidad real combinada con estímulos, que indican lo que puede pensar, gustar y desear de manera única". según la experta en tecnología y derechos humanos Brittan Heller; en su artículo Reimaginando la realidad: derechos humanos y tecnología inmersiva, acuña el término "psicografía biométrica" y analiza las implicaciones potenciales de la nueva recopilación de datos con tecnologías inmersivas para los derechos humanos, la privacidad y la autocensura.
Entonces, ¿qué se puede hacer al respecto?
Muchas empresas, académicos y expertos de la sociedad civil, reguladores, abogan por leyes y nuevas regulaciones para que las cosas que no están permitidas en el mundo real son criminalizados de manera similar en los espacios en línea. Por ejemplo, Bumble está presionando para criminalizar el cyberflashing. Su CEO, Whitney Wolfe Herd, preguntó a los legisladores: "Si la exposición indecente es un delito en las calles, ¿por qué no lo es en su teléfono o computadora?"
La abogada de derechos humanos Akhila Kolisetty dijo que India, Canadá, Inglaterra, Pakistán y Alemania se encuentran entre un pequeño número de países que han prohibido el abuso sexual basado en imágenes, donde las imágenes privadas se comparten sin consentimiento. Muchos países carecen de leyes para formas emergentes de abuso digital como "deepfakes", donde el rostro de una mujer puede superponerse en un video porno y compartirse en plataformas de mensajería.
El comisionado de seguridad electrónica de Australia brinda apoyo a quienes experimentan tales abusos, pero muchos otros países se están quedando atrás en tales mecanismos y funciones regulatorias. Lo mismo se aplica a la protección de los niños en línea. "Nuestra sociedad dice que vamos a proteger a los niños en el mundo físico, pero aún tenemos que ver eso de la misma manera en el lado digital", dijo Steven J. Grocki, quien dirige el sección de explotación infantil y obscenidad del Departamento de Justicia. Actualizar las leyes para aplicarlas en un contexto digital será un componente clave para gobernar el metaverso.
Hoda Alkhzaimi, Profesor Asistente de Investigación, Ingeniería Informática; El director del Centro de Seguridad Cibernética de NYU Abu Dhabi agregó que existe una evolución constante en los medios por los que construimos mecanismos de ataque en una plataforma virtual. Esto nunca es un ciclo de desarrollo fijo. Debemos tener en cuenta cómo construimos los elementos de software y hardware de la tecnología para incluir elementos autóctonos de consideración de seguridad para proteger la integridad del contenido desarrollado, las interacciones creadas por los usuarios dentro del entorno y, de manera integral, la estabilidad del mundo virtual presentado. No hay un solo factor a considerar aquí, ya que todos los aspectos de confidencialidad, integridad, autenticidad, accesibilidad, privacidad y seguridad deben desarrollarse. Los ataques a dispositivos virtuales se han desarrollado en el pasado a través de plataformas de código abierto como la plataforma OpenVR de Valve.
¿Cómo podemos asegurarnos de que esto no sea un hecho recurrente dentro de una infraestructura virtual crítica?
Las organizaciones de la sociedad civil como Access Now y EFF están pidiendo a los gobiernos y otras partes interesadas que aborden los derechos humanos en el contexto de la realidad virtual y aumentada.
La otra área importante que se puede mejorar son las políticas, la aplicación y los mecanismos generales de moderación que adoptan las plataformas.
“Las plataformas de realidad virtual y realidad aumentada necesitan términos de servicio específicos para entornos inmersivos, basados en cómo esta tecnología interactúa con nuestros cerebros. No podemos simplemente aplicar las reglas de las redes sociales existentes al Metaverso”, dice el experto en tecnología y derechos humanos Heller. “Esto es importante”, enfatiza Heller, “porque la gobernanza de la plataforma en los mundos digitales debe regular el comportamiento, además del contenido”.
En este momento, una de las formas más comunes de gobierno en los mundos virtuales es una forma de moderación reactiva y punitiva. Esto no evita que ocurran daños en primer lugar y, a menudo, las consecuencias se pueden eludir a medida que los malos actores se vuelven más sofisticados en la forma en que cumplen con las políticas. Encontrar formas de incentivar mejores comportamientos y quizás recompensar las interacciones positivas puede necesitar convertirse en una parte más importante de un futuro digital más seguro, especialmente dado el aumento de los riesgos de seguridad en el metaverso.