El anuncio de Apple la semana pasada de que pronto escaneará fotos en iPhones y iPads que se sincronizan con iCloud en busca de material de abuso sexual infantil (CSAM) provocó el rechazo de miles de profesionales de seguridad y privacidad y una respuesta de la compañía que intenta apaciguar a sus críticos.
El negocio de iDevice reveló dos
iniciativas de seguridad infantil
que se están implementando inicialmente en los EE. UU. y luego en otros países dependiendo de la aprobación regulatoria.
Uno es un sistema para alertar a los niños y sus padres cuando la aplicación Mensajes envía o recibe imágenes consideradas explícitas (pero no necesariamente ilegales) por un algoritmo de aprendizaje automático en el dispositivo.
El otro es un sistema para escanear fotos en dispositivos iOS y iPadOS que se sincronizan con iCloud Photos para ver si los hash (identificadores) de las imágenes en el dispositivo coinciden con cualquier hash de material CSAM conocido (ilegal), que Apple usará para marcar cuentas de iCloud para cancelación y reporte al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).
Apple publicó un resumen técnico [
] de sus sistemas y dijo que para su esquema CSAM solo hay "una posibilidad en un billón por año de marcar incorrectamente una cuenta determinada". Sin embargo, proporcionó
no hay manera de verificar
esa cifra, según el profesor de Princeton Jonathan Mayer.
Salió tan bien como cabría esperar
El anuncio [
] provocó una rápida reacción en forma de
una carta abierta
oponiéndose a la medida por su daño potencial a la privacidad y la seguridad.
“El camino actual de Apple amenaza con socavar décadas de trabajo de tecnólogos, académicos y defensores de políticas para que las medidas estrictas de preservación de la privacidad sean la norma en la mayoría de los dispositivos electrónicos de consumo y los casos de uso”, dice la carta, que actualmente incluye más de 6.000 firmas. "Le pedimos a Apple que reconsidere el despliegue de su tecnología, para que no deshaga ese importante trabajo".
Expertos técnicos, defensores de la privacidad, académicos y otros pasaron el pasado fin de semana debatiendo el tema a través de las redes sociales y en línea. Prácticamente todo el mundo está de acuerdo en que el MASI es un problema.
La pregunta es si una empresa que ha dicho: "La privacidad es un derecho humano", incluso si no lo ofrece en China, debería intentar abordar la seguridad de los niños mediante la ejecución de su propio código de escaneo, con el consentimiento obtenido a través de la decisión de use Fotos de iCloud en lugar de un permiso explícito en los dispositivos de sus clientes.
Apple está a punto de comenzar a escanear los dispositivos de los usuarios de iPhone en busca de contenido prohibido, advierte el profesor
Es posible que la pandemia lo distraiga, pero para su información: el panel del Senado de los EE. UU. Aprueba la ley EARN IT de puertas traseras por la puerta trasera
No se deje engañar, advierten los expertos, la Ley EARN IT contra el abuso infantil de Estados Unidos podría quemar el cifrado hasta los cimientos.
Los próximos cambios de privacidad de Android incluyen la capacidad de borrar la identificación de publicidad y la 'sección de seguridad' en Play Store
Alex Stamos, director del Observatorio de Internet de Stanford y ex CSO de Facebook, intentó establecer un término medio entre aquellos horrorizados por el enfoque de Apple y aquellos que darían prioridad a la lucha contra el MASI por encima de cualquier otra consideración.
"En mi opinión, aquí no hay respuestas fáciles", escribió Stamos en un
Hilo de Twitter
, insistiendo en que está bien tener opiniones matizadas sobre estos temas. "Me encuentro constantemente dividido entre querer que todos tengan acceso a la privacidad criptográfica y la realidad de la escala y la profundidad del daño que han permitido las tecnologías de comunicación modernas".
Dijo que está feliz de ver que Apple finalmente asume cierta responsabilidad por el impacto de su plataforma masiva, pero también está frustrado con su enfoque. "Ambos movieron la pelota hacia adelante técnicamente mientras dañaban el esfuerzo general para encontrar el equilibrio político".
Stamos tiene
especulado
este sistema podría permitirle a Apple introducir el cifrado de extremo a extremo para las copias de seguridad de iCloud al adelantarse a la inevitable preocupación sobre el abuso sexual infantil que surgiría si lo hiciera. Sin embargo, Apple no había declarado públicamente ninguna intención de implementar el cifrado completo de iCloud.
Todo depende de Apple
El lunes, Eric Rescorla, CTO de Mozilla, publicó
un análisis técnico del si
stema de Appleeso sugiere que la seguridad del esfuerzo de escaneo CSAM de la compañía depende de que Apple se comporte de manera confiable. "Es importante darse cuenta de que no hay nada en el sistema que impida que Apple escanee fotos que nunca salen del dispositivo; simplemente eligieron no hacerlo", escribió.
La iniciativa de "seguridad infantil" de Apple representa un cambio importante para la compañía que hace solo unos años citó la importancia de la "seguridad personal" al rechazar la solicitud del FBI de modificar su software.
para descifrar el iPhone de un sospechoso de terrorismo
.
En
una carta abierta
a sus clientes en 2016, Apple explicó su defensa de la privacidad al afirmar: "Creemos que el contenido de su iPhone no es asunto nuestro".
“Específicamente, el FBI quiere que hagamos una nueva versión del sistema operativo del iPhone, sorteando varias funciones de seguridad importantes, y que la instalemos en un iPhone recuperado durante la investigación”, dijo la compañía. "En las manos equivocadas, este software, que no existe hoy en día, tendría el potencial de desbloquear cualquier iPhone en posesión física de alguien".
A partir de las próximas actualizaciones del sistema operativo iOS 15, iPadOS 15, watchOS 8 y macOS Monterey, el contenido de su iPhone será asunto de Apple si sincroniza imágenes con iCloud.
A los expertos en seguridad les preocupa que el sistema de Apple permita a las autoridades gubernamentales exigir que la compañía agregue hashes de imágenes que no sean CSAM a su lista de detección para descubrir fotos consideradas inaceptables por motivos políticos, religiosos u otros no relacionados con la seguridad infantil.
Hace cinco años, Apple dijo que se podía esperar que el gobierno exigiera ese tipo de intervención técnica en una presentación legal [
] oponiéndose a la solicitud del FBI de modificar su software.
"Aquí, si Apple se ve obligada a crear software en este caso, otras agencias de aplicación de la ley buscarán órdenes similares para ayudarlos a hackear miles de otros teléfonos, como confirmó el director del FBI, Comey, cuando dijo que 'por supuesto' usaría la Ley de All Writs Act". para 'regresar a los tribunales en casos futuros para exigir que Apple y otras empresas privadas ayuden... a desbloquear dispositivos seguros'", explicaron los representantes legales de la empresa.
¿Se derrumbaría Apple?
Sin embargo, en las preguntas frecuentes publicadas el lunes, Apple intenta aliarse con la preocupación de que las autoridades puedan exigir el acceso a su sistema CSAM para otros fines de vigilancia al afirmar que la empresa simplemente se resistiría. "¿Podrían los gobiernos obligar a Apple a agregar imágenes que no sean CSAM a la lista hash?" Apple pregunta y luego responde: "Apple rechazará tales demandas".
Los expertos legales no han quedado impresionados. "Entonces, básicamente: ¿todo lo que se interpone entre los usuarios y los gobiernos que exigen [la adición] de imágenes que no sean CSAM a la lista hash es la firme negativa de Apple?" dijo Elizabeth Joh, profesora de derecho en UC Davis,
a través de Twitter
.
A lo que Daphne Keller, Directora de Regulación de Plataformas, Centro de Políticas Cibernéticas de Stanford y ex Consejera General Asociada de Google,
respondido
, "Hablando como alguien que ha litigado y perdido en este tema exacto en tres países (Reino Unido, Alemania, Francia), me siento seguro al decir que la firme negativa a filtrar cosas nuevas más allá del MASI no significa mucho frente a las energía."
De hecho, cuando China ordenó a Apple que hiciera cumplir su prohibición del software VPN, la empresa
cumplido
.
Pero hay una preocupación más básica sobre la utilización que hace Apple de los dispositivos de sus clientes de una manera que podría usarse en su contra: la propiedad y el control. Ben Thompson, un analista de negocios que escribe el
Blog de estrategia
, describió el enfoque de Apple como un error.
"El dispositivo de uno debe ser propiedad de uno, con todas las expectativas de propiedad y privacidad que conlleva; mientras tanto, los servicios en la nube también son propiedad de sus dueños, con todas las expectativas de responsabilidad social y cumplimiento de la ley que eso conlleva. ," el escribio.
"Es realmente decepcionante que Apple se obsesionara tanto con su particular visión de la privacidad que terminara traicionando el punto de apoyo del control del usuario: poder confiar en que su dispositivo es verdaderamente suyo". ®
Obtén nuestro
Recursos tecnológicos