O anúncio da Apple na semana passada de que em breve estará digitalizando fotos em iPhones e iPads que sincronizam com o iCloud para material de abuso sexual infantil (CSAM) provocou uma reação de milhares de profissionais de segurança e privacidade e uma resposta da empresa que tenta apaziguar seus críticos.
O negócio iDevice revelou dois
iniciativas de segurança infantil
que estão sendo implementados inicialmente nos EUA e posteriormente em outros países, dependendo da aprovação regulatória.
Um deles é um sistema para alertar crianças e seus pais quando o aplicativo Mensagens envia ou recebe imagens consideradas explícitas (mas não necessariamente ilegais) por um algoritmo de aprendizado de máquina no dispositivo.
O outro é o sistema para digitalizar fotos em dispositivos iOS e iPadOS que sincronizam com o iCloud Photos para ver se os hashes (identificadores) de imagens no dispositivo correspondem a quaisquer hashes de material CSAM conhecido (ilegal), que a Apple usará para sinalizar contas do iCloud para cancelamento e notificação ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).
A Apple publicou um resumo técnico [
] de seus sistemas e disse que, para seu esquema CSAM, há apenas "uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta". Ele, no entanto, forneceu
não tem como verificar
esse número, de acordo com o professor de Princeton Jonathan Mayer.
Foi tão bem quanto você esperaria
O anúncio [
] provocou uma reação rápida na forma de
uma carta aberta
opondo-se ao movimento por seu potencial dano à privacidade e segurança.
“O caminho atual da Apple ameaça minar décadas de trabalho de tecnólogos, acadêmicos e defensores de políticas para que fortes medidas de preservação da privacidade sejam a norma na maioria dos dispositivos eletrônicos de consumo e casos de uso”, disse a carta, que atualmente lista mais de 6.000 assinaturas. “Pedimos que a Apple reconsidere seu lançamento de tecnologia, para que não desfaça esse importante trabalho”.
Especialistas técnicos, defensores da privacidade, acadêmicos e outros passaram o último fim de semana debatendo a questão nas mídias sociais e online. Praticamente todos concordam que o CSAM é um problema.
A questão é se uma empresa que disse "Privacidade é um direito humano" - mesmo que não ofereça isso na China - deve tentar lidar com a segurança infantil executando seu próprio código de digitalização - com consentimento obtido por meio da decisão de usar o Fotos do iCloud em vez de permissão explícita – nos dispositivos de seus clientes.
Apple está prestes a começar a escanear dispositivos de usuários de iPhone em busca de conteúdo proibido, alerta professor
Você pode se distrair com a pandemia, mas para sua informação: o painel do Senado dos EUA OK's backdoors by the backdoor EARN IT Act
Não se deixe enganar, alertam os especialistas, a lei EARN IT anti-abuso infantil da América pode queimar a criptografia no chão
As próximas alterações de privacidade do Android incluem a capacidade de deixar o ID de publicidade em branco e a 'seção de segurança' na Play Store
Alex Stamos, diretor do Stanford Internet Observatory e ex-CSO do Facebook, tentou estabelecer um meio-termo entre aqueles horrorizados com a abordagem da Apple e aqueles que dariam prioridade à luta contra o CSAM sobre quaisquer outras considerações.
"Na minha opinião, não há respostas fáceis aqui", escreveu Stamos em um
Tópico do Twitter
, insistindo que não há problema em ter opiniões diferenciadas sobre essas questões. “Eu me encontro constantemente dividido entre querer que todos tenham acesso à privacidade criptográfica e a realidade da escala e profundidade dos danos que foram possibilitados pelas modernas tecnologias de comunicação”.
Ele disse que está feliz em ver a Apple finalmente assumir alguma responsabilidade pelo impacto de sua enorme plataforma, mas também está frustrado com sua abordagem. "Ambos moveram a bola tecnicamente, prejudicando o esforço geral para encontrar o equilíbrio político."
Stamos tem
especulado
esse sistema poderia permitir que a Apple introduzisse criptografia de ponta a ponta para backups do iCloud, evitando a inevitável preocupação com o CSAM que surgiria se o fizesse. A Apple, no entanto, não havia declarado publicamente qualquer intenção de implantar a criptografia completa do iCloud.
Tudo para baixo para a Apple
Na segunda-feira, Eric Rescorla, CTO da Mozilla, publicou
uma análise técnica do sistema da Apple
isso sugere
que a segurança do esforço de verificação de CSAM da empresa depende do comportamento da Apple de maneira confiável. “É importante perceber que não há nada no sistema que impeça a Apple de escanear fotos que nunca saem do dispositivo; eles simplesmente optaram por não fazê-lo”, escreveu ele.A iniciativa de "segurança infantil" da Apple representa uma grande mudança para a empresa que há apenas alguns anos citou a importância da "segurança pessoal" ao rejeitar o pedido do FBI de modificar seu software
para descriptografar o iPhone de um suspeito de terrorismo
.
Dentro
uma carta aberta
para seus clientes em 2016, a Apple explicou sua defesa da privacidade afirmando: "acreditamos que o conteúdo do seu iPhone não é da nossa conta".
"Especificamente, o FBI quer que façamos uma nova versão do sistema operacional do iPhone, contornando vários recursos de segurança importantes, e o instalemos em um iPhone recuperado durante a investigação", disse a empresa. "Em mãos erradas, este software - que não existe hoje - teria o potencial de desbloquear qualquer iPhone em posse física de alguém."
A partir das próximas atualizações do sistema operacional iOS 15, iPadOS 15, watchOS 8 e macOS Monterey, o conteúdo do seu iPhone será da conta da Apple se você sincronizar imagens com o iCloud.
Especialistas em segurança estão preocupados que o sistema da Apple permita que autoridades governamentais exijam que a empresa adicione hashes de imagem não CSAM à sua lista de detecção para descobrir fotos consideradas inaceitáveis por motivos políticos, religiosos ou outros não relacionados à segurança infantil.
Cinco anos atrás, a Apple disse que o governo poderia exigir esse tipo de intervenção técnica em um processo legal [
] opondo-se ao pedido do FBI para modificar seu software.
"Aqui, se a Apple for forçada a criar software neste caso, outras agências de aplicação da lei buscarão ordens semelhantes para ajudá-los a hackear milhares de outros telefones, como confirmou o diretor do FBI Comey quando disse que 'claro' usaria o All Writs Act. para 'voltar aos tribunais em casos futuros para exigir que a Apple e outras empresas privadas ajudem... no desbloqueio de dispositivos seguros'", explicaram os representantes legais da empresa.
A Apple iria ceder?
No entanto, nas perguntas frequentes publicadas na segunda-feira, a Apple tenta aliar a preocupação de que as autoridades possam exigir acesso ao seu sistema CSAM para outros fins de vigilância, afirmando que a empresa simplesmente resistiria. "Os governos poderiam forçar a Apple a adicionar imagens não CSAM à lista de hash?" A Apple pergunta e depois responde: "A Apple recusará tais exigências".
Especialistas jurídicos não ficaram impressionados. "Então, basicamente: tudo o que fica entre usuários e governos exigindo [a adição] de imagens não CSAM à lista de hash é a firme recusa da Apple?" disse Elizabeth Joh, professora de direito da UC Davis,
via Twitter
.
Ao qual Daphne Keller, diretora de regulamentação da plataforma, Stanford Cyber Policy Center e ex-conselheira geral associada do Google,
respondeu
, "Falando como alguém que litigou e perdeu nesta questão exata em três países (Reino Unido, Alemanha, França), sinto-me confiante em dizer que a firme recusa de filtrar coisas novas além do CSAM não significa muito em face do estado potência."
De fato, quando a China instruiu a Apple a impor sua proibição de software VPN, a empresa
cumprido
.
Mas há uma preocupação mais básica sobre a utilização da Apple dos dispositivos de seus clientes de uma forma que possa ser usada contra eles: propriedade e controle. Ben Thompson, analista de negócios que escreve o
Blog de estratégia
, descreveu a abordagem da Apple como um erro.
"O dispositivo de uma pessoa deve ser sua propriedade, com todas as expectativas de propriedade e privacidade que isso implica; os serviços em nuvem, por sua vez, também são propriedade de seus proprietários, com todas as expectativas de responsabilidade social e cumprimento da lei que isso implica. ," ele escreveu.
"É realmente decepcionante que a Apple tenha se apegado tanto à sua visão particular de privacidade que acabou traindo o fulcro do controle do usuário: ser capaz de confiar que seu dispositivo é realmente seu." ®
Pegue os nossos
Recursos técnicos