• Tecnologia
  • Equipamento elétrico
  • Indústria de Materiais
  • Vida digital
  • política de Privacidade
  • Ó nome
Localização: Casa / Tecnologia / Como os EUA planejam gerenciar a inteligência artificial

Como os EUA planejam gerenciar a inteligência artificial

techserving |
1147

Enquanto a Lei de Inteligência Artificial (IA) da UE luta para passar por várias rodadas de revisões nas mãos dos eurodeputados, uma organização pouco conhecida nos EUA está silenciosamente trabalhando em suas próprias diretrizes para ajudar a canalizar o desenvolvimento de uma tecnologia tão promissora e perigosa.

Em março, o Instituto Nacional de Padrões e Tecnologia (NIST), com sede em Maryland, divulgou um primeiro rascunho de seu AI Risk Management Framework, que apresenta uma visão muito diferente da UE.

O trabalho está sendo liderado por Elham Tabassi, um pesquisador de visão computacional que ingressou na organização há pouco mais de 20 anos. Então, “Construímos sistemas [AI] apenas porque podíamos”, disse ela. “Agora nos perguntamos: devemos?”

Embora a Lei de IA da UE seja uma legislação, a estrutura do NIST será totalmente voluntária. O NIST, como Tabassi enfatiza repetidamente, não é um regulador. Fundado no início do século 20, o NIST cria padrões e sistemas de medição para tecnologias que vão desde relógios atômicos a nanomateriais, e foi solicitado pelo Congresso dos EUA a elaborar diretrizes de IA em 2020.

Ao contrário da Lei de IA da UE, o NIST não destaca nenhum uso específico de IA como fora dos limites (a Lei, por outro lado, poderia proibir o reconhecimento facial em espaços públicos pelas autoridades, embora com exceções para coisas como terrorismo).

E como as diretrizes do NIST observam secamente, sua estrutura "não prescreve limites de risco ou valores [de risco]". Em outras palavras, cabe aos desenvolvedores avaliar os riscos e as vantagens de liberar seus sistemas de IA no mundo.

“No final das contas, realmente acreditamos que não existe um tamanho único para todos”, disse Tabassi. “Cabe ao dono do aplicativo, desenvolvedor […] quem estiver no comando, fazer uma análise de custo benefício e decidir.” O reconhecimento facial pela polícia, digamos, é uma perspectiva muito mais arriscada do que usá-lo para desbloquear um smartphone, argumenta ela. Diante disso, proibir um caso de uso específico não faz sentido (embora textos de compromisso recentes sobre a Lei de IA da UE sugiram que pode haver exceções para desbloquear telefones).

A Lei de IA da UE enfatiza repetidamente que é necessário haver uma “supervisão humana” final da IA. As diretrizes do NIST não mencionam isso, porque se é necessário ou não, tudo se resume a como a IA está sendo usada. “Nós realmente acreditamos que a IA tem tudo a ver com o contexto, e ‘IA sem um humano’ não significa muito”, disse Tabassi. O NIST não está tentando regular com esse nível de detalhe, de quando exatamente um ser humano deve estar no circuito, ela enfatiza.

Revolução cultural

Em vez de linhas legais duras na areia, o NIST espera induzir uma revolução voluntária na cultura do desenvolvimento de IA. Ele quer que os criadores de IA pensem sobre os perigos e armadilhas de seus sistemas inteligentes antes de serem divulgados ao público. “A gestão de riscos não deve ser uma reflexão tardia”, disse Tabassi.

Na prática, as diretrizes do NIST podem exigir que as empresas de tecnologia dos EUA se submetam a muita supervisão externa ao criar seus produtos de IA. O NIST recomenda que um “terceiro independente” ou “especialistas que não atuaram como desenvolvedores de linha de frente” avaliem os prós e contras de um sistema de IA, consultando “partes interessadas” e “comunidades impactadas”.

Idéias semelhantes já estão começando a decolar no setor. A prática do “red teaming”, em que uma empresa abre seu sistema para um ataque simulado para sondar vulnerabilidades, já foi usada por alguns dos principais desenvolvedores de IA, disse Sebastien Krier, especialista em política de IA da Universidade de Stanford. “Eu não diria que ainda existe uma norma, mas é cada vez mais usada.”

O NIST também quer que os desenvolvedores de IA garantam que eles tenham “diversidade da força de trabalho” para garantir que a IA funcione para todos, não apenas para um subconjunto restrito de usuários.

“Não deveria caber às pessoas que estão desenvolvendo tecnologia, ou apenas a elas, pensar nas consequências e no impacto”, disse Tabassi. “É por isso que você precisa de um grupo muito diversificado de pessoas.”

Isso não significa apenas equipes demograficamente e etnicamente diversas, ela enfatizou. As pessoas que criam sistemas de IA também precisam ter diversidade disciplinar, incluindo, digamos, sociólogos, cientistas cognitivos e psicólogos. A IA não pode ser deixada em uma sala cheia de graduados em ciência da computação.

E se um desenvolvedor decidir que um sistema de IA tem mais benefícios do que riscos, ele precisa documentar como chegou a essa decisão, dizem as diretrizes do NIST. Ainda não está claro se esses documentos serão tornados públicos.

Conflitos de interesse

Como os EUA planejam gerenciar a inteligência artificial

Isso aponta para um óbvio conflito de interesses em permitir que os desenvolvedores de IA decidam se seus sistemas são ou não muito arriscados. Uma nova ferramenta de IA pode permitir que uma empresa de tecnologia obtenha enormes lucros enquanto causa danos incalculáveis ​​no mundo real, como as plataformas de mídia social provavelmente fazem hoje. Esse desalinhamento de incentivos não é, por enquanto, tratado diretamente na estrutura do NIST, embora especialistas externos possam dar voz à sociedade em geral na tomada de decisões.

“Não achamos que seja nosso trabalho dizer qual é o nível aceitável de riscos, qual é o nível aceitável de benefícios”, disse Tabassi. “Nosso trabalho é fornecer orientação suficiente para que essa decisão possa ser tomada de maneira informada.”

Existem muitas sugestões sobre como neutralizar esse conflito de interesses. Uma delas é exigir que os sistemas de IA sejam “leais”: ou seja, que realmente atendam aos usuários, e não às empresas que os constroem ou a algum outro interesse externo.

“Existem muitos sistemas por aí que não são transparentes sobre quais incentivos estão alinhados”, disse Carlos Ignacio Gutierrez, pesquisador de políticas de IA do Future of Life Institute, com sede nos Estados Unidos, que faz campanhas para reduzir o risco tecnologias emergentes.

Por exemplo, uma ferramenta de navegação pode ter um acordo com uma empresa de fast food, de modo que desvia ligeiramente sua rota para conduzi-lo mais perto de uma lanchonete. Falando sério, um aplicativo de diagnóstico médico pode realmente ser programado para economizar o dinheiro de uma seguradora médica, em vez de fazer o que é melhor para o paciente.

“A ideia por trás da lealdade é que haja transparência entre o alinhamento desses incentivos”, disse Gutierrez. Mas atualmente o conceito não está enraizado nas diretrizes do NIST ou na Lei de IA da UE, observa ele.

Inteligência geral artificial

As diretrizes do NIST também falham em lidar diretamente com os temores em torno da criação da chamada inteligência geral artificial (AGI): um agente capaz de fazer qualquer coisa que um ser humano pode fazer, que, se não for habilmente alinhado com os objetivos humanos, pode resultar em nosso controle e, na visão de vários luminares da IA ​​e outras figuras, incluindo Elon Musk, ameaçam a existência da própria humanidade.

“Mesmo que a probabilidade de eventos catastróficos seja baixa, seu impacto potencial merece atenção significativa”, alerta o Centro de Governança de IA, com sede em Oxford, em seu recente envio ao NIST sobre suas diretrizes. O Reino Unido, embora adotando uma atitude de laissez faire em relação à IA em geral, reconheceu o “risco de longo prazo da Inteligência Artificial Geral não alinhada” em sua estratégia de IA no ano passado.

AGI “não é um problema para os próximos cinco anos, talvez uma década”, disse Tabassi. “Mas é hora de planejar e entender agora? Claro que sim." Nos EUA, em vez do NIST, as preocupações com a AGI estão sendo exploradas no Comitê Consultivo Nacional de Inteligência Artificial, um órgão consultivo presidencial que no mês passado nomeou seus primeiros membros.

Construir confiança

Tabassi admite que o NIST não sabe quais empresas usarão sua estrutura e até que ponto. "Não, não temos nenhuma influência sobre isso", disse ela.

Mas as estruturas anteriores do NIST sobre privacidade e segurança cibernética foram adotadas pelas empresas, apesar de também serem voluntárias. As diretrizes cibernéticas foram codificadas nas agências federais dos EUA e depois se espalharam para o setor privado. “Os cientistas realmente bons que temos aqui nos permitem construir confiança com a indústria”, disse Tabassi.

Muitas das maiores empresas de tecnologia dos EUA, como Google, IBM, Adobe e Microsoft, enviaram recomendações ou participaram de workshops do NIST para ajudar a elaborar as diretrizes.

Estruturas voluntárias ou de 'leis brandas' como as do NIST são adotadas pela indústria quando as empresas sabem que uma lei dura que as apóia está chegando, ou estará se elas não limparem seu ato, disse Gutierrez.

Mas no nível federal nos EUA, não há perspectiva de hard law em um futuro próximo, embora alguns estados como Texas e Illinois tenham criado legislação para controlar o reconhecimento facial.

“Portanto, o NIST terá que esperar que as empresas achem do seu interesse adotar a estrutura”, disse Gutierrez. “É um sinal para o mercado dizendo: ei, estou tentando ser responsável.”

Além disso, ele observou, se uma empresa de tecnologia usar a estrutura, isso poderá limitar os danos concedidos no tribunal, se e quando uma empresa for processada por IA com defeito.

E a vantagem da soft law do NIST é sua agilidade. A primeira estrutura oficial está programada para ser lançada em janeiro de 2023, quando a UE provavelmente ainda terá anos de disputas sobre sua própria legislação de IA pela frente. ], mas a prática da terra”, disse Gutierrez.