20 de janeiro de 2022
Clique para PDF
2021 foi um ano movimentado para propostas de políticas e legislações relacionadas à inteligência artificial (“IA”) e tecnologias automatizadas. Intelligence Act, que deverá ser finalizado em 2022, é provável que os sistemas de IA de alto risco sejam regulamentados de forma explícita e abrangente na UE. Embora tenha havido várias propostas legislativas de IA apresentadas no Congresso, os Estados Unidos não adotaram uma abordagem abrangente para a regulamentação da IA, conforme proposto pela Comissão Europeia, em vez de focar na defesa e no investimento em infraestrutura para aproveitar o crescimento da IA.
No entanto, refletindo os desenvolvimentos recentes nas leis de privacidade de dados, existem alguns sinais provisórios de convergência na formulação de políticas dos EUA e da Europa, enfatizando uma abordagem baseada em risco para a regulamentação e um foco crescente na ética e na IA “confiável”, bem como na aplicação caminhos para os consumidores. Nos Estados Unidos, a administração do presidente Biden anunciou o desenvolvimento de uma “declaração de direitos de IA”. grandes volumes de dados e parece prestes a intensificar as atividades de regulamentação e fiscalização no próximo ano. .Finalmente, princípios de governança e padrões técnicos para garantir IA e ML confiáveis estão começando a surgir, embora ainda não se saiba até que ponto os reguladores globais chegarão a um consenso sobre as principais referências além das fronteiras nacionais.
A.U.S. Política Nacional
1.Estratégia Nacional de IA
Quase três anos depois que o presidente Trump emitiu uma Ordem Executiva “Mantendo a Liderança Americana em Inteligência Artificial” para lançar a “Iniciativa Americana de IA” e buscar acelerar o desenvolvimento e a regulamentação da IA com o objetivo de garantir o lugar dos Estados Unidos como líder global em tecnologias de IA, vimos um aumento significativo nas medidas legislativas e políticas relacionadas à IA nos EUA, unindo o antigo e o novo governo. verdade há um ano, o governo federal dos EUA tem sido ativo na coordenação da liderança entre agências e no incentivo à pesquisa e desenvolvimento contínuos de tecnologias de IA para uso governamental. Para esse fim, várias ações legislativas e executivas importantes foram direcionadas para aumentar o crescimento e desenvolvimento de tais tecnologias para agências federais, segurança nacional e aplicações militares. os legisladores também continuaram um diálogo com seus colegas da UE, comprometendo-se a trabalhar juntos durante uma audiência parlamentar da UE em 1º de março.[1]Rep. Robin Kelly (D-Ill.) testemunhou em uma audiência perante o Comitê Especial da UE sobre IA, observando que “[n]ações que não compartilham nosso compromisso com os valores democráticos estão correndo para ser os líderes em IA e definir as regras para a mundo,” .[2] Ela instou a Europa a adotar uma abordagem “estreita e flexível” para a regulamentação enquanto trabalha com os EUA.[3]
a)Lei de Iniciativa Nacional de IA de 2020 (parte da Lei de Autorização de Defesa Nacional de 2021 (“NDAA”)) e Escritório Nacional de Iniciativa de IA
De acordo com a Lei de Iniciativa Nacional de IA de 2020, que foi aprovado em 1º de janeiro de 2021 como parte da Lei de Autorização de Defesa Nacional de 2021 (“NDAA”),[4] o OSTP estabeleceu formalmente o Escritório Nacional de Iniciativa de IA (o “Escritório”) em 12 de janeiro. O Escritório - um dos vários novos escritórios federais mandatados pela NDAA - serão responsáveis por supervisionar e implementar uma estratégia nacional de IA e atuar como um centro central de coordenação e colaboração por agências federais e partes interessadas externas em todo o governo, indústria e academia na pesquisa e formulação de políticas de IA.[5 ] A Lei também estabeleceu a Força-Tarefa Nacional de Recursos de Pesquisa de IA (a “Força-Tarefa”), reunindo um grupo de especialistas técnicos da academia, do governo e da indústria para avaliar e fornecer recomendações sobre a viabilidade e conveniência de estabelecer um Recurso Nacional de Pesquisa de IA ( "NAIRR").[6]A Força-Tarefa desenvolverá um roteiro coordenado e um plano de implementação para estabelecer e manter um NAIRR, uma nuvem de pesquisa nacional para fornecer aos pesquisadores acesso a recursos computacionais, conjuntos de dados de alta qualidade, ferramentas educacionais e suporte ao usuário para facilitar oportunidades de pesquisa e desenvolvimento de IA. A Força-Tarefa enviará dois relatórios ao Congresso para apresentar suas descobertas, conclusões e recomendações - um relatório provisório em maio de 2022 e um relatório final em novembro de 2022.
Em 27 de janeiro de 2021, o presidente Biden assinou um memorando intitulado “Restaurando a confiança no governo por meio da ciência, integridade e elaboração de políticas baseadas em evidências”, iniciando uma ampla revisão das políticas federais de integridade científica e orientando as agências a reforçar seus esforços para apoiar a tomada de decisão baseada em evidências[7] que deverá “gerar insights importantes e melhores práticas, incluindo transparência e responsabilidade…”[8] O Presidente também assinou uma ordem executiva para reconstituir formalmente o Conselho de Assessores do Presidente em Ciência e Tecnologia ,[9] e anunciou a criação do Comitê Consultivo Nacional de IA, encarregado de fornecer recomendações sobre vários tópicos relacionados à IA, incluindo o estado atual da competitividade e liderança econômica dos EUA, pesquisa e desenvolvimento e aplicação comercial.[10]
b) Lei de Inovação e Concorrência (S. 1260)
Em 8 de junho de 2021, o Senado dos EUA votou 68-32 para aprovar a Lei de Inovação e Concorrência dos EUA (S. 1260), destinada a aumentar a capacidade do país de competir com a tecnologia chinesa, investindo mais de US$ 200 bilhões em inovação científica e tecnológica dos EUA nos próximos cinco anos, listando inteligência artificial, aprendizado de máquina e autonomia como “áreas-chave de foco tecnológico”. destinado à pesquisa em IA, robótica e biotecnologia. Entre vários outros programas e atividades, o projeto de lei estabelece uma Diretoria de Tecnologia e Inovação na National Science Foundation (“NSF”) e reforça a pesquisa científica, canais de desenvolvimento, cria subsídios e visa fomentar acordos entre empresas privadas e universidades de pesquisa para estimular avanços tecnológicos.
A lei também inclui disposições rotuladas como "Advancing American AI Act",[12] destinadas a "incentivar programas e iniciativas relacionados à inteligência artificial da agência que melhoram a competitividade dos Estados Unidos", garantindo ao mesmo tempo que a implantação da IA "alinhe ] com os valores dos Estados Unidos, incluindo a proteção da privacidade, direitos civis e liberdades civis.” e políticas para o uso de IA no governo, levando em consideração o relatório NSCAI, a Ordem Executiva de 3 de dezembro de 2020 “Promovendo o Uso de Inteligência Artificial Confiável no Governo Federal” e a contribuição de vários conselhos e especialistas interinstitucionais.[14 ]
c) Governança algorítmica
Também vimos novas iniciativas tomando forma no nível federal com foco na governança algorítmica, culminando no anúncio do Escritório de Política Científica e Tecnológica da Casa Branca (“OSTP”) em novembro 10 de 2021, que lançaria uma série de sessões de audição e eventos na semana seguinte para envolver o público americano no processo de desenvolvimento de uma Declaração de Direitos para uma Sociedade Automatizada.[15]De acordo com o diretor da OSTP, Eric, o projeto de lei precisará "dentes" na forma de execução de compras.[16] Em uma ação paralela, a Diretora do Escritório Nacional de Iniciativas de IA, Lynne Parker, fez comentários indicando que os Estados Unidos deveriam ter uma visão para a regulamentação da IA semelhante à do Conselho Geral da UE Regulamento de proteção de dados ("GDPR").[17]Além disso, em outubro de 2021, o Escritório de Política de Ciência e Tecnologia da Casa Branca ("OSTP") publicou um RFI solicitando feedback sobre como as tecnologias biométricas funcionaram nas organizações e como elas afetam os indivíduos emocionalmente e mentalmente.[18]
Em junho de 2021, o U.S. Government Accountability Office ("GAO") publicou um relatório identificando as principais práticas para ajudar a garantir a responsabilidade e o uso responsável de IA por agências federais e outras entidades envolvidas no projeto, desenvolvimento, implantação e monitoramento contínuo de Sistemas de IA.[19] O relatório identificou quatro áreas principais de foco: (1) organização e governança algorítmica; (2) desempenho do sistema; (3) documentar e analisar os dados usados para desenvolver e operar um sistema de IA; e (4) monitoramento e avaliação contínuos do sistema para garantir confiabilidade e relevância ao longo do tempo.[20]
Finalmente, o Instituto Nacional de Padrões e Tecnologia (“NIST”), encarregado pelo governo Trump de desenvolver padrões e medidas para IA, divulgou seu relatório sobre como medir e aumentar a confiança do usuário e identificar e gerenciar preconceitos, em Tecnologia AI.[21]O NIST recebeu sessenta e cinco comentários sobre o documento, e os autores planejam sintetizar e usar as respostas do público para desenvolver a próxima versão do relatório e ajudar a moldar a agenda de vários eventos virtuais colaborativos que o NIST realizará em próximos meses.[22]
2.Segurança nacional
a)Relatório final do NSCAI
A Lei de Autorização de Defesa Nacional de 2019 criou uma Comissão de Segurança Nacional de 15 membros sobre Inteligência Artificial ("NSCAI"), e instruiu que o NSCAI “revisasse e aconselhasse sobre a competitividade dos Estados Unidos em inteligência artificial, aprendizado de máquina e outras tecnologias associadas, incluindo assuntos relacionados à segurança nacional, defesa, parcerias público-privadas e investimentos”. nos últimos dois anos, a NSCAI emitiu vários relatórios, incluindo relatórios provisórios em novembro de 2019 e outubro de 2020, dois memorandos trimestrais adicionais e uma série de relatórios especiais em resposta à pandemia de COVID-19.[24]
Em 1º de março de 2021, o NSCAI apresentou seu Relatório Final ao Congresso e ao Presidente. No início, o relatório faz um apelo urgente à ação, alertando que o governo dos EUA não está suficientemente organizado ou com recursos para competir com sucesso com outras nações no que diz respeito a tecnologias emergentes, nem preparados para se defender contra ameaças habilitadas por IA ou para adotar rapidamente aplicativos de IA para fins de segurança nacional. Diante desse cenário, o relatório descreve uma estratégia para deixar os Estados Unidos “prontos para IA” até 2025 [25] e identifica etapas específicas para melhorar a transparência pública e proteger a privacidade, as liberdades civis e os direitos civis quando o governo está implantando sistemas de IA. A NSCAI endossa especificamente o uso de ferramentas para melhorar a transparência e a explicabilidade: avaliações de risco e impacto da IA; auditorias e testes de sistemas de IA; e mecanismos para fornecer o devido processo e reparação a indivíduos prejudicados por sistemas de IA usados no governo. ” Sistemas de IA e um processo de apelação para os afetados. Essas recomendações podem ter implicações significativas para a possível supervisão e regulamentação da IA no setor privado. talentos e proteger vantagens críticas dos EUA, incluindo direitos de propriedade intelectual.
b)A Unidade de Inovação em Defesa (DIU) do DOD divulgou suas “Diretrizes de IA Responsável”
Em 14 de novembro de 2021, a Unidade de Inovação em Defesa do Departamento de Defesa (“DIU”) divulgou “Diretrizes de IA Responsável” que fornecem orientação passo a passo para desenvolvedores de terceiros usarem ao criar IA para uso militar. Essas diretrizes incluem procedimentos para identificar quem pode usar a tecnologia, quem pode ser prejudicado por ela, quais podem ser esses danos e como eles podem devem ser evitados - tanto antes de o sistema ser construído quanto depois que ele estiver instalado e funcionando.[26]
c)Lei de Capacidades e Transparência de Inteligência Artificial (“AICT”)
Em 19 de maio de 2021, os senadores Rob Portman (R-OH) e Martin Heinrich (D-NM), introduziram a Lei Bipartidária Artificial Lei de Capacidades de Inteligência e Transparência ("AICT").[27]AICT forneceria maior transparência para os sistemas de IA do governo e é baseada principalmente em recomendações promulgadas pela Comissão de Segurança Nacional sobre IA ("NSCAI") em abril de 2021.[28 ]AICT foi acompanhado pela Lei de Inteligência Artificial para Militares (AIM). desenvolveria um plano de recursos para o DOD para permitir o desenvolvimento, teste, colocação em campo e atualização de aplicativos baseados em IA.[30] Ambos os projetos de lei foram aprovados como parte da Lei de Autorização de Defesa Nacional do Ano Fiscal de 2022.[31]
B.Proteção do consumidor, privacidade e proteção; Justiça algorítmica
1.FTC se concentra na transparência e justiça algorítmica
Em 19 de abril de 2021, a FTC emitiu orientações destacando sua intenção de impor princípios de transparência e justiça com relação à decisão algorítmica -fazendo consumidores impactantes. A postagem do blog, "Aiming for truth, fairness, and equity in your company's use of AI", anunciou a intenção da FTC de trazer ações de execução relacionadas a "algoritmos tendenciosos" na seção 5 da Lei FTC, a Feira Credit Reporting Act e Equal Credit Opportunity Act.[32]Notavelmente, a declaração observa expressamente que "a venda ou uso de, por exemplo, algoritmos com viés racial" se enquadra no escopo da proibição de práticas comerciais injustas ou enganosas. A postagem do blog forneceu orientações concretas sobre “usar IA de forma verdadeira, justa e equitativa”, indicando que espera que as empresas “façam mais bem do que mal” auditando seus dados de treinamento e, se necessário, “limitando onde ou como [eles ] usar o modelo;” testando seus algoritmos para viés impróprio antes e durante a implantação; empregando estruturas de transparência e padrões independentes; e ser transparente com os consumidores e buscar o consentimento apropriado para usar os dados do consumidor. A orientação também alertou as empresas contra fazer declarações aos consumidores que “prometem demais” ou deturpam os recursos de um produto, observando que resultados tendenciosos podem ser considerados enganosos e levar a ações de fiscalização da FTC .
Esta declaração de intenções veio logo após as observações da ex-presidente interina da FTC, Rebecca Kelly Slaughter, em 10 de fevereiro no Fórum do Futuro da Privacidade, prevendo as prioridades de aplicação sob o governo Biden e vinculando especificamente o papel da FTC em lidar com o racismo sistêmico ao divisão digital, exacerbada pela COVID-19, IA e tomada de decisões algorítmicas, tecnologia de reconhecimento facial e uso de dados de localização de aplicativos móveis. , viés e modelos de dados robustos.[34]
Essas prioridades regulatórias continuam a ganhar ritmo sob a nova presidente da FTC, Lina Khan, que em novembro de 2021 anunciou várias novas adições ao Escritório de Planejamento de Políticas da FTC, incluindo três "Conselheiros em Inteligência Artificial", Meredith Whittaker, Ambak Kak e Sarah Meyers West - todos anteriormente no AI Now Institute da NYU e especialistas em vários tópicos de IA, incluindo responsabilidade algorítmica e economia política da IA.[35]
A FTC também tomou medidas para fortalecer seus poderes de aplicação da lei, aprovando uma série de medidas para permitir investigações mais rápidas sobre possíveis violações, incluindo questões relacionadas ao viés em algoritmos e biometria.[36]Além disso, em 27 de julho de 2021, o O tecnólogo-chefe da FTC, Erie Meyer, comentou que a agência prevê exigir que as empresas que se envolvem em usos ilegais de dados “não apenas liberem dados e dinheiro”, mas também “algoritmos que foram manipulados por dados ilícitos”.[37]Sen. Mike Lee, R-Utah, posteriormente apresentou um projeto de lei em 15 de dezembro de 2021 que daria à FTC autoridade para buscar restituição no tribunal distrital federal, depois que a Suprema Corte dos EUA decidiu em abril que o poder da agência de buscar liminares de um juiz federal não inclui a capacidade de solicitar restituição ou restituição de ganhos ilícitos. juiz federal para permitir que recupere dinheiro de golpistas e infratores antitruste.[39]
A FTC também identificou "padrões obscuros" como uma preocupação crescente e ponto focal de aplicação.Padrões obscuros podem ser vagamente definidos como técnicas para manipular um consumidor a tomar um curso de ação não intencional usando novos usos de tecnologia (incluindo IA), particularmente design de experiência do usuário (UX) - por exemplo, um bot de atendimento ao cliente, garantia indesejada ou uma assinatura de avaliação que se converte em paga. Daniel Kaufman, sugeriu que as empresas podem esperar uma aplicação agressiva da FTC nesta área e que a FTC usará a Seção 5 da Lei da FTC e a Lei de Restauração da Confiança dos Compradores Online para exercer sua autoridade promulgando novas regras, declarações de políticas ou orientações de execução. [41]
Recomendamos que as empresas que desenvolvem ou implantam a tomada de decisão automatizada adotem uma abordagem de "ética desde o design" e revisem e reforcem as políticas internas de governança, diligência e conformidade. As empresas também devem ficar a par dos desenvolvimentos relacionados à capacidade da FTC de buscar restituição e penalidades e impor obrigações para excluir algoritmos, modelos ou dados.
2.Consumer Financial Protection Bureau
O CFPB, agora chefiado pelo ex-comissário da FTC Rohit Chopra, sugeriu que pode usar o Fair Credit Reporting Act (FCRA) para exercer jurisdição sobre grandes empresas de tecnologia e seus práticas de negócios.[42]A FCRA tradicionalmente regula as atividades de agências de crédito, empresas de verificação de antecedentes e serviços de triagem de inquilinos, mas Chopra fez várias declarações de que os dados subjacentes usados por gigantes da tecnologia podem estar gerando obrigações sob a FCRA. A FCRA define uma agência de relatórios do consumidor de forma bastante ampla para incluir empresas que coletam, avaliam e vendem dados a terceiros que usam os dados na tomada de decisões de elegibilidade sobre os consumidores. O CFPB pode procurar fazer uma investigação em grandes empresas de tecnologia para saber se os dados são , de facto, a ser vendido a terceiros e como pode ser utilizado a jusante.
Em novembro, o CFPB emitiu um parecer consultivo afirmando que as empresas de relatórios de consumidores, incluindo empresas de triagem de inquilinos e empregos, estão violando a lei se se envolverem em procedimentos descuidados de correspondência de nomes.[43]O CFPB está particularmente preocupado com os algoritmos. de empresas de triagem de antecedentes que atribuem uma identidade falsa a candidatos a empregos e moradia devido a relatórios de triagem de antecedentes repletos de erros que podem impactar desproporcionalmente as comunidades de cor. precisão possível.
3.EUA Comissão de Oportunidades Iguais de Emprego
A Comissão de Oportunidades Iguais de Emprego dos EUA planeja revisar como as ferramentas e a tecnologia de IA estão sendo aplicadas às decisões de emprego.[44]A iniciativa da EEOC examinará mais de perto como a tecnologia está mudando fundamentalmente a forma como o emprego decisões são tomadas. O objetivo é orientar candidatos, funcionários, empregadores e fornecedores de tecnologia a garantir que essas tecnologias sejam usadas de maneira justa, de acordo com as leis federais de oportunidades iguais de emprego.
4.Reconhecimento facial e tecnologias biométricas
a)Aplicação
Em janeiro de 2021, a FTC anunciou seu acordo com a Everalbum, Inc. em relação ao seu "Ever App", um aplicativo de armazenamento de fotos e vídeos que usava a tecnologia de reconhecimento facial para classificar e "marcar" automaticamente as fotos dos usuários. usuários que desativaram suas contas em violação da Seção 5(a) da Lei FTC. De acordo com o acordo de liquidação, Everalbum deve excluir modelos e algoritmos que desenvolveu usando fotos e vídeos enviados por usuários e obter consentimento expresso de seus usuários antes de aplicar tecnologia de reconhecimento facial, ressaltando o surgimento da exclusão como uma medida de aplicação potencial. Um requisito para excluir dados, modelos e algoritmos desenvolvidos usando dados coletados sem consentimento expresso pode representar uma obrigação corretiva significativa com implicações mais amplas para desenvolvedores de IA.
Sinalizando o potencial para aumentar a regulamentação e a fiscalização nessa área, o comissário da FTC, Rohit Chopra, emitiu uma declaração descrevendo o acordo como uma “correção de curso”, comentando que a tecnologia de reconhecimento facial é “fundamentalmente falha e reforça vieses nocivos”, ao mesmo tempo em que destaca o importância de “esforços para promulgar moratórias ou restringir severamente seu uso”. monitorará cuidadosamente qualquer outra ação de execução pela FTC (e outros reguladores), bem como a lista de ações judiciais pendentes alegando a coleta ilícita de dados biométricos usados por tecnologias automatizadas de acordo com um número crescente de leis estaduais de privacidade - como a Biométrica de Illinois Lei de Privacidade da Informação (“BIPA”)[47] – e recomenda que as empresas que desenvolvem ou usam tecnologias de reconhecimento facial busquem aconselhamento jurídico específico com relação aos requisitos de consentimento em relação a dados biométricos, bem como desenvolvam processos robustos de diligência de IA e avaliação de risco para terceiros Aplicações de IA.
b)Legislação
A tecnologia de reconhecimento facial também atraiu atenção renovada de legisladores federais e estaduais em 2021. Em 15 de junho de 2021, um grupo de senadores democratas reintroduziu a Lei de Moratória de Reconhecimento Facial e Tecnologia Biométrica, que proibiria as agências de usar tecnologia de reconhecimento facial e outras tecnologias biométricas - incluindo reconhecimento de voz, reconhecimento de portão e reconhecimento de outras características físicas imutáveis - por entidades federais e bloquearia fundos federais para sistemas de vigilância biométrica.[48] Um projeto de lei semelhante foi apresentado em ambas as casas no Congresso anterior, mas não saiu do comitê.[49] A legislação, que é endossada pela ACLU e várias outras organizações de direitos civis, também fornece um direito privado de ação para indivíduos cujos dados biométricos são usados em violação de a Lei (aplicada pelos Procuradores-Gerais do estado) e procura limitar o uso de tecnologias biométricas pelas entidades locais vinculando o recebimento de verbas federais a proibições localizadas de tecnologia biométrica. Quaisquer dados biométricos coletados em violação das disposições do projeto de lei também seriam banidos uso em processos judiciais.
Em nível estadual, a Virgínia aprovou a proibição do uso de tecnologia de reconhecimento facial pelas autoridades policiais (H.B. 2031). A legislação, que obteve amplo apoio bipartidário, proíbe todas as agências policiais locais e departamentos de polícia do campus de comprar ou usar tecnologia de reconhecimento facial, a menos que seja expressamente autorizado pela legislatura estadual.[50]A lei entrou em vigor em 1º de julho de 2021. A Virgínia se une à Califórnia, bem como a várias cidades dos EUA, ao restringir o uso da tecnologia de reconhecimento facial pelas autoridades .[51]
5.Responsabilidade Algorítmica
a) Lei de Justiça Algorítmica e Transparência de Plataforma Online de 2021 (S. 1896)
Em 27 de maio de 2021, o senador Edward J. Markey (D -Mass.) e a congressista Doris Matsui (CA-06) introduziram o Algorithmic Justice and Online Platform Transparency Act de 2021 para proibir algoritmos nocivos, aumentar a transparência nas práticas de amplificação e moderação de conteúdo de sites e encomendar uma investigação intergovernamental sobre algoritmos discriminatórios processos em toda a economia nacional.[52]A Lei proibiria processos algorítmicos em plataformas online que discriminem com base em raça, idade, sexo, habilidade e outras características protegidas.Além disso, estabeleceria um padrão de segurança e eficácia para algoritmos e exigir que plataformas online descrevam processos algorítmicos em linguagem simples para os usuários e mantenham registros detalhados desses processos para revisão pela FTC.
b)Lei de Tecnologia de Segurança do Consumidor, ou AI for Consumer Product Safety Act (H.R. 3723)
Em 22 de junho de 2021, a Câmara votou 325-103 para aprovar a Lei de Tecnologia de Segurança do Consumidor, ou AI for Consumer Product Safety Act (H.R. 3723), que exige que a Consumer Product Safety Commission crie um programa piloto que use IA para explorar questões de segurança do consumidor, como tendências de lesões, riscos de produtos, produtos recolhidos ou produtos que não devem ser importados para o EUA[53]Esta é a segunda vez que a Lei de Tecnologia de Segurança do Consumidor foi aprovada na Câmara. No ano passado, depois de ser aprovada na Câmara, o projeto de lei não avançou no Senado após ser encaminhado ao Comitê de Comércio, Ciência e Transporte.[54 ]
c) Lei de proteção de dados de 2021 (S. 2134)
Em junho de 2021, a senadora Kirsten Gillibrand (D-NY) apresentou a Lei de proteção de dados de 2021, que criaria uma agência federal independente para proteger os dados e a privacidade do consumidor.[55]O foco principal da agência seria proteger a privacidade dos indivíduos relacionada à coleta, uso e processamento de dados pessoais.[56]O projeto de lei define "sistema de decisões automatizadas" como "um sistema computacional processo, incluindo um derivado de aprendizado de máquina, estatística ou outro processamento de dados ou técnicas de inteligência artificial, que toma uma decisão ou facilita a tomada de decisão humana. prática de dados” exigindo uma avaliação de impacto após a implantação e uma avaliação de risco no desenvolvimento e design do sistema, incluindo uma descrição detalhada da prática, incluindo design, metodologia, dados de treinamento e finalidade, bem como quaisquer impactos díspares e danos à privacidade.[58 ]
d)Lei de Transparência da Bolha de Filtros
Em 9 de novembro de 2021, um grupo bipartidário de legisladores da Câmara introduziu uma legislação que daria às pessoas mais controle sobre os algoritmos que moldam sua experiência online.[59]Se aprovada. , o Filter Bubble Transparency Act exigiria que empresas como a Meta oferecessem uma versão de suas plataformas que funcionasse em um algoritmo “transparente de entrada” que não extraísse dados do usuário para gerar recomendações - em outras palavras, fornecer aos usuários uma opção para desativar feeds de conteúdo algorítmico com base em dados pessoais. Esta legislação da Câmara é um projeto de lei complementar à legislação do Senado apresentada em junho de 2021.
e)Deepfake Task Force Act
Em 29 de julho, os senadores Gary Peters (D-Mich.) e Rob Portman (R-Ohio) introduziram uma legislação bipartidária que criaria uma força-tarefa dentro do Departamento de Homeland Security (DHS) encarregado de produzir um plano para reduzir a disseminação e o impacto de deepfakes, imagens e vídeos manipulados digitalmente quase indistinguíveis de imagens autênticas. para realizar um estudo anual de deepfakes.
6.Regulamentos estaduais e municipais
a)Os legisladores do estado de Washington apresentam um projeto de lei para regulamentar AI, S.B. 5116
Na esteira do histórico projeto de lei de reconhecimento facial de Washington (S.B. 6280) promulgado no ano passado,[61] legisladores estaduais e defensores dos direitos civis propuseram novas regras para proibir a discriminação decorrente da tomada de decisão automatizada por órgãos públicos .[62]O projeto de lei, que é patrocinado pelo senador Bob Hasegawa (D-Beacon Hill), estabeleceria novos regulamentos para departamentos governamentais que usam "sistemas de decisões automatizadas", uma categoria que inclui qualquer algoritmo que analise dados para fazer ou apoiar decisões do governo.[63]Se promulgadas, as agências públicas no estado de Washington seriam proibidas de usar sistemas de decisões automatizadas que discriminem diferentes grupos ou tomem decisões finais que afetem os direitos constitucionais ou legais de um residente de Washington. O projeto de lei também proíbe as agências governamentais de usando perfis habilitados para IA em espaços públicos. Relatórios de responsabilidade publicamente disponíveis, garantindo que a tecnologia não seja discriminatória, seriam necessários antes que uma agência pudesse usar um sistema de decisão automatizado.
b) Projeto de lei do conselho da cidade de Nova York aprovado para proibir empregadores de usar ferramentas de contratação automatizadas sem auditoria anual para determinar o impacto discriminatório
Em 10 de novembro de 2021, o conselho da cidade de Nova York aprovou um projeto de lei que proíbe a contratação de IA sistemas que não passam nas auditorias anuais que verificam a discriminação com base em raça ou gênero.[64] O projeto de lei exigiria que os desenvolvedores de tais ferramentas de IA divulgassem mais informações sobre o funcionamento de sua ferramenta e daria aos candidatos a opção de escolher uma alternativa processo para revisar sua inscrição. A legislação imporia multas aos empregadores ou agências de emprego de até US$ 1.500 por violação.
C.Propriedade intelectual
1.Thaler v. Hirshfeld
Historicamente, a propriedade intelectual tem oferecido proteção incerta para obras de IA. Os requisitos de autoria e inventário são obstáculos perpétuos para a criação de IA obras e invenções. Por exemplo, nos Estados Unidos, a lei de patentes rejeitou a noção de um inventor não humano. desafios ao paradigma.Primeiro, a equipe criou o DABUS, o "Dispositivo para o Autonomous Bootstrapping of Unified Sentience" - um sistema de IA que criou várias invenções.[67]O projeto então fez uma parceria com advogados para apresentar casos de teste nos Estados Unidos , Austrália, UE e Reino Unido.[68]Esses casos ambiciosos colheram resultados mistos, provavelmente divergindo ainda mais à medida que a invenção de IA prolifera.
Nos Estados Unidos, DABUS foi listado como o "inventor único" em dois pedidos de patente. juramento ou declaração não identificava cada inventor ou seu nome legal” e enfatizou que a lei exigia que a invenção “deve ser realizada por uma pessoa física”. , que concordou com o USPTO.[71]O Projeto do Inventor Artificial enfrentou reveses comparáveis na Europa. lei exige invenção humana. uma pessoa.[74]Por outro lado, o escritório de patentes da África do Sul concedeu a primeira patente para um inventor de IA.[75]Um líder da equipe jurídica explicou o resultado diferencial: no Reino Unido, o pedido de patente foi "considerado retirado" por falha em cumprir associados com a apresentação dos formulários de patente; no entanto, “a África do Sul realiza o exame de formalidades e o emitiu, conforme exigido, com base na designação no pedido internacional (Tratado de Cooperação de Patentes [PCT]), que foi previamente aceito pela OMPI.”[76] Semanas depois , o Tribunal Federal da Austrália também considerou que a invenção de IA não era um obstáculo à patenteabilidade.[77] Mas vale a pena notar que o sistema de patentes da Austrália não emprega um sistema substantivo de exame de patente.
Embora os desenvolvimentos na África do Sul e na Austrália ofereçam encorajamento aos inventores de IA, não há promessa de harmonização. Em vez disso, é mais provável que haja uma abordagem de colcha de retalhos. Os Estados Unidos e a Europa provavelmente manterão a visão de que a IA é uma ferramenta do inventor, mas não um inventor.
2.Google LLC v. Oracle America, Inc.
Em 5 de abril de 2021, a Suprema Corte dos EUA decidiu a favor do Google em um processo multibilionário de direitos autorais movido pela Oracle, sustentando que o Google não infringiu os direitos autorais da Oracle sob a doutrina de uso justo quando usou material das APIs da Oracle para construir sua plataforma de smartphone Android. pelo argumento de que o material era protegido por direitos autorais, "a cópia aqui em questão, no entanto, constituiu um uso justo". para trabalhar em um programa novo e transformador, a cópia do Google da API Sun Java foi um uso justo desse material como uma questão de direito.” outros tipos de código de computador ao descobrir que todos os quatro fatores orientadores estabelecidos na provisão de uso justo da Lei de Direitos Autorais pesaram a favor do uso justo.[81]
Embora a decisão pareça girar em torno deste caso específico, ela provavelmente terá repercussões para IA e criadores de plataformas. Notavelmente, o Tribunal afirmou que o uso comercial não necessariamente desequilibra a balança contra o uso justo, especialmente quando o uso do material copiado é transformador. Isso pode ajudar as empresas que procuram usar o conteúdo para treinar seus algoritmos a um custo menor, deixando de lado potenciais considerações de privacidade (como no BIPA). Enquanto isso, as empresas também podem achar mais desafiador governar e supervisionar programas competitivos que usam seu código de API para compatibilidade com suas plataformas.
D.Healthcare
1.Plano de ação da FDA para dispositivos médicos de IA
Em janeiro de 2021, a Food and Drug Administration (FDA) dos EUA apresentou seu primeiro plano de ação em cinco partes focado em Software baseado em Inteligência Artificial/Aprendizado de Máquina (AI/ML) como um Dispositivo Médico (SaMD). feedback recebido do documento de discussão de abril de 2019, “Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning-Based Software as a Medical Device”. ” SaMD baseado em IA/ML “fornecerá funcionalidade de software segura e eficaz que melhora a qualidade do atendimento que os pacientes recebem.”[84]
Conforme proposto no plano de ação de janeiro de 2021 da FDA, em outubro de 2021, a FDA realizou um workshop público sobre como o compartilhamento de informações sobre um dispositivo oferece suporte à transparência para todos os usuários de dispositivos médicos habilitados para IA/ML.[85]O objetivo declarado de o workshop foi duplo: (1) para “identificar considerações únicas na obtenção de transparência para usuários de dispositivos médicos habilitados para IA/ML e maneiras pelas quais a transparência pode aumentar a segurança e a eficácia desses dispositivos”; e (2) “reunir informações de várias partes interessadas sobre os tipos de informações que seriam úteis para um fabricante incluir na rotulagem e nas informações voltadas para o público de dispositivos médicos habilitados para IA/ML, bem como outros mecanismos potenciais para compartilhamento de informações .”[86]
O workshop teve três módulos principais sobre (1) o significado e o papel da transparência; (2) como promover a transparência; e (3) uma sessão para comentários públicos abertos.[87]Painéis específicos cobriram tópicos como impressões de pacientes e perspectivas médicas sobre a transparência da IA, o papel do FDA na promoção da transparência e promoção da transparência do ponto de vista de um desenvolvedor.[88]Após o workshop, o FDA solicitou comentários públicos sobre o workshop até 15 de novembro de 2021, para serem levados em consideração no futuro.[89]
2.FDA lança lista de dispositivos médicos habilitados para IA e aprendizado de máquina
Em 22 de setembro de 2021, o FDA compartilhou sua lista preliminar de SaMDs baseados em IA/ML que são legalmente comercializados nos EUA. por meio de autorização 510(k), autorização De Novo ou aprovação pré-mercado (PMA).[90]A agência desenvolveu esta lista para aumentar a transparência e o acesso a informações sobre SaMDs baseados em IA/ML e para atuar "como um recurso para o público sobre esses dispositivos e o trabalho do FDA no espaço.”[91] O esforço vem junto com o crescente interesse em desenvolver tais produtos para contribuir para uma ampla variedade de esferas clínicas e o número crescente de empresas que buscam incorporar a tecnologia AI/ML em dispositivos médicos. A FDA observou que um dos "maiores benefícios potenciais do ML reside em sua capacidade de criar novos e importantes insights a partir da grande quantidade de dados gerados durante a prestação de cuidados de saúde todos os dias".[92]
E.Veículos Autônomos ("AVs")
1.U.S. Desenvolvimentos Federais
Em junho de 2021, o Representante Bob Latta (R-OH-5) reintroduziu novamente a Lei de Pesquisa e Implantação Futura de Vidas Seguras ("Lei SELF DRIVE") (H.R. 3711), que criar uma estrutura federal para ajudar agências e indústrias a implantar AVs em todo o país e estabelecer um Conselho Consultivo de Veículos Altamente Automatizados dentro da Administração Nacional de Segurança no Tráfego Rodoviário (“NHTSA”). O representante Latta já havia apresentado o projeto de lei em 23 de setembro de 2020 e em sessões anteriores.[93]
Também em junho de 2021, o Departamento de Transporte ("DOT") lançou sua "Agenda Regulatória de Primavera" e propôs que a NHTSA estabelecesse padrões de teste rigorosos para AVs, bem como um banco de dados nacional de incidentes para documentar acidentes envolvendo AVs.[94 ] O DOT indicou que haverá oportunidades para comentários públicos sobre as propostas.
Em 29 de junho de 2021, a NHTSA emitiu uma Ordem Geral Permanente exigindo que fabricantes e operadores de veículos com sistemas avançados de assistência ao motorista (ADAS) ou sistemas de direção automatizada (ADS) relatassem acidentes.[95]ADAS é um recurso cada vez mais comum em novos veículos onde o veículo é capaz de controlar certos aspectos de direção e velocidade. Veículos equipados com ADS são o que é mais coloquialmente chamado de "veículos autônomos" e não estão atualmente no mercado. A Ordem exige que as empresas relatem acidentes dentro um dia após o conhecimento do acidente, se o acidente envolveu uma "lesão tratada no hospital, uma fatalidade, um veículo rebocado, um airbag acionado ou um usuário vulnerável da estrada, como um pedestre ou ciclista". relatório atualizado também deve ser entregue 10 dias após a empresa saber do acidente. os relatórios enviados à NHTSA devem ser atualizados mensalmente com informações novas ou adicionais.[99]
A NHTSA também solicitou comentários públicos em resposta ao seu Aviso Prévio de Proposta de Regulamentação ("ANPRM"), "Framework for Automated Driving System Safety", até o primeiro trimestre de 2021.[100]A ANPRM reconheceu que o AV- anterior da NHTSA avisos regulatórios relacionados “se concentraram mais no design dos veículos que podem ser equipados com um ADS - não necessariamente no desempenho do próprio ADS”. ADS por meio de uma estrutura de segurança e, especificamente, se algum procedimento de teste para qualquer Norma Federal de Segurança de Veículos Automotores (“FMVSS”) deve ser substituído, revogado ou modificado, por outros motivos que não sejam considerações relevantes apenas para ADS.NHTSA observou que “[um ]Embora o estabelecimento de um FMVSS para ADS possa ser prematuro, é apropriado começar a considerar como a NHTSA pode usar adequadamente sua autoridade reguladora para incentivar o foco na segurança à medida que a tecnologia ADS continua a se desenvolver”, enfatizando que sua abordagem se concentrará em flexibilidade “abordagens e métricas orientadas para o desempenho” sobre características de design específicas de regras ou outros requisitos técnicos.[102]
2.Legislação de veículos automatizados de Iowa
Em 2019, a legislatura de Iowa aprovou uma lei que permite que veículos sem motorista operem nas rodovias públicas de Iowa sem motorista, se o veículo atender a certas condições, incluindo o veículo deve ser capaz de atingir um risco mínimo se o sistema de condução automatizada apresentar mau funcionamento. Também exige que o sistema do veículo cumpra as leis de trânsito de Iowa, e o fabricante deve certificar que um fabricante está em conformidade com todos os padrões federais de segurança de veículos automotores aplicáveis.[ 103]Em agosto de 2021, a Iowa Transportation Commission aprovou regras para veículos automatizados. Esses regulamentos incluem requisitos de que um "fabricante ou entidade não deve testar veículos sem motorista em Iowa sem uma licença válida" e impõe restrições sobre quem pode se qualificar para um licença de veículo sem motorista.[104]Ele também fornece autoridade ao departamento para restringir a operação do veículo "com base em uma classificação de rodovia funcional específica, condições climáticas, dias da semana, horas do dia e outros elementos do projeto operacional enquanto o sistema de direção automatizada está ativado.”[105]
F.Serviços financeiros
Em meio à crescente adoção de IA no espaço de serviços financeiros, o ano também trouxe um impulso renovado para regulamentar tais avanços tecnológicos. mais por vir em 2022.
A Federal Deposit Insurance Corporation (FDIC), o Conselho de Governadores do Federal Reserve System e o Office of the Comptroller of the Currency se uniram para emitir uma nova regra de relatórios de segurança cibernética.[106]A regra se aplica a todos os bancos. Organizações[107] regidas pela agência e obriga as Organizações Bancárias a notificar seus principais reguladores federais dentro de 36 horas sobre qualquer "incidente de segurança de computador" suficientemente grave.[108] A regra entra em vigor em 1º de abril de 2022 e todas as entidades regulamentadas devem cumprir até 1º de maio de 2022.[109]
Além dos regulamentos recém-emitidos, várias agências sinalizaram seu desejo de regulamentar os avanços tecnológicos em serviços financeiros já no início de 2022.Cinco agências realizaram em conjunto um período para comentários abertos sobre "Uso de inteligência artificial por instituições financeiras" de 31 de março de 2021, até 1º de julho de 2021, para "entender as opiniões dos respondentes sobre o uso de IA por instituições financeiras em sua prestação de serviços aos clientes". A RFI lançaria luz especificamente sobre a questão da IA potencialmente violando as leis de proteção ao consumidor ao impactar de forma diferente uma classe protegida, entre outras questões. tecnologia avançada por várias formas de entidades de serviços financeiros.
A.União Europeia
1.EC Projeto de lei para regulamentação de IA em toda a UE
Em 21 de abril de 2021, a Comissão Europeia (“CE”) apresentou sua tão esperada minuta abrangente de um regulamento de IA (também conhecido como "Lei de Inteligência Artificial").[112]Conforme destacado em nosso alerta de cliente "Proposta da UE sobre regulamentação de inteligência artificial lançada" e em nossa "Atualização legal de sistemas automatizados e inteligência artificial do terceiro trimestre de 2020" , o rascunho vem na sequência de uma variedade de publicações e esforços políticos no campo da IA com o objetivo de colocar a UE na vanguarda da regulamentação e inovação da IA. A Lei de Inteligência Artificial proposta cumpre a promessa do presidente da CE de colocar legislação avançada para uma abordagem europeia coordenada sobre as implicações humanas e éticas da IA[113] e seria aplicável e vinculativa em todos os 27 Estados-Membros da UE.
A fim de “alcançar o duplo objetivo de promover a adoção da IA e abordar os riscos associados a certos usos dessa tecnologia”[114], a CE geralmente opta por uma abordagem baseada em risco em vez de uma proibição geral de tecnologia .No entanto, a Lei de Inteligência Artificial também contém proibições definitivas de certas "práticas de IA" e algumas disposições de longo alcance destinadas a "sistemas de IA de alto risco", que lembram um pouco a abordagem regulatória sob o Regulamento Geral de Proteção de Dados da UE ( “RGPD”); ou seja, amplo alcance extraterritorial e pesadas penalidades, e provavelmente dará origem a controvérsia e debate no próximo processo legislativo.
Como a CE escreve em seu memorando explicativo para a Lei de Inteligência Artificial, a estrutura proposta cobre os seguintes objetivos específicos:
Embora seja incerto quando e de que forma a Lei de Inteligência Artificial entrará em vigor, a CE deu o tom para os próximos debates políticos com esta nova e ambiciosa proposta. Embora certas disposições e obrigações possam não ser transferidas para o final legislação, vale a pena notar que o Parlamento da UE já instou a CE a priorizar os princípios éticos em sua estrutura regulatória. ou usando sistemas de IA, baseados na UE ou no exterior, devem ficar atentos aos novos desenvolvimentos em relação à Lei de Inteligência Artificial e, em particular, ao escopo dos casos de uso proibidos "inaceitáveis" e "de alto risco", que , conforme redigido, poderia aplicar-se a uma vasta gama de produtos e aplicações.
Estamos prontos para ajudar os clientes a lidar com as possíveis questões levantadas pelos regulamentos da UE propostos, enquanto continuamos a monitorar de perto os desenvolvimentos a esse respeito, bem como a reação do público. Podemos e ajudaremos a aconselhar todos os clientes que desejam ter voz no processo.
2.Relatório preliminar de IA do Parlamento da UE
Em 2 de novembro de 2021, o Comitê Especial da UE divulgou seu relatório preliminar sobre IA na era digital para o Parlamento Europeu, que destaca os benefícios do uso de IA como a luta contra as mudanças climáticas e pandemias, e também vários desafios éticos e legais.[116]De acordo com o rascunho do relatório, a UE não deve regulamentar a IA como uma tecnologia; em vez disso, o tipo, a intensidade e o momento da intervenção regulatória devem depender exclusivamente do tipo de risco associado a um uso específico de um sistema de IA. O rascunho do relatório também destaca o desafio de chegar a um consenso na comunidade global sobre os padrões mínimos para o responsável uso de IA e preocupações com pesquisa militar e desenvolvimentos tecnológicos em sistemas de armas sem supervisão humana.
3.O Conselho da UE propõe o Regulamento de privacidade eletrônica
Em 10 de fevereiro de 2021, o Conselho da União Europeia (o “Conselho da UE”), a instituição que representa os governos dos Estados Membros da UE, forneceu um mandato de negociação no que diz respeito a uma revisão da Diretiva de ePrivacy e publicou uma proposta atualizada para um novo Regulamento de ePrivacy. Ao contrário da atual Diretiva de ePrivacy, o novo Regulamento de ePrivacy não teria que ser implementado na lei nacional, mas seria aplicado diretamente em todos os Estados Membros da UE sem transposição.
A Diretiva ePrivacy contém regras relacionadas com a privacidade e confidencialidade na utilização dos serviços de comunicações eletrónicas. No entanto, a atualização dessas regras é considerada crítica dado o amplo e rápido avanço tecnológico que se tem verificado desde a sua adoção em 2002. O novo Regulamento de Privacidade Eletrônica, que revogaria e substituiria a Diretiva de Privacidade Eletrônica, está em discussão há vários anos.
De acordo com a proposta do Conselho da UE, o Regulamento ePrivacy também abrangerá dados máquina a máquina transmitidos por meio de uma rede pública, o que pode criar restrições ao uso de dados por empresas que desenvolvem produtos baseados em IA e outras tecnologias baseadas em dados .Como regra geral, todos os dados de comunicações eletrônicas serão considerados confidenciais, exceto quando o processamento ou outro uso for expressamente permitido pelo Regulamento de Privacidade Eletrônica. Semelhante ao Regulamento Geral Europeu de Proteção de Dados (“GDPR”), o Regulamento de Privacidade Eletrônica também se aplica a tratamento que ocorra fora da UE e/ou a prestadores de serviços estabelecidos fora da UE, desde que os utilizadores finais dos serviços de comunicações eletrónicas, cujos dados são tratados, se encontrem na UE.
No entanto, ao contrário do GDPR, o Regulamento de Privacidade Eletrônica abrangeria todo o conteúdo das comunicações transmitidas usando serviços e redes de comunicações eletrônicas publicamente disponíveis, e não apenas dados pessoais.Além disso, os metadados (como local e hora de recebimento da comunicação) também se enquadram âmbito do Regulamento de Privacidade Eletrónica.
Espera-se que o rascunho da proposta sofra mais alterações durante as negociações com o Parlamento Europeu. Portanto, resta saber se as necessidades específicas de tecnologias altamente inovadoras baseadas em dados serão levadas em consideração - criando uma clara e inequívoca fundamentos legais que não sejam o consentimento do usuário para o processamento de conteúdo de comunicações e metadados com a finalidade de desenvolver, melhorar e oferecer produtos e aplicativos baseados em IA. Se as negociações entre o Conselho da UE e o Parlamento da UE prosseguirem sem mais demoras, o novo Regulamento de privacidade eletrônica poderia entrar em vigor em 2023, no mínimo.
4.EDPB & Apelação da EDPS para a proibição do uso de IA para reconhecimento facial em espaços acessíveis ao público
Em 21 de junho de 2021, o Conselho Europeu de Proteção de Dados (“EDPB”) e o Supervisor Europeu de Proteção de Dados (“EDPS”) publicaram um Opinião conjunta pedindo a proibição geral de “qualquer uso de IA para reconhecimento automatizado de características humanas em espaços acessíveis ao público, como reconhecimento de rostos, marcha, impressões digitais, DNA, voz, pressionamentos de teclas e outros sinais biométricos ou comportamentais, em qualquer contexto. ”[117]
No seu parecer, a EDPB e a EDPS saudaram a abordagem baseada no risco subjacente ao Regulamento IA proposto pela CE e realçaram que tem implicações importantes na proteção de dados. como a autoridade competente e a autoridade de vigilância do mercado para a supervisão das instituições da UE - deve ser mais esclarecida. orientação política ou sexual ou outros motivos pelos quais a discriminação seja proibida nos termos do artigo 21.º da Carta dos Direitos Fundamentais”.
Além disso, a EDPB e a EDPS observaram que “consideram que a utilização de IA para inferir emoções de uma pessoa singular é altamente indesejável e deve ser proibida, exceto em casos muito específicos, como alguns fins de saúde, em que o paciente o reconhecimento de emoções é importante e que o uso de IA para qualquer tipo de pontuação social deve ser proibido”.
A.UK lança estratégia nacional de IA
Em 22 de setembro de 2021, o governo do Reino Unido publicou sua 'Estratégia Nacional de IA' (a “Estratégia”)[119]. De acordo com o Subsecretário Parlamentar de State at the Department for Digital, Culture, Media and Sport, Chris Philip MP, o objetivo da Estratégia é delinear “as bases para o crescimento dos próximos dez anos” para ajudar o Reino Unido a aproveitar “o potencial da inteligência artificial” e permitir que ela molde “a maneira como o mundo a governa”[120]. A Estratégia tem três pilares: (1) investir nas necessidades de longo prazo dos ecossistemas de IA; (2) garantir que a IA beneficie todos os setores e regiões; e (3) governar a IA de forma eficaz.
Para esse fim, o Reino Unido pretende atrair talentos globais para desenvolver tecnologias de IA, continuando a apoiar as intervenções existentes relacionadas à academia, além de ampliar as rotas pelas quais pesquisadores e indivíduos talentosos de IA podem trabalhar no Reino Unido (por exemplo, introduzindo novas rotas VISA). O Reino Unido também busca adotar uma nova abordagem para pesquisa, desenvolvimento e inovação em IA, por exemplo, lançando um Programa Nacional de Pesquisa e Inovação (R&I) em IA, e também colaborar internacionalmente em desafios compartilhados em pesquisa e desenvolvimento (por exemplo, implementando a Declaração dos EUA e do Reino Unido sobre Cooperação em Pesquisa e Desenvolvimento de IA.
A Estratégia também destaca que a governança eficaz e pró-inovação da IA significa que, entre outras coisas, o Reino Unido tem uma estrutura clara, proporcional e eficaz para regulamentar a IA que apóia a inovação e, ao mesmo tempo, aborda os riscos e danos reais.Atualmente, o governo do Reino Unido os regulamentos para IA são organizados setor por setor, desde a concorrência até a proteção de dados. No entanto, a Estratégia reconhece que essa abordagem pode levar a problemas, incluindo abordagens inconsistentes entre setores e sobreposições entre mandatos regulatórios. Para resolver isso, o terceiro pilar descreve as principais iniciativas futuras para melhorar a governança de IA: o Office for AI publicará um White Paper no início de 2022, que delineará a posição do governo sobre os riscos e danos potenciais apresentados pelos sistemas de IA. envolvimento no estabelecimento de regras de IA globalmente e colaboração com o Alan Turing Institute para fornecer orientações atualizadas sobre as questões éticas e de segurança relacionadas à IA.
B.UK Government publica ética, transparência e estrutura de responsabilidade para tomada de decisão automatizada
Em 13 de maio de 2021, o governo do Reino Unido publicou uma estrutura que define como os órgãos do setor público podem implantar tecnologia de tomada de decisão automatizada de forma ética e sustentável (a “Estrutura”).[121]A Estrutura separa a tomada de decisão automatizada em duas categorias: (1) tomada de decisão exclusivamente automatizada – decisões que são “totalmente automatizadas sem julgamento humano”; e (2) tomada de decisão assistida automatizada – quando “sistemas automatizados ou algorítmicos auxiliam o julgamento humano e a tomada de decisão”. para evitar quaisquer resultados ou consequências não intencionais; (2) entregar serviços justos para todos os usuários e cidadãos; (3) deixar claro quem é o responsável; (4) lidar com dados com segurança e proteger os interesses dos cidadãos; (5) ajudar usuários e cidadãos a entender como isso os afeta; (6) garantir a conformidade com a lei, incluindo leis de proteção de dados, a Lei da Igualdade de 2010 e o Dever de Igualdade do Setor Público; e (7) garantir que os algoritmos ou sistemas sejam continuamente monitorados e mitigar as consequências não intencionais.
C.UK Government publica padrão para transparência algorítmica
A transparência algorítmica refere-se à abertura sobre como as ferramentas algorítmicas suportam decisões. O Cabinet Office's Central Digital and Data Office (o "CDDO") desenvolveu um padrão de transparência algorítmica para departamentos governamentais e órgãos do setor público, que foi publicado em 29 de novembro de 2021[122] (o "Padrão"). Isso torna o Reino Unido um dos primeiros países do mundo a produzir um padrão nacional para transparência algorítmica. O padrão está em uma fase piloto, após a qual o CDDO revisará o padrão com base no feedback coletado e buscará o endosso formal da Data Standards Authority em 2022.
D.ICO oferece informações sobre sua política sobre o uso de reconhecimento facial ao vivo no Reino Unido
Em 18 de junho de 2021, o Information Commissioner's Office ("ICO") publicou uma opinião do comissário sobre o uso de reconhecimento facial ao vivo ("LFR") no Reino Unido ("a Opinião").[123]Reconhecimento facial é o processo pelo qual uma pessoa pode ser identificada ou reconhecida de outra forma a partir de uma imagem facial digital.LFR é um tipo de reconhecimento facial tecnologia que muitas vezes envolve a coleta automática de dados biométricos. O Comissário publicou anteriormente uma opinião em 2019 sobre o uso de LFR em um contexto de aplicação da lei, concluindo que a lei de proteção de dados estabelece “altos padrões” para o uso de LFR ser legal quando usado em espaços públicos. O parecer baseia-se neste trabalho, concentrando-se no uso de LFR em espaços públicos—definido como qualquer espaço físico fora de um ambiente doméstico, seja de propriedade pública ou privada—fora da aplicação da lei.O parecer deixa claro que, antes de mais nada , os controladores que procuram usar o LFR devem cumprir o Regulamento Geral de Proteção de Dados do Reino Unido (“UK GDPR”) e a Lei de Proteção de Dados de 2018.
Em termos de execução, a ICO anunciou em 29 de novembro de 2021 sua intenção de impor uma multa potencial de mais de £ 17 milhões à Clearview AI Inc por supostamente coletar imagens de um número substancial de pessoas do Reino Unido sem seu conhecimento, em violação das leis de proteção de dados do Reino Unido. A ICO também emitiu um aviso provisório à empresa para interromper o processamento de dados pessoais de pessoas no Reino Unido e excluí-los. A visão preliminar da ICO é que a Clearview AI parece não ter cumprido com Leis de proteção de dados do Reino Unido de várias maneiras, incluindo falha em ter um motivo legal para coletar as informações e falha em atender aos padrões de proteção de dados mais altos exigidos para dados biométricos sob o GDPR do Reino Unido. A Clearview AI Inc agora terá a oportunidade de fazer representações a respeito das alegadas violações, após o que o ICO deverá tomar uma decisão final. Esta ação tomada pelo ICO destaca a importância de garantir que as empresas estejam em conformidade com as leis de proteção de dados do Reino Unido antes de processar e implantar dados biométricos.
Regulador financeiro do Reino Unido promete aumentar o uso de IA na supervisão
A Autoridade de Regulamentação Prudencial ("PRA") do Reino Unido pretende fazer maior uso de IA, de acordo com seu Plano de negócios para 2021/22.[124]O foco na IA faz parte do objetivo da PRA de cumprir os compromissos estabelecidos em sua resposta ao relatório Future of Finance (publicado em 2019) para desenvolver ainda mais sua estratégia RegTech. O relatório Future of Finance recomendou que os supervisores aproveitem os desenvolvimentos em andamento em ciência de dados e poder de processamento, incluindo IA e aprendizado de máquina, que automatizam a coleta e o processamento de dados.[125]
F.Consulta sobre a futura regulamentação de dispositivos médicos no Reino Unido
Em 16 de setembro de 2021, a Comissão de Medicamentos e Medicamentos & A Agência Reguladora de Produtos de Saúde ("MHRA") publicou uma "Consulta sobre a futura regulamentação de dispositivos médicos no Reino Unido", que durou até 25 de novembro de 2021 (a "Consulta").[126] A Consulta convidou os membros do público a fornecer suas opiniões sobre possíveis mudanças na estrutura regulatória para dispositivos médicos no Reino Unido, com o objetivo de desenvolver um futuro regime para dispositivos médicos que permita (i) melhorar a segurança do paciente e do público; (ii) maior transparência na tomada de decisões regulatórias e informações sobre dispositivos médicos; (iii) estreito alinhamento com as melhores práticas internacionais e (iv) regulamentação mais flexível, responsiva e proporcional de dispositivos médicos.
A Consulta estabeleceu alterações propostas para Software como dispositivo médico ("SaMD"), incluindo IA como dispositivo médico ("AIaMD"), observando que os regulamentos atuais de dispositivos médicos contêm poucas disposições especificamente destinadas a regulamentar SaMD ou AIaMD. As propostas da MHRA, portanto, incluem a alteração dos regulamentos de dispositivos médicos do Reino Unido para proteger os pacientes e apoiar a inovação responsável na saúde digital. Algumas das possíveis mudanças apresentadas pela MHRA na Consulta incluem (entre outras) definir 'software', esclarecer ou adicionar aos requisitos para venda de SaMD por meios eletrônicos, alterando a classificação de SaMD para garantir que o escrutínio aplicado a esses dispositivos médicos seja mais compatível com seu nível de risco e mais harmonizado com a prática internacional. O MHRA pretende que quaisquer alterações ao médico do Reino Unido framework do dispositivo entrará em vigor em julho de 2023.
A MHRA também publicou separadamente um extenso programa de trabalho sobre software e IA como um dispositivo médico para oferecer mudanças ousadas para fornecer uma estrutura regulatória que forneça um alto grau de proteção para pacientes e público, mas também para garantir que o Reino Unido seja o lar da inovação responsável para software de dispositivos médicos.[127]Qualquer alteração legislativa proposta pelo programa de trabalho se baseará em reformas mais amplas na regulamentação de dispositivos médicos trazidas pela Consulta.
________________________
[1]Steven Overly & Melissa Heikkilä, “A China quer dominar a IA. Os EUA e a Europa precisam um do outro para domá-lo.”, Politico (2 de março de 2021), disponível em https://www.politico.com/news/2021/03/02/china-us-europe-ai- regulamento-472120.
[2]Id.
[3]ID.
[4]Para obter mais detalhes, consulte nossa Revisão Anual do Quarto Trimestre e de 2020 de Inteligência Artificial e Sistemas Automatizados.
[5]A Casa Branca, Comunicado à imprensa (arquivado), A Casa Branca lança o Escritório Nacional de Iniciativa de Inteligência Artificial (12 de janeiro de 2021), disponível em https://trumpwhitehouse.archives.gov/briefings-statements/ white-house-lanches-national-artificial-initiative-initiative-office/.
[6]Id.
[7]Casa Branca, Memorando sobre Restauração da Confiança no Governo por meio de Integridade Científica e Formulação de Políticas Baseadas em Evidências (27 de janeiro de 2021), disponível em https://www.whitehouse.gov/briefing-room/presidential- ações/2021/01/27/memorando-sobre-restaurar-a-confiança-no-governo-através-da-integridade-científica-e-evidência-baseada-na formulação de políticas/.
[8]Carta da vice-diretora Jane Lubchenco e da vice-diretora Alondra Nelson, OSTP para todas as agências federais (29 de março de 2021), disponível em https://int.nyt.com/data/documenttools/si-task- force-nomination-cover-letter-and-call-for-nominations-ostp/ecb33203eb5b175b/full.pdf.
[9]A Casa Branca, Ordem Executiva do Conselho de Assessores de Ciência e Tecnologia do Presidente (27 de janeiro de 2021), disponível em https://www.whitehouse.gov/briefing-room/presidential-actions/ 2021/01/27/executive-order-on-presidents-council-of-advisors-on-science-and-technology/.
[10]Dan Reilly, “White House A.I. diretor diz que os EUA devem modelar a abordagem da Europa à regulamentação”, Fortune (10 de novembro de 2021), disponível em https://fortune.com/2021/11/10/white-house-a-i-director-regulation/.
[11]S. 1260, 117º Cong. (2021).
[12]Id., §§4201-4207.
[13]Id., §4202.
[14]Id., §4204. Para obter mais detalhes sobre o relatório NSCAI e a Ordem Executiva de 2020, consulte nossa Revisão Anual do Quarto Trimestre e de 2020 de Inteligência Artificial e Sistemas Automatizados.
[15]Casa Branca, “Join the Effort to Create a Bill of Rights for an Automated Society” (10 de novembro de 2021), disponível em https://www.whitehouse.gov/ostp/news-updates/ 2021/11/10/join-the-effort-to-create-a-bill-of-rights-for-an-automated-society/.
[16]Dave Nyczepir, “O chefe de política de tecnologia da Casa Branca diz que a declaração de direitos da IA precisa de 'dentes'”, FedScoop (10 de novembro de 2021), disponível em https://www.fedscoop.com/ai-bill -de-direitos-dentes/.
[17]Id.
[18]Office of Science and Technology Policy, Notice of Request for Information (RFI) on Public and Private Sector Uses of Biometric Technologies (8 de outubro de 2021), disponível em https://www.federalregister.gov/ documentos/2021/10/08/2021-21975/aviso-de-solicitação-de-informações-rfi-sobre-usos-de-tecnologias-biométricas-setoriais-públicos-privados.
[19]EUA Gabinete de Responsabilidade do Governo, Inteligência Artificial: Uma Estrutura de Responsabilidade para Agências Federais e Outras Entidades, Destaques do GAO-21-519SP, disponível em https://www.gao.gov/assets/gao-21-519sp-highlights.pdf.
[20]As principais práticas de monitoramento identificadas pelo GAO são particularmente relevantes para organizações e empresas que buscam implementar programas de governança e conformidade para sistemas baseados em IA e desenvolver métricas para avaliar o desempenho do sistema. O relatório do GAO observa que o monitoramento é uma ferramenta crítica por vários motivos: primeiro, é necessário analisar continuamente o desempenho de um modelo de IA e documentar as descobertas para determinar se os resultados são os esperados e, segundo, o monitoramento é fundamental quando um sistema é seja dimensionado ou expandido, ou onde as leis aplicáveis, os objetivos programáticos e o ambiente operacional mudam com o tempo.
[21]Rascunho da publicação especial 1270 do NIST, uma proposta para identificar e gerenciar o viés na inteligência artificial (junho de 2021), disponível em https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270-draft .pdf?_sm_au_=iHVbf0FFbP1SMrKRFcVTvKQkcK8MG.
[22]Instituto Nacional de Ciência e Tecnologia, Comentários recebidos sobre uma proposta para identificar e gerenciar o viés na inteligência artificial (SP 1270), disponível em https://www.nist.gov/artificial-intelligence/comments-received -proposta-identificando-e-gerenciando-viés-artificial.
[23]H.R. 5515, 115º Congresso (2017-18).
[24]A Comissão de Segurança Nacional sobre Inteligência Artificial, Relatórios Anteriores, disponível em https://www.nscai.gov/previous-reports/.
[25]NSCAI, The Final Report (1º de março de 2021), disponível em https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf.
[26]Defense Innovation Unit, Responsible AI Guidelines: Operationalizing DoD's Ethical Principles for AI (14 de novembro de 2021), disponível em https://www.diu.mil/responsible-ai-guidelines.
[27]Securing the Information and Communications Technology and Services Supply Chain, U.S. Department of Commerce, 86 Fed. Reg. 4923 (19 de janeiro de 2021) (doravante “Regra Final Provisória”).
[28]Para mais informações, consulte nossa Atualização Legal de Inteligência Artificial e Sistemas Automatizados (1T21).
[29]S. 1776, 117º Cong. (2021).
[30]S. 1705, 117º Cong. (2021).
[31]Portman e Heinrich anunciam projetos de lei de inteligência artificial bipartidários incluídos na Lei de Autorização de Defesa Nacional do ano fiscal de 2022, Gabinete do senador Rob Portman (15 de dezembro de 2021), disponível em https://www.portman.senate.gov /newsroom/press-releases/portman-heinrich-announce-bipartisan-artificial-intelligence-bills-included.
[32]FTC, Business Blog, Elisa Jillson, Visando a verdade, a justiça e a equidade no uso de IA pela sua empresa (19 de abril de 2021), disponível em https://www.ftc.gov/news-events /blogs/business-blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai.
[33]FTC, Protecting Consumer Privacy in a Time of Crisis, Observações da Presidente Interina Rebecca Kelly Slaughter, Future of Privacy Forum (10 de fevereiro de 2021), disponível em https://www.ftc.gov/system /files/documents/public_statements/1587283/fpf_opening_remarks_210_.pdf.
[34]FTC, Using Artificial Intelligence and Algorithms (8 de abril de 2020), disponível em https://www.ftc.gov/news-events/blogs/business-blog/2020/04/using-artificial- algoritmos de inteligência.
[35]FTC, presidente da FTC, Lina M. Khan, anuncia novas nomeações para cargos de liderança em agências (19 de novembro de 2021), disponível em https://www.ftc.gov/news-events/press-releases/2021 /11/ftc-chair-lina-m-khan-announces-new-nomeações-agency.
[36]FTC, Resolução que orienta o uso do processo compulsório relativo ao abuso de propriedade intelectual (2 de setembro de 2021), disponível em https://www.law360.com/articles/1422050/attachments/0. Essas resoluções foram aprovado pelos comissários democratas em uma votação de linha partidária de 3 a 2. Os comissários republicanos emitiram uma declaração dissidente, argumentando que as autorizações gerais removem a supervisão da comissão sem fazer nada para tornar as investigações mais eficazes.
[37]Ben Brody, oficial da FTC adverte sobre a apreensão de algoritmos 'sucos por dados ilícitos' (27 de julho de 2021), disponível em https://www.protocol.com/bulletins/ftc-seize-algorithms- mal adquirido?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.
[38]A FTC já havia confiado na Seção 13(b) para buscar a devolução por meio de medida cautelar, principalmente em relação a violações de proteção ao consumidor. A Suprema Corte concluiu, no entanto, que a provisão de liminar autorizava a FTC apenas a buscar uma ordem judicial para interromper a atividade ilegal e não lhe dava o poder de pedir a um tribunal que impusesse sanções monetárias. Um projeto de lei semelhante, apresentado na semana de a decisão da Suprema Corte e foi endossada por 25 procuradores gerais do estado e pelo presidente Joe Biden, foi aprovada na Câmara durante o verão em uma votação quase partidária, mas ainda não foi movida pelo Senado. processo e prazo de prescrição de 10 anos do projeto de lei. O novo projeto, por outro lado, inclui um prazo de prescrição de três anos e redação que exige que a comissão prove que a empresa acusada de infringir a lei o fez intencionalmente.
[39]S. _ 117º Cong. (2022-2023) https://www.law360.com/cybersecurity-privacy/articles/1449355/gop-sen-floats-bill-to-restore-ftc-s-restitution-powers?nl_pk=4e5e4fee-ca5f-4d2e -90db-5680f7e17547&utm_source=newsletter&utm_medium=email&utm_campaign=cybersecurity-privacy
[40]Harry Brignull, o PhD que cunhou o termo “padrões escuros” desenvolveu uma taxonomia, que pode incluir: perguntas capciosas; sneak into basket (em uma compra online, os itens de última hora são adicionados à cesta, sem o envolvimento do usuário); motel barato (os serviços são facilmente contratados, mas difíceis de cancelar); divulgação excessiva de privacidade (os usuários são levados a compartilhar ou tornar públicas mais informações do que o pretendido); prevenção de comparação de preços (os sites dificultam a comparação de preços de outros fornecedores); desorientação; despesas ocultas; isca e troca; confirmshaming (os usuários são culpados de algo ou uma opção de recusa é formulada para envergonhar os usuários, por exemplo, "Não, não quero economizar dinheiro"); anúncios disfarçados; continuidade forçada (a avaliação gratuita inesperadamente se transforma em uma assinatura paga); e spam de amigos (a lista de contatos do usuário é usada para enviar mensagens indesejadas do usuário). Veja Harry Brignull, Types of Dark Pattern, Dark Patterns, disponível em https://www.darkpatterns.org/types-of-dark-pattern.
[41]Bringing Dark Patterns to Light:An FTC Workshop, Federal Trade Commission, 29 de abril de 2021, disponível em https://www.ftc.gov/news-events/events-calendar/bringing-dark-patterns -light-ftc-workshop.
[42]Jon Hill, o mais novo gancho do CFPB em Big Tech pode ser a lei de dados dos anos 1970, Law360 (16 de novembro de 2021), disponível em https://www.law360.com/technology/articles/1439641/cfpb- s-newest-hook-on-big-tech-may-be-1970-data-law?nl_pk=0d08c9f5-462a-4ad6-9d20-292663da6d5e&utm_source=newsletter&utm_medium=email&utm_campaign=technology.
[43]CFPB, CFPB toma medidas para impedir a identificação falsa por rastreadores de antecedentes (4 de novembro de 2021), disponível em https://www.consumerfinance.gov/about-us/newsroom/cfpb-takes-action- to-stop-false-identification-by-background-screeners/?_sm_au_=iHVFR9tfrf49TNNMFcVTvKQkcK8MG.
[44]EEOC, EEOC lança iniciativa sobre inteligência artificial e justiça algorítmica (28 de outubro de 2021), disponível em https://www.eeoc.gov/newsroom/eeoc-launches-initiative-artificial-intelligence-and -algorithmic-fairness?_sm_au_=iHV5LNM5WjmJt5JpFcVTvKQkcK8MG.
[45]FTC, In the Matter of Everalbum, Inc. and Paravision, Commission File No. 1923172/everalbum-inc-matter.
[46]FTC, Declaração do Comissário Rohit Chopra, In the Matter of Everalbum and Paravision, Commission File No. 1923172 (8 de janeiro de 2021), disponível em https://www.ftc.gov/system/files /documents/public_statements/1585858/updated_final_chopra_statement_on_everalbum_for_circulation.pdf.
[47] Veja, por exemplo, Vance v. Amazon, 2:20-cv-01084-JLR (W.D. Wash. 7 de outubro de 2021); Vernita Miracle-Pond et al. v. Shutterfly Inc., No. 2019-CH-07050, (Ill. Cir. Ct. of Cook County); Carpenter v. McDonald's Corp., nº 2021-CH-02014 (Ill. Cir. Ct. 28 de maio de 2021); Rivera v. Google, Inc., No. 1:16-cv-02714 (ND Ill. 30 de agosto de 2021); Pena v. Microsoft Corp., nº 2021-CH-02338 (Ill. Cir. Ct. 12 de maio de 2021); B.H. v. Amazon.com Inc., nº 2021-CH-02330 (Ill. Cir. Ct. 12 de maio de 2021), Pruden v. Lemonade, Inc., nº 1:21-cv-07070 (S.D.N.Y. 20 de agosto , 2021).
[48]S. _, 117º Cong. (2021); veja também Press Release, Senators Markey, Merkley Lead Colegas on Legislation to Ban Government Use of Facial Recognition, Other Biometric Technology (15 de junho de 2021), disponível em https://www.markey.senate.gov/news/press-releases /senadores-markey-merkley-conduzem-colegas-na-legislação-para-proibir-o-uso-do-governo-de-outra-tecnologia-biométrica-de-reconhecimento facial.
[49]Para mais detalhes, consulte nossos alertas anteriores: Revisão Anual do Quarto Trimestre e 2020 de Inteligência Artificial e Sistemas Automatizados.
[50]H.B. 2031, Reg. Sessão (2020-2021).
[51]Para obter mais detalhes, consulte nossa Revisão Anual do Quarto Trimestre e de 2020 de Inteligência Artificial e Sistemas Automatizados.
[52]S. 1896, 117º Cong. (2021); veja também Press Release, Senador Markey, Rep. Matsui apresenta legislação para combater algoritmos nocivos e criar novo regime de transparência online (27 de maio de 2021), disponível em https://www.markey.senate.gov/news/press-releases/ senador-markey-rep-matsui-introduzir-legislação-para-combater-algoritmos-nocivos-e-criar-novo-regime-de-transparência-online.
[53]H.R. 3723, 117º Cong. (2021).
[54]Elise Hansen, House Clears Bill To Study Crypto And Consumer Protection, Law360 (23 de junho de 2021), disponível em https://www.law360.com/articles/1396110/house-clears-bill-to -estudo-cripto-e-proteção-do-consumidor.
[55]S. 2134, 117º Cong. (2021); veja também Press Release, Office of U.S. Senator Kirsten Gillibrand, Press Release, Gillibrand apresenta nova e aprimorada agência de vigilância do consumidor para dar aos americanos controle sobre seus dados (17 de junho de 2021), disponível em https://www.gillibrand.senate.gov /news/press/release/gillibrand-introduces-new-and-melhored-consumer-watchdog-agency-to-give-americans-control-over-their-data.
[56]De acordo com a legislação proposta, "dados pessoais" são definidos como "dados eletrônicos que, sozinhos ou em combinação com outros dados - (A) identificam, relacionam-se, descrevem, podem ser associados ou podem estar razoavelmente vinculado, direta ou indiretamente, a um determinado indivíduo, família ou dispositivo; ou (B) pode ser usado para determinar que um indivíduo ou família faz parte de uma classe protegida.”Lei de Proteção de Dados de 2021, S. 2134, 117º Cong. § 2(16) (2021).
[57]Id., § 2(3) (2021).
[58]Id., § 2(11)-(13) (2021).
[59]H.R. 5921 (2021), disponível em https://www.congress.gov/bill/117th-congress/house-bill/5921/cosponsors?s=1&r=90&overview=closed; S.B. 2024 (2021), disponível em https://www.congress.gov/bill/117th-congress/senate-bill/2024/text.
[60]EUA Comitê do Senado sobre Segurança Interna e Segurança Interna Assuntos Governamentais, Líderes Tecnológicos Apoiam a Força-Tarefa Bipartidária Deepfake de Portman para Criar Força-Tarefa no DHS para Combater Deepfakes (30 de julho de 2021), disponível em https://www.hsgac.senate.gov/media/minority-media/tech- líderes-suporte-portmans-bipartidário-deepfake-força-tarefa-agir-para-criar-força-tarefa-em-dhs-para-combater-deepfakes.
[61]Para obter mais detalhes, consulte nossa Revisão Anual do Quarto Trimestre e de 2020 de Inteligência Artificial e Sistemas Automatizados.
[62]S.B. 5116, Reg. Sessão (2021-22).
[63]Monica Nickelsburg, legisladores do estado de Washington buscam proibir o governo de usar tecnologia discriminatória de IA, GeewWire (13 de fevereiro de 2021), disponível em https://www.geekwire.com/2021/washington-state-lawmakers -seek-ban-government-using-ai-tech-discriminates/.
[64]N.Y.C., nº 1894-2020A (11 de novembro de 2021), disponível em https://legistar.council.nyc.gov/LegislationDetail.aspx?ID=4344524&GUID=B051915D-A9AC-451E -81F8-6596032FA3F9.
[65]Ver Thaler v. Hirshfeld, No. 120CV903LMBTCB, 2021 WL 3934803, em *8 (E.D. Va. 2 de setembro de 2021) (observando “evidências esmagadoras de que o Congresso pretendia limitar a definição de 'inventor' a pessoas naturais.").
[66]Ver, por exemplo, Univ. de Utah v. Max-Planck-Gesellschaft, 734 F.3d 1315, 1323 (Fed. Cir. 2013); Beech Aircraft Corp. v. EDO Corp., 990 F.2d 1237, 1248 (Fed. Cir. 1993).
[67]O Artificial Inventor Project descreve ambiciosamente o DABUS como um sistema avançado de IA. O DABUS é um "sistema neural criativo" que é "estimulado caoticamente para gerar ideias em potencial, pois uma ou mais redes fornecem uma opinião sobre os conceitos candidatos" e “pode ser considerado 'sensível' no sentido de que qualquer conceito baseado em cadeia lança uma série de memórias (ou seja, cadeias de afeto) que às vezes terminam em lembranças críticas, lançando assim uma maré de moléculas artificiais.”Ryan Abbott, o inventor artificial por trás deste projeto , disponível em https://artificialinventor.com/dabus/.
[68]Ryan Abbott, The Artificial Inventor Project, disponível em https://artificialinventor.com/frequently-asked-questions/.
[69]Thaler v. Hirshfeld, 2021 WL 3934803, em *2.
[70]Id. em *2.
[71]Id. às 8.
[72]O Escritório Europeu de Patentes, EPO, publica os fundamentos de sua decisão de recusar dois pedidos de patente nomeando uma máquina como inventor, 28 de janeiro de 2020, disponível em https://www.epo.org/news-events/ news/2020/20200128.html.
[73]Dani Kass, EPO Appeal Board afirma que apenas humanos podem ser inventores, Law360, 21 de dezembro de 2021.
[74]Thomas Kirby, tribunal do Reino Unido rejeita DABUS – uma máquina de IA não pode ser um inventor, Lexology, 14 de dezembro de 2021.
[75]A primeira patente mundial concedida para uma invenção feita por uma IA pode ter implicações sísmicas na lei de propriedade intelectual, Universidade de Surrey, 28 de julho de 2021.
[76]Gene Quinn, DABUS obtém sua primeira patente na África do Sul sob exame de formalidades, IP Watchdog, 29 de julho de 2021, disponível em https://www.ipwatchdog.com/2021/07/29/dabus-gets -first-patent-south-africa-formalities-examination/id=136116/.
[77]Thaler v Comissário de Patentes [2021] FCA 879.
[78]Google LLC v. Oracle Am., Inc., No. 18-956, 2021 WL 1240906, (EUA, 5 de abril de 2021).
[79]Id., em *3.
[80]Id. em *20.
[81]Ver id.
[82]Bill Donahue, Regras da Suprema Corte para o Google na luta por direitos autorais da Oracle, Law360 (5 de abril de 2021), disponível em https://www.law360.com/ip/articles/1336521.
[83]Consulte U.S. Food & Drug Admin., Inteligência Artificial/Machine Learning (AI-ML)-Based Software as a Medical Device (SaMD) Action Plan 1-2 (2021), https://www.fda.gov/media/145022/download [doravante Plano de Ação de IA da FDA]; U.S. Food & Drug Admin., FDA lança plano de ação de inteligência artificial/aprendizado de máquina (12 de janeiro de 2021), https://www.fda.gov/news-events/press-announcements/fda-releases-artificial-intelligencemachine-learning-action -plan.Veja também U.S. Food & Drug Admin., Proposed Regulatory Framework for Modifications to Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Discussion Paper and Request for Feedback (2019), https://www.fda.gov/ media/122535/download.
[84]FDA AI Action Plan, nota supra 1, em 1.
[85]EUA Alimentos & Drug Admin., Virtual Public Workshop - Transparency of Artificial Intelligence/Machine-enabled Medical Devices (última atualização em 26 de novembro de 2021) https://www.fda.gov/medical-devices/workshops-conferences-medical-devices/ virtual-public-workshop-transparency-artificial-intelligence-machine-learning-enabled-medical-devices.
[86]Id.
[87]Id.
[88]Id.
[89]Id.
[90]EUA Alimentos & Administração de medicamentos, dispositivos médicos habilitados para inteligência artificial e aprendizado de máquina (AI/ML) (última atualização em 22 de setembro de 2021), https://www.fda.gov/medical-devices/software-medical-device-samd/ dispositivos médicos habilitados para inteligência artificial e aprendizado de máquina.
[91]Id.
[92]Id.
[93]Conforme abordamos em atualizações legais anteriores, a Câmara aprovou anteriormente a Lei SELF DRIVE (H.R. 3388) por votação oral em setembro de 2017, mas seu projeto de lei complementar (a Visão Americana para o Transporte Mais Seguro por meio do Avanço de Tecnologias Revolucionárias ( "AV START") Act (S. 1885)) está parado no Senado. Para mais detalhes, consulte nossa Revisão Anual do Quarto Trimestre e de 2020 de Inteligência Artificial e Sistemas Automatizados.
[94]EUA Dep't of Transp., Press Release, U.S. Department of Transportation Releases Spring Regulatory Agenda (11 de junho de 2021), disponível em https://www.transportation.gov/briefing-room/us-department-transportation-releases-spring -agenda-regulatória.
[95]EUA Dep't of Transp., NHTSA Orders Crash Reporting for Vehicles Equipped with Advanced Driver Assistance Systems and Automated Driving Systems, disponível em https://www.nhtsa.gov/press-releases/nhtsa-orders-crash-reporting-vehicles- sistemas avançados de assistência ao motorista equipados
[96]Id.
[97]Id.
[98]Id.
[99]Id.
[100]49 CFR 571, disponível em https://www.nhtsa.gov/sites/nhtsa.gov/files/documents/ads_safety_principles_anprm_website_version.pdf
[101]Id., em 6.
[102]Id., em 7-8.
[103]SF 302, Reg. Sessão (2019-2020).
[104]ARC 5621C, Notificação de ação pretendida, disponível em https://rules.iowa.gov/Notice/Details/5621C.
[105]ID.
[106]Carly Page, bancos dos EUA devem relatar em breve incidentes significativos de segurança cibernética em 36 horas, (19 de novembro de 2021), disponível em https://techcrunch.com/2021/11/19/us-banks-report -incidentes de segurança cibernética/?guccounter=1.
[107]"Organizações Bancárias" é um termo definido na regra e se aplica a uma combinação ligeiramente diferente de entidades em relação a cada agência.
[108]86 Fed. Reg. 66424.
[109]ID. em 66438.
[110]86 Fed. Reg. 16837.
[111]Al Barbarino, Bank Regulators Eye Updated Guidance to Fight Bias in AI (21 de outubro de 2021), disponível em https://www.law360.com/cybersecurity-privacy/articles/1433299/.
[112]CE, Proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas sobre inteligência artificial e altera determinados atos legislativos da União (Lei da Inteligência Artificial), COM(2021) 206 (21 de abril de 2021) , disponível em https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence.
[113]Ursula von der Leyen, Uma União que luta por mais: A minha agenda para a Europa, disponível em https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next -commission_en.pdf.
[114]Supra, nota 39, p. 1.
[115] Parlamento Europeu, Resolução de 20 de outubro de 2020 com recomendações à Comissão sobre um quadro de aspetos éticos da inteligência artificial, robótica e tecnologias conexas (2020/2012 (INL)) (20 de outubro de 2020), disponível em https://www.europarl.europa.eu/doceo/document/TA-9-2020-0275_EN.pdf. Para obter mais detalhes, consulte nossa "Atualização legal sobre inteligência artificial e sistemas automatizados do 3T20".
[116]Relatório preliminar sobre IA na era digital para o Parlamento Europeu (2 de novembro de 2021), disponível em https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/AIDA/ PR/2021/11-09/1224166EN.pdf
[117]Parecer Conjunto 5/2021 sobre a proposta de Regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial, disponível em https://edpb.europa.eu/system/files/2021 -06/edpb-edps_joint_opinion_ai_regulation_en.pdf.
[118]EDPS, Comunicado de Imprensa, EDPB & Apelação da EDPS para a proibição do uso de IA para reconhecimento automatizado de características humanas em espaços acessíveis ao público e alguns outros usos de IA que podem levar à discriminação injusta (21 de junho de 2021), disponível em https://edps.europa.eu/ press-publications/press-news/press-releases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en?_sm_au_=iHVWn7njFDrbjJK3FcVTvKQkcK8MG.
[119]Governo do Reino Unido, Estratégia Nacional de IA (22 de setembro de 2021), disponível em https://www.gov.uk/government/publications/national-ai-strategy.
[120] Governo do Reino Unido, Novo plano de dez anos para tornar o Reino Unido uma superpotência global de IA (22 de setembro de 2021), disponível em https://www.gov.uk/government/news/new-ten-year- planeja-tornar-a-britânica-uma-superpotência-ai-global.
[121] Governo do Reino Unido, Ética, Transparência e Estrutura de Responsabilidade para Tomada de Decisão Automatizada (13 de maio de 2021), disponível em https://www.gov.uk/government/publications/ethics-transparency-and-accountability- estrutura para a tomada de decisões automatizada.
[122] Governo do Reino Unido, governo do Reino Unido publica padrão pioneiro para transparência algorítmica (29 de novembro de 2021), disponível em https://www.gov.uk/government/news/uk-government-publishes-pioneering-standard- para-transparência-algorítmica–2.
[123]Governo do Reino Unido, Information Commissioner's Office, O uso da tecnologia de reconhecimento facial ao vivo em locais públicos (18 de junho de 2021), disponível em https://ico.org.uk/media/for-organizations/documents/ 2619985/ico-opinion-the-use-of-lfr-in-public-places-20210618.pdf.
[124] Governo do Reino Unido, Plano de Negócios da Autoridade de Regulamentação Prudencial 2021/22 (24 de maio de 2021), disponível em https://www.bankofengland.co.uk/prudential-regulation/publication/2021/may/ pra-business-plan-2021-22.
[125]UK Gov't, Future of Finance, Bank of England (junho de 2019), disponível em https://www.bankofengland.co.uk/-/media/boe/files/report/2019/future -of-finance-report.pdf?la=en&hash=59CEFAEF01C71AA551E7182262E933A699E952FC.
[126] Governo do Reino Unido, Consulta sobre a futura regulamentação de dispositivos médicos no Reino Unido (16 de setembro de 2021), disponível em https://www.gov.uk/government/consultations/consultation-on -a-futura-regulamentação-dos-dispositivos-médicos-no-reino-unido.
[127]UK Gov't, Software and AI as a Medical Device Change Program (16 de setembro de 2021), disponível em https://www.gov.uk/government/publications/software-and-ai- como-um-programa-de-dispositivo-médico.
Os seguintes advogados da Gibson Dunn prepararam esta atualização do cliente: H. Mark Lyon, Frances Waldmann, Emily Lamm, Tony Bedel, Kevin Kim, Brendan Krimsky, Prachi Mistry, Samantha Abrams-Widdicombe, Leon Freyermuth, Iman Charania e Kanchana Harendran.
Os advogados da Gibson Dunn estão disponíveis para ajudar a esclarecer qualquer dúvida que você possa ter sobre esses desenvolvimentos. Entre em contato com o advogado da Gibson Dunn com quem você costuma trabalhar, qualquer membro do Grupo de Inteligência Artificial e Sistemas Automatizados do escritório ou os seguintes autores:
H. Mark Lyon – Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com) Frances A. Waldmann – Los Angeles (+1 213-229-7914, fwaldmann@gibsondunn.com)
Também sinta-se à vontade para entrar em contato com qualquer um dos seguintes membros do grupo de prática:
Grupo de Inteligência Artificial e Sistemas Automatizados:H. Mark Lyon – Presidente, Palo Alto (+1 650-849-5307, mlyon@gibsondunn.com)J. Alan Bannister – Nova York (+1 212-351-2310, abannister@gibsondunn.com)Patrick Doris – Londres (+44 (0)20 7071 4276, pdoris@gibsondunn.com)Kai Gesing – Munique (+49 89 189 33) 180, kgesing@gibsondunn.com)Ari Lanin – Los Angeles (+1 310-552-8581, alanin@gibsondunn.com)Robson Lee – Singapore (+65 6507 3684, rlee@gibsondunn.com)Carrie M. LeRoy – Palo Alto (+1 650-849-5337, cleroy@gibsondunn.com)Alexander H. Southwell – Nova York (+1 212-351-3981, asouthwell@gibsondunn.com)Christopher T. Timura – Washington, DC (+1 202 -887-3690, ctimura@gibsondunn.com)Eric D. Vandevelde – Los Angeles (+1 213-229-7186, evandevelde@gibsondunn.com)Michael Walther – Munique (+49 89 189 33 180, mwalther@gibsondunn.com )
© 2022 Gibson, Dunn & Crutcher LLP
Publicidade do advogado: Os materiais incluídos foram preparados apenas para fins informativos gerais e não se destinam a aconselhamento jurídico.