Vislumbrar baleias azuis em suas lágrimas
Qual é a diferença entre uma lágrima e um oceano? A pergunta pode parecer ridícula, mas oceanos e lágrimas têm mais em comum do que pode parecer à primeira vista. Ambos são compostos em grande parte de água salgada, ambos têm criaturas vivendo neles (minúsculos microrganismos no caso das lágrimas), a temperatura média de uma lágrima e de um oceano estão confortavelmente dentro da faixa em que a água é líquida. A diferença real é o volume - mas adicione 1024 (para quem não tem inclinação matemática, é um com vinte e quatro zeros depois dele, ou 1.000.000.000.000.000.000.000.000) gotas juntas e você tem todos os oceanos da Terra .
Isto ilustra uma verdade sobre as propriedades emergentes. A certa altura, o mais deixa de ser apenas mais do mesmo e passa a ser algo qualitativamente diferente. Surgem propriedades que não eram óbvias nas coleções menores. Uma lágrima é quase imperceptível. Algumas centenas é um lenço molhado no final de um filme 'choroso'. Marés, litorais dramáticos, ondas nas quais você pode surfar e habitats que podem suportar tudo, desde pinguins do Ártico a corais tropicais, surgem à medida que você sobe na escala de tamanho de uma lágrima a um oceano.
Bits, bytes e yottabytes.
Esse mesmo fenômeno de propriedades emergentes também se aplica à ciência da computação. A jornada desde os primeiros computadores de válvula do tamanho de uma sala da década de 1940 até o mundo totalmente conectado de hoje ilustra isso. Hoje, todo mundo carrega um supercomputador em rede no bolso – que é usado para tarefas críticas, como verificar as mídias sociais ou agendar a entrega de comida. Poucas dessas atividades seriam óbvias para qualquer um que considerasse o Colossus em Bletchley Park em 1944, e o mundo conectado moderno é certamente uma propriedade emergente que não seria óbvia indo de um transistor para bilhões.
Muitos dos princípios que sustentam os sistemas de IA de ponta de hoje têm suas raízes no início da revolução da computação eletrônica nos anos 40 e 50. Embora possamos pensar em sistemas baseados em redes neurais como sendo o estado da arte atual em aprendizado de máquina, as origens dos sistemas de hoje podem ser rastreadas até o perceptron, desenvolvido no final dos anos 1950. Esse dispositivo demonstrou os efeitos estranhos que surgem de algumas regras simples e, com uma entrada de apenas 20 x 20 fotodiodos, pode ser treinado para reconhecer conjuntos de imagens simples – retângulo x oval, por exemplo.
Se esses primeiros perceptrons tivessem apenas 400 parâmetros "treináveis" (20 x 20), os sistemas de processamento de linguagem natural de última geração de hoje poderiam ter 175 bilhões ou mais parâmetros - nove ordens de grandeza a mais. No fundo, os “neurônios” artificiais individuais usados em redes neurais são simples – algumas entradas conectadas ao neurônio. A cada conexão de entrada é atribuído um peso. Em termos matemáticos, o valor de entrada é multiplicado pelo peso. O neurônio então soma todos os resultados das multiplicações, e o resultado determina o nível de ativação do neurônio (geralmente após o resultado ter sido normalizado para caber dentro de um determinado intervalo de ativação).
Isoladamente, um único neurônio é totalmente previsível e compreensível. Não há dificuldades óbvias com preconceito ou ética. Nenhum dos vários danos potenciais que são abordados em vários white papers e projetos de regulamentos sobre IA se manifestam.
São as propriedades emergentes decorrentes da escala de um neurônio para centenas de bilhões que criam o potencial para esses efeitos.
Uma questão de definição
Os advogados adoram uma definição. Eles fornecem a ilusão de certeza, apesar de quase todas as palavras terem vários significados diferenciados. Apresente dois litigantes com a mesma definição em um caso que gira em torno de seu significado, e até mesmo a redação aparentemente mais clara se desintegrará em ambigüidades e contra-argumentos. Apesar disso, as definições na legislação e nos contratos são extremamente importantes e delinearão o escopo das obrigações ou o cenário dos comportamentos proibidos.
No campo da IA, os comentaristas frequentemente gastam tempo examinando a aparente impossibilidade de definir "inteligência" e, portanto, a dupla impossibilidade de definir IA por referência à inteligência.
Aqueles que lutam com definições em contratos ou legislação geralmente adotam uma abordagem baseada em tecnologia, uma abordagem proposital ou alternam entre as duas.
Uma abordagem baseada em tecnologia pode fornecer a vantagem de um teste muito claro para saber se um determinado sistema é ou não abrangido pela definição. Por exemplo, “IA significa qualquer sistema usando uma rede neural” pode fornecer clareza relativa sobre quais sistemas são capturados, mas é sobrecarregado com desvantagens óbvias. O que acontece quando a tecnologia avança? E os sistemas que exibem os problemas que você deseja regular, mas que podem não contar com a tecnologia relevante? E os sistemas que podem usar redes neurais de forma simples ou inofensiva, e sobre os quais você não pretende impor as obrigações que envolvem a definição?
Abordagens intencionais tendem a se concentrar no caso de uso de um sistema, muitas vezes por referência a habilidades anteriormente reservadas a seres humanos, ou por referência à capacidade de um sistema de “aprender”.
A primeira (substituição de humanos) pressupõe que a substituição de um humano seja absoluta ou particularmente relevante. Em muitos casos, tecnologias relativamente simples usadas em combinação podem permitir que um funcionário realize o trabalho anteriormente realizado por vários. Particularmente quando as tarefas são reestruturadas para incluir um elemento de ‘autoatendimento’, qualquer definição que coloque máquinas realizando tarefas anteriormente reservadas a humanos corre o risco de capturar tecnologias tão banais quanto caixas eletrônicos ou sistemas de autoatendimento em supermercados. Esses sistemas podem ter substituído caixas de banco e balconistas, respectivamente, mas poucos de nós os considerariam IAs dignos de controle ou regulamentação especial.
O último (capacidade de aprender) expõe uma falácia no pensamento popular sobre sistemas de IA. Embora os sistemas possam aprender durante uma fase de treinamento, aqueles implantados em ambientes de produção tendem a estar em um estado fixo para inferência, com novas versões de treinamento adicional sendo lançadas (e depois em um estado fixo semelhante) apenas periodicamente. Quaisquer sistemas implantados para inferência não teriam a capacidade de aprender e, portanto, seriam perdidos por uma definição que focasse puramente nessa qualidade.
Exatamente esses desafios estão presentes na definição do Sistema de IA no último rascunho do Regulamento de IA da UE na data em que foi escrito. A versão atualizada do Texto de Compromisso publicado pelo Conselho Europeu em novembro de 2021 diz:
'sistema de inteligência artificial' (sistema de IA) significa um sistema que
O conteúdo do Anexo 1 listando as técnicas e abordagens permanece de acordo com o rascunho original:
(a) Abordagens de aprendizado de máquina, incluindo aprendizado supervisionado, não supervisionado e por reforço, usando uma ampla variedade de métodos, incluindo aprendizado profundo;
(b) Abordagens baseadas em lógica e conhecimento, incluindo representação de conhecimento, programação indutiva (lógica), bases de conhecimento, mecanismos de inferência e dedução, raciocínio (simbólico) e sistemas especialistas;
(c) Abordagens estatísticas, estimativa bayesiana, métodos de busca e otimização.
A referência dessa definição às tecnologias ou técnicas listadas no Anexo 1 lança toda a rede para tentar tornar a definição à prova de futuro. Isso resultará em uma classe muito ampla de sistemas sendo considerados 'sistemas de IA', que por sua vez capturariam operadores de muitos sistemas existentes que não exibem e não podem exibir nenhuma das propriedades emergentes potencialmente problemáticas que o regulamento foi projetado principalmente para controlar. Como resultado, (e supondo que algo semelhante a esta definição permaneça na versão do regulamento que for promulgado), um ônus regulatório e os custos decorrentes de conformidade recairão sobre uma gama muito maior de sistemas e operadores do que o estritamente necessário.
Uma alternativa emergente
Idealmente, qualquer definição de IA deve ser razoavelmente clara, agnóstica em relação à tecnologia e capturar os sistemas que podem exibir os danos relevantes, sem lançar a rede muito amplamente e impor obrigações sobre aqueles que não representam risco.
Os autores propõem que as definições devem se concentrar nas propriedades emergentes da complexidade e nos comportamentos inesperados que podem resultar, em vez de qualquer tecnologia ou propósito específico.
Considere o seguinte como um exemplo:
Um “Sistema de IA” é qualquer processamento automatizado de dados ou sistema de tomada de decisão:
Esta definição se concentra na ideia de que os danos a serem controlados principalmente por meio de quaisquer obrigações associadas aos sistemas de IA são aqueles que surgem inesperadamente.
Qualquer operador que use um sistema para realizar deliberadamente atividades que sejam tendenciosas, discriminatórias, não confiáveis ou fraudulentas já arcaria com as responsabilidades legais por tal conduta preconceituosa ou nefasta, envolvendo ou não qualquer sistema de IA. A nuance com os sistemas de IA é que tais comportamentos podem não ser intencionais, mas (se o sistema não for bem projetado e monitorado) podem se manifestar mesmo assim.
Aplicando esta definição, um operador que deliberadamente estabelece um sistema para ser discriminatório pode não ser abrangido por esta definição, mas seria apanhado pela legislação existente que controla os comportamentos relevantes. Na medida em que quaisquer ofensas relevantes exigissem intenção culposa (mens rea para aqueles que preferem o latim), tal intenção estaria claramente presente em tal caso.
No entanto, o operador que configurasse um sistema que exibisse vieses inesperados ou que ocasional e imprevisivelmente produzisse resultados errados, seria pego por esta nova definição. Portanto, quaisquer controles aplicados na legislação correspondente usando essa definição abrangeriam os sistemas que poderiam se beneficiar desses controles. Exemplos de controles relevantes sobre operadores podem incluir:
Para aqueles que preferem uma abordagem de fundo de cobre de cinto e suspensórios, a definição pode ser estendida com um terceiro membro para incluir especificamente sistemas onde os comportamentos problemáticos foram deliberadamente manifestados no sistema, de modo que não seria necessário confiar inteiramente nas leis anti-discriminação atuais, etc., para controlar esses maus atores que usam sistemas complexos para fins anti-sociais.
Regulação inteligente
Embora imaginar possíveis definições alternativas forneça um desafio filosófico divertido, as definições que os operadores de IA precisam ter em mente são aquelas que eventualmente surgem na legislação relevante.
Do ponto de vista da UE, parece provável que o Regulamento de IA da UE mantenha uma definição razoavelmente próxima à dos rascunhos atuais. Assim como a definição de 'dados pessoais' do GDPR se tornou um padrão de fato, a definição de sistema de IA no Regulamento de IA da UE pode, portanto, se tornar uma definição de referência no setor. É provável que outras definições concorrentes (e potencialmente incompatíveis) estejam contidas em leis que regulam aspectos da implantação de IA nos EUA, Reino Unido, China e outros lugares. Nos EUA, e possivelmente no Reino Unido, os legisladores podem aplicar uma abordagem mais setorial, visando usos específicos de IA em determinados setores. Essa abordagem setorial pode resultar em uma colcha de retalhos de definições de IA dependentes do contexto.
Neste contexto, caberá aos reguladores, enquanto executores destas novas regras, aplicar a sua própria filosofia às definições legislativas. Mais uma vez, podemos analisar as experiências no campo da proteção de dados para ver como isso pode acontecer, embora precisemos ir além do GDPR. Nos primeiros anos após a Diretiva de Proteção de Dados de 1995 ter sido promulgada nas leis dos Estados Membros, vimos a então nova definição de dados pessoais testada repetidamente – O que constituía dados pessoais? Quão facilmente identificável um titular de dados precisava ser? Era realmente proibido aos pais filmar as peças de presépio da escola? Ao decidir essas questões, os reguladores foram obrigados a seguir o texto da definição, mas ao fazê-lo inevitavelmente revelaram sua própria perspectiva e filosofia.
O mesmo acontecerá com as principais definições de IA nessas novas leis – embora, dada a amplitude das definições, os reguladores tenham ainda mais margem de manobra para interpretar os limites das definições de acordo com seus próprios conceitos e propósitos. Com isso em mente, se esses reguladores prestarem atenção se determinados sistemas exibem ou não propriedades emergentes potencialmente problemáticas, isso pode fornecer uma orientação útil sobre onde os esforços de fiscalização devem ser concentrados.
Próximas etapas
Para aqueles que desejam aproveitar a promessa oferecida pelos sistemas de IA de última geração em suas organizações, qualquer definição proposta por legisladores (seja a definição ampla que provavelmente será adotada na UE ou definições potencialmente mais direcionadas que pode encontrar favor em outro lugar) é provável que se aplique a esse sistema de uma forma ou de outra. Concentrar-se em garantir as potenciais propriedades emergentes (e os efeitos negativos que podem surgir a partir delas) é fundamental. Comentários de governos e regimes regulatórios propostos têm se concentrado na explicabilidade, transparência, confiabilidade e na capacidade de identificar e erradicar preconceitos que possam surgir. Projetar sistemas com esses objetivos em mente é a melhor maneira de garantir que uma abordagem de "conformidade desde o design" seja adotada à medida que os regulamentos evoluem.
Claro que os negócios não ficam parados à espera que os regulamentos sejam estabelecidos, implementados e compreendidos. Como tal, haverá uma miríade de atividades complexas de implantação de tecnologia acontecendo agora em todo o mundo. A preocupação, portanto, é que a regulamentação emergente possa afetar uma necessidade comercial, um roteiro de produto ou uma nova linha de negócios. Para resolver essa preocupação, as organizações devem levar em conta os possíveis novos regulamentos antes de chegarem, para garantir que tenham uma abordagem de implantação defensável, auditável e, em última análise, razoável (no contexto de seu setor).