Os empregadores confiam cada vez mais em ferramentas baseadas em computador para auxiliá-los na contratação de trabalhadores, monitoramento do desempenho do trabalhador, determinação de pagamento ou promoções e estabelecimento de termos e condições de emprego. Software de triagem automática de currículos, software de contratação, software de chatbot, software de entrevista por vídeo, software de análise e monitoramento de funcionários e software de gerenciamento de trabalhadores permitem que os empregadores encontrem eficiências no gerenciamento diário de funcionários. O software pode escanear currículos e priorizar o uso de determinadas palavras-chave, avaliar funcionários com base em suas teclas digitadas, expressões faciais ou padrões de fala e obter informações sobre qualificações e habilidades cognitivas antes que um gerente de contratação dê uma segunda olhada.
Em 12 de maio de 2022, a U.S. Equal Employment Opportunity Commission (EEOC) e o U.S. Department of Justice (DOJ) emitiram orientações separadas abordando o uso de algoritmos e inteligência artificial (IA) pelos empregadores na tomada de decisões relacionadas ao emprego. Ambos os documentos de assistência técnica se concentram especificamente em como o uso dessas tecnologias pelos empregadores pode afetar negativamente os indivíduos com deficiência e violar a Lei dos Americanos com Deficiência (ADA).
Documentos de assistência técnica da EEOC e do DOJ
O documento de assistência técnica da EEOC, "A Lei dos Americanos com Deficiência e o Uso de Software, Algoritmos e Inteligência Artificial para Avaliar Candidatos e Funcionários", em grande parte adverte que o uso de ferramentas algorítmicas de tomada de decisão pelos empregadores sem levar em consideração as acomodações razoáveis pode rapidamente entrar em conflito com a ADA.
Da mesma forma, o documento de assistência técnica do DOJ, “Algorithms, Artificial Intelligence, and Disability Discrimination in Hiring”, identifica maneiras pelas quais os empregadores do governo estadual e local podem usar tecnologias de contratação que possam violar o ADA.
A. Fornecendo acomodações durante o processo de avaliação
Como uma questão fundamental, as ferramentas algorítmicas de tomada de decisão são projetadas para prever como um candidato ou funcionário típico se comportaria em condições de trabalho típicas. Mas candidatos e funcionários com deficiência podem não se apresentar como “típicos” – e podem não atuar no local de trabalho em condições “típicas”. Os empregadores, portanto, devem (1) fornecer acomodações razoáveis durante qualquer processo de avaliação automatizado; e (2) tenha cuidado com a IA que exclui candidatos com deficiência, mesmo que inadvertidamente. E, em todos os casos, os empregadores devem evitar ferramentas de avaliação que apresentem questões relacionadas à deficiência ou constituam exames médicos sob a ADA antes de uma oferta condicional de emprego.
Para ilustrar suas preocupações, a EEOC e o DOJ ofereceram vários exemplos de possíveis problemas de acessibilidade de avaliação, incluindo:
Nesses casos, o empregador seria obrigado a fornecer uma versão acessível da avaliação (ou seja, uma em que as respostas fossem orais ou um leitor de tela fosse usado) como uma acomodação razoável, a menos que isso causasse dificuldades indevidas. Se não for possível tornar acessíveis as avaliações existentes, devem ser oferecidas avaliações alternativas, salvo dificuldades indevidas.
B. Evitando triagens inadmissíveis
A “exclusão” ocorre quando uma deficiência impede que um candidato ou funcionário atenda — ou diminua seu desempenho em — critérios de seleção, resultando na perda de uma oportunidade de emprego. Isso é ilegal se o indivíduo selecionado for capaz de desempenhar as funções essenciais do trabalho com ou sem uma adaptação razoável. A EEOC e o DOJ fornecem exemplos de como as ferramentas algorítmicas de tomada de decisão podem filtrar ilegalmente indivíduos com base em uma deficiência, embora o indivíduo possa desempenhar as funções essenciais do trabalho com ou sem uma adaptação razoável:
C. Evitando inquéritos inadmissíveis
Tanto o EEOC quanto o DOJ também advertem os empregadores contra o uso de ferramentas algorítmicas de tomada de decisão que apresentam “inquéritos relacionados à deficiência”. Estas são perguntas que podem obter informações sobre uma deficiência, incluindo simplesmente perguntar se um candidato ou funcionário é um indivíduo com deficiência. Eles também incluem questões de “exame médico” que buscam informações sobre deficiências físicas ou mentais ou saúde de um indivíduo antes de uma oferta condicional de emprego.
Práticas recomendadas daqui para frente
Finalmente, a EEOC e o DOJ destacam as práticas recomendadas para os empregadores cumprirem o ADA ao usar ferramentas algorítmicas de tomada de decisão. Especificamente, a EEOC e o DOJ incentivam os empregadores a:
O que vem a seguir?
Os documentos de assistência técnica da EEOC e do DOJ estão entre os primeiros documentos de orientação publicados de qualquer agência federal relacionados ao uso de IA pelos empregadores. Os documentos não são surpreendentes, no entanto. A EEOC tem se interessado pelo tema desde pelo menos outubro de 2016, quando realizou uma reunião sobre “Big Data in the Workplace”. Mais recentemente, em dezembro de 2020, vários senadores escreveram uma carta aberta à EEOC para solicitar informações sobre sua supervisão das tecnologias de contratação. Entre outras questões, eles perguntaram se a EEOC planejava lançar alguma publicação ou dar alguma orientação sobre o uso de dados e tecnologia nas contratações. E em outubro de 2021, a EEOC anunciou que havia lançado uma iniciativa sobre inteligência artificial e justiça algorítmica. Assim, embora os documentos de assistência técnica da EEOC e do DOJ estejam entre os primeiros, eles não serão os últimos. Os empregadores devem esperar que a EEOC e o DOJ continuem a expandir suas pesquisas e regulamentações sobre o uso de IA pelos empregadores e como isso implica tanto a ADA quanto outras leis federais antidiscriminação.