Ilustração: mohamed_hassan/pixabay
Como pesquisador de IA desenvolvendo IA para cuidados de saúde, as pessoas sempre me perguntam se a IA substituirá os médicos humanos no futuro.
A pergunta não é uma surpresa. Afinal, vivemos em uma era em que vemos a tecnologia deslocando as pessoas o tempo todo. As máquinas vêm automatizando atividades que exigem trabalho manual há décadas.
Mas os médicos não são trabalhadores braçais. Ser médico requer anos de treinamento, muita experiência no diagnóstico e tratamento de pacientes, vasto conhecimento sobre o corpo humano, altos níveis de inteligência e um senso de julgamento aguçado.
Os computadores podem atingir todas essas qualidades para realizar o trabalho dos médicos?
E aí, nesta mesma questão, reside um grave erro. Imitar-nos é o objetivo final da IA? Devemos desenvolver uma IA que concorra conosco? Não podemos, em vez disso, projetar sistemas que colaborem conosco, aumentem nossas capacidades e nos ajudem a fazer as coisas melhor?
Acontece que podemos, mas devemos primeiro mudar nossa mentalidade.
'Drosophila do raciocínio'
Depois de perder para o supercomputador de xadrez da IBM 'Deep Blue' em 1997, Garry Kasparov não se tornou hostil à IA. Em vez disso, ele se tornou um defensor da colaboração entre humanos e máquinas. Ele começou o que mais tarde se tornou o xadrez centauro.
Na mitologia grega, um centauro é um animal híbrido que é meio humano e meio cavalo. Cada jogador de xadrez centauro é uma equipe composta de humanos e computadores. Os computadores exploram seu poder computacional para processar milhões de movimentos e fornecer o melhor conjunto de candidatos. Os jogadores humanos exercitam seu julgamento e experiência para escolher um movimento desse conjunto que acreditam ser o mais sólido estrategicamente.
No início de um torneio de xadrez freestyle onde humanos, computadores e equipes híbridas humano-computador participaram, quem você acha que ganhou? Não os grandes mestres humanos. Não são os algoritmos de xadrez mais bem avaliados rodando em supercomputadores. A equipe vencedora foi um centauro formado por dois enxadristas amadores auxiliados por três computadores comuns.
Kasparov chamou o xadrez de “drosophila do raciocínio”1. Por muito tempo, serviu como o teste final para a inteligência da máquina. Mesmo nos primórdios do desenvolvimento da IA, as máquinas se destacavam na tomada de decisões táticas de curto prazo. Por exemplo, os computadores eram melhores que os humanos nas partidas finais de xadrez. Jogadores humanos experientes, no entanto, eram muito melhores em tomar decisões estratégicas de longo prazo, como decidir se sacrificariam uma peça para obter uma vantagem posicional.
Vemos os mesmos padrões em outros campos. A IA supera os humanos em tarefas fechadas, enquanto os humanos permanecem muito superiores na realização de atividades mais abertas. Considere sistemas habilitados para IA para examinar varreduras de radiologia. Os computadores já se equiparam ou até superam os radiologistas especialistas na detecção de condições específicas a partir de imagens médicas. Mas eles não podem interpretar os exames no contexto das informações pessoais e do histórico médico do paciente. Fazer isso requer uma compreensão da anatomia humana e dos processos de doença.
“A IA não pode automatizar completamente os relatórios de varreduras de radiologia, mas isso não impede que a IA crie valor”, disse Amit Kharat, cofundador da DeepTek, onde trabalho. “Ao usar a IA para aumentar as capacidades de nossos radiologistas, podemos fornecer relatórios de melhor qualidade em tempos de resposta mais curtos, melhorando a qualidade e a acessibilidade das imagens médicas.”
Também: leia: A verdade inconveniente sobre a computação quântica
IA na saúde
Os pesquisadores de IA tradicionalmente se concentram no desenvolvimento de algoritmos que podem replicar a inteligência humana. Seu objetivo principal era melhorar a autonomia das máquinas. Mas realmente não precisamos que a IA seja autônoma. Precisamos que a IA seja confiável e confiável.
Os seres humanos são excelentes em algumas coisas e os computadores são excelentes em outras. Precisamos de sistemas que tragam o melhor de ambos - para que sua combinação seja muito mais eficaz do que qualquer um deles jamais poderia ser por conta própria.
É claro que é mais fácil dizer do que fazer e requer uma mudança de paradigma na mentalidade dos desenvolvedores de IA e de seus eventuais usuários. Para avaliar o desempenho de seus algoritmos, os desenvolvedores os comparam com o desempenho dos humanos na mesma tarefa. Ou seja, eles podem comparar um sistema de reconhecimento de imagem com o quão bem os humanos podem reconhecer imagens de um conjunto de dados de teste. Eles podem testar um sistema de diagnóstico radiológico contra as decisões de radiologistas humanos.
Para desenvolver uma IA verdadeiramente colaborativa, precisaremos de medidas de desempenho mais recentes que sejam colaborativas em vez de comparativas. Precisamos de métricas que não meçam o desempenho da IA por conta própria, mas o desempenho da combinação da equipe composta de IA-humano trabalhando em conjunto. Essas métricas contribuirão muito para mudar o paradigma competitivo sob o qual a IA está sendo desenvolvida hoje.
Por exemplo, em vez de avaliar um sistema de IA de reconhecimento facial comparando-o com a capacidade dos humanos em reconhecer rostos, você pode comparar a qualidade dos leitores humanos quando auxiliados por IA com os mesmos leitores humanos quando não são auxiliados por IA.
Além de adotar medidas de desempenho colaborativas, também precisamos projetar interfaces que melhorem a confiança dos usuários na IA que os orienta. Os usuários, especialmente aqueles em disciplinas que exigem conhecimento e experiência significativos, são céticos em relação aos conselhos gerados pela IA.
Em um estudo recente, radiologistas viram radiografias de tórax e seus diagnósticos, e foram solicitados a avaliar a exatidão dos diagnósticos. Todos os diagnósticos foram gerados por especialistas humanos, mas alguns deles foram falsamente rotulados como se tivessem vindo de um sistema de IA.
Mais tarde, esses radiologistas foram questionados sobre a qualidade dos diagnósticos que examinaram. Eles consistentemente classificaram os diagnósticos como sendo de qualidade inferior quando pensaram que estavam verificando o veredicto de um sistema de IA em vez de um especialista humano.
Como podemos desenvolver sistemas que melhorem a eficiência incorporando elementos de IA e, ao mesmo tempo, protegendo a agência humana, a participação e a criatividade?
Leia também: Por que devemos libertar a IA das fronteiras do conhecimento humano
IA centrada no ser humano
“No futuro, usaremos IA para reconhecer padrões ocultos não visíveis ao olho do especialista, mas os radiologistas arbitrarão essas decisões com base no contexto clínico e jurídico”, Vinay Duddalwar, professor de radiologia da Universidade do sul da Califórnia e um conhecido pesquisador que trabalha na área, disse.
Em um ensaio de janeiro de 2022, Erik Brynjolfsson, diretor do Stanford Digital Economy Lab, traçou uma linha nítida entre IA semelhante à humana e IA centrada no ser humano. Ao replicar e automatizar as capacidades humanas, a IA semelhante à humana transformará as máquinas em substitutos mais baratos para os trabalhadores humanos.
Eventualmente, os trabalhadores perderão seu poder de barganha econômico e político e se tornarão cada vez mais dependentes daqueles que controlam a tecnologia. Por outro lado, a IA centrada no ser humano aumentará as capacidades humanas e permitirá que as pessoas façam coisas que nunca puderam antes.
Ao substituir diferentes classes de trabalhadores, um por um, a IA semelhante à humana concentrará lentamente o poder e o dinheiro nas mãos de poucos. Ao capacitar os trabalhadores e fornecer oportunidades cada vez mais valiosas, a IA centrada no ser humano nos dará a chance de criar uma sociedade próspera, inclusiva e mais igualitária. Ambos irão aumentar a produtividade – mas o último garantirá que os humanos continuem indispensáveis para a criação de valor e para a tomada de decisões.
Como sociedade, precisamos fazer essas escolhas de forma consciente e conjunta. Como todas as formas de tecnologia, a IA é uma ferramenta. Se é uma benção ou uma maldição depende de como a manejamos e de como permitimos que outros a empreguem.
Portanto, quando as pessoas me perguntam se a IA substituirá os médicos no futuro, peço emprestado de coração uma folha de Garry Kasparov. Digo a eles que não vejo a IA substituindo os médicos no futuro – mas vejo médicos que usam IA substituindo médicos que não usam IA.
Duddalwar resumiu muito bem quando parafraseou a lei zero da robótica de Isaac Asimov: “Em última análise, um sistema de IA não deve prejudicar a humanidade ou, por omissão, permitir que a humanidade seja prejudicada. A IA centrada no ser humano garantirá isso.”
Viraj Kulkarni tem mestrado em ciência da computação pela University of Calfornia, Berkeley, e atualmente está cursando doutorado em inteligência artificial quântica. Ele também é o cientista-chefe de dados da DeepTek. Ele está no Twitter em @VirajZero.