Robôs ou inteligências artificiais avançadas que “acordam” e se tornam conscientes são um grampo de experimentos de pensamento e ficção científica.Se isso é realmente possível ou não permanece uma questão de grande debate.Toda essa incerteza nos coloca em uma posição infeliz: não sabemos como fazer máquinas conscientes e (dadas as técnicas atuais de medição), não saberemos se criamos um.Ao mesmo tempo, essa questão é de grande importância, porque a existência de máquinas conscientes teria consequências éticas dramáticas.
Não podemos detectar diretamente a consciência em computadores e o software que é executado neles, assim como podemos em sapos e insetos.Mas este não é um problema intransponível.Podemos detectar luz que não podemos ver com nossos olhos usando instrumentos que medem formas de luz não visíveis, como raios-X.Isso funciona porque temos uma teoria do eletromagnetismo em que confiamos, e temos instrumentos que nos dão medições que realizamos de forma confiável para indicar a presença de algo que não podemos sentir.Da mesma forma, poderíamos desenvolver uma boa teoria da consciência para criar uma medição que possa determinar se algo que não pode falar era consciente ou não, dependendo de como funcionou e do que foi feito.
Infelizmente, não há teoria da consciência de consenso.Uma pesquisa recente dos estudiosos da consciência mostrou que apenas 58 % deles pensavam a teoria mais popular, o espaço de trabalho global (que diz que os pensamentos conscientes em humanos são aqueles amplamente distribuídos a outros processos cerebrais inconscientes), foi promissor.As três principais teorias mais populares da consciência, incluindo o espaço de trabalho global, discordam fundamentalmente sobre se, ou sob quais condições, um computador pode estar consciente.A falta de consenso é um problema particularmente grande, porque cada medida de consciência em máquinas ou animais não humanos depende de uma teoria ou de outra.Não existe uma maneira independente de testar a consciência de uma entidade sem decidir sobre uma teoria.
Se respeitarmos a incerteza que vemos entre especialistas no campo, a maneira racional de pensar na situação é que estamos muito no escuro sobre se os computadores poderiam estar conscientes - e se pudessem ser, como isso pode ser alcançado.Dependendo do que a teoria (talvez de hipotética) acaba sendo correta, existem três possibilidades: os computadores nunca estarão conscientes, eles podem estar conscientes algum dia, ou alguns já são.
Enquanto isso, muito poucas pessoas estão deliberadamente tentando fazer máquinas ou software conscientes.A razão para isso é que o campo da IA geralmente está tentando fazer ferramentas úteis, e está longe de ser claro que a consciência ajudaria em qualquer tarefa cognitiva que desejarmos que os computadores fizessem.
Como a consciência, o campo da ética está repleto de incerteza e carece de consenso sobre muitas questões fundamentais - mesmo depois de milhares de anos de trabalho sobre o assunto.Mas um pensamento comum (embora não universal) é que a consciência tem algo importante a ver com a ética.Especificamente, a maioria dos estudiosos, qualquer teoria ética que eles possam endossar, acreditam que a capacidade de experimentar estados conscientes agradáveis ou desagradáveis é uma das principais características que torna uma entidade digna de consideração moral.É isso que torna errado chutar um cachorro, mas não uma cadeira.Se fizermos computadores que podem experimentar estados conscientes positivos e negativos, que obrigações éticas teremos então?Teríamos que tratar um computador ou software que pudesse experimentar alegria ou sofrimento com considerações morais.
Fazemos robôs e outros AIs para trabalhar, não podemos fazer, mas também trabalhamos que não queremos fazer.Na medida em que essas AIs têm mentes conscientes como as nossas, elas mereceriam consideração ética semelhante.Claro, só porque uma IA está consciente não significa que teria as mesmas preferências que temos, ou considerar as mesmas atividades desagradáveis.Mas quaisquer que sejam suas preferências, elas precisariam ser devidamente consideradas ao colocar essa IA para funcionar.Fazer uma máquina consciente funcionar que é infeliz é eticamente problemática.Isso parece óbvio, mas há problemas mais profundos.
Considere a inteligência artificial em três níveis.Há um computador ou robô - o hardware no qual o software é executado.Em seguida é o código instalado no hardware.Finalmente, toda vez que esse código é executado, temos uma "instância" desse código em execução.Para qual nível temos obrigações éticas?Pode ser que os níveis de hardware e código sejam irrelevantes e o agente consciente é a instância do código em execução.Se alguém tiver um computador executando uma instância de software consciente, seríamos eticamente obrigados a mantê -lo em funcionamento para sempre?
Considere ainda que a criação de qualquer software é principalmente uma tarefa de depuração - atravessando instâncias do software repetidamente, corrigindo problemas e tentando fazê -lo funcionar.E se alguém fosse eticamente obrigado a continuar executando todas as instâncias do software consciente, mesmo durante esse processo de desenvolvimento?Isso pode ser inevitável: a modelagem de computadores é uma maneira valiosa de explorar e testar teorias em psicologia.Eticamente se envolvendo em software consciente rapidamente se tornaria uma grande carga computacional e de energia sem qualquer final claro.
Tudo isso sugere que provavelmente não devemos criar máquinas conscientes se pudermos ajudá -lo.
Agora vou virar isso de cabeça.Se as máquinas podem ter experiências positivas e conscientes, então, no campo da ética, são consideradas como tendo algum nível de "bem -estar", e a execução de tais máquinas pode ser considerada que produz bem -estar social.De fato, as máquinas acabam sendo capazes de produzir bem -estar, como felicidade ou prazer, com mais eficiência do que os seres biológicos.Isto é, para uma determinada quantidade de recursos, alguém pode produzir mais felicidade ou prazer em um sistema artificial do que em qualquer criatura viva.
Suponha, por exemplo, uma tecnologia futura nos permitiria criar um pequeno computador que possa ser mais feliz que um ser humano eufórico, mas apenas exige tanta energia quanto uma lâmpada.Nesse caso, de acordo com algumas posições éticas, o melhor curso de ação da humanidade seria criar o máximo de bem -estar artificial possível - seja em animais, humanos ou computadores.Os humanos futuros podem definir o objetivo de transformar toda a matéria atingível no universo em máquinas que produzem com eficiência bem -estar, talvez 10.000 vezes mais eficientemente do que se pode ser gerado em qualquer criatura viva.Este futuro estranho possível pode ser o mais com a maior felicidade.
This is an opinion and analysis article, and the views expressed by the author or authors are not necessarily those of Scientific American.