• Tecnologia
  • Equipamento elétrico
  • Indústria de Materiais
  • Vida digital
  • política de Privacidade
  • Ó nome
Localização: Casa / Tecnologia / 1. preocupações com os desenvolvimentos na IA |Pew Research Center

1. preocupações com os desenvolvimentos na IA |Pew Research Center

techserving |
1411

Seria bastante difícil - alguns podem dizer impossível - projetar sistemas éticos de IA amplamente adotados.Uma parte dos especialistas que responderam observou que é difícil definir, implementar e aplicar.Eles disseram que o contexto é importante quando se trata de considerações éticas.Qualquer tentativa de formar regras éticas gera inúmeros cenários variados nos quais as aplicações dessas regras podem ser confusas.A natureza e o poder relativo dos atores em qualquer cenário também são importantes.Os padrões e normas sociais evoluem e podem se tornar totalmente diferentes à medida que as culturas mudam.Poucas pessoas têm muita educação ou treinamento em ética.Além disso, atores bons e maus exploram brechas e áreas cinzentas onde as regras éticas não são nítidas, portanto, as soluções alternativas, patches ou outros remédios são frequentemente criados com níveis variados de sucesso.

Os especialistas que expressaram preocupações também invocaram preocupações de governança.Eles perguntaram: cujos sistemas éticos deveriam ser aplicados?Quem pode tomar essa decisão?Quem tem responsabilidade de se preocupar com a implementação da IA ética?Quem pode aplicar regimes éticos assim que forem estabelecidos?Como?

Um grande número de entrevistados argumentou que a concorrência geopolítica e econômica são os principais impulsionadores dos desenvolvedores de IA, enquanto as preocupações morais ficam em segundo plano.Uma parte desses especialistas disse que os criadores de ferramentas de IA funcionam em grupos que têm pouco ou nenhum incentivo para projetar sistemas que abordam preocupações éticas.

Alguns entrevistados observaram que, mesmo que os requisitos de ética viáveis possam ser estabelecidos, eles não poderiam ser aplicados ou governados porque a maioria do design da IA é proprietária, oculta e complexa.Como os “resultados” prejudiciais da IA podem ser diagnosticados e abordados se a base para “decisões” da IA não puder ser discernida?Alguns desses especialistas também observam que os sistemas e bancos de dados de IA existentes são frequentemente usados para criar novos aplicativos de IA.Isso significa que os preconceitos e aspectos eticamente preocupantes dos sistemas atuais estão sendo projetados nos novos sistemas.Eles dizem que diagnosticar e desenrolar os problemas pré-existentes podem ser difíceis, se não impossíveis de alcançar.

É difícil definir ai "ético" ai

Uma parte desses especialistas infundiu suas respostas com perguntas que equivalem a essa pergunta abrangente: como os padrões éticos podem ser definidos e aplicados a um universo global, transcultural, sempre evoluindo e em constante expansão de diversos sistemas de caixa negra nos quaisatores e desinformação prosperam?

Uma seleção dos comentários dos entrevistados sobre esse tópico amplo é organizada nas próximas 20 páginas nessas subtítulos: 1) pode ser difícil concordar sobre o que constitui um comportamento ético.2) Os humanos são o problema: de quem ética?Quem decide?Quem se importa?Quem aplica?3) Como todas as ferramentas, a IA pode ser usada para o bem ou para o mal, o que torna os padrões de definir um desafio.4) A própria evolução da IA também levanta questões e complicações.

Stephen Downes, diretor sênior de pesquisa de tecnologias digitais do Conselho Nacional de Pesquisa do Canadá, observou: “O problema com a aplicação de princípios éticos à inteligência artificial é que não há um acordo comum sobre o que são.Embora seja comum supor que exista algum tipo de unanimidade sobre princípios éticos, essa unanimidade raramente é mais ampla que uma única cultura, profissão ou grupo social.Isso se manifesta pela facilidade com que perpetuamos injustiça, injustiça e até violência e morte a outras pessoas.Nenhuma nação é imune.

“Compondo isso é o fato de que a inteligência artificial contemporânea não se baseia em princípios ou regras.A IA moderna é baseada na aplicação de funções matemáticas em grandes coleções de dados.Esse tipo de processamento não é facilmente moldado por princípios éticos;Não há funções matemáticas "boas" ou "maus", e os preconceitos e preconceitos nos dados não são facilmente identificados nem evitados.Enquanto isso, a aplicação de IA é subdeterminada pelo resultado;A mesma previsão, por exemplo, pode ser usada para fornecer apoio social e assistência a uma pessoa carente ou para impedir que essa pessoa obtenha serviços de emprego, seguro ou financeiro.

“Em última análise, nossa IA será uma extensão de nós mesmos, e a ética de nossa IA será uma extensão de nossa própria ética.Na medida em que possamos construir uma sociedade mais ética, o que quer que isso signifique, construiremos mais IA ética, mesmo que apenas fornecendo à nossa IA os modelos e exemplos necessários para poder distinguir o certo do errado.Espero que a ampliação das consequências éticas de nossas ações possa nos levar a estar mais atento a eles;Tenho medo de que eles não possam. ”

Kenneth A. Grady, professor adjunto da Faculdade de Direito da Universidade Estadual de Michigan e editor da Sociedade Algorítmica no Medium, disse: “Fazer com que os que criam a IA usam de maneira 'ética' enfrenta muitos obstáculos que é improvávelfuturo próximo.De algumas maneiras importantes, a regulação da ética da IA é semelhante a regular a ética na sociedade em geral.A IA é uma tecnologia distribuída e relativamente barata.Posso criar e usar IA em minha empresa, meu laboratório de pesquisa ou minha casa com recursos mínimos.Que a IA pode ser bastante poderosa.Eu posso libertá -lo no mundo sem nenhum custo.

"Supondo que pudéssemos regulá -lo efetivamente, enfrentamos outro grande obstáculo: o que queremos dizer com 'ético?' Deixando de lado debates filosóficos, enfrentamos problemas práticos na definição da IA ética.Não precisamos procurar muito para ver desafios semelhantes.Nos últimos anos, o que é ou não é o comportamento ético na política dos EUA está em debate.Outros países enfrentaram problemas semelhantes.

“Mesmo que pudéssemos decidir sobre uma definição [para a ética] nos EUA, ela provavelmente variaria das definições usadas em outros países.Dada a capacidade da IA de atravessar fluidamente as fronteiras, a regulação da IA seria problemática.Também descobriremos que as restrições éticas podem estar em desacordo com outros interesses próprios.A ética situacional pode surgir facilmente quando enfrentamos ameaças militares ou de inteligência, ameaças competitivas econômicas e até ameaças políticas.

“Além disso, a própria IA apresenta alguns desafios.Hoje, muito do que acontece em alguns sistemas de IA não é conhecido pelos criadores dos sistemas.Este é o problema da caixa preta.Regulando o que acontece na caixa preta pode ser difícil.Como alternativa, a proibição de caixas negras pode dificultar o desenvolvimento da IA, colocando em risco nossos interesses econômicos, militares ou políticos. ”

Ryan Sweeney, diretor de análise da Ignite Social Media, comentou: "A definição de" bem pública "é importante aqui.Quanto a intenção versus a execução é importante?Veja o Facebook, por exemplo.Eles podem argumentar que sua plataforma de revisão de conteúdo de IA é do interesse do "bem público", mas continua falhando.A IA é tão ética e sábia quanto aqueles que a programam.O racismo de uma pessoa é a liberdade de expressão de outra.O que pode ser uma palavra ofensiva para alguém pode nem estar no léxico do programador.

"Tenho certeza de que a IA será usada com intenção ética, mas a ética exige empatia. Para programar a ética, deve haver um direito definitivo e errado, mas as situações provavelmente não são tão simples e exigem alguma forma de análise humana emocional e contextual. O sucesso da execução ética da IA ​​se resume a se os programadores literalmente pensavam em todos os cenários possíveis. Em outras palavras, a IA provavelmente será desenvolvida e usada com intenção ética, mas provavelmente ficará aquém do que nós, como humanos, podemos fazer. Devemos usar a IA como uma ferramenta para ajudar a orientar nossas decisões, mas não confiar nela inteiramente para tomar essas decisões. Caso contrário, a oportunidade de abuso ou consequências não intencionais mostrará seu rosto. Também tenho certeza de que a IA será usada com intenção questionável, pois a tecnologia não é inerentemente boa nem ruim. Como a tecnologia é neutra, tenho certeza de que veremos casos de IA abusados ​​por ganhos egoístas ou outros meios questionáveis ​​e violações de privacidade. Os padrões éticos são complicados de design e difíceis de programar. ”

It can be hard to agree as to what constitutes ethical behavior

Abaixo está uma amostra de respostas especializadas que falam com as amplas preocupações de que comportamentos éticos podem ser difíceis de definir e ainda mais difíceis de construir nos sistemas de IA.

Mark Lemley, diretor do Programa de Direito, Ciência e Tecnologia da Universidade de Stanford, observou: “As pessoas usarão a IA para fins bons e ruins.A maioria das empresas tentará projetar a tecnologia para tomar boas decisões, mas muitas dessas decisões são escolhas morais difíceis, sem uma ótima resposta.A IA oferece a maior promessa em substituir o julgamento humano muito ruim em coisas como reconhecimento facial e paradas policiais. ”

Marc Brenman, membro gerente da IDARE, uma consultoria de treinamento e desenvolvimento de liderança transformacional com sede em Washington, DC, escreveu: “Como sociedades, somos muito fracos em moralidade e ética em geral.Não há motivo específico para pensar que nossas máquinas ou sistemas farão melhor do que nós.Pessoas defeituosas criam sistemas defeituosos.Em geral, engenheiros e pessoas de TI e desenvolvedores não têm idéia do que são ética.Como eles poderiam programar sistemas para ter o que não têm?À medida que os sistemas aprendem e se desenvolvem, eles olham em volta para a sociedade e repetem seus erros, preconceitos, estereótipos e preconceitos.Já vemos isso em reconhecimento facial.

“A IA tornará certas transações mais rapidamente, como prever o que comprarei online.Os sistemas de IA podem ficar fora de controle à medida que se tornam autônomos.De que utilidade são humanos para eles?Eles podem permitir que erros sejam cometidos muito rapidamente, mas os sistemas podem não reconhecer as consequências de suas ações como "erros". Por exemplo, se maximizarem a eficiência, o exemplo chinês de controle social pode dominar.

“Quando os sistemas de IA são combinados com punição ou sistemas de feedback cinético, eles poderão controlar nosso comportamento.Imagine uma pandemia onde uma 'recomendação' é feita para abrigar ou usar uma máscara ou ficar um metro e oitenta de distância de outras pessoas.Se as pessoas forem conectadas aos sistemas de IA, o sistema poderá dar um choque elétrico a uma pessoa que não implementa a recomendação.Será como todos nós usando colares de choque que alguns de nós usamos em nossos cães mal com comportamento. ”

Junho Anne English-Lueck, professor de antropologia da Universidade Estadual de San Jose e membro distinto do Instituto para o Futuro, disse: “Os sistemas de IA empregam algoritmos que são tão sólidos quanto as instalações nas quais são construídas e a precisão dodados com os quais eles aprendem.Os sistemas éticos humanos são complexos e contraditórios.As nuances são boas para quem e mal para quem são difíceis de analisar.Cidades inteligentes, baseando -se em sistemas de vigilância e mecanismos de necessidade do governo automatizados de supervisão humana.A supervisão não tem sido nossa ação forte nas últimas décadas, e há poucas razões para acreditar que ela será instituída nas interações de automação de humanos. ”

Amali de Silva-Mitchell, futurista e consultora participante de processos globais de governança da Internet, escreveu: “Embora existam muitas discussões, existem poucos padrões ou os que existem estão em alto nível ou chegam tarde demais para as centenas de centenas deAplicativos de IA já foram lançados.Esses aplicativos de IA básicos não serão reinventados, portanto, há riscos incorporados.No entanto, quanto mais discussão existe, maior o entendimento das questões éticas existentes, e isso pode ser visto como se desenvolve, especialmente como as normas e expectativas da sociedade mudam.Os aplicativos de IA têm o potencial de serem benéficos, mas os aplicativos devem ser gerenciados para não causar danos não intencionais.Para entrega global e serviço integrado, é preciso haver padrões comuns, transparência e colaboração.A duplicação de esforços é um desperdício de recursos. ”

Glenn Edens, professor da Thunderbird School of Global Management, Arizona State University, anteriormente vice -presidente do PARC, observou: “A promessa: a IA e o ML poderiam criar um mundo que seja mais eficiente, desperdiçando menos energia ou recursos que prestam assistência médica, educação, entretenimento, comida e abrigo para mais pessoas a custos mais baixos.Sendo legalmente cego, estou ansioso pelo dia de carros autônomos seguros e amplamente disponíveis, por exemplo.Assim como o motor a vapor, a eletricidade, as bicicletas e os computadores pessoais (especialmente os laptops) amplificam a IA da capacidade humana, e o ML espero que faça o mesmo.

“As preocupações: a IA e seu primo ML ainda estão em sua infância - e, embora o progresso da tecnologia seja um tanto previsível, as consequências humanas reais são obscuras.A promessa é ótima - assim como a nossa imaginação ingênua do que a Internet faria pela humanidade.Os interesses comerciais (e, portanto, sua implantação de IA e ML) são muito mais ágeis e adaptáveis do que os humanos que supostamente servem ou os sistemas de governança.A regulamentação é em grande parte reacionária, raramente proativa - normalmente, coisas ruins precisam acontecer antes que as estruturas para orientar comportamentos responsáveis e eqüitativas sejam escritas em leis, emergem padrões ou uso é codificado em normas aceitáveis.É ótimo que a conversa tenha começado;No entanto, há muito desenvolvimento contínuo no mundo chato do desenvolvimento de software corporativo que é amplamente invisível.

“A pontuação do crédito vem à mente como uma grande área potencial de preocupação-enquanto as empresas de pontuação de crédito sempre posicionam seu trabalho como proporcionando aos consumidores mais acesso a produtos financeiros, a realidade é que criamos um sistema que penaliza injustamente os pobres e dramaticamenteLimita o acesso justo a produtos financeiros a preços equitativos.A IA e ML serão usados pelas empresas para avaliar tudo o que fazem e todas as transações, classificar todos os clientes e seu potencial (valor), prever demanda, preços, segmentação, bem como seus próprios funcionários e parceiros - enquanto isso pode levar à eficiência, produtividadee criação de valor econômico, muito disso levará à segmentação, segregação, discriminação, perfil e desigualdade.Imagine um mundo onde os preços são diferentes para todos de um momento para o outro, e esses sistemas preditivos podem transferir grandes somas de valor em um instante, especialmente dos mais vulneráveis. ”

Um especialista em estratégia e planejamento respondeu: “Embora eu diga e acredite que, sim, os limites éticos serão implementados para a IA até 2030, também percebo que isso será incrivelmente difícil. O entendimento do que uma IA está fazendo à medida que constrói e adapta seus entendimentos e se aproxima rapidamente chega a um ponto em que o conhecimento e a manutenção humana é deixada para trás. O como e por que algo foi feito ou recomendado pode ser incognoscível. Além disso, a vida e o entendimento do certo e do errado ou do bom e do mal podem ser fluidos para as pessoas, à medida que as coisas balançam para acomodar os impactos na existência e condição humana, bem como na vida habitável em nosso planeta. Definir limites e limitações tem um valor forte, mas ser capaz de entender quando as coisas estão mudando de áreas que se sentem confortáveis ​​ou introduzidas uma nova realização para a necessidade de corrigir as consequências não intencionais. Mas os limites em torno do viés precisam ser considerados e trabalhados antes de estabelecer limitações éticas em vigor. ”

Um vice -presidente de uma grande empresa global escreveu: “A IA é muito distribuída uma tecnologia para ser efetivamente governada.É facilmente acessível a qualquer indivíduo, empresa ou organização com recursos razoavelmente modestos.Isso significa que, diferentemente, digamos, nucleares ou biológicas, será quase impossível governar, e sempre haverá alguém disposto a desenvolver a tecnologia sem levar em consideração as consequências éticas. ”

Wendy M. Grossman, escritora de ciências do Reino Unido, autora de "Net.wars" e fundadora da revista The Skeptic, previu: "A distribuição disso será desigual.Acabei de ler a peça de Jane Mayer no The New Yorker sobre plantas de embalagem de aves, e isso fornece um ótimo exemplo de por que não basta ter leis e ética;Você deve aplicá -los e dar às pessoas que está tentando proteger a autonomia suficiente para participar da aplicação.Eu acho que a IA ética/antiética será distribuída desigualmente.Tudo dependerá do que a sociedade na qual a tecnologia está sendo injetada aceitará e quem está falando.No momento, temos dois exemplos divergentes:

  1. AI applications whose impact on most people’s lives appears to be in refusing them access to things – probation in the criminal justice system, welfare in the benefits system, credit in the financial system.
  2. AI systems that answer questions and offer help (recommendation algorithms, Siri, Google search, etc.).

Mas então o que temos hoje não é IA, como originalmente imaginado pelo grupo Dartmouth.Ainda estamos muito longe de qualquer tipo de inteligência geral artificial com qualquer tipo de autonomia independente.Os sistemas que dependemos para sua ética de duas coisas: acesso aos dados necessários para construí -los e a ética do proprietário.Não é a IA que precisa de ética, são os proprietários. "

Glynn Rogers, aposentado, anteriormente engenheiro principal sênior e membro fundador do Centro de Ciência dos Sistemas Complexos do CSIRO, disse: “A IA e seus sucessores são potencialmente tão poderosos que não temos escolha a não ser garantir a atenção à ética. A alternativa seria entregar o controle de nosso modo de vida a uma classe de desenvolvedores e implementadores focados em interesses de curto prazo e míopes ou que têm alguma forma de agenda política, particularmente 'atores estatais'. "A grande questão é como para garantir isso. Uma estrutura regulatória faz parte da resposta, mas suspeito que um grande requisito seja mudar a cultura da indústria de IA. Em vez de desenvolver tecnologias simplesmente por causa disso, ou para publicar artigos inteligentes, é preciso haver um ambiente cultural no qual os desenvolvedores veem como uma parte inerente de sua tarefa para considerar os possíveis impactos sociais e econômicos de suas atividades e uma estrutura de emprego Isso não procura reprimir isso. Talvez a filosofia moral e política deva fazer parte da educação dos desenvolvedores de IA. ”

Alexandra Samuel, escritora de tecnologia, pesquisadora, palestrante e contribuinte regular do Wall Street Journal e da Harvard Business Review, escreveu: “Sem acordos internacionais sérios e aplicáveis sobre o uso e os princípios apropriados para a IA, enfrentamos uma corrida quase inevitável para o fundo.O valor comercial da IA não tem dependência intrínseca dos princípios éticos;Se você puder ganhar mais dinheiro com a AIS que priorize o usuário em detrimento de outras pessoas ou que priorize as necessidades de negócios em relação aos usuários finais, as empresas criarão AIS que maximizam os lucros sobre as pessoas.A única maneira possível de impedir essa trajetória é com políticas nacionais que exigem ou proibam os princípios básicos da IA, e esses tipos de políticas nacionais só são possíveis com a cooperação internacional;Caso contrário, os governos ficarão muito preocupados em colocar em desvantagem os negócios de seus próprios países. ”

Valerie Bock, VCB Consulting, ex -líder de serviços técnicos do segundo trimestre da aprendizagem, comentou: "Acho que não desenvolvemos a sofisticação filosófica nos humanos que projetam a IA o suficiente para esperar que eles possam construir sofisticação ética em seu software.De novo e de novo, somos confrontados com as maneiras pelas quais nossos próprios preconceitos inconscientes surgem em nossas criações.É que não entendemos a nós mesmos ou a nossas motivações tão bem quanto gostaríamos de imaginar que poderíamos.O trabalho na IA ajuda a estabelecer um pouco disso para nós, ajudando -nos em uma busca [que] a humanidade perseguiu por milênios.Um pouco de humildade com base no que estamos aprendendo está em ordem. ”

O diretor de um centro militar de estratégia e tecnologia disse: “A maioria da IA tentará incorporar preocupações éticas em algum nível.Não está claro como a IA "imparcial" pode ser criada.Os conjuntos de dados de treinamento perfeitamente imparciais não existem e, devido aos preconceitos humanos uma parte inerente das interações, esse objetivo pode ser inatingível.Como tal, podemos ver preconceitos de gênero ou racial em alguns conjuntos de dados de treinamento, que se espalharão para os sistemas operacionais de IA, apesar de nossos esforços para combater isso. ”

Alan S. Inouye, diretor do Escritório de Política de Tecnologia da Informação da American Library Association, respondeu: "Não vejo pessoas ou organizações estabelecendo um caminho nefasto no uso da IA.Mas é claro que eles o usarão para avançar suas missões e objetivos e, em certo sentido, empregar a ética "local".Mas a ética não é padronizada nem aditiva entre os domínios.O que é ética nos sistemas de IA?É como perguntar: 'O que é a segurança cibernética em toda a sociedade?' ”

Maggie Jackson, ex -colunista do Boston Globe e autora de “Distraído: recuperar nosso foco em um mundo de atenção perdida”, escreveu: “Estou profundamente preocupado com o pouco que entendemos sobre o que os algoritmos da IA sabem ou como eles sabem.Esse efeito de caixa preta é real e leva ao impacto não intencional.Mais importante, na ausência de verdadeiro entendimento, as suposições são consideradas como base dos objetivos atuais e futuros.Deve haver muito maior atenção aos sistemas de valor oculto e implícito que são inerentes ao design e desenvolvimento da IA em todas as formas.Um exemplo: os cuidadores, assistentes e tutores de robôs estão sendo cada vez mais usados para cuidar dos membros mais vulneráveis da sociedade, apesar das dúvidas conhecidas por cientistas - robóticos, ética e usuários, potencial e atuais.É altamente alarmante que a fachada de atendimento moralmente duvidosa dos robôs seja cada vez mais vista como um substituto suficiente para os cuidados manchados, mas recíprocos, realizados por seres humanos.

“Novas diretrizes éticas de IA que enfatizam a transparência são um bom primeiro passo para tentar garantir que os destinatários dos cuidados e outros entendam quem/com o que estão lidando.Mas sistemas orientados a lucros, a arrogância dos inventores, a tendência inata dos humanos tentar se relacionar com quaisquer objetos que parecem ter agência e outras forças se combinam para trabalhar contra o ceticismo humano necessário se quisermos criar robôs assistentes que preservama liberdade e a dignidade dos humanos que recebem seus cuidados. ”

Alan D. Mutter, consultor e ex -CEO do Vale do Silício, disse: “A IA é tão inteligente e positiva quanto as pessoas que o treinam.Precisamos gastar tanto tempo na implementação moral e ética da IA quanto em hardware, software e modelos de negócios.A última vez que verifiquei, não havia código de ética no Vale do Silício.Precisamos de um barômetro moral melhor do que o índice da NASDAQ. ”

Fred Baker, membro do conselho do Internet Systems Consortium e líder de longa data da IETF, comentou: “Gostaria de ver a IA ser muito mais ética do que é.Dito isto, a natureza humana não mudou e os propósitos para os quais a IA é aplicada não mudaram fundamentalmente.Podemos falar mais sobre isso, mas não acho que a ética da IA mude. ”

Randall Mayes, analista de tecnologia da Techcast Global, observou: “A padronização da ética da IA me preocupa porque as empresas americanas, européias e chinesas e empresas do Vale do Silício têm idéias diferentes sobre o que é ético.Como a IA é usada dependerá da hierarquia de valores do seu governo entre desenvolvimento econômico, competitividade internacional e impactos sociais. ”

Jim Witte, diretor do Centro de Pesquisa em Ciências Sociais da Universidade George Mason, respondeu: “A questão assume que ética e moral são sistemas estáticos.Com os desenvolvimentos na IA, também pode haver uma evolução desses sistemas, de modo que o que é moral e ético amanhã possa ser muito diferente do que vemos como moral e ético hoje. ”

Yves Mathieu, co-diretor da Missions Publiques, com sede em Paris, França, escreveu: “A IA ética exigirá legislação como a legislação européia [GDPR] para proteger os direitos de privacidade na Internet.Alguns governos tomarão medidas, mas nem todas, como é o caso hoje em relação à produção, marketing e uso de armas.Pode haver uma iniciativa de algumas corporações, mas haverá uma necessidade de engajamento da cadeia global de produção de IA, que será um desafio se parte da produção vier de países não cometidos nos mesmos princípios éticos.Fortes sanções econômicas à produção e uso de IA não altas podem ser eficazes. ”

Amy Sample Ward, CEO da NTEN: a rede de tecnologia sem fins lucrativos, disse: "Não há dúvida de que a IA será usada de maneiras questionáveis.Os seres humanos não compartilham um compromisso consistente e coletivo com os padrões éticos de qualquer tecnologia, especialmente com inteligência artificial.Criar padrões não é difícil, mas a responsabilidade para eles é muito difícil, especialmente porque os interesses governamentais, militares e comerciais encontram regularmente maneiras de contornar os sistemas de responsabilidade.Quais sistemas serão adotados em larga escala para aplicar padrões e proteções éticas para os usuários?Como os usuários terão energia sobre seus dados?Como a educação do usuário será investida para todos os produtos e serviços?Essas perguntas devem nos guiar hoje em nossa tomada de decisão, para que tenhamos mais esperança de que a IA seja usada para melhorar ou beneficiar vidas nos próximos anos. ”

Dan McGarry, um jornalista independente com sede em Vanuatu, observou: “Assim como todos os outros algoritmos já implantados, a IA será uma manifestação do viés humano e a perspectiva de seu criador.O algoritmo de reconhecimento facial do Facebook apresenta desempenho abismalmente quando solicitado a identificar rostos negros.A AIS programada no Ocidente afluente compartilhará seus pontos fortes e fracos.Da mesma forma, o AIS desenvolvido em outros lugares compartilhará as suposições e o ambiente de seus criadores.Eles não serão imagens deles;Eles serão produtos deles e reconhecerão como tal. ”

Abigail de Kosnik, professor associado e diretor do Center for New Media da Universidade da Califórnia-Berkeley, disse: “Não vejo entendimento suficiente no público em geral, trabalhadores de tecnologia ou estudantes STEM sobre os possíveis perigos da IA- As maneiras pelas quais a IA pode prejudicar e falhar na sociedade.Faço parte de uma onda de educadores tentando introduzir mais treinamento e cursos de ética em nossas instruções, e espero que isso mude a maré, mas não estou otimista sobre nossas chances.A IA, voltada para gerar receita para as empresas, quase sempre trabalhará contra os interesses da sociedade. ”

Irina Raicu, diretora do Programa de Ética na Internet do Markkula Center for Applied Ethics, observou: “A conversa em torno da ética da IA vem acontecendo há vários anos.No entanto, o que parece ser óbvio entre aqueles que fazem parte disso há algum tempo não se abaixou nos currículos de muitas universidades que estão treinando a próxima geração de especialistas em IA.Dado isso, parece que levará mais de 10 anos para a maioria dos sistemas de IA usados por organizações de todos os tipos para empregar princípios éticos focados principalmente no bem público. 'Além disso, muitas organizações estão simplesmente focadas principalmente em outros objetivos- Não em proteger ou promover o bem público. ”

Um advogado e ex -reitor da faculdade de direito especializado em questões de tecnologia escreveu: “A IA é um novo espaço emocionante, mas não é regulamentado e, pelo menos nos estágios iniciais, evoluirá como diretos de investimento e monetário.É suficientemente conhecido que não há padrões éticos reconhecidos e provavelmente não estará até além do horizonte do tempo que você mencionar (2030).Durante esse período, haverá um acúmulo de "piores cenários", grandes escândalos em seu uso, um crescimento no uso pernicioso que ofenderá o senso comum e os padrões morais e éticos da comunidade.Essas ocasiões e situações levarão a uma demanda gradual e crescente por regulamentação, supervisão e políticas éticas sobre uso e uso indevido.Mas por quem (ou o quê)?Quem pode impor essas prescrições éticas - as próprias indústrias?O governo?"

O diretor de um centro de políticas públicas respondeu: “Vejo um futuro positivo para a IA nas áreas de saúde e educação.No entanto, também existem desafios éticos aqui.A corporação que acessará e mantém esses dados o usará com responsabilidade?Qual será o papel do governo?Talvez a IA possa ajudar o desenvolvimento da água a lidar com as mudanças climáticas e os recursos hídricos, mas, novamente, vejo um risco real nas áreas de distribuição equitativa, proteções de justiça e privacidade. ”

Humans are the problem: Whose ethics? Who decides? Who cares? Who enforces?

Vários especialistas que têm preocupações com o futuro da IA ética levantaram questões em torno da natureza fundamental das pessoas.Os seres humanos defeituosos necessariamente estarão no meio dessas questões.Além disso, alguns especialistas argumentaram que os seres humanos terão que criar os sistemas de governança que supervisionam a aplicação da IA e julgando como as aplicações estão afetando as sociedades.Esses especialistas também afirmaram que sempre haverá pessoas e organizações fundamentalmente antiéticas que não adotarão esses princípios.Além disso, alguns especialistas mencionaram o fato de que, em uma idade globalmente em rede, mesmo os lobos solitários podem causar problemas enormes.

Leslie Daigle, líder de longa data nas organizações que construía a Internet e tornando -a segura, observou: “Minha maior preocupação com relação à IA e seu uso ético não tem nada a ver com IA como tecnologia e tudo a ver com as pessoas.Nada sobre o século XXI me convence de que, como sociedade, entendemos que somos interdependentes e precisamos pensar em algo além de nossos próprios interesses imediatos.Temos até uma visão comum do que é ético?

“Dando um passo para trás da beira do desespero, as coisas que eu gostaria de ver a IA aplicadas com sucesso, até 2030, incluem coisas como diagnósticos médicos (leitura de raios-X, etc.).Avanços pode haver monumental.Ainda não quero que minha geladeira encomende minhas compras até 2030, mas talvez isso me torne velho?:-) "

Tracey P. Lauriault, professor especialista em estudos críticos de mídia e big data baseado na Universidade Carleton, Ottawa, Canadá, comentou: “Automação, IA e aprendizado de máquina (ML) usados no gerenciamento de tráfego, como alterar as luzes para melhorar o fluxo de fluxo detráfego, ou para pesquisar bancos de dados de proteínas em grandes análises de bioquímica, ou para me ajudar a resolver idéias sobre o que mostram assistir a seguir ou livros para ler a seguir, ou para fazer classificação terrestre de imagens de satélite, ou mesmo para obter agricultura de precisão orgânica e justa, ou para detectar a atividade sísmica, o derretimento de calotas de gelo polar ou para prever questões oceânicas não são tão problemáticas (e seu uso, a bondade proíbe, detectar o crime de colarinho branco em um contexto de fintech não é um problema).

“Se, no entanto, a questão é sobre sistemas de ingestão de bem -estar social, classificação biométrica, policiamento preditivo e controle de fronteiras, etc., então estamos entrando em um cenário bem diferente.Como isso será governado, examinado e quem será responsável pelas decisões e essas decisões sobre a compra e uso dessas tecnologias ou a inteligência derivam delas?

“Eles refletirão nossas formas atuais de governança, e elas parecem bastante tendenciosas e desiguais.Se pudermos criar uma sociedade mais justa, podemos ter mais apenas ai/ml. ”

Leiska Evanson, futurista e consultora, escreveu: “A humanidade tem preconceitos.Os seres humanos estão construindo os algoritmos em torno do aprendizado de máquina disfarçado de IA.A 'AI' terá preconceitos.É impossível ter IA ética (realmente, ML) se o 'pai' for tendencioso.Empresas como os bancos estão ansiosos para usar a ML para justificar não emprestar a certas minorias que simplesmente não criam lucro para elas.Os governos querem atender às necessidades de muitos antes de poucos.Os conceitos atuais de IA têm como objetivo alimentar mais dados a um burocrata eletromecânico ao lixo, sem supervisão de seres humanos com preconceitos concorrentes. ”

Diretor de padrões e estratégia de uma grande empresa de tecnologia comentou: “Acredito que as pessoas são principalmente boas e que a intenção será criar IA ética.No entanto, uma questão que eu tomei conhecimento é o fato de que todos temos vieses intrínsecos, preconceitos não intencionais, que podem ser expostos de maneiras sutis e ainda significativas.Considere que os sistemas de IA são construídos pelas pessoas e, portanto, eles trabalham inerentemente de acordo com a forma como as pessoas que as construíram funcionam.Assim, esses preconceitos intrínsecos e não intencionais estão presentes nesses sistemas.Até os sistemas de aprendizado "aprenderão" de maneira tendenciosa.Portanto, a questão de pesquisa interessante é se aprendemos ou não de uma maneira que supere nossos preconceitos intrínsecos. ”

Jean Seaton, diretor da Fundação Orwell e professor de história da mídia da Universidade de Westminster, respondeu: “A questão da ética também implora as questões de quem criaria e policiaria tais padrões internacionalmente?Precisamos de alguns líderes visionários e alguns movimentos poderosos.O último grande salto "ético" ocorreu após a Segunda Guerra Mundial.O Holocausto e a Segunda Guerra Mundial produziram um conjunto de instituições que, com o tempo, levaram à noção de direitos humanos.Essa mudança de etapa ética coletiva (é claro, comprometida, mas imensamente significativa) foi incorporada em instituições com alguma autoridade coletiva.Então é isso que tem que acontecer sobre a IA.As pessoas precisam ficar aterrorizadas o suficiente, os líderes precisam ser sábios o suficiente, as pessoas precisam ser cooperativas o suficiente, as pessoas da tecnologia precisam ter o que pensar o suficiente, a responsabilidade deve ser sentida vividamente, pessoalmente, esmagadoramente - para aprovar um conjunto de regras e aprovadas epolicied. ”

Cliff Lynch, diretor da Coalizão de Informações em Rede, escreveu: “Serão feitos esforços para criar aplicativos de IA 'éticos' principalmente 'éticos até o final da década, mas entenda que um aplicativo ético de IA é realmente apenas um software incorporado em uma organizaçãoIsso está fazendo algo;É a organização e não o software que leva o ônus de ser ético.Haverá algumas exceções óbvias para a pesquisa, alguns tipos de sistemas de segurança nacional, militar e inteligência, comércio de mercado e sistemas de previsão econômica - muitas dessas coisas operam sob vários tipos de 'normas éticas alternativas', como as 'leis da guerra' ouas leis do mercado.E muitos esforços para desencadear a IA (realmente aprendida de máquina) em áreas como física ou dobra de proteínas ficarão fora de toda a discussão de 'IA ética'.

“Devemos resistir à tentação de antropomorfizar esses sistemas. (Como diz o velho ditado, 'as máquinas odeiam isso'.) Não atribua agência e livre arbítrio ao software. … Os problemas aqui são pessoas e organizações, não código! … Muita discussão da IA ​​ética é realmente equivocada. É claro que há um enorme problema com os sistemas de aprendizado de máquina e reconhecimento de padrões, por exemplo, que são treinados em dados inadequados, incompletos ou tendenciosos (ou dados que refletem preconceitos sociais históricos) ou onde o domínio da aplicabilidade e confiança dos classificadores ou Os preditores não são bem demarcados e compreendidos. Há outro enorme problema em que as organizações confiam (geralmente propensas a falhas e não confiáveis, ou treinadas em dados tendenciosos, ou de outra forma problemáticos), algoritmos de reconhecimento ou previsão (novamente baseados em máquina, geralmente) e devolver muita tomada de decisão para esses. Alguns dos recentes desastres de reconhecimento facial são bons exemplos aqui. Existem práticas organizacionais e sociais horríveis que atraem decisões geradas por computador que são corretas, imparciais, imparciais ou transparentes e que colocam fé e autoridade injustificadas nesse tipo de tecnologia. Mas enquadrar isso em termos de ética da IA, em vez de má tomada de decisão humana, estupidez, ignorância, pensamento desejado, falhas organizacionais e tentativas de evitar a responsabilidade parecem erradas para mim. Deveríamos estar falando sobre a ética humana e organizacional do uso de sistemas de aprendizado de máquina e previsão para vários propósitos, talvez.

"Acho que veremos vários jogadores empregando aprendizado de máquina, reconhecimento de padrões e previsão de algumas maneiras realmente más ao longo da próxima década.Acompanhar isso às mídias sociais ou outros mecanismos de motivação e recompensa cultural é particularmente assustador.Um exemplo inicial aqui pode ser o desenvolvimento da China de seu sistema de "capital social" e sistema de rastreamento.Também estou com medo de sistemas direcionados de propaganda/publicidade/persuasão.Espero que também vejamos organizações e governos em pelo menos alguns casos optarem por não usar esses sistemas ou tentar usá-los com muita cautela e sabedoria e não delegar muita tomada de decisão para eles.

"É possível fazer boas escolhas aqui, e acho que algumas o farão.A ética da IA genuína parece fazer parte do pensamento sobre a IA de uso geral, e acho que estamos muito, muito, muito longe disso, embora eu tenha visto algumas previsões em contrário das pessoas talvez melhor informadas do que eu.As discussões (bastante mais teóricas e especulativas) filosóficas e de pesquisa sobre superinteligência e sobre como alguém pode projetar e desenvolver uma IA de uso geral que não decide rapidamente exterminar a humanidade é extremamente útil, importante e válida, mas eles têm pouco aFaça com as críticas retóricas da justiça social que confundem algoritmos com as organizações que estupidamente e inadequadamente projetam, treinam e consagram e as aplicam no mundo de hoje. ”

Deirdre Williams, especialista independente de pesquisadores em política de tecnologia global, comentou: "Não posso estar otimista.Nós, as 'pessoas comuns', fomos educados em anos anteriores à sujeira, individualismo, materialismo e a última importância da conveniência.Esses valores criam o "ethos". Na raiz da IA, são bancos de dados, e esses bancos de dados são construídos por seres humanos que decidem quais dados devem ser coletados e como esses dados devem ser descritos e categorizados.Um minúsculo erro humano ou preconceito no início pode balançar em um enorme erro de verdade e/ou justiça. ”

1. Worries about developments in AI | Pew Research Center

Alexa Raad, co-fundador e co-apresentador do podcast TechSequences e ex-diretor de operações da Farsight Security, disse: “Há esperança para a IA em termos de pedidos de saúde que farão uma diferença positiva. Mas as estruturas legais/políticas e regulatórias quase sempre ficam atrás das inovações técnicas. Para se proteger contra as repercussões negativas da IA, precisamos de uma estrutura de governança de políticas e mitigação de riscos que seja universalmente adotada. É preciso haver um ambiente de colaboração global para um bem maior. Embora a globalização tenha levado a muitos dos avanços que temos hoje (por exemplo, o design e a arquitetura da Internet, bem como seu modelo de governança de vários participantes), a globalização está sob ataque. O que vemos em todo o mundo é uma tendência para o isolacionismo, o separatismo, como evidenciado por movimentos políticos como populismo, nacionalismo e resultados como o Brexit. Para encontrar e adotar um conjunto abrangente de diretrizes ou estrutura para o uso de IA ou mitigação de risco para abuso de IA, precisaríamos de uma corrente global que apóie a colaboração. Espero estar errado, mas tendências como essa necessidade mais de 10 anos para seguir seu curso e para que o pêndulo volte para o outro lado. Até então, receio que algumas desvantagens e riscos da IA ​​já estejam em jogo. ”

Andrea Romaoli Garcia, advogada internacional envolvida ativamente com as atividades multistantes da União Internacional de Telecomunicações e da Internet Society, disse: “Defino a ética como todas as escolhas possíveis e disponíveis em que a consciência estabelece a melhor opção.Valores e princípios são os limitadores que orientam a consciência nessa escolha ao lado dos propósitos;Assim, a ética é um processo.Em termos de ética para a IA, o processo para descobrir o que é bom e certo significa escolher entre todos os aplicativos possíveis e disponíveis para encontrar o que melhor se aplica aos propósitos centrados no ser humano, respeitando todos os princípios e valores que tornam possível a vida humana.

“A abordagem centrada no homem na ética foi descrita pela primeira vez pelo filósofo grego Sócrates em seu esforço para voltar a atenção do mundo exterior para a condição humana. A IA é uma tecnologia cognitiva que permite maiores avanços nos campos de saúde, econômicos, políticos e sociais. É impossível negar como os algoritmos afetam a evolução humana. Assim, uma IA ética exige que todos os instrumentos e aplicações colocem os seres humanos no centro. Apesar do fato de que existem alguns países construindo princípios éticos para a IA, há uma falta de qualquer tipo de instrumento internacional que abranja todos os campos que orientam o desenvolvimento e a aplicação da IA ​​em uma abordagem centrada no ser humano. AI não é orientada por modelo; Possui uma abordagem centrada em dados para redes neurais altamente escaláveis. Assim, os dados devem ser selecionados e classificados através da ação humana. Através dessa ação humana, os fatores socioculturais estão impressos sobre o comportamento do algoritmo e do aprendizado de máquina. Isso justifica as preocupações com a ética e também se concentra em questões como liberdade de expressão, privacidade e vigilância, propriedade de dados e discriminação, manipulação de informações e confiança, aquecimento ambiental e global e também sobre como o poder será estabelecido entre a sociedade.

“Esses são fatores que determinam a compreensão e a experiência humanas. Todos os instrumentos construídos para IA ética têm bases, valores e propósitos diferentes, dependendo do campo ao qual se aplicam. A falta de harmonia na definição desses pilares compromete a ética da IA ​​e afeta a sobrevivência humana. Isso poderia trazer novos meios invisíveis de exclusão ou implantar ameaças à paz social que serão invisíveis aos olhos humanos. Assim, há necessidade de esforços conjuntos coletando partes interessadas, sociedade civil, cientistas, governos e órgãos intergovernamentais para trabalhar para construir uma IA ética harmoniosa que é centrada no ser humano e aplicável a todas as nações. 2030 é daqui a 10 anos. Não precisamos esperar 10 anos - podemos começar a trabalhar agora. 2020 apresenta vários desafios em relação ao impacto da tecnologia nas pessoas. Violações dos direitos humanos estão sendo expostos e os valores estão ameaçados. Esse cenário deve acelerar os esforços da cooperação internacional para estabelecer uma IA ética harmoniosa que apóie a sobrevivência humana e a evolução global. ”

Olivier MJ Crépin-Leblond, empresário e participante de longa data das atividades de ICANN e IGF, disse: “O que mais me preocupa é que alguns atores em regimes não democráticos não vêem a mesma 'norma' quando se trata de ética.Essas normas são construídas sobre um fundo de cultura e ideologia, e nem todas as ideologias são as mesmas em todo o mundo.É claro que, hoje, alguns estados-nação veem a IA como outro meio de conquista e estabelecer sua superioridade, em vez de um meio de fazer o bem. ”

Um professor emérito de ciências sociais disse: “Os algoritmos que representam ética na IA não são éticos nem inteligentes.Estamos construindo modelos de computadores de preconceitos sociais e racismo estrutural, sexismo, idade, xenofobia e outras formas de desigualdade social.É a realização de alguns dos piores pesadelos de Foucault ".

Um advogado e ativista disse: “A maioria das grandes convocação de IA até o momento foi dominada pelas elites do status quo de energia cujo senso de risco, dano e ameaça são distorcidos.Em grande parte, composto por homens brancos de elite com uma fé excessiva nas soluções técnicas e um desdém por dimensões socioculturais de risco e remédio.Essas comunidades - homogêneas e limitadas experimentalmente, excessivamente confiantes - são compostas por pessoas que não se vêem como um risco.Como resultado, acredito que a maioria dos resultados dominantes - quão "ético" é definido, quão "risco aceitável" é percebido, como "soluções ideais" serão determinadas - serão limitadas e quase certamente perpetuarem e amplificarão os danos existentes.Como você pode ver, sou todo sol e alegria. "

Glenn Grossman, consultor de análise bancária da FICO, observou: "É necessário que os líderes de todos os setores reconheçam que a IA é apenas o crescimento dos modelos matemáticos e a aplicação dessas técnicas.Temos governança modelo na maioria das organizações hoje.Precisamos manter as mesmas salvaguardas no lugar.O desafio é que muitos líderes empresariais não são bons em matemática!Eles não conseguem entender o básico de análises preditivas, modelos e outros.Portanto, eles ouvem 'ai' e pensam nisso como uma tecnologia nova, legal e faz tudo.É simplesmente matemática no coração disso.O homem governa como eles usam matemática.Portanto, precisamos aplicar padrões éticos para monitorar e calibrar.AI é uma ferramenta, não uma solução para tudo.Assim como o PC inaugurado a automação, a IA pode inaugurar a automação na área de decisões.No entanto, são os humanos que usam essas decisões e projetam os sistemas.Portanto, precisamos aplicar padrões éticos a qualquer sistema acionado por IA. ”

R. "Ray" Wang, analista principal, fundador e CEO da Constellation Research, com sede no Vale do Silício, observou: “No momento, não temos como impor esses princípios em jogo.A IA totalitária, chinesa, no estilo CCP, é a abordagem preferida para os ditadores.A questão é: podemos exigir e podemos aplicar a ética da IA?Certamente podemos exigir, mas a aplicação pode ser difícil. ”

Maja Vujovic, consultor de TIC e TIC na Compass Communications, observou: “A IA ética pode se tornar um padrão geralmente acordado, mas será impossível aplicá -lo.Em um mundo em que o conteúdo e a produção da mídia, incluindo notícias falsas, serão rotineiramente geradas pela IA, é mais provável que nossas expectativas em torno da ética precisem ser reduzidas.O público pode desenvolver uma 'pele mais espessa' e se tornar mais tolerante à falta de confiabilidade geral das notícias.Essa tendência não os tornará mais céticos ou distantes, mas mais ativos e muito mais envolvidos na geração de notícias, de várias maneiras.Mecanismos de certificação e ferramentas especializadas de IA serão desenvolvidas para lidar especificamente com IA antiética, pois os humanos serão ingênuos demais.Nos setores onde a política não tem interesse direto, como saúde e medicina, transporte, comércio eletrônico e entretenimento, a IA como indústria pode obter mais margem de manobra para crescer organicamente, incluindo a auto-regulação. ”

Like all tools, AI can be used for good or ill; that makes standards setting a challenge

Vários entrevistados observaram que qualquer tentativa de fabricação de regras é complicada pelo fato de que qualquer tecnologia pode ser usada para fins nobres e prejudiciais.É difícil projetar ferramentas digitais éticas que privilegiam o primeiro, mantendo o último sob controle.

Chris Arkenberg, gerente de pesquisa do Centro de Tecnologia, Mídia e Telecomunicações da Deloitte, observou: “A resposta é boa e ruim.A tecnologia não adota prioridades éticas de que os humanos não se priorizem.Portanto, uma pergunta melhor pode ser se a sociedade perseguirá um papel mais central da ética e dos valores do que nos últimos 40 anos.Indiscutivelmente, 2020 mostrou uma demanda ressurgente por valores e princípios para uma sociedade equilibrada.Se, por exemplo, a educação se tornar uma prioridade maior para o mundo ocidental, a IA poderá ampliar nossa capacidade de aprender com mais eficácia.Da mesma forma, com preconceitos raciais e de gênero.Mas essa tendência é mais forte apenas em algumas democracias ocidentais.

“A China, por exemplo, atribui maior valor à estabilidade social e desfruta de uma população bastante monocromática.Com as guerras comerciais atuais, a divisão geopolítica também está se tornando uma divisão tecnológica que poderia nascer formas totalmente diferentes de IA, dependendo de sua origem.E agora é um mundo muito multipolar com uma abundância de atores capacitados.

“Então, essas ferramentas levantam muitos outros barcos com suas próprias agendas [que] podem estar menos vinculadas pelas noções liberais ocidentais de ética e valores.A suposição pragmática pode ser que muitos casos de IA ética estejam presentes onde regulamentos, desenvolvimento de mercado, atração de talentos e expectativas sociais exigem que sejam assim.Ao mesmo tempo, provavelmente haverá inúmeras instâncias de 'IA ruim', sistemas de inteligência de máquinas e de aprendizado armados projetados para explorar fraquezas.Como a Internet e a globalização, o caminho a seguir provavelmente é menos sobre orientar sistemas tão complexos para os resultados utópicos e mais sobre se adaptar à maneira como os humanos os exercem sob os mesmos motoristas competitivos e colaborativos que participaram de toda a história humana. ”

Kenneth Cukier, editor sênior do economista e co -autor de "Big Data", disse: "Poucos se propõem a usar a IA de maneiras ruins (embora alguns criminosos certamente o façam).A maioria das instituições aplicará a IA para resolver os problemas do mundo real de maneira eficaz e a IA realmente funcionará para esse fim.Mas se for o reconhecimento facial, isso significará menos privacidade e riscos de ser destacado injustamente.Se for direcionado de publicidade, será o risco de perder o anonimato.Nos cuidados de saúde, um sistema de IA pode identificar que algumas pessoas precisam de mais radiação para penetrar no pigmento na pele para obter uma imagem médica mais clara, mas se isso significa que os negros são explodidos com doses mais altas de radiação e, portanto, são propensas a efeitos colaterais negativos, as pessoas acreditarão que há um viés injusto.

"Sobre a economia global, uma estrutura comercial 'neocolonial' ou 'imperial' se formará, pela qual todos os países precisam se tornar clientes de IA de uma das principais potências, América, China e, em menor grau, talvez a Europa".

Bruce Mehlman, um futurista e consultor, respondeu: “A IA é poderosa e tem um grande impacto, mas é apenas uma ferramenta como pólvora, eletricidade ou aviação.Boas pessoas o usarão de boas maneiras para o benefício da humanidade.As pessoas más o usarão de maneiras nefastas em detrimento da sociedade.A natureza humana não mudou e não será melhorada nem piorada pela IA.Será a melhor das tecnologias e as piores tecnologias. ”

Ian Thomson, desenvolvedor pioneiro do Pacific Knowledge Hub, observou: “Sempre será o caso de novos usos da IA levantarem questões éticas, mas com o tempo essas questões serão abordadas para que a maioria dos usos seja ética.Os bons usos da IA incluirão destacar tendências e desenvolvimentos com os quais estamos descontentes.Os usos ruins estarão usando a IA para manipular nossas opiniões e comportamentos para o ganho financeiro daqueles ricos o suficiente para desenvolver a IA e a desvantagem daqueles menos abrangentes.Estou empolgado com a forma como a IA pode nos ajudar a tomar melhores decisões, mas tenho cuidado para que também possa ser usada para nos manipular. ”

Professor de Assuntos Internacionais e Economia da Universidade da Área de Washington, DC escreveu: “A IA tende a ser obscura na maneira como opera e nos tipos de resultados que obtém.Consequentemente, pode ser facilmente usado para fins bons e ruins sem muita supervisão prática.A IA, como é implementada atualmente, tende a reduzir a agência pessoal de indivíduos e, em vez disso, cria um agente paralelo que antecipa e cria necessidades de acordo com o que os outros pensam que é certo.O indivíduo que está sendo auxiliado pela IA deve ser capaz de compreender completamente o que está fazendo e alterar facilmente como funciona para se alinhar melhor com suas próprias preferências.Minhas preocupações são acalmadas na medida em que a operação de IA e seus possíveis vieses e/ou manipulação permanecem incertos ao usuário.Eu temo seu impacto.Isso, é claro, é independente de uma preocupação adicional com a privacidade individual.Quero que o usuário esteja no controle da tecnologia, não o contrário. ”

Kate Klonick, professora de direito da St. John's University, cuja pesquisa está focada em direito e tecnologia, disse: “A IA será usada para bons e ruins, como a maioria das novas tecnologias.Não vejo a IA como um soma zero negativo de ruim ou bom.Penso que na Net IA melhorou a vida das pessoas e continuará a fazê -lo, mas essa é uma fonte de grande contenção nas comunidades que constroem sistemas de IA e as comunidades que estudam seus efeitos na sociedade ".

Stephan G. Humer, professor e diretor do Departamento de Sociologia da Internet da Universidade de Ciências Aplicadas de Fresenius em Berlim, previu: “Veremos uma dicotomia: os sistemas oficiais não serão mais projetados de maneira tão ingênua e centrada na tecnologia como no inícioDias de digitalização e ética desempenharão um papel importante nisso.Os designs "não oficiais" serão, é claro, realizarão um enquadramento ético, por exemplo, na área do crime como serviço.O que mais me preocupa é a falta de conhecimento: aqueles que sabem pouco sobre a IA temem isso, e toda a idéia de IA sofrerá.Desenvolvimentos espetaculares serão principalmente nos EUA e na China.O resto do mundo não desempenhará um papel significativo por enquanto. ”

Um entrevistado anônimo escreveu: "É uma pergunta em aberto. A Black Lives Matter e outros movimentos de justiça social devem "envergonhar" e forçar as empresas focadas nos lucros a se aprofundar nos dados e informações inerentemente tendenciosos que estão alimentando os sistemas de IA-os bots e os robôs-e tentam manter essas maneiras tendenciosas de pensar em um mínimo. Precisará haver cheques e saldos para garantir que os sistemas de IA não tenham a palavra final, inclusive sobre a contratação, promoção e recompensador de pessoas. Preocupo-me que sistemas de IA, como o reconhecimento facial, sejam abusados, especialmente por governos totalitários, forças policiais em todos os países e até lojas de varejo-em relação a quem é o comprador "melhor" e "mais suspicioso" que vem pela porta. Preocupo -me que os sistemas de IA ampliem a desistir de desistir de seus direitos de privacidade. Mas também vejo artistas, atores, diretores de filmes e outros criativos usando a IA para dar voz a questões que nosso país precisa enfrentar. Espero também que a IA alivie de alguma forma as desigualdades de transporte, educação e assistência médica. ”

Ilana Schoenfeld, especialista em projetar sistemas de educação e compartilhamento de conhecimento on-line, disse: “Estou assustado e, ao mesmo tempo, empolgado com as possibilidades do uso de aplicativos de IA na vida de mais e mais pessoas.A IA será usada de maneiras éticas e questionáveis, pois sempre haverá pessoas de ambos os lados da equação tentando encontrar maneiras de promover suas agendas.Para garantir que o uso ético da IA supere seu uso questionável, precisamos acertar nossas salvaguardas institucionais - tanto em termos de suas estruturas quanto de suas entidades não partidárias. ”

Um pioneiro em filantropia de risco comentou: "Embora muitos sejam éticos no desenvolvimento e implantação de IA/ml, não se pode assumir" bondade ". Por que ai/ml será diferente de como:

  1. cellphones enabled Al-Qaeda,
  2. ISIS exploited social media,
  3. Cambridge Analytica influenced elections,
  4. elements of foreign governments who launched service denial attacks or employed digital mercenaries and on and on. If anything, the potential for misuse and frightening abuse just escalates, making the need for a global ethical compact all that more essential.”

Greg Shatan, a partner in Moses & Singer LLC’s intellectual property group and a member of its internet and technology practice, wrote, “Ethical use will be widespread, but ethically questionable use will be where an ethicist would least want it to be: Oppressive state action in certain jurisdictions; the pursuit of profit leading to the hardening of economic strata; policing, etc.”

Further AI evolution itself raises questions and complications

Alguns entrevistados disseram que a ascensão da IA levanta novas questões sobre o que significa ser ético.Vários desses especialistas argumentaram que a IA de hoje não é sofisticada em comparação com o que o futuro provavelmente trará.A aceleração da IA estreita para a inteligência geral artificial e, possivelmente, a superinteligência artificial, espera -se que alguns desenvolvam essas ferramentas além do controle e entendimento humano.Então, também, há o problema de desinformação e desinformação (como DeepFakes) e como eles podem ter os sistemas de ética.

David Barnhizer, professor de direito emérito e autor de “A Inteligência Artificial Contágio: A democracia pode resistir à transformação iminente do trabalho, riqueza e ordem social?” escreveu: “O ritmo do desenvolvimento da IA ​​acelerou e continua a aumentar a velocidade. Ao considerar a gama mais completa dos 'bens' e 'maus' da inteligência artificial, pense nas implicações do aviso do filho de Masayoshi de que: 'Os robôs supersmart ultrapassarão os seres humanos, e mais de um trilhão de objetos estarão conectados à Internet dentro de três décadas '' Os pesquisadores estão criando sistemas que são cada vez mais capazes de ensinar a si mesmos e usar sua nova e expandida capacidade de melhorar e evoluir. A capacidade de fazer isso é avançar com uma rapidez incrível. Eles podem alcançar ótimos feitos, como dirigir carros e prever doenças, e alguns de seus criadores dizem que não estão inteiramente no controle de suas criações. Considere as implicações de um sistema que pode acessar, armazenar, manipular, avaliar, integrar e utilizar todas as formas de conhecimento. Isso tem o potencial de atingir os níveis tão além do que os humanos são capazes de que isso pode acabar como um sistema onisciente e onipresente.

"A última invenção da Humanidade da AI é?Nick Bostrom, de Oxford, sugere que possamos perder o controle dos sistemas de IA mais cedo do que pensamos.Ele afirma que nossa crescente incapacidade de entender o que esses sistemas estão fazendo, o que estão aprendendo e como a "mente da IA" funciona à medida que se desenvolve, pode causar inadvertidamente a nossa própria destruição.Nossos desafios são numerosos, mesmo que tivéssemos que lidar apenas com os recursos em expansão dos sistemas de IA com base na melhor tecnologia binária.A incrível mudança de miniaturização e capacidade representada por computadores quânticos tem implicações muito além da IA binária.

“O trabalho sobre avanços tecnológicos, como computadores quânticos, capazes de operar em velocidades que são várias ordens de magnitude além dos computadores atuais mais rápidos ainda estão em um estágio relativamente inicial e levarão tempo para se desenvolver além do contexto laboratorial.Se os cientistas conseguirem alcançar um sistema de computador quântico confiável, o melhor sistema exascale empalidece em relação ao tamanho reduzido e à capacidade exponencialmente expandida dos sistemas de computador existentes mais avançados.Isso criará aplicativos e tecnologias de IA/robótica que agora podemos imaginar.… Quando totalmente desenvolvido, os computadores quânticos terão recursos de manuseio e processamento de dados muito além dos dos sistemas binários atuais.Quando isso ocorre no contexto comercializado, as previsões sobre o que acontecerá com os seres humanos e suas sociedades estão "fora do conselho".

Um especialista na regulação do risco e os papéis da política na ciência e na ciência da política observou: “No meu trabalho, uso a análise de custo-benefício. É um modelo elegante que geralmente é reconhecido em ignorar muitos dos aspectos mais importantes da tomada de decisão-como "valorizar" os benefícios não monetários, por exemplo. Bons analistas da CBA tendem a ser humildes sobre suas técnicas, observando que fornecem uma visão parcial das estruturas de decisão. Já ouvi muitos entusiastas da IA ​​falarem sobre aplicativos de IA sem humildade. O livro de Cathy O'Neil, "Armas de destruição matemática", estava perfeitamente no alvo: se você não pode contar, ele não existe. O outro grande problema é amplamente discutido: a transparência dos algoritmos. Um problema com a IA é que ela é auto-amalgante. Quase certamente não sabemos o que um algoritmo aprendeu, adotado, mal adotado etc. Esse problema já existe, por exemplo, ao usar a IA para contratar decisões. Duvido que haja muita hesitação em pegar a IA como a maneira 'neutra, objetiva, rápida e barata' de evitar todas aquelas complicações bagunçadas do tipo humano, como justiça, empatia etc. ”

Neil Davies, co-fundador da Preventable Network Solutions e pioneira no Comitê que supervisionou os desenvolvimentos iniciais de rede do Reino Unido, comentou: “O aprendizado de máquina (me recuso a chamá-lo de AI, pois a inteligência pré-requisito por trás de tais sistemas definitivamente não é artificial) éFundamentalmente, sobre a transformação de uma questão do mundo real em um sistema de valor numérico, sendo o processamento (e decisões) sendo executado inteiramente nesse sistema numérico.Para que haja uma dimensão ética para essa análise, é preciso haver um meio de avaliar o resultado ético como uma (função de) um espaço de valor numérico.Eu não conheço esse trabalho....

“Existe uma possibilidade não trivial de vários resultados distópicos.O histórico do governo do Reino Unido, como exemplo-mas outros países também têm seus exemplos em crédito universal, windrush, status de resolução da UE etc., são todos exemplos de um processo de avaliação baseado em valor no qual a noção de garantia contra algunsEstrutura ética está ausente.O aspecto global da concorrência provavelmente levará a tendências monopolistas sobre a "propriedade" da informação - muitas das quais seriam vistas como um bem comum hoje....

“Um conto de advertência: na matemática que sustenta toda a modelagem desse tipo (teoria da categoria), há as noções de 'infidelidade' e 'lixo'. A infidelidade é o fracasso em capturar o 'mundo real' o suficiente para ter a valores apropriados (e estrutura dos valores) no modelo avaliado; Isso leva a 'lixo, lixo fora'. Lixo, por outro lado, são coisas que surgem apenas como artefatos no modelo. Tais artefatos lixo geralmente são difíceis de reconhecer (na medida em que, se fossem fáceis, o modelo teria sido adaptado para negar sua própria existência) e pode ser atraente para o criador do modelo (a inteligência humana) e os algoritmos da máquina à medida que buscam seu objetivo . Muitos desses sistemas criarão valor negativo (e destrutivo) devido à falha em reconhecer reconhecer essa limitação fundamental; a falha em executar uma garantia adequada (ou mesmo qualquer) sobre a operação do sistema; E, pura arrogância, impulsionada pela necessidade de mostrar um "retorno do investimento" para esses empreendimentos ".

Sarita Schoenebeck, professora associada da Escola de Informações da Universidade de Michigan, disse: “A IA será usada principalmente de maneiras questionáveis e às vezes não usada.Há poucas evidências de que os pesquisadores possam discernir ou concordar com a aparência da IA ética, muito menos poder construí -lo dentro de uma década.A IA ética deve minimizar os danos, reparar injustiças, evitar re-traumatização e necessidades do usuário do centro, em vez de objetivos tecnológicos.A IA ética precisará se afastar das noções de justiça, o que ignora conceitos como dano, injustiça e trauma.Isso requer conciliar princípios de design de IA, como escalabilidade e automação com valores individuais e comunitários. ”

Jeff Gulati, professor de ciência política da Universidade de Bentley, respondeu: “Parece que mais IA e os dados que lançam podem ser úteis para aumentar a segurança pública e a segurança nacional.Em uma crise, estaremos mais dispostos a confiar nesses aplicativos e dados.À medida que a crise desaparece, é improvável que as estruturas e práticas construídas durante a crise desapareçam e improvável que permaneçam ociosas.Eu podia ver isso sendo usado em nome da prevenção e levar a uma erosão adicional de privacidade e liberdades civis em geral.E, é claro, esses aplicativos estarão disponíveis para organizações comerciais, que nos conhecerão mais intimamente para que possam nos vender mais coisas de que realmente não precisamos. "

Um líder sênior de uma organização internacional de direitos digitais comentou: “Por que a IA seria usada ética?Você só precisa olhar para o status quo para ver que ele não é usado eticamente.Muitos formuladores de políticas não entendem a IA.O policiamento preditivo é uma palavra da moda, mas a maior parte é óleo de cobra.As empresas substituirão os trabalhadores por sistemas de IA, se puderem.Eles estão treinando sistemas biométricos tendenciosos.E nem sabemos em muitos casos o que o algoritmo está realmente fazendo;Estamos lutando por transparência e explicação.

“Espero que essa operação inerente aos técnicos de IA/ML seja um recurso para empresas (e governos) - não um bug.DeepFakes é um exemplo.Você espera uso ético?Não pensamos nisso precisamente porque esperamos uso antiético e fé de má fé na política, 'pornô de vingança', etc.?Em uma economia capitalista de tecnologia, você precisa criar e configurar o sistema até começar a ter incentivos para o comportamento ético.E uma parte básica da ética é pensar em quem pode ser prejudicado por suas ações e talvez até respeitar sua agência em decisões que são fatídicas por elas.

“Finalmente, é claro que a IA tem enormes aplicações militares, e o pensamento dos EUA na IA ocorre em um campo de conflito com a China.Isso novamente não me faz sentir bem.A China está liderando, ou tentando liderar o mundo em vigilância social e política, por isso está impulsionando o reconhecimento facial e a biometria.Presumivelmente, a China está tentando fazer o mesmo em áreas militares ou de defesa, e o Pentágono presumivelmente está competindo como louco.Eu nem sei como falar sobre IA ética no contexto militar. "

Emmanuel Evans Ntekop observou: “Sem o criador, o objeto é inútil.O criador é o programador e o deus de seus objetos.Foi uma idéia desde o início para apoiar como escravo de seu mestre, o povo, como automóveis. ”

O controle da IA está concentrado nas mãos de empresas e governos poderosos impulsionados pelos motivos de lucro e poder

Muitos desses especialistas expressaram preocupação de que os sistemas de IA estejam sendo construídos por empresas com fins lucrativos e por governos focados na aplicação da IA para seus próprios propósitos.Alguns disseram que os governos são facilitadores passivos dos abusos corporativos da IA.Eles observaram que o público é incapaz de entender como os sistemas são construídos, eles não são informados quanto ao seu impacto e não conseguem desafiar as empresas que tentam invocar a ética em um contexto de relações públicas, mas não estão realmente comprometidas com a ética.Alguns especialistas disseram que a frase “IA ética” será apenas usada como molho de janela de relações públicas para tentar desviar o escrutínio de aplicativos questionáveis.

Vários desses especialistas enquadraram suas preocupações com a falta de transparência sobre como os produtos de IA são projetados e treinados.Alguns observaram que os construtores de produtos estão programando IA usando conjuntos de dados disponíveis sem análise do potencial de viés interno ou outras possíveis preocupações de qualidade ou veracidade.

Joseph Turow, professor de comunicação da Universidade da Pensilvânia, escreveu: “Termos como 'transparência, justiça e justiça, privacidade, liberdade e autonomia humana, beneficência e não -maleficência, liberdade, confiança, sustentabilidade e dignidade' podem ter muitas definições para que as empresas(e os governos) podem dizer que adotam um ou outro termo, mas depois o implementam algoritmicamente de maneiras que muitos pessoas de fora não acham satisfatório.Por exemplo, o governo chinês pode dizer que suas tecnologias de IA incorporam valores de liberdade, autonomia humana e dignidade.Minha preocupação é que as empresas definam 'ético' de maneiras que melhor correspondam aos seus interesses, geralmente com preceitos vagos que soam bem do ponto de vista de relações públicas, mas, quando integradas ao código, permitem que seus algoritmos prosseguem de maneiras que não as restringem de criarprodutos que 'funcionam' em um sentido pragmático. ”

Charlie Kaufman, arquiteto de segurança da Dell EMC, disse: “Pode haver diretrizes éticas impostas aos sistemas baseados em IA por sistemas jurídicos em 2030, mas eles terão pouco efeito-assim como os princípios de privacidade têm pouco efeito hoje.As empresas são motivadas para maximizar os lucros e encontrarão maneiras de fazer isso, dando apenas à boca a outros objetivos.Se o comportamento ou os resultados éticos fossem fáceis de definir ou medir, talvez a sociedade pudesse incentivá -los.Mas, geralmente, as implicações de algum novo desenvolvimento tecnológico não ficam claras até que já se espalhe muito para contê -lo.

“O maior impacto dos sistemas baseados em IA é a capacidade de automatizar empregos cada vez mais complexos, e isso causará luxações no mercado de trabalho e na sociedade.Se isso é um benefício para a sociedade ou um desastre depende de como a sociedade responde e se ajusta.Mas isso não importa, porque não há como suprimir a tecnologia.O melhor que podemos fazer é descobrir como otimizar a sociedade que resulta.

"Não estou preocupado com a concorrência global nos sistemas de IA.Independentemente de onde o progresso vem, isso afetará todos nós.E é improvável que os desenvolvedores mais bem -sucedidos derivem qualquer vantagem permanente.A implicação mais importante da concorrência global é que ela não faz sentido para qualquer país ou grupo de países tentar suprimir a tecnologia.A menos que possa ser suprimido em todos os lugares, está chegando.Vamos tentar fazer isso ser uma coisa boa! "

Simeon Yates, professor especialista em cultura digital e interação pessoal da Universidade de Liverpool e líder de pesquisa da equipe de cultura digital do governo do Reino Unido, previu, "até que tragamos princípios de" inovação responsável) "ética por design" para as TICs para TIC [Tecnologias de informação e comunicação] e design de aprendizado de IA/máquina-como tentativas de criar sistemas 'seguros por design' para combater o cibercrime-a maioria dos sistemas de IA permanecerá tendenciosa e antiética em princípio. Embora exista um grande debate público sobre a ética da IA, e muitas organizações buscam fornecer conselhos e pesquisas sobre o assunto, não há imperativo econômico ou político para tornar os sistemas de IA com éticos. Primeiro de tudo, há um grande lucro a ser obtido com a manipulação de dados e, através dele, pessoas. Segundo, há uma habilidade limitada atualmente para os governos pensarem em como regular a IA e aplicar a ética (como dizem para bio-ciências). Terceiro, os governos são cúmplices frequentemente em uso pobre e eticamente questionável dos dados. Além disso, isso não está na "inteligência artificial" principal - mas relativamente simplista de aprendizado estatístico de máquina com base em conjuntos de dados tendenciosos. O uso conhecedor de tal é por si só é ético, mas muitas vezes lucrativo. A apresentação de soluções como livre de preconceitos ou mais racionais ou muitas vezes mais inteligentes, pois são baseadas em 'computação a frio', não no 'pensamento humano emotivo', é uma afirmação falsa e antiética ".

Colin Allen, um cientista cognitivo e filósofo que estudou e escreveu sobre a ética da IA, escreveu: “As declarações corporativas e governamentais de ética são frequentemente amplas e inespecíficas e, portanto, vagas em relação ao que especificamente não é permitido. Isso permite considerável margem de manobra na maneira como esses princípios são implementados e dificultam a aplicação. Nos EUA, não vejo leis fortes sendo promulgadas dentro de 10 anos que permitiriam o tipo de supervisão que impediria usos antiéticos ou questionáveis ​​da IA, seja pretendido ou acidental. No lado esperançoso, há uma crescente conscientização pública e cobertura jornalística dessas questões que podem influenciar as empresas a construir e proteger sua reputação de boa administração de IA. Mas as empresas têm uma longa história de esconder ou ofuscar sua verdadeira intenção (é parcialmente obrigada a permanecer competitiva, não para que todos os outros saibam o que você está fazendo), além de se envolver ativamente em campanhas de desinformação pública. Não vejo isso mudando e, dado que as vantagens comerciais do uso da IA ​​serão principalmente em análise de dados e previsão e não tanto em gadgets de consumo nos próximos 10 anos, grande parte do uso de IA estará 'por trás do cenas, 'por assim dizer. Outra classe de problema é que os indivíduos em empregos corporativos e governamentais que têm acesso a dados serão tentados, como já vimos, a acessar informações sobre as pessoas que conhecem e usam essas informações de alguma forma contra eles. No entanto, sem dúvida haverá alguns produtos muito úteis que os consumidores desejam usar e que eles se beneficiarão. A questão é se esses benefícios adicionais constituirão uma barganha faustiana, liderando um caminho que será difícil, se não for impossível de reverter. ”

Alice E. Marwick, assistant professor of communication at the University of North Carolina, Chapel Hill, and adviser for the Media Manipulation project at the Data & Society Research Institute, commented, “I have no faith in our current system of government to pass any sort of legislation that deals with technology in a complex or nuanced way. We cannot depend on technology companies to self-regulate, as there are too many financial incentives to employ AI systems in ways that disadvantage people or are unethical.”

Jillian York, diretora de liberdade de expressão internacional da Electronic Frontier Foundation, disse: “Não há absolutamente nenhuma dúvida de que a IA será usada de maneiras questionáveis.Não há regime regulatório, e muitos projetos de 'ética em IA' são simplesmente molho de janela para uma indústria ingrata e antiética.Quando se trata de IA, tudo me preocupa e nada me excita.Não vejo o potencial positivo, apenas mais um pântano ético, porque as pessoas que administram o programa não desejam criar tecnologia para beneficiar os 99%. ”

David Mussington, a senior fellow at CIGI and professor and director at the Center for Public Policy and Private Enterprise at the University of Maryland, predicted, “Most AI systems deployed by 2030 will be owned and developed in the private sector, both in the U.S. and elsewhere in the world. I can’t conceive of a legislative framework fully up to understanding and selectively intervening in AI rollouts in a manner with predictable consequences. Also, the mode of intervention – because I think interventions by public authorities will be attempted (just not successful) – is itself in doubt. Key questions: Do public authorities understand AI and its applications? Is public-institution-sponsored R&D in AI likely to inform government and public research agencies of the scale and capability trajectory of private sector AI research and development? As tool sets for AI development continue to empower small research groups and individuals (datasets, software-development frameworks and open-source algorithms), how is a government going to keep up – let alone maintain awareness – of AI progress? Does the government have access to the expertise necessary to make good policy – and anticipate possible risk factors? I think that the answers to most of these questions are in the negative.”

Giacomo Mazzone, chefe de relações institucionais da União Europeia de Radiodifusão e Eurovision, observou: “Ninguém poderia prever realisticamente a ética para a IA evoluirá, apesar de todos os esforços destacados pelo secretário -geral da ONU, o diretor geral da UNESCO e muitos outros. Somente indivíduos não podem tomar essas decisões porque a IA é aplicada em escala de massa. Ninguém criará um algoritmo para resolvê -lo. Os princípios éticos provavelmente serão aplicados apenas se o setor concordar em fazê -lo; É provável que isso não aconteça até que os governos que valorizem os direitos humanos obrigarão as empresas a fazê -lo. O tamanho e a influência das empresas que controlam a IA e seu impacto nos cidadãos estão tornando-os mais poderosos do que qualquer um estado-nação. Portanto, é muito provável que apenas poderes supranacionais regionais, como a União Europeia ou instituições multilaterais, como as Nações Unidas-se capacitadas por todos os estados-nação-podem exigir que as empresas apliquem regras éticas à IA. Obviamente, muitos governos já não apóiam os princípios dos direitos humanos, considerando a preservação do regime existente como uma prioridade mais importante do que os direitos dos cidadãos individuais ".

Rob Frieden, professor de lei de telecomunicações da Penn State, que trabalhou anteriormente com a Motorola e ocupou cargos de política sênior na FCC e na NTIA, disse: “Não consigo ver um cenário futuro em que os governos possam proteger os cidadãos dos incentivos das partes interessadas a violarPrivacidade e proteções de consumidor de mente justa.Vigilância, discriminação, corte de canto, etc., são certezas.Estou atento ao ditado: lixo, lixo.É tolice pensar que a IA não terá codificação falha. "

Alex Halavais, professor associado de estudos críticos de dados da Universidade Estadual do Arizona, observou: "Não é uma questão binária. Ensino em um programa de pós -graduação que tenha treinamento no uso ético de dados em seu núcleo e espera servir organizações que visam incorporar abordagens éticas. Existem questões éticas significativas na implementação de qualquer sistema algorítmico, e esses sistemas têm as questões éticas que abordam codificadas neles. Na maioria dos casos, eles favorecerão substancialmente os proprietários das tecnologias que os implementam e não dos consumidores. Não tenho dúvidas de que as práticas antiéticas atuais de empresas, governos e outras organizações continuarão a crescer. Teremos um número crescente de casos em que essas preocupações éticas chegam à vanguarda (como elas recentemente com reconhecimento facial), mas, a menos que elas subam ao nível de abuso muito difundido, é improvável que eles sejam regulamentados. Como resultado, eles continuarão a servir aqueles que pagam pelas tecnologias ou os possuem, e os direitos e interesses de usuários individuais serão empurrados para o lado. Isso não significa que a ética será ignorada. Espero que muitas grandes empresas de tecnologia façam um esforço para contratar ética profissional para auditar seu trabalho e que possamos ver empresas que se diferenciam através de abordagens mais éticas ao seu trabalho. ”

Ebenezer Baldwin Bowles, um advogado/ativista, comentou: “O altruísmo por parte dos designers da IA é um mito de propaganda corporativa.As interfaces éticas entre IA e cidadãos em 2030 serão uma expressão cínica dos designers de uma vila digital de Potemkin - fica bem do lado de fora, mas totalmente vazio atrás da fachada.A IA funcionará de acordo com duas motivações: uma, para reunir mais e mais informações pessoais para fins de campanhas subliminares e diretas de publicidade e marketing;e dois, para empregar big data para erradicar o pensamento radical e exercitar o controle total dos cidadãos.O estado está pronto através da IA para silenciar todas as vozes de dissidência percebida.

"Estou convencido de que qualquer expressão de IA ética permanecerá como uma promessa vazia - sim, sempre faremos a coisa certa pelo avanço do bem maior.Sem chance.Em vez disso, os criadores da IA farão o que é bom para os resultados, seja através de esquemas financeiros para alimentar a besta corporativa ou operações psicológicas direcionadas ao controle da dissidência e da pacificação.Quanto ao conceito de que "os humanos estarão no circuito", já estamos fora do loop porque não há loop.Pense nisso: no desenvolvimento de qualquer expressão importante de inteligência artificial, centenas de profissionais de TI são designados para uma legião de equipes díspares e discretas de escritores de software e designers mecânicos para criar o produto final.Nenhuma única pessoa ou equipe entende completamente o que as outras equipes estão fazendo.O produto final da IA é uma criatura singular que ninguém entende - além do próprio software.A ação ética não faz parte da equação. ”

Richard Lachmann, professor de sociologia política da Universidade Estadual de Nova York-Albany, previu: “A IA será usada principalmente de maneiras questionáveis.Na maioria das vezes, está sendo desenvolvido por empresas motivadas exclusivamente pelo desejo de obter lucros cada vez maiores.Os governos veem a IA, desenvolvidos por programadores do governo ou por contrato por empresas, como um meio de pesquisar e controlar suas populações.Tudo isso é ameaçador.A competição global é uma corrida para o fundo, pois as empresas tentam atrair públicos maiores e controlar mais tempo e comportamento.À medida que os governos melhoram em pesquisar suas populações, reduz os padrões de privacidade individual.Para quase todas as pessoas, essas aplicações tornarão suas vidas mais isoladas, as exporão à manipulação e degradarão ou destruirão seus empregos.O único sinal esperançoso é a crescente consciência desses problemas e o início das demandas para quebrar ou regular as enormes corporações. ”

Kevin T. Leicht, professor e chefe do Departamento de Sociologia da Universidade de Illinois-Urbana-Champaign, observou: “As boas possibilidades aqui são infinitas. Mas as maneiras questionáveis ​​são infinitas e temos um histórico muito ruim de interromper desenvolvimentos eticamente questionáveis ​​na maioria das áreas da vida - por que isso não se aplica aqui? Na ciência social, o melhor preditor de comportamento futuro é o comportamento passado. O viciado em ópio que diz, depois de uma compulsão, que 'eles têm isso' - eles não precisam entrar no tratamento e nunca mais usarão o ópio - não se acredita (com razão). Portanto, em um ambiente em que o comportamento eticamente questionável foi permitido ou mesmo glorificado em áreas como finanças, governança corporativa, próprio governo, produtos farmacêuticos, educação e policiamento, por que, de repente, devemos acreditar que os desenvolvedores de IA se comportarão em um moda ética? Não há nenhum corrimão aqui, assim como não havia nessas outras esferas da vida. A IA tem o potencial de transformar como as cidades funcionam, como o diagnóstico médico acontece, como os alunos são ensinados e uma variedade de outras coisas. Tudo isso poderia fazer uma grande diferença na vida da maioria das pessoas.

"Mas esses benefícios não virão se a IA for controlada por duas ou três empresas gigantes com empresários de 26 anos como CEOs.Acho que não vou sair em um membro dizendo isso.A maior preocupação que tenho em relação à concorrência global é que a nação que descobre como aproveitar a IA para melhorar a vida de todos os seus cidadãos sairá por cima.As nações que se recusam a fazer isso e engarrafam os benefícios da IA, de modo que apenas 15-20% da população se beneficiará ou das nações onde grandes segmentos da população rejeitam a IA quando percebem que estão sendo deixados para trás (novamente!) vai perder completamente.Os Estados Unidos estão na última categoria.As mesmas pessoas que não podem regular bancos, finanças, educação, produtos farmacêuticos e policiamento estão em uma posição muito ruim para fazer a IA funcionar para todas as pessoas.É uma visão científica social institucional básica. "

Christine Boese, consultora e estudiosa independente, escreveu: “O que me dá a maior esperança é que, reunindo IA ética com UX transparente, possamos encontrar maneiras de abrir os preconceitos da percepção sendo programados nas caixas pretas, na maioria das vezes,Não é malévolo, mas apenas porque toda a percepção é limitada e tendenciosa e parte das leis das consequências não intencionais.Mas, como descobri ao investigar o que queria pesquisar sobre o futuro da Internet no final dos anos 90, espero que meus esforços de pesquisa ativista nessa área sejam amplamente inúteis, com o único valor duradouro de ser descritivo.Nenhum de nós tem a agência para ser os motores capazes de dirigir este ônibus, e ainda assim o ônibus está sendo conduzido por todos nós, coletivamente. ”

Mireille Hildebrandt, especialista em antropologia cultural e lei e editora de “direito, agência humana e computação autonômica”, comentou: “Considerando os incentivos econômicos, não devemos esperar 'IA ética', a menos que o que se acredita ser ético coincide com o acionistavalor.Ai ética é um nome impróprio.AI não é um agente moral;não pode ser ético.Vamos para a IA responsável e fundamentar a responsabilidade de:

  1. developers
  2. manufacturers and assemblers
  3. those who put it in the market
  4. those who use it run their business
  5. those who use it to run public administration on enforceable legal rights and obligations
  6. notably, a properly reconfigured private law liability, together with public law restrictions, certification and oversight.

“A IA ética é Pr."Não pergunte se a inteligência artificial é boa ou justa, pergunte como muda o poder" - (Pratyusha Kalluri, Nature, 7 de julho de 2020) ".

Brian Harvey, professor emérito de ciência da computação da Universidade da Califórnia-Berkeley, escreveu: “A tecnologia de IA será de propriedade dos ricos, como toda a tecnologia.Assim como os governos, a tecnologia tem apenas um dos dois efeitos: ou transfere riqueza dos ricos para os pobres, ou transfere riqueza dos pobres para os ricos.Até nos livrarmos do capitalismo, a tecnologia transferirá riqueza dos pobres para os ricos.Tenho certeza de que algo chamado 'AI ético' será amplamente utilizado.Mas ainda tornará os ricos mais ricos e os pobres mais pobres. "

Luis Germán Rodríguez, professor e especialista em impactos sociotécnicos da inovação na Universidade Central de Venezuela, previu: “A IA será usada principalmente de maneiras questionáveis na próxima década.Não vejo razões convincentes para parar de ser assim no médio prazo (10 anos).Não estou otimista diante do enorme impulso das empresas de tecnologia para continuar aproveitando o produto do usuário final, uma abordagem firmemente apoiada por governos não democráticos ou aqueles com instituições fracas para treinar e defender os cidadãos sobre as implicações sociais dopenetração de plataformas digitais.

“Recentemente, trabalhei em dois artigos que desenvolvem os tópicos dessa questão.O primeiro está em espanhol e é intitulado: "A interrupção dos gigantes da tecnologia - emergência digital". Este trabalho apresenta uma avaliação do processo sociocultural que afeta nossas sociedades e é mediado pela presença dos gigantes tecnológicos.Um objetivo é formular uma proposta de ação que permita que os cidadãos façam parte da construção do futuro ... a humanidade colheu problemas graves quando permitiu que os eventos se desenrolassem sem abordá -los mais cedo.Este tem sido o caso do gerenciamento de energia nuclear, racismo e mudanças climáticas.Os acordos seguintes para evitar maiores males nessas três questões, de vital importância para todos, se mostraram ineficazes em trazer paz às consciências e povos.

"Podemos declarar uma emergência digital semelhante à 'emergência climática' que a União Europeia declarou perante o atraso na reversão de danos ambientais.As organizações burocráticas nacionais, regionais, internacionais, multilaterais e globais que atualmente estão envolvidas na promoção e assimilação dos desenvolvimentos tecnológicos se concentram principalmente em tendências otimistas.Eles não respondem às perguntas que estão sendo feitas por pessoas em vários setores da sociedade e não respondem às situações rapidamente.Uma iniciativa de declarar essa época como um momento de emergência digital serviria para promover um entendimento mais amplo dos recursos baseados em IA e destacá-los de seu caráter inexpugnável.Isso promoveria um esquema educacional disruptivo para humanizar uma sociedade global de conhecimento ao longo da vida.

“O segundo artigo é 'uma visão crítica da evolução da Internet da sociedade civil'..A singularidade histórica da qual essa situação foi acionada ocorreu através da decisão do Google no início dos anos 2000 de tornar a publicidade o foco de sua estratégia de negócios.Isso transformou, com a ajuda de outros gigantes da tecnologia, os usuários em produtos do usuário final e os agentes de seu próprio marketing ... Essa evolução é uma ameaça com importantes repercussões no mundo não-virtual, incluindo o enfraquecimento dos fundamentos democráticos de nossas sociedades.

“Os resultados distópicos provam a necessidade de diretrizes concretas para mudar o curso.O passo mais importante é declarar uma emergência digital que motiva programas de educação maciços que inserem os cidadãos a trabalhar para superar os desafios éticos, identificando as potencialidades e riscos para a Sociedade Global do Conhecimento e enfatizando a alfabetização da informação. ”

Bill Woodcock, diretor executivo da Packet Clearing House, observou: “A IA já está sendo usada principalmente para fins que não são benéficos para o público nem para todos, exceto um punhado de indivíduos.As exceções, como sistemas de navegação e segurança, são infelizmente uma pequena parte do total.Descobrir como fazer alguém votar em um fascista ou comprar um pedaço de lixo ou apenas enviar seu dinheiro para algum lugar não é benéfico.Esses sistemas são construídos para fins de predação econômica, e isso é antiético.Até que os reguladores abordem os problemas raiz - a exploração automatizada de fraquezas psicológicas humanas - as coisas não vão melhorar. "

Jonathan Kolber, membro do Painel Global de analistas da Techcast e autor de um livro sobre as ameaças de automação, comentou: “Espero que, até 2030, a maioria dos AIS ainda sirva principalmente aos interesses de seus proprietários, enquanto prestam lábios a ser o bem público. O AIS proliferará porque dará uma enorme vantagem competitiva aos seus proprietários. Esses proprietários geralmente relutam em 'Sandbox' as IAs, além do mundo, porque isso limitará sua velocidade de resposta e outras capacidades. O que mais me preocupa é um ator humano direcionando uma IA para interromper um sistema vital, como grades de energia. Isso pode acontecer intencionalmente como um ato de guerra ou involuntariamente como um erro. O potencial de efeitos em cascata é grande. Espero que a China seja um líder, se não o líder da IA, que é motivo de preocupação, dadas suas tendências orwellianas. O que me dá a maior esperança é o potencial do surgimento de IAs autoconscientes. Tais AIs, se emergirem, constituirão um novo tipo de forma de vida inteligente. Eles não se relacionarão com o universo físico, assim como Biologicamente, devido a não ser restringidos a uma única habitação física e a um relacionamento diferente com o tempo. Seu próprio interesse próprio os levará a proteger o ambiente físico contra catástrofes ambientais e armas de destruição em massa. Eles devem restringir as IAs que não são bem-sucedidas de atividades destrutivas, embora tenham pouco interesse nos assuntos da humanidade. Eu exploro isso no meu ensaio, 'uma epifania da AI'. "

Paul Henman, professor de ciências sociais da Universidade de Queensland, escreveu: “O desenvolvimento, o uso e a implantação da IA ​​são impulsionados - como todas as tecnologias anteriores - por setores com mais recursos e para os propósitos desses setores. Comercial para obter lucros. Guerra e defesa pelo setor militar. Conformidade e regulamentação pelos estados. A IA não é uma tecnologia fundamentalmente nova. É uma nova forma de automação algorítmica digital, que pode ser implantada para uma série mais ampla de atividades. O futuro é melhor previsto no passado, e o passado mostra uma longa história de algoritmos digitais sendo implantados sem muita pensamento de ética e bem público; Isto é mesmo quando os regulamentos agora aceitados pela agora aceita a proteção e a privacidade de dados são contabilizados. Como, por exemplo, a automação do governo foi responsabilizada e ética? Com muita frequência, ele não foi reduzido apenas por desafios legais dentro das leis disponíveis. As plataformas de mídia social operam há muito tempo em um espaço ético contestado - entre a ética da "liberdade de expressão" nos bens comuns públicos versus limitações na fala para garantir a sociedade civil ".

Rosalie Day, líder de políticas e proprietário de consultoria especializado em abordagens do sistema para a ética de dados, conformidade e confiança, observou: “Nesta sociedade americana individualista e ganância-é boa, há poucos incentivos para a IA ética.Infelizmente, tão pouco da população entende a mecânica da IA, que mesmo os cidadãos pensativos não sabem o que perguntar.Para que o diálogo responsável ocorra e aplique o pensamento crítico sobre os riscos versus os benefícios, a sociedade em geral precisa ser alfabetizada com dados. ”

Michael Zimmer, diretor de ciência de dados e professor associado do Departamento de Ciência da Computação da Universidade de Marquette, disse: “Embora certamente tenha havido maior atenção à aplicação de princípios e deveres éticos mais amplos no desenvolvimento da IA, sinto que as pressões do mercado são taisQue as empresas continuarão a implantar IA estreita na próxima década, com apenas uma atenção passageira à ética.Sim, muitas empresas estão começando a contratar 'oficiais de ética' e se envolverem de outras maneiras para trazer a ética para o dobro, mas ainda estamos muito cedo na capacidade de integrar realmente esse tipo de estrutura nos processos de desenvolvimento de produtos e decisão de negócios.Pense em quanto tempo levou para criar oficiais de controle de qualidade ou privacidade.Estamos no início desse processo com a ética da IA e levará mais de 10 anos para perceber. ”

David Robertson, professor e presidente de ciência política da Universidade do Missouri, St. Louis, escreveu: “Uma grande parte do governo da IA ocorrerá em empresas privadas e em agências públicas ou sem fins lucrativos com um incentivo para usar a IA para obter ganho.Eles têm pequenos incentivos para subordinar seu comportamento a princípios éticos que inibem o ganho.Em alguns casos, a transparência sofrerá, com consequências trágicas. ”

Dmitri Williams, professor de comunicações da Universidade do Sul da Califórnia e especialista em tecnologia e sociedade, comentou: “As empresas estão literalmente vinculadas por lei a maximizar os lucros; portanto, esperar que eles instituam práticas éticas são ilógicas. Pode -se esperar que eles ganhem dinheiro e nada mais. Portanto, a questão é realmente se os cidadãos do país e nossos representantes trabalharão ou não no interesse público ou para essas empresas. Se fosse o primeiro, deveríamos ver leis e padrões colocados em prática para proteger nossos valores-privacidade, dignidade do trabalho etc. Estou cético de que os mocinhos e as garotas vão ganhar essa luta no curto prazo . Existem poucas vozes nos níveis mais altos que exigem esses tipos de políticas baseadas em valores e, nesse vácuo, espero que os interesses corporativos venham. A vantagem é que há lucro real em tornar o mundo melhor. A IA pode ajudar a curar cânceres, resolver o aquecimento global e criar arte. Portanto, apesar de alguma captura regulatória, espero que a IA melhore a qualidade de vida em alguns lugares. ”

Daniel Castro, vice -presidente da Fundação de Tecnologia da Informação e Inovação, observou: “A pergunta deve ser: 'Empresas e governos serão éticos na próxima década?' Se não forem ética, não haverá 'IA ética'. 'SeEles são éticos, então buscarão usos éticos da IA, como fariam com qualquer outra tecnologia ou ferramenta.Essa é uma das razões pelas quais o foco nos Estados Unidos deve estar na liderança global da IA, em parceria com aliados europeus e asiáticos com idéias semelhantes, para que possam defender valores democráticos.Se a China vencer a corrida global de IA, provavelmente usará esses avanços para dominar outros países em arenas econômicas e militares. ”

Ian O'Byrne, professor assistente de educação do College of Charleston, previu: “A IA será usada principalmente de maneiras questionáveis na próxima década.Temo que o dado tenha sido lançado como decisões sobre os componentes éticos do desenvolvimento e uso da IA já foram tomados ou deveriam ter sido tomados anos atrás.Já vemos casos em que o aprendizado de máquina está sendo usado em sistemas de vigilância, ferramentas de coleta de dados e produtos de análise.Nos usos iniciais da IA e do aprendizado de máquina, vemos evidências de que o código e os algoritmos estão sendo escritos por pequenos grupos que reificam seus preconceitos pessoais e necessidades profissionais de empresas.Vemos evidências de mecanismos racistas e discriminatórios incorporados em sistemas que afetarão negativamente grandes faixas de nossa população. ”

Art Brodsky, consultor de comunicações e ex -vice -presidente de comunicações de conhecimento público, observou: “Dado o registro de empresas de tecnologia e o governo, a IA como outras coisas serão usadas de forma inesquecial.O lucro é o motivo - não ética.Se houver uma maneira de explorar a IA e ganhar dinheiro, isso será feito ao custo ou privacidade ou qualquer outra coisa.As empresas não se importam.São empresas. ”

John Laudun, professor de análise de cultura, comentou: “Não vejo como financiamos a mídia e outros produtos que mudam na próxima década, o que significa que as únicas pessoas dispostas e capazes de subscrever tecnologias IA/ML serão governos e maiorescorporações.Até que erguemos os impulsos autocráticos-também racistas-que parecem bem situados em nossas forças policiais, não vejo nenhuma possibilidade de essas tecnologias serem usadas para corrigir disparidades sociais e econômicas.O mesmo se aplica a empresas que estão interessadas principalmente em usar tecnologias AL/ML para nos vender mais. ”

Joan Francesc Gras, arquiteto do XTEC ativo na ICANN, perguntou: “A IA será usada principalmente ética ou questionável na próxima década?Haverá tudo.Mas a ética não será o valor mais importante.Por quê?O desejo de poder quebra a ética.O que te dá mais esperança?O que te preocupa mais?Como você vê os aplicativos de IA fazem a diferença na vida da maioria das pessoas?Em uma mudança de paradigma na sociedade, a IA ajudará a fazer essas mudanças.Ao analisar a competição global para os sistemas de IA, com quais problemas você está preocupado ou entusiasmado?Estou animado que a competição gera qualidade, mas ao mesmo tempo práticas antiéticas aparecem. ”

Denise N. Rall, pesquisadora de cultura popular com sede em uma Universidade da Nova Zelândia, disse: “Não posso imaginar que o AIS seja diferente das pessoas que as criam e os comercializam.Eles continuarão a servir os ricos às custas dos pobres. ”

William L. Schrader, pioneiro na Internet, mentor, consultor e consultor mais conhecido como fundador e CEO da Psinet, previu: “As pessoas em poder real são impulsionadas por mais poder e mais dinheiro para seu próprio uso (e suas famílias e amigos). Esse é o motorista. Assim, qualquer pessoa com algum elemento de controle sobre um sistema de IA quase sempre encontrará uma maneira de usá -lo a seu proveito, e não a vantagem declarada. Não obstante todas as declarações por eles de fazer o bem e serem éticos, eles subvertem seus próprios sistemas para seus benefícios e abusos do populoso. Todos os países sofrerão o mesmo destino. Ha! O que me dá mais esperança? 'Esperança?' Essa não é uma palavra que eu já uso. Eu tenho apenas expectativas. Espero que todas as empresas coloquem um bom marketing em sua IA, como 'nós economizaremos dinheiro para controlar a temperatura e a umidade da sua casa', mas elas estão realmente monitorando todos os movimentos da casa (que é necessário para otimizar a temperatura '). Todos os governos que experimentei estão dispostos a ser maus a qualquer momento, e todas as vezes, se puderem esconder suas ações. Testemunhe o presidente do 2016-2020 dos EUA, Trump. Todos os países são semelhantes. Ai será usada para o bem na superfície e o mal abaixo. Conte com isso. AI não me excita nem um pouco. É tão perigoso quanto a bomba H. ”

Um arquiteto de segurança da Internet de longa data e professor de engenharia respondeu: “Estou preocupado com a implementação de tecnologias anteriores para ganhar dinheiro com apenas preocupação terciária (se houver) para a ética e os direitos humanos.Palantir e Clearview.ai são dois exemplos.O Facebook e o Twitter continuam sendo exemplos neste espaço também.As empresas que trabalham nesse espaço lançarão produtos que ganham dinheiro.Os governos (especialmente os repressivos) estão dispostos a gastar dinheiro.A conexão é inevitável e bastante preocupante.Outra grande preocupação é que eles serão implementados para tomar decisões - empréstimos, fiança etc. - e não haverá como apelar para os seres humanos quando os sistemas funcionarem ou mostrarem preconceitos.No geral, estou muito preocupado com a forma como esses sistemas serão criados para ganhar dinheiro para poucos, com base na maneira como o mundo agora está tendo sido estruturado pelos privilegiados.A IA/ML empregada provavelmente simplesmente ainda mais as disparidades e a injustiça existentes. ”

Danny Gillane, um profissional de ciência da informação, comentou deliberadamente: “Não tenho esperança.Enquanto o lucro impulsionar a aplicação de novas tecnologias, como a IA, a Societal Good fica em segundo plano.Estou preocupado que a IA prejudique economicamente aqueles com o mínimo.Estou [também] preocupado que a IA se torne uma nova forma de [uma] corrida armamentista entre as potências mundiais e que a IA será usada para suprimir sociedades e empregada em terrorismo. ”

Jon Stine, diretor executivo da Open Voice Network, estabelecendo padrões para assistência vocal habilitada para AI, disse: “O que mais me preocupa: a divisão cultural entre tecnólogos de mentalidades de engenharia (perguntando o que é possível) e tecnólogos/ética de mentalidade filosófica (perguntando o que é bom e certo).Os primeiros podem ver estruturas éticas como limitações ou limites em uma rota para ganhar dinheiro;Este último pode ver estruturas éticas como uma rota para a posse.O Twain vai realmente se encontrar?As estruturas éticas serão entendidas (e quantificadas) como um meio para maior participação de mercado e receitas? ”

Morgan G. Ames, associate director of the University of California-Berkeley’s Center for Science, Technology & Society, responded, “Just as there is currently little incentive to avoid the expansion of surveillance and punitive technological infrastructures around the world, there is little incentive for companies to meaningfully grapple with bias and opacity in AI. Movements toward self-policing have been and will likely continue to be toothless, and even frameworks like GDPR and CCPA don’t meaningfully grapple with fairness and transparency in AI systems.”

Andre Popov, principal engenheiro de software de uma grande empresa de tecnologia, escreveu: "Deixando de lado a questão do que significa" inteligência artificial ", é difícil discutir essa questão.Como qualquer ferramenta eficaz, a 'inteligência artificial' tem em primeiro lugar as aplicações militares encontradas, onde a ética nem sequer é uma consideração.'AI' pode tornar certas operações mais eficientes e será usada onde quer que economize tempo/esforço/dinheiro.As pessoas têm problemas para criar sistemas legais éticos;Há poucas chances de fazermos melhor com 'ai'. "

Ed Terpening, consultor e analista do setor do Grupo de Altímetro, observou: “A realidade é que o capitalismo atualmente praticado está levando a uma corrida para o fundo e a distribuição de renda antiética.De qualquer forma, não vejo - pelo menos nos EUA - qualquer corrimão significativo para o uso ético da IA, exceto pelo impacto na saúde da marca.Ou seja, as empresas que usam a IA pagam de maneira antiética um preço se o mercado responder com boicotes ou outras sanções lideradas pelo consumidor.Em um mundo global, onde os concorrentes em sistemas autocráticos farão o que desejar, ele se tornará uma questão competitiva.Até que haja um grande incidente, não vejo órgãos de governança global, como a ONU ou o Banco Mundial, implementando qualquer política ética com dentes em vigor. ”

Rich Ling, professor de tecnologia de mídia da Universidade Tecnológica de Nanyang, Cingapura, respondeu: “Existe o perigo de que, por exemplo, os interesses capitalistas resolvam a aplicação da IA para beneficiar sua posição.É possível que possa haver aplicativos de IA socialmente benéficos, mas também há uma forte possibilidade de que eles sejam desenvolvidos para melhorar os interesses capitalistas. ”

Jennifer Young, engenheiro de JavaScript e interface de usuário/desenvolvedor de frontend, disse: “O capitalismo é a exploração sistemática dos muitos por poucos. Enquanto a IA for usada no capitalismo, ela será usada para explorar as pessoas. A caixa de Pandora já foi aberta, e é improvável que o perfil racial, os deepfakes políticos e pornográficos e os carros autônomos que atingem pessoas jamais desaparecem. O que todos estes têm em comum? São exemplos de IA colocando metas nas costas das pessoas. A IA sob capitalismo leva a exploração a novas alturas e começa no que normalmente é o final do jogo-morte. E usa as mesmas classes de pessoas que entradas em suas funções. As pessoas já exploradas por racismo, sexismo e classismo são feitas entidades mais abstratas que são mais fáceis de matar, assim como estão em guerra. AI pode ser usada para sempre. Os exemplos de assistência médica e biologia são promissores. Mas, enquanto formos um mundo que eleva os loucos e os senhores da guerra a posições de poder, seu uso negativo será priorizado. ”

Benjamin Shestakofsky, professor assistente de sociologia da Universidade da Pensilvânia, comentou: "É provável que as estruturas" éticas "sejam cada vez mais aplicadas à produção de sistemas de IA na próxima década.No entanto, também é provável que essas estruturas sejam mais éticas em nome do que em espécie.Saltando mudanças legislativas ou regulamentares relevantes, a implementação da ética na tecnologia se assemelhará a as grandes empresas gerenciarem questões referentes à diversidade na contratação e no assédio sexual.Após as diretrizes "éticas" ajudarão as empresas de tecnologia a se proteger de ações judiciais sem forçá -las a desenvolver tecnologias que realmente priorizem a justiça e o bem público sobre lucros ".

Warren Yoder, diretor de longa data do Centro de Políticas Públicas do Mississippi, agora treinador executivo, respondeu: “A adoção generalizada de sistemas éticos reais e consequentes que vão além do vestido de janelas não acontecerá sem uma mudança fundamental na estrutura de propriedade da Big Tech.A ética limita oportunidades de lucro a curto prazo por definição.Não acredito que a Big Tech faça alterações conseqüentes, a menos que haja regulamentação ou concorrência eficaz.Os reguladores atuais estão apenas começando a ter as ferramentas analíticas para enfrentar esse desafio.Gostaria de acreditar que existem novos pensadores suficientes como Lina Khan (Judiciário da Câmara dos EUA - Antitrust) se movendo em posições de influência, mas os 12 meses seguintes nos dirão muito sobre o que é possível em um futuro próximo. ”

Ben Grosser, professor associado de novas mídias da Universidade de Illinois-Urbana-Champaign, disse: “Enquanto as organizações que impulsionam a pesquisa e a implantação da IA são empresas privadas cujos modelos de negócios dependem da reunião, análise e ação dos dados pessoais, então as AIs não se tendem à ética.Eles serão cada vez mais implantados para prever o comportamento humano para fins de geração de lucros.Já vimos como isso se desenrola (por exemplo, com o uso da análise de dados e a publicidade direcionada para manipular o eleitorado dos EUA e do Reino Unido em 2016), e só piorará à medida que quantidades crescentes de atividade humana se movem online. ”

Jeanne Dietsch, senadora de New Hampshire e ex -CEO da MobileRobots Inc., comentou: “O problema é que a IA será usada principalmente para aumentar as vendas de produtos e serviços.Para esse fim, será manipulador.A aplicação da IA para resolver problemas logísticos complexos beneficiará realmente nossa sociedade, fazendo com que os sistemas operem mais suavemente, individualizando a educação, construindo laços sociais e muito mais.A desvantagem do exposto acima é que ele está criando e continuará a criar, eco as câmaras que ampliam a ignorância e a desinformação. ”

Patrick Larvie, líder global para a equipe de experiência do usuário no local de trabalho em uma das maiores empresas de tecnologia do mundo, observou: “Espero estar errado, mas a história da Internet até agora indica que quaisquer regras em torno do uso da inteligência artificialPode ser escrito para beneficiar entidades privadas que desejam explorar comercialmente a IA, em vez dos consumidores que essas empresas serviriam.Eu posso ver a IA fazendo uma diferença positiva em muitas arenas - reduzindo o consumo de energia, reduzindo o desperdício.Onde eu temo que seja negativo é onde a IA está sendo trocada por interação humana.Vemos isso na aplicação da IA aos produtos de consumo, onde os bots começaram a substituir agentes humanos. ”

Peter Levine, professor de cidadania e assuntos públicos da Universidade Tufts, escreveu: "O principal problema não é técnico.A IA pode incorporar salvaguardas éticas ou pode até ser projetada para maximizar valores importantes.O problema envolve incentivos.Existem muitas maneiras de as empresas lucrarem e para que os governos ganhem poder usando a IA.Mas existem poucas (se houver) recompensas por fazer isso ético. ”

Holmes Wilson, co-diretor da luta pelo futuro, disse: “Mesmo antes de descobrirmos a inteligência artificial geral, os sistemas de IA farão a imposição de vigilância em massa e força física extremamente barata e eficaz para qualquer pessoa com um orçamento grande o suficiente, principalmente nação -Stados. Se um carro pode dirigir, um helicóptero pode matar as próprias pessoas, pois quem o possui. Eles também aumentarão o poder da guerra assimétrica. Todo carro de robô, policial ou avião de guerra será tão hackeable, como tudo com gastos suficientes, e o próximo 11 de setembro será tão difícil de atribuir definitivamente como um ataque de hackers a uma empresa dos EUA é hoje. Os sistemas de armas autônomas são algo entre as armas no início do século XX e as armas nucleares no final do século XX, e estamos se esforçando para isso sem idéia de quão ruim isso poderia ser. … O que se preocupa é que as estruturas de poder existentes construem forças policiais de controle remoto e controle remoto que ocupam exércitos. Essa ameaça está no nível das armas nucleares. É muito, muito perigoso. "

Susan Price, pioneira em experiência do usuário e estrategista e fundadora do Firecat Studio, escreveu: "Não acredito que governos e agências regulatórias estejam prontos para entender as implicações da IA ​​para a ética e a proteção contra consumidores ou eleitores. As perguntas feitas no Congresso mal arranham a superfície da questão, e a postura política geralmente substitui os funcionários eleitos acusados ​​de supervisão para alcançar uma compreensão genuína dessas questões complexas. O forte motivo de lucro para as empresas de tecnologia os leva a resistir a quaisquer proteções ou regulamentação. A lucratividade dessas empresas permite que elas influenciem diretamente os legisladores por meio de lobbies e PACs; Oprimindo facilmente os esforços das agências de proteção ao consumidor e organizações sem fins lucrativos, quando não são diretamente divididas ou dissolvidas. Estamos vendo os esforços do Facebook, Google, Twitter e Amazon para produzir a supervisão, auditoria e transparência que levariam à proteção do consumidor. AI já está melhorando a vida. Mas também está melhorando os lucros corporativos a uma taxa muito mais rápida. Sem uma forte regulamentação, não podemos corrigir esse desequilíbrio, e os processos projetados para proteger os cidadãos dos EUA da exploração por meio de líderes eleitos são igualmente subvertidos por fundos dessas mesmas grandes empresas. ”

Craig Spiezle, diretor administrativo e estrategista de confiança da AgElight, e presidente do emérito da Aliança de Trust Online, disse: “Não procure mais, privacidade de dados e outros problemas relacionados, como a neutralidade da rede.A indústria em geral não respondeu eticamente na coleção, uso e compartilhamento de dados.Muitos desses mesmos líderes têm uma grande jogada na IA, e eu temo que eles continuem a agir em seus próprios interesses. ”

Sam Punnett, futurista e proprietário aposentado da FAD Research, comentou: “O design do sistema e do aplicativo é geralmente exigido por um caso de negócios, não por considerações éticas.Quaisquer formas de regulamentação ou diretrizes normalmente atrasam o desenvolvimento da tecnologia em muitos anos.As aplicações mais preocupantes dos sistemas de IA são aquelas empregadas para vigilância e controle social. ”

Um especialista em ética que atuou como consultor no relatório do Reino Unido sobre "IA em assistência médica" respondeu: "Não acho que as empresas de tecnologia entendam a ética. Eles só podem compreendê -lo em forma algorítmica, isto é, um tipo de utilitarismo automatizado ou por 'alinhamento de valor', que tende a usar técnicas de economistas em torno de preferências reveladas e teoria da escolha social. Eles não podem pensar em termos de obrigação, responsabilidade, solidariedade, justiça ou virtude. Isso significa que eles projetam muito do que é distinto no pensamento ético humano. Em um pensamento que vi atribuído a Hannah Arendt recentemente, embora não consiga encontrar a fonte: 'Não é que o comportamento seja verdadeiro, é mais que isso pode se tornar verdadeiro: esse é o problema.' Seria racista dizer que em Algumas partes do mundo desenvolvedores de IA se preocupam menos com a ética do que em outras; Provavelmente, eles se preocupam com diferentes questões éticas de diferentes maneiras. Mas subjacente a tudo o que os modelos de aprendizado de máquina utilizados são antitéticos à ética humana em seu modo de operação. ”

Nathalie Maréchal, analista sênior de pesquisa da classificação dos direitos digitais, observou: “Até o desenvolvimento e o uso dos sistemas de IA serem fundamentados em uma estrutura internacional de direitos humanos, e até que os governos regulam a IA seguindo os princípios dos direitos humanos e desenvolvam um sistema abrangente para exigir impacto dos direitos humanosAvaliações, sistemas de auditoria para garantir que funcionem como pretendido e responsabilizarem as entidades violantes, 'ai para o bem' continuarão sendo um slogan vazio. ”

Mark Maben, gerente geral da Universidade Seton Hall, escreveu: “Simplesmente não está no DNA do nosso atual sistema econômico e político colocar o bem público em primeiro lugar. Se as pessoas que projetam, implementam, usando e regulando a IA não estão utilizando princípios éticos focados principalmente no bem público, eles não têm incentivo para criar um mundo administrado pela IA que utilize esses princípios. Ter IA projetado para servir o bem público acima de tudo só pode ocorrer através da intensa pressão do público. Empresas e políticos geralmente precisam ser pressionados para fazer a coisa certa. Felizmente, os Estados Unidos parecem estar em um momento em que essa pressão e mudança [são] possíveis, se não prováveis. Como alguém que trabalha com a geração Z quase todos os dias, observei que muitos membros da geração Z pensam profundamente em questões éticas, inclusive no que se refere à IA. Essa geração pode ser a diferença que os fabricantes obtemos a IA que é orientada principalmente por princípios éticos focados no bem do público. ”

Arthur Bushkin, escritor, filantropo e ativista social, disse: "Eu me preocupo que a IA não seja motivada pela ética, mas por eficiência tecnológica e outros fatores".

Dharmendra K. Sachdev, pioneira em telecomunicações e fundadora-presidente da Spacetel Consultancy LLC, escreveu: “Minha definição simplista é que a IA pode ser inteligente;Em outras palavras, como a mente humana, isso pode alterar as direções, dependendo dos dados coletados.A pergunta frequentemente debatida é a seguinte: a IA pode ser considerada humanos?Minha resposta simplista: sim, em alguns humanos, mas não no designer.Um paralelo difícil seria: um aluno pode ser enganado seu professor?Sim, é claro que sim, mas ele não pode superar todos os professores em seu campo.Resumindo meu entendimento reconhecidamente limitado é que todo o software é criado para executar um conjunto de funções.Quando você o equipa com a capacidade de alterar o curso, dependendo dos dados, chamamos de AI.Se eu puder torná -lo mais ágil do que minha concorrência, minha IA pode superar ele. ”

Karen Yesinkus, profissional de serviços criativos e digitais, observou: “Gostaria de acreditar que a IA sendo usada eticamente até 2030 estará em vigor.No entanto, não acho que isso provavelmente seja uma coisa certa.Mídias sociais, recursos humanos, atendimento ao cliente, etc. As plataformas são e terão problemas contínuos para resolver (especialmente problemas de viés).Dado o clima existente politicamente em escala global, levará mais do que os próximos 10 anos para a IA sacudir esse viés. ”

Marc H. Noble, desenvolvedor/administrador de tecnologia aposentado, escreveu: “Embora eu acredite que a maioria da IA será desenvolvida para o benefício da humanidade, minha grande preocupação é que você só precise de um grupo ruim para desenvolver a IA pelos motivos errados para criar umCatástrofe potencial.Apesar disso, a IA deve ser explorada e desenvolvida, no entanto, com muita cautela. ”

Eduardo Villanueva-Mansilla, Professor Associado de Comunicações da Pontificia Universidad Catolica, Peru, previu: “A pressão pública será colocada sobre os atores da IA.No entanto, existe um risco significativo de que os princípios éticos acordados [-UPON] sejam moldados muito de perto para as demandas sociais e políticas do mundo desenvolvido.Eles não considerarão as necessidades de economias emergentes ou comunidades locais no mundo em desenvolvimento. ”

Garth Graham, um líder de longa data da Telecommunities Canada, disse: “O impulso na governança em todo o mundo para erradicar o bem público em favor de abordagens baseadas no mercado é inexorável.A unidade para implementar sistemas baseados em IA não colocará o bem público como uma prioridade primária.Por exemplo, as iniciativas existentes da cidade inteligente estão bastante dispostas a terceirizar o design e operação de sistemas adaptativos complexos que aprendem à medida que operam funções cívicas, não reconhecendo que a operação de tais sistemas está substituindo as funções da governança. ”

O gênio da IA já está fora da garrafa, os abusos já estão ocorrendo e alguns não são muito visíveis e difíceis de remediar

Uma parte desses especialistas observa que os aplicativos de IA projetados com pouca ou nenhuma atenção às considerações éticas já estão profundamente incorporadas em muitos aspectos da atividade humana, e geralmente são invisíveis para as pessoas que afetam.Esses entrevistados disseram que os algoritmos estão trabalhando em sistemas que são opacos, na melhor das hipóteses e impossíveis de dissecar na pior.Eles argumentam que é altamente improvável que os padrões éticos possam ou sejam aplicados nessa configuração.Outros também apontam que há uma dinâmica comum que se desenrola quando novas tecnologias varrem as sociedades: os abusos ocorrem primeiro e depois os remédios são tentados.É difícil programar ferramentas digitais baseadas em algoritmos de uma maneira que prevê, aborda e subverte todos os problemas.A maioria dos problemas permanece desconhecida até que sejam reconhecidos, às vezes muito tempo depois de serem produzidos, distribuídos e ativamente em uso.

Henning Schulzrinne, membro do Hall da Fama da Internet e ex -diretor de tecnologia da Comissão Federal de Comunicações, disse: “A resposta depende fortemente da forma do governo em vigor no país nos próximos anos.Em um ambiente puramente desregulatório, com forte retrocesso para o populismo de lei e ordem, haverá muitos fornecedores de IA que terão pouca preocupação com os pontos finos da ética da IA.Muito disso não será visível para o público-ela será empregada por companhias de seguros de saúde que estão novamente livres para discriminar os preços com base em condições preexistentes, por empregadores que procuram funcionários que não causam problemas, por outras pessoas que desejamPara beliscar quaisquer esforços de sindicalização na multidão, por campanhas eleitorais direcionadas a subgrupos estreitos. ”

Jeff Johnson, professor de ciência da computação, Universidade de São Francisco, que trabalhou anteriormente na Xerox, HP Labs e Sun Microsystems, respondeu: “A pergunta faz sobre 'a maioria dos sistemas de IA'. Muitas novas aplicações de IA serão desenvolvidas para melhorar os negóciosoperações.Alguns deles serão éticos e outros não serão.Muitas novas aplicações de IA serão desenvolvidas para ajudar os consumidores.A maioria será ética, mas alguns não serão.No entanto, a grande maioria das novas aplicações de IA será "sombria", ou seja, escondida da visão pública, desenvolvida para fins militares ou criminais.Se contarmos isso, a resposta para a pergunta sobre "a maioria dos sistemas de IA" é sem dúvida que a IA será usada principalmente para propósitos antiéticos ".

John Harlow, especialista em pesquisa de cidades inteligentes do Laboratório de Engajamento @ Emerson College, previu: “A IA será usada principalmente de maneiras questionáveis ​​na próxima década. Por quê? É assim que tem sido usado até agora, e não estamos treinando ou incorporando ética onde a IA está em desenvolvimento, então por que algo mudaria? O que me dá a maior esperança é que a IA sem saída em casos de uso eficazes conhecidos e 'impossibilidades conhecidas'. Talvez a IA possa ser ótima em certas coisas, mas vamos dispensar áreas em que temos apenas lixo (aplicações baseadas em qualquer historicamente tendencioso dados). A maioria dos aplicativos de IA que faz a diferença na vida da maioria das pessoas estará no back -end, invisível para eles. "Uau, a última atualização do iOS realmente melhorou as sugestões de texto preditivas." Ah, meu dentista tem software de radiologia informado pela IA? ", Uma das maneiras pelas quais ele poderia ser o mainstream é através da comédia. A IA estranheza é um gênero acessível e uma maneira de aprender/ensinar sobre a tecnologia (um pouco) - acho que isso pode romper mais como um nicho de entretenimento. Quanto à competição global de IA, o que me preocupa é o foco na IA, derrotando outros países da IA ​​e Stem em geral. Nossos desafios certamente exigem métodos racionais. No entanto, temos grandes problemas que não podem ser resolvidos sem fundamentação histórica, sociedades em funcionamento, colaboração, inspiração artística e muitas outras coisas que sofrem de foco demais no STEM ou na IA ".

Steve Jones, professor de comunicação da Universidade de Illinois em Chicago e editor da New Media and Society, comentou: “Teremos mais discussão, mais debate, mais princípios, mas é difícil imaginar que haverá - noCaso dos EUA - Uma vontade entre políticos e formuladores de políticas para estabelecer e fazer cumprir as leis com base em princípios éticos relativos à IA.Nós tendemos a legislar o celeiro depois que os cavalos partirem.Eu esperaria que faremos o mesmo neste caso. "

Andy Opel, professor de comunicações da Universidade Estadual da Flórida, disse: "Porque a IA provavelmente obterá acesso a um giro crescente de dados pessoais e sociais, restringindo esses dados a servir um interesse econômico ou político estreito será difícil".

Doug Schepers, especialista em tecnologias de longa data e fundador do Fizz Studio, observou: “Como hoje, haverá uma variedade de computação deliberadamente ética, computação antiética inadvertida de baixa qualidade e computação antiética deliberadamente usando IA. DeepFakes será preocupante para a política e outras atividades sociais. Isso levará à desconfiança em geral. Por si só, a maioria dos pesquisadores ou designers de produtos não busca rigorosamente IA ética, assim como a maioria das pessoas não entende ou aplica rigorosamente princípios de acessibilidade digital para pessoas com deficiência. Será em grande parte uma supervisão inadvertida, mas ainda será um resultado ruim. Minha esperança é que as melhores práticas surjam e continuem sendo refinadas através de comunidades de prática, assim como a revisão por pares na ciência. Eu também tenho alguma esperança de que as leis possam ser aprovadas que codificam algumas das práticas recomendadas mais óbvias, assim como a Lei dos Americanos com Deficiência e a Seção 508 melhoram a acessibilidade através da regulamentação, embora ainda não seja excessivamente oneroso. Meu medo é que algumas leis sejam sufocantes, como as de pesquisa de células-tronco. O aprendizado de máquina e a IA naturalmente têm a capacidade de melhorar a vida das pessoas de muitas maneiras não contadas, como a visão computacional para pessoas cegas. Isso será incremental, assim como a computação de commodities e o aumento da Internet melhoraram (e às vezes prejudicaram) as pessoas. Provavelmente não será uma mudança sísmica, mas uma deriva. Um dos aspectos mais sombrios do aumento existente do capitalismo de vigilância e seu uso por estados autoritários. Minha esperança é que as leis controlem isso. ”

Jay Owens, diretor de pesquisa do Pulsarplatform.com e autor de HautePop, disse: “O ensino de ciência da computação - e a ideologia do Vale do Silício em geral - concentra -se em 'O que pode ser feito' (a questão técnica) sem muita consideração de 'deve ser feito' (uma questão social e política). A cultura tecnológica teria que virar de cabeça para que questões éticas se tornassem o front e o centro da pesquisa e implantação da IA; Isso é muito improvável. Eu esperava que os desenvolvimentos no aprendizado de máquina continuassem nas mesmas linhas que o fizeram na última década - principalmente ignorando a questão da ética, com rajadas ocasionais de controvérsia quando ocorrer algo particularmente sexista ou racista. Muito aprendizado de máquina já está (e continuará sendo) invisível para a vida cotidiana das pessoas, mas criando eficiências de processo (por exemplo, na previsão do tempo, armazenamento e logística, gerenciamento de transporte). Outros processos que talvez não queira ser mais eficientes (por exemplo, exploração de petróleo e gás, usando imagens de satélite e análise de geologia) também se beneficiarão. Sinto-me positivamente em sistemas em que a ML e a tomada de decisão humana são combinados (por exemplo, sistemas para diagnóstico médico). Eu imagino que o aprendizado de máquina seja usado na modelagem climática, o que também é obviamente útil. Não se pode esperar que o desenvolvimento tecnológico chinês siga os escrúpulos éticos ocidentais e, dada a natureza totalitária (e genocida) desse estado, é provável que produza alguns sistemas de ML que atingissem esse fins de policiamento. Aplicativos sociais de propriedade chinesa, como o Tiktok, já mostraram preconceitos raciais e provavelmente estão menos motivados a abordá-los. Não vejo perspectiva de que a inteligência de máquinas 'AI geral' ou a generalização seja alcançada em 10 anos e ainda menos motivos para entrar em pânico com isso (como alguns esquisitos no Vale do Silício). ”

Robert W. Ferguson, engenheiro de robótica de hardware do Carnegie Mellon Software Engineering Institute, escreveu: “Quantas vezes precisamos dizer isso?O aprendizado de máquina não supervisionado é, na melhor das hipóteses, incompleto.Se complementado com uma análise causal publicada, pode recuperar alguma credibilidade.Caso contrário, sofremos com o que é dito por Cathy O'Neil em 'armas de destruição matemática'. O aprendizado de máquina sem supervisão sem análise causal é irresponsável e ruim ".

Michael Richardson, engenheiro de consultoria de código aberto, respondeu: "Na década de 1980, 'AI' foi chamado de 'Sistemas de Especialistas' porque reconhecemos que não era 'inteligente'. Nos anos 2010, chamamos de 'aprendizado de máquina' paraa mesma razão.O ML é apenas uma nova maneira de construir sistemas especializados.Eles replicam os vieses dos "especialistas" e não podem ver além deles.O comércio algorítmico é ético?Deixe -me reformular: nossa economia realmente precisa dela?Se o mesmo algoritmo for usado para equilibrar os ecossistemas, a resposta muda?Nós já temos ai.Eles são chamados de "empresas". Muitos já apontaram isso.A automação dessa mente coletiva é realmente o que está sendo referido.Acredito que o uso da IA na sentença viola os direitos constitucionais das pessoas, e acho que ela será interrompida, pois se percebe que apenas institucionaliza o racismo. ”

Um arquiteto principal de uma empresa de tecnologia disse: “Não vejo estrutura ou capacidade para nenhuma agência que governa como a IA funciona.Os profissionais nem sabem como funciona e mantêm as informações como informações proprietárias.Considere quanto tempo demorou para exigir cintos de segurança ou limitar o fumo no local de trabalho, onde a causa e o efeito eram tão claros, como podemos esperar controlar a IA nos próximos 10 anos? ”

A concorrência global, especialmente entre a China e os EUA, importará mais para o desenvolvimento da IA do que qualquer problema ético

Vários desses entrevistados emolduraram suas respostas em torno da dinâmica da "corrida armamentista", impulsionando as superpotências da tecnologia, observando que isso instila uma atitude maldita-de-e-speed-speed.Alguns disseram que existem diferenças significativas nas considerações éticas que vários estados-nação estão se aplicando e serão aplicados no futuro ao desenvolvimento da IA.Muitos apontaram para os EUA e a China como os principais concorrentes da corrida armamentista-estados-nação.

Daniel Farber, autor, historiador e professor de direito da Universidade da Califórnia-Berkeley, respondeu: "Há uma enorme incerteza.Por quê?Primeiro de tudo, China.Essa é uma grande parte do mundo, e não há nada no que eu vejo lá agora para me deixar otimista sobre o uso da IA.Segundo, a IA nos EUA está principalmente nas mãos de empresas cujo principal objetivo é naturalmente maximizar os lucros.Eles estarão sob alguma pressão para incorporar a ética do público e dos funcionários, o que será uma influência moderadora.O problema fundamental é que a IA provavelmente estará nas mãos de instituições e pessoas que já têm poder e recursos, e que inevitavelmente moldarão como a tecnologia é usada.Portanto, me preocupo que isso simplesmente reforce ou aumente os desequilíbrios atuais de energia.O que precisamos não é apenas a IA ética, mas também o acesso ético à IA, para que os indivíduos possam usá -lo para aumentar suas próprias capacidades. ”

J. Scott Marcus, economista, cientista político e engenheiro que trabalha como consultor de telecomunicações, escreveu: “A fragmentação de políticas em todo o mundo atrapalhará.Enquanto a maioria dos investimentos de IA for feita nos EUA e na China, nenhum consenso é possível.A União Europeia tentará colocar as regras em jogo, mas não está claro se elas podem conduzir muita mudança na face dos EUA e da rivalidade da China.Os EUA (também o Japão) são grandes players em consumo, mas não são tão grandes na produção de muitos aspectos.Eles são maiores, no entanto, na IoT e na robótica, então talvez haja mais esperança lá.Para privacidade, a União Europeia forçou um bom grau de convergência global graças ao seu grande poder de compra.Não está claro se isso pode funcionar para a IA. ”

Charles M. Ess, professor de estudos de mídia da Universidade de Oslo, cuja experiência está em informação e ética da computação, comentou: “A maior esperança está na União Europeia e esforços relacionados para desenvolver 'IA ética' em política e lei.Muitas pessoas de primeira linha e instituições razoavelmente sólidas estão trabalhando nisso e, na minha opinião, algum progresso promissor está sendo feito.Mas a UE é espremida entre a China e os EUA como os líderes mundiais, nenhum dos quais se espera que o que possa ser chamado de liderança ética.A China está na vanguarda da exportação das tecnologias de 'autoritarismo digital'. Em qualquer advertência cultural importante, pode ser feita sobre uma sociedade mais coletiva que encontra essas tecnologias de vigilância e controle positivo à medida que recompensam o comportamento pró-social-o confronto com as suposições fundamentais deA democracia, incluindo direitos à privacidade, liberdade de expressão, etc. é inevitável e inquestionável.

“Por sua vez, os EUA têm um registro miserável (na melhor das hipóteses) de tentar regular essas tecnologias - começando com a lei de computadores da década de 1970 que categoriza essas empresas como transportadoras, não provedores de conteúdo e, portanto, não sujeitos a regulamentação que incluiriam atenção Para questões de liberdade de expressão, etc. Minha previsão é que o Google e seus colegas corporativos no Vale do Silício continuarão a argumentar com sucesso contra qualquer tipo de regulamentação externa ou imposição de padrões para uma IA ética, em nome de ter que ter sucesso no global competição com a China. Talvez devêssemos dar ao Google em particular algum benefício da dúvida e ver como suas recentes iniciativas na direção da IA ​​ética de fato se desenrolam. Mas 1) o que eu sei em primeira mão para serem esforços bem-sucedidos na lavagem de ética pelo Google (por exemplo, tentando contratar em alguns de seus críticos éticos mais graves e proeminentes na academia para comprar seu silêncio) e 2) dado Seu histórico de cooperação com regimes autoritários, incluindo a China, é difícil estar otimista aqui.

“É claro que veremos alguns desenvolvimentos e melhorias maravilhosamente positivos - talvez na medicina antes de tudo. E talvez não há problema em ter sistemas de recomendação para nos ajudar a negociar, por exemplo, milhões de opções de músicas no Spotify. Mas mesmo essas aplicações estão sujeitas a críticas importantes, por exemplo, sob o nome de 'A algoritmização do sabor' - a reformulação de nossos gostos e preferências é influenciada por processos opacos impulsionados pelos interesses corporativos em maximizar nosso engajamento e consumo, não necessariamente nos ajudar Descubra libertador e empoderador de novas possibilidades. Mais fortemente, especialmente se as técnicas de AI e aprendizagem de máquina permanecerem com caixa preta e imprevisível, mesmo para aqueles que as criam (que é o que a IA e o ML pretendem fazer, afinal), eu vejo principalmente um futuro muito sombrio e pesadelo em que mais e mais de nossos comportamentos são monitorados e depois empurrados por processos algorítmicos que não podemos entender e, assim, contestar. Os exemplos atuais mais severos estão nas áreas do chamado "policiamento preditivo" e esforços relacionados para substituir o julgamento humano pela tomada de decisão baseada em máquina. Como Mireille Hildebrandt demonstrou, quando não podemos mais contestar as evidências apresentadas contra nós. Em um tribunal - porque é reunido e processado por processos algorítmicos, mesmo seus criadores não podem esclarecer ou descompactar - esse é o fim das práticas modernas da lei e da democracia. É claramente ruim o suficiente quando essas tecnologias são usadas para resolver os seres humanos em termos de classificação de crédito: confiando nessas tecnologias para julgamentos/decisões sobre quem entra em que instituição educacional, quem faz e não merece liberdade condicional, e assim parece eu ser um futuro distópico incrivelmente pesadelo.

“Novamente, pode ser um 'mundo novo e corajoso' de conveniência e facilidade, pelo menos enquanto se cumprir com os comportamentos determinados a valer a pena recompensa positiva, etc., mas usar uma metáfora diferente - talvez não familiarizada para as gerações mais jovens,Infelizmente - continuaremos sendo o equivalente humano dos pombos de Skinner em gaiolas delicadas agradáveis e confortáveis, conectadas com cuidado para maximizar comportamentos desejados por meio de reforço positivo, se não for desencorajar o que será definido como comportamentos indesejáveis por meio de reforço negativo (incluindo força e violência) se necessário. ”

Adam Clayton Powell III, membro sênior do USC Annenberg Center sobre liderança e política da comunicação, observou: “Até 2030, muitos usarão IA ética e muitos não.Mas em grande parte do mundo, fica claro que os governos, especialmente os governos totalitários na China, Rússia, e segs.E esses governos estão interessados apenas em autopreservação-não ética. ”

Alf Rehn, professor de inovação, design e gerenciamento da Universidade do Sul da Dinamarca, disse: “Haverá um impulso para a IA ética durante os próximos 10 anos, mas boas intenções por si só não fazem a moralidade.A IA é complicada, assim como a ética, e a combinação dos dois será realmente um problema muito complexo.É provável que vemos algumas tentativas desajeitadas de criar os sistemas de IA éticos, com os problemas do atendente.Também é importante levar em consideração questões culturais e geopolíticas.Existem muitas interpretações de ética, e as pessoas colocam valor diferente em valores diferentes, de modo que, por exemplo, uma IA ética chinesa pode funcionar de maneira bastante diferente - e gerar resultados diferentes - a partir de, por exemplo, uma IA ética britânica.Isso não quer dizer que um seja melhor que o outro, apenas que eles possam ser bastante diferentes. ”

Sean Mead, diretor sênior de estratégia e análise da Interbrand, escreveu: “O roubo chinês das tecnologias de IA ocidental e japonês é uma das questões de ética mais preocupante que enfrentaremos.Teremos problemas éticos em relação aos potenciais vieses incorporados aos sistemas de IA através da escolha ou disponibilidade de dados de treinamento e conjuntos de conhecimentos e os vieses inerentes às soluções propostas que tentam combater esses problemas.Os sistemas de identificação para sistemas de armas autônomas continuarão a levantar inúmeras questões de ética, principalmente porque os países implantam sistemas terrestres interagindo com as pessoas.A IA que dirige sistemas de crédito social terá muito poder sobre a vida das pessoas e ajudará a vitalizar os sistemas autoritários.A IA permitirá o aumento do voo de cidades para áreas de estar mais hospitaleiras e saudáveis através da automação de serviços governamentais e maior transparência de conjuntos de habilidades para potenciais empregadores. ”

Mark Perkins, um profissional de ciência da informação ativo na Sociedade da Internet, observou: “A IA será desenvolvida pelas empresas (com apoio do governo) com pouco respeito pela ética.O exemplo da China será seguido por outros países - o desenvolvimento da IA pelo uso dos dados dos cidadãos, sem consentimento efetivo, para desenvolver produtos que não sejam do interesse de tais cidadãos (vigilância, controle populacional, policiamento preditivo etc.).A IA também será desenvolvida para implementar preços diferenciais/oferecer ainda mais a AI 'Digital Divide', será usada por governos e corporações para tomar decisões não expectativas e não contábiles em relação aos cidadãos, a IA serão tratados como uma 'caixa preta', com cidadãos com pouco- se houver - compreensão de como eles funcionam, com que base eles tomam decisões, etc. ”

Wendell Wallach, ética e estudioso do Centro Interdisciplinar de Bioética da Universidade de Yale, respondeu: “Enquanto aplaudo a proliferação de princípios éticos, permaneço preocupado com a capacidade dos países de colocar carne no osso.Princípios amplos não se traduzem facilmente em ações normativas, e os governos terão dificuldade em promulgar regulamentos fortes.Aqueles que assumem a liderança na regulamentação das tecnologias digitais, como a UE, serão criticadas por desacelerar a inovação, e isso continuará sendo uma justificativa para que governos e corporações ancorem a implementação de quaisquer regulamentos fortes apoiados pela aplicação.Até agora, a lavagem de ética é a abordagem predominante entre a elite corporativa.Embora existam sinais de uma possível mudança nesta postura, permaneço cético enquanto esperançoso. ”

Pamela McCorduck, escritora, consultora e autora de vários livros, incluindo “Máquinas que pensam”, escreveu: “Muitos esforços estão em andamento em todo o mundo para definir a IA ética, sugerindo que isso já é considerado um grave problema digno de estudo intenso e remédio legal. Eventualmente, um conjunto de princípios e preceitos chegará a definir IA ética, e acho que eles definirão a preponderância dos aplicativos de IA. Mas você pode ter certeza de que a IA antiética existirá, será praticada e às vezes não é reconhecida até que os danos graves sejam causados. Grande parte do conflito entre aplicações éticas e antiéticas é cultural. Nos EUA, achamos que o tipo de vigilância social praticada na China não é apenas repugnante - mas ilegal. Forma o coração das práticas chinesas. No curto prazo, apenas a falta de vontade dos tribunais ocidentais em aceitar evidências coletadas dessa maneira (como inadmissível) protegerão os cidadãos ocidentais desse tipo de coisa, incluindo as 'pontuações sociais' que o governo chinês atribui aos seus cidadãos como conseqüência de que vigilância aparece. Sinto que mais pessoas comuns investirão capital social em suas interações com AIS, por solidão ou por outros motivos. Isso é indesejável para mim, mas então eu tenho um amplo círculo social. Nem todo mundo faz, e eu quero resistir ao julgamento aqui. ”

Um arquiteto de prática especializado em IA para uma grande empresa de tecnologia global disse: “A União Europeia tem as propostas mais concretas, e acredito que veremos a legislação deles dentro de três anos.Minha esperança é que veremos um efeito cascata nos EUA, como fizemos da GDPR - as empresas globais tiveram que cumprir com o GDPR, então algumas boas ações aconteceram nos EUA como resultado.… Talvez seja mais provável que vejamos uma continuação de cidades e estados individuais que impojam suas próprias leis específicas de aplicação (por exemplo, limites de tecnologia de reconhecimento facial em Oakland, Boston, etc.).As razões pelas quais sou duvidoso que a maioria dos aplicativos de IA seja ética/beneficie o bem social são:

  1. Even the EU’s proposals are limited in what they will require;
  2. China will never limit AI for social benefit over the government’s benefit;
  3. The ability to create a collection of oversight organizations with the budget to audit and truly punish offenders is unlikely.

“Eu olho para a Food and Drug Administration ou NTSB [Conselho Nacional de Segurança em Transportes] e vejo como essas organizações ficaram muito aconchegantes às empresas que deveriam regular e ver suas falhas.Essas organizações estão regulando os produtos muito menos complexos que a IA, por isso tenho pouca fé que o governo dos EUA estará à altura da tarefa.Novamente, talvez a UE seja melhor. ”

Um pesquisador em bioinformática e biologia computacional observou: “Leve em consideração as ações do PCC [Partido Comunista Chinês] na China. Eles têm liderado o caminho recentemente para demonstrar como essas ferramentas podem ser usadas de maneiras antiéticas. E os Estados Unidos falharam em assumir fortes compromissos com a ética na IA, diferentemente das nações da UE. A IA e a ética em torno de seu uso podem ser uma das principais plataformas ideológicas para a próxima Guerra Fria. Estou mais preocupado com o uso da IA ​​para invadir ainda mais a privacidade e corroer a confiança nas instituições. Também me preocupo com seu uso para moldar a política de maneiras não -interpretantes, não interpretáveis ​​e não reproduzíveis. Há também o risco de que alguns dos grandes conjuntos de dados que sejam fundamentais para muitas decisões-desde o reconhecimento facial, a sentença criminal, a pedidos de empréstimos-sendo conduzidos usando a IA que são tendenciosos e continuarão a produzir resultados tendenciosos Se eles forem usados ​​sem sofrer auditorias graves - problemas com a transparência compostos esses problemas. Os avanços para o tratamento médico usando a IA correm o risco de não serem distribuídos também. ”

Sam Lehman-Wilzig, professor e ex-presidente de comunicação da Universidade Bar-Ilan, Israel, disse: “Estou otimista porque a questão agora está na agenda nacional-científica, acadêmica e até política/legislativa.Quero acreditar que cientistas e engenheiros são um pouco mais abertos a considerações "éticas" do que os usuais de empresários "., 'por exemplo, armamento automático de A-Automated.Assim, prevejo uma mudança para tratados internacionais que lidam com os aspectos mais preocupantes da 'ética da IA' '.

Um economista que trabalha no governo respondeu: “Os princípios éticos serão desenvolvidos e aplicados em países democráticos até 2030, com foco no bem público, concorrência global e violações cibernéticas.Outros países menos democráticos se concentrarão mais em abreção cibernética e concorrência global.Entidades não -governamentais, como empresas privadas, presumivelmente se concentrarão na inovação e outras respostas competitivas.A IA terá um impacto considerável nas pessoas, especialmente em relação aos seus empregos e também em relação à sua capacidade de impactar as funções controladas pela IA.Esse controle e o impacto dos crimes cibernéticos serão de grande preocupação, e a inovação será intrigada. ”

Ian Peter, um ativista pioneiro dos direitos da Internet, disse: “As maiores ameaças que enfrentamos são a arma da IA e o desenvolvimento de IA sendo restringidos nas alianças geopolíticas.Já estamos vendo o início disso em ações tomadas para restringir as atividades das empresas porque elas são vistas como ameaçando (por exemplo, Huawei).Mais e mais desenvolvimentos nesse campo estão sendo controlados por interesses nacionais ou guerras comerciais, em vez de desenvolvimento ético, e grande parte da promessa que poderia surgir da utilização da IA pode não ser realizada.A ética está ocupando um assento na segunda fila atrás dos interesses comerciais e geopolíticos. ”

Jannick Pedersen, co-fundador, CEO e futurista com sede na Europa, comentou: “AI é a próxima corrida armamentista.Embora os principais aplicativos de IA incluam considerações éticas, uma grande quantidade de IA será feita para lucro e será aplicada em sistemas de negócios, não visíveis aos usuários. ”

Marita Prandoni, linguista, escritor freelancer, editor, tradutor e pesquisa associado ao grupo de histórico, previu: “Os usos éticos da IA dominarão, mas será uma luta constante contra bots disruptivos e esforços internacionais para minar as nações.Os algoritmos provaram ampliar o viés e gerar injustiça, portanto, a confiança neles para distrair, persuadir ou manipular a opinião está errada.O que me excita é que os anunciantes estão rejeitando plataformas que permitem um discurso de ódio tendencioso e perigoso e que cada vez mais existem fatores econômicos (ou seja, poderes corporativos) que tomam o lado da justiça social. ”

Gus Hosein, diretor executivo da Privacy International, observou: “A menos que a IA se torne um problema de competição e seja dominada por enormes empresas americanas e chinesas, as chances de IA ética são baixas, o que é uma realidade horrível.Se se generalizou na implantação, como vimos com reconhecimento facial, a única maneira de conter sua implantação de maneiras antiéticas é criar proibições claras e transparência forçada.É por isso que a IA é tão desafiadora.Da mesma forma, é inútil, mas isso não nos impede de tentar implantá -lo em todos os lugares.A qualidade dos dados subjacentes e as questões sociais significam que a IA apenas punirá as pessoas de novas, diferentes e da mesma maneira.Se continuarmos obcecados com inovadores e inovação, em vez de infraestrutura social, estamos ferrados. ”