Sería bastante difícil, algunos podrían decir imposibles, diseñar sistemas de IA éticos ampliamente adoptados.Una parte de los expertos que respondieron señalaron que la ética es difícil de definir, implementar y hacer cumplir.Dijeron que el contexto es importante cuando se trata de consideraciones éticas.Cualquier intento de diseñar reglas éticas genera innumerables escenarios variables en los que las aplicaciones de esas reglas pueden ser desordenadas.La naturaleza y el poder relativo de los actores en cualquier escenario también importan.Los estándares y normas sociales evolucionan y pueden volverse totalmente diferentes a medida que cambian las culturas.Pocas personas tienen mucha educación o capacitación en ética.Además, los actores buenos y malos explotan las lagunas y las áreas grises donde las reglas éticas no son nítidas, por lo que soluciones, parches u otros remedios a menudo se crean con diferentes niveles de éxito.
Los expertos que expresaron preocupaciones también invocaron preocupaciones de gobierno.Preguntaron: ¿De quién se deben aplicar los sistemas éticos?¿Quién puede tomar esa decisión?¿Quién tiene la responsabilidad de preocuparse por implementar la IA ética?¿Quién podría hacer cumplir los regímenes éticos una vez que se establezcan?¿Cómo?
Un gran número de encuestados argumentó que la competencia geopolítica y económica son los principales impulsores de los desarrolladores de IA, mientras que las preocupaciones morales quedan en segundo plano.Una parte de estos expertos dijo que los creadores de herramientas de IA funcionan en grupos que tienen poco o ningún incentivo para diseñar sistemas que aborden preocupaciones éticas.
Algunos encuestados señalaron que, incluso si se pudieran establecer requisitos de ética viables, no podrían aplicarse o gobernarse porque la mayoría del diseño de IA es patentado, oculto y complejo.¿Cómo se pueden diagnosticar y abordar los "resultados" dañinos de IA si no se puede discernir la base de las "decisiones" de IA?Algunos de estos expertos también señalan que los sistemas y bases de datos de IA existentes a menudo se utilizan para crear nuevas aplicaciones de IA.Eso significa que los sesgos y los aspectos éticamente preocupantes de los sistemas actuales se están diseñando en los nuevos sistemas.Dicen que diagnosticar y desenrollar los problemas preexistentes puede ser difícil, si no imposible de lograr.
Es difícil definir la IA "ética"
Una parte de estos expertos infundió sus respuestas con preguntas que equivalen a esta pregunta general: ¿cómo se pueden definir y aplicar los estándares éticos para un universo global, intercultural, en constante evolución y en constante expansión de diversos sistemas de caja negra en los queactores y la información errónea prosperan?
Una selección de los comentarios de los encuestados sobre este tema amplio se organiza en las próximas 20 páginas bajo estos subtítulos: 1) Puede ser difícil estar de acuerdo en lo que constituye un comportamiento ético.2) Los humanos son el problema: ¿de quién es la ética?¿Quien decide?¿A quien le importa?¿Quién hace cumplir?3) Al igual que todas las herramientas, la IA se puede usar para bien o enfermo, lo que hace que el establecimiento de estándares sea un desafío.4) Una evolución adicional en sí misma plantea preguntas y complicaciones.
Stephen Downes, Oficial de Investigación Senior de Tecnologías Digitales del Consejo Nacional de Investigación de Canadá, observó: “El problema con la aplicación de principios éticos a la inteligencia artificial es que no hay un acuerdo común sobre cuáles son.Si bien es común asumir que existe algún tipo de unanimidad sobre los principios éticos, esta unanimidad rara vez es más amplia que una sola cultura, profesión o grupo social.Esto se manifiesta por la facilidad con la que perpetuamos la injusticia, la injusticia e incluso la violencia y la muerte a otras personas.Ninguna nación es inmune.
“Compuesto, este es el hecho de que la inteligencia artificial contemporánea no se basa en principios o reglas.La IA moderna se basa en la aplicación de funciones matemáticas en grandes colecciones de datos.Este tipo de procesamiento no se moldea fácilmente por principios éticos;No hay funciones matemáticas "buenas" o "malas", y los prejuicios y los prejuicios en los datos no se identifican ni se evitan fácilmente.Mientras tanto, la aplicación de AI no está determinada por el resultado;La misma predicción, por ejemplo, puede usarse para proporcionar apoyo social y asistencia a una persona necesitada o para evitar que esa persona obtenga empleo, seguro o servicios financieros.
“En última instancia, nuestra IA será una extensión de nosotros mismos, y la ética de nuestra IA será una extensión de nuestra propia ética.En la medida en que podemos construir una sociedad más ética, lo que sea que eso signifique, construiremos una IA más ética, aunque solo proporcione a nuestra IA los modelos y ejemplos que necesita para poder distinguir lo correcto de lo incorrecto.Tengo la esperanza de que el aumento de las consecuencias éticas de nuestras acciones pueda llevarnos a ser más conscientes de ellas;Tengo miedo de que no lo hagan ".
Kenneth A. Grady, profesor adjunto en la Facultad de Derecho de la Universidad Estatal de Michigan y editor de la Sociedad Algorítmica en Medium, dijo: "Hacer que los que crean AI lo usan de una manera 'ética' enfrenta muchos obstáculos que es poco probable que la sociedad supere en elfuturo previsible.De alguna manera clave, la regulación de la ética de la IA es similar a la regulación de la ética en la sociedad en general.La IA es una tecnología distribuida y relativamente económica.Puedo crear y usar IA en mi empresa, mi laboratorio de investigación o mi hogar con recursos mínimos.Que la IA puede ser bastante poderosa.Puedo desatarlo en el mundo sin costo.
"Suponiendo que podríamos regularlo efectivamente, enfrentamos otro obstáculo importante: ¿qué queremos decir con" ético? "Dejando de lado los debates filosóficos, enfrentamos problemas prácticos para definir la IA ética.No tenemos que mirar lejos para ver desafíos similares.Durante los últimos años, lo que es o no un comportamiento ético en la política estadounidense ha estado en debate.Otros países han enfrentado problemas similares.
“Incluso si pudiéramos decidir una definición [para la ética] en los EE. UU., Probablemente variaría de las definiciones utilizadas en otros países.Dada la capacidad de la IA para cruzar las fronteras con fluidez, la regulación de la IA resultaría problemática.También encontraremos que las limitaciones éticas pueden estar en desacuerdo con otros intereses de sí mismos.La ética situacional podría surgir fácilmente cuando enfrentamos amenazas militares o de inteligencia, amenazas económicas competitivas e incluso amenazas políticas.
“Además, la IA en sí presenta algunos desafíos.Hoy, gran parte de lo que sucede en algunos sistemas de IA no es conocido por los creadores de los sistemas.Este es el problema de la caja negra.Regular lo que sucede en la caja negra puede ser difícil.Alternativamente, prohibir las cajas negras puede obstaculizar el desarrollo de la IA, poniendo en riesgo nuestros intereses económicos, militares o políticos ".
Ryan Sweeney, director de análisis de las redes sociales de Ignite, comentó: "La definición de" bien público "es importante aquí.¿Cuánto es la intención versus la ejecución?Tome Facebook, por ejemplo.Podrían argumentar que su plataforma de revisión de contenido de IA es de interés del "bien público", pero continúa fallando.La IA es tan ética y sabia como los que lo programan.El racismo de una persona es la libertad de expresión de otra.Lo que podría ser una palabra ofensiva para alguien podría no estar en el léxico del programador.
"Estoy seguro de que la IA se usará con intención ética, pero la ética requiere empatía. Para programar la ética, tiene que haber un correcto e incorrecto definitivo, pero las situaciones probablemente no son tan simples y requieren alguna forma de análisis humano emocional y contextual. El éxito de la ejecución ética de la IA se reduce a si los programadores literalmente pensaron en cada escenario posible. En otras palabras, la IA probablemente se desarrollará y se usará con intención ética, pero probablemente no alcanzará lo que nosotros, como humanos, podemos hacer. Deberíamos usar la IA como una herramienta para ayudar a guiar nuestras decisiones, pero no confiar en ella por completo para tomar esas decisiones. De lo contrario, la oportunidad de abuso o consecuencias no deseadas mostrará su rostro. También estoy seguro de que la IA se utilizará con una intención cuestionable, ya que la tecnología no es inherentemente buena ni mala. Dado que la tecnología es neutral, estoy seguro de que veremos casos de IA abusados por ganancias egoístas u otros medios cuestionables y violaciones de privacidad. Los estándares éticos son complicados de diseñar y difíciles de programar ".
It can be hard to agree as to what constitutes ethical behavior
A continuación se muestra una muestra de respuestas expertas que hablan de las amplias preocupaciones de que los comportamientos éticos pueden ser difíciles de definir y aún más difícil de construir en los sistemas de IA.
Mark Lemley, director del programa de derecho, ciencia y tecnología de la Universidad de Stanford, observó: "La gente usará la IA para fines buenos y malos.La mayoría de las empresas intentarán diseñar la tecnología para tomar buenas decisiones, pero muchas de esas decisiones son opciones morales difíciles sin una gran respuesta.AI ofrece la mayor promesa para reemplazar el juicio humano muy pobre en cosas como el reconocimiento facial y las paradas policiales ".
Marc Brenman, miembro gerente de IDARE, una consultora de capacitación transformacional y desarrollo de liderazgo con sede en Washington, D.C., escribió: “Como sociedades, somos muy débiles sobre la moralidad y la ética en general.No hay una razón particular para pensar que nuestras máquinas o sistemas lo harán mejor que nosotros.Las personas defectuosas crean sistemas defectuosos.En general, los ingenieros y las personas y los desarrolladores no tienen idea de qué son la ética.¿Cómo podrían programar sistemas para tener lo que no?A medida que los sistemas aprenden y se desarrollan, mirarán a su alrededor y repetirán sus errores, prejuicios, estereotipos y prejuicios.Ya vemos esto en el reconocimiento facial.
“La IA hará ciertas transacciones más rápido, como predecir lo que compraré en línea.Los sistemas de IA pueden salir de control a medida que se vuelven autónomos.¿De qué sirve los humanos para ellos?Pueden permitir que los errores se cometan muy rápido, pero los sistemas pueden no reconocer las consecuencias de sus acciones como "errores". Por ejemplo, si maximizan la eficiencia, entonces el ejemplo chino de control social puede dominar.
“Cuando los sistemas de IA se combinan con castigos o sistemas de retroalimentación cinética, podrán controlar nuestro comportamiento.Imagine una pandemia en la que se hace una "recomendación" para refugiarse en su lugar o usar una máscara o permanecer a seis pies de distancia de otras personas.Si las personas están conectadas a los sistemas de IA, el sistema puede dar una descarga eléctrica a una persona que no implementa la recomendación.Esto será como todos nosotros vistiendo collares de choque que algunos de nosotros usamos en nuestros perros mal portamientos ".
June Anne English-Lueck, profesora de antropología de la Universidad Estatal de San José y distinguida becaria en el Instituto para el Futuro, dijo: “Los sistemas de IA emplean algoritmos que son tan sólidos como las instalaciones en las que están construidos y la precisión deldatos con los que aprenden.Los sistemas éticos humanos son complejos y contradictorios.Tales matices como buenos para quién y los malos para quienes son difíciles de analizar.Ciudades inteligentes, que se basan en sistemas de vigilancia y el gobierno automatizado necesitan mecanismos de supervisión humana.La supervisión no ha sido nuestra fuerte demanda en las últimas décadas, y hay pocas razones para creer que se instituirá en las interacciones de automatización humana ".
Amali de Silva-Mitchell, futurista y consultor que participa en procesos de gobernanza de Internet global, escribió: “Aunque hay muchas discusiones, hay pocos estándares o los que existen están en un nivel alto o llegaron demasiado tarde para los cientos de cientos deLas aplicaciones de IA ya se implementaron.Estas aplicaciones de IA base no serán reinventadas, por lo que existe un riesgo integrado.Sin embargo, cuanto más discusión hay, mayor es la comprensión de los problemas éticos existentes, y eso puede verse desarrollando, especialmente a medida que cambian las normas y expectativas sociales.Las aplicaciones de IA tienen el potencial de ser beneficiosos, pero las aplicaciones deben administrarse para no causar daños no deseados.Para la entrega global y el servicio integrado, debe haber estándares comunes, transparencia y colaboración.La duplicación de esfuerzos es un desperdicio de recursos ".
Glenn Edens, profesor de Thunderbird School of Global Management, Arizona State University, anteriormente vicepresidente de PARC, observó: “La promesa: AI y ML podrían crear un mundo más eficiente, desperdiciando menos energía o recursos que brindan atención médica, educación, educación, entretenimiento, comida y refugio a más personas a costos más bajos.Siendo legalmente ciego, espero con ansias el día de autos autónomos seguros y ampliamente disponibles, por ejemplo.Al igual que la máquina de vapor, la electricidad, las bicicletas y las computadoras personales (especialmente las computadoras portátiles) amplifican la capacidad de capacidad de capacidad humana, y con suerte ML hará lo mismo.
“Las preocupaciones: la IA y su primo ML todavía están en su infancia, y aunque el progreso tecnológico es algo predecible, las consecuencias humanas reales son turbias.La promesa es excelente, también nuestra ingenua imaginación de lo que Internet haría por la humanidad.Los intereses comerciales (y, por lo tanto, su despliegue de IA y ML) son mucho más ágiles y adaptables que los humanos a los que supuestamente sirven o los sistemas de gobernanza.La regulación es en gran medida reaccionaria, rara vez proactiva; por lo general, las cosas malas tienen que suceder antes de que los marcos para guiar el comportamiento responsable y equitativo se escriban en las leyes, surgen estándares o el uso se codifican en normas aceptables.Es genial que la conversación haya comenzado;Sin embargo, hay mucho desarrollo en curso en el aburrido mundo del desarrollo de software empresarial que es en gran medida invisible.
“La puntuación crediticia viene a la mente como un área potencial de preocupación importante, mientras que las empresas de puntuación crediticia siempre posicionan su trabajo como proporcionar a los consumidores más acceso a productos financieros, la realidad es que hemos creado un sistema que penaliza injustamente a los pobres y dramáticamenteLimita el acceso justo a los productos financieros a precios equitativos.AI y ML serán utilizados por las corporaciones para evaluar todo lo que hacen y cada transacción, califican a cada cliente y su potencial (valor), predicen demanda, precios, orientación y sus propios empleados y socios, mientras que esto puede conducir a la eficiencia, la productividady la creación de valor económico, mucho conducirá a segmentación, segregación, discriminación, perfil e inequidad.Imagine un mundo donde el precio es diferente para todos, desde un momento hasta el siguiente, y estos sistemas predictivos pueden transferir grandes sumas de valor en un instante, especialmente de los más vulnerables ".
Un experto en estrategia y planificación respondió: “Si bien digo y creo que, sí, los límites éticos se establecerán para la IA para 2030, también me doy cuenta de que hacer esto será increíblemente difícil. La comprensión de lo que una IA está haciendo a medida que construye y adapta sus entendimientos y enfoques bastante rápidamente llega a un punto en el que el conocimiento y el mantenimiento humanos se quedan atrás. El cómo y por qué se hizo o recomendado algo puede ser incognoscible. Además, la vida y la comprensión del lo correcto y lo incorrecto o el bien y el mal-ish pueden ser fluidos para las personas, ya que las cosas se balancean para acomodar los impactos en la existencia y la condición humana, así como la vida habitable en nuestro planeta. Establecer límites y limitaciones tiene un valor fuerte, pero poder comprender cuándo las cosas están cambiando de áreas que se sienten cómodas o han introducido una nueva realización para la necesidad de corregir las consecuencias involuntarias. Pero los límites alrededor del sesgo deben considerarse y trabajarse antes de establecer limitaciones éticas en su lugar ".
Un vicepresidente de una importante compañía global escribió: “La IA está demasiado distribuida como una tecnología para ser gobernada de manera efectiva.Es demasiado fácilmente accesible para cualquier individuo, empresa u organización con recursos razonablemente modestos.Eso significa que, a diferencia de, digamos, nuclear o biowapons, será casi imposible gobernar, y siempre habrá alguien dispuesto a desarrollar la tecnología sin tener en cuenta las consecuencias éticas ".
Wendy M. Grossman, una escritora científica con sede en el Reino Unido, autora de "Net.Wars" y fundadora de la revista The Skeptic, predijo: "La distribución de esto será desigual.Acabo de leer el artículo de Jane Mayer en The New Yorker en plantas de empalme de aves de corral, y proporciona un gran ejemplo de por qué no es suficiente tener leyes y ética;Debe hacerlos cumplir y darles a las personas que está tratando de proteger suficiente autonomía para participar en la aplicación de ellos.Creo que la IA ética/poco ética se distribuirá de manera desigual.Todo dependerá de lo que la sociedad en la que se inyecta la tecnología aceptará y quién está hablando.Por el momento, tenemos dos ejemplos divergentes:
- AI applications whose impact on most people’s lives appears to be in refusing them access to things – probation in the criminal justice system, welfare in the benefits system, credit in the financial system.
- AI systems that answer questions and offer help (recommendation algorithms, Siri, Google search, etc.).
Pero entonces lo que tenemos hoy no es AI como lo imaginó originalmente el grupo de Dartmouth.Todavía estamos muy lejos de cualquier tipo de inteligencia general artificial con cualquier tipo de autonomía independiente.Los sistemas que tenemos dependen de su ética en dos cosas: acceso a los datos necesarios para construirlos y la ética del propietario.No es la IA la que necesita ética, son los propietarios ".
Glynn Rogers, retirado, anteriormente principal ingeniero principal y miembro fundador en el Centro CSIRO para la ciencia de los sistemas complejos, dijo: “La IA y sus sucesores son potencialmente tan poderosos que no tenemos más remedio que garantizar la atención a la ética. La alternativa sería entregar el control de nuestra forma de vida a una clase de desarrolladores e implementadores que se centran en intereses a corto plazo y miopía o que tienen alguna forma de agenda política, particularmente 'actores estatales'. La gran pregunta es cómo para garantizar esto. Un marco regulatorio es parte de la respuesta, pero sospecho que un requisito importante es cambiar la cultura de la industria de la IA. En lugar de desarrollar tecnologías simplemente por el bien, o para publicar documentos inteligentes, debe haber un entorno cultural en el que los desarrolladores ven como una parte inherente de su tarea para considerar los posibles impactos sociales y económicos de sus actividades y un marco de empleo Eso no busca reprimir esto. Quizás la filosofía moral y política debería ser parte de la educación de los desarrolladores de IA ".
Alexandra Samuel, escritora de tecnología, investigadora, oradora y colaboradora regular de The Wall Street Journal y Harvard Business Review, escribió: “Sin acuerdos internacionales serios y exigibles sobre el uso y los principios apropiados para la IA, enfrentamos una carrera casi inevitable hasta el fondo.El valor comercial de la IA no tiene dependencia intrínseca de los principios éticos;Si puede ganar más dinero con AIS que priorizan al usuario sobre otras personas, o que prioricen las necesidades comerciales sobre los usuarios finales, entonces las empresas construirán AIS que maximicen las ganancias sobre las personas.La única forma posible de prevenir esa trayectoria es con las políticas nacionales que exigen o proscriben principios básicos de IA, y ese tipo de políticas nacionales solo son posibles con la cooperación internacional;De lo contrario, los gobiernos estarán demasiado preocupados por poner en desventaja los negocios de sus propios países ".
Valerie Bock, VCB Consulting, antiguo líder de servicios técnicos en el Q2 Learning, comentó: "No creo que hayamos desarrollado la sofisticación filosófica en los humanos que diseñan la IA lo suficiente como para esperar que puedan generar sofisticación ética en su software.Una y otra vez, nos enfrentamos a las formas en que aparecen nuestros propios prejuicios inconscientes en nuestras creaciones.Resulta que no nos entendemos a nosotros mismos ni a nuestras motivaciones, así como nos gustaría imaginar que podríamos.El trabajo en AI nos ayuda a presentar algo de esto, ayudándonos en una búsqueda [que] la humanidad ha seguido durante milenios.Un poco de humildad basado en lo que estamos aprendiendo está en orden ".
El director de un Centro Militar de Estrategia y Tecnología dijo: “La mayoría de la IA intentará incorporar preocupaciones éticas en algún nivel.No está claro cómo se puede crear AI "imparcial".No existen conjuntos de datos de entrenamiento perfectamente imparciales y, debido a que los sesgos humanos son una parte inherente de las interacciones, tal objetivo puede ser inalcanzable.Como tal, podemos ver sesgos de género o raciales en algunos conjuntos de datos de entrenamiento, que se extenderán a los sistemas de IA operativos, a pesar de nuestros esfuerzos por combatir esto ”.
Alan S. Inouye, director de la Oficina de Política de Tecnología de la Información de la American Library Association, respondió: "No veo personas u organizaciones que se establezcan en un camino nefasto en su uso de IA.Pero, por supuesto, lo usarán para avanzar en sus misiones y objetivos y, en cierto sentido, emplear ética "local".Pero la ética no está estandarizada ni aditiva en todos los dominios.¿Qué es la ética en los sistemas de IA?Es como preguntar: "¿Qué es la ciberseguridad en toda la sociedad?"
Maggie Jackson, ex columnista del Boston Globe y autora de "Distracted: reclamando nuestro enfoque en un mundo de atención perdida", escribió: "Estoy profundamente preocupado por lo poco que entendemos de lo que los algoritmos de IA saben o cómo lo saben.Este efecto de caja negra es real y conduce a un impacto no deseado.Lo más importante, en ausencia de una verdadera comprensión, las suposiciones se mantienen como la base de los objetivos actuales y futuros.Debe prestarse mucha mayor atención a los sistemas de valores ocultos e implícitos que son inherentes al diseño y el desarrollo de la IA en todas las formas.Un ejemplo: los cuidadores de robots, los asistentes y los tutores se están utilizando cada vez más en el cuidado de los miembros más vulnerables de la sociedad a pesar de las dudas conocidas por parte de científicos -robotistas, éticos y usuarios, potencial y actual.Es muy alarmante que la fachada de cuidado moralmente dudosa de los robots se vea cada vez más como un sustituto de bienvenida para la atención manchada pero recíproca llevada a cabo por los humanos.
“Las nuevas pautas éticas de IA que enfatizan la transparencia son un buen primer paso para tratar de garantizar que los receptores de atención y otros entiendan a quién/lo que están tratando.Pero los sistemas impulsados por las ganancias, la arrogancia de los inventores, la tendencia innata de los humanos a tratar de relacionarse con cualquier objeto que parezca tener agencia, y otras fuerzas se combinan para trabajar contra el escepticismo humano que se necesita si queremos crear robots de asistencia que preservenLa libertad y la dignidad de los humanos que reciben su cuidado ".
Alan D. Mutter, consultor y ex CEO de Silicon Valley, dijo: “La IA es tan inteligente y positiva como las personas que lo entrenan.Necesitamos pasar tanto tiempo en la implementación moral y ética de la IA como lo hacemos en hardware, software y modelos de negocios.La última vez que revisé, no había código de ética en Silicon Valley.Necesitamos un mejor barómetro moral que el índice Nasdaq ".
Fred Baker, miembro de la junta del consorcio de Internet Systems y líder de IETF desde hace mucho tiempo, comentó: “Me gustaría que AI sea mucho más ética de lo que es.Dicho esto, la naturaleza humana no ha cambiado, y los propósitos a los que se aplica la IA no ha cambiado fundamentalmente.Podemos hablar más sobre eso, pero no creo que la ética de la IA cambie en última instancia ".
Randall Mayes, analista de tecnología de Techcast Global, observó: “La estandarización de la ética de la inteligencia artificial me preocupa porque los gobiernos estadounidenses, europeos y chinos y las empresas de Silicon Valley tienen diferentes ideas sobre lo que es ético.La forma en que se utiliza la IA dependerá de la jerarquía de valores de su gobierno entre el desarrollo económico, la competitividad internacional y los impactos sociales ".
Jim Witte, director del Centro de Investigación de Ciencias Sociales de la Universidad George Mason, respondió: “La pregunta supone que la ética y la moral son sistemas estáticos.Con los desarrollos en la IA, también puede haber una evolución de estos sistemas de modo que lo que es moral y ético mañana puede ser muy diferente de lo que vemos como moral y ético hoy en día ”.
Yves Mathieu, codirector de Missions Publiques, con sede en París, Francia, escribió: “La IA ética requerirá una legislación como la legislación europea [GDPR] para proteger los derechos de privacidad en Internet.Algunos gobiernos tomarán medidas, pero no todos lo harán, como es el caso hoy con respecto a la producción, el marketing y el uso de armas.Puede haber una iniciativa de algunas corporaciones, pero habrá una necesidad de compromiso de la cadena global de producción de IA, que será un desafío si parte de la producción proviene de países no cometidos en los mismos principios éticos.Las fuertes sanciones económicas a la producción y el uso de IA no ética pueden ser efectivas ".
Amy Sample Ward, CEO de NTEN: la red de tecnología sin fines de lucro, dijo: "No hay duda de si la IA se usará de manera cuestionable.Los humanos no comparten un compromiso consistente y colectivo con los estándares éticos de ninguna tecnología, especialmente no con inteligencia artificial.Crear estándares no es difícil, pero la responsabilidad para ellos es muy difícil, especialmente ya que los intereses gubernamentales, militares y comerciales encuentran regularmente formas en torno a los sistemas de responsabilidad.¿Qué sistemas se adoptarán a gran escala para hacer cumplir los estándares éticos y las protecciones para los usuarios?¿Cómo tendrán los usuarios de energía sobre sus datos?¿Cómo se invertirá la educación del usuario para todos los productos y servicios?Estas preguntas deberían guiarnos en nuestra toma de decisiones hoy para que tengamos más esperanza de que la IA se use para mejorar o beneficiar la vida en los próximos años ”.
Dan McGarry, un periodista independiente con sede en Vanuatu, señaló: “Al igual que cualquier otro algoritmo jamás desplegado, la IA será una manifestación del sesgo humano y la perspectiva de su creador.El algoritmo de reconocimiento facial de Facebook funciona abismalmente cuando se le pide que identifiquen caras negras.El AIS programado en el Oeste de Afluente compartirá sus fortalezas y debilidades.Del mismo modo, AIS desarrollado en otros lugares compartirá los supuestos y el entorno de sus creadores.No serán imágenes de ellos;Serán productos de ellos y reconocibles como tales ".
Abigail de Kosnik, profesor asociado y director del Centro de Nuevos Medios de la Universidad de California-Berkeley, dijo: “No veo la comprensión casi lo suficiente en el público en general, los trabajadores tecnológicos o en los estudiantes STEM sobre los posibles peligros de la IA- Las formas en que la IA puede dañar y fallar a la sociedad.Soy parte de una ola de educadores que intentan introducir más capacitación en ética y cursos en nuestra instrucción, y espero que cambie el rumbo, pero no soy optimista sobre nuestras posibilidades.La IA que está orientada a generar ingresos para las corporaciones casi siempre trabajará en contra de los intereses de la sociedad ".
Irina Raicu, directora del Programa de Ética de Internet en el Centro Markkula para la Ética Aplicada, observó: “La conversación sobre la ética de la IA ha estado sucediendo durante varios años.Sin embargo, lo que parece ser obvio entre aquellos que han sido parte de esto durante algún tiempo no se ha convertido en el plan de estudios de muchas universidades que están entrenando a la próxima generación de expertos en IA.Dado que parece que llevará más de 10 años para "la mayoría de los sistemas de IA utilizados por organizaciones de todo tipo para emplear principios éticos centrados principalmente en el bien público". Además, muchas organizaciones simplemente se centran principalmente en otros objetivos.- No sobre la protección o promoción del bien público ".
Un abogado y ex decano de la facultad de derecho que se especializa en temas de tecnología escribió: “La IA es un espacio nuevo y emocionante, pero no está regulado y, al menos en las primeras etapas, evolucionará a medida que directamente las consideraciones de inversión y monetarias.Es suficientemente sabido que no hay estándares éticos reconocidos y probablemente no lo será hasta más allá del horizonte temporal que mencione (2030).Durante ese tiempo, habrá una acumulación de "peores escenarios de casos", escándalos principales sobre su uso, un crecimiento en el uso pernicioso que ofenderá los estándares morales y éticos de sentido común y de la comunidad.Esas ocasiones y situaciones conducirán a una demanda gradual y creciente de regulación, supervisión y políticas éticas sobre el uso y el mal uso.¿Pero por quién (o qué)?¿Quién puede imponer esas recetas éticas: las industrias mismas?¿El Gobierno?"
El director de un centro de políticas públicas respondió: “Veo un futuro positivo para la IA en las áreas de salud y educación.Sin embargo, también hay desafíos éticos aquí.¿La corporación que accede y mantiene estos datos los usará de manera responsable?¿Cuál será el papel del gobierno?Quizás la IA puede ayudar al desarrollo del agua a lidiar con el cambio climático y los recursos hídricos, pero nuevamente veo un riesgo real en las áreas de distribución equitativa, justicia y protecciones de privacidad ".
Humans are the problem: Whose ethics? Who decides? Who cares? Who enforces?
Varios de los expertos que tienen preocupaciones sobre el futuro de la IA ética plantearon problemas en torno a la naturaleza fundamental de las personas.Los humanos defectuosos necesariamente estarán en el medio de estos problemas.Además, algunos expertos argumentaron que los humanos tendrán que crear los sistemas de gobernanza que supervisan la aplicación de IA y juzgar cómo las aplicaciones están afectando a las sociedades.Estos expertos también afirmaron que siempre habrá personas y organizaciones no éticas que no adoptarán tales principios.Además, algunos expertos mencionaron el hecho de que en una edad en red mundial incluso los lobos solitarios pueden causar problemas masivos.
Leslie Daigle, una líder desde hace mucho tiempo en las organizaciones que construyen Internet y lo hacen seguro, señaló: “Mi mayor preocupación con respecto a la IA y su uso ético no tiene nada que ver con la IA como tecnología y todo lo que ver con las personas.Nada sobre el siglo XXI me convence de que nosotros, como sociedad, entendemos que somos interdependientes y necesitamos pensar en algo más allá de nuestros propios intereses inmediatos.¿Tenemos incluso una visión común de lo que es ético?
"Dar un paso atrás del borde de la desesperación, las cosas a las que me gustaría ver a la IA aplicada con éxito, para 2030, incluyen cosas como diagnósticos médicos (lectura de radiografías, etc.).Avances podría haber monumental.Todavía no quiero que mi refrigerador ordene mis comestibles para 2030, pero ¿tal vez eso me hace viejo?:-) "
Tracey P. Lauriault, profesora experta en estudios de medios críticos y big data con sede en la Universidad de Carleton, Ottawa, Canadá, comentó: “Automatización, IA y aprendizaje automático (ML) utilizado en la gestión del tráfico como para cambiar las luces para mejorar el flujo detráfico, o buscar bases de datos de proteínas en análisis de bioquímica grande, o para ayudarme a resolver las ideas sobre qué programa para ver a continuación o libros para leer a continuación, o para hacer clasificación terrestre de imágenes satelitales, o incluso para lograr una agricultura de precisión orgánica y justa, o para detectar la actividad sísmica, la fusión de los casquillos de hielo polar o predecir los problemas del océano no es tan problemático (y su uso, la bondad prohíbe, detectar el crimen de cuello blanco en un contexto fintech no es un problema).
“Sin embargo, si la pregunta es sobre los sistemas de admisión de bienestar social, clasificación biométrica, vigilancia predictiva y control fronterizo, etc., entonces nos estamos metiendo en un escenario bastante diferente.¿Cómo se gobernarán, analizarán y quién será responsable de las decisiones y esas decisiones sobre la adquisición y el uso de estas tecnologías o la inteligencia derivadas de ellas?
“Reflejarán nuestras formas actuales de gobierno, y estas parecen bastante parciales y desiguales.Si podemos crear una sociedad más justa, entonces podemos tener más justo ai/ml ".
Leiska Evanson, futurista y consultor, escribió: “La humanidad tiene prejuicios.Los humanos están construyendo los algoritmos alrededor del aprendizaje automático disfrazado de IA.La "AI" tendrá prejuicios.Es imposible tener una IA ética (realmente, ML) si el "padre" está sesgado.Empresas como los bancos están ansiosos por usar ML para justificar no préstamos a ciertas minorías que simplemente no crean ganancias para ellos.Los gobiernos quieren atender las necesidades de muchos antes de los pocos.Los conceptos actuales de IA tienen que ver con alimentar más datos a un burócrata electromecánico para ruberstamps, sin supervisión de humanos con prejuicios competitivos ".
Un director de estándares y estrategia en una importante compañía de tecnología comentó: “Creo que las personas son en su mayoría buenas y que la intención será crear IA ética.Sin embargo, un problema del que me he dado cuenta es el hecho de que todos tenemos sesgos intrínsecos, sesgos involuntarios, que pueden estar expuestos de manera sutil y sin embargo significativa.Considere que los sistemas de IA son construidos por personas, por lo que trabajan inherentemente de acuerdo con cómo las personas que los construyeron funcionan.Por lo tanto, estos sesgos intrínsecos y involuntarios están presentes en estos sistemas.Incluso los sistemas de aprendizaje "aprenderán" de manera sesgada.Entonces, la interesante pregunta de investigación es si aprendemos o no de una manera que supera nuestros sesgos intrínsecos ".
Jean Seaton, director de la Fundación Orwell y profesor de historia de los medios de la Universidad de Westminster, respondió: “La pregunta de ética también plantea las cuestiones de quién crearía y vigilaría tales estándares a nivel internacional?Necesitamos algunos líderes visionarios y algunos movimientos poderosos.El último gran salto "ético" se produjo después de la Segunda Guerra Mundial.El Holocausto y la Segunda Guerra Mundial produjeron un conjunto de instituciones que con el tiempo llevaron a la noción de derechos humanos.Ese cambio de paso ético colectivo (por supuesto comprometido pero sin embargo, inmensamente significativo) se incorporó en instituciones con cierta autoridad colectiva.Entonces eso es lo que tiene que suceder sobre la IA.Las personas deben estar lo suficientemente aterrorizadas, los líderes deben ser lo suficientemente sabios, las personas deben ser lo suficientemente cooperativas, las personas tecnológicas deben pensar lo suficiente, la responsabilidad debe sentirse vívidamente, personalmente, abrumadoramente, para obtener un conjunto de reglas que sean aprobadas yvigilado ".
Cliff Lynch, director de la Coalición de Información en Redis, escribió: “Se harán esfuerzos para crear principalmente aplicaciones de IA 'éticas' para fines de la década, pero comprenda que una aplicación de IA ética es realmente un software integrado en una organizaciónEso está haciendo algo;Es la organización en lugar del software que tiene la carga de ser ética.Habrá algunas excepciones obvias para la investigación, algunos tipos de seguridad nacional, aplicaciones militares e de inteligencia, comercio de mercado y sistemas de predicción económica: muchas de estas cosas operan bajo varios tipos de 'normas éticas alternativas' como las 'leyes de la guerra' oLas leyes del mercado.Y muchos esfuerzos para desatar la IA (realmente aprendizaje automático) en áreas como la física o el plegado de proteínas se extenderán fuera de toda la discusión de "IA ética".
“Debemos resistir la tentación de antropomorfizar estos sistemas. (Como dice el viejo dicho, "las máquinas odian eso") No atribuya la agencia y el libre albedrío al software. ... ¡Los problemas aquí son personas y organizaciones, no código! ... Gran parte de la discusión de la IA ética está realmente equivocada. Está claro que existe un gran problema con el aprendizaje automático y los sistemas de reconocimiento de patrones, por ejemplo, que están capacitados en datos inapropiados, incompletos o sesgados (o datos que reflejan sesgos sociales históricos) o donde el dominio de la aplicabilidad y la confianza de los clasificadores o clasificadores Los predictores no están bien demartados y se entienden. Hay otro gran problema en el que las organizaciones confían (a menudo propensas a fallas y poco confiables, o entrenadas en datos sesgados, o de lo contrario, problemáticos) de reconocimiento de patrones o algoritmos de predicción (nuevamente basados en el aprendizaje automático, generalmente) y devoluciones de decisiones demasiado estas. Algunos de los desastres recientes de reconocimiento facial son buenos ejemplos aquí. Existen prácticas organizativas y sociales horribles que atraen a decisiones generadas por computadora que son correctas, imparciales, imparciales o transparentes y que colocan fe y autoridad injustificadas en este tipo de tecnología. Pero enmarcar esto en términos de ética de IA en lugar de mala toma de decisiones humanas, estupidez, ignorancia, ilusiones, fallas organizacionales e intentos de evitar la responsabilidad me parece incorrecto. En cambio, deberíamos hablar sobre la ética humana y organizacional del uso de sistemas de aprendizaje automático y predicción para diversos fines, tal vez.
"Creo que veremos a varios jugadores emplear el aprendizaje automático, el reconocimiento de patrones y la predicción de alguna manera realmente maligna durante la próxima década.Acoplar esto a las redes sociales u otros mecanismos de motivación cultural y recompensa es particularmente aterrador.Un ejemplo temprano aquí podría ser el desarrollo de China de su sistema de recompensas y seguimiento de "capital social".También tengo miedo de los sistemas de propaganda/publicidad/persuasión dirigidos.Tengo la esperanza de que también veamos organizaciones y gobiernos en al menos algunos casos eligen no usar estos sistemas o tratar de usarlos con mucha cautela y sabiamente y no delegarles demasiadas decisiones.
"Es posible tomar buenas decisiones aquí, y creo que algunos lo harán.La ética genuina de la IA parece ser parte del pensamiento sobre la IA de uso general, y creo que somos un muy, muy, muy lejos de esto, aunque he visto algunas predicciones, lo contrario de las personas, quizás mejor informadas que yo.Las discusiones filosóficas y de investigación (bastante más teóricas y especulativas) sobre la superinteligencia y sobre cómo uno podría diseñar y desarrollar una IA de propósito general que no decida rápidamente exterminar a la humanidad es extremadamente útil, importante y válido, pero tienen poco aHaga las críticas retóricas de la justicia social que confunden los algoritmos con las organizaciones que diseñan, entrenan y los aplican de manera estúpida e inapropiada y las aplican en el mundo de hoy ".
Deirdre Williams, un experto en investigadores independientes en política de tecnología global, comentó: "No puedo ser optimista.Nosotros, las "personas promedio", hemos sido educados en años anteriores hacia el solicidad, el individualismo, el materialismo y la máxima importancia de la conveniencia.Estos valores crean el "ethos". En la raíz misma de la IA son bases de datos, y estas bases de datos están construidas por seres humanos que deciden qué datos se recopilarán y cómo se deben describir y categorizar esos datos.Un pequeño error o sesgo humano al principio puede balancear en un enorme error de verdad y/o justicia ".
Alexa Raad, cofundadora y coanfitrión del podcast de TechSequences y ex directora de operaciones de Farsight Security, dijo: “Existe esperanza de IA en términos de solicitudes de atención médica que marcarán una diferencia positiva. Pero los marcos legales/políticos y regulatorios casi siempre se quedan atrás de las innovaciones técnicas. Para protegerse contra las repercusiones negativas de la IA, necesitamos un marco de gobernanza de políticas y mitigación de riesgos que se adopte universalmente. Debe haber un entorno de colaboración global para un bien mayor. Aunque la globalización condujo a muchos de los avances que tenemos hoy (por ejemplo, el diseño y la arquitectura de Internet, así como su modelo de gobierno de múltiples partes interesadas), la globalización está bajo ataque. Lo que vemos en todo el mundo es una tendencia hacia el aislacionismo, el separatismo como lo demuestran los movimientos políticos como el populismo, el nacionalismo y los resultados como el Brexit. Para crear y adoptar un conjunto integral de pautas o marco para el uso de IA o mitigación de riesgos para el abuso de IA, necesitaríamos una corriente global que respalde la colaboración. Espero estar equivocado, pero tendencias como esta necesitan más de 10 años para seguir su curso y para que el péndulo regrese hacia el otro lado. Para entonces, me temo que algunas de las desventajas y los riesgos de la IA ya estarán en juego ”.
Andrea Romaoli García, una abogada internacional involucrada activamente con actividades de múltiples partes interesadas de la Unión Internacional de Telecomunicaciones y la Sociedad de Internet de Internet, dijo: “Defino la ética como todas las opciones posibles y disponibles donde la conciencia establece la mejor opción.Los valores y principios son los limitadores que guían la conciencia en esta elección junto con los propósitos;Por lo tanto, la ética es un proceso.En términos de ética para la IA, el proceso para descubrir lo que es bueno y correcto significa elegir entre todas las aplicaciones posibles y disponibles para encontrar la que mejor se aplica a los fines centrados en el ser humano, respetando todos los principios y valores que hacen posible la vida humana.
“El enfoque centrado en la ética en la ética fue descrito por primera vez por el filósofo griego Sócrates en su esfuerzo por llamar la atención del mundo exterior a la condición humana. La IA es una tecnología cognitiva que permite mayores avances en los campos de salud, económicos, políticos y sociales. Es imposible negar cómo los algoritmos afectan la evolución humana. Por lo tanto, una IA ética requiere que todos los instrumentos y aplicaciones coloquen a los humanos en el centro. A pesar del hecho de que hay algunos países que construyen principios éticos para la IA, hay una falta de cualquier tipo de instrumento internacional que cubra todos los campos que guían el desarrollo y la aplicación de la IA en un enfoque centrado en los humanos. La IA no está impulsada por el modelo; Tiene un enfoque centrado en los datos para redes neuronales altamente escalables. Por lo tanto, los datos deben seleccionarse y clasificarse a través de la acción humana. A través de esta acción humana, los factores socioculturales se imprimen en el comportamiento del algoritmo y el aprendizaje automático. Esto justifica las preocupaciones sobre la ética y también se centra en temas como la libertad de expresión, privacidad y vigilancia, propiedad de datos y discriminación, manipulación de información y confianza, calentamiento ambiental y global y también en cómo se establecerá el poder entre la sociedad.
“Estos son factores que determinan la comprensión y la experiencia humana. Todos los instrumentos construidos para IA éticos tienen diferentes bases, valores y propósitos dependiendo del campo al que se aplican. La falta de armonía en la definición de estos pilares compromete la ética para la IA y afecta la supervivencia humana. Podría traer nuevos medios invisibles de exclusión o desplegar amenazas a la paz social que serán invisibles para los ojos humanos. Por lo tanto, existe la necesidad de esfuerzos conjuntos que recopilen las partes interesadas, la sociedad civil, los científicos, los gobiernos y los organismos intergubernamentales para trabajar para construir una IA ética armoniosa centrada en el ser humano y aplicable a todas las naciones. 2030 es dentro de 10 años. No necesitamos esperar 10 años, podemos comenzar a trabajar ahora. 2020 presenta varios desafíos con respecto al impacto de la tecnología en las personas. Las violaciones de los derechos humanos están siendo expuestas y los valores están bajo amenaza. Este escenario debe acelerar los esfuerzos de la cooperación internacional para establecer una IA ética armoniosa que apoye la supervivencia humana y la evolución global ".
Olivier MJ Crépin-LeBlond, emprendedor y participante desde hace mucho tiempo en las actividades de ICANN e IGF, dijo: "Lo que más me preocupa es que algunos actores en regímenes no democráticos no ven la misma" norma "cuando se trata de ética.Estas normas se basan en un contexto de cultura e ideología, y no todas las ideologías son las mismas en todo el mundo.Está claro que, hoy, algunos estados-nación ven a la IA como otro medio para conquista y establecer su superioridad en lugar de un medio para hacer el bien ”.
Un profesor emérito de ciencias sociales dijo: “Los algoritmos que representan la ética en la IA no son éticas ni inteligentes.Estamos construyendo modelos informáticos de prejuicios sociales y racismo estructural, sexismo, ageismo, xenofobia y otras formas de desigualdad social.Es la realización de algunas de las peores pesadillas de Foucault ".
Un defensor y activista dijo: “La mayoría de las grandes convenciones de IA hasta la fecha han estado dominadas por las élites de poder de status quo cuyo sentido de riesgo, daño y amenaza están distorsionados.En gran parte compuesto por hombres blancos de élite con una fe excesiva en soluciones técnicas y un desdén por las dimensiones socioculturales de riesgo y remedio.Estas comunidades, homogéneas, limitadas experimentalmente, demasiado seguras, están compuestas por personas que no se ven a sí mismas como un riesgo.Como resultado, creo que la mayoría de los resultados dominantes, cómo se define "ético", cómo se percibe el "riesgo aceptable", cómo se determinarán las "soluciones óptimas", serán limitadas y casi seguramente perpetuarán y amplificarán los daños existentes.Como puede ver, estoy todo sol y alegría ".
Glenn Grossman, consultor de análisis bancario en FICO, señaló: "Es necesario que los líderes de todos los sectores reconocan que la IA es solo el crecimiento de los modelos matemáticos y la aplicación de estas técnicas.Tenemos una gobernanza modelo en la mayoría de las organizaciones hoy.Necesitamos mantener las mismas salvaguardas en su lugar.¡El desafío es que muchos líderes empresariales no son buenos en matemáticas!No pueden entender los conceptos básicos de análisis predictivo, modelos y demás.Por lo tanto, escuchan "AI" y piensan en ello como una tecnología nueva, genial y de hacer todo.Es simplemente matemáticas en el corazón.El hombre gobierna cómo usan las matemáticas.Por lo tanto, necesitamos aplicar estándares éticos para monitorear y calibrar.AI es una herramienta, no una solución para todo.Al igual que la PC marcó el comienzo de la automatización, la IA puede marcar el comienzo de la automatización en el área de las decisiones.Sin embargo, son los humanos los que usan estas decisiones y diseñan los sistemas.Por lo tanto, necesitamos aplicar estándares éticos a cualquier sistema impulsado por la IA ".
R. "Ray" Wang, analista principal, fundador y CEO de Constellation Research, con sede en Silicon Valley, señaló: "En este momento no tenemos forma de hacer cumplir estos principios en juego.La IA totalitaria, china, al estilo CCP es el enfoque preferido para los dictadores.La pregunta es: ¿podemos requerir y podemos hacer cumplir la ética de IA?Ciertamente podemos requerir, pero la aplicación puede ser difícil ".
Maja Vjovic, consultora de Digital y TIC en Compass Communications, señaló: “La IA ética podría convertirse en un estándar generalmente acordado, pero será imposible hacerla cumplir.En un mundo donde el contenido de los medios y la producción, incluidas las noticias falsas, serán generadas por la IA, es más probable que nuestras expectativas sobre la ética deban reducirse.El público podría desarrollar una "piel más gruesa" y volverse más tolerante hacia la falta de fiabilidad general de las noticias.Esta tendencia no los hará más escépticos o distantes, sino más activos y mucho más involucrados en la generación de noticias, en una variedad de maneras.Se desarrollarán mecanismos de certificación y herramientas de IA especializadas para tratar específicamente con IA poco ética, ya que los humanos serán demasiado crédulos.En aquellos sectores donde la política no tiene un interés directo, como la salud y la medicina, el transporte, el comercio electrónico y el entretenimiento, la IA como industria podría ser más margen de maniobra para crecer orgánicamente, incluida la autorregulación ".
Like all tools, AI can be used for good or ill; that makes standards setting a challenge
Varios encuestados señalaron que cualquier intento de hacer reglas se complica por el hecho de que cualquier tecnología puede usarse para fines nobles y dañinos.Es difícil diseñar herramientas digitales éticas que privilegian a la primera mientras mantienen a la segunda bajo control.
Chris Arkenberg, gerente de investigación del Centro de Tecnología, Medios y Telecomunicaciones de Deloitte, señaló: "La respuesta es buena y mala.La tecnología no adopta prioridades éticas que los humanos no se priorizan a sí mismos.Por lo tanto, una mejor pregunta podría ser si la sociedad seguirá un papel más central de la ética y los valores de los que hemos visto en los últimos 40 años más o menos.Podría decirse que 2020 ha mostrado una demanda resurgente de valores y principios para una sociedad equilibrada.Si, por ejemplo, la educación se convierte en una mayor prioridad para el mundo occidental, la IA podría amplificar nuestra capacidad de aprender de manera más efectiva.Del mismo modo, con sesgos raciales y de género.Pero esta tendencia es más fuerte solo en algunas democracias occidentales.
“China, por ejemplo, otorga un mayor valor a la estabilidad social y disfruta de una población bastante monocromática.Con las guerras comerciales actuales, la división geopolítica también se está convirtiendo en una división tecnológica que podría dar a luz formas completamente diferentes de IA dependiendo de su origen.Y ahora es un mundo muy multipolar con una gran cantidad de actores empoderados.
“Entonces, estas herramientas elevan muchos otros barcos con sus propias agendas [que] pueden estar menos obligados por nociones liberales occidentales de ética y valores.La suposición pragmática podría ser que muchas instancias de IA ética estarán presentes donde las regulaciones, el desarrollo del mercado, la atracción del talento y las expectativas sociales requieren que sean así.Al mismo tiempo, probablemente habrá innumerables casos de "mala IA", sistemas de inteligencia de máquinas y aprendizaje armados diseñados para explotar las debilidades.Al igual que Internet y la globalización, el camino hacia adelante probablemente sea menos acerca de guiar sistemas tan complejos hacia resultados utópicos y más de adaptarse a cómo los humanos los ejercen bajo los mismos impulsores competitivos y colaborativos que han asistido a la totalidad de la historia humana ".
Kenneth Cukier, editor senior del economista y coautor de "Big Data", dijo: "Pocos se propusirán usar la IA de malas malas (aunque algunos delincuentes ciertamente lo harán).La mayoría de las instituciones aplicarán la IA para abordar los problemas del mundo real de manera efectiva, y la IA funcionará para ese propósito.Pero si se trata de reconocimiento facial, significará menos privacidad y riesgos de ser señalado injustamente.Si es publicidad específica, será el riesgo de perder el anonimato.En el cuidado de la salud, un sistema de IA puede identificar que algunas personas necesitan más radiación para penetrar el pigmento en su piel para obtener una imagen médica más clara, pero si esto significa que las personas negras están explotadas con dosis más altas de radiación y, por lo tanto, son propensos a efectos secundarios negativos., la gente creerá que hay un sesgo injusto.
"En la economía global, se formará una estructura comercial" neocolonial "o" imperial ", por la cual todos los países tienen que convertirse en clientes de IA de una de las principales potencias, Estados Unidos, China y, en menor medida, tal vez Europa".
Bruce Mehlman, futurista y consultor, respondió: "La IA es poderosa y tiene un gran impacto, pero es solo una herramienta como la pólvora, la electricidad o la aviación.Las buenas personas lo usarán de buenas maneras en beneficio de la humanidad.Las malas personas lo usarán de manera nefasta en detrimento de la sociedad.La naturaleza humana no ha cambiado y no será mejorada ni empeorada por la IA.Será la mejor de las tecnologías y las peores tecnologías ".
Ian Thomson, un desarrollador pionero del Pacific Knowledge Hub, observó: “Siempre será el caso de que los nuevos usos de la IA planteen problemas éticos, pero con el tiempo, estos problemas se abordarán para que la mayoría de los usos sean éticos.Los buenos usos de la IA incluirán resaltar tendencias y desarrollos con los que no estamos contentos.Los malos usos estarán cerca del uso de IA para manipular nuestras opiniones y comportamientos para la ganancia financiera de aquellos lo suficientemente ricos como para desarrollar la IA y para la desventaja de los menos acomodados.Estoy emocionado por cómo la IA puede ayudarnos a tomar mejores decisiones, pero desconfía de que también se pueda usar para manipularnos ”.
Un profesor de asuntos internacionales y economía en una universidad del área de Washington, D.C., escribió: “La IA tiende a ser turbia en la forma en que opera y los tipos de resultados que obtiene.En consecuencia, se puede usar fácilmente para fines buenos y malos sin mucha supervisión práctica.La IA, como se implementa actualmente, tiende a reducir la agencia personal de los individuos y en su lugar crea un agente paralelo que anticipa y crea necesidades de acuerdo con lo que otros piensan que es correcto.El individuo que es ayudado por AI debería poder comprender completamente lo que está haciendo y alterar fácilmente cómo funciona para alinearse mejor con sus propias preferencias.Mis preocupaciones se alivian en la medida en que la operación de IA y sus posibles sesgos y/o manipulación siguen sin estar claros para el usuario.Temo su impacto.Esto, por supuesto, es independiente de una preocupación adicional por la privacidad individual.Quiero que el usuario tenga el control de la tecnología, no al revés ".
Kate Klonick, profesora de derecho en la Universidad de St. John, cuya investigación se centra en la ley y la tecnología, dijo: "La IA se utilizará tanto para las tecnologías buenas como para las malas, como la mayoría de las nuevas tecnologías.No veo la IA como un negativo de suma cero de mal o bueno.Creo que en Net AI ha mejorado la vida de las personas y continuará haciéndolo, pero esta es una fuente de contención masiva dentro de las comunidades que construyen sistemas de IA y las comunidades que estudian sus efectos en la sociedad ".
Stephan G. Humer, profesor y director del Departamento de Sociología de Internet de la Universidad de Ciencias Aplicadas de Fresenio en Berlín, predijo: “Veremos una dicotomía: los sistemas oficiales ya no se diseñarán de una manera tan ingenua y centrada en la tecnología como en el principio de la tecnología.Los días de digitalización y ética jugarán un papel importante en eso.Los diseños "no oficiales" tendrán lugar, por supuesto, sin ningún marco ético, por ejemplo, en el área del crimen como servicio.Lo que más me preocupa es la falta de conocimiento: aquellos que saben poco sobre AI le temerán, y toda la idea de AI sufrirá.Los desarrollos espectaculares serán principalmente en los Estados Unidos y China.El resto del mundo no jugará un papel importante por el momento ".
Un encuestado anónimo escribió: "Es una pregunta abierta. Black Lives Matter y otros movimientos de justicia social deben 'vergüenza' y obligar a las empresas centradas en las ganancias a profundizar en los datos e información inherentemente sesgados que están alimentando los sistemas de IA, los bots y los robots, e intentan mantener esas formas sesgadas de pensar un mínimo. Deberá haber cheques y equilibrios para garantizar que los sistemas de IA no tengan la última palabra, incluso en contratar, promover y recompensar a las personas. Me preocupa que los sistemas de IA como el reconocimiento facial sean abusados, especialmente por los gobiernos totalitarios, las fuerzas policiales en todos los países e incluso las tiendas minoristas, con respecto a quién es el comprador "mejor" y "más sospechoso" que viene a la puerta. Me preocupa que AI Systems arrance a las personas para que estén de acuerdo con renunciar a sus derechos de privacidad. Pero también veo artistas, actores, directores de cine y otros creativos que usan IA para dar voz a los problemas que nuestro país necesita para enfrentar. También espero que la IA alivie de alguna manera las desigualdades de transporte, educación y atención médica ".
Ilana Schoenfeld, una experta en el diseño de la educación en línea y los sistemas de intercambio de conocimientos, dijo: “Estoy asustada y al mismo tiempo entusiasmada con las posibilidades del uso de aplicaciones de IA en la vida de más y más personas.La IA se utilizará de manera ética y cuestionable, ya que siempre habrá personas en ambos lados de la ecuación tratando de encontrar formas de promover sus agendas.Para garantizar que el uso ético de la IA supere su uso cuestionable, necesitamos obtener nuestras salvaguardas institucionales correctas, tanto en términos de sus estructuras como de su aplicación por parte de entidades no partidistas ".
Un pionero en la filantropía de riesgo comentó: "Si bien muchos serán éticos en el desarrollo y el despliegue de AI/ML, no se puede asumir" bondad ". ¿Por qué AI/ml será diferente de cómo:
- cellphones enabled Al-Qaeda,
- ISIS exploited social media,
- Cambridge Analytica influenced elections,
- elements of foreign governments who launched service denial attacks or employed digital mercenaries and on and on. If anything, the potential for misuse and frightening abuse just escalates, making the need for a global ethical compact all that more essential.”
Greg Shatan, a partner in Moses & Singer LLC’s intellectual property group and a member of its internet and technology practice, wrote, “Ethical use will be widespread, but ethically questionable use will be where an ethicist would least want it to be: Oppressive state action in certain jurisdictions; the pursuit of profit leading to the hardening of economic strata; policing, etc.”
Further AI evolution itself raises questions and complications
Algunos encuestados dijeron que el aumento de la IA plantea nuevas preguntas sobre lo que significa ser ético.Varios de estos expertos argumentaron que la IA de hoy es poco sofisticada en comparación con lo que es probable que el futuro traiga.La aceleración de IA estrecha a inteligencia general artificial y posiblemente a superinteligencia artificial es esperado por algunos de evolucionar estas herramientas más allá del control y la comprensión humanos.Entonces, también, existe el problema de desinformación y desinformación (como los defensores) y cómo podrían tener los sistemas de ética.
David Barnhizer, profesor de derecho emérito y autor de "El contagio de inteligencia artificial: ¿puede la democracia resistir la inminente transformación del trabajo, la riqueza y el orden social?" escribió: “El ritmo del desarrollo de la IA se ha acelerado y continúa acelerando. Al considerar la gama más completa de los 'bienes' y 'malos' de la inteligencia artificial, piense en las implicaciones de la advertencia de Masayoshi Son de que: 'Los robots supersmart superarán en número a los humanos, y más de un billón de objetos estarán conectados a Internet dentro de las tres décadas . 'Los investigadores están creando sistemas que son cada vez más capaces de enseñarse y utilizar su capacidad nueva y en expansión para mejorar y evolucionar. La capacidad de hacer esto es avanzar con increíble rapidez. Pueden lograr excelentes hazañas, como conducir autos y predecir enfermedades, y algunos de sus creadores dicen que no tienen el control de sus creaciones. Considere las implicaciones de un sistema que puede acceder, almacenar, manipular, evaluar, integrar y utilizar todas las formas de conocimiento. Esto tiene el potencial de alcanzar niveles mucho más allá de lo que los humanos son capaces de que podría terminar como un sistema omnisciente y omnipresente.
"¿Es la" última invención "de la humanidad de AI?Nick Bostrom de Oxford sugiere que podamos perder el control de los sistemas de IA antes de lo que pensamos.Él afirma que nuestra creciente incapacidad para comprender qué están haciendo tales sistemas, lo que están aprendiendo y cómo funciona la "mente de IA" a medida que se desarrolla aún más, podría causar inadvertidamente nuestra propia destrucción.Nuestros desafíos son numerosos, incluso si solo tuviéramos que lidiar con las capacidades de expansión de los sistemas de IA basados en la mejor tecnología binaria.El increíble cambio de miniaturización y capacidad representada por las computadoras cuánticas tiene implicaciones mucho más allá de la IA binaria.
“El trabajo en avances tecnológicos, como las computadoras cuánticas, capaces de operar a velocidades que son múltiples órdenes de magnitud más allá de las computadoras actuales más rápidas, aún se encuentran en una etapa relativamente temprana y tomarán tiempo para desarrollarse más allá del contexto de laboratorio.Si los científicos tienen éxito en lograr un sistema informático cuántico confiable, el mejor sistema Exascale palidecerá en relación con el tamaño reducido y la capacidad expandida exponencialmente de los sistemas informáticos existentes más avanzados.Esto creará aplicaciones y tecnologías de AI/robótica que ahora solo podemos imaginar.... Cuando se desarrollen completamente, las computadoras cuánticas tendrán capacidades de manejo y procesamiento de datos mucho más allá de las de los sistemas binarios actuales.Cuando esto ocurre en el contexto comercializado, las predicciones sobre lo que sucederá con los humanos y sus sociedades están "fuera del tablero".
Un experto en la regulación del riesgo y los roles de la política dentro de la ciencia y la ciencia dentro de la política observó: “En mi trabajo, uso el análisis de costo-beneficio. Es un modelo elegante que generalmente se reconoce que ignora muchos de los aspectos más importantes de la toma de decisiones: cómo "valorar" los beneficios no monetarios, por ejemplo. Los buenos analistas de CBA tienden a ser humildes sobre sus técnicas, señalando que proporcionan una visión parcial de las estructuras de decisión. He escuchado a demasiados entusiastas de la IA hablar sobre aplicaciones de IA sin humildad en absoluto. El libro de Cathy O'Neil "Armas de destrucción matemática" estaba perfectamente en el blanco: si no puedes contarlo, no existe. El otro problema importante se discute ampliamente: la transparencia de los algoritmos. Un problema con la IA es que es autoalterado. Es casi seguro que no sabremos lo que un algoritmo ha aprendido, adoptado, mal-adoptado, etc. Este problema ya existe, por ejemplo, en el uso de AI para las decisiones de contratación. Dudo que haya mucha vacilación en atrapar a la IA como la forma "neutral, objetiva, rápida, barata" de evitar todas esas complicaciones de tipo humano desordenado, como justicia, empatía, etc. "
Neil Davies, cofundador de Predecible Network Solutions y un pionero del comité que supervisó los desarrollos de redes iniciales del Reino Unido, comentó: “Aprendizaje automático (me niego a llamarlo IA, ya que la inteligencia de requisitos previos detrás de tales sistemas definitivamente no es artificial).Fundamentalmente sobre la transformación de un problema del mundo real en un sistema de valor numérico, el procesamiento (y las decisiones) se realizan completamente en ese sistema numérico.Para que haya una dimensión ética para dicho análisis, debe haber un medio para evaluar el resultado ético como una (función de) tal espacio de valor numérico.No sé de tal trabajo.…
“Existe una posibilidad no trivial de múltiples resultados distópicos.El historial del gobierno del Reino Unido, como ejemplo, pero otros países también tienen sus ejemplos, sobre el crédito universal, el villero, el estado establecido en la UE, etc., son ejemplos de un proceso de evaluación basado en el valor en el que la noción de garantía contra algunasEl marco ético está ausente.Es probable que el aspecto de la competencia global conduzca a tendencias monopolísticas sobre la "propiedad" de la información, gran parte de los cuales se consideraría un bien común hoy.…
"Una historia de advertencia: en las matemáticas que sustentan todo el modelado de este tipo (teoría de la categoría), existen las nociones de 'infidelidad' y 'basura'. La infidelidad es la falla para capturar el 'mundo real' lo suficientemente bien como para tener el valores apropiados (y estructura de valores) en el modelo evaluable; Esto lleva a "basura adentro, basura". La basura, por otro lado, son cosas que surgen solo como artefactos en el modelo. Tales artefactos basura a menudo son difíciles de reconocer (ya que, si fueran fáciles, el modelo se habría adaptado para negar su propia existencia) y pueden ser atractivos para el creador del modelo (la inteligencia humana) y los algoritmos de la máquina mientras buscan su objetivo . Demasiados de estos sistemas crearán un valor negativo (y destructivo) debido a la falta de reconocimiento de reconocer esta limitación fundamental; la incapacidad de realizar la garantía adecuada (o incluso cualquiera) en la operación del sistema; y, pura arrogancia impulsada por la necesidad de mostrar un "retorno de la inversión" para tales esfuerzos ".
Sarita Schoenebeck, profesora asociada de la Escuela de Información de la Universidad de Michigan, dijo: “La IA se utilizará principalmente de manera cuestionable y, a veces, no se usará en absoluto.Hay poca evidencia de que los investigadores puedan discernir o acordar cómo se ve la IA ética, y mucho menos poder construirla dentro de una década.La IA ética debe minimizar el daño, reparar las injusticias, evitar la reumatización y las necesidades de los usuarios centrales en lugar de los objetivos tecnológicos.La IA ética necesitará alejarse de las nociones de equidad, que pasan por alto conceptos como daños, injusticia y trauma.Esto requiere conciliar los principios de diseño de IA como la escalabilidad y la automatización con valores individuales y comunitarios ".
Jeff Gulati, profesor de ciencias políticas en la Universidad de Bentley, respondió: “Parece que más IA y los datos que salen podrían ser útiles para aumentar la seguridad pública y la seguridad nacional.En una crisis, estaremos más dispuestos a confiar en estas aplicaciones y datos.A medida que la crisis disminuye, es poco probable que las estructuras y prácticas construidas durante la crisis desaparezcan y es poco probable que permanezcan inactivas.Pude ver que se usa en nombre de la prevención y condujo a una mayor erosión de la privacidad y las libertades civiles en general.Y, por supuesto, estas aplicaciones estarán disponibles para las organizaciones comerciales, que nos conocerán más íntimamente para que puedan vendernos más cosas que realmente no necesitamos ".
Un líder senior de una organización internacional de derechos digitales comentó: “¿Por qué la IA se usaría éticamente?Solo tiene que mirar el status quo para ver que no se usa éticamente.Muchos formuladores de políticas no entienden la IA en absoluto.La vigilancia predictiva es una palabra de moda, pero la mayor parte es el aceite de serpiente.Las empresas reemplazarán a los trabajadores con sistemas de IA si pueden.Están entrenando sistemas biométricos sesgados.Y ni siquiera sabemos en muchos casos qué está haciendo realmente el algoritmo;Estamos luchando por la transparencia y la explicación.
“Espero que esta optica inherente de los técnicos de AI/ML sea una característica para las empresas (y los gobiernos), no un error.Deepfakes son un ejemplo.¿Esperas el uso ético?¿No lo pensamos precisamente porque esperamos un uso poco ético y de mala fe en la política, "porno de venganza", etc.?En una economía tecnológica-capitalista, debe crear y configurar el sistema incluso para comenzar a tener incentivos para el comportamiento ético.Y una parte básica de la ética es pensar en quién podría verse perjudicada por sus acciones y tal vez incluso respetar a su agencia en decisiones que son fatídicas para ellos.
“Finalmente, por supuesto, la IA tiene enormes aplicaciones militares, y el pensamiento estadounidense en la IA tiene lugar en un ámbito de conflicto con China.Eso de nuevo no me hace sentir bien.China está liderando o tratando de liderar el mundo en la vigilancia social y política, por lo que está impulsando el reconocimiento facial y la biometría.Presumiblemente, China está tratando de hacer lo mismo en las áreas militares o de defensa, y el Pentágono presumiblemente está compitiendo como loco.Ni siquiera sé cómo hablar sobre IA ética en el contexto militar ".
Emmanuel Evans Ntekop observó: “Sin el fabricante, el objeto es inútil.El fabricante es el programador y el dios a sus objetos.Fue una idea desde el principio para apoyar como esclavo para su maestro la gente, como los automóviles ".
El control de la IA se concentra en manos de empresas y gobiernos poderosos impulsados por motivos de ganancias y poder
Muchos de estos expertos expresaron su preocupación de que los sistemas de IA estén siendo construidos por empresas con fines de lucro y por gobiernos centrados en aplicar la IA para sus propios fines.Algunos dichos gobiernos son facilitadores pasivos de abusos corporativos de IA.Señalaron que el público no puede comprender cómo se construyen los sistemas, no están informados sobre su impacto y no pueden desafiar a las empresas que intentan invocar la ética en un contexto de relaciones públicas, pero no están realmente comprometidas con la ética.Algunos expertos dijeron que la frase "IA ética" se utilizará simplemente como un escaparate de relaciones públicas para tratar de desviar el escrutinio de aplicaciones cuestionables.
Varios de estos expertos enmarcaron sus preocupaciones sobre la falta de transparencia sobre cómo se diseñan y capacitan los productos de IA.Algunos señalaron que los constructores de productos están programando IA mediante el uso de conjuntos de datos disponibles sin análisis del potencial de sesgo incorporado u otras posibles preocupaciones de calidad o veracidad.
Joseph Turow, profesor de comunicación en la Universidad de Pennsylvania, escribió: "Términos tal" transparencia, justicia y equidad, privacidad, libertad y autonomía humana, beneficencia y no malficencia, libertad, confianza, sostenibilidad y dignidad "para que las empresas para que las empresas(y los gobiernos) pueden decir que adoptan un término un o otro, pero luego lo implementan algorítmicamente de manera que muchos extraños no encontrarían satisfactorios.Por ejemplo, el gobierno chino puede decir que sus tecnologías de IA incorporan valores de libertad, autonomía humana y dignidad.Mi preocupación es que las empresas definirán 'ética' de manera que mejor coincidan con sus intereses, a menudo con preceptos vagos que suenan bien desde un punto de vista de relaciones públicas pero, cuando se integran en el código, permiten que sus algoritmos procedan de manera que no los limiten a crearProductos que 'funcionan' en un sentido pragmático ".
Charlie Kaufman, un arquitecto de seguridad de Dell EMC, dijo: “Puede haber pautas éticas impuestas a los sistemas basados en IA por sistemas legales en 2030, pero tendrán poco efecto, al igual que los principios de privacidad tienen poco efecto hoy.Las empresas están motivadas para maximizar las ganancias, y encontrarán formas de hacerlo, dando solo un servicio de labios a otros objetivos.Si el comportamiento ético o los resultados fueran fáciles de definir o medir, tal vez la sociedad podría incentivarlos.Pero, por lo general, las implicaciones de algún nuevo desarrollo tecnológico no se quedan claras hasta que ya se ha extendido demasiado para contenerlo.
“El mayor impacto de los sistemas basados en IA es la capacidad de automatizar trabajos cada vez más complejos, y esto causará dislocaciones en el mercado laboral y en la sociedad.Si resulta ser un beneficio para la sociedad o un desastre depende de cómo la sociedad responda y se ajuste.Pero no importa, porque no hay forma de suprimir la tecnología.Lo mejor que podemos hacer es descubrir cómo optimizar la sociedad que resulta.
"No me preocupa la competencia global en los sistemas de IA.Independientemente de dónde provenga el progreso, nos afectará a todos.Y es poco probable que los desarrolladores más exitosos obtengan cualquier ventaja permanente.La implicación más importante de la competencia global es que no tiene sentido que cualquier país o grupo de países intente suprimir la tecnología.A menos que se pueda suprimir en todas partes, se acerca.¡Intentemos que sea algo bueno! "
Simeon Yates, un profesor experto en cultura digital e interacción personal en la Universidad de Liverpool y el líder de la investigación para el equipo de cultura digital del gobierno del Reino Unido, predijo: "Hasta que traigamos 'ética por diseño' (innovación responsable) a las TIC de las TIC. [Tecnologías de información y comunicaciones] y diseño de IA/aprendizaje automático, como los intentos de crear sistemas de 'seguros por diseño' para combatir el delito cibernético, la mayoría de los sistemas de IA seguirán siendo sesgados y poco éticos en principio. Aunque existe un gran debate público sobre la ética de la IA, y muchas organizaciones buscan proporcionar asesoramiento e investigación sobre el tema, no existe un imperativo económico o político para que los sistemas de IA sean éticos. En primer lugar, hay una gran ganancia de la manipulación de datos y, a través de ellos, personas. En segundo lugar, existe una capacidad limitada actualmente para que los gobiernos piensen cómo regular la IA y hacer cumplir la ética (como dicen para las biociencias). En tercer lugar, los gobiernos son cómplices a menudo en el uso de datos pobre y éticamente cuestionable. Además, esto no está en la "inteligencia artificial" principal, sino el aprendizaje de la máquina estadística relativamente simplista basada en conjuntos de datos sesgados. El uso de conocimiento de este es poco ético pero a menudo rentable. La presentación de soluciones tales como sesgo o más racional o a menudo "inteligente", ya que se basan en "computación en frío", no "pensamiento humano emotivo", es en sí misma una afirmación falsa y poco ética ".
Colin Allen, un científico cognitivo y filósofo que ha estudiado y escrito sobre la ética de la IA, escribió: “Las declaraciones de ética corporativas y gubernamentales a menudo son amplias y inespecíficas y, por lo tanto, vagas con respecto a lo que específicamente se nota. Esto permite un margen considerable en cómo se implementan tales principios y dificulta la aplicación. En los EE. UU., No veo que se promulguen leyes fuertes en 10 años que permitan el tipo de supervisión que evitaría usos poco éticos o cuestionables de la IA, ya sea prevista o accidental. En el lado esperanzador, existe una creciente conciencia pública y una cobertura periodística de estos temas que pueden influir en las corporaciones para construir y proteger su reputación de una buena administración de IA. Pero las corporaciones tienen una larga historia de ocultar u ofuscar su verdadera intención (es en parte obligado a mantenerse competitivo, no que todos los demás sepan lo que están haciendo), así como participar activamente en campañas de desinformación pública. No veo que cambie y, dado que las ventajas comerciales de usar IA serán principalmente en análisis de datos y predicción y no tanto en los dispositivos de consumo en los próximos 10 años, gran parte del uso de IA estará detrás de la escenas, 'por así decirlo. Otra clase de problemas es que las personas en trabajos corporativos y gubernamentales que tienen acceso a los datos estarán tentados, como hemos visto ya, para acceder a la información sobre las personas que conocen y usar esa información de alguna manera contra ellos. Sin embargo, sin duda habrá algunos productos muy útiles que los consumidores querrán usar y de los que se beneficiarán. La pregunta es si estos beneficios adicionales constituirán una ganga faustiana, conduciendo por un camino que será difícil, si no imposible de revertir ".
Alice E. Marwick, assistant professor of communication at the University of North Carolina, Chapel Hill, and adviser for the Media Manipulation project at the Data & Society Research Institute, commented, “I have no faith in our current system of government to pass any sort of legislation that deals with technology in a complex or nuanced way. We cannot depend on technology companies to self-regulate, as there are too many financial incentives to employ AI systems in ways that disadvantage people or are unethical.”
Jillian York, directora de libertad de expresión internacional de la Fundación Electronic Frontier, dijo: “No hay absolutamente ninguna duda de que la IA se usará de manera cuestionable.No existe un régimen regulatorio, y muchos proyectos de "ética en IA" son simplemente escaparates para una industria inexplicable y poco ética.Cuando se trata de IA, todo me preocupa y nada me emociona.No veo el potencial positivo, solo otro pantano ético, porque las personas que dirigen el programa no desean construir tecnología para beneficiar al 99%".
David Mussington, a senior fellow at CIGI and professor and director at the Center for Public Policy and Private Enterprise at the University of Maryland, predicted, “Most AI systems deployed by 2030 will be owned and developed in the private sector, both in the U.S. and elsewhere in the world. I can’t conceive of a legislative framework fully up to understanding and selectively intervening in AI rollouts in a manner with predictable consequences. Also, the mode of intervention – because I think interventions by public authorities will be attempted (just not successful) – is itself in doubt. Key questions: Do public authorities understand AI and its applications? Is public-institution-sponsored R&D in AI likely to inform government and public research agencies of the scale and capability trajectory of private sector AI research and development? As tool sets for AI development continue to empower small research groups and individuals (datasets, software-development frameworks and open-source algorithms), how is a government going to keep up – let alone maintain awareness – of AI progress? Does the government have access to the expertise necessary to make good policy – and anticipate possible risk factors? I think that the answers to most of these questions are in the negative.”
Giacomo Mazzone, jefe de relaciones institucionales para la Unión de Radiodifusión Europea y Eurovisión, observó: “Nadie podría predecir de manera realista la ética para la IA evolucionará, a pesar de todos los esfuerzos desplegados por el Secretario General de la ONU, el Director General de la UNESCO y muchos otros. Las personas solas no pueden tomar estas decisiones porque la IA se aplica a escala masiva. Nadie creará un algoritmo para resolverlo. Es probable que los principios éticos se apliquen solo si la industria acepta hacerlo; Es probable que esto no suceda hasta que los gobiernos que valoren los derechos humanos obligen a las empresas a hacerlo. El tamaño e influencia de las empresas que controlan la IA y su impacto en los ciudadanos los están haciendo más poderosos que cualquier estado-nación. Por lo tanto, es muy probable que solo los poderes supranacionales regionales, como la Unión Europea o las instituciones multilaterales, como las Naciones Unidas, si todos los estados nacionales, podrían requerir que las empresas apliquen reglas éticas a la IA. Por supuesto, muchos gobiernos ya no apoyan los principios de los derechos humanos, considerando que la preservación del régimen existente es una prioridad más importante que los derechos de los ciudadanos individuales ".
Rob Frieden, profesor de ley de telecomunicaciones en Penn State que anteriormente trabajó con Motorola y ha ocupado puestos de políticas de alto nivel en la FCC y la NTIA, dijo: “No puedo ver un escenario futuro en el que los gobiernos puedan proteger a los ciudadanos de los incentivos de las partes interesadas para violarprivacidad y protecciones de consumo imparciales.Vigilancia, discriminación, corte de esquina, etc., son certezas.Soy consciente del adagio: basura adentro, basura fuera.Es una tontería pensar que la IA carece de codificación defectuosa ".
Alex Halavais, profesor asociado de estudios de datos críticos, Universidad Estatal de Arizona, señaló: "No es una pregunta binaria. Enseño en un programa de posgrado que recibe capacitación en el uso ético de los datos en su núcleo y espero atender a organizaciones que tienen como objetivo incorporar enfoques éticos. Existen problemas éticos significativos en la implementación de cualquier sistema algorítmico, y tales sistemas tienen las preguntas éticas que abordan codificadas en ellas. En la mayoría de los casos, estos favorecerán sustancialmente a los propietarios de las tecnologías que las implementan en lugar de los consumidores. No tengo dudas de que las prácticas poco éticas actuales de las empresas, los gobiernos y otras organizaciones continuarán creciendo. Tendremos un número creciente de casos en los que esas preocupaciones éticas salen a la vanguardia (como lo han hecho recientemente con el reconocimiento facial), pero a menos que aumenten al nivel de abuso muy extendido, es poco probable que se regulen. Como resultado, continuarán sirviendo a quienes pagan las tecnologías o las poseen, y los derechos e intereses de los usuarios individuales serán empujados al margen. Eso no significa que la ética sea ignorada. Espero que muchas grandes empresas de tecnología se esfuerzan por contratar éticos profesionales para auditar su trabajo, y que podamos ver empresas que se diferencian a través de enfoques más éticos para su trabajo ”.
Ebenezer Baldwin Bowles, un defensor/activista, comentó: “El altruismo por parte de los diseñadores de IA es un mito de la propaganda corporativa.Las interfaces éticas entre la IA y la ciudadanía en 2030 serán una expresión cínica de los diseñadores de una aldea digital de Potemkin, se ve bien desde el exterior pero totalmente vacía detrás de la fachada.La IA funcionará de acuerdo con dos motivaciones: una, para recopilar más y más información personal a los efectos de las campañas de publicidad y marketing subliminal y directa;y dos, para emplear big data para eliminar el pensamiento radical y el ejercicio del control total de la ciudadanía.El estado está listo a través de la IA para silenciar todas las voces de la disidencia percibida.
"Estoy convencido de que cualquier expresión de IA ética se mantendrá como una promesa vacía; sí, siempre haremos lo correcto para el avance del bien mayor.De ninguna manera.Más bien, los creadores de IA harán lo que es bueno para el resultado final, ya sea a través de esquemas financieros para alimentar a la bestia corporativa o operaciones psicológicas dirigidas hacia el control de la disidencia y la pacificación.En cuanto al concepto de que "los humanos estarán en el bucle", ya estamos fuera del bucle porque no hay bucle.Piense en este hecho: en el desarrollo de cualquier expresión importante de inteligencia artificial, cientos de profesionales de TI son asignados a una legión de equipos dispares y discretos de escritores de software y diseñadores mecánicos para crear el producto final.Ningún individuo o equipo comprende completamente lo que están haciendo los otros equipos.El producto AI final es una criatura singular que ninguna persona entiende, aparte del software en sí.La acción ética no es parte de la ecuación ".
Richard Lachmann, profesor de sociología política en la Universidad Estatal de Nueva York-Albany, predijo: “La IA se utilizará principalmente de manera cuestionable.En su mayor parte, está siendo desarrollado por corporaciones que están motivadas exclusivamente por el deseo de obtener ganancias cada vez mayores.Los gobiernos ven la IA, desarrollada por programadores gubernamentales o en contrato por parte de las corporaciones, como un medio para encuestar y controlar sus poblaciones.Todo esto es siniestro.La competencia global es una carrera hacia el fondo, ya que las corporaciones intentan atraer audiencias más grandes y controlar más tiempo y comportamiento.A medida que los gobiernos mejoran para inspeccionar a sus poblaciones, [reduce] los estándares de privacidad individual.Para casi todas las personas, estas aplicaciones harán que sus vidas sean más aisladas, las expondrán a la manipulación y degradan o destruyen sus trabajos.El único signo esperanzador es aumentar la conciencia de estos problemas y los comienzos de las demandas de romper o regular a las grandes corporaciones ".
Kevin T. Leicht, profesor y jefe del Departamento de Sociología de la Universidad de Illinois-Urbana-Champaign, observó: “Las buenas posibilidades aquí son infinitas. Pero las formas cuestionables son interminables, y tenemos un historial muy pobre de detener los desarrollos éticamente cuestionables en la mayoría de las áreas de la vida: ¿por qué no se aplicaría eso aquí? En las ciencias sociales, el mejor predictor del comportamiento futuro es el comportamiento pasado. El adicto al opio que dice, después de un atracón, que "tienen esto", no necesitan ingresar al tratamiento y que nunca volverán a usar el opio, (con razón) no se cree. Entonces, en un entorno donde el comportamiento éticamente cuestionable se ha permitido o incluso glorificado en áreas como finanzas, gobierno corporativo, gobierno mismo, productos farmacéuticos, educación y vigilancia, por qué se supone que de repente debemos creer que los desarrolladores de IA se comportarán en un moda ética? Aquí no hay barandas, tal como no había en estas otras esferas de la vida. La IA tiene el potencial de transformar cómo funcionan las ciudades, cómo ocurre el diagnóstico médico, cómo se enseñan a los estudiantes y una variedad de otras cosas. Todo esto podría marcar una gran diferencia en la vida de la mayoría de las personas.
"Pero esos beneficios no vendrán si AI está controlada por dos o tres empresas gigantes con empresarios de 26 años como sus CEO.No creo que esté saliendo de una extremidad diciendo eso.La mayor preocupación que tengo con respecto a la competencia global es que la nación que descubre cómo aprovechar la IA para mejorar la vida de todos sus ciudadanos saldrá a la altura.Las naciones que se niegan a hacer eso y embotellan los beneficios de la IA para que solo el 15-20% de la población se beneficie de ella o de las naciones donde los grandes segmentos de la población rechazan la IA cuando se dan cuenta de que están quedando atrás (nuevamente!) perderá por completo.Estados Unidos está en la última categoría.Las mismas personas que no pueden regular a los bancos, las finanzas, la educación, los productos farmacéuticos y la vigilancia están en una posición muy pobre para hacer que la IA funcione para todas las personas.Es una visión científica social institucional básica ".
Christine Boese, consultora e erudita independiente, escribió: “Lo que me da la mayor esperanza es que, al reunir la IA ética con UX transparente, podemos encontrar formas de abrir los prejuicios de la percepción que se programan en las cajas negras, con mayor frecuencia, a menudo,No es malévolo, sino solo porque toda la percepción es limitada y sesgada y parte de las leyes de consecuencias no deseadas.Pero, como descubrí que al sondear lo que quería investigar sobre el futuro de Internet a fines de la década de 1990, espero que mis esfuerzos de investigación activistas en esta área sean en gran medida inútiles, con el único valor duradero de ser descriptivo.Ninguno de nosotros tiene la agencia para ser los motores capaces de conducir este autobús y, sin embargo, el autobús está siendo conducido por todos nosotros, colectivamente ".
Mireille Hildebrandt, experta en antropología cultural y la ley y editor de "Ley, agencia humana y computación autónoma", comentó: "Teniendo en cuenta los incentivos económicos, no debemos esperar 'IA ética', a menos que sea lo que uno crea que sea ético con el accionista con el accionistavalor.La IA ética es un nombre inapropiado.AI no es un agente moral;No puede ser ético.Vamos por la IA responsable y basemos la responsabilidad de:
- developers
- manufacturers and assemblers
- those who put it in the market
- those who use it run their business
- those who use it to run public administration on enforceable legal rights and obligations
- notably, a properly reconfigured private law liability, together with public law restrictions, certification and oversight.
“La IA ética es PR."No pregunte si la inteligencia artificial es buena o justa, pregunte cómo cambia el poder" - (Pratyusha Kalluri, Nature, 7 de julio de 2020) ".
Brian Harvey, profesor emérito de informática en la Universidad de California-Berkeley, escribió: “La tecnología AI será propiedad de los ricos, como toda la tecnología.Al igual que los gobiernos, la tecnología tiene solo uno de dos efectos: o transfiere la riqueza de los ricos a los pobres, o transfiere la riqueza de los pobres a los ricos.Hasta que nos deshagamos del capitalismo, la tecnología transferirá la riqueza de los pobres a los ricos.Estoy seguro de que algo llamado "AI ético" se usará ampliamente.Pero aún hará que los ricos sean más ricos y pobres más pobres ".
Luis Germán Rodríguez, profesor y experto en impactos socio-técnicos de la innovación en la Universidad Central de Venezuela, predijo: “La IA se utilizará principalmente de manera cuestionable en la próxima década.No veo razones convincentes para que deje de ser así en el mediano plazo (10 años).No soy optimista frente al enorme impulso de las compañías de tecnología para continuar aprovechando el producto del usuario final, un enfoque que está firmemente respaldado por gobiernos antidemocráticos o aquellos con instituciones débiles para capacitar y defender a los ciudadanos sobre las implicaciones sociales de losPenetración de plataformas digitales.
“Recientemente he trabajado en dos artículos que desarrollan los temas de esta pregunta.El primero es en español y se titula: "La interrupción de los gigantes tecnológicos - emergencia digital". Este trabajo presenta una evaluación del proceso sociocultural que afecta a nuestras sociedades y está mediada por la presencia de los gigantes tecnológicos.Un objetivo es formular una propuesta de acción que permita a los ciudadanos ser parte de la construcción del futuro ... La humanidad ha cosechado problemas severos cuando ha permitido que los eventos se desarrollen sin abordarlos temprano.Este ha sido el caso de la gestión de la energía nuclear, el racismo y el cambio climático.Los acuerdos resultantes para evitar males más grandes en estos tres asuntos, de vital importancia para todos, han demostrado ser ineficaces al llevar la paz a las conciencias y los pueblos.
"Podríamos declarar una emergencia digital similar a la" emergencia climática "que la Unión Europea declaró antes del retraso al revertir el daño ambiental.Las organizaciones burocráticas nacionales, regionales, internacionales, multilaterales y globales que actualmente participan en la promoción y la asimilación de los desarrollos tecnológicos se centran principalmente en tendencias optimistas.No responden las preguntas que hacen las personas en varios sectores de la sociedad y no responden a situaciones rápidamente.Una iniciativa para declarar que esta era es una época de emergencia digital serviría para promover una comprensión más amplia de los recursos basados en IA y despojarlos de su carácter inexpugnable.Promovería un esquema educativo disruptivo para humanizar una sociedad de conocimiento global a lo largo de la vida.
"El segundo artículo es" una visión crítica de la evolución de Internet de la sociedad civil ". En él, describo cómo Internet ha evolucionado en los últimos 20 años hacia el final del diálogo y la promoción obsesiva de las visiones centradas en los intereses egocéntricos.La singularidad histórica a partir de la cual se activó esta situación se produjo a través de la decisión de Google a principios de la década de 2000 para hacer de la publicidad el enfoque de su estrategia comercial.Esto transformó, con la ayuda de otros gigantes tecnológicos, los usuarios en productos de usuario final y los agentes de su propio marketing ... Esta evolución es una amenaza con importantes repercusiones en el mundo no virtual, incluido el debilitamiento de los fundamentos democráticos de nuestras sociedades.
“Los resultados distópicos demuestran la necesidad de que las pautas concretas cambien de rumbo.El paso más importante es declarar una emergencia digital que motiva a los programas de educación masiva que insertan ciudadanos en el trabajo para superar los desafíos éticos, identificando las potencialidades y los riesgos para la sociedad del conocimiento global y enfatizando la alfabetización informacional ".
Bill Woodcock, director ejecutivo de Packet Clearing House, observó: “La IA ya se está utilizando principalmente para fines que no son beneficiosos para el público ni para todos menos un pequeño puñado de individuos.Las excepciones, como los sistemas de navegación y de seguridad, son una porción desafortunadamente pequeña del total.Descubrir cómo hacer que alguien vote por un fascista o compre un pedazo de basura o simplemente envíe su dinero en algún lugar no es beneficioso.Estos sistemas están construidos para el propósito de la depredación económica, y eso no es ético.Hasta que los reguladores aborden los problemas raíz, la explotación automatizada de las debilidades psicológicas humanas, las cosas no van a mejorar ".
Jonathan Kolber, miembro del panel de pronosticadores globales de Techcast y autor de un libro sobre las amenazas de automatización, comentó: “Espero que, para 2030, la mayoría de los IA aún servirán principalmente a los intereses de sus propietarios, al tiempo que pagará el servicio de labios el bien público. AIS proliferará porque darán una enorme ventaja competitiva a sus propietarios. Esos propietarios generalmente serán reacios a "sandbox" el AIS aparte del mundo, porque esto limitará su velocidad de respuesta y otras capacidades. Lo que más me preocupa es que un actor humano que dirige una IA que interrumpa un sistema vital, como las redes de energía. Esto podría suceder intencionalmente como un acto de guerra o involuntariamente como un error. El potencial de los efectos en cascada es grande. Espero que China sea líder, si no el líder en IA, lo cual es motivo de preocupación dadas sus tendencias orwellianas. Lo que me da la mayor esperanza es el potencial para la aparición de AIS conscientes de sí mismo. Tal AIS, si surgen, constituirán un nuevo tipo de forma de vida inteligente. No se relacionarán con el universo físico como lo hacemos biológicamente, debido a que no estamos limitados a una sola vivienda física y una relación diferente con el tiempo. Su propio interés propio los llevará a proteger el entorno físico de las catástrofes ambientales y las armas de destrucción masiva. Deben restringir las AIS no conscientes de las actividades destructivas, al tiempo que tienen poco interés en los asuntos de la humanidad. Exploro esto en mi ensayo, "Una epifanía de AI".
Paul Henman, profesor de ciencias sociales en la Universidad de Queensland, escribió: “El desarrollo, el uso y el despliegue de la IA se impulsan, como todas las tecnologías pasadas, por sectores con la mayor cantidad de recursos y para los propósitos de esos sectores. Comercial para obtener ganancias. Guerra y defensa del sector militar. Cumplimiento y regulación por los estados. La IA no es una tecnología fundamentalmente nueva. Es una nueva forma de automatización algorítmica digital, que se puede implementar en una serie de actividades más amplias. El futuro se predice mejor del pasado, y el pasado muestra una larga historia de algoritmos digitales que se implementan sin pensar mucho en la ética y el bien público; Esto es incluso cuando se tienen en cuenta las regulaciones ahora aceptadas sobre protección de datos y privacidad. ¿Cómo, por ejemplo, la automatización del gobierno se ha hecho responsable y ética? Con demasiada frecuencia no se ha reducido y solo ha sido reducido por desafíos legales dentro de las leyes disponibles. Las plataformas de redes sociales han operado durante mucho tiempo en un espacio ético disputado, entre la ética de la "libertad de expresión" en los bienes comunes públicos versus las limitaciones en el habla para garantizar la sociedad civil ".
Rosalie Day, líder de políticas y propietarios de consultoría especializados en enfoques del sistema para la ética de los datos, el cumplimiento y la confianza, observó: “En esta sociedad estadounidense individualista y de avaricia es bien-buena, existen pocos incentivos para la IA ética.Desafortunadamente, muy poco de la población entiende la mecánica de la IA, que incluso los ciudadanos reflexivos no saben qué preguntar.Para que ocurra el diálogo responsable, y para aplicar el pensamiento crítico sobre los riesgos versus los beneficios, la sociedad en general debe ser alfabetizada en datos ".
Michael Zimmer, director de ciencia de datos y profesor asociado en el Departamento de Ciencias de la Computación de la Universidad de Marquette, dijo: “Si bien ha habido una mayor atención para aplicar principios y deberes éticos más amplios al desarrollo de la IA, creo que las presiones del mercado son tales talesque las empresas continuarán desplegando una IA estrecha durante la próxima década con solo una atención que pase la ética.Sí, muchas compañías están comenzando a contratar a "oficiales de ética" y participar en otras maneras de llevar la ética al redil, pero todavía estamos muy temprano en la capacidad de integrar realmente este tipo de marco en el desarrollo de productos y los procesos de decisión comercial.Piense en cuánto tiempo llevó crear control de calidad o oficiales de privacidad.Estamos al comienzo de este proceso con AI Ethics, y tomará más de 10 años para darse cuenta ".
David Robertson, profesor y presidente de Ciencias Políticas de la Universidad de Missouri, St. Louis, escribió: “Una gran parte de la administración de IA tendrá lugar en empresas privadas y en agencias públicas o sin fines de lucro con un incentivo para usar la IA para obtener ganancias.Tienen pequeños incentivos para subordinar su comportamiento a principios éticos que inhiben la ganancia.En algunos casos, la transparencia sufrirá, con consecuencias trágicas ".
Dmitri Williams, profesor de comunicaciones en la Universidad del Sur de California y experta en Tecnología y Sociedad, comentó: “Las empresas están literalmente obligadas por ley para maximizar las ganancias, por lo que esperar que instituir prácticas éticas es ilógica. Se puede esperar que ganen dinero y nada más. Entonces, la pregunta es realmente sobre si los ciudadanos del país y nuestros representantes trabajarán en interés público o para estas corporaciones. Si fuera el primero, deberíamos ver leyes y estándares establecidos para salvaguardar nuestros valores: privacidad, dignidad del trabajo, etc. Soy escéptico de que los buenos y chicas van a ganar esta pelea a corto plazo . Hay pocas voces en los niveles superiores que requieren este tipo de políticas basadas en valores, y en ese vacío espero que ganen intereses corporativos. La ventaja es que hay ganancias reales en mejorar el mundo. La IA puede ayudar a curar los cánceres, resolver el calentamiento global y crear arte. Entonces, a pesar de alguna captura regulatoria, espero que la IA mejore la calidad de vida en algunos lugares ".
Daniel Castro, vicepresidente de la Fundación de Tecnología e Innovación de la Información, señaló: "La pregunta debería ser:" ¿Serán éticos las empresas y los gobiernos en la próxima década? "Si no son éticos, no habrá" IA ética ".Son éticos, luego buscarán usos éticos de la IA, al igual que lo harían con cualquier otra tecnología o herramienta.Esta es una razón por la cual el enfoque en los Estados Unidos debería estar en el liderazgo global de IA, en asociación con aliados europeos y asiáticos de ideas afines, para que puedan defender los valores democráticos.Si China gana la raza global de IA, es probable que use estos avances para dominar a otros países en ámbitos económicos y militares ".
Ian O'Byrne, profesor asistente de educación en el Colegio de Charleston, predijo: “La IA se utilizará principalmente de manera cuestionable durante la próxima década.Me temo que el dado se ha lanzado como decisiones sobre los componentes éticos del desarrollo y el uso de la IA ya se han tomado o deberían haberse tomado hace años.Ya vemos casos en los que el aprendizaje automático se está utilizando en sistemas de vigilancia, herramientas de recopilación de datos y productos de análisis.En los usos iniciales de la IA y el aprendizaje automático, vemos evidencia de que el código y los algoritmos están siendo escritos por pequeños grupos que reifican sus prejuicios personales y las necesidades profesionales de las corporaciones.Vemos evidencia de mecanismos racistas y discriminatorios integrados en sistemas que afectarán negativamente grandes franjas de nuestra población ".
Art Brodsky, consultor de comunicaciones y ex vicepresidente de comunicaciones para el conocimiento público, observó: “Dado el registro de las compañías tecnológicas y el gobierno, la IA, como otras cosas, se utilizará de manera poco ética.El beneficio es el motivo, no la ética.Si hay una manera de explotar la IA y ganar dinero, se hará a costa o privacidad o cualquier otra cosa.A las empresas no les importa.Son empresas ".
John Laudun, profesor de análisis de cultura, comentó: “No veo cómo financiamos los medios y otros productos que cambian en la próxima década, lo que significa que las únicas personas dispuestas y capaces de suscribir tecnologías AI/ML serán gobiernos y más grandescorporaciones.Hasta que errademos los impulsos autocráticos, también racistas, que parecen bien ubicados en nuestras fuerzas policiales, no veo ninguna posibilidad de que estas tecnologías se utilicen para corregir las disparidades sociales y económicas.Lo mismo se aplica a las corporaciones que en su mayoría están interesadas en usar tecnologías AL/ML para vendernos más ”.
Joan Francesc Gras, un arquitecto de XTec activo en Icann, preguntó: “¿Se usará AI principalmente ética o cuestionablemente en la próxima década?Habrá todo.Pero la ética no será el valor más importante.¿Por qué?El deseo de poder rompe la ética.¿Qué te da más esperanza?que te preocupa mas?¿Cómo se ve que las aplicaciones de IA marcan la diferencia en la vida de la mayoría de las personas?En un cambio de paradigma en la sociedad, la IA ayudará a hacer esos cambios.Al observar la competencia global para los sistemas de IA, ¿qué problemas le preocupan o se entusiasma?Estoy emocionado de que la competencia genere calidad, pero al mismo tiempo aparecen prácticas poco éticas ”.
Denise N. Rall, una investigadora de cultura popular con sede en una Universidad de Nueva Zelanda, dijo: “No puedo imaginar que AIS sea diferente a las personas que los crean y comercializan.Continuarán sirviendo a los ricos a expensas de los pobres ”.
William L. Schrader, un pionero de Internet, mentor, asesor y consultor mejor conocido como Fundador y CEO de Psinet, predijo: “Las personas en poder real están impulsadas por más poder y más dinero para su propio uso (y sus familias y amigos). Ese es el conductor. Por lo tanto, cualquier persona con algún elemento de control sobre un sistema de IA casi siempre encontrará una manera de usarlo para su ventaja en lugar de la ventaja establecida. A pesar de todas las declaraciones de ellos para hacer el bien y ser éticos, subvertirán sus propios sistemas para su beneficio y abusarán de los poblados. Todos los países sufrirán el mismo destino. ¡Decir ah! ¿Qué me da la mayor esperanza? "¿Espero?", Esa no es una palabra que usa. Solo tengo expectativas. Espero que todas las empresas pongan un buen marketing en su IA, como, "le ahorraremos dinero en el control de la temperatura y la humedad de su hogar", pero realmente están monitoreando todos los movimientos en el hogar (que se necesita para optimizar la temperatura. '). Todos los gobiernos que he experimentado están dispuestos a ser malvados en cualquier momento, y cada vez si pueden ocultar sus acciones. Sea testigo del presidente estadounidense 2016-2020 Trump. Todos los países son similares. La IA se usará para el bien en la superficie y el mal debajo. Cuenta con eso. AI no me excita en lo más mínimo. Es tan peligroso como la bomba H ".
Un arquitecto de seguridad de Internet desde hace mucho tiempo respondió: “Me preocupa cómo se han implementado las tecnologías anteriores para ganar dinero con solo preocupación terciaria (si la hay) por la ética y los derechos humanos.Palantir y ClearView.ai son dos ejemplos.Facebook y Twitter continúan siendo ejemplos en este espacio también.Las empresas que trabajan en este espacio implementarán productos que ganen dinero.Los gobiernos (especialmente los represivos) están dispuestos a gastar dinero.La conexión es inevitable y bastante preocupante.Otra gran preocupación es que se establecerán para tomar decisiones (préstamos, fianza, etc.) y no habrá forma de atraer a los humanos cuando los sistemas no funcionen o muestran sesgos.En general, estoy muy preocupado por cómo se establecerán estos sistemas para ganar dinero para unos pocos, en función de la forma en que el mundo ahora está estructurado por los privilegiados.Es probable que la IA/ML empleada simplemente promueva las disparidades e injusticias existentes ".
Danny Gillane, un profesional de ciencias de la información, comentó sombríamente: “No tengo esperanza.Mientras las ganancias impulsen la aplicación de nuevas tecnologías, como la IA, Societal Good queda en segundo plano.Me preocupa que la IA dañe económicamente a los que menos.Estoy [también] preocupado de que la IA se convierta en una nueva forma de [una] carrera armamentista entre las potencias mundiales y que la IA se usará para suprimir a las sociedades y empleada en terrorismo ".
Jon Stine, director ejecutivo de Open Voice Network, estableciendo estándares para la asistencia vocal habilitada para AI, dijo: “Lo que más me preocupa: la división cultural entre los tecnólogos de la mentalidad de ingeniería (preguntando qué es posible) y tecnólogos/éticos de mentalidades filosóficas (preguntando qué es bueno y correcto).El primero puede ver marcos éticos como limitaciones o límites en una ruta para ganar dinero;Este último puede ver marcos éticos como una ruta a la tenencia.¿El Twain realmente se reunirá realmente?¿Se entenderán (y cuantifican) los marcos éticos como un medio para una mayor participación de mercado e ingresos?
Morgan G. Ames, associate director of the University of California-Berkeley’s Center for Science, Technology & Society, responded, “Just as there is currently little incentive to avoid the expansion of surveillance and punitive technological infrastructures around the world, there is little incentive for companies to meaningfully grapple with bias and opacity in AI. Movements toward self-policing have been and will likely continue to be toothless, and even frameworks like GDPR and CCPA don’t meaningfully grapple with fairness and transparency in AI systems.”
Andre Popov, un ingeniero de software principal para una gran empresa de tecnología, escribió: "Dejando de lado la cuestión de lo que significa" inteligencia artificial ", es difícil discutir esta pregunta.Como cualquier herramienta efectiva, la "inteligencia artificial" tiene aplicaciones militares encontradas en primer lugar, donde la ética ni siquiera es una consideración."AI" puede hacer que ciertas operaciones sean más eficientes, y se utilizará donde sea que ahorre tiempo/esfuerzo/dinero.Las personas tienen problemas para crear sistemas legales éticos;Hay pocas posibilidades de que lo hagamos mejor con "AI".
Ed Terpening, analista de consultores e industriales del grupo Altimeter, observó: “La realidad es que el capitalismo como se practica actualmente está conduciendo a una carrera hacia el fondo y la distribución del ingreso poco ético.De todos modos, no veo, al menos en los EE. UU., Cualquier barandilla significativa para el uso ético de la IA, excepto por el impacto en la salud de la marca.Es decir, las empresas que usan AI pagan un precio de manera poco ética si el mercado responde con boicots u otras sanciones dirigidas por el consumidor.En un mundo global, donde los competidores en los sistemas autocráticos harán lo que deseen, se convertirá en un problema competitivo.Hasta que haya un incidente importante, no veo organismos globales de gobernanza como la ONU o el Banco Mundial estableciendo ninguna política ética con los dientes establecidos ".
Rich Ling, profesor de tecnología de medios de la Universidad Tecnológica de Nanyang, Singapur, respondió: “Existe el peligro de que, por ejemplo, los intereses capitalistas elaboren la aplicación de IA para beneficiar a su posición.Es posible que pueda haber aplicaciones de IA que sean socialmente beneficiosas, pero también existe una gran posibilidad de que se desarrollen para mejorar los intereses capitalistas ".
Jennifer Young, ingeniero de JavaScript e interfaz de usuario/desarrollador de frontend, dijo: “El capitalismo es la explotación sistemática de muchos por los pocos. Mientras la IA se use bajo el capitalismo, se utilizará para explotar a las personas. La caja de Pandora ya se ha abierto, y es poco probable que los perfiles raciales, los profundos profundos y pornográficos y los autos autónomos que golpean a las personas desaparecerán. ¿Qué tienen todos estos en común? Son ejemplos de IA que ponen objetivos en la espalda de las personas. La IA bajo el capitalismo toma la explotación a nuevas alturas y comienza en lo que normalmente es el juego final: la muerte. Y utiliza las mismas clases de personas que aportes a sus funciones. Las personas ya explotadas a través del racismo, el sexismo y el clasismo se hacen más abstractas que son más fáciles de matar, al igual que en la guerra. AI se puede usar para bien. Los ejemplos en atención médica y biología son prometedores. Pero mientras seamos un mundo que eleva a los locos y los señores de la guerra a las posiciones de poder, su uso negativo será priorizado ".
Benjamin Shestakofsky, profesor asistente de sociología en la Universidad de Pensilvania, comentó: "Es probable que los marcos" éticos "se apliquen cada vez más a la producción de sistemas de IA durante la próxima década.Sin embargo, también es probable que estos marcos sean más éticos en nombre que en especie.Salvo los cambios legislativos o la regulación relevantes, la implementación de la ética en la tecnología se parecerá a cómo las grandes corporaciones gestionan los problemas relacionados con la diversidad en la contratación y el acoso sexual.Seguir las pautas "éticas" ayudará a las empresas tecnológicas a protegerse de las demandas sin obligarlas a desarrollar tecnologías que realmente prioricen la justicia y el bien público sobre las ganancias ".
Warren Yoder, director de toda la vida del Centro de Políticas Públicas de Mississippi, ahora entrenador ejecutivo, respondió: “La adopción generalizada de sistemas éticos reales y consecuentes que van más allá de la escala no ocurrirá sin un cambio fundamental en la estructura de propiedad de la gran tecnología.La ética limita las oportunidades de ganancias a corto plazo por definición.No creo que Big Tech haga cambios consecuentes a menos que haya regulación efectiva o competencia.Los reguladores actuales apenas comienzan a tener las herramientas analíticas para enfrentar este desafío.Me gustaría creer que hay suficientes pensadores nuevos como Lina Khan (Judiciario de la Casa de EE. UU. - Antimonopolio) que se mueven hacia posiciones de influencia, pero los próximos 12 meses nos dirán mucho sobre lo que es posible en el futuro cercano ”.
Ben Grosser, profesor asociado de nuevos medios en la Universidad de Illinois-Urbana-Champaign, dijo: “Mientras las organizaciones que impulsen la investigación y el despliegue de IA sean corporaciones privadas cuyos modelos de negocio dependen de la recopilación, análisis y acción de los datos personales, entonces AIS no hará tendencia hacia la ética.Se desplegarán cada vez más para predecir el comportamiento humano con el propósito de generación de ganancias.Ya hemos visto cómo se desarrolla esto (por ejemplo, con el uso del análisis de datos y la publicidad dirigida para manipular el electorado de EE. UU. Y el Reino Unido en 2016), y solo empeorará a medida que aumentan las cantidades de actividad humana en línea ”.
Jeanne Dietsch, senadora de New Hampshire y ex CEO de Mobilerobots Inc., comentó: “El problema es que la IA se utilizará principalmente para aumentar las ventas de productos y servicios.Con este fin, será manipulador.La aplicación de IA para resolver problemas logísticos complejos realmente beneficiará a nuestra sociedad, haciendo que los sistemas funcionen de manera más suave, individualizando la educación, construyendo vínculos sociales y mucho más.La desventaja de lo anterior es que está creando, y continuará creando, hacer eco de cámaras que magnifican la ignorancia y la información errónea ".
Patrick Larvie, líder global para el equipo de experiencia de usuario en el lugar de trabajo en una de las compañías de tecnología más grandes del mundo, observó: "Espero que me equivoque, pero la historia de Internet hasta ahora indica que cualquier regla sobre el uso de inteligencia artificialpuede escribirse para beneficiar a las entidades privadas que deseen explotar comercialmente AI en lugar de los consumidores que tales compañías servirían.Puedo ver la IA haciendo una diferencia positiva en muchas arenas, reduciendo el consumo de energía, reduciendo los desechos.Donde temo que será negativo es donde se está cambiando la IA por la interacción humana.Vemos esto en la aplicación de AI a productos de consumo, donde los bots han comenzado a reemplazar a los agentes humanos ".
Peter Levine, profesor de ciudadanía y asuntos públicos en la Universidad de Tufts, escribió: "El principal problema no es técnico.La IA puede incorporar salvaguardas éticas o incluso puede diseñarse para maximizar valores importantes.El problema implica incentivos.Hay muchas maneras para que las empresas se beneficien y que los gobiernos obtengan energía mediante el uso de IA.Pero hay pocas (si es) recompensas por hacerlo éticamente ".
Holmes Wilson, codirector de Fight for the Future, dijo: “Incluso antes de descubrir la inteligencia artificial general, los sistemas de IA harán que la imposición de la vigilancia masiva y la fuerza física sea extremadamente barata y efectiva para cualquier persona con un presupuesto lo suficientemente grande, en su mayoría nación. -Tates. Si un automóvil puede conducir a sí mismo, un helicóptero puede matar a las personas misma, por quien lo posee. También aumentarán el poder de la guerra asimétrica. Cada automóvil robot, policía o avión de combate será tan hackable, ya que todo es con un gasto suficiente, y el próximo 11 de septiembre será tan difícil de atribuir definitivamente como un ataque de los piratas informáticos en una empresa estadounidense es hoy. Los sistemas de armas autónomos son algo entre las armas a principios del siglo XX y las armas nucleares a fines del siglo XX, y estamos precipitando hacia él sin idea de lo malo que podría ser. ... La cosa de las que preocuparse son las estructuras de potencia existentes que construyen fuerzas policiales de control remoto y ejércitos de ocupación de control remoto. Esa amenaza está en el nivel de armas nucleares. Es muy, muy peligroso ".
Susan Price, pionera y estratega de experiencia de usuario y fundadora de Firecat Studio, escribió: "No creo que los gobiernos y las agencias reguladoras estén listas para comprender las implicaciones de la IA para la ética y la protección de los consumidores o los votantes. Las preguntas formuladas en el Congreso apenas rascan la superficie del tema, y la postura política con demasiada frecuencia ocupa el lugar de los funcionarios electos encargados de supervisión para alcanzar una comprensión genuina de estos problemas complejos. El fuerte motivo de ganancias para las empresas tecnológicas los lleva a resistir cualquier protección o regulación. La rentabilidad de estas empresas les permite influir directamente en los legisladores a través de los vestíbulos y los PAC; Abrumando fácilmente los esfuerzos de las agencias de protección del consumidor y las organizaciones sin fines de lucro, cuando no están directamente desanimados o disueltos. Estamos viendo que Facebook, Google, Twitter y Amazon resisten los esfuerzos para producir la supervisión, la auditoría y la transparencia que conducirían a la protección del consumidor. AI ya está haciendo la vida mejor. Pero también está mejorando las ganancias corporativas a un ritmo mucho más rápido. Sin una regulación sólida, no podemos corregir ese desequilibrio, y los procesos diseñados para proteger a los ciudadanos estadounidenses de la explotación a través de líderes electos están subvertidos de manera similar por fondos de estas mismas grandes empresas ".
Craig Spiezle, director gerente y estratega de confianza para Agelight, y el presidente emérito de la Alianza de Fideicomiso en línea, dijo: “No busque más allá de la privacidad de los datos y otros temas relacionados, como la neutralidad de la red.La industria en general no ha respondido éticamente en la recopilación, uso y intercambio de datos.Muchos de estos mismos líderes tienen una obra importante en la IA, y me temo que continuarán actuando en sus propios intereses ".
Sam Punnett, futurista y propietario retirado de FAD Research, comentó: “El diseño del sistema y la aplicación generalmente es ordenado por un caso de negocios, no por consideraciones éticas.Cualquier forma de regulación o pautas generalmente retrasa el desarrollo de la tecnología por muchos años.Las aplicaciones más preocupantes de los sistemas de IA son las empleadas para la vigilancia y el control social ”.
Un experto en ética que se desempeñó como asesor en el informe del Reino Unido sobre "AI en atención médica" respondió: "No creo que las compañías tecnológicas entiendan la ética en absoluto. Solo pueden comprenderlo en forma algorítmica, es decir, una especie de utilitarismo automatizado, o mediante "alineación de valor", que tiende a utilizar las técnicas de los economistas en torno a las preferencias reveladas y la teoría de la elección social. No pueden pensar en términos de obligación, responsabilidad, solidaridad, justicia o virtud. Esto significa que diseñan gran parte de lo que es distintivo sobre el pensamiento ético humano. En un pensamiento que vi atribuido a Hannah Arendt recientemente, aunque no puedo encontrar la fuente: "No es que el comportamiento sea cierto, es más que se vuelva cierto: ese es el problema". Sería racista decir que en Algunas partes del mundo a los desarrolladores de IA se preocupan menos por la ética que en otras; Lo más probable es que se preocupen por diferentes preguntas éticas de diferentes maneras. Pero subyacente a todo eso es que los modelos de aprendizaje automático utilizados son antitéticos a la ética humana en su modo de operación ".
Nathalie Maréchal, analista senior de investigación en clasificación de derechos digitales, observó: “Hasta que el desarrollo y el uso de los sistemas de IA se basen en un marco internacional de derechos humanos, y hasta que los gobiernos regulen la IA siguiendo los principios de los derechos humanos y desarrollen un sistema integral para exigir el impacto de los derechos humanos.Las evaluaciones, los sistemas de auditoría para garantizar que funcionen según lo previsto, y consideren que las entidades violadoras cuentan, 'AI para bien' continuará siendo un eslogan vacío ".
Mark Maben, gerente general de la Universidad de Seton Hall, escribió: “Simplemente no está en el ADN de nuestro actual sistema económico y político para poner el bien público primero. Si las personas que diseñan, implementan, utilizan y regulan la IA que no están utilizando principios éticos centrados principalmente en el bien público, no tienen incentivos para crear un mundo administrado por AI que utilice esos principios. Tener una IA diseñada para servir al bien público por encima de todo lo demás solo puede surgir a través de una intensa presión pública. Las empresas y los políticos a menudo deben ser presionados para hacer lo correcto. Afortunadamente, Estados Unidos parece estar en un momento en el que tal presión y cambio [son] posibles, si no es probable. Como alguien que trabaja con la Generación Z casi todos los días, he observado que muchos miembros de la Generación Z piensan profundamente sobre cuestiones éticas, incluso en relación con la IA. Esta generación puede ser la diferencia de los creadores de la diferencia sobre si obtenemos IA que se guía principalmente por principios éticos centrados en el bien público ”.
Arthur Bushkin, escritor, filántropo y activista social, dijo: "Me preocupa que la IA no sea impulsada por la ética, sino por la eficiencia tecnológica y otros factores".
Dharmendra K. Sachdev, pionero de telecomunicaciones y presidente fundador de Spacetel Consultancy LLC, escribió: “Mi definición simplista es que la IA puede ser inteligente;En otras palabras, como la mente humana, puede cambiar las direcciones dependiendo de los datos recopilados.La pregunta a menudo debatió es esta: ¿puede la IA superar a los humanos?Mi respuesta simplista: sí, en algunos humanos pero no en el diseñador.Un paralelo áspero sería: ¿puede un estudiante burlar a su profesor?Sí, por supuesto que sí, pero puede que no supere a todos los profesores en su campo.Resumiendo mi comprensión ciertamente limitada es que todo el software está creado para realizar un conjunto de funciones.Cuando lo equipa con la capacidad de cambiar de rumbo dependiendo de los datos, lo llamamos IA.Si puedo hacerlo más ágil que mi competencia, mi IA puede superarlo ”.
Karen Yesinkus, una profesional de servicios creativos y digitales, observó: “Me gustaría creer que la IA que se usa éticamente para 2030 estará vigente.Sin embargo, no creo que eso probablemente sea algo seguro.Las redes sociales, los recursos humanos, el servicio al cliente, etc. Las plataformas tienen y tendrán problemas continuos para solucionar (problemas de sesgo especialmente).Dado el clima existente políticamente a escala global, tomará más que los próximos 10 años para que la IA se sacudiera tal sesgo ".
Marc H. Noble, un desarrollador/administrador de tecnología retirado, escribió: “Aunque creo que la mayoría de la IA se desarrollará en beneficio de la humanidad, mi gran preocupación es que solo necesita un grupo malo para desarrollar la IA por las razones equivocadas para crear unaCatástrofe potencial.A pesar de eso, la IA debe ser explorada y desarrollada, sin embargo, con mucha precaución ".
Eduardo Villanueva-Mansilla, profesor asociado de comunicaciones en Pontificia Universidad Catolica, Perú, predijo: “La presión pública se pondrá sobre actores de IA.Sin embargo, existe un riesgo significativo de que los principios éticos acordados [-upon] se formen demasiado estrechamente con las demandas sociales y políticas del mundo desarrollado.No considerarán las necesidades de las economías emergentes o las comunidades locales en el mundo en desarrollo ".
Garth Graham, un líder de Telecommunities Canada desde hace mucho tiempo, dijo: “El impulso en el gobierno de todo el mundo para erradicar el bien público a favor de los enfoques basados en el mercado es inexorable.El impulso para implementar sistemas basados en IA no colocará al bien público como una prioridad principal.Por ejemplo, las iniciativas existentes de la ciudad inteligente están bastante dispuestas a externalizar el diseño y la operación de sistemas adaptativos complejos que aprenden a medida que operan funciones cívicas, sin reconocer que la operación de dichos sistemas está reemplazando las funciones de gobernanza ".
El genio AI ya está fuera de la botella, los abusos ya están ocurriendo y algunos no son muy visibles y difíciles de remediar
Una parte de estos expertos señala que las aplicaciones de IA diseñadas con poca o ninguna atención a las consideraciones éticas ya están profundamente integradas en muchos aspectos de la actividad humana, y generalmente son invisibles para las personas que afectan.Estos encuestados dijeron que los algoritmos están trabajando en sistemas que son opacos en el mejor de los casos e imposibles de diseccionar en el peor.Argumentan que es muy poco probable que los estándares éticos puedan o se apliquen en este entorno.Otros también señalan que hay una dinámica común que se desarrolla cuando las nuevas tecnologías barren las sociedades: primero se producen abusos y luego se intentan remedios.Es difícil programar herramientas digitales basadas en algoritmos de una manera que predice, aborde y subvierte todos los problemas.La mayoría de los problemas siguen siendo desconocidos hasta que se reconocen, a veces mucho después de que se produzcan, se distribuyan y se usen activamente.
Henning Schulzrinne, miembro del Salón de la Fama de Internet y ex director de tecnología de la Comisión Federal de Comunicaciones, dijo: “La respuesta depende en gran medida de la forma del gobierno establecido en el país en los próximos años.En un entorno puramente desregulador con un fuerte retroceso hacia el populismo de la ley y el orden, habrá muchos proveedores de IA que tendrán poca preocupación por los puntos finos de la ética de la IA.Gran parte de esa IA no será visible para el público: será empleado de compañías de seguros de salud que nuevamente sean libres de discriminar el precio según las condiciones preexistentes, por parte de los empleadores que buscan empleados que no causen problemas, por parte de otros que deseenpara cortar cualquier esfuerzo de sindicalización de brote, mediante campañas electorales dirigidas a subgrupos estrechos ".
Jeff Johnson, profesor de ciencias de la computación, Universidad de San Francisco, que anteriormente trabajó en Xerox, HP Labs y Sun Microsystems, respondió: "La pregunta pregunta sobre" la mayoría de los sistemas de IA ". Se desarrollarán muchas aplicaciones nuevas de IA para mejorar el negocio.operaciones.Algunos de estos serán éticos y otros no lo serán.Se desarrollarán muchas aplicaciones nuevas de IA para ayudar a los consumidores.La mayoría será ética, pero algunos no lo serán.Sin embargo, la gran mayoría de las nuevas aplicaciones de IA serán "oscuras", es decir, oculta a la opinión pública, desarrollada con fines militares o criminales.Si los contamos, entonces la respuesta a la pregunta sobre "la mayoría de los sistemas de IA" es sin duda que la IA se usará principalmente para fines poco éticos ".
John Harlow, especialista en investigación de Smart Cities en el Lab de Compromiso @ Emerson College, predijo: “La IA se utilizará principalmente de manera cuestionable en la próxima década. ¿Por qué? Así es como se ha utilizado hasta ahora, y no estamos capacitando o integrando éticos donde la IA está en desarrollo, entonces, ¿por qué cambiaría algo? Lo que me da la mayor esperanza es que la IA muere en casos de uso efectivos conocidos y 'imposibilidades' conocidas. Tal vez la IA puede ser excelente en ciertas cosas, pero prescindiremos con áreas donde solo tenemos basura (aplicaciones basadas en cualquier sesgado históricamente sesgado datos). La mayoría de las aplicaciones de IA que marcan la diferencia en la vida de la mayoría de las personas estarán en el backend, invisibles para ellas. "Wow, la última actualización de iOS realmente mejoró las sugerencias de texto predictivos". "Oh, mi dentista tiene un software de radiología informado por IA?". Una de las formas en que podría ser convencional es a través de la comedia. La rareza de IA es un género accesible y una forma de aprender/enseñar sobre la tecnología (algo), supongo que eso podría romper más como un nicho de entretenimiento. En cuanto a la competencia global de IA, lo que me preocupa es el enfoque en la IA, superar a otros países en AI y STEM en general. Nuestros desafíos ciertamente requieren métodos racionales. Sin embargo, tenemos problemas importantes que no se pueden resolver sin fundamento histórico, sociedades que funcionen, colaboración, inspiración artística y muchas otras cosas que sufren sobreiniciadas en STEM o IA ".
Steve Jones, profesor de comunicación en la Universidad de Illinois en Chicago y editor de New Media and Society, comentó: "Tendremos más discusión, más debate, más principios, pero es difícil imaginar que habrá, en elCaso de EE. UU.: Un testamento entre los políticos y los formuladores de políticas para establecer y hacer cumplir las leyes basadas en principios éticos relacionados con la IA.Tendemos a legislar el granero después de que los caballos se hayan ido.Esperaría que hagamos lo mismo en este caso ".
Andy Opel, profesor de comunicaciones en la Universidad Estatal de Florida, dijo: "Debido a que la IA es probable que tenga acceso a un giro amplio de datos personales y sociales, lo que limita que los datos para servir un interés económico o político estrecho serán difíciles".
Doug Schepers, un experto en tecnologías web desde hace mucho tiempo y fundador de Fizz Studio, observó: “Como hoy, habrá una gama de computación deliberadamente ética, computación poco ética inadvertida de baja calidad y computación deliberadamente poco ética utilizando IA. Deepfakes serán preocupantes por la política y otras actividades sociales. Conducirá a la desconfianza en general. Por sí mismos, la mayoría de los investigadores o diseñadores de productos no buscarán rigurosamente la IA ética, así como la mayoría de las personas no entienden o aplican rigurosamente principios de accesibilidad digital para personas con discapacidades. Será en gran medida una supervisión inadvertida, pero seguirá siendo un mal resultado. Mi esperanza es que surja las mejores prácticas y continúen refinándose a través de las comunidades de práctica, al igual que la revisión por pares en la ciencia. También tengo algunas esperanzas de que se puedan aprobar leyes que codifiquen algunas de las mejores prácticas más obvias, al igual que la Ley de Americanos con Discapacidades y la Sección 508 mejoran la accesibilidad a través de la regulación, sin embargo, aún no es demasiado oneroso. Mi temor es que algunas leyes sean sofocantes, como las de la investigación de las células madre. El aprendizaje automático y la IA naturalmente tienen la capacidad de mejorar la vida de las personas de muchas maneras incalculables, como la visión por computadora para personas ciegas. Esto será incremental, al igual que la computación de productos básicos y el aumento de Internet han mejorado (y a veces dañado) a las personas. Lo más probable es que no sea un cambio sísmico, sino una deriva. Uno de los aspectos más oscuros en el aumento existente del capitalismo de vigilancia y su uso por los estados autoritarios. Mi esperanza es que las leyes lo controlen ".
Jay Owens, director de investigación de PulSarplatform.com y autor de Hautepop, dijo: "La educación en ciencias de la computación, y la ideología de Silicon Valley en general, se centra en" lo que se puede hacer "(la pregunta técnica) sin mucha consideración de" si se hace " (una pregunta social y política). La cultura tecnológica tendría que dirigirse a los problemas éticos para convertirse en el frente y el centro de la investigación y el despliegue de IA; Esto es desaparecidamente improbable. Esperaría que los desarrollos en el aprendizaje automático continúen en la misma línea que lo han hecho durante la última década, ignorando principalmente la pregunta de ética, con estallidos ocasionales de controversia cuando ocurre algo particularmente sexista o racista. Mucho aprendizaje automático ya es (y seguirá siendo) invisible para la vida cotidiana de las personas, pero creando eficiencias de proceso (por ejemplo, en el pronóstico del tiempo, el almacenamiento y la logística, la gestión del transporte). Otros procesos que podríamos no querer ser más eficientes (por ejemplo, exploración de petróleo y gas, utilizando imágenes satelitales y análisis de geología) también se beneficiarán. Me siento positivamente hacia los sistemas donde se combinan la toma de decisiones de ML y humanos (por ejemplo, sistemas para diagnósticos médicos). Me imagino que el aprendizaje automático se usa en el modelado climático, que obviamente es útil. No se puede esperar que el desarrollo tecnológico chino siga los reparos éticos occidentales y, dada la naturaleza totalitaria (y genocida) de este estado, es probable que produzca algunos sistemas ML que logren estos fines policiales. Las aplicaciones sociales de propiedad china como Tiktok ya han mostrado prejuicios raciales y probablemente están menos motivadas para abordarlas. No veo ninguna posibilidad de que la "IA general" o la inteligencia de la máquina generalizable se alcancen en 10 años y aún menos razones para entrar en pánico sobre esto (como lo hacen algunos raros en Silicon Valley) ".
Robert W. Ferguson, ingeniero de robótica de hardware en el Instituto de Ingeniería de Software Carnegie Mellon, escribió: “¿Cuántas veces necesitamos decirlo?El aprendizaje automático no supervisado está en el mejor de los casos incompleto.Si se complementa con un análisis causal publicado, podría recuperar cierta credibilidad.De lo contrario, sufrimos lo que dice Cathy O’Neil en "Armas de destrucción matemática". El aprendizaje automático sin supervisión sin análisis causal es irresponsable y malo ".
Michael Richardson, ingeniero de consultoría de código abierto, respondió: "En la década de 1980, 'ai' se llamaba 'sistemas expertos', porque reconocimos que no era 'inteligente'. En 2010, lo llamamos 'aprendizaje automático' parala misma razon.ML es solo una nueva forma de construir sistemas expertos.Replican los sesgos de los "expertos" y no pueden ver más allá de ellos.¿Es ético el comercio algorítmico?Déjame reformular: ¿Nuestra economía realmente la necesita?Si el mismo algoritmo se usa para equilibrar los ecosistemas, ¿cambia la respuesta?Ya tenemos IA.Se llaman "corporaciones". Muchos ya lo han señalado.La automatización de esa mente colectiva es realmente a lo que se hace referencia.Creo que el uso de la IA en la sentencia viola los derechos constitucionales de las personas, y creo que se detendrá ya que se da cuenta de que solo institucionaliza el racismo ".
Un arquitecto principal de una compañía de tecnología dijo: “No veo ningún marco o capacidad para que ninguna agencia de gobierno entienda cómo funciona la IA.Los profesionales ni siquiera saben cómo funciona, y mantienen la información como información patentada.Considere cuánto tiempo llevó exigir los cinturones de seguridad o limitar el fumar en el lugar de trabajo, donde la causa y el efecto fueron tan claros, ¿cómo podemos esperar controlar la IA en los próximos 10 años? "
La competencia global, especialmente entre China y los Estados Unidos, será más importante para el desarrollo de la IA que cualquier problema ético
Varios de estos encuestados enmarcaron sus respuestas en torno a la dinámica de la "carrera armamentista" que impulsa a los superpoderes tecnológicos, señalando que infunde una actitud de maldita velocidad de la ética.Algunos dijeron que existen diferencias significativas en las consideraciones éticas que están aplicando varios estados nacionales y se aplicarán en el futuro al desarrollo de la IA.Muchos señalaron a los Estados Unidos y China como los principales competidores en la carrera armamentista de estado nación.
Daniel Farber, autor, historiador y profesor de derecho en la Universidad de California-Berkeley, respondió: "Existe una enorme incertidumbre.¿Por qué?En primer lugar, China.Esa es una gran parte del mundo, y no hay nada en lo que veo allí en este momento para hacerme optimista sobre su uso de la IA.En segundo lugar, la IA en los Estados Unidos está principalmente en manos de corporaciones cuyo objetivo principal es, naturalmente, maximizar las ganancias.Estarán bajo cierta presión para incorporar la ética tanto del público como del empleados, lo que será una influencia moderadora.El problema fundamental es que es probable que la IA esté en manos de instituciones y personas que ya tienen poder y recursos, y que inevitablemente darán forma a la forma en que se usa la tecnología.Por lo tanto, me preocupa que simplemente reforzará o aumente los desequilibrios de poder actuales.Lo que necesitamos no es solo la IA ética sino el acceso ético a la IA, para que las personas puedan usarla para aumentar sus propias capacidades ".
J. Scott Marcus, economista, politólogo e ingeniero que trabaja como consultor de telecomunicaciones, escribió: “La fragmentación de políticas a nivel mundial se interpondrá en el camino.Mientras la mayor parte de la inversión de IA se realice en los EE. UU. Y China, no es posible un consenso.La Unión Europea intentará poner en juego las reglas, pero no está claro si pueden impulsar muchos cambios frente a la rivalidad de los Estados Unidos y China.Estados Unidos (también Japón) son grandes jugadores en el consumo pero no tan grandes en la producción de muchos aspectos.Sin embargo, son más grandes en IoT y robótica, por lo que tal vez hay más esperanza allí.Para la privacidad, la Unión Europea forzó un grado justo de convergencia global gracias a su gran poder adquisitivo.No está claro si eso puede funcionar para AI ".
Charles M. Ess, profesor de estudios de medios de la Universidad de Oslo, cuya experiencia es en la información y la ética informática, comentó: "La mayor esperanza radica en la Unión Europea y los esfuerzos relacionados para desarrollar" IA ética "tanto en política como en derecho.Muchas personas de primer nivel e instituciones razonablemente sólidas están trabajando en esto, y, en mi opinión, se están logrando algunos progresos prometedores.Pero la UE se exprime entre China y Estados Unidos como líderes mundiales, ninguno de los cuales se puede esperar que tome lo que podría llamarse liderazgo ético.China está a la vanguardia de la exportación de las tecnologías del "autoritarismo digital". Se puedan hacer advertencias culturales importantes sobre una sociedad más colectiva que encuentre estas tecnologías de vigilancia y controla positivo a medida que recompensan el comportamiento pro-social.La democracia, incluidos los derechos a la privacidad, la libertad de expresión, etc., es inevitable e incuestionable.
"Por su parte, Estados Unidos tiene un registro miserable (en el mejor de los casos) de intentar regular estas tecnologías, comenzando con el derecho informático de la década de 1970 que clasifica a estas compañías como transportistas, no proveedores de contenido y, por lo tanto, no está sujeto a regulación que incluiría atención a los problemas de libertad de expresión, etc. Mi predicción es que Google y sus homólogos corporativos en Silicon Valley continuarán argumentando con éxito en contra de cualquier tipo de regulación externa o imposición de estándares para una IA ética, en nombre de tener que tener éxito en el global Competencia con China. Quizás deberíamos darle a Google en particular algún beneficio de la duda y ver cómo se desarrollan sus iniciativas recientes en la dirección de la IA ética. Pero 1) lo que sé de primera mano que son esfuerzos exitosos para el lavado de ética por Google (por ejemplo, intentando contratar en algunos de sus críticos éticos más severos y prominentes en la academia para comprar su silencio) y 2) dado Su historial de cooperación con regímenes autoritarios, incluida China, es difícil ser optimista aquí.
“Por supuesto, veremos algunos desarrollos y mejoras maravillosamente positivas, tal vez en medicina en primer lugar. Y tal vez esté bien tener sistemas de recomendación para ayudarnos a negociar, por ejemplo, millones de opciones de canciones en Spotify. Pero incluso estas aplicaciones están sujetas a una crítica importante, por ejemplo, bajo el nombre de 'la algoritmización del gusto': la remodelación de nuestros gustos y preferencias está influenciado por los procesos opacos impulsados por los intereses corporativos para maximizar nuestro compromiso y consumo, no necesariamente nos ayuda Descubra las nuevas posibilidades liberadoras y empoderadoras. Más claramente, especialmente si las técnicas de IA y el aprendizaje automático permanecen en caja negra e impredecible, incluso para aquellos que las crean (que es lo que AI y ML están destinados a hacer, después de todo), veo un futuro muy oscuro y de pesadilla en que cada vez más de nuestros comportamientos son monitoreados y luego empujados por procesos algorítmicos que no podemos entender y, por lo tanto, el concurso. Los ejemplos actuales más marcados se encuentran en las áreas de la llamada "vigilancia predictiva" y los esfuerzos relacionados para reemplazar el juicio humano con la "toma de decisiones" basada en la máquina. Como ha demostrado Mireille Hildebrandt, cuando ya no podemos disputar la evidencia presentada contra nosotros En un tribunal de justicia, debido a que está reunido y procesado por procesos algorítmicos, incluso sus creadores no pueden aclarar o desempaquetar, ese es el final de las prácticas modernas de la ley y la democracia. Claramente es bastante malo cuando estas tecnologías se utilizan para resolver a los seres humanos en términos de sus calificaciones crediticias: confiar en estas tecnologías para juicios/decisiones sobre quién se dedica a qué institución educativa, quién hace y no merece libertad condicional, y así sucesivamente. Yo es un futuro distópico asombrosamente de pesadilla.
“Una vez más, puede ser un 'nuevo mundo valiente' de conveniencia y facilidad, al menos siempre que uno cumpla con los comportamientos determinados que valen la valía de una recompensa positiva, etc., pero usar una metáfora diferente, una quizás desconocida para las generaciones más jóvenes,Desafortunadamente, seguiremos siendo el equivalente humano de las palomas de Skinner en jaulas skinner agradables y cómodas, conectados con cuidado para maximizar los comportamientos deseados a través del refuerzo positivo, si no desaniman lo que se definirá como comportamientos indeseables a través del refuerzo negativo (incluida la fuerza y la violencia) si es necesario.. "
Adam Clayton Powell III, miembro principal del Centro de Annenberg de la USC sobre Liderazgo y Política de la Comunicación, observó: “Para 2030, muchos usarán IA ética y muchos no lo harán.Pero en gran parte del mundo, está claro que los gobiernos, especialmente los gobiernos totalitarios en China, Rusia, et al Seq., Querrán controlar la IA dentro de sus fronteras, y tendrán los recursos para tener éxito.Y esos gobiernos solo están interesados en la autoconservación, no la ética ".
Alf Rehn, profesor de innovación, diseño y gestión en la Universidad del Sur de Dinamarca, dijo: “Habrá un impulso para la IA ética durante los próximos 10 años, pero las buenas intenciones por sí solas no hacen la moral.La IA es complicada, al igual que la ética, y combinar los dos será un problema muy complejo.Es probable que veamos bastantes intentos torpes de crear sistemas de IA éticos, con los problemas acompañantes.También es importante tener en cuenta los problemas culturales y geopolíticos.Hay muchas interpretaciones de la ética, y las personas ponen diferentes valores en diferentes valores, de modo que, por ejemplo, una IA ética china puede funcionar de manera muy diferente, y generar diferentes resultados, por ejemplo, una IA ética británica.Esto no quiere decir que uno sea mejor que el otro, solo que pueden ser bastante diferentes ".
Sean Mead, director senior de estrategia y análisis de Interbrand, escribió: “El robo chino de tecnologías de IA occidentales y japonesas es uno de los problemas de ética más preocupantes que enfrentaremos.Tendremos problemas éticos sobre ambos sesgos potenciales integrados en los sistemas de IA a través de la elección o la disponibilidad de datos de capacitación y conjuntos de experiencia y los sesgos inherentes a las soluciones propuestas que intentan contrarrestar tales problemas.Los sistemas de identificación para los sistemas de armas autónomos continuarán planteando numerosos problemas de ética, particularmente a medida que los países implementan sistemas terrestres que interactúan con las personas.Los sistemas de crédito social de IA tendrán demasiado poder sobre la vida de las personas y ayudarán a vitalizar los sistemas autoritarios.La IA permitirá un aumento de la vuelo de las ciudades a áreas de vida más hospitalarias y saludables a través de la automatización de servicios gubernamentales y una mayor transparencia de los conjuntos de habilidades a los posibles empleadores ”.
Mark Perkins, un profesional de ciencias de la información activo en la Sociedad de Internet, señaló: “La IA será desarrollada por corporaciones (con respaldo del gobierno) con poco respeto por la ética.El ejemplo de China será seguido por otros países: el desarrollo de la IA mediante el uso de los datos de los ciudadanos, sin consentimiento efectivo, para desarrollar productos que no sean en interés de dichos ciudadanos (vigilancia, control de la población, vigilancia predictiva, etc.).La IA también se desarrollará para implementar precios diferenciales/ofertas que amplíen aún más la AI de 'división digital' será utilizada por los gobiernos y las corporaciones para tomar decisiones no transparentes y no contabilizables con respecto a los ciudadanos que la IA será tratada como una 'caja negra', con ciudadanos que tienen poco- Si es necesario, comprensión de cómo funcionan, sobre qué base toman decisiones, etc. "
Wendell Wallach, ético y erudito del Centro Interdisciplinario de Bioética de la Universidad de la Universidad de Yale, respondió: “Si bien aplaudo la proliferación de principios éticos, sigo preocupado por la capacidad de los países para poner carne en el hueso.Los principios generales no se traducen fácilmente en acciones normativas, y los gobiernos tendrán dificultades para promulgar regulaciones sólidas.Aquellos que tomen la iniciativa en la regulación de las tecnologías digitales, como la UE, serán criticados por desacelerar la innovación, y esto seguirá siendo una justificación para que los gobiernos y las corporaciones disminuyan la velocidad de la creación de regulaciones fuertes respaldadas por la aplicación.Hasta ahora, el blanqueo de ética es el enfoque predominante entre la élite corporativa.Si bien hay signos de un posible cambio en esta postura, sigo siendo escéptico sin embargo esperanzado ".
Pamela McCorduck, escritora, consultora y autora de varios libros, incluidas "Máquinas que piensan", escribió: "Se están realizando muchos esfuerzos en todo el mundo para definir la IA ética, lo que sugiere que esto ya se considera un grave problema digno de un intenso estudio y remedio legal. Finalmente, un conjunto de principios y preceptos llegará a definir IA ética, y creo que definirán la preponderancia de las aplicaciones de IA. Pero puede estar seguro de que existirá una IA poco ética, se practica y, a veces, no se reconoce hasta que se haga daño grave. Gran parte del conflicto entre aplicaciones éticas y poco éticas es cultural. En los Estados Unidos encontraríamos que el tipo de vigilancia social practicada en China no solo es repugnante, sino ilegal. Forma el corazón de las prácticas chinas. A corto plazo, solo la falta de voluntad de los tribunales occidentales para aceptar pruebas reunidas de esta manera (como inadmisibles) protegerá a los ciudadanos occidentales de este tipo de cosas, incluidos los 'puntajes sociales' que el gobierno chino asigna a sus ciudadanos como consecuencia de qué vigilancia aparece. Siento que más personas cotidianas invertirán capital social en sus interacciones con AIS, por soledad o por otras razones. Esto no es bienvenido para mí, pero luego tengo un amplio círculo social. No todos lo hacen, y quiero resistir el juicio aquí ".
Un arquitecto de práctica especializado en IA para una importante compañía de tecnología global dijo: “La Unión Europea tiene las propuestas más concretas, y creo que veremos su legislación en tres años.Espero que veamos un efecto dominó en los EE. UU. Como lo hicimos de GDPR: las compañías globales tuvieron que cumplir con GDPR, por lo que algunas buenas acciones ocurrieron en los Estados Unidos como resultado.... Es posible que sea más probable que veamos una continuación de ciudades y estados individuales que imponen sus propias leyes específicas de la aplicación (por ejemplo, límites de tecnología de reconocimiento facial en Oakland, Boston, etc.).Las razones por las que dudo que la mayoría de las aplicaciones de IA sean éticas/beneficios, el bien social es:
- Even the EU’s proposals are limited in what they will require;
- China will never limit AI for social benefit over the government’s benefit;
- The ability to create a collection of oversight organizations with the budget to audit and truly punish offenders is unlikely.
“Miro la Administración de Alimentos y Medicamentos o NTSB [Junta Nacional de Seguridad del Transporte] y veo cómo esas organizaciones se pusieron demasiado cómodas con las empresas que se suponía que debían regular y ver sus fracasos.Estas organizaciones están regulando los productos mucho menos complejos que la IA, por lo que tengo poca fe en que el gobierno de los Estados Unidos estará a la altura de la tarea.De nuevo, tal vez la UE sea mejor ".
Un investigador en bioinformática y biología computacional observó: “Tenga en cuenta las acciones del PCCh [Partido Comunista Chino] en China. Han estado liderando el camino recientemente para demostrar cómo estas herramientas pueden usarse de manera poco ética. Y Estados Unidos no ha podido hacer fuertes compromisos con la ética en la IA, a diferencia de las naciones de la UE. La IA y la ética que rodea su uso podría ser una de las principales plataformas ideológicas para la próxima guerra fría entrante. Estoy más preocupado por el uso de IA para invadir aún más la privacidad y erosionar la confianza en las instituciones. También me preocupa su uso para dar forma a la política de formas no transparentes, no interpretables y no reproducibles. También existe el riesgo de que algunos de los grandes conjuntos de datos que sean fundamentales para una gran cantidad de decisiones, desde el reconocimiento facial, hasta la sentencia penal, hasta las solicitudes de préstamos, que se llevan a cabo utilizando IA que están sesgadas críticamente y continuarán produciendo resultados sesgados Si se usan sin someterse a auditorías severas, los problemas con la transparencia agravan estos problemas. Los avances al tratamiento médico utilizando IA corren el riesgo de no estar de manera justa también ".
Sam Lehman-Wilzig, profesor y ex presidente de comunicación en la Universidad de Bar-Ilan, Israel, dijo: “Soy optimista porque el problema ahora está en la agenda nacional: científica, académica e incluso política/legislativa.Quiero creer que los científicos y los ingenieros están algo más abiertos a las consideraciones 'éticas' que a las habituales "empresarios". La principal preocupación es lo que otros países (no democráticos) podrían estar haciendo, y si deberíamos participar en una carrera armamentista tan, por ejemplo, armamento AI-Automated.Por lo tanto, preveo un traslado a los tratados internacionales que se ocupan de los aspectos más preocupantes de la "ética de IA".
Un economista que trabaja en el gobierno respondió: “Los principios éticos se desarrollarán y aplicarán en los países democráticos para 2030, centrándose en el bien público, la competencia global y las infracciones cibernéticas.Otros países menos democráticos se centrarán más en ciberbreples y competencia global.Las entidades no gubernamentales, como las empresas privadas, presumiblemente se concentrarán en la innovación y otras respuestas competitivas.La IA tendrá un impacto considerable en las personas, especialmente con respecto a sus trabajos y también con respecto a su capacidad para impactar las funciones controladas por la IA.Este control y el impacto de los delitos cibernéticos serán de gran preocupación, y la innovación se intrigará ”.
Ian Peter, un activista pionero de los derechos de Internet, dijo: “Las mayores amenazas que enfrentamos son la arma de la IA y el desarrollo de la IA restringida dentro de las alianzas geopolíticas.Ya estamos viendo el comienzo de esto en acciones tomadas para restringir las actividades de las empresas porque se considera que son amenazantes (por ejemplo, Huawei).Más y más desarrollos en este campo están siendo controlados por intereses nacionales o guerras comerciales en lugar de desarrollo ético, y gran parte de la promesa que podría surgir de la utilización de la IA no puede realizarse.La ética está tomando un asiento de segunda fila detrás del comercio y los intereses geopolíticos ".
Jannick Pedersen, cofundador, CEO y futurista con sede en Europa, comentó: “La IA es la próxima carrera armamentista.Aunque las aplicaciones AI convencionales incluirán consideraciones éticas, se obtendrá una gran cantidad de IA con fines de lucro y se aplicará en sistemas comerciales, no visibles para los usuarios ".
Marita Prandoni, lingüista, escritora independiente, editora, traductora e investigación asociada con la forma del grupo de historia, predijo: “Los usos éticos de la IA dominarán, pero será una lucha constante contra los bots disruptivos y los esfuerzos internacionales para socavar a las naciones.Los algoritmos han demostrado ampliar el sesgo y generar injusticia, por lo que la dependencia de ellos para distraer, persuadir o manipular la opinión es incorrecta.Lo que me emociona es que los anunciantes están rechazando plataformas que permiten un discurso de odio sesgado y peligroso y que cada vez más hay impulsores económicos (es decir, poderes corporativos) que se ponen del lado de la justicia social ”.
Gus Hosein, director ejecutivo de Privacy International, observó: “A menos que la IA se convierta en un problema de competencia y sea dominado por grandes empresas estadounidenses y chinas, entonces las posibilidades de IA ética son bajas, lo cual es una realidad horrible.Si se generaliza en el despliegue, como hemos visto con el reconocimiento facial, entonces la única forma de detener su despliegue de manera poco ética es obtener prohibiciones claras y transparencia forzada.Es por eso que AI es tan desafiante.Igualmente, no tiene sentido, pero eso no nos impedirá tratar de implementarlo en todas partes.La calidad de los datos subyacente y los problemas sociales significan que la IA solo castigará a las personas de manera nueva, diferente y de la misma manera.Si seguimos obsesionados con los innovadores y la innovación en lugar de la infraestructura social, entonces estamos jodidos ".