• Tecnología
  • Equipo eléctrico
  • Industria de materiales
  • vida digital
  • política de privacidad
  • oh nombre
Localización: Hogar / Tecnología / Definiciones emergentes: capturar la esencia de la inteligencia artificialBlog Technology's Legal Edge

Definiciones emergentes: capturar la esencia de la inteligencia artificialBlog Technology's Legal Edge

techserving |
1298

Ballenas azules vislumbrando en tus lágrimas

¿Cuál es la diferencia entre una lágrima y un océano? La pregunta puede parecer ridícula, pero los océanos y las lágrimas tienen más en común de lo que podría parecer a primera vista. Ambos están compuestos en gran parte de agua salada, ambos tienen criaturas que viven en ellos (diminutos microorganismos en el caso de las lágrimas), la temperatura promedio de una lágrima y un océano están cómodamente dentro del rango donde el agua es líquida. La verdadera diferencia es el volumen, pero suma 1024 (para los no inclinados a las matemáticas, es un uno con veinticuatro ceros después, o 1,000,000,000,000,000,000,000,000) lágrimas juntas, y tienes todos los océanos de la Tierra. .

Esto ilustra una verdad sobre las propiedades emergentes. En cierto punto, más deja de ser más de lo mismo y se convierte en algo cualitativamente diferente. Surgen propiedades que no eran obvias en las colecciones más pequeñas. Una lágrima apenas se nota. Unos pocos cientos es un pañuelo mojado al final de una película 'llorosa'. Las mareas, las costas dramáticas, las olas en las que puedes surfear y los hábitats que pueden soportar todo, desde pingüinos árticos hasta corales tropicales, emergen a medida que avanzas en la escala de tamaño de una lágrima a un océano.

Bits, bytes y yottabytes.

Este mismo fenómeno de propiedades emergentes también se aplica a la informática. El viaje desde las primeras computadoras de válvulas del tamaño de una habitación de la década de 1940 hasta el mundo totalmente conectado de hoy ilustra esto. Hoy en día, todos llevan una supercomputadora en red en el bolsillo, que luego se usa para tareas críticas, como consultar las redes sociales o reservar la entrega de alimentos. Pocas de estas actividades serían obvias para cualquiera que esté considerando el Colossus en Bletchley Park en 1944, y el mundo conectado moderno es ciertamente una propiedad emergente que no sería obvia al pasar de un transistor a miles de millones.

Muchos de los principios que sustentan los sistemas de inteligencia artificial de vanguardia de hoy en día tienen sus raíces en los albores de la revolución informática electrónica en los años 40 y 50. Si bien podemos pensar que los sistemas basados ​​en redes neuronales son lo último en aprendizaje automático, los orígenes de los sistemas actuales se remontan al perceptrón, desarrollado a fines de la década de 1950. Ese dispositivo demostró los extraños efectos que surgen de unas pocas reglas simples, y con una entrada de solo 20 x 20 fotodiodos, podría entrenarse para reconocer conjuntos de imágenes simples, por ejemplo, rectángulo frente a óvalo.

Si esos primeros perceptrones tenían solo 400 parámetros 'entrenables' (20 x 20), los sistemas de procesamiento de lenguaje natural de última generación de hoy en día podrían tener 175 mil millones o más parámetros, nueve órdenes de magnitud más. En el fondo, las "neuronas" artificiales individuales que se utilizan en las redes neuronales son simples: unas pocas entradas conectadas a la neurona. A cada conexión de entrada se le asigna un peso. En términos matemáticos, el valor de entrada se multiplica por el peso. Luego, la neurona suma todos los resultados de las multiplicaciones, y el resultado determina el nivel de activación de la neurona (a menudo después de que el resultado se haya normalizado para ajustarse a un rango de activación particular).

Aislada, una sola neurona es completamente predecible y comprensible. No hay dificultades obvias con el sesgo o la ética. Ninguna de las diversas travesuras potenciales que se abordan en varios libros blancos y borradores de regulaciones sobre IA se manifiesta.

Son las propiedades emergentes que surgen de escalar de una neurona a cientos de miles de millones las que crean el potencial para estos efectos.

Cuestión de definición

A los abogados les encanta una definición. Proporcionan la ilusión de certeza, a pesar de que casi todas las palabras tienen múltiples significados matizados. Presente a dos litigantes con la misma definición en un caso que gira en torno a su significado, e incluso la redacción aparentemente más clara se desmoronará en ambigüedad y contraargumentos. A pesar de esto, las definiciones tanto en la legislación como en los contratos son de vital importancia y delinearán el alcance de las obligaciones o el panorama de los comportamientos prohibidos.

En el campo de la IA, los comentaristas a menudo dedican tiempo a examinar la aparente imposibilidad de definir "inteligencia" y, por lo tanto, la doble imposibilidad de definir la IA por referencia a la inteligencia.

Aquellos que lidian con las definiciones en los contratos o la legislación a menudo adoptarán un enfoque basado en la tecnología, un enfoque intencional o ambos a caballo entre ambos.

Un enfoque basado en la tecnología podría brindar la ventaja de una prueba muy clara de si un sistema en particular está o no incluido en la definición. Por ejemplo, "IA significa cualquier sistema que usa una red neuronal" podría proporcionar una claridad relativa en cuanto a qué sistemas están atrapados, pero tiene desventajas obvias. ¿Qué sucede cuando la tecnología avanza? ¿Qué pasa con los sistemas que exhiben las travesuras que desea regular, pero que podrían no depender de la tecnología relevante? ¿Qué pasa con los sistemas que pueden usar redes neuronales de una manera simple o inofensiva, y sobre los cuales no tiene la intención de imponer las obligaciones que giran en torno a la definición?

Los enfoques intencionales tienden a centrarse en el caso de uso de un sistema, a menudo por referencia a las habilidades que antes estaban reservadas a los seres humanos, o por referencia a la capacidad de un sistema para "aprender".

Lo primero (reemplazo de humanos) presupone que el reemplazo de un humano es absoluto o particularmente relevante. En muchos casos, las tecnologías relativamente simples utilizadas en combinación pueden permitir que un empleado realice el trabajo que antes realizaban varios. Particularmente cuando las tareas se reestructuran para incluir un elemento de "autoservicio", cualquier definición que encienda máquinas que realizan tareas previamente reservadas para humanos corre el riesgo de capturar tecnologías tan banales como los cajeros automáticos o los sistemas de autopago en los supermercados. Estos sistemas podrían haber reemplazado a los cajeros bancarios y a los empleados de las cajas, respectivamente, pero pocos de nosotros los consideraríamos IA dignos de un control o regulación especial.

La última (capacidad de aprender) expone una falacia en el pensamiento popular sobre los sistemas de IA. Si bien los sistemas pueden aprender durante una fase de capacitación, los implementados en entornos de producción tienden a estar en un estado fijo para la inferencia, con nuevas versiones de capacitación adicional que solo se implementan (y luego en un estado fijo similar) periódicamente. Cualquier sistema implementado para la inferencia no tendría por sí mismo la capacidad de aprender y, por lo tanto, una definición que se centrara únicamente en esa cualidad no los tendría en cuenta.

Exactamente estos desafíos están presentes en la definición de Sistema de IA en el último borrador del Reglamento de IA de la UE a la fecha de redacción. La versión actualizada del Texto de Compromiso publicado por el Consejo Europeo en noviembre de 2021 dice:

‘sistema de inteligencia artificial’ (sistema AI) significa un sistema que

Definiciones emergentes: capturar la esencia de lo artificial IntelligenceBlog Technology's Legal Edge

El contenido del Anexo 1 que enumera las técnicas y los enfoques permanece como en el borrador original:

(a) Enfoques de aprendizaje automático, incluido el aprendizaje supervisado, no supervisado y de refuerzo, utilizando una amplia variedad de métodos, incluido el aprendizaje profundo;

(b) Enfoques basados ​​en la lógica y el conocimiento, incluida la representación del conocimiento, la programación inductiva (lógica), las bases de conocimiento, los motores de inferencia y deducción, el razonamiento (simbólico) y los sistemas expertos;

(c) Enfoques estadísticos, estimación bayesiana, métodos de búsqueda y optimización.

La referencia de esa definición a las tecnologías o técnicas enumeradas en el Anexo 1 arroja la red amplia para intentar preparar la definición para el futuro. Esto dará como resultado que una clase muy amplia de sistemas se consideren 'Sistemas de IA', lo que a su vez capturaría a los operadores de muchos sistemas existentes que no exhiben ni pueden exhibir ninguna de las propiedades emergentes potencialmente problemáticas que la regulación está diseñada principalmente para controlar. Como resultado (y suponiendo que algo similar a esta definición permanezca en la versión de la regulación que se promulgue), la carga regulatoria y los costos correspondientes de cumplimiento recaerán sobre una gama mucho más amplia de sistemas y operadores de lo que es estrictamente necesario.

Una alternativa emergente

Idealmente, cualquier definición de IA debería ser razonablemente clara, agnóstica a la tecnología y capturar aquellos sistemas que podrían exhibir los daños relevantes sin lanzar demasiado la red e imponer obligaciones a aquellos que no representan ningún riesgo.

Los autores proponen que las definiciones deberían centrarse en las propiedades emergentes de la complejidad y los comportamientos inesperados que podrían resultar, en lugar de cualquier tecnología o propósito en particular.

Considere lo siguiente como ejemplo:

Un “Sistema de IA” es cualquier sistema automatizado de procesamiento de datos o de toma de decisiones:

Esta definición se centra en la idea de que los daños que deben controlarse principalmente a través de cualquier obligación asociada a los sistemas de IA son aquellos que surgen de forma inesperada.

Cualquier operador que use un sistema para llevar a cabo deliberadamente una actividad que sea tendenciosa, discriminatoria, poco confiable o fraudulenta ya tendría responsabilidades legales por dicha conducta perjudicial o nefasta, ya sea que involucre o no un sistema de IA. El matiz con los sistemas de IA es que tales comportamientos pueden no ser intencionados, pero (si el sistema no está bien diseñado y monitoreado) pueden manifestarse de todos modos.

Al aplicar esta definición, es posible que un operador que establezca deliberadamente un sistema para que sea discriminatorio no quede atrapado en esta definición, pero sí en la legislación existente que controla los comportamientos relevantes. En la medida en que cualquier delito relevante requiriera dolo (mens rea para aquellos que prefieren el latín), tal dolo estaría claramente presente en tal caso.

Sin embargo, el operador que estableciera un sistema que exhibiera sesgos inesperados o que ocasional e impredeciblemente produjera resultados erróneos, quedaría atrapado por esta nueva definición. Por lo tanto, cualquier control aplicado en la legislación correspondiente que utilice esta definición captaría aquellos sistemas que podrían beneficiarse de esos controles. Los ejemplos de controles relevantes sobre los operadores podrían incluir:

Para aquellos que prefieren un enfoque basado en el cinturón y los aparatos ortopédicos, la definición podría extenderse con una tercera parte para incluir específicamente sistemas donde los comportamientos problemáticos se han manifestado deliberadamente en el sistema, por lo que no sería necesario confiar completamente en las leyes actuales contra la discriminación, etc. para controlar a los malos actores que utilizan sistemas complejos con fines antisociales.

Regulación inteligente

Si bien imaginar posibles definiciones alternativas ofrece un divertido desafío filosófico, las definiciones que los operadores de IA deben tener en cuenta son las que finalmente emergen en la legislación pertinente.

Desde la perspectiva de la UE, parece probable que el Reglamento de IA de la UE conserve una definición razonablemente cercana a la de los borradores actuales. Así como la definición de "datos personales" del RGPD se convirtió en un estándar de facto, la definición de sistema de IA en el Reglamento de IA de la UE puede convertirse en una definición de referencia dentro de la industria. Es probable que otras definiciones en competencia (y potencialmente incompatibles) estén contenidas en las leyes que regulan aspectos del despliegue de IA en los EE. UU., el Reino Unido, China y otros lugares. En los EE. UU., y posiblemente en el Reino Unido, los legisladores podrían aplicar un enfoque más sectorial, centrándose en usos específicos de IA en industrias particulares. Este enfoque sectorial puede resultar en más de un mosaico de definiciones de IA que dependen del contexto.

Con ese telón de fondo, corresponderá a los reguladores, como ejecutores de estas nuevas reglas, aplicar su propia filosofía a las definiciones legislativas. Una vez más, podemos buscar experiencias en el ámbito de la protección de datos para ver cómo podría funcionar, aunque necesitamos ir más allá del RGPD. En los primeros años posteriores a la promulgación de la Directiva de protección de datos de 1995 en las leyes de los Estados miembros, vimos que la entonces nueva definición de datos personales se puso a prueba una y otra vez: ¿Qué constituía datos personales? ¿Qué tan fácilmente identificable tenía que ser un sujeto de datos? ¿Estaba realmente prohibido que los padres filmaran obras de teatro navideñas escolares? Al decidir estas cuestiones, los reguladores estaban obligados a seguir el texto de la definición, pero al hacerlo, inevitablemente revelaron su propia perspectiva y filosofía.

Lo mismo ocurrirá con las definiciones clave de IA en estas nuevas leyes, aunque dada la amplitud de las definiciones, los reguladores disfrutarán de un margen de maniobra aún mayor para interpretar los límites de las definiciones de acuerdo con sus propios conceptos y propósitos. Con eso en mente, si esos reguladores prestan atención a si los sistemas particulares exhiben o no propiedades emergentes potencialmente problemáticas, eso podría proporcionar una dirección útil sobre dónde deben concentrarse los esfuerzos de aplicación.

Próximos pasos

Para aquellos que buscan aprovechar la promesa que ofrecen los sistemas de IA de última generación dentro de su organización, cualquier definición propuesta por los legisladores (ya sea la definición amplia que probablemente se adopte en la UE o definiciones potencialmente más específicas que podría encontrar favor en otros lugares) es probable que se aplique a ese sistema de una forma u otra. Centrarse en garantizar las posibles propiedades emergentes (y los efectos negativos que podrían derivarse de ellas) es fundamental. Los comentarios de los gobiernos y los regímenes regulatorios propuestos se han centrado en la explicabilidad, la transparencia, la confiabilidad y la capacidad de detectar y erradicar los sesgos que puedan surgir. Diseñar sistemas con estos objetivos en mente es la mejor manera de garantizar que se adopte un enfoque de "cumplimiento desde el diseño" a medida que evolucionan las regulaciones.

Por supuesto, el negocio no se detiene y espera que las regulaciones se establezcan, implementen y entiendan. Como tal, habrá una miríada de actividades de implementación de tecnología compleja en este momento en todo el mundo. Por lo tanto, la preocupación es que la regulación emergente pueda atravesar una necesidad comercial, una hoja de ruta de un producto o una nueva línea de negocios. Para resolver esa preocupación, las organizaciones deben tener en cuenta las posibles nuevas regulaciones antes de que lleguen para garantizar que tengan un enfoque de implementación defendible, auditable y, en última instancia, razonable (en el contexto de su sector).