Ce serait assez difficile - certains pourraient dire impossibles - de concevoir des systèmes d'IA éthiques largement adoptés.Une part des experts qui répondaient ont noté que l'éthique est difficile à définir, à mettre en œuvre et à appliquer.Ils ont dit que le contexte est important en matière de considérations éthiques.Toute tentative de mode éthique génère d'innombrables scénarios variables dans lesquels les applications de ces règles peuvent être désordonnées.La nature et le pouvoir relatif des acteurs dans un scénario donné sont également importants.Les normes et normes sociales évoluent et peuvent devenir totalement différentes à mesure que les cultures changent.Peu de gens ont beaucoup d'éducation ou de formation en éthique.De plus, les bons et les mauvais acteurs exploitent des lacunes et des zones grises où les règles éthiques ne sont pas nettes, de sorte que des solutions de contournement, des patchs ou d'autres remèdes sont souvent créées avec différents niveaux de succès.
Les experts qui ont exprimé des inquiétudes ont également invoqué des problèmes de gouvernance.Ils ont demandé: quels systèmes éthiques devraient être appliqués?Qui peut prendre cette décision?Qui a la responsabilité de se soucier de la mise en œuvre de l'IA éthique?Qui pourrait appliquer des régimes éthiques une fois qu'ils sont établis?Comment?
Un grand nombre de répondants ont fait valoir que la concurrence géopolitique et économique est les principaux moteurs des développeurs de l'IA, tandis que les préoccupations morales prennent un siège arrière.Une part de ces experts a déclaré que les créateurs d'outils d'IA fonctionnent en groupes qui ont peu ou pas d'incitation à concevoir des systèmes qui répondent aux préoccupations éthiques.
Certains répondants ont noté que, même si des exigences éthiques réalisables pouvaient être établies, elles ne pouvaient pas être appliquées ou régies car la plupart des conceptions d'IA sont propriétaires, cachées et complexes.Comment diagnostiquer et aborder les «résultats» nocifs de l'IA si la base des «décisions» de l'IA ne peut pas être discernée?Certains de ces experts notent également que les systèmes et bases de données d'IA existantes sont souvent utilisées pour créer de nouvelles applications d'IA.Cela signifie que les biais et les aspects éthiquement troublants des systèmes actuels sont conçus dans les nouveaux systèmes.Ils disent que le diagnostic et le déroulement des problèmes préexistants peuvent être difficiles, voire impossibles à réaliser.
Il est difficile de définir l’IA «éthique»
Une partie de ces experts a permis à leurs réponses de questions qui représentent cette question globale: comment les normes éthiques peuvent-elles être définies et appliquées pour un univers global, interculturel et en constante évolution et en constante évolution de divers systèmes noirs dans lesquels les mauvaisLes acteurs et la désinformation prospèrent?
Une sélection de commentaires des répondants sur ce grand sujet est organisée sur les 20 prochaines pages en vertu de ces sous-titres: 1) Il peut être difficile de convenir de ce qui constitue un comportement éthique.2) Les humains sont le problème: dont l'éthique?Qui décide?On s'en fout?Qui applique?3) Comme tous les outils, l'IA peut être utilisée pour le bien ou le mal, ce qui fait de la mise en œuvre des normes.4) L'évolution de l'IA elle-même soulève des questions et des complications.
Stephen Downes, responsable de la recherche principale pour les technologies numériques au Conseil national de recherche du Canada, a observé: «Le problème de l'application des principes éthiques à l'intelligence artificielle est qu'il n'y a aucun accord commun sur ce que ce sont.S'il est courant de supposer qu'il existe une sorte d'unanimité sur les principes éthiques, cette unanimité est rarement plus large qu'une seule culture, profession ou groupe social.Ceci est rendu manifeste par la facilité avec laquelle nous perpétuons l'injustice, l'injustice et même la violence et la mort à d'autres personnes.Aucune nation n'est immunisée.
«La composition de ceci est le fait que l'intelligence artificielle contemporaine n'est pas basée sur des principes ou des règles.L'IA moderne est basée sur l'application de fonctions mathématiques sur de grandes collections de données.Ce type de traitement n'est pas facilement façonné par des principes éthiques;Il n’existe pas de fonctions mathématiques «bonnes» ou «mauvaises», et les biais et préjugés dans les données ne sont pas facilement identifiés ni empêchés.Pendant ce temps, l'application de l'IA est sous-déterminée par le résultat;La même prédiction, par exemple, peut être utilisée pour fournir un soutien social et une assistance à une personne dans le besoin ou pour empêcher cette personne d'obtenir un emploi, une assurance ou des services financiers.
«En fin de compte, notre IA sera une extension de nous-mêmes, et l'éthique de notre IA sera une extension de notre propre éthique.Dans la mesure où nous pouvons construire une société plus éthique, quoi que cela signifie, nous construirons plus d'IA éthique, ne serait-ce qu'en fournissant à notre IA les modèles et des exemples dont il a besoin afin de pouvoir distinguer le bien du mal.J'espère que le grossissement des conséquences éthiques de nos actions pourra nous conduire à en être plus conscients;J'ai peur qu'ils ne le puissent pas.
Kenneth A. Grady, professeur auxiliaire au Michigan State University College of Law et rédacteur en chef de la Société algorithmique sur Medium, a déclaré: «Depuis que ceux qui créent une IA de l'utiliser de manière« éthique »sont confrontés à de nombreux obstacles que la société est peu susceptible de surmonter dans laun avenir prévisible.D'une manière clé, la régulation de l'éthique de l'IA s'apparente à la régulation de l'éthique dans la société dans son ensemble.L'IA est une technologie distribuée et relativement peu coûteuse.Je peux créer et utiliser l'IA dans mon entreprise, mon laboratoire de recherche ou ma maison avec un minimum de ressources.Cette IA peut être assez puissante.Je peux le libérer sur le monde sans frais.
«En supposant que nous pourrions le réguler efficacement, nous sommes confrontés à un autre obstacle majeur: qu'entendons-nous par« éthique? »Mettre de côté les débats philosophiques, nous sommes confrontés à des problèmes pratiques dans la définition de l'IA éthique.Nous n'avons pas à regarder loin pour voir des défis similaires.Au cours des dernières années, ce qui est ou n'est pas un comportement éthique dans la politique américaine a été mis en débat.D'autres pays ont été confrontés à des problèmes similaires.
«Même si nous pouvions décider d'une définition [pour l'éthique] aux États-Unis, cela varierait probablement des définitions utilisées dans d'autres pays.Compte tenu de la capacité de l'IA à traverser les frontières fluides, la régulation de l'IA s'avérerait gênante.Nous constatons également que les contraintes éthiques peuvent être en contradiction avec d'autres intérêts personnels.L'éthique situationnelle pourrait facilement survenir lorsque nous sommes confrontés à des menaces militaires ou au renseignement, des menaces compétitives économiques et même des menaces politiques.
«De plus, l'IA elle-même présente quelques défis.Aujourd'hui, une grande partie de ce qui se passe dans certains systèmes d'IA n'est pas connue des créateurs des systèmes.Ceci est le problème de la boîte noire.La régulation de ce qui se passe dans la boîte noire peut être difficile.Alternativement, l'interdiction des boîtes noires peut entraver le développement de l'IA, ce qui mettait nos intérêts économiques, militaires ou politiques en danger. »
Ryan Sweeney, directeur de l'analyse pour Ignite Social Media, a déclaré: «La définition du« bien public »est importante ici.Dans quelle mesure l'intention par rapport à l'exécution est-elle importante?Prenez Facebook, par exemple.Ils pourraient affirmer que leur plate-forme de révision de contenu d’IA est dans l’intérêt du «bien public», mais il continue d’échouer.L'IA n'est aussi éthique et sage que ceux qui le programment.Le racisme d'une personne est la liberté d'expression d'une autre.Ce qui pourrait être un mot offensant pour quelqu'un pourrait même ne pas être dans le lexique du programmeur.
«Je suis sûr que l'IA sera utilisée avec une intention éthique, mais l'éthique nécessite de l'empathie. Pour programmer l'éthique, il doit y avoir un bien et un mal définitifs, mais les situations ne sont probablement pas aussi simples et nécessitent une certaine forme d'analyse humaine émotionnelle et contextuelle. Le succès de l'exécution éthique de l'IA se résume à savoir si les programmeurs ont littéralement pensé ou non à chaque scénario possible. En d'autres termes, l'IA sera probablement développée et utilisée avec une intention éthique, mais elle ne sera probablement pas en deçà de ce que nous, les humains, pouvons faire. Nous devons utiliser l'IA comme un outil pour guider nos décisions, mais ne pas compter entièrement pour prendre ces décisions. Sinon, la possibilité d'abus ou de conséquences involontaires montrera son visage. Je suis également sûr que l'IA sera utilisée avec une intention douteuse, car la technologie n'est ni intrinsèquement bonne ni mauvaise. Étant donné que la technologie est neutre, je suis sûr que nous verrons des cas d'abus de l'IA pour des gains égoïstes ou d'autres moyens douteux et violations de la confidentialité. Les normes éthiques sont compliquées à concevoir et difficiles à programmer. »
It can be hard to agree as to what constitutes ethical behavior
Vous trouverez ci-dessous un échantillon de réponses expertes qui parlent aux grandes préoccupations selon lesquelles les comportements éthiques peuvent être difficiles à définir et encore plus difficiles à intégrer dans les systèmes d'IA.
Mark Lemley, directeur du programme de droit, de science et de technologie de l'Université de Stanford, a observé: «Les gens utiliseront l'IA à des fins bonnes et mauvaises.La plupart des entreprises tenteront de concevoir la technologie pour prendre de bonnes décisions, mais bon nombre de ces décisions sont des choix moraux durs sans réponse.L'IA offre le plus de promesses pour remplacer un jugement humain très pauvre dans des choses comme la reconnaissance faciale et les arrêts de police. »
Marc Brenman, membre directeur d'Idare, un cabinet de conseil en formation et en développement du leadership basé à Washington, D.C., a écrit: «En tant que sociétés, nous sommes très faibles sur la moralité et l'éthique en général.Il n'y a aucune raison particulière de penser que nos machines ou systèmes feront mieux que nous.Les personnes défectueuses créent des systèmes défectueux.En général, les ingénieurs et les personnes informatiques et les développeurs n'ont aucune idée de ce que sont l'éthique.Comment pourraient-ils programmer des systèmes pour avoir ce qu'ils ne font pas?Au fur et à mesure que les systèmes apprennent et se développent, ils examineront la société et répéteront ses erreurs, biais, stéréotypes et préjugés.Nous le voyons déjà en reconnaissance faciale.
«L'IA effectuera certaines transactions plus rapidement, comme prédire ce que j'achèterai en ligne.Les systèmes d'IA peuvent devenir incontrôlables à mesure qu'ils deviennent autonomes.De quelle utilisation les humains leur sont-ils?Ils peuvent permettre aux erreurs d'être commises très rapidement, mais les systèmes peuvent ne pas reconnaître les conséquences de leurs actions comme des «erreurs». Par exemple, s'ils maximisent l'efficacité, l'exemple chinois de contrôle social peut dominer.
«Lorsque les systèmes d'IA sont associés à des systèmes de punition ou de rétroaction cinétique, ils pourront contrôler notre comportement.Imaginez une pandémie où une «recommandation» est faite pour abriter en place ou porter un masque ou rester à six pieds des autres.Si les gens sont connectés aux systèmes d'IA, le système peut donner un choc électrique à une personne qui ne met pas en œuvre la recommandation.Ce sera comme nous portons tous des colliers de choc que certains d'entre nous utilisent sur nos chiens mal se comporter. »
June Anne English-Lueck, professeur d'anthropologie à la San Jose State University et boursier distingué à l'Institut pour l'avenir, a déclaré: «Les systèmes d'IA utilisent des algorithmes qui ne sont aussi solides que les locaux sur lesquels ils sont construits et la précision de ladonnées avec lesquelles ils apprennent.Les systèmes éthiques humains sont complexes et contradictoires.De telles nuances comme bonnes pour qui et mal pour qui sont difficiles à analyser.Les villes intelligentes, s'appuyant sur des systèmes de surveillance et le gouvernement automatisé ont besoin de mécanismes de surveillance humaine.La surveillance n'a pas été notre fort procès au cours des dernières décennies, et il y a peu de raisons de croire qu'elle sera instituée dans les interactions de l'automatisation humaine. »
Amali de Silva-Mitchell, un futuriste et consultant participant à Multistakeholder, Global Internet Governance Processs, a écrit: «Bien qu'il y ait beaucoup de discussions, il y a peu de normes ou celles qui existent sont à un niveau élevé ou sont arrivées trop tard pour les centaines de centaines deLes applications AI sont déjà déployées.Ces applications d'IA de base ne seront pas réinventées, il y a donc un risque intégré.Cependant, plus il y a de discussions, plus la compréhension des problèmes éthiques existants est grande, et cela peut être considéré comme se développer, d'autant plus que les normes et les attentes sociétales changent.Les applications d'IA ont le potentiel d'être bénéfique, mais les applications doivent être gérées afin de ne pas causer de dommages involontaires.Pour la livraison mondiale et le service intégré, il doit y avoir des normes, une transparence et une collaboration communes.La duplication des efforts est un gaspillage de ressources. »
Glenn Edens, professeur à la Thunderbird School of Global Management, Arizona State University, auparavant vice-président du PARC, a observé: «La promesse: l'IA et la ML pourraient créer un monde plus efficace, gaspillant moins d'énergie ou de ressources offrant des soins de santé, une éducation, Divertissement, nourriture et abri à plus de personnes à moindre coût.Étant légalement aveugle, j'attends avec impatience le jour des voitures autonomes sûres et largement disponibles, par exemple.Tout comme le moteur à vapeur, l'électricité, les vélos et les ordinateurs personnels (en particulier les ordinateurs portables) amplifient la capacité humaine IA, et ML fera de même.
«Les préoccupations: l'IA et son cousin ML sont encore à leurs balbutiements - et bien que les progrès technologiques soient quelque peu prévisibles, les conséquences humaines réelles sont troubles.La promesse est formidable - notre imagination naïve de ce que ferait Internet pour l'humanité.Les intérêts commerciaux (et donc leur déploiement de l'IA et de la ML) sont beaucoup plus agiles et adaptables que les humains qu'ils servent soi-disant ou les systèmes de gouvernance.La réglementation est largement réactionnaire, rarement proactive - généralement, de mauvaises choses doivent se produire avant que les cadres pour guider les comportements responsables et équitables ne soient rédigés dans des lois, des normes émergent ou que l'utilisation soit codifiée en normes acceptables.C'est formidable que la conversation ait commencé;Cependant, il y a beaucoup de développement continu dans le monde ennuyeux du développement de logiciels d'entreprise qui est largement invisible.
«La notation du crédit vient à l'esprit comme un domaine potentiel majeur de préoccupation - alors que les entreprises de scoriage de crédit positionnent toujours leur travail comme offrant aux consommateurs plus d'accès aux produits financiers, la réalité est que nous avons créé un système qui pénalise injustement les pauvres etlimite l'accès équitable aux produits financiers à des prix équitables.L'IA et la ML seront utilisées par les sociétés pour évaluer tout ce qu'ils font et chaque transaction, évaluer chaque client et leur potentiel (valeur), prédire la demande, la tarification, le ciblage ainsi que leurs propres employés et partenaires - bien que cela puisse conduire à l'efficacité, à la productivitéet la création d'une valeur économique, une grande partie entraînera une segmentation, une ségrégation, une discrimination, un profilage et des inégalités.Imaginez un monde où les prix sont différents pour tout le monde d'un moment à l'autre, et ces systèmes prédictifs peuvent transférer d'énormes sommes de valeur en un instant, en particulier des plus vulnérables. »
Un expert en stratégie et en planification a répondu: «Bien que je dis et croient que, oui, des frontières éthiques seront mises en place pour l'IA d'ici 2030, je me rends compte que faire cela va être incroyablement difficile. La compréhension de ce qu'une IA fait alors qu'elle construit et adapte ses compréhensions et s'approche assez rapidement à un point où la connaissance humaine et le maintien se laissent laisser. Le comment et pourquoi quelque chose a été fait ou recommandé peut être inconnaissable. De plus, la vie et la compréhension du bien et du mal ou du bon et du mal peuvent être fluides pour les gens, car les choses se balancent pour s'adapter aux impacts sur l'existence humaine et la condition ainsi que la vie habitable sur notre planète. La fixation des limites et des limites a une forte valeur, mais être en mesure de comprendre quand les choses se déplacent des zones confortables ou qui ont introduit une nouvelle réalisation pour un besoin de corriger les conséquences involontaires sont nécessaires. Mais les limites autour du biais doivent être prises en compte et travaillées avant de fixer des limitations éthiques en place. »
Un vice-président d'une grande entreprise mondiale a écrit: «L'IA est trop distribuée d'une technologie pour être gérée efficacement.Il est trop facilement accessible à toute personne, entreprise ou organisation avec des ressources raisonnablement modestes.Cela signifie que, contrairement aux armes nucléaires ou bio-bio, il sera presque impossible de gouverner, et il y aura toujours une personne disposée à développer la technologie sans tenir compte des conséquences éthiques. »
Wendy M. Grossman, écrivain scientifique basée au Royaume-Uni, auteur de «Net.Wars» et fondatrice du magazine The Skeptic, a prédit: «La distribution de ceci sera inégale.Je viens de lire la pièce de Jane Mayer dans le New Yorker sur les usines d'emballage de volaille, et cela fournit un excellent exemple de la raison pour laquelle il ne suffit pas d'avoir des lois et de l'éthique;Vous devez les appliquer et donner aux personnes que vous essayez de protéger une autonomie suffisante pour participer à leur application.Je pense que l'IA éthique / contraire à l'éthique sera inégalement distribuée.Tout dépendra de ce que la société dans laquelle la technologie est injectée acceptera et qui parle.Pour le moment, nous avons deux exemples divergents:
- AI applications whose impact on most people’s lives appears to be in refusing them access to things – probation in the criminal justice system, welfare in the benefits system, credit in the financial system.
- AI systems that answer questions and offer help (recommendation algorithms, Siri, Google search, etc.).
Mais alors ce que nous avons aujourd'hui n'est pas l'IA comme l'origine l'origine par le groupe Dartmouth.Nous sommes encore très loin de toute sorte d'intelligence générale artificielle avec toute sorte d'autonomie indépendante.Les systèmes que nous dépendions pour leur éthique sur deux choses: l'accès aux données nécessaires pour les construire et l'éthique du propriétaire.Ce n'est pas l'IA qui a besoin d'éthique, ce sont les propriétaires. "
Glynn Rogers, à la retraite, ingénieur principal précédemment principal et membre fondateur du CSIRO Center for Complex Systems Science, a déclaré: «L'IA et ses successeurs sont potentiellement si puissants que nous n'avons pas d'autre choix que d'assurer l'attention à l'éthique. L'alternative serait de remettre le contrôle de notre mode de vie à une classe de développeurs et d'exécuteurs qui sont soit axés sur les intérêts à court terme et à courte vue, soit qui ont une forme d'agenda politique en particulier les «acteurs de l'État». La grande question est de savoir comment pour assurer cela. Un cadre réglementaire fait partie de la réponse, mais je soupçonne qu'une exigence majeure est de changer la culture de l'industrie de l'IA. Plutôt que de développer des technologies simplement pour le bien, ou pour publier des articles intelligents, il doit y avoir un environnement culturel dans lequel les développeurs considèrent comme une partie inhérente de leur tâche pour considérer les impacts sociaux et économiques potentiels de leurs activités et un cadre d'emploi Cela ne cherche pas à réprimer cela. Peut-être que la philosophie morale et politique devrait faire partie de l'éducation des développeurs de l'IA. »
Alexandra Samuel, écrivaine de technologie, chercheuse, conférencière et contributeur régulier au Wall Street Journal et à Harvard Business Review, a écrit: «Sans accords internationaux sérieux et exécutoires sur l'utilisation et les principes appropriés pour l'IA, nous sommes confrontés à une course presque inévitable vers le bas.La valeur commerciale de l'IA n'a aucune dépendance intrinsèque à l'égard des principes éthiques;Si vous pouvez gagner plus d'argent avec AIS qui priorise l'utilisateur par rapport aux autres ou qui hiérarchisent les besoins de l'entreprise par rapport aux utilisateurs finaux, les entreprises créeront des IA qui maximiseront les bénéfices par rapport aux personnes.La seule façon possible de prévenir cette trajectoire concerne les politiques nationales qui obligent ou proscrire les principes de base de l'IA, et ce type de politiques nationales ne sont possibles qu'avec la coopération internationale;Sinon, les gouvernements seront trop inquiets de désavantager les entreprises de leur propre pays. »
Valerie Bock, VCB Consulting, ancienne dirigeante des services techniques au Q2 Learning, a déclaré: «Je ne pense pas que nous ayons développé la sophistication philosophique chez les humains qui conçoivent suffisamment l'IA pour s'attendre à ce qu'ils puissent intégrer une sophistication éthique dans leur logiciel.À maintes reprises, nous sommes confrontés à la façon dont nos propres biais inconscients apparaissent dans nos créations.Il s'avère que nous ne comprenons pas nous-mêmes ou nos motivations ainsi que nous aimerions imaginer que nous pourrions.Le travail dans l'IA aide à expliquer une partie de cela pour nous, nous aidant dans une quête [que] l'humanité a poursuivi depuis des millénaires.Un peu d'humilité basée sur ce que nous apprenons est de mise. »
Le directeur d'un centre militaire pour la stratégie et la technologie a déclaré: «La plupart des IA tenteront d'incorporer des préoccupations éthiques à un certain niveau.Il n’est pas clair à quel point l’IA «impartiale» peut être créée.Les ensembles de données d'entraînement parfaitement impartiaux n'existent pas et, en raison des préjugés humains étant une partie inhérente des interactions, un tel objectif peut être impossible à un terme.En tant que tels, nous pouvons voir des biais de genre ou raciaux dans certains ensembles de données d'entraînement, qui se répandront dans les systèmes d'IA opérationnels, malgré nos efforts pour lutter contre cela. »
Alan S. Inouye, directeur du Bureau de la politique des technologies de l'information à l'American Library Association, a répondu: «Je ne vois pas de personnes ou d'organisations proposer sur une voie néfaste dans leur utilisation de l'IA.Mais bien sûr, ils l'utiliseront pour faire avancer leurs missions et leurs objectifs et, dans un certain sens, utiliseront l'éthique «locale».Mais l'éthique n'est ni standardisée ni additive entre les domaines.Qu'est-ce que l'éthique entre les systèmes d'IA?C'est comme demander: «Qu'est-ce que la cybersécurité dans toute la société?» »
Maggie Jackson, ancien chroniqueuse de Boston Globe et auteur de «Distractée: récupérer notre objectif dans un monde d'attention perdue», a écrit: «Je suis profondément préoccupé par la façon dont nous comprenons peu de ce que les algorithmes de l'IA savent ou comment ils le savent.Cet effet de boîte noire est réel et conduit à un impact involontaire.Plus important encore, en l'absence de véritable compréhension, les hypothèses sont considérées comme le fondement des objectifs actuels et futurs.Il devrait y avoir une attention beaucoup plus grande accordée aux systèmes de valeurs cachés et implicites qui sont inhérents à la conception et au développement de l'IA sous toutes les formes.Un exemple: les soignants, les assistants et les tuteurs des robots sont de plus en plus utilisés pour s'occuper des membres les plus vulnérables de la société malgré des doutes connues par les scientifiques-robotiques, les éthiciens et les utilisateurs, le potentiel et le courant.Il est très alarmant que la façade de soins moralement douteuse des robots soit de plus en plus considérée comme un bon substitut pour les soins faîtiers mais réciproques effectués par les humains.
«Les nouvelles directives éthiques de l'IA qui mettent l'accent sur la transparence sont une bonne première étape pour essayer de s'assurer que les bénéficiaires de soins et d'autres comprennent à qui ils traitent.Mais les systèmes à profit, l'orgueillement des inventeurs, la tendance innée des humains à essayer de se rapporter à tous les objets qui semblent avoir une agence, et d'autres forces se combinent pour travailler contre le scepticisme humain nécessaire si nous voulons créer des robots d'assistance qui préserventLa liberté et la dignité des humains qui reçoivent leurs soins. »
Alan D. Mutter, consultant et ancien PDG de la Silicon Valley, a déclaré: «L'IA n'est aussi intelligente et positive que les personnes qui l'entraînent.Nous devons consacrer autant de temps à la mise en œuvre morale et éthique de l'IA que sur le matériel, les logiciels et les modèles commerciaux.La dernière fois que j'ai vérifié, il n'y avait pas de code d'éthique dans la Silicon Valley.Nous avons besoin d'un meilleur baromètre moral que l'indice NASDAQ. »
Fred Baker, membre du conseil d'administration du Internet Systems Consortium et leader de longue date de l'IETF, a déclaré: «J'aimerais que l'IA soit beaucoup plus éthique qu'elle ne l'est.Cela dit, la nature humaine n'a pas changé et les objectifs auxquels l'IA est appliqué n'a pas fondamentalement changé.Nous pouvons en parler davantage, mais je ne pense pas que l'éthique de l'IA changera finalement. "
Randall Mayes, analyste technologique chez TechCast Global, a observé: «La normalisation de l'éthique de l'IA me concerne parce que les gouvernements américains, européens et chinois et les sociétés de la Silicon Valley ont des idées différentes sur ce qui est éthique.La façon dont l’IA est utilisée dépendra de la hiérarchie des valeurs de votre gouvernement parmi le développement économique, la compétitivité internationale et les impacts sociaux. »
Jim Witte, directeur du Center for Social Science Research de l'Université George Mason, a répondu: «La question suppose que l'éthique et la morale sont des systèmes statiques.Avec les développements dans l'IA, il peut également y avoir une évolution de ces systèmes, de sorte que ce qui est moral et éthique demain peut être très différent de ce que nous considérons comme moral et éthique aujourd'hui. »
Yves Mathieu, codirecteur de Missions Publiques, basée à Paris, en France, a écrit: «L'IA éthique exigera une législation comme la législation européenne [RGPD] pour protéger les droits de confidentialité sur Internet.Certains gouvernements prendront des mesures, mais pas tous, comme c'est le cas aujourd'hui en ce qui concerne la production, la commercialisation et l'utilisation des armes à feu.Il pourrait y avoir une initiative de certaines sociétés, mais il y aura un besoin d'engagement de la chaîne mondiale de production de l'IA, ce qui sera un défi si une partie de la production provient de pays qui ne sont pas commis dans les mêmes principes éthiques.De fortes sanctions économiques contre la production et l'utilisation d'IA néthiques peuvent être efficaces. »
Amy Sample Ward, PDG de NTEN: Le réseau technologique à but non lucratif, a déclaré: «Il ne fait aucun doute que l'IA sera utilisée de manière douteuse.Les humains ne partagent pas un engagement cohérent et collectif envers les normes éthiques de toute technologie, en particulier pas avec l'intelligence artificielle.La création de normes n'est pas difficile, mais la responsabilité envers eux est très difficile, d'autant plus que le gouvernement, les intérêts militaires et commerciaux trouvent régulièrement des moyens de contourner les systèmes de responsabilité.Quels systèmes seront adoptés à grande échelle pour appliquer les normes et protections éthiques pour les utilisateurs?Comment les utilisateurs auront-ils du pouvoir sur leurs données?Comment l'éducation des utilisateurs sera-t-elle investie pour tous les produits et services?Ces questions devraient nous guider dans notre prise de décision aujourd'hui afin que nous ayons plus d'espoir que l'IA soit utilisé pour améliorer ou bénéficier à des vies dans les années à venir. »
Dan McGarry, un journaliste indépendant basé à Vanuatu, a noté: «Tout comme tous les autres algorithmes jamais déployés, l'IA sera une manifestation du biais humain et de la perspective de son créateur.L'algorithme de reconnaissance faciale de Facebook fonctionne de manière abusive lorsqu'on lui a demandé d'identifier les visages noirs.AIS programmé dans l'Occident riche partagera ses forces et ses faiblesses.De même, AIS développé ailleurs partagera les hypothèses et l'environnement de leurs créateurs.Ce ne seront pas des images d'eux;Ils seront des produits d'eux et reconnaissables en tant que tels. »
Abigail de Kosnik, professeur agrégé et directeur du Center for New Media à l'Université de Californie-Berkeley, a déclaré: «Je ne vois pas assez de compréhension dans le grand public, les travailleurs technologiques ou les étudiants STEM sur les dangers possibles de l'IA- La façon dont l'IA peut nuire et échouer la société.Je fais partie d'une vague d'éducateurs essayant d'introduire plus de formation en éthique et de cours dans notre instruction, et j'espère que cela changera la marée, mais je ne suis pas optimiste quant à nos chances.L'IA qui vise à générer des revenus pour les sociétés travaillera presque toujours contre les intérêts de la société. »
Irina Raicu, directrice du programme d'éthique Internet du Markkula Center for Applied Ethics, a observé: «La conversation autour de l'éthique de l'IA se déroule depuis plusieurs années maintenant.Cependant, ce qui semble évident parmi ceux qui en font partie depuis un certain temps ne se sont pas déroulés dans les programmes de nombreuses universités qui forment la prochaine génération d'experts de l'IA.Étant donné cela, il semble qu'il faudra plus de 10 ans pour que «la plupart des systèmes d'IA utilisés par des organisations de toutes sortes pour utiliser des principes éthiques axés principalement sur le bien public». De plus, de nombreuses organisations sont simplement axées principalement sur d'autres objectifs- Pas sur la protection ou la promotion du bien public. »
Un avocat et ancien doyen de la faculté de droit spécialisée dans les questions technologiques a écrit: «L'IA est un nouvel espace passionnant, mais il n'est pas réglementé et, au moins aux premiers stades, évoluera comme des investissements et des considérations monétaires directes.Il est suffisamment connu qu’il n’existe pas de normes éthiques reconnues et ne sera probablement pas au-delà de l’horizon de temps que vous mentionnez (2030).Pendant ce temps, il y aura une accumulation de «pires scénarios», des scandales majeurs sur son utilisation, une croissance de l'utilisation pernicieuse qui offensera le bon sens et les normes morales et éthiques communautaires.Ces occasions et situations conduiront à une demande progressive et croissante de réglementation, de surveillance et de politiques éthiques sur l'utilisation et l'utilisation abusive.Mais par qui (ou quoi)?Qui peut imposer ces prescriptions éthiques - les industries elles-mêmes?Le gouvernement?"
Le directeur d'un centre des politiques publiques a répondu: «Je vois un avenir positif pour l'IA dans les domaines de la santé et de l'éducation.Cependant, il y a aussi des défis éthiques ici.La société qui accédera et tiendra-t-elle ces données l'utilisera-t-elle de manière responsable?Quel sera le rôle du gouvernement?Peut-être que l'IA peut aider à développer l'eau du changement climatique et des ressources en eau, mais encore une fois, je vois un risque réel dans les domaines de la distribution équitable, de la justice et de la protection de la vie privée. »
Humans are the problem: Whose ethics? Who decides? Who cares? Who enforces?
Un certain nombre d'experts qui ont des inquiétudes concernant l'avenir de l'IA éthique ont soulevé des problèmes autour de la nature fondamentale des gens.Les humains imparfaits seront nécessairement au cœur de ces problèmes.De plus, certains experts ont fait valoir que les humains devront créer les systèmes de gouvernance supervisant l'application de l'IA et jugeant comment les applications affectent les sociétés.Ces experts ont également affirmé qu'il y aura toujours des personnes et des organisations fondamentalement contraires à l'éthique qui n'adopteront pas de tels principes.De plus, certains experts ont mentionné le fait que dans un âge à l'échelle mondiale, même les loups seuls peuvent causer des problèmes massifs.
Leslie Daigle, un leader de longue date des organisations, créant Internet et le faisant sécuriser, a noté: «Ma plus grande préoccupation concernant l'IA et son utilisation éthique n'ont rien à voir avec l'IA en tant que technologie et tout à voir avec les gens.Rien sur le 21e siècle ne me convainc que nous, en tant que société, comprenons que nous sommes interdépendants et que nous devons penser à quelque chose au-delà de nos propres intérêts immédiats.Avons-nous même une vision commune de ce qui est éthique?
"En prenant un pas en arrière du bord du désespoir, les choses auxquelles j'aimerais voir l'IA à la réussite appliquée, d'ici 2030, incluent des choses comme les diagnostics médicaux (lecture des radiographies, etc.).Il pourrait y avoir des progrès monumentaux.Je ne veux toujours pas que mon réfrigérateur commande mes courses d'ici 2030, mais peut-être que cela me rend vieux?:-) "
Tracey P. Lauriault, professeure experte en études médiatiques critiques et en Big Data basée à l'Université Carleton, Ottawa, Canada, a déclaré: «L'automatisation, l'IA et l'apprentissage automatique (ML) utilisées dans la gestion du trafic comme pour changer les lumières pour améliorer le flux de la circulationtrafic, ou pour rechercher des bases de données de protéines dans Big Biochemistry Analytics, ou pour m'aider à régler des idées sur ce qui montre le prochain ou les livres à lire ensuite, ou pour faire la classification terrestre des images satellites, ou même pour réaliser une agriculture de précision organique et équitable, ou pour détecter l'activité sismique, la fusion des calottes glaciaires polaires, ou pour prédire les problèmes océaniques ne sont pas si problématiques (et son utilisation, la bonté interdite, pour détecter la criminalité en col blanc dans un contexte fintech n'est pas un problème).
«Si, cependant, la question concerne les systèmes d'admission de protection sociale, le tri biométrique, la police prédictive et le contrôle des frontières, etc., alors nous entrons dans un scénario assez différent.Comment seront-ils régis, examinés et qui seront responsables des décisions et ces décisions concernant l'approvisionnement et l'utilisation de ces technologies ou de l'intelligence en tiraient-elles?
«Ils refléteront nos formes actuelles de gouvernance, et celles-ci semblent plutôt biaisées et inégales.Si nous pouvons créer une société plus juste, nous pourrons peut-être avoir plus de l'IA / ml plus juste. »
Leiska Evanson, futuriste et consultante, a écrit: «L'humanité a des biais.Les humains construisent les algorithmes autour de l'apprentissage automatique se faisant passer pour l'IA.L’IA aura des biais.Il est impossible d'avoir une IA éthique (vraiment, ML) si le «parent» est biaisé.Des entreprises telles que les banques sont désireuses d'utiliser la ML pour justifier de ne pas prêter à certaines minorités qui ne créent tout simplement pas de profit pour elles.Les gouvernements veulent répondre aux besoins des nombreux avant les quelques-uns.Les concepts actuels de l'IA visent à alimenter plus de données à un bureaucrate électromécanique à Rubberstamp, sans surveillance des humains avec des biais concurrents. »
Un directeur des normes et de la stratégie dans une grande entreprise technologique a déclaré: «Je crois que les gens sont pour la plupart bons et que l'intention sera de créer une IA éthique.Cependant, un problème dont j'ai pris conscience est le fait que nous avons tous des biais intrinsèques, des biais involontaires, qui peuvent être exposés de manière subtile et pourtant significative.Considérez que les systèmes d'IA sont construits par des gens, et ils fonctionnent donc intrinsèquement selon la façon dont les personnes qui les ont construites fonctionnent.Ainsi, ces biais intrinsèques et involontaires sont présents dans ces systèmes.Même les systèmes d'apprentissage «apprendront» de manière biaisée.Ainsi, la question de recherche intéressante est de savoir si nous apprenons ou non d'une manière qui surmonte nos biais intrinsèques. »
Jean Seaton, directeur de la Fondation Orwell et professeur d'histoire des médias à l'Université de Westminster, a répondu: «La question d'éthique soulève également les questions de qui créerait et de la police de telles normes à l'international?Nous avons besoin de leaders visionnaires et de mouvements puissants.Le dernier grand saut «éthique» est venu après la Seconde Guerre mondiale.L'Holocauste et la Seconde Guerre mondiale ont produit un ensemble d'institutions qui ont conduit avec le temps à la notion des droits de l'homme.Ce changement éthique collectif (bien sûr compromis mais néanmoins extrêmement significatif) était incarné dans les institutions avec une autorité collective.C'est donc ce qui doit se passer sur l'IA.Les gens doivent être suffisamment terrifiés, les dirigeants doivent être assez sages, les gens doivent être suffisamment coopératifs, les techniciens doivent être suffisamment en avant, la responsabilité doit être ressentie, personnellement, assez extrêmementsurveillé.
Cliff Lynch, directeur de la Coalition for Networks Information, a écrit: «Des efforts seront faits pour créer principalement des applications d'IA« éthiques »d'ici la fin de la décennie, mais veuillez comprendre qu'une application d'IA éthique est vraiment un logiciel intégré dans une organisationCela fait quelque chose;C’est l’organisation plutôt que le logiciel qui porte le fardeau à éthique.Il y aura des exceptions évidentes pour la recherche, certains types de services de sécurité nationale, de applications militaires et de renseignement, de systèmes de commerce de marché et de prédiction économique - beaucoup de ces choses fonctionnent dans divers types de «normes éthiques alternatives» telles que les «lois de la guerre» oules lois du marché.Et de nombreux efforts pour libérer l’IA (vraiment d'apprentissage en machine) sur des domaines comme la physique ou le pliage des protéines ne feront pas partie de toute la discussion de «l'IA éthique».
«Nous devons résister à la tentation d'anthropomorphiser ces systèmes. (Comme le dit le vieil adage, «les machines détestent cela.») N'attribuez pas l'agence et le libre arbitre aux logiciels. … Les problèmes ici sont des gens et des organisations, pas du code! … Une grande partie de la discussion sur l'IA éthique est vraiment erronée. Il est clair qu'il y a un énorme problème avec l'apprentissage automatique et les systèmes de reconnaissance des modèles, par exemple, qui sont formés sur des données inappropriées, incomplètes ou biaisées (ou des données qui reflètent les biais sociaux historiques) ou où le domaine de l'applicabilité et de la confiance des classificateurs ou Les prédicteurs ne sont pas bien démits et compris. Il y a un autre énorme problème où les organisations comptent (souvent sujettes aux défaillances et peu fiables, ou formées sur des données biaisées, ou autrement problématiques) des algorithmes de reconnaissance ou de prédiction de modèle (encore une fois basés sur la machine, généralement) et décentrant trop de prise de décision à la prise de décision à ces. Certaines des catastrophes récentes de reconnaissance faciale sont de bons exemples ici. Il existe d'horribles pratiques organisationnelles et sociétales qui font appel à des décisions générées par ordinateur qui sont correctes, impartiales, impartiales ou transparentes et qui placent la foi et l'autorité injustifiées dans ce type de technologie. Mais encadrer cela en termes d'éthique de l'IA plutôt que d'une mauvaise prise de décision humaine, de la stupidité, de l'ignorance, des vœux pieux, des échecs organisationnels et des tentatives d'éviter la responsabilité me semble mal. Nous devrions plutôt parler de l'éthique humaine et organisationnelle de l'utilisation des systèmes d'apprentissage automatique et de prédiction à diverses fins, peut-être.
«Je pense que nous verrons que divers joueurs utiliseront l'apprentissage automatique, la reconnaissance des modèles et la prédiction de manière vraiment mauvaise au cours de la prochaine décennie.Le couplage aux médias sociaux ou à d'autres mécanismes de motivation culturelle et de récompense est particulièrement effrayant.Un exemple précoce ici pourrait être le développement par la Chine de son système de récompenses et de suivi de «capital social».J'ai également peur des systèmes ciblés de propagande / publicité / persuasion.J'espère que nous verrons également des organisations et des gouvernements dans au moins quelques cas choisir de ne pas utiliser ces systèmes ou d'essayer de les utiliser très prudemment et judicieusement et de ne pas leur déléguer trop.
«Il est possible de faire de bons choix ici, et je pense que certains le feront.L'éthique de l'IA authentique semble faire partie de la réflexion sur l'IA à usage général, et je pense que nous sommes très, très, loin de cela, bien que j'aie vu des prédictions contraires des gens peut-être mieux informés que moi.Les discussions philosophiques et de recherche (plutôt plus théoriques et spéculatives) sur la superintelligence et sur la façon dont on pourrait concevoir et développer une IA à usage général qui ne décidera pas rapidement d'exterminer l'humanité sont extrêmement utiles, importantes et valides, mais ils n'ont pas grand-chose àFaire avec les critiques de la justice sociale rhétorique qui confondent les algorithmes avec les organisations qui conçoivent, conçoivent, les forment et les appliquent stupidement et de manière inappropriée dans le monde d'aujourd'hui. »
Deirdre Williams, un expert des chercheurs indépendants en politique technologique mondiale, a déclaré: «Je ne peux pas être optimiste.Nous, les «personnes moyennes», avons été scolarisés au cours des années précédentes vers la sursure, l'individualisme, le matérialisme et l'importance ultime de la commodité.Ces valeurs créent les «éthos». À la racine même de l'IA, des bases de données, et ces bases de données sont construites par des êtres humains qui décident quelles données doivent être collectées et comment ces données doivent être décrites et catégorisées.Une minuscule erreur ou un biais humain au tout début peut faire du ballon dans une énorme erreur de vérité et / ou de justice. »
Alexa Raad, co-fondatrice et co-animatrice du podcast TechSequences et ancienne directrice de l'exploitation chez Farsight Security, a déclaré: «Il y a de l'espoir pour l'IA en termes de demandes de soins de santé qui feront une différence positive. Mais les cadres juridiques / politiques et réglementaires sont presque toujours en retard sur les innovations techniques. Afin de se prémunir contre les répercussions négatives de l'IA, nous avons besoin d'un cadre de gouvernance politique et d'atténuation des risques qui est universellement adopté. Il doit y avoir un environnement de collaboration mondiale pour un plus grand bien. Bien que la mondialisation ait conduit à de nombreuses avancées que nous avons aujourd'hui (par exemple, la conception et l'architecture d'Internet ainsi que son modèle de gouvernance à plusieurs titulaires), la mondialisation est attaquée. Ce que nous voyons à travers le monde est une tendance vers l'isolationnisme, le séparatisme comme en témoignent les mouvements politiques tels que le populisme, le nationalisme et les résultats tels que le Brexit. Afin de proposer et d'adopter un ensemble complet de directives ou de cadre pour l'utilisation de l'IA ou de l'atténuation des risques pour l'abus de l'IA, nous aurions besoin d'un courant mondial qui soutient la collaboration. J'espère que je me trompe, mais des tendances comme celle-ci ont besoin de plus de 10 ans pour suivre leur cours et pour que le pendule se retire dans l'autre sens. D'ici là, je crains que certains des inconvénients et les risques de l'IA soient déjà en jeu. »
Andrea Romaoli Garcia, un avocat international activement impliqué dans les activités de plusieurs acteurs de l'Union internationale des télécommunications et de la société Internet, a déclaré: «Je définis l'éthique comme tous les choix possibles et disponibles où la conscience établit la meilleure option.Les valeurs et les principes sont les limiteurs qui guident la conscience dans ce choix aux côtés des objectifs;Ainsi, l'éthique est un processus.En termes d'éthique pour l'IA, le processus de découvrir ce qui est bon et juste signifie choisir parmi toutes les applications possibles et disponibles pour trouver celle qui s'applique le mieux aux fins centrées sur l'homme, en respectant tous les principes et valeurs qui rendent la vie humaine possible.
«L'approche centrée sur l'homme en éthique a été décrite pour la première fois par le philosophe grec Socrate dans ses efforts pour attirer l'attention du monde extérieur à la condition humaine. L'IA est une technologie cognitive qui permet de plus grandes progrès dans les domaines de la santé, de l'économie, politique et social. Il est impossible de nier comment les algorithmes ont un impact sur l'évolution humaine. Ainsi, une IA éthique exige que tous les instruments et applications placent les humains au centre. Malgré le fait qu'il existe certains pays qui fondent des principes éthiques pour l'IA, il y a un manque d'instruments internationaux qui couvrent tous les domaines qui guident le développement et l'application de l'IA dans une approche centrée sur l'homme. L'IA n'est pas axée sur le modèle; Il a une approche centrée sur les données pour les réseaux de neurones hautement évolutifs. Ainsi, les données doivent être sélectionnées et classées par l'action humaine. Grâce à cette action humaine, les facteurs socioculturels sont imprimés sur le comportement de l'algorithme et de l'apprentissage automatique. Cela justifie les préoccupations concernant l'éthique et se concentre également sur des questions telles que la liberté d'expression, la vie privée et la surveillance, la propriété des données et la discrimination, la manipulation de l'information et de la confiance, le réchauffement environnemental et clibien ainsi que sur la façon dont le pouvoir sera établi parmi la société.
«Ce sont des facteurs qui déterminent la compréhension et l'expérience humaines. Tous les instruments conçus pour l'IA éthique ont des bases, des valeurs et des objectifs différentes selon le terrain auquel ils s'appliquent. Le manque d'harmonie dans la définition de ces piliers compromet l'éthique pour l'IA et affecte la survie humaine. Il pourrait apporter de nouveaux moyens d'invisibles d'exclusion ou déployer des menaces à la paix sociale qui seront invisibles aux yeux humains. Ainsi, il est nécessaire que les efforts conjoints rassemblent les parties prenantes, la société civile, les scientifiques, les gouvernements et les organismes intergouvernementaux pour travailler à la construction d'une IA éthique harmonieuse qui est centrée sur l'homme et applicable à toutes les nations. 2030 est dans 10 ans. Nous n'avons pas besoin d'attendre 10 ans - nous pouvons commencer à travailler maintenant. 2020 présente plusieurs défis concernant l’impact de la technologie sur les personnes. Les violations des droits de l'homme sont exposées et les valeurs sont menacées. Ce scénario devrait accélérer les efforts de coopération internationale pour établir une IA éthique harmonieuse qui soutient la survie humaine et l'évolution mondiale. »
Olivier MJ Crépin-Leblond, entrepreneur et participant de longue date aux activités de l'ICANN et de l'IGF, a déclaré: «Ce qui m'inquiète le plus, c'est que certains acteurs des régimes non démocratiques ne voient pas la même« norme »en ce qui concerne l'éthique.Ces normes sont construites sur un contexte de culture et d'idéologie, et toutes les idéologies ne sont pas les mêmes dans le monde.Il est clair qu'aujourd'hui, certains États-nations considèrent l'IA comme un autre moyen de conquête et d'établir leur supériorité au lieu d'un moyen de faire le bien. »
Un professeur émérite des sciences sociales a déclaré: «Les algorithmes qui représentent l'éthique dans l'IA ne sont ni éthiques ni intelligents.Nous construisons des modèles informatiques de préjugés sociaux et de racisme structurel, de sexisme, d'âgisme, de xénophobie et d'autres formes d'inégalité sociale.C’est la réalisation de certains des pires cauchemars de Foucault. »
Un défenseur et activiste a déclaré: «La plupart des grandes concortures d'IA à ce jour ont été dominées par les élites de puissance du statu quo dont le sentiment de risque, le préjudice, la menace sont déformés.Composé en grande partie d'hommes blancs d'élite avec une foi excessive dans des solutions techniques et un dédain pour les dimensions socioculturelles du risque et du remède.Ces communautés - homogènes, limitées par l'expérience, trop confiantes - sont composées de personnes qui ne se considèrent pas comme un risque.En conséquence, je crois que la plupart des résultats dominants - à quel point «éthique» est définie, comment le «risque acceptable» est perçu, comment les «solutions optimales» seront déterminées - seront limitées et perpétueront et amplifient presque certainement les préjudices existants.Comme vous pouvez le voir, je suis tout le soleil et la joie. "
Glenn Grossman, consultant de Banking Analytics chez FICO, a noté: «Il est nécessaire que les dirigeants de tous les secteurs reconnaissent que l'IA n'est que la croissance des modèles mathématiques et l'application de ces techniques.Nous avons aujourd'hui une gouvernance modèle dans la plupart des organisations.Nous devons garder les mêmes garanties en place.Le défi est que de nombreux chefs d'entreprise ne sont pas bons en mathématiques!Ils ne peuvent pas comprendre les bases de l'analyse prédictive, des modèles et autres.Par conséquent, ils entendent «IA» et le considèrent comme une nouvelle technologie cool et cool et bricolage.C'est simplement des mathématiques au cœur de celui-ci.L'homme régit comment ils utilisent les mathématiques.Nous devons donc appliquer des normes éthiques pour surveiller et calibrer.L'IA est un outil, pas une solution pour tout.Tout comme le PC a inauguré l'automatisation, l'IA peut inaugurer l'automatisation du domaine des décisions.Ce sont les humains qui utilisent ces décisions et conçoivent les systèmes.Nous devons donc appliquer des normes éthiques à tout système axé sur l'IA. »
R. «Ray» Wang, analyste principal, fondateur et PDG de Constellation Research, basée à Silicon Valley, a noté: «En ce moment, nous n'avons aucun moyen d'appliquer ces principes en jeu.L'IA totalitaire, chinois, de style CCP, est l'approche préférée des dictateurs.La question est: pouvons-nous exiger et pouvons-nous appliquer l'éthique de l'IA?Nous pouvons certainement exiger, mais l'application peut être difficile. »
Maja Vujovic, consultant pour le numérique et les TIC chez Compass Communications, a noté: «L'IA éthique pourrait devenir une norme généralement convenue, mais il sera impossible de l'appliquer.Dans un monde où le contenu des médias et la production, y compris les fausses nouvelles, seront régulièrement générés par l'IA, il est plus probable que nos attentes concernant l'éthique devront être abaissées.Le public pourrait développer une «peau plus épaisse» et devenir plus tolérants envers le manque de fiabilité global des nouvelles.Cette tendance ne les rendra pas plus sceptiques ou distants mais plutôt plus actifs et beaucoup plus impliqués dans la génération de nouvelles, de plusieurs manières.Des mécanismes de certification et des outils d'IA spécialisés seront développés pour traiter spécifiquement l'IA contraire à l'éthique, car les humains s'avéreront trop crédules.Dans les secteurs où la politique n'a pas d'intérêt direct, comme la santé et la médecine, le transport, le commerce électronique et le divertissement, l'IA en tant qu'industrie pourrait faire croître davantage de latitude organique, y compris l'autorégulation. »
Like all tools, AI can be used for good or ill; that makes standards setting a challenge
Un certain nombre de répondants ont noté que toute tentative de création de règles est compliquée par le fait que toute technologie peut être utilisée à des fins nobles et nuisibles.Il est difficile de concevoir des outils numériques éthiques qui privilégient les premiers tout en gardant le dernier en échec.
Chris Arkenberg, directeur de recherche au Deloitte’s Center for Technology, Media and Telecommunications, a noté: «La réponse est à la fois bonne et mauvaise.La technologie n'adopte pas les priorités éthiques que les humains ne se privilégient pas.Ainsi, une meilleure question pourrait être de savoir si la société poursuivra un rôle plus central de l'éthique et des valeurs que nous ne l'avons vu au cours des 40 dernières années.On peut soutenir que 2020 a montré une demande résurgeante de valeurs et de principes pour une société équilibrée.Si, par exemple, l'éducation devient une plus grande priorité pour le monde occidental, l'IA pourrait amplifier notre capacité à apprendre plus efficacement.De même, avec des biais raciaux et de genre.Mais cette tendance n'est la plus forte que dans certaines démocraties occidentales.
«La Chine, par exemple, accorde une plus grande valeur à la stabilité sociale et jouit d'une population assez monochromatique.Avec les guerres commerciales actuelles, la fracture géopolitique devient également une fracture technologique qui pourrait naître des formes entièrement différentes de l'IA en fonction de leur origine.Et c'est maintenant un monde très multipolaire avec une abondance d'acteurs autonomes.
«Ainsi, ces outils élèvent de nombreux autres bateaux avec leurs propres programmes [qui] peuvent être moins liés par les notions libérales occidentales d'éthique et de valeurs.L'hypothèse pragmatique pourrait être que de nombreux cas d'IA éthique seront présents lorsque les réglementations, le développement du marché, l'attraction des talents et les attentes sociétales l'obligent.Dans le même temps, il y aura probablement d'innombrables cas de «Bad IA», des systèmes d'intelligence et d'apprentissage en machines armées conçues pour exploiter les faiblesses.Comme Internet et la mondialisation, la voie à suivre est probablement moins à guider des systèmes aussi complexes vers les résultats utopiques et plus sur l'adaptation à la façon dont les humains les exercent sous les mêmes moteurs compétitifs et collaboratifs qui ont assisté à l'intégralité de l'histoire humaine. »
Kenneth Cukier, rédacteur en chef de The Economist et co-auteur de «Big Data», a déclaré, «peu de temps pourraient utiliser l'IA de mauvaise manière (bien que certains criminels le feront certainement).La majorité des institutions appliqueront l'IA pour résoudre efficacement les problèmes du monde réel, et l'IA fonctionnera en effet à cette fin.Mais s'il s'agit de reconnaissance faciale, cela signifiera moins d'intimité et de risques d'être distingué injustement.S'il s'agit de publicité ciblée, ce sera le risque de perdre l'anonymat.Dans les soins de santé, un système d'IA peut identifier que certaines personnes ont besoin de plus de radiations pour pénétrer le pigment dans leur peau pour obtenir une image médicale plus claire, mais si cela signifie que les Noirs sont dynamités avec des doses plus élevées de rayonnement et sont donc sujets aux effets secondaires négatifs, les gens croiront qu'il y a un parti pris injuste.
«Sur l'économie mondiale, une structure commerciale« néocoloniale »ou« impériale »se formera, par laquelle tous les pays doivent devenir des clients de l'IA, de l'une des grandes puissances, de l'Amérique, de la Chine et, dans une moindre mesure, peut-être de l'Europe.»
Bruce Mehlman, futuriste et consultant, a répondu: «L'IA est puissante et a un impact énorme, mais ce n'est qu'un outil comme la poudre à canon, l'électricité ou l'aviation.Les bonnes personnes l'utiliseront de bonnes manières au profit de l'humanité.Les mauvaises personnes l'utiliseront de manière néfaste au détriment de la société.La nature humaine n'a pas changé et ne sera ni améliorée ni aggravée par l'IA.Ce sera le meilleur des technologies et le pire des technologies. »
Ian Thomson, un développeur pionnier du Pacific Knowledge Hub, a observé: «Il sera toujours le cas que les nouvelles utilisations de l'IA soulèveront des problèmes éthiques, mais au fil du temps, ces problèmes seront résolus afin que la majorité des utilisations soient éthiques.Les bonnes utilisations de l'IA comprendront la mise en évidence des tendances et des développements dont nous ne sommes pas satisfaits.Les mauvaises utilisations seront liées à l'utilisation de l'IA pour manipuler nos opinions et nos comportements pour le gain financier des personnes suffisamment riches pour développer l'IA et l'inconvénient de ceux qui sont moins aisés.Je suis excité par la façon dont l'IA peut nous aider à prendre de meilleures décisions, mais je me méfie qu'elle puisse également être utilisée pour nous manipuler. »
Un professeur d'international et d'économie dans une université de la région de Washington, D.C., a écrit: «L'IA a tendance à être trouble dans la façon dont elle fonctionne et les types de résultats qu'il obtient.Par conséquent, il peut facilement être utilisé à la fois aux bonnes et aux mauvaises extrémités sans trop de surveillance pratique.L'IA, telle qu'elle est actuellement mise en œuvre, a tendance à réduire l'agence personnelle des individus et crée plutôt un agent parallèle qui anticipe et crée des besoins conformément à ce que les autres pensent être juste.L'individu étant aidé par l'IA devrait être en mesure de comprendre pleinement ce qu'il fait et de modifier facilement la façon dont il fonctionne pour mieux s'aligner sur ses propres préférences.Mes préoccupations sont apaisées dans la mesure où le fonctionnement de l'IA, et ses biais potentiels et / ou manipulation restent clairs pour l'utilisateur.Je crains son impact.Ceci, bien sûr, est indépendant d'une préoccupation supplémentaire pour la vie privée individuelle.Je veux que l'utilisateur contrôle la technologie, et non l'inverse. »
Kate Klonick, professeur de droit à l'Université St. John’s dont les recherches sont axées sur le droit et la technologie, a déclaré: «L'IA sera utilisée pour le bien et le mauvais, comme la plupart des nouvelles technologies.Je ne vois pas l'IA comme un négatif à somme nulle de mauvais ou de bien.Je pense que chez Net IA a amélioré la vie des gens et continuera de le faire, mais il s'agit d'une source de conflits massifs au sein des communautés qui construisent des systèmes d'IA et des communautés qui étudient leurs effets sur la société. »
Stephan G. Humer, professeur et directeur, Département de sociologie Internet de l'Université des sciences appliqués de Fresenius à Berlin, a prédit: «Nous verrons une dichotomie: les systèmes officiels ne seront plus conçus d'une manière aussi naïve et centrée sur la technologie comme au début du débutLes jours de numérisation et de l'éthique joueront un rôle majeur dans ce domaine.Les conceptions «non officielles» auront bien sûr lieu sans aucun cadrage éthique, par exemple, dans le domaine du crime en tant que service.Ce qui m'inquiète le plus, c'est le manque de connaissances: ceux qui en savent peu sur l'IA seront craindre, et l'idée de l'IA souffrira.Les développements spectaculaires seront principalement aux États-Unis et en Chine.Le reste du monde ne jouera pas un rôle important pour le moment. »
Un répondant anonyme a écrit: «C'est une question ouverte. Black Lives Matter et d'autres mouvements de justice sociale doivent «honte» et forcer les entreprises axées sur le profit à se plonger dans les données et les informations biaisées intrinsèquement qu'ils nourrissent les systèmes d'IA - les bots et les robots - et essaient de garder ces façons de penser biaisées à un minimum. Il devra y avoir des contrôles et contrepoids pour garantir que les systèmes d'IA ne disposent pas du dernier mot, y compris sur l'embauche, la promotion et la récompense autrement. Je crains que les systèmes d'IA tels que la reconnaissance faciale soient abusés, en particulier par les gouvernements totalitaires, les forces de police de tous les pays et même des magasins de détail - en ce qui concerne qui est le «meilleur» et «le plus sensible» achetant à la porte. Je m'inquiète que les systèmes d'IA permettent aux gens d'être d'accord pour abandonner leurs droits à la vie privée. Mais je vois aussi des artistes, des acteurs, des réalisateurs et d'autres créatifs utiliser l'IA pour donner la parole aux problèmes auxquels notre pays doit affronter. J'espère également que l'IA facilitera en quelque sorte les inégalités du transport, de l'éducation et des soins de santé. »
Ilana Schoenfeld, une experte dans la conception de systèmes d'éducation et de partage des connaissances en ligne, a déclaré: «J'ai peur et en même temps excité par les possibilités d'utiliser des applications d'IA dans la vie de de plus en plus de personnes.L'IA sera utilisée de manière éthique et discutable, car il y aura toujours des gens des deux côtés de l'équation essayant de trouver des moyens de poursuivre leurs agendas.Afin de garantir que l'utilisation éthique de l'IA l'emporte sur son utilisation douteuse, nous devons obtenir nos garanties institutionnelles - à la fois en termes de structures et de leur application par des entités non partisanes. »
Un pionnier de la philanthropie de l'entreprise a déclaré: «Bien que beaucoup soient éthiques dans le développement et le déploiement de l'IA / ML, on ne peut pas supposer« bonté ». Pourquoi l'IA / ML sera-t-il différent de la façon:
- cellphones enabled Al-Qaeda,
- ISIS exploited social media,
- Cambridge Analytica influenced elections,
- elements of foreign governments who launched service denial attacks or employed digital mercenaries and on and on. If anything, the potential for misuse and frightening abuse just escalates, making the need for a global ethical compact all that more essential.”
Greg Shatan, a partner in Moses & Singer LLC’s intellectual property group and a member of its internet and technology practice, wrote, “Ethical use will be widespread, but ethically questionable use will be where an ethicist would least want it to be: Oppressive state action in certain jurisdictions; the pursuit of profit leading to the hardening of economic strata; policing, etc.”
Further AI evolution itself raises questions and complications
Certains répondants ont déclaré que la montée de l'IA soulève de nouvelles questions sur ce que signifie être éthique.Un certain nombre de ces experts ont fait valoir que l’IA d’aujourd’hui est non sophistiquée par rapport à ce que l’avenir est susceptible d’apporter.L'accélération de l'IA étroite à l'intelligence générale artificielle et éventuellement à la superintelligence artificielle est attendue par certains pour évoluer ces outils au-delà du contrôle humain et de la compréhension.Ensuite, il y a aussi le problème de la désinformation et de la désinformation (tels que Deep Fakes) et comment ils pourraient lutter contre les systèmes d'éthique.
David Barnhizer, professeur de droit émérite et auteur de «la contagion de l'intelligence artificielle: la démocratie peut-elle résister à la transformation imminente de l'œuvre, de la richesse et de l'ordre social?» a écrit: «Le rythme du développement de l'IA s'est accéléré et continue de prendre de la vitesse. En considérant la gamme plus complète des «biens» et des «méchants» de l'intelligence artificielle, pensez aux implications de l'avertissement de Masayoshi Son que: `` Les robots supersmart dépasseront les humains, et plus d'un billion d'objets seront liés à Internet dans les trois décennies . 'Les chercheurs créent des systèmes qui sont de plus en plus capables d'enseigner et d'utiliser leur capacité nouvelle et croissante à s'améliorer et à évoluer. La capacité de le faire est de l'avant avec une rapidité incroyable. Ils peuvent réaliser de grands exploits, comme conduire des voitures et prédire les maladies, et certains de leurs fabricants disent qu'ils ne contrôlent pas entièrement leurs créations. Considérez les implications d'un système qui peut accéder, stocker, manipuler, évaluer, intégrer et utiliser toutes les formes de connaissances. Cela a le potentiel d'atteindre les niveaux si loin au-delà de ce que les humains sont capables qui pourraient finir comme un système omniscient et omniprésent.
"La« dernière invention »de l'IA Humanité est-elle?Nick Bostrom d'Oxford suggère que nous pourrions perdre le contrôle des systèmes d'IA plus tôt que nous ne le pensons.Il affirme que notre incapacité croissante à comprendre ce que font ces systèmes, ce qu’ils apprennent et comment l’esprit «l’esprit de l’IA» à mesure qu’il se développe peut-être par inadvertance notre propre destruction.Nos défis sont nombreux, même si nous n'avons eu à faire face aux capacités en expansion des systèmes d'IA basés sur la meilleure technologie binaire.L'incroyable miniaturisation et le décalage des capacités représentés par les ordinateurs quantiques ont des implications bien au-delà de l'IA binaire.
«Les travaux sur les percées technologiques telles que les ordinateurs quantiques capables de fonctionner à des vitesses multiples de grandeur au-delà des ordinateurs de courant les plus rapides sont encore à un stade relativement précoce et prendront du temps à se développer au-delà du contexte de laboratoire.Si les scientifiques réussissent à obtenir un système informatique quantique fiable, le meilleur système exascale pâlera par rapport à la taille réduite et à la capacité exponentielle étendue des systèmes informatiques existants les plus avancés.Cela créera des applications et des technologies AI / Robotics que nous ne pouvons désormais imaginer.… Une fois pleinement développé, les ordinateurs quantiques auront des capacités de gestion des données et de traitement bien au-delà de celles des systèmes binaires actuels.Lorsque cela se produit dans le contexte commercialisé, les prédictions sur ce qui arrivera aux humains et à leurs sociétés sont «hors du conseil». »
Un expert dans la réglementation des risques et les rôles de la politique au sein de la science et de la science au sein de la politique a observé: «Dans mon travail, j'utilise une analyse coûts-avantages. Il s'agit d'un modèle élégant qui est généralement reconnu pour ignorer bon nombre des aspects les plus importants de la prise de décision - comment «valoriser» les avantages non monétaires, par exemple. Les bons analystes de l'ABC ont tendance à être humbles à propos de leurs techniques, notant qu'ils fournissent une vision partielle des structures de décision. J'ai entendu trop de passionnés d'IA parler des applications d'IA sans aucune humilité. Le livre de Cathy O’Neil, «Armes de destruction des mathématiques», était parfaitement sur la cible: si vous ne pouvez pas le compter, cela n’existe pas. L'autre problème majeur est largement discuté: la transparence des algorithmes. Un problème avec l'IA est qu'il est autonome. Nous ne saurons presque certainement pas ce qu'un algorithme a appris, adopté, mal adopté, etc. Ce problème existe déjà, par exemple, en utilisant l'IA pour les décisions d'embauche. Je doute qu'il y aura beaucoup d'hésitation à saisir l'IA comme la manière «neutre, objective, rapide et bon marché» d'éviter toutes ces complications de type humain en désordre, comme la justice, l'empathie, etc. »
Neil Davies, co-fondateur de prévisibles Network Solutions et pionnier du comité qui a supervisé les développements de réseautage initiaux du Royaume-Uni, a déclaré: «L'apprentissage automatique (je refuse de l'appeler AI, car l'intelligence préalable derrière de tels systèmes n'est certainement pas artificielle) l'estFondamentalement, la transformation d'un problème réel en un système de valeurs numériques, le traitement (et les décisions) étant entièrement effectués dans ce système numérique.Pour qu'il y ait une dimension éthique à une telle analyse, il doit y avoir un moyen d'évaluer le résultat éthique en tant que (fonction de) un tel espace de valeur numérique.Je ne connais aucun travail de ce type.…
«Il existe une possibilité non triviale de multiples résultats dystopiques.Les antécédents du gouvernement britannique, à titre d'exemple - mais d'autres pays ont également leurs exemples, sur un crédit universel, Windrush, UE statut, etc., sont tous des exemples d'un processus d'évaluation basé sur la valeur dans lequel la notion d'assurance contre certainsLe cadre éthique est absent.L’aspect de la concurrence mondiale devrait conduire à des tendances monopolistiques sur la «propriété» de l’information - dont une grande partie serait considérée comme un bien commun aujourd’hui.…
«Une histoire édifiante: dans les mathématiques qui sous-tend toute la modélisation de ce type (théorie des catégories), il y a les notions« d'infidélité »et« indésirable ». L'infidélité est l'échec à capturer le« monde réel »assez bien pour avoir même le valeurs appropriées (et structure des valeurs) dans le modèle évaluable; Cela conduit à des «ordures dans les ordures». Les ordures, en revanche, sont des choses qui n'existent que sous forme d'artefacts dans le modèle. De tels objets indésirables sont souvent difficiles à reconnaître (en ce qu'ils étaient faciles, le modèle aurait été adapté pour nier leur existence même) et peut être séduisant au créateur du modèle (l'intelligence humaine) et les algorithmes de la machine pendant qu'ils recherchent leur objectif . Trop de ces systèmes créeront une valeur négative (et destructrice) en raison de l'échec de reconnaître reconnaître cette limitation fondamentale; L'échec à effectuer une assurance adéquate (voire aucune) sur le fonctionnement du système; Et, pur orgueil, motivé par la nécessité de montrer un «retour sur investissement» pour de tels efforts. »
Sarita Schoenebeck, professeure agrégée à la School of Information de l'Université du Michigan, a déclaré: «L'IA sera principalement utilisée de manière douteuse et parfois non utilisée du tout.Il y a peu de preuves que les chercheurs peuvent discerner ou s'entendre sur à quoi ressemble l'IA éthique, et encore moins pouvoir le construire en une décennie.L'IA éthique devrait minimiser les dommages, réparer les injustices, éviter la re-traumatisation et les besoins des utilisateurs centraux plutôt que des objectifs technologiques.L'IA éthique devra s'éloigner des notions d'équité, qui négligent des concepts tels que les dommages, l'injustice et le traumatisme.Cela nécessite de réconcilier les principes de conception d'IA comme l'évolutivité et l'automatisation avec les valeurs individuelles et communautaires. »
Jeff Gulati, professeur de sciences politiques à l'Université de Bentley, a répondu: «Il semble que davantage l'IA et les données provenant pourraient être utiles pour accroître la sécurité publique et la sécurité nationale.Dans une crise, nous serons plus disposés à compter sur ces applications et données.À mesure que la crise disparaît, il est peu probable que les structures et les pratiques construites pendant la crise disparaissent et resteront peu inactives.Je pouvais le voir être utilisé au nom de la prévention et conduire à une érosion de la vie privée et des libertés civiles en général.Et, bien sûr, ces applications seront disponibles pour les organisations commerciales, qui apprendront à nous connaître plus intimement afin qu'ils puissent nous vendre plus de choses dont nous n'avons pas vraiment besoin. "
Un haut responsable d'une organisation internationale des droits numériques a commenté: «Pourquoi l'IA serait-il utilisé de manière éthique?Vous n'avez qu'à regarder le statu quo pour voir qu'il n'est pas utilisé de manière éthique.Beaucoup de décideurs ne comprennent pas du tout l'IA.La police prédictive est un mot à la mode, mais la plupart sont de l'huile de serpent.Les entreprises remplaceront les travailleurs par des systèmes d'IA si elles le peuvent.Ce sont des systèmes biométriques biaisés.Et nous ne savons même pas dans de nombreux cas ce que fait vraiment l'algorithme;Nous nous battons pour la transparence et l'explication.
«Je m'attends à ce que cette option inhérente aux techniciens AI / ML soit une fonctionnalité pour les entreprises (et les gouvernements) - pas un bug.Deepfakes en est un exemple.Vous attendez-vous à une utilisation éthique?N'y pensons-nous pas précisément parce que nous nous attendons à une utilisation contraire à l'éthique et à la mauvaise foi en politique, au «porno de vengeance», etc.?Dans une économie technologique, vous devez créer et configurer le système même pour commencer à avoir des incitations pour un comportement éthique.Et une partie fondamentale de l'éthique consiste à penser à qui pourrait être blessé par vos actions et peut-être même à respecter leur agence dans des décisions qui leur sont fatidiques.
«Enfin, l'IA bien sûr a d'énormes applications militaires, et la réflexion américaine sur l'IA se déroule dans un domaine de conflit avec la Chine.Cela ne me fait pas encore du bien.La Chine dirige, ou essaie de diriger le monde de la surveillance sociale et politique, donc cela stimule la reconnaissance faciale et la biométrie.Vraisemblablement, la Chine essaie de faire de même dans les zones militaires ou de défense, et le Pentagone est vraisemblablement en concurrence comme un fou.Je ne sais même pas parler de l'IA éthique dans le contexte militaire. "
Emmanuel Evans Ntekop a observé: «Sans le créateur, l'objet est inutile.Le fabricant est le programmeur et le dieu de ses objets.C'était une idée depuis le début de soutenir en tant qu'esclave de son maître le peuple, comme les automobiles. »
Le contrôle de l'IA est concentré entre les mains de puissantes entreprises et gouvernements tirés par les motifs du profit et du pouvoir
Beaucoup de ces experts ont exprimé leur inquiétude que les systèmes d'IA soient construits par des entreprises à but lucratif et par les gouvernements axés sur l'application de l'IA à leurs propres fins.Certains ont déclaré que les gouvernements sont des catalyseurs passifs des abus d'entreprise de l'IA.Ils ont noté que le public n'est pas en mesure de comprendre comment les systèmes sont construits, ils ne sont pas informés quant à leur impact et ils ne sont pas en mesure de défier les entreprises qui tentent d'invoquer l'éthique dans un contexte de relations publiques mais ne sont pas vraiment engagées dans l'éthique.Certains experts ont déclaré que l'expression «l'IA éthique» ne sera que le dressing des fenêtres des relations publiques pour essayer de détourner l'examen des applications douteuses.
Un certain nombre de ces experts ont élaboré leurs préoccupations concernant le manque de transparence sur la façon dont les produits de l'IA sont conçus et formés.Certains ont noté que les constructeurs de produits programmer l'IA en utilisant des ensembles de données disponibles sans analyse du potentiel de biais intégré ou d'autres problèmes de qualité ou de véracité possibles.
Joseph Turow, professeur de communication à l'Université de Pennsylvanie, a écrit: «Des termes tels que« la transparence, la justice et l'équité, la vie privée, la liberté et l'autonomie humaine, la bienfaisance et la non-valorisation, la liberté, la confiance, la durabilité et la dignité »peuvent avoir de nombreuses définitions afin que les entreprises(et les gouvernements) peuvent dire qu'ils épousent un terme ou l'autre, mais le mettent ensuite en œuvre de manière algorithmique d'une manière que de nombreux étrangers ne trouveraient pas satisfaisants.Par exemple, le gouvernement chinois peut dire que ses technologies d'IA intégrent des valeurs de liberté, d'autonomie humaine et de dignité.Ma préoccupation est que les entreprises définiront «éthique» d'une manière qui correspond le mieux à leurs intérêts, souvent avec de vagues préceptes qui sonnent bien du point de vue des relations publiques mais, lorsqu'elles sont intégrées dans le code, permettent à leurs algorithmes de procéder de manière à les contraindre de la création de la créationproduits qui «fonctionnent» au sens pragmatique. »
Charlie Kaufman, un architecte de la sécurité de Dell EMC, a déclaré: «Il peut y avoir des directives éthiques imposées aux systèmes basés sur l'IA par les systèmes juridiques en 2030, mais ils auront peu d'effet - tout comme les principes de confidentialité ont peu d'effet aujourd'hui.Les entreprises sont motivées à maximiser les bénéfices, et ils trouveront des moyens de le faire, ne donnant que le service des lèvres à d'autres objectifs.Si le comportement éthique ou les résultats étaient faciles à définir ou à mesurer, la société pourrait peut-être les inciter.Mais généralement, les implications de certains nouveaux développement technologiques ne deviennent pas claires tant qu’elle s’est déjà répandue trop loin pour la contenir.
«Le plus grand impact des systèmes basés sur l'IA est la capacité d'automatiser des emplois de plus en plus complexes, ce qui entraînera des dislocations sur le marché du travail et dans la société.Qu'il s'agisse d'être un avantage pour la société ou une catastrophe dépend de la façon dont la société réagit et s'adapte.Mais cela n'a pas d'importance, car il n'y a aucun moyen de supprimer la technologie.Le mieux que nous puissions faire est de déterminer comment optimiser la société qui en résulte.
«Je ne suis pas préoccupé par la concurrence mondiale dans les systèmes d'IA.Peu importe d'où vient les progrès, cela nous affectera tous.Et il est peu probable que les développeurs les plus performants tireront tout avantage permanent.L'implication la plus importante de la concurrence mondiale est qu'il est inutile pour tout pays ou groupe de pays d'essayer de supprimer la technologie.À moins qu'il ne puisse être supprimé partout, il arrive.Essayons de faire en sorte que cela soit une bonne chose! "
Simeon Yates, professeur expert en culture numérique et interaction personnelle à l'Université de Liverpool et en chef de recherche pour l'équipe de culture numérique du gouvernement britannique, a prédit: «Jusqu'à ce que nous apportons les principes« éthiques par design »(innovation responsable) aux TIC [Informations et technologies de communication] et l'IA / Machine Learning Design - comme les tentatives de création de systèmes «sécurisés par conception» pour lutter contre la cybercriminalité - la majorité des systèmes d'IA resteront biaisés et contraires à l'éthique en principe. Bien qu'il existe un grand débat public sur l'éthique de l'IA, et de nombreuses organisations cherchent à fournir à la fois des conseils et des recherches sur le sujet, il n'y a pas d'impératif économique ou politique pour rendre l'éthique des systèmes d'IA. Tout d'abord, il y a de grands bénéfices à réaliser à partir de la manipulation des données et, à travers elle, des gens. Deuxièmement, il existe actuellement une capacité limitée pour les gouvernements à réfléchir à la façon de réguler l'IA et d'appliquer l'éthique (comme ils le disent pour les bio-sciences). Troisièmement, les gouvernements sont souvent complices d'une utilisation médiocre et éthiquement discutable des données. De plus, ce n'est pas dans le principal «intelligence artificielle» - mais un apprentissage statistique relativement simpliste basé sur des ensembles de données biaisés. L'utilisation connue de telle est en soi non éthique mais souvent rentable. La présentation de solutions telles que les biais ou plus rationnelles ou souvent «plus intelligentes» car elles sont basées sur le «calcul du froid», et non la «pensée humaine émotive», est elle-même une affirmation fausse et contraire à l'éthique ».
Colin Allen, un scientifique cognitif et philosophe qui a étudié et écrit sur l'éthique de l'IA, a écrit: «Les énoncés d'éthique des entreprises et du gouvernement sont souvent larges et non spécifiques et donc vagues par rapport à ce qui est spécifiquement refusé. Cela permet une marge de manœuvre considérable dans la façon dont ces principes sont mis en œuvre et rend l'application difficile. Aux États-Unis, je ne vois pas de lois solides en cours d'adoption dans les 10 ans qui permettraient le type de surveillance qui empêcherait les utilisations contraires à l'éthique ou discutables de l'IA, qu'elle soit prévue ou accidentelle. Du côté plein d'espoir, il y a une sensibilisation au public et une couverture journalistique de ces questions qui peuvent influencer les sociétés pour construire et protéger leur réputation pour une bonne gestion de l'IA. Mais les entreprises ont une longue histoire de cachette ou d'obscurcissement de leur véritable intention (il est en partie nécessaire de rester compétitif, de ne pas faire savoir à tout le monde ce que vous faites) ainsi que de s'engager activement dans des campagnes de désinformation publique. Je ne vois pas cela changer et, étant donné que les avantages commerciaux de l'utilisation de l'IA seront principalement dans l'analyse et la prédiction des données et pas tant dans les gadgets de consommation au cours des 10 prochaines années, une grande partie de l'utilisation de l'IA sera `` derrière la scènes, «pour ainsi dire. Une autre classe de problèmes est que les individus dans les emplois à la fois en entreprise et au gouvernement qui ont accès aux données seront tentés, comme nous l'avons déjà vu, d'accéder aux informations sur les personnes qu'ils connaissent et utilisent ces informations d'une manière ou d'une autre contre eux. Néanmoins, il y aura sans aucun doute des produits très utiles que les consommateurs voudront utiliser et qu'ils bénéficieront. La question est de savoir si ces avantages supplémentaires constitueront une bonne affaire Faustian, entraînant un chemin qui sera difficile, voire impossible à inverser. »
Alice E. Marwick, assistant professor of communication at the University of North Carolina, Chapel Hill, and adviser for the Media Manipulation project at the Data & Society Research Institute, commented, “I have no faith in our current system of government to pass any sort of legislation that deals with technology in a complex or nuanced way. We cannot depend on technology companies to self-regulate, as there are too many financial incentives to employ AI systems in ways that disadvantage people or are unethical.”
Jillian York, directeur de la liberté d'expression internationale pour la Fondation Frontier Electronic, a déclaré: «Il ne fait aucun doute que l'IA sera utilisée de manière douteuse.Il n’existe pas de régime réglementaire, et de nombreux projets d’éthique dans l’IA sont simplement des fenêtres pour une industrie inexplicable et contraire à l’éthique.En ce qui concerne l'IA, tout me concerne et rien ne m'excite.Je ne vois pas le potentiel positif, juste un autre marécage éthique, car les gens qui dirigent le spectacle n'ont aucune envie de créer une technologie au profit des 99%. "
David Mussington, a senior fellow at CIGI and professor and director at the Center for Public Policy and Private Enterprise at the University of Maryland, predicted, “Most AI systems deployed by 2030 will be owned and developed in the private sector, both in the U.S. and elsewhere in the world. I can’t conceive of a legislative framework fully up to understanding and selectively intervening in AI rollouts in a manner with predictable consequences. Also, the mode of intervention – because I think interventions by public authorities will be attempted (just not successful) – is itself in doubt. Key questions: Do public authorities understand AI and its applications? Is public-institution-sponsored R&D in AI likely to inform government and public research agencies of the scale and capability trajectory of private sector AI research and development? As tool sets for AI development continue to empower small research groups and individuals (datasets, software-development frameworks and open-source algorithms), how is a government going to keep up – let alone maintain awareness – of AI progress? Does the government have access to the expertise necessary to make good policy – and anticipate possible risk factors? I think that the answers to most of these questions are in the negative.”
Giacomo Mazzone, chef des relations institutionnelles pour l'Union européenne de la radiodiffusion et l'Eurovision, a observé: «Personne ne pouvait de manière réaliste prédire l'éthique pour l'IA évoluera, malgré tous les efforts déployés par le secrétaire général de l'ONU, le directeur général de l'UNESCO et bien d'autres. Les individus seuls ne peuvent pas prendre ces décisions car l'IA est appliquée à grande échelle. Personne ne créera un algorithme pour le résoudre. Les principes éthiques ne sont susceptibles d'être appliqués que si l'industrie accepte de le faire; Il est probable que cela ne se produira pas tant que les gouvernements qui apprécient les droits de l'homme obligeront les entreprises à le faire. La taille et l'influence des entreprises qui contrôlent l'IA et son impact sur les citoyens les rendent plus puissantes que n'importe quel État-nation. Ainsi, il ne s'agit pas très probablement de pouvoirs supranationaux régionaux tels que l'Union européenne ou des institutions multilatérales telles que les Nations Unies - si elles sont autonomes par tous les États-nations - pourraient obliger les entreprises à appliquer des règles éthiques à l'IA. Bien sûr, de nombreux gouvernements ne soutiennent pas déjà les principes des droits de l'homme, étant donné que la préservation du régime existant est une priorité plus importante que les droits des citoyens individuels. »
Rob Frieden, professeur de droit des télécommunications à Penn State, qui travaillait auparavant avec Motorola et a occupé des postes politiques de haut niveau à la FCC et à la NTIA, a déclaré: «Je ne vois pas de scénario futur où les gouvernements peuvent protéger les citoyens contre les incitations des parties prenantes à violerConfidentialité et protection des consommateurs équitables.La surveillance, la discrimination, la coupe d'angle, etc., sont des certifications.Je suis conscient de l’adage: des ordures, des ordures.Il est stupide de penser que l'IA manquera de codage erroné. "
Alex Halavais, professeur agrégé d'études de données critiques, Arizona State University, a noté: «Ce n'est pas une question binaire. J'enseigne dans un programme d'études supérieures qui a une formation à l'utilisation éthique des données à son cœur et espère servir des organisations qui visent à intégrer des approches éthiques. Il y a des problèmes éthiques importants dans la mise en œuvre de tout système algorithmique, et ces systèmes ont les questions éthiques qu'ils s'adressent à celles qui y sont codées. Dans la plupart des cas, ceux-ci favoriseront considérablement les propriétaires des technologies qui les mettent en œuvre plutôt que les consommateurs. Je ne doute pas que les pratiques contraires à l'éthique actuelles des entreprises, des gouvernements et d'autres organisations continueront de croître. Nous aurons un nombre croissant de cas où ces préoccupations éthiques viendront au premier plan (comme ils l'ont récemment fait pour reconnaissance faciale), mais à moins qu'ils n'augmentent le niveau d'abus très répandus, il est peu probable qu'ils soient réglementés. En conséquence, ils continueront à servir ceux qui paient pour les technologies ou les possèdent, et les droits et intérêts des utilisateurs individuels seront poussés à la touche. Cela ne signifie pas que l'éthique sera ignorée. Je m'attends à ce que de nombreuses grandes entreprises technologiques feront un effort pour embaucher des éthiciens professionnels pour auditer leur travail et que nous pouvons voir des entreprises qui se différencient à travers des approches plus éthiques de leur travail. »
Ebenezer Baldwin Bowles, un défenseur / activiste, a déclaré: «L'altruisme de la part des concepteurs de l'IA est un mythe de la propagande des entreprises.Les interfaces éthiques entre l'IA et les citoyens en 2030 seront une expression cynique des concepteurs d'un village numérique de potemkin - a l'air bien de l'extérieur mais totalement vide derrière la façade.L'IA fonctionnera selon deux motivations: une, pour recueillir des informations de plus en plus personnelles aux fins des campagnes de publicité et de marketing subliminales et directes;et deux, pour utiliser les mégadonnées pour éliminer la pensée radicale et faire de l'exercice près du contrôle total des citoyens.L'État est prêt à travers l'IA pour faire taire toutes les voix de la dissidence perçue.
«Je suis convaincu que toute expression de l'IA éthique sera un engagement vide - oui, nous ferons toujours la bonne chose pour l'avancement du plus grand bien.Certainement pas.Au contraire, les créateurs de l'IA feront ce qui est bon pour les résultats, soit par le biais de régimes financiers pour nourrir la bête d'entreprise ou les opérations psychologiques orientées vers le contrôle de la dissidence et de la pacification.Quant au concept selon lequel «les humains seront dans la boucle», nous sommes déjà hors de la boucle car il n'y a pas de boucle.Pensez à ce fait: dans le développement de toute expression majeure de l'intelligence artificielle, des centaines de professionnels de l'informatique sont affectés à une légion d'équipes discrètes et discrètes d'écrivains de logiciels et de concepteurs mécaniques pour créer le produit final.Aucun individu ou équipe ne comprend parfaitement ce que font les autres équipes.Le produit final de l'IA est une créature singulière qu'aucune personne ne comprend - autre que le logiciel lui-même.L'action éthique ne fait pas partie de l'équation. »
Richard Lachmann, professeur de sociologie politique à l'Université d'État de New York-Albany, a prédit: «L'IA sera principalement utilisée de manière douteuse.Pour la plupart, il est développé par des sociétés motivées exclusivement par le désir de réaliser des bénéfices toujours plus importants.Les gouvernements voient l'IA, développé par des programmeurs gouvernementaux, soit sous contrat par les sociétés, comme un moyen d'investir et de contrôler leurs populations.Tout cela est inquiétant.La concurrence mondiale est une course vers le bas alors que les entreprises essaient de dessiner dans un public plus vaste et de contrôler davantage leur temps et leur comportement.À mesure que les gouvernements s'améliorent pour surveiller leurs populations, [cela] réduit les normes pour la vie privée individuelle.Pour presque toutes les personnes, ces applications rendront leur vie plus isolée, les exposeront à la manipulation et dégrader ou détruire leur travail.Le seul signe d'espoir est la sensibilisation à ces problèmes et les débuts des demandes de rupture ou de réglementer les énormes sociétés. »
Kevin T. Leicht, professeur et chef du Département de sociologie de l'Université de l'Illinois-Urbana-Champaign, a observé: «Les bonnes possibilités ici sont infinies. Mais les façons douteuses sont infinies, et nous avons un très mauvais bilan de l'arrêt des développements éthiquement discutables dans la plupart des domaines de la vie - pourquoi ne s'appliquerait-il pas ici? En sciences sociales, le meilleur prédicteur du comportement futur est le comportement passé. Le toxicomane de l'opium qui dit, après une frénésie, que «ils ont ça» - ils n'ont pas besoin de prendre un traitement, et ils n'utiliseront plus d'opium - n'est (à juste titre) pas cru. Ainsi, dans un environnement où un comportement éthiquement discutable a été autorisé ou même glorifié dans des domaines tels que la finance, la gouvernance d'entreprise, le gouvernement lui-même, les produits pharmaceutiques, l'éducation et la police, pourquoi tout d'un coup est censé croire que les développeurs d'IA se comporteront dans un mode éthique? Il n'y a pas de garde-corps ici, tout comme il n'y avait pas dans ces autres sphères de la vie. L'IA a le potentiel de transformer le fonctionnement des villes, comment le diagnostic médical se produit, comment les étudiants sont enseignés et une variété d'autres choses. Tous ces éléments pourraient faire une grande différence dans la vie de la plupart des gens.
«Mais ces avantages ne viendront pas si l'IA est contrôlée par deux ou trois entreprises géantes avec des entrepreneurs de 26 ans comme PDG.Je ne pense pas que je sors sur un membre en disant cela.La plus grande préoccupation que j'ai concernant la concurrence mondiale est que la nation qui comprend comment exploiter l'IA pour améliorer la vie de tous leurs citoyens se présentera en tête.Les nations qui refusent de le faire et mettent en bouteille les avantages de l'IA afin que seulement 15 à 20% de la population en profite ou les nations où de grands segments de la population rejettent l'IA lorsqu'ils réalisent qu'ils sont laissés pour compte (encore une fois!) Perdra complètement.Les États-Unis sont dans cette dernière catégorie.Les mêmes personnes qui ne peuvent pas réglementer les banques, les finances, l'éducation, les produits pharmaceutiques et les services de police sont en très mauvaise position pour faire fonctionner l'IA pour tous.C'est une perspicacité de base en sciences sociales institutionnelles. "
Christine Boese, consultante et érudit indépendante, a écrit: «Ce qui me donne le plus d'espoir, c'est qu'en réunissant une IA éthique avec une UX transparente, nous pouvons trouver des moyens d'ouvrir les biais de perception programmés dans les boîtes noires, le plus souvent,Pas malveillant, mais simplement parce que toute perception est limitée et biaisée et fait partie des lois des conséquences imprévues.Mais, comme je l'ai constaté lors de la sondage de ce que je voulais faire des recherches sur l'avenir d'Internet à la fin des années 1990, je m'attends pleinement à ce que mes efforts de recherche activiste dans ce domaine soient largement vains, avec la seule valeur durable d'être descriptive.Aucun de nous n'a l'agence pour être les moteurs capables de conduire ce bus, et pourtant le bus est conduit par nous tous, collectivement. »
Mireille Hildebrandt, experte en anthropologie culturelle et en droit et rédacteur en chef de «Law, Human Agency and Autonomic Computing», a déclaré, «Compte tenu des incitations économiques, nous ne devrions pas nous attendreévaluer.L'IA éthique est un terme impropre.L'IA n'est pas un agent moral;Cela ne peut pas être éthique.Allons pour une IA responsable et annulons la responsabilité de:
- developers
- manufacturers and assemblers
- those who put it in the market
- those who use it run their business
- those who use it to run public administration on enforceable legal rights and obligations
- notably, a properly reconfigured private law liability, together with public law restrictions, certification and oversight.
«L'IA éthique est pr."Ne demandez pas si l'intelligence artificielle est bonne ou juste, demandez comment cela change le pouvoir" - (Pratyusha Kalluri, Nature, 7 juillet 2020). "
Brian Harvey, professeur émérite d'informatique à l'Université de Californie-Berkeley, a écrit: «La technologie de l'IA appartiendra aux riches, comme toute la technologie.Tout comme les gouvernements, la technologie n'a que l'un des deux effets: soit il transfère la richesse des riches aux pauvres, soit il transfère la richesse des pauvres aux riches.Jusqu'à ce que nous nous débarrassions du capitalisme, la technologie transférera la richesse des pauvres aux riches.Je suis sûr que quelque chose appelé «IA éthique» sera largement utilisé.Mais cela rendra toujours les riches plus riches et les pauvres plus pauvres. "
Luis Germán Rodríguez, professeur et expert des impacts socio-techniques de l'innovation à l'Universidad Central de Venezuela, a prédit: «L'IA sera utilisée principalement de manière douteuse au cours de la prochaine décennie.Je ne vois pas de raisons convaincantes pour que cela cesse d'être comme ça à moyen terme (10 ans).Je ne suis pas optimiste face à l'énorme poussée des entreprises technologiques pour continuer à profiter du produit de l'utilisateur final, une approche fermement soutenue par les gouvernements non démocratiques ou ceux qui ont des institutions faibles pour former et défendre les citoyens sur les implications sociales desPénétration des plates-formes numériques.
«J'ai récemment travaillé sur deux articles qui développent les sujets de cette question.Le premier est en espagnol et est intitulé: «La perturbation des géants technologiques - urgence numérique». Ce travail présente une évaluation du processus socioculturel qui affecte nos sociétés et qui est médiatisé par la présence des géants technologiques.Un objectif est de formuler une proposition d'action qui permet aux citoyens de faire partie de la construction de l'avenir… L'humanité a récolté de graves problèmes lorsqu'il a permis aux événements de se dérouler sans s'adresser à eux tôt.Cela a été le cas de la gestion de l'énergie nucléaire, du racisme et du changement climatique.Les accords qui ont suivi pour éviter de plus grands maux dans ces trois questions, d'une importance vitale pour tous, se sont révélés inefficaces pour apporter la paix aux consciences et aux peuples.
«Nous pourrions déclarer une urgence numérique similaire à« l’urgence climatique »que l’Union européenne a déclaré avant le décalage dans l’inversion des dommages environnementaux.Les organisations bureaucratiques nationales, régionales, internationales, multilatérales et mondiales qui sont actuellement engagées dans la promotion et l'assimilation des développements technologiques se concentrent principalement sur les tendances optimistes.Ils ne répondent pas aux questions posées par les personnes dans divers secteurs de la société et ne répondent pas rapidement aux situations.Une initiative pour déclarer cette époque comme une période d'urgence numérique servirait à promouvoir une compréhension plus large des ressources basées sur l'IA et à les dépouiller de leur caractère imprenable.Il favoriserait un schéma éducatif perturbateur pour humaniser une société de connaissances mondiale tout au long de la vie.
«Le deuxième article est« une vision critique de l'évolution de l'Internet à partir de la société civile ». Je décris comment Internet a évolué au cours des 20 dernières années vers la fin du dialogue et la promotion obsessionnelle des visions centrées sur les intérêts égocentriques.La singularité historique à partir de laquelle cette situation a été déclenchée est venue via la décision de Google au début des années 2000 de faire de la publicité au centre de sa stratégie commerciale.Cela a transformé, avec l'aide d'autres géants de la technologie, des utilisateurs en produits utilisateur final et les agents de leur propre marketing… Cette évolution est une menace avec des répercussions importantes dans le monde non virtuel, y compris l'affaiblissement des fondements démocratiques de nos sociétés.
«Les résultats dystopiques prouvent la nécessité que les directives concrètes changent de cap.L'étape la plus importante consiste à déclarer une urgence numérique qui motive des programmes d'éducation massifs qui insérent les citoyens dans le travail pour surmonter les défis éthiques, l'identification des potentialités et des risques pour la société mondiale du savoir et mettant l'accent sur la maîtrise de l'information. »
Bill Woodcock, directeur exécutif de Packet Clearing House, a observé: «L'IA est déjà utilisée principalement à des fins qui ne sont pas bénéfiques pour le public ni pour tous sauf une petite poignée de personnes.Les exceptions, comme les systèmes de navigation et de sécurité, sont une partie malheureusement petite du total.Découvrir comment amener quelqu'un à voter pour un fasciste ou à acheter un morceau de déchets ou simplement envoyer son argent quelque part n'est pas bénéfique.Ces systèmes sont conçus à des fins de prédation économique, et c'est contraire à l'éthique.Jusqu'à ce que les régulateurs abordent les problèmes racinaires - l'exploitation automatisée des faiblesses psychologiques humaines - les choses ne vont pas s'améliorer. "
Jonathan Kolber, membre du Panel de prévisionnistes de Techcast et auteur d'un livre sur les menaces d'automatisation, a déclaré: «Je m'attends à ce que, d'ici 2030, la plupart des IA serviront toujours principalement les intérêts de leurs propriétaires, tout en payant un service aux lèvres à le bien public. Les AIS prolifèrent car ils donneront un énorme avantage concurrentiel à leurs propriétaires. Ces propriétaires seront généralement réticents à «bac à sable» en dehors du monde, car cela limitera leur vitesse de réponse et d'autres capacités. Ce qui m'inquiète le plus, c'est un acteur humain qui dirige une IA pour perturber un système vital, comme les réseaux électriques. Cela pourrait se produire intentionnellement en tant qu'acte de guerre ou involontairement comme une erreur. Le potentiel d'effets en cascade est important. Je m'attends à ce que la Chine soit un leader, sinon le leader de l'IA, ce qui est préoccupant compte tenu de leurs tendances orwelliennes. Ce qui me donne le plus d'espoir, c'est le potentiel d'émergence des AIS conscients de soi. De telles AIS, s'ils émergent, constitueront un nouveau type de forme de vie intelligente. Ils ne se rapporteront pas à l'univers physique, comme nous le faisons biologiquement, en raison de ne pas être limités à un seul logement physique et à une relation différente avec le temps. Leur intérêt personnel les amènera à protéger l'environnement physique contre les catastrophes environnementales et les armes de destruction massive. Ils devraient contraindre les AIS non indépendants des activités destructrices, tout en ayant peu d'intérêt pour les affaires de l'humanité. J'explore cela dans mon essai, «Une épiphanie de l'IA». »
Paul Henman, professeur de sciences sociales à l'Université du Queensland, a écrit: «Le développement, l'utilisation et le déploiement de l'IA sont motivés - comme toutes les technologies passées - par des secteurs avec le plus de ressources et pour les fins de ces secteurs. Commercial pour réaliser des bénéfices. Guerre et défense par le secteur militaire. Conformité et réglementation par les États. L'IA n'est pas une technologie fondamentalement nouvelle. Il s'agit d'une nouvelle forme d'automatisation algorithmique numérique, qui peut être déployée dans un radeau d'activités plus large. L'avenir est mieux prévu du passé, et le passé montre une longue histoire d'algorithmes numériques déployés sans beaucoup de réflexion sur l'éthique et le bien public; C'est même alors que les réglementations acceptées par les données sur la protection des données et la confidentialité sont prises en compte. Comment, par exemple, l'automatisation du gouvernement a-t-elle été rendue responsable et éthique? Trop souvent, il n'a pas été et seulement réduit par des défis juridiques dans les lois disponibles. Les plateformes de médias sociaux fonctionnent depuis longtemps dans un espace éthique contesté - entre l'éthique de la «liberté d'expression» dans les biens communs publics contre les limitations de la parole pour assurer la société civile. »
Rosalie Day, leader des politiques et propriétaire de conseil spécialisé dans les approches système de l'éthique des données, de la conformité et de la confiance, ont observé: «Dans cette société américaine individualiste et cupidité, il existe peu d'incitations pour l'IA éthique.Malheureusement, si peu de la population comprend la mécanique de l'IA, que même les citoyens réfléchis ne savent pas quoi demander.Pour que le dialogue responsable se produise et applique une réflexion critique sur les risques par rapport aux avantages, la société en général doit être alphabétisé de données. »
Michael Zimmer, directeur des sciences des données et professeur agrégé au Département d'informatique de l'Université Marquette, a déclaré: «Bien qu'il y ait certainement eu une attention accrue à l'application de principes éthiques plus larges au développement de l'IA, je pense que les pressions du marché sont tellesQue les entreprises continueront de déployer une IA étroite au cours de la prochaine décennie avec seulement une attention qui passe à l'éthique.Oui, de nombreuses entreprises commencent à embaucher des «agents d’éthique» et s’engagent dans d’autres manières pour mettre l’éthique dans le giron, mais nous sommes encore très tôt dans la capacité d’intégrer vraiment ce type de cadre dans le développement de produits et les processus de décision commerciale.Pensez au temps qu'il a fallu pour créer des agents de contrôle de qualité ou de confidentialité.Nous sommes au tout début de ce processus avec l'éthique de l'IA, et il faudra plus de 10 ans pour réaliser. »
David Robertson, professeur et président des sciences politiques à l'Université du Missouri, St. Louis, a écrit: «Une grande part d'administration de l'IA aura lieu dans des entreprises privées et dans des agences publiques ou à but non lucratif avec une incitation à utiliser l'IA pour le gain.Ils ont de petites incitations à subordonner leur comportement aux principes éthiques qui inhibent le gain.Dans certains cas, la transparence souffrira, avec des conséquences tragiques. »
Dmitri Williams, professeur de communication à l'Université de Californie du Sud et expert en technologie et en société, a déclaré: «Les entreprises sont littéralement liées par le droit pour maximiser les bénéfices, donc s'attendre à ce qu'ils instituent des pratiques éthiques sont illogiques. On peut s'attendre à ce qu'ils gagnent de l'argent et rien d'autre. Ainsi, la question consiste vraiment à savoir si les citoyens du pays et nos représentants travailleront dans l'intérêt public ou pour ces sociétés. Si c'était le premier, nous devrions voir des lois et des normes mises en place pour protéger nos valeurs - la vie privée, la dignité du travail, etc. Je suis sceptique que les bons et les filles vont gagner ce combat à court terme . Il y a peu de voix aux niveaux supérieurs appelant à ce type de politiques basées sur les valeurs, et dans ce vide, je m'attends à ce que les intérêts des entreprises l'emportent. L'avantage est qu'il y a un réel bénéfice à améliorer le monde. L'IA peut aider à guérir les cancers, à résoudre le réchauffement climatique et à créer de l'art. Ainsi, malgré une capture réglementaire, je m'attends à ce que l'IA améliore la qualité de vie à certains endroits. »
Daniel Castro, vice-président de la Fondation des technologies de l'information et de l'innovation, a noté: «La question devrait être:« Les entreprises et les gouvernements seront-ils éthiques au cours de la prochaine décennie? »S'ils ne sont pas éthiques, il n'y aura pas de« IA éthique ». SiIls sont éthiques, alors ils poursuivront les utilisations éthiques de l'IA, tout comme ils le feraient avec toute autre technologie ou outil.C'est une des raisons pour lesquelles les États-Unis devraient être mis sur le leadership mondial de l'IA, en partenariat avec des alliés européens et asiatiques partageant les mêmes idées, afin qu'ils puissent défendre les valeurs démocratiques.Si la Chine remporte la race mondiale de l'IA, elle utilisera probablement ces progrès pour dominer d'autres pays dans les arènes économiques et militaires. »
Ian O’Byrne, professeur adjoint d’éducation au Collège de Charleston, a prédit: «L'IA sera principalement utilisée de manière douteuse au cours de la prochaine décennie.Je crains que le dé été pris comme des décisions concernant les composantes éthiques du développement et de l'utilisation de l'IA ait déjà été prise ou aurait dû être prise il y a des années.Nous voyons déjà des cas où l'apprentissage automatique est utilisé dans les systèmes de surveillance, les outils de collecte de données et les produits d'analyse.Dans les utilisations initiales de l'IA et de l'apprentissage automatique, nous voyons des preuves que le code et les algorithmes sont écrits par de petits groupes qui réifient leurs préjugés personnels et leurs besoins professionnels des entreprises.Nous voyons des preuves de mécanismes racistes et discriminatoires intégrés dans des systèmes qui auront un impact négatif sur de grandes étendues de notre population. »
Art Brodsky, consultant en communication et ancien vice-président des communications pour la connaissance du public, a observé: «Compte tenu des enregistrements des entreprises technologiques et du gouvernement, une IA comme d'autres choses sera utilisée de manière contraire à l'éthique.Le profit est le motif - pas l'éthique.S'il existe un moyen d'exploiter l'IA et de gagner de l'argent, cela se fera au prix ou à la confidentialité ou quoi que ce soit d'autre.Les entreprises s'en moquent.Ce sont des entreprises. »
John Laudun, professeur d'analyse de la culture, a déclaré: «Je ne vois pas comment nous finançons les médias et autres produits qui changent au cours de la prochaine décennie, ce qui signifie que les seuls personnes disposées et capables de souscrire des technologies IA / ML seront des gouvernements et des plus grandsCorporations.Jusqu'à ce que nous dérangeons les impulsions autocratiques - aussi racistes - qui semblent bien situées dans nos forces de police, je ne vois aucune possibilité que ces technologies soient utilisées pour réparer les disparités sociales et économiques.Il en va de même pour les sociétés qui sont principalement intéressées à utiliser les technologies AL / ML afin de nous vendre davantage. »
Joan Francesc Gras, un architecte de Xtec actif dans ICANN, a demandé: «L'IA sera-t-elle utilisée principalement éthique ou discutable au cours de la prochaine décennie?Il y aura tout.Mais l'éthique ne sera pas la valeur la plus importante.Pourquoi?Le désir de pouvoir brise l'éthique.Qu'est-ce qui vous donne plus d'espoir?Qu'est-ce qui t'inquiète le plus?Comment voyez-vous les applications AI faire une différence dans la vie de la plupart des gens?Dans un changement de paradigme dans la société, l'IA aidera à apporter ces changements.Lorsque vous envisagez la concurrence mondiale pour les systèmes d'IA, quels problèmes êtes-vous préoccupés ou excités?Je suis ravi que la concurrence génère de la qualité, mais en même temps, les pratiques contraires à l'éthique apparaissent. »
Denise N. Rall, chercheuse de la culture populaire basée dans une université néo-zélandaise, a déclaré: «Je ne peux pas imaginer que l'AIS sera différente de celle des personnes qui les créent et les commercialisent.Ils continueront de servir les riches au détriment des pauvres. »
William L. Schrader, pionnier d'Internet, mentor, conseiller et consultant mieux connu comme fondateur et PDG de PSINET, a prédit que «les personnes en réalité sont motivées par plus de pouvoir et plus d'argent pour leur propre usage (et leurs familles et amis). C'est le conducteur. Ainsi, toute personne ayant un élément de contrôle sur un système d'IA trouvera presque toujours un moyen de l'utiliser à son avantage plutôt que l'avantage déclaré. Nonobstant toutes les déclarations de faire du bien et d'être éthiques, ils renforceront leurs propres systèmes pour leur bénéfice et abuseront de la population. Tous les pays subiront le même sort. Ha! Qu'est-ce qui me donne le plus d'espoir? "Espérer?" Ce n'est pas un mot que j'utilise jamais. Je n'ai que des attentes. Je m'attends à ce que toutes les entreprises mettent un bon marketing sur leur IA, comme «nous vous ferons économiser de l'argent dans le contrôle de la température et de l'humidité de votre maison», mais elles surveillent vraiment tous les mouvements de la maison (ce qui est nécessaire pour optimiser la température '). Tous les gouvernements que j'ai vécus sont prêts à être mauvais à tout moment, et à chaque fois s'ils peuvent cacher leurs actions. Assister au président américain 2016-2020 Trump. Tous les pays sont similaires. L'IA sera utilisée pour le bien à la surface et diabolique en dessous. Compte là-dessus. L'IA ne m'excite pas du tout. Il est aussi dangereux que la bombe H. »
Un architecte de longue durée de la sécurité Internet et professeur d'ingénierie a répondu: «Je m'inquiète de savoir comment les technologies précédentes ont été déployées pour gagner de l'argent avec seulement une préoccupation tertiaire (le cas échéant) pour l'éthique et les droits de l'homme.Palantir et Clearview.ai sont deux exemples.Facebook et Twitter continuent également d'être des exemples dans cet espace.Les entreprises travaillant dans cet espace déployeront des produits qui gagnent de l'argent.Les gouvernements (en particulier les répressifs) sont prêts à dépenser de l'argent.La connexion est inévitable et assez inquiétante.Une autre grande préoccupation est que celles-ci seront mises en place pour prendre des décisions - prêts, cautionnement, etc. - et il n'y aura aucun moyen de faire appel aux humains lorsque les systèmes fonctionnent ou montrent un biais.Dans l'ensemble, je suis très préoccupé par la façon dont ces systèmes seront mis en place pour gagner de l'argent pour quelques-uns, en fonction de la façon dont le monde est maintenant structuré par les privilégiés.L'IA / ML employée est susceptible de simplement poursuivre les disparités et l'injustice existantes. »
Danny Gillane, un professionnel des sciences de l'information, a déclaré sombre: «Je n'ai aucun espoir.Tant que le profit entraîne l'application de nouvelles technologies, comme l'IA, Sociétal Good prend un siège arrière.Je crains que l'IA ne nuise économiquement à ceux qui ont le moins.Je crains [également] que l'IA ne devienne une nouvelle forme de [une] course aux armements parmi les puissances mondiales et que l'IA sera utilisée pour supprimer les sociétés et employée dans le terrorisme. »
Jon Stine, directeur exécutif de l'Open Voice Network, établissant des normes pour l'assistance vocale compatible AI, a déclaré: «Ce qui me concerne le plus: la fracture culturelle entre les technologues des mentalités d'ingénierie (demandant ce qui est possible) et les technologues / éthiciens des mentalités philosophiques (demander ce qui est bon et bien).Le premier peut voir des cadres éthiques comme des limitations ou des limites sur une voie pour gagner de l'argent;Ce dernier peut voir des cadres éthiques comme un itinéraire vers le mandat.Le Twain se rencontrera-t-il jamais vraiment?Les cadres éthiques seront-ils compris (et quantifiés) comme un moyen de plus grande part de marché et revenus? »
Morgan G. Ames, associate director of the University of California-Berkeley’s Center for Science, Technology & Society, responded, “Just as there is currently little incentive to avoid the expansion of surveillance and punitive technological infrastructures around the world, there is little incentive for companies to meaningfully grapple with bias and opacity in AI. Movements toward self-policing have been and will likely continue to be toothless, and even frameworks like GDPR and CCPA don’t meaningfully grapple with fairness and transparency in AI systems.”
Andre Popov, un ingénieur logiciel principal pour une grande entreprise technologique, a écrit: «Laissant de côté la question de ce que signifie« l'intelligence artificielle », il est difficile de discuter de cette question.Comme tout outil efficace, «l'intelligence artificielle» a d'abord et avant tout trouvé des applications militaires, où l'éthique n'est même pas une considération.«L'IA» peut rendre certaines opérations plus efficaces, et elle sera utilisée partout où elle permet d'économiser du temps / des efforts / de l'argent.Les gens ont du mal à proposer des systèmes juridiques éthiques;Il y a peu de chances que nous fassions mieux avec «l'IA». »
Ed Terpening, consultant et analyste de l'industrie du groupe Altimeter, a observé: «La réalité est que le capitalisme tel qu'il est actuellement pratiqué conduit à une course vers le bas et la répartition des revenus contraires à l'éthique.Je ne vois pas - du moins aux États-Unis, de toute façon - de garde-corps significatifs pour l'utilisation éthique de l'IA, à l'exception de l'impact sur la santé de la marque.Autrement dit, les entreprises qui utilisent l'IA paient non éthiquement un prix si le marché réagit avec des boycotts ou d'autres sanctions dirigées par les consommateurs.Dans un monde mondial, où les concurrents des systèmes autocratiques feront ce qu'ils souhaiteront, cela deviendra un problème compétitif.Jusqu'à ce qu'il y ait un incident majeur, je ne vois pas les organismes de gouvernance mondiale tels que l'ONU ou la Banque mondiale met en place une politique éthique avec les dents en place. »
Rich Ling, professeur de technologie des médias à la Nanyang Technological University, Singapour, a répondu: «Il y a le danger que, par exemple, les intérêts capitalistes détermineront l'application de l'IA afin de bénéficier à leur position.Il est possible qu'il puisse y avoir des applications sur l'IA qui sont socialement bénéfiques, mais il existe également une forte possibilité que celles-ci soient développées pour améliorer les intérêts capitalistes. »
Jennifer Young, ingénieur JavaScript et développeur d'interface utilisateur / frontend, a déclaré: «Le capitalisme est l'exploitation systématique des nombreux par quelques-uns. Tant que l'IA est utilisé sous le capitalisme, il sera utilisé pour exploiter les gens. La boîte de Pandora a déjà été ouverte, et il est peu probable que le profilage racial, les profondeurs politiques et pornographiques et les voitures autonomes qui frappent les gens disparaissent jamais. Qu'est-ce que tout cela a en commun? Ce sont des exemples d'IA qui mettent des cibles sur le dos des gens. L'IA sous le capitalisme prend l'exploitation à de nouveaux sommets et commence à ce qui est normalement le jeu final - la mort. Et il utilise les mêmes classes de personnes comme entrées à ses fonctions. Les gens déjà exploités via le racisme, le sexisme et le classique sont rendus des entités plus abstraites qui sont plus faciles à tuer, tout comme elles sont en guerre. L'IA peut être utilisée pour de bon. Les exemples de soins de santé et de biologie sont prometteurs. Mais tant que nous sommes un monde qui élève les fous et les seigneurs de guerre aux positions de pouvoir, son utilisation négative sera priorisée. »
Benjamin Shestakofsky, professeur adjoint de sociologie à l'Université de Pennsylvanie, a déclaré: «Il est probable que des cadres« éthiques »seront de plus en plus appliqués à la production de systèmes d'IA au cours de la prochaine décennie.Cependant, il est également probable que ces cadres seront plus éthiques de nom qu'en nature.Selon les changements ou la réglementation législatifs pertinents, la mise en œuvre de l'éthique dans la technologie ressemblera à la façon dont les grandes sociétés gèrent les questions relatives à la diversité de l'embauche et du harcèlement sexuel.Suivre les directives «éthiques» aidera les entreprises technologiques à se protéger des poursuites sans les forcer à développer des technologies qui priorisent vraiment la justice et le bien public sur les bénéfices. »
Warren Yoder, directeur de longue date du Centre des politiques publiques du Mississippi, maintenant coach exécutif, a répondu: «L'adoption généralisée de systèmes éthiques réels et conséquents qui vont au-delà de la pansement ne se produiront pas sans un changement fondamental dans la structure de propriété de Big Tech.L'éthique limite les opportunités de profit à court terme par définition.Je ne crois pas que Big Tech apportera des modifications conséquentes, sauf s'il existe une réglementation efficace ou une concurrence.Les régulateurs actuels commencent seulement à avoir les outils analytiques pour relever ce défi.J'aimerais croire qu'il y a suffisamment de nouveaux penseurs comme Lina Khan (U.S.De House Judiciary - Antitrust) qui entrent dans des positions d'influence, mais les 12 prochains mois nous en diront beaucoup sur ce qui est possible dans un avenir proche. »
Ben Grosser, professeur agrégé de nouveaux médias à l'Université de l'Illinois-Urbana-Champaign, a déclaré: «Tant que les organisations qui stimulent la recherche et le déploiement de l'IA sont des sociétés privées dont les modèles commerciaux dépendent de la collecte, de l'analyse et de l'action à partir de données personnelles, alors AIS ne tend pas à l'éthique.Ils seront de plus en plus déployés pour prédire le comportement humain aux fins de la génération de bénéfices.Nous avons déjà vu comment cela se déroule (par exemple, avec l'utilisation de l'analyse des données et de la publicité ciblée pour manipuler l'électorat américain et britannique en 2016), et cela ne fera qu'empirer, car des quantités croissantes d'activité humaine se déplacent en ligne. »
Jeanne Dietsch, sénatrice du New Hampshire et ancien PDG de MobileBots Inc., a déclaré: «Le problème est que l'IA sera principalement utilisée pour augmenter les ventes de produits et de services.À cette fin, ce sera manipulateur.L'application de l'IA pour résoudre des problèmes logistiques complexes bénéficiera vraiment à notre société, ce qui rend les systèmes plus bien, individualiser l'éducation, la création de liens sociaux et bien plus encore.L'inconvénient de ce qui précède est qu'il crée et continuera de créer des chambres en écho qui agrandissent l'ignorance et la désinformation. »
Patrick Larvie, leader mondial de l'équipe d'expérience utilisateur de travail dans l'une des plus grandes sociétés technologiques du monde, a observé: «J'espère que je me trompe, mais l'histoire d'Internet indique jusqu'à présent que toute règle concernant l'utilisation de l'intelligence artificiellePeut être écrit au profit des entités privées souhaitant exploiter commercialement l'IA plutôt que les consommateurs que ces entreprises servent.Je peux voir l'IA faire une différence positive dans de nombreux arènes - réduisant la consommation d'énergie, réduisant les déchets.Là où je crains, ce sera négatif, c'est l'endroit où l'IA est échangée pour l'interaction humaine.Nous le voyons dans l'application de l'IA aux produits de consommation, où les robots ont commencé à remplacer les agents humains. »
Peter Levine, professeur de citoyenneté et d'affaires publiques à l'Université Tufts, a écrit: «Le principal problème n'est pas technique.L'IA peut incorporer des garanties éthiques ou peut même être conçue pour maximiser les valeurs importantes.Le problème implique des incitations.Il existe de nombreuses façons pour les entreprises de profiter et pour que les gouvernements gagnent le pouvoir en utilisant l'IA.Mais il y a peu (voire pas) de récompenses pour le faire éthiquement. »
Holmes Wilson, codirecteur de Fight for the Future, a déclaré: «Avant même de comprendre l'intelligence artificielle générale, les systèmes d'IA rendront l'imposition de la surveillance de masse et de la force physique extrêmement bon marché et efficace pour quiconque ayant un budget suffisamment important, principalement nation -États. Si une voiture peut se conduire elle-même, un hélicoptère peut tuer les gens lui-même, pour celui qui le possède. Ils augmenteront également la puissance de la guerre asymétrique. Chaque voiture de robot, flic ou avion de guerre sera aussi piratable, car tout est avec des dépenses suffisantes, et le prochain 11 septembre sera aussi difficile à attribuer définitivement qu'une attaque des pirates sur une entreprise américaine. Les systèmes d'armes autonomes sont quelque chose entre les armes à feu au début du XXe siècle et les armes nucléaires à la fin du 20e siècle, et nous nous précipitons vers elle sans aucune idée de la gravité. … La chose à craindre, ce sont les structures d'alimentation existantes pour construire des forces de police de télécommande et des armées occupantes à la télécommande. Cette menace est au niveau des armes nucléaires. C'est vraiment, vraiment dangereux. "
Susan Price, pionnier de l'expérience des utilisateurs et stratège et fondateur de Firecat Studio, a écrit: «Je ne pense pas que les gouvernements et les agences de réglementation soient sur le point de comprendre les implications de l'IA pour l'éthique et la protection des consommateurs ou des électeurs. Les questions posées au Congrès grattent à peine la surface de la question, et la posture politique prend trop souvent la place des élus chargés de surveillance pour atteindre une véritable compréhension de ces questions complexes. Le fort motif de profit pour les entreprises technologiques les amène à résister à toutes ces protections ou réglementations. La rentabilité de ces entreprises leur permet d’influencer directement les législateurs par le biais de lobbies et de PAC; écrasant facilement les efforts des agences de protection des consommateurs et des organisations à but non lucratif, lorsque celles-ci ne sont pas directement financées ou dissoutes. Nous voyons Facebook, Google, Twitter et Amazon résister aux efforts pour produire la surveillance, l'audit et la transparence qui conduiraient à la protection des consommateurs. L'IA améliore déjà les vies. Mais cela améliore également les bénéfices des entreprises à un rythme beaucoup plus rapide. Sans une forte réglementation, nous ne pouvons pas corriger ce déséquilibre, et les processus conçus pour protéger les citoyens américains de l'exploitation par le biais de dirigeants élus sont également renversés par des fonds de ces mêmes grandes entreprises. »
Craig Spiezle, directeur général et stratège de Trust pour Agelight, et président émérite de la Online Trust Alliance, a déclaré: «Ne cherchez pas plus loin que la confidentialité des données et d'autres questions connexes telles que la neutralité du net.L'industrie en général n'a pas répondu de manière éthique dans la collecte, l'utilisation et le partage des données.Beaucoup de ces mêmes dirigeants ont un jeu majeur dans l'IA, et je crains qu'ils continuent d'agir dans leurs propres intérêts. »
Sam Punnett, futuriste et propriétaire à la retraite de FAD Research, a déclaré: «La conception du système et des applications est généralement mandatée par une analyse de rentabilisation, et non par des considérations éthiques.Toutes les formes de réglementation ou de lignes directrices sont généralement en retard sur le développement de la technologie de nombreuses années.Les applications les plus préoccupantes des systèmes d'IA sont celles qui sont utilisées pour la surveillance et le contrôle sociétal. »
Un expert en éthique qui a été conseiller du rapport du Royaume-Uni sur «l'IA dans les soins de santé» a répondu: «Je ne pense pas que les entreprises technologiques comprennent l'éthique. Ils ne peuvent le saisir que sous une forme algorithmique, c'est-à-dire une sorte d’utilitarisme automatisé, ou via un «alignement de valeur», qui tend à utiliser les techniques des économistes autour des préférences révélées et de la théorie du choix social. Ils ne peuvent pas penser en termes d'obligation, de responsabilité, de solidarité, de justice ou de vertu. Cela signifie qu'ils conçoivent une grande partie de ce qui est distinctif dans la pensée éthique humaine. Dans une pensée que j'ai vue attribuée à Hannah Arendt récemment, bien que je ne trouve pas la source: «Ce n'est pas que le comportement est vrai, c'est plus que cela pourrait devenir vrai: c'est le problème.» Il serait raciste de dire qu'en Certaines parties des développeurs mondiaux de l'IA se soucient moins de l'éthique que dans d'autres; Plus probablement, ils se soucient de différentes questions éthiques de différentes manières. Mais sous-jacent à tout ce que les modèles d'apprentissage automatique utilisés sont antithétiques à l'éthique humaine dans leur mode de fonctionnement. »
Nathalie Maréchal, analyste de recherche principale au classement des droits numériques, a observé: «Jusqu'à ce que le développement et l'utilisation des systèmes d'IA soient fondés sur un cadre international sur les droits de l'homme, et jusqu'à ce que les gouvernements régulent l'IA suivant les principes des droits de l'homme et développent un système complet pour exiger l'impact des droits de l'hommeLes évaluations, les systèmes d'audit pour s'assurer qu'ils fonctionnent comme prévu et détiennent des entités violées pour rendre compte «L'IA pour le bien» continuera d'être un slogan vide ».
Mark Maben, directeur général de l'Université Seton Hall, a écrit: «Ce n'est tout simplement pas dans l'ADN de notre système économique et politique actuel de mettre le public au public. Si les personnes qui conçoivent, mettent en œuvre, utilisent et régulent l'IA n'utilisent pas les principes éthiques axés principalement sur le bien public, ils n'ont aucune incitation à créer un monde de run IA qui utilise ces principes. Avoir une IA conçue pour servir le bien du public avant tout ne peut que se produire par une pression publique intense. Les entreprises et les politiciens doivent souvent être poussés à faire la bonne chose. Heureusement, les États-Unis semblent être à un moment où une telle pression et un changement [sont] possibles, sinon probable. En tant que personne qui travaille avec Gen Z presque tous les jours, j'ai observé que de nombreux membres de la génération Z pensent profondément aux problèmes éthiques, y compris en ce qui concerne l'IA. Cette génération peut s'avérer être la différence des fabricants sur la question de savoir si nous obtenons l'IA qui est principalement guidé par des principes éthiques axés sur le bien public. »
Arthur Bushkin, écrivain, philanthrope et activiste social, a déclaré: «Je crains que l'IA ne soit pas motivée par l'éthique, mais plutôt par l'efficacité technologique et d'autres facteurs.»
Dharmendra K. Sachdev, un pionnier des télécommunications et fondateur-président de Spacetel Consultancy LLC, a écrit: «Ma définition simpliste est que l'IA peut être intelligente;En d'autres termes, comme l'esprit humain, il peut changer les directions en fonction des données collectées.La question souvent débattue est la suivante: l'IA peut-elle déjouer les humains?Ma réponse simpliste: oui, chez certains humains mais pas le designer.Un parallèle brut serait: un étudiant peut-il déjouer son professeur?Oui, bien sûr oui, mais il peut ne pas déjouer tous les professeurs dans son domaine.Résumer ma compréhension certes limitée est que tous les logiciels sont créés pour effectuer un ensemble de fonctions.Lorsque vous l'équivez de la possibilité de changer de cours en fonction des données, nous l'appelons AI.Si je peux le rendre plus agile que mes concurrents, mon IA peut le déjouer. »
Karen Yesinkus, un professionnel des services créatifs et numériques, a observé: «Je voudrais croire que l'IA étant utilisée de manière éthique d'ici 2030 sera en place.Cependant, je ne pense pas que ce sera probablement une chose sûre.Les médias sociaux, les ressources humaines, les services à la clientèle, etc. Les plateformes ont et auront des problèmes continus pour résoudre les problèmes de biais en particulier).Compte tenu du climat existant politiquement à l'échelle mondiale, il faudra plus que les 10 prochaines années pour que l'IA se débrouille de ces biais. »
Marc H. Noble, un développeur / administrateur de technologie à la retraite, a écrit: «Bien que je pense que la plupart des IA seront développées au profitcatastrophe potentielle.Malgré cela, l'IA doit être explorée et développée, cependant, avec beaucoup de prudence. »
Eduardo Villanueva-Mansilla, professeur agrégé de communications à Pontificia Universidad Catolica, au Pérou, a prédit que «la pression publique sera exercée sur les acteurs de l'IA.Cependant, il existe un risque important que les principes éthiques contenus [-Upon] soient façonnés trop étroitement aux exigences sociétales et politiques du monde développé.Ils ne considéreront pas les besoins des économies émergentes ou des communautés locales dans le monde en développement. »
Garth Graham, un leader de longue date de Telecommunities Canada, a déclaré: «La motivation de la gouvernance dans le monde entier pour éradiquer le bien public en faveur des approches basées sur le marché est inexorable.Le lecteur de mise en œuvre de systèmes basés sur l'IA ne placera pas le bien public comme priorité principale.Par exemple, les initiatives existantes de la ville intelligente sont tout à fait disposées à externaliser la conception et le fonctionnement de systèmes adaptatifs complexes qui apprennent lorsqu'ils exploitent des fonctions civiques, sans reconnaître que le fonctionnement de ces systèmes remplace les fonctions de gouvernance. »
Le génie de l'IA est déjà hors de la bouteille, les abus se produisent déjà et certains ne sont pas très visibles et difficiles à remédier
Une part de ces experts note que les applications d'IA conçues avec peu ou pas d'attention aux considérations éthiques sont déjà profondément ancrées dans de nombreux aspects de l'activité humaine, et ils sont généralement invisibles pour les personnes qu'ils affectent.Ces répondants ont déclaré que les algorithmes sont à l'œuvre dans des systèmes qui sont au mieux opaques et impossibles à disséquer au pire.Ils soutiennent qu'il est très peu probable que les normes éthiques puissent ou seront appliquées dans ce contexte.D'autres soulignent également qu'il existe une dynamique commune qui se joue lorsque de nouvelles technologies balayent les sociétés: les abus se produisent en premier, puis les remèdes sont tentés.Il est difficile de programmer des outils numériques basés sur des algorithmes d'une manière qui prédit, traite et subvertit tous les problèmes.La plupart des problèmes restent inconnus jusqu'à ce qu'ils soient reconnus, parfois longtemps après leur produit, distribués et activement utilisés.
Henning Schulzrinne, membre du Temple de la renommée Internet et ancien directeur de la technologie de la Federal Communications Commission, a déclaré: «La réponse dépend fortement de la forme du gouvernement en place dans le pays au cours des prochaines années.Dans un environnement purement dérégulatrice avec un fort rétro-glissement vers le populisme de la loi et de l'ordre, il y aura beaucoup de fournisseurs de l'IA qui ne se préoccuperont pas des points fins de l'éthique de l'IA.Une grande partie de cette IA ne sera pas visible pour le public - elle sera employée par des compagnies d'assurance maladie qui sont à nouveau gratuites pour discriminer les prix en fonction des conditions préexistantes, par les employeurs à la recherche d'employés qui ne causeront pas de problèmes, par d'autres qui voudrontpour étouffer tout effort de syndicalisation dans l'œuf, par des campagnes électorales ciblant des sous-groupes étroits. »
Jeff Johnson, professeur d'informatique, Université de San Francisco, qui travaillait auparavant chez Xerox, HP Labs et Sun Microsystems, a répondu: «La question pose sur« la plupart des systèmes d'IA ». De nombreuses nouvelles applications de l'IA seront développées pour améliorer les affairesopérations.Certains d'entre eux seront éthiques et certains ne le seront pas.De nombreuses nouvelles applications de l'IA seront développées pour aider les consommateurs.La plupart seront éthiques, mais certains ne le seront pas.Cependant, la grande majorité des nouvelles applications d'IA seront «sombres», c'est-à-dire cachées à la vue du public, développées à des fins militaires ou criminelles.Si nous les comptons, la réponse à la question de «la plupart des systèmes d’IA» est sans aucun doute que l’IA sera utilisée principalement à des fins contraires à l’éthique. »
John Harlow, spécialiste de la recherche sur les villes intelligentes au laboratoire d'engagement @ Emerson College, a prédit: «L'IA sera principalement utilisée de manière douteuse au cours de la prochaine décennie. Pourquoi? C’est ainsi qu’elle a été utilisée jusqu'à présent, et nous ne formons ni n’incorpagons des éthiciens où l’IA est en cours de développement, alors pourquoi quelque chose changerait-il? Ce qui me donne le plus d'espoir, c'est que l'IA implique en cas de cas d'utilisation efficace connue et des «impossibilités» connues »peut-être que l'IA peut être excellente dans certaines choses, mais dispenons des zones où nous n'avons que des ordures (applications basées sur n'importe quelle biaisée historiquement biaisée Les données). La plupart des applications d'IA qui font une différence dans la vie de la plupart des gens seront dans le backend, invisibles pour eux. "Wow, la dernière mise à jour iOS a vraiment amélioré les suggestions de texte prédictives." "Oh, mon dentiste a un logiciel de radiologie axé sur l'IA?" L'étrangeté de l'IA est un genre accessible et un moyen d'apprendre / d'enseigner la technologie (un peu) - je suppose que cela pourrait percevoir davantage comme un créneau de divertissement. Quant à la concurrence mondiale de l'IA, ce qui me concerne, c'est l'accent mis sur l'IA, battant d'autres pays à l'IA et à la STEM en général. Nos défis appellent certainement à des méthodes rationnelles. Pourtant, nous avons des problèmes majeurs qui ne peuvent pas être résolus sans fondement historique, sociétés fonctionnantes, collaboration, inspiration artistique et bien d'autres choses qui souffrent de trop sur le plan des STEM ou de l'IA. »
Steve Jones, professeur de communication à l'Université de l'Illinois à Chicago et rédacteur en chef de New Media and Society, a déclaré: «Nous aurons plus de discussion, plus de débat, plus de principes, mais il est difficile d'imaginer qu'il y aura - dans leAffaire américaine - Un testament parmi les politiciens et les décideurs politiques pour établir et appliquer des lois en fonction des principes éthiques concernant l'IA.Nous avons tendance à légiférer la grange après le départ des chevaux.Je m'attendrais à ce que nous fassions de même dans ce cas. "
Andy Opel, professeur de communications à la Florida State University, a déclaré: «Parce que l'IA est susceptible d'avoir accès à un gyre d'élargissement de données personnelles et sociétales, la contraintes de données pour servir un intérêt économique ou politique étroit sera difficile.»
Doug Schepers, un expert de longue date des technologies Web et fondateur de Fizz Studio, a observé: «Comme aujourd'hui, il y aura une gamme d'informations délibérément éthiques, de calcul contraire à une mauvaise qualité et de calcul délibérément contraire à l'éthique en utilisant l'IA. Deepfakes vont être inquiétants pour la politique et d'autres activités sociales. Cela conduira à la méfiance dans l'ensemble. Par eux-mêmes, la plupart des chercheurs ou des concepteurs de produits ne poursuivront pas rigoureusement l'IA éthique, tout comme la plupart des gens ne comprennent pas ou n'appliquent pas rigoureusement les principes d'accessibilité numérique aux personnes handicapées. Ce sera en grande partie une surveillance par inadvertance, mais ce sera toujours un mauvais résultat. J'espère que les meilleures pratiques émergeront et continueront à être affinées à travers les communautés de pratique, un peu comme l'examen par les pairs en science. J'ai également un certain espoir que des lois pourraient être adoptées qui codifieront certaines des meilleures pratiques les plus évidentes, tout comme la loi sur les Americans with Disabilities et l'article 508 améliore l'accessibilité grâce à la réglementation, tout en n'étant pas trop onéreux. Ma crainte est que certaines lois étouffent, comme celles concernant la recherche sur les cellules STEM. L'apprentissage automatique et l'IA ont naturellement la capacité d'améliorer la vie des gens de nombreuses manières inédites, comme la vision informatique pour les aveugles. Ce sera incrémentiel, tout comme l'informatique des marchandises et l'augmentation d'Internet ont amélioré (et parfois blessé) des personnes. Ce ne sera probablement pas un changement sismique, mais une dérive. L'un des aspects les plus sombres de l'augmentation existante du capitalisme de surveillance et son utilisation par les États autoritaires. J'espère que les lois le renforceront. »
Jay Owens, directeur de recherche chez Pulsarplatform.com et auteur de Hautepop, a déclaré: «L'éducation en informatique - et l'idéologie de la Silicon Valley dans l'ensemble - se concentre sur` `ce qui peut être fait '' (question technique) sans trop considérer de« devrait être fait » (une question sociale et politique). La culture technologique devrait activer la tête pour des problèmes éthiques afin de devenir au premier plan de la recherche et du déploiement de l'IA; C'est du tout peu probable. Je m'attends à ce que les développements de l'apprentissage automatique se poursuivent dans le même sens qu'ils l'ont fait au cours de la dernière décennie - ignorant principalement la question de l'éthique, avec des éclats de controverse occasionnels lorsque quelque chose de particulièrement sexiste ou raciste se produit. Beaucoup d'apprentissage automatique est déjà (et continuera d'être) invisible pour la vie quotidienne des gens, mais la création d'efficacité des processus (par exemple, dans les prévisions météorologiques, l'entreposage et la logistique, la gestion des transports). D'autres processus que nous pourrions ne pas vouloir être plus efficaces (par exemple, l'exploration pétrolière et gazière, en utilisant l'imagerie par satellite et l'analyse de géologie) en bénéficieront également. Je me sens positivement envers les systèmes où la ML et la prise de décision humaine sont combinées (par exemple, les systèmes de diagnostic médical). J'imagine que l'apprentissage automatique est utilisé dans la modélisation du climat, ce qui est également évidemment utile. On ne peut pas s'attendre à ce que le développement technologique chinois de suivre les scrupules éthiques occidentaux et, compte tenu de la nature totalitaire (et génocidaire) de cet état, il est probable qu'il produira des systèmes ML qui atteignent ces fins de police. Les applications sociales appartenant à des Chinois telles que Tiktok ont déjà montré des préjugés raciaux et sont probablement moins motivés pour les résoudre. Je ne vois aucune perspective que «l'IA générale» ou l'intelligence généralisable de la machine sera réalisée dans 10 ans et encore moins de raisons de paniquer à ce sujet (comme le font certains cinglés dans la Silicon Valley). »
Robert W. Ferguson, ingénieur en robotique matériel au Carnegie Mellon Software Engineering Institute, a écrit: «Combien de fois devons-nous le dire?L'apprentissage automatique non supervisé est au mieux incomplet.S'il est complété par une analyse causale publiée, elle pourrait récupérer une certaine crédibilité.Sinon, nous souffrons de ce qui est dit Cathy O’Neil dans «Armes de destruction des mathématiques». L'apprentissage automatique non supervisé sans analyse causale est irresponsable et mauvais. »
Michael Richardson, ingénieur de conseil open-source, a répondu: «Dans les années 1980,« l'IA »s'appelait« Systèmes d'experts », parce que nous avons reconnu qu'il n'était pas« intelligent ». Dans les années 2010, nous l'avons appelé« l'apprentissage automatique »pourla même raison.ML n'est qu'une nouvelle façon de créer des systèmes d'experts.Ils reproduisent les biais des «experts» et ne peuvent pas voir au-delà.Le trading algorithmique est-il éthique?Permettez-moi de reformuler: notre économie en a-t-elle besoin?Si le même algorithme est utilisé pour équilibrer les écosystèmes, la réponse change-t-elle?Nous avons déjà l'IA.Ils sont appelés «sociétés». Beaucoup ont déjà souligné cela.L'automatisation de cet esprit collectif est vraiment ce à quoi l'on fait référence.Je crois que l’utilisation de l’IA dans la condamnation viole les droits constitutionnels des gens, et je pense qu’il sera arrêté car il est réalisé qu’il institutionnalise simplement le racisme. »
Un architecte principal d'une société technologique a déclaré: «Je ne vois aucun cadre ni capacité pour les organismes de gouvernance de comprendre comment fonctionne l'IA.Les praticiens ne savent même pas comment cela fonctionne et conserve les informations comme des informations propriétaires.Considérez combien de temps il a fallu pour exiger les ceintures de sécurité ou limiter le tabagisme au travail, où la cause et l'effet étaient si clairs, comment pouvons-nous espérer contrôler l'IA au cours des 10 prochaines années? »
La concurrence mondiale, en particulier entre la Chine et les États-Unis, aura plus d'importance au développement de l'IA que tout problème éthique
Un certain nombre de ces répondants ont encadré leurs réponses autour de la dynamique de la «course aux armements» qui stimule les superpuissances technologiques, notant qu'elle inculque une attitude putain de l'éthique et de la vitesse.Certains ont déclaré qu'il existe des différences significatives dans les considérations éthiques que divers États-Unis s'appliquent et s'appliqueront à l'avenir au développement de l'IA.Beaucoup ont souligné les États-Unis et la Chine comme les principaux concurrents de la course aux armements des États-nations.
Daniel Farber, auteur, historien et professeur de droit à l'Université de Californie-Berkeley, a répondu: «Il y a une énorme incertitude.Pourquoi?Tout d'abord, la Chine.C'est une énorme partie du monde, et il n'y a rien dans ce que je vois en ce moment pour me rendre optimiste quant à leur utilisation de l'IA.Deuxièmement, l'IA aux États-Unis est principalement entre les mains des entreprises dont l'objectif principal est naturellement de maximiser les bénéfices.Ils seront sous une pression pour intégrer l'éthique du public et des employés, ce qui sera une influence modératrice.Le problème fondamental est que l'IA est susceptible d'être entre les mains des institutions et des personnes qui ont déjà du pouvoir et des ressources, et qui façonneront inévitablement la façon dont la technologie est utilisée.Donc, je crains que cela renforce ou augmente simplement les déséquilibres de puissance actuels.Ce dont nous avons besoin, ce n'est pas seulement une IA éthique mais un accès éthique à l'IA, afin que les individus puissent l'utiliser pour augmenter leurs propres capacités. »
J. Scott Marcus, économiste, politologue et ingénieur qui travaille en tant que consultant en télécommunications, a écrit: «La fragmentation des politiques dans le monde gênera.Tant que la plupart des investissements en IA sont effectués aux États-Unis et en Chine, aucun consensus n'est possible.L'Union européenne tentera de mettre en jeu les règles, mais il n'est pas clair si elle peut entraîner beaucoup de changements face à la rivalité américaine et en Chine.Les États-Unis (également le Japon) sont de grands acteurs de consommation mais pas si importants dans la production de nombreux aspects.Ils sont cependant plus grands dans l'IoT et la robotique, alors peut-être qu'il y a plus d'espoir là-bas.Pour la vie privée, l'Union européenne a forcé un bon degré de convergence mondiale grâce à son grand pouvoir d'achat.Il n'est pas clair si cela peut fonctionner pour l'IA. »
Charles M. Ess, professeur d'études médiatiques à l'Université d'Oslo, dont l'expertise est dans l'information et l'éthique informatique, a déclaré: «Le plus d'espoir réside dans l'Union européenne et les efforts connexes pour développer une« IA éthique »à la fois dans la politique et le droit.De nombreuses personnes de premier ordre et des institutions raisonnablement solides y travaillent et, à mon avis, des progrès prometteurs sont réalisés.Mais l'UE est pressée entre la Chine et les États-Unis en tant que dirigeants mondiaux, ce qui ne peut pas s'attendre à ce que l'on pourrait appeler ce qu'on pourrait appeler un leadership éthique.La Chine est à l'avant-garde de l'exportation des technologies de «l'autoritarisme numérique». Quelles que soient les mises en garde culturelles importantes pour une société plus collective trouvant ces technologies de surveillance et de contrôle positives lorsqu'ils récompensent le comportement pro-social - le conflit avec les hypothèses fondamentales des hypothèses deLa démocratie, y compris les droits à la vie privée, la liberté d'expression, etc. est inévitable et incontestable.
«Pour sa part, les États-Unis ont un bilan misérable (au mieux) de tenter de réglementer ces technologies - en commençant par le droit informatique à partir des années 1970 qui classe ces sociétés, et non des fournisseurs de contenu, et donc non soumis à la réglementation qui inclurait l'attention Aux problèmes de liberté d'expression, etc. Ma prédiction est que Google et ses homologues d'entreprise dans la Silicon Valley continueront de plaider avec succès contre toute sorte de réglementation externe ou d'imposition de normes pour une IA éthique, au nom de la réussite du monde dans le monde concurrence avec la Chine. Nous devrions peut-être donner à Google en particulier un certain bénéfice du doute et voir comment ses récentes initiatives en direction de l'IA éthique se déroulent en fait. Mais 1) ce que je sais de première main pour réussir les efforts de lavage d'éthique par Google (par exemple, tenter d'embaucher dans certains de ses critiques éthiques les plus graves et plus importantes de l'Académie afin d'acheter leur silence), et 2) donné Ses antécédents de coopération avec les régimes autoritaires, y compris la Chine, il est difficile d'être optimiste ici.
«Bien sûr, nous verrons des développements et des améliorations merveilleusement positifs - peut-être en médecine tout d'abord. Et peut-être qu'il est normal d'avoir des systèmes de recommandation pour nous aider à négocier, par exemple des millions de choix de chansons sur Spotify. Mais même ces applications sont soumises à une critique importante, par exemple, sous le nom de «l'algorithmisation du goût» - le remodelage de nos goûts et de nos préférences est influencé par des processus opaques motivés par les intérêts d'entreprise pour maximiser notre engagement et notre consommation, pas nécessairement nous aider Découvrez la libération et l'autonomisation de nouvelles possibilités. Plus destère, surtout si les techniques d'IA et d'apprentissage automatique restent noires et imprévisibles, même pour ceux qui les créent (c'est ce que l'IA et le ML sont censés faire, après tout), je vois surtout un avenir très sombre et cauchemardesque dans Le fait que de plus en plus de nos comportements sont surveillés puis poussés par des processus algorithmiques que nous ne pouvons pas comprendre et ainsi contester. Les exemples actuels les plus forts se trouvent dans les domaines de la «police prédictive» dite et des efforts connexes pour remplacer le jugement humain par la «prise de décision» basée sur la machine »comme l'a démontré Mireille Hildebrandt, alors que nous ne pouvons plus contester les preuves présentées contre nous Dans un tribunal - parce qu'il est rassemblé et traité par des processus algorithmiques, même ses créateurs ne peuvent pas clarifier ou déballer - c'est la fin des pratiques modernes du droit et de la démocratie. C'est clairement assez grave lorsque ces technologies sont utilisées pour trier les êtres humains en termes de notes de crédit: s'appuyer sur ces technologies pour les jugements / décisions sur qui entre dans quel établissement d'enseignement, qui ne mérite pas et ne mérite pas la libération conditionnelle, et ainsi de suite sembler moi pour être un avenir dystopique stupéfiant cauchemardesque.
«Encore une fois, c'est peut-être un« nouveau monde courageux »de commodité et de facilité, du moins tant que celui-ci se conforme aux comportements déterminés à valoir une récompense positive, etc. Mais pour utiliser une métaphore différente - peut-être inconnu pour les jeunes générations,Malheureusement - nous resterons l'équivalent humain des pigeons Skinner dans des cages Skinner agréables et confortables, câblés soigneusement pour maximiser les comportements souhaités via un renforcement positif, si ce n'est pas décourageant ce qui sera défini comme des comportements indésirables via un renforcement négatif (y compris la force et la violence) si besoin d'être. "
Adam Clayton Powell III, chercheur principal au Centre Annenberg de l'USC Annenberg sur le leadership et la politique de la communication, a observé: «D'ici 2030, beaucoup utiliseront l'IA éthique et beaucoup ne le feront pas.Mais dans une grande partie du monde, il est clair que les gouvernements, en particulier les gouvernements totalitaires en Chine, en Russie, et suivra, voudront contrôler l'IA à l'intérieur de leurs frontières, et ils auront les ressources pour réussir.Et ces gouvernements ne sont intéressés qu'à l'auto-préservation - pas à l'éthique. »
Alf Rehn, professeur d'innovation, de conception et de gestion à l'Université du Sud du Danemark, a déclaré: «Il y aura une pression pour l'éthique AI au cours des 10 prochaines années, mais les bonnes intentions ne font pas la moralité.L'IA est compliquée, tout comme l'éthique, et la combinaison des deux sera en effet un problème très complexe.Nous verrons probablement pas mal de tentatives maladroites pour créer des systèmes AI éthiques, avec les problèmes qui en découlent.Il est également important de prendre en considération les problèmes culturels et géopolitiques.Il existe de nombreuses interprétations de l'éthique, et les gens mettent une valeur différente sur différentes valeurs, de sorte que, par exemple, une IA éthique chinoise pourrait bien fonctionner différemment - et générer différents résultats - par exemple, une IA éthique britannique.Cela ne veut pas dire que l'un est meilleur que l'autre, juste qu'ils peuvent être assez différents. »
Sean Mead, directeur principal de la stratégie et de l'analyse chez Interbrand, a écrit: «Le vol chinois des technologies d'IA occidentale et japonaise est l'un des problèmes d'éthique les plus inquiétants auxquels nous serons confrontés.Nous aurons des problèmes éthiques sur les deux biais potentiels intégrés dans les systèmes d'IA par le choix ou la disponibilité des données de formation et des ensembles d'expertise et les biais inhérents aux solutions proposées tentant de contrer de tels problèmes.Les systèmes d'identification des systèmes d'armes autonomes continueront de soulever de nombreux problèmes d'éthique, en particulier lorsque les pays déploient des systèmes terrestres interagissant avec les personnes.Les systèmes de crédit social de conduite en IA auront trop de pouvoir sur la vie des gens et aideront à vitalialiser les systèmes autoritaires.L'IA permettra une augmentation des fuite des villes vers des espaces de vie plus hospitaliers et sains grâce à l'automatisation des services gouvernementaux et à une transparence accrue des compétences pour les employeurs potentiels. »
Mark Perkins, un professionnel des sciences de l'information active dans la société Internet, a noté: «L'IA sera développée par les sociétés (avec le soutien du gouvernement) avec peu de respect pour l'éthique.L'exemple de la Chine sera suivi par d'autres pays - le développement de l'IA par l'utilisation des données des citoyens, sans consentement efficace, pour développer des produits non dans l'intérêt de ces citoyens (surveillance, contrôle de la population, police prédictive, etc.).L'IA sera également développée pour mettre en œuvre des prix / offres différentiels, l'élargissement de la `` division numérique '' sera utilisé par les gouvernements et les sociétés pour prendre des décisions non transparentes et non comptables concernant les citoyens, l'IA sera traité comme une `` boîte noire '', les citoyens ayant peu- le cas échéant - la compréhension de leur fonctionnement, sur quelle base ils prennent des décisions, etc. »
Wendell Wallach, éthicien et érudit au Centre interdisciplinaire de la bioéthique de l'Université de Yale, a répondu: «Bien que j'applaudis la prolifération des principes éthiques, je reste préoccupé par la capacité des pays à mettre de la viande sur l'os.Les principes généraux ne se traduisent pas facilement par des actions normatives, et les gouvernements auront du mal à adopter des réglementations solides.Ceux qui prennent les devants dans la régulation des technologies numériques, comme l'UE, seront critiquées pour avoir ralenti l'innovation, et cela restera une justification pour les gouvernements et les entreprises pour ralentir la mise en place de toute réglementation solide soutenue par l'application.Jusqu'à présent, le blanchiment d'éthique est l'approche dominante parmi l'élite d'entreprise.Bien qu'il y ait des signes d'un changement possible dans cette posture, je reste sceptique tout en espérant. »
Pamela McCorduck, écrivain, consultante et auteur de plusieurs livres, dont «Machines Who Think», a écrit: «De nombreux efforts sont en cours dans le monde pour définir l'IA éthique, ce qui suggère que cela est déjà considéré comme un grave problème digne d'une étude intense et d'un remède juridique. Finalement, un ensemble de principes et de préceptes viendra définir l'IA éthique, et je pense qu'ils définiront la prépondérance des applications d'IA. Mais vous pouvez être assuré que l'IA contraire à l'éthique existera, être pratiquée et parfois non reconnue jusqu'à ce que de graves dommages soient causés. Une grande partie du conflit entre les applications éthiques et contraires à l'éthique est culturelle. Aux États-Unis, nous trouverions le type de surveillance sociale pratiquée en Chine non seulement répugnante - mais illégale. Il forme le cœur des pratiques chinoises. À court terme, seule la réticence des tribunaux occidentaux à accepter les preuves recueillies de cette façon (comme inadmissibles) protégera les citoyens occidentaux de ce genre de chose, y compris les «scores sociaux» que le gouvernement chinois attribue à ses citoyens en raison de la surveillance se présente. Je sens que plus de gens de tous les jours investiront le capital social dans leurs interactions avec AIS, par solitude ou pour d'autres raisons. C'est importun pour moi, mais j'ai ensuite un large cercle social. Tout le monde ne le fait pas, et je veux résister au jugement ici. »
Un architecte de pratique spécialisé dans l'IA pour une grande entreprise technologique mondiale a déclaré: «L'Union européenne a les propositions les plus concrètes, et je pense que nous verrons leur législation en place dans les trois ans.J'espère que nous verrons un effet d'entraînement aux États-Unis comme nous l'avons fait du RGPD - les entreprises mondiales ont dû se conformer au RGPD, donc de bonnes actions se sont produites aux États-Unis en conséquence.… Nous pouvons être plus susceptibles de voir une continuation de villes et d'États individuels imposant leurs propres lois spécifiques à l'application (par exemple, les limites de technologie de reconnaissance faciale à Oakland, Boston, etc.).Les raisons pour lesquelles je doute que la majorité des applications d'IA soit éthique / bénéficiant le bien social est:
- Even the EU’s proposals are limited in what they will require;
- China will never limit AI for social benefit over the government’s benefit;
- The ability to create a collection of oversight organizations with the budget to audit and truly punish offenders is unlikely.
«Je regarde la Food and Drug Administration ou le NTSB [National Transportation Safety Board] et je vois comment ces organisations sont devenues trop confortables avec les entreprises qu'ils étaient censés réglementer et voir leurs échecs.Ces organisations réglementent les produits beaucoup moins complexes que l'IA, donc j'ai peu de foi que le gouvernement américain sera à la hauteur.Encore une fois, peut-être que l'UE sera meilleure. »
Un chercheur en bioinformatique et en biologie informatique a observé: «Tenez compte des actions du PCC [Parti communiste chinois] en Chine. Ils ont ouvert la voie récemment en démontrant comment ces outils peuvent être utilisés de manière contraire à l'éthique. Et les États-Unis n'ont pas réussi à s'engager fortement envers l'éthique dans l'IA, contrairement aux nations de l'UE. L'IA et l'éthique entourant son utilisation pourraient être l'une des principales plateformes idéologiques pour la prochaine guerre froide. Je suis très préoccupé par l'utilisation de l'IA pour envahir davantage la vie privée et éroder la confiance dans les institutions. Je m'inquiète également de son utilisation pour façonner la politique de manière non transparente, non interprétable et non reproductible. Il y a aussi le risque que certains des grands ensembles de données qui sont fondamentaux pour beaucoup de décisions - de la reconnaissance faciale, à la détermination criminelle, aux demandes de prêt - à l'aide d'une IA qui sont critiques et continueront de produire des résultats biaisés S'ils sont utilisés sans subir de graves audits - les problèmes de transparence aggravent ces problèmes. Les progrès du traitement médical à l'aide de l'IA courent le risque de ne pas être également réparti assez. »
Sam Lehman-Wilzig, professeur et ancien président de la communication à l'Université Bar-Ilan, Israël, a déclaré: «Je suis optimiste parce que le problème est maintenant à l'ordre du jour national - scientifique, académique et même politique / législatif.Je veux croire que les scientifiques et les ingénieurs sont un peu plus ouverts aux considérations «éthiques» que les «hommes d'affaires» habituels., «Par exemple, armes Ai-Automated.Ainsi, je prévois un passage aux traités internationaux traitant des aspects les plus inquiétants de «l'éthique de l'IA». »
Un économiste qui travaille au gouvernement a répondu: «Des principes éthiques seront développés et appliqués dans les pays démocratiques d'ici 2030, en se concentrant sur le bien public, la concurrence mondiale et les cyber violations.D'autres pays moins démocratiques seront davantage axés sur les cyberrébuches et la concurrence mondiale.Les entités non gouvernementales telles que les entreprises privées se concentreront vraisemblablement sur l'innovation et d'autres réponses concurrentielles.L'IA aura un impact considérable sur les personnes, en particulier en ce qui concerne leur travail et sur leur capacité à avoir un impact sur les fonctions contrôlées par l'IA.Ce contrôle et l'impact des cybercrimes seront très préoccupants, et l'innovation intriguera. »
Ian Peter, un militant pionnier des droits d'Internet, a déclaré: «Les plus grandes menaces auxquelles nous sommes confrontés sont l'armement de l'IA et le développement de l'IA restreint dans les alliances géopolitiques.Nous voyons déjà les débuts de cela dans les mesures prises pour restreindre les activités des entreprises parce qu'elles sont considérées comme menaçantes (par exemple, Huawei).De plus en plus de développements dans ce domaine sont contrôlés par des intérêts nationaux ou des guerres commerciales plutôt que par le développement éthique, et une grande partie de la promesse qui pourrait résulter de l'utilisation de l'IA peut ne pas être réalisée.L'éthique prend un siège de deuxième rangée derrière le commerce et les intérêts géopolitiques. »
Jannick Pedersen, cofondatrice, PDG et futuriste basée en Europe, a déclaré: «L'IA est la prochaine course aux armements.Bien que les applications d'IA traditionnelles incluront des considérations éthiques, une grande quantité d'IA sera faite à but lucratif et sera appliquée dans les systèmes commerciaux, pas visibles pour les utilisateurs. »
Marita Prandoni, linguiste, écrivaine indépendante, rédactrice, traductrice et associée de recherche au groupe de la forme de l'histoire, a prédit que «les utilisations éthiques de l'IA domineront, mais ce sera une lutte constante contre les robots perturbateurs et les efforts internationaux pour saper les nations.Les algorithmes se sont avérés agrandir les préjugés et engendrer l'injustice, donc la dépendance à leur égard pour la distraction, la persuasion ou la manipulation de l'opinion est erronée.Ce qui m'excite, c'est que les annonceurs rejettent les plateformes qui permettent un discours de haine biaisé et dangereux et qu'il y a de plus en plus des moteurs économiques (c'est-à-dire des pouvoirs d'entreprise) qui prennent le parti de la justice sociale. »
Gus Hosein, directeur exécutif de Privacy International, a observé: «À moins que l'IA ne devienne un problème de concurrence et soit dominé par d'énormes entreprises américaines et chinoises, les chances d'IA éthique sont faibles, ce qui est une horrible réalité.Si cela devient répandu dans le déploiement, comme nous l'avons vu avec la reconnaissance faciale, alors la seule façon de résoudre son déploiement de manière contraire à l'éthique est de trouver des interdictions claires et une transparence forcée.C'est pourquoi l'IA est si difficile.De même, c'est assez inutile, mais cela ne nous empêchera pas d'essayer de le déployer partout.La qualité des données sous-jacente et les problèmes sociétaux signifient que l'IA punira les gens de manière nouvelle, différente et de la même manière.Si nous continuons à être obsédés par les innovateurs et l'innovation plutôt que par les infrastructures sociales, alors nous sommes foutus. »