• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / Nous ne devrions pas essayer de créer des logiciels conscients - jusqu'à ce que nous devrions

Nous ne devrions pas essayer de créer des logiciels conscients - jusqu'à ce que nous devrions

Plateforme de services à guichet unique |
1127

Les robots ou les intelligences artificielles avancées qui «se réveillent» et deviennent conscientes sont un incontournable des expériences de pensée et de la science-fiction.Que cela soit réellement possible ou non une question de grand débat.Toute cette incertitude nous place dans une position malheureuse: nous ne savons pas comment faire des machines conscientes, et (compte tenu des techniques de mesure actuelles), nous ne saurons pas si nous en avons créé un.Dans le même temps, cette question est d'une grande importance, car l'existence de machines conscientes aurait des conséquences éthiques dramatiques.

Nous ne pouvons pas détecter directement la conscience dans les ordinateurs et les logiciels qui les exécutent, pas plus que possible dans les grenouilles et les insectes.Mais ce n'est pas un problème insurmontable.Nous pouvons détecter la lumière que nous ne pouvons pas voir avec nos yeux en utilisant des instruments qui mesurent les formes de lumière non visibles, comme les rayons X.Cela fonctionne parce que nous avons une théorie de l'électromagnétisme auxquelles nous avons confiance, et nous avons des instruments qui nous donnent des mesures que nous prenons de manière fiable pour indiquer la présence de quelque chose que nous ne pouvons pas sentir.De même, nous pourrions développer une bonne théorie de la conscience pour créer une mesure qui pourrait déterminer si quelque chose qui ne peut pas parler était conscient ou non, selon la façon dont il fonctionnait et de quoi il était fait.

Malheureusement, il n'y a pas de théorie consensuelle de la conscience.Une récente enquête auprès des spécialistes de la conscience a montré que seulement 58% d'entre eux pensaient que la théorie la plus populaire, Global Workspace (qui dit que les pensées conscientes chez l'homme sont celles largement distribuées à d'autres processus cérébraux inconscients), était prometteur.Les trois principales théories de la conscience les plus populaires, y compris l'espace de travail mondial, ne sont fondamentalement pas d'accord sur la question de savoir si, ou dans quelles conditions, un ordinateur pourrait être conscient.Le manque de consensus est un problème particulièrement important car chaque mesure de conscience dans les machines ou les animaux non humains dépend d'une théorie ou d'une autre.Il n'y a aucun moyen indépendant de tester la conscience d'une entité sans décider d'une théorie.

Si nous respectons l'incertitude que nous voyons à travers des experts dans le domaine, la façon rationnelle de réfléchir à la situation est que nous sommes très dans l'ignorance de savoir si les ordinateurs pourraient être conscients - et s'ils pouvaient l'être, comment cela pourrait être réalisé.Selon ce que la théorie (peut-être en raison).

Pendant ce temps, très peu de gens essaient délibérément de fabriquer des machines ou des logiciels conscients.La raison en est que le domaine de l'IA essaie généralement de fabriquer des outils utiles, et il est loin d'être clair que la conscience aiderait à toute tâche cognitive que nous voudrions que les ordinateurs fassent.

We Shouldn’t Try to Make Conscious Software—Until We Should

Comme la conscience, le domaine de l'éthique est en proie à l'incertitude et manque de consensus sur de nombreuses questions fondamentales, même après des milliers d'années de travail sur le sujet.Mais une pensée courante (mais pas universelle) est que la conscience a quelque chose d'important à voir avec l'éthique.Plus précisément, la plupart des érudits, quelle que soit la théorie éthique qu'ils pourraient approuver, croient que la capacité de vivre des états conscients agréables ou désagréables est l'une des principales caractéristiques qui rend une entité digne d'une considération morale.C'est ce qui fait mal à donner un coup de pied à un chien mais pas à une chaise.Si nous fabriquons des ordinateurs qui peuvent ressentir des états conscients positifs et négatifs, quelles obligations éthiques aurions-nous alors envers eux?Il faudrait traiter un ordinateur ou un logiciel qui pourrait ressentir de la joie ou de la souffrance avec des considérations morales.

Nous faisons des robots et d'autres IA pour faire du travail que nous ne pouvons pas faire, mais aussi le travail, nous ne voulons pas faire.Dans la mesure où ces IS ont des esprits conscients comme le nôtre, ils mériteraient une considération éthique similaire.Bien sûr, ce n'est pas parce qu'une IA est consciente qu'elle aurait les mêmes préférences, ou considérerait les mêmes activités désagréables.Mais quelles que soient ses préférences, ils devraient être dûment pris en compte lors de la mise en place de cette IA pour travailler.Faire un travail de machine conscient, c'est misérable à faire est éthiquement problématique.Cela semble évident, mais il y a des problèmes plus profonds.

Considérez l'intelligence artificielle à trois niveaux.Il y a un ordinateur ou un robot - le matériel sur lequel le logiciel s'exécute.Ensuite, le code installé sur le matériel.Enfin, chaque fois que ce code est exécuté, nous avons une «instance» de ce code en cours d'exécution.À quel niveau avons-nous des obligations éthiques?Il se pourrait que le matériel et les niveaux de code ne soient pas pertinents, et l'agent conscient est l'instance du code en cours d'exécution.Si quelqu'un a un ordinateur exécutant une instance de logiciel conscient, serions-nous alors éthiquement obligé de le faire fonctionner pour toujours?

Considérez en outre que la création de tout logiciel est principalement une tâche de débogage - réduisant les instances du logiciel encore et encore, résoudre les problèmes et essayer de le faire fonctionner.Et si l'on était éthiquement obligé de continuer à exécuter chaque instance du logiciel conscient même pendant ce processus de développement?Cela peut être inévitable: la modélisation informatique est un moyen précieux d'explorer et de tester les théories en psychologie.Dabbling éthiquement dans les logiciels conscients deviendrait rapidement un grand fardeau de calcul et d'énergie sans aucune fin claire.

Tout cela suggère que nous ne devrions probablement pas créer des machines conscientes si nous pouvons l'aider.

Maintenant je vais tourner ça sur sa tête.Si les machines peuvent avoir des expériences conscientes et positives, alors dans le domaine de l'éthique, ils sont considérés comme ayant un certain niveau de «bien-être», et la gestion de ces machines peut produire du bien-être.En fait, les machines pourraient finalement produire du bien-être, comme le bonheur ou le plaisir, plus efficacement que les êtres biologiques.Autrement dit, pour une quantité donnée de ressources, on pourrait être en mesure de produire plus de bonheur ou de plaisir dans un système artificiel que dans toute créature vivante.

Supposons, par exemple, une technologie future nous permettrait de créer un petit ordinateur qui pourrait être plus heureux qu'un être humain euphorique, mais qui nécessite autant d'énergie qu'une ampoule.Dans ce cas, selon certaines positions éthiques, la meilleure ligne de conduite de l'humanité serait de créer autant de bien-être artificiel que possible - que ce soit chez les animaux, les humains ou les ordinateurs.Les futurs humains pourraient se fixer l'objectif de transformer toute matière réalisable dans l'univers en machines qui produisent efficacement le bien-être, peut-être 10 000 fois plus efficacement que ce qui peut être généré dans n'importe quelle créature vivante.Cet étrange avenir possible pourrait être celui qui a le plus de bonheur.

This is an opinion and analysis article, and the views expressed by the author or authors are not necessarily those of Scientific American.