in

Frapper les livres: voulons-nous vraiment que nos robots aient conscience?

MIT Press

Extrait de How to Grow a Robot: Developing Human-Friendly, Social AI par Mark H. Lee © 2020 Massachusetts Institute of Technology.

Bien que je plaide pour la conscience de soi, je ne crois pas que nous devons nous soucier de la conscience. Il semble y avoir une obsession de la conscience du robot dans les médias, mais pourquoi commencer à la fin la plus difficile et la plus extrême du problème? Nous pouvons apprendre beaucoup de choses en construisant des robots vraiment intéressants avec la sensibilité, j’entends par là être conscient de soi, comme avec de nombreux animaux. La sensibilité des animaux varie sur une large gamme, et il semble très peu probable que la conscience soit binaire – que vous l’ayez ou non.

Il est beaucoup plus probable qu’il existe un spectre de conscience, des animaux les plus simples aux grands singes et aux humains. Ceci est conforme à la théorie évolutionniste; des progrès apparemment soudains peuvent être attribués à un changement progressif exploité au hasard dans un nouveau contexte. Comme je l’ai indiqué, il existe de nombreuses formes animales de perception et de conscience de soi, et celles-ci offrent un potentiel fascinant. Essayons d’abord de construire des robots intéressants sans conscience et voyons jusqu’où nous allons.

Le point de vue de ce point de vue vient du biophilosophe Peter GodfreySmith, qui étudie la biologie avec un intérêt particulier pour le développement évolutif de l’esprit chez les animaux. Il retrace l’émergence de l’intelligence des premières créatures marines et plaide pour une augmentation progressive de la conscience de soi. Il dit: «La sensibilité passe avant la conscience» (Godfrey-Smith, 2017, 79) et affirme que savoir ce que l’on ressent être un animal ne nécessite pas de conscience. Il semble tout à fait logique que nous puissions remplacer le mot animal par robot dans la dernière phrase. Godfrey-Smith soutient également que «le langage n’est pas le médium d’une pensée complexe» (2017, 140-148, italique dans l’original), ce qui soutient le point de vue selon lequel le traitement symbolique n’est pas un cadre suffisant pour l’intelligence.

Dans tous les cas, il est important de reconnaître que les grands problèmes de la vie humaine – naissance, sexe et mort – n’ont aucun sens pour les robots. Ils peuvent connaître ces concepts comme des faits sur les humains, mais ils n’ont aucun sens pour les machines non biologiques. Cela semble être ignoré dans de nombreuses prévisions pour les futurs robots; les systèmes qui ne sont pas vivants ne peuvent pas apprécier l’expérience de la vie, et les simulations seront toujours des approximations grossières. Ce n’est pas nécessairement un inconvénient: un robot devrait se détruire sans hésitation s’il sauvera une vie humaine car pour lui, la mort est un concept dénué de sens. En effet, ses puces de mémoire peuvent être récupérées de l’épave et installées à l’intérieur d’un nouveau corps, et il repartira.

Par conséquent, ces robots n’ont pas besoin de raisonner philosophiquement sur leur propre existence, leur but ou leurs ambitions (une autre partie de la conscience). De telles préoccupations humaines profondes sont aussi dénuées de sens pour un robot que pour un poisson ou un chat. Être humain implique de vivre et de comprendre les grands événements de la vie des systèmes vivants (et certains aussi), et l’expérience humaine ne peut pas être générée par des agents non humains. Si cette affirmation est acceptée, elle devrait répondre à une grande partie des préoccupations concernant les menaces futures des robots et de la superintelligence.

Deux lauréats du prix Nobel, Gerald Edelman et Francis Crick, ont tous deux changé de cap après leur carrière primée. Edelman a remporté le prix pour ses travaux sur les anticorps et le système immunitaire, et Crick a été le co-découvreur (avec James Watson) de la structure de la molécule d’ADN. Les deux ont commencé la recherche sur la conscience comme une deuxième carrière. Edelman a expérimenté des robots entraînés par de nouveaux systèmes de neurones artificiels concurrents (Edelman, 1992), et Crick a cherché le siège de la conscience dans le cerveau (Crick, 1994). Ils n’étaient pas d’accord sur leurs approches respectives, mais leur travail, jusqu’à la retraite, a produit des livres populaires intéressants et a montré à quel point le sujet de la conscience est fascinant. Malgré leur critique mutuelle, leur objectif général était le même: ils pensaient tous les deux que les voies de rétroaction circulaires dans le cerveau soutenaient en quelque sorte la conscience, et ils cherchaient des mécanismes structurels dans le cerveau.

J’ai déjà soutenu que les agents sensibles, comme les robots, n’ont pas besoin d’être conscients, mais ils doivent être conscients d’eux-mêmes. Dans tous les cas, c’est une position scientifique raisonnable de commencer par des expériences avec des modèles de soi, de conscience de soi et de conscience des autres et de voir jusqu’où les résultats mènent les agents autonomes. Ensuite, l’exigence ou le rôle de la conscience peut être évalué par son absence. Ce n’est pas une approche structurelle, basée directement sur la science du cerveau comme avec Edelman et Crick, mais plutôt une approche fonctionnelle: que proposent les modèles de soi? Comment travaillent-ils? Qu’obtient la conscience de soi? Que manque-t-il au comportement des robots sensibles que la conscience pourrait aborder?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.