Faudra-t-il considérer les robots comme des personnes ?

DOMIN : Sulla, laissez Mademoiselle Glory vous regarder un peu.
HELENA : (se lève et tend la main) Ravie de vous rencontrer. Ce doit être très dur pour vous, ici, coupée du reste du monde.
SULLA : Je ne connais pas le reste du monde, Mademoiselle Glory. Je vous en prie, asseyez-vous.
HELENA : (s’assoie) D’où venez-vous ?
SULLA : D’ici, l’usine.
HELENA: Oh, vous êtes née ici.
SULLA : Oui, j’ai été fabriquée ici.
HELENA (Surprise) Comment ?
DOMIN : (riant) Sulla n’est pas une personne, Mademoiselle Glory, elle est un robot.
HELENA : Oh, s’il vous plait, excusez-moi.

Cette scène du début de la célèbre pièce de théâtre R.U.R. de Karel Kapek, écrite en tchèque en 1920 et qui a utilisé pour la première fois le mot robot, illustre parfaitement le problème qui finira, tôt ou tard, par se poser vis à vis de ces machines dont l’aspect et les performances se rapprochent de plus en plus de celles de l’être humain. Il est remarquable que cette question soit apparue dès la première utilisation du mot robot, à une époque où ce qu’il désignait n’existait pas encore. Cela prouve à quel point la projection dans l’avenir des machines conduit tout droit à l’interrogation sur le type de relations qu’elles entretiendront avec l’homme le jour où…

Quand l’autre n’est pas humain

Pour David Gunkel, docteur en philosophie, professeur de communication à l’université d’Illinois du Nord, ce problème de science fiction est en train de devenir rapidement un “fait scientifique”. Sa réflexion sur ce sujet fait l’objet d’un livre intitulé The machine question, perspectives critiques sur l’intelligence artificielle, les robots et l’éthique, publié, en anglais pour l’instant, par The MIT Press le 13 juillet 2012. “Beaucoup d’innovations dans la manière de penser au sujet des machines et de leur considération morale ont été apportées par la science fiction et ce livre fait appel à la fiction pour nous montrer comment nous avons à faire face à ce problème”, explique l’auteur. La question de l’éthique se pose dès lors que l’on traite de responsabilité vis à vis d’autrui. Cet autrui est alors supposé être une personne. David Gunkel souligne que cette pierre angulaire de l’éthique moderne a été significativement contestée, en particulier par les militants de la cause des droits des animaux mais également par ceux qui travaillent à la pointe de la technologie.

“Si nous admettons que les animaux méritent une considération morale, nous devons sérieusement nous interroger sur les machines qui constituent la prochaine étape dans le regard porté sur un autre qui soit non-humain”, déclare David Gunkel. Bien entendu, ce questionnement constitue le fondement du film de Steven Spielberg A.I. Artificial Intelligence (2001) dans lequel un enfant robot est vendu à une famille qui veut remplacer un fils défunt. L’attachement de la mère envers cet enfant parfait révèle l’un des aspects les plus troublants des mécanismes de l’affection chez l’être humain. Son objet n’est pas obligatoirement humain. Les liens entretenus avec les animaux mais aussi les objets comme les automobile, par exemple, le montrent.

Qui est responsable des actions des machines ?

Que se passera-t-il lorsque les machines disposeront à la fois d’une apparence et d’une intelligence qui se rapprochera, voire dépassera, celles des hommes ? C’est la question que traite David Gunkel dans son livre. Elle devrait faire couler beaucoup d’encre avant que nous trouvions la clef de cette nouvelle relation. L’auteur souligne le cas des interactions en ligne avec des machines et celui, de plus en plus fréquent, des relations entre elles. “Les machines ont pris le contrôle. C’est arrivé”, estime-t-il.

Les problèmes posés par la place de plus en plus importante et stratégique des machines ne se résument pas aux questions psychologiques. Lorsqu’elles deviennent capables d’innover par elles-mêmes et de devenir plus intelligentes, qui est responsable de leurs actions ? Leur fabricant, leur concepteur ? Mais si des machines fabriquent d’autres machines ? “On pourrait considérer l’informaticien qui a écrit le programme initial comme un parent qui n’est plus responsable des décisions et des innovations de machines qu’il a conçues“, déclare David Gunkel.

Code de robot-éthique

Certains gouvernements commencent à statuer sur ces questions comme la Corée du Sud qui a créé un code éthique afin d’éviter que les humains n’abusent les robots et vice-versa. Le Japon travaille sur un code de comportement des robots destiné, en particulier, à ceux qui sont employés par des personnes âgées.

Pour David Gunkel, il est nécessaire de susciter le débat sur ces questions dans la communauté des ingénieurs qui fabriquent ces machines et qui ne sont pas préparés aux interrogations éthiques. Le but de son livre est de contribuer à l’émergence de telles discussions. “Il s’agit de relier les points des différentes disciplines et d’amener les scientifiques et les ingénieurs à parler aux philosophes qui peuvent apporter 2500 ans de réflexions éthiques pour les aider à traiter les problèmes posés par les nouvelles technologies”. Difficile de refuser cette main tendue…

Et vous ? Qu’en pensez-vous ? Faudra-t-il, un jour, considérer les robots comme une catégorie particulière de personnes ?

Michel Alberganti

lire le billet