Faudra-t-il considérer les robots comme des personnes ?

DOMIN : Sulla, laissez Mademoiselle Glory vous regarder un peu.
HELENA : (se lève et tend la main) Ravie de vous rencontrer. Ce doit être très dur pour vous, ici, coupée du reste du monde.
SULLA : Je ne connais pas le reste du monde, Mademoiselle Glory. Je vous en prie, asseyez-vous.
HELENA : (s’assoie) D’où venez-vous ?
SULLA : D’ici, l’usine.
HELENA: Oh, vous êtes née ici.
SULLA : Oui, j’ai été fabriquée ici.
HELENA (Surprise) Comment ?
DOMIN : (riant) Sulla n’est pas une personne, Mademoiselle Glory, elle est un robot.
HELENA : Oh, s’il vous plait, excusez-moi.

Cette scène du début de la célèbre pièce de théâtre R.U.R. de Karel Kapek, écrite en tchèque en 1920 et qui a utilisé pour la première fois le mot robot, illustre parfaitement le problème qui finira, tôt ou tard, par se poser vis à vis de ces machines dont l’aspect et les performances se rapprochent de plus en plus de celles de l’être humain. Il est remarquable que cette question soit apparue dès la première utilisation du mot robot, à une époque où ce qu’il désignait n’existait pas encore. Cela prouve à quel point la projection dans l’avenir des machines conduit tout droit à l’interrogation sur le type de relations qu’elles entretiendront avec l’homme le jour où…

Quand l’autre n’est pas humain

Pour David Gunkel, docteur en philosophie, professeur de communication à l’université d’Illinois du Nord, ce problème de science fiction est en train de devenir rapidement un “fait scientifique”. Sa réflexion sur ce sujet fait l’objet d’un livre intitulé The machine question, perspectives critiques sur l’intelligence artificielle, les robots et l’éthique, publié, en anglais pour l’instant, par The MIT Press le 13 juillet 2012. “Beaucoup d’innovations dans la manière de penser au sujet des machines et de leur considération morale ont été apportées par la science fiction et ce livre fait appel à la fiction pour nous montrer comment nous avons à faire face à ce problème”, explique l’auteur. La question de l’éthique se pose dès lors que l’on traite de responsabilité vis à vis d’autrui. Cet autrui est alors supposé être une personne. David Gunkel souligne que cette pierre angulaire de l’éthique moderne a été significativement contestée, en particulier par les militants de la cause des droits des animaux mais également par ceux qui travaillent à la pointe de la technologie.

“Si nous admettons que les animaux méritent une considération morale, nous devons sérieusement nous interroger sur les machines qui constituent la prochaine étape dans le regard porté sur un autre qui soit non-humain”, déclare David Gunkel. Bien entendu, ce questionnement constitue le fondement du film de Steven Spielberg A.I. Artificial Intelligence (2001) dans lequel un enfant robot est vendu à une famille qui veut remplacer un fils défunt. L’attachement de la mère envers cet enfant parfait révèle l’un des aspects les plus troublants des mécanismes de l’affection chez l’être humain. Son objet n’est pas obligatoirement humain. Les liens entretenus avec les animaux mais aussi les objets comme les automobile, par exemple, le montrent.

Qui est responsable des actions des machines ?

Que se passera-t-il lorsque les machines disposeront à la fois d’une apparence et d’une intelligence qui se rapprochera, voire dépassera, celles des hommes ? C’est la question que traite David Gunkel dans son livre. Elle devrait faire couler beaucoup d’encre avant que nous trouvions la clef de cette nouvelle relation. L’auteur souligne le cas des interactions en ligne avec des machines et celui, de plus en plus fréquent, des relations entre elles. “Les machines ont pris le contrôle. C’est arrivé”, estime-t-il.

Les problèmes posés par la place de plus en plus importante et stratégique des machines ne se résument pas aux questions psychologiques. Lorsqu’elles deviennent capables d’innover par elles-mêmes et de devenir plus intelligentes, qui est responsable de leurs actions ? Leur fabricant, leur concepteur ? Mais si des machines fabriquent d’autres machines ? “On pourrait considérer l’informaticien qui a écrit le programme initial comme un parent qui n’est plus responsable des décisions et des innovations de machines qu’il a conçues“, déclare David Gunkel.

Code de robot-éthique

Certains gouvernements commencent à statuer sur ces questions comme la Corée du Sud qui a créé un code éthique afin d’éviter que les humains n’abusent les robots et vice-versa. Le Japon travaille sur un code de comportement des robots destiné, en particulier, à ceux qui sont employés par des personnes âgées.

Pour David Gunkel, il est nécessaire de susciter le débat sur ces questions dans la communauté des ingénieurs qui fabriquent ces machines et qui ne sont pas préparés aux interrogations éthiques. Le but de son livre est de contribuer à l’émergence de telles discussions. “Il s’agit de relier les points des différentes disciplines et d’amener les scientifiques et les ingénieurs à parler aux philosophes qui peuvent apporter 2500 ans de réflexions éthiques pour les aider à traiter les problèmes posés par les nouvelles technologies”. Difficile de refuser cette main tendue…

Et vous ? Qu’en pensez-vous ? Faudra-t-il, un jour, considérer les robots comme une catégorie particulière de personnes ?

Michel Alberganti

13 commentaires pour “Faudra-t-il considérer les robots comme des personnes ?”

  1. Tout à chacun se doute du but réel d’humaniser des robots, c’est d’en faire tout simplement des esclaves, pour que chaque humain se sente le mâle ou la femelle alpha d’un groupe( de robots humanisés) à sa disposition. Une sorte de réminiscence de l’esclavage, on trouve le même principe chez l’adoration du prince et de la princesse( et des histoires de ..), des gens ayant des serviteurs à leurs moindres petits ordres.
    Personnellement, rendre humain des machines me terrifie, parce que c’est justement l’humain qui est faillible, et rendre une machine plus humaine c’est la rendre dangereuse. Combien de fous, combien d’extrémistes , combien de déficients mentaux chez les humains ? On ne peut pas être un exemple à suivre, et par exemple le film l’homme bicentenaire a tout simplement un scénario ridicule, mais malheureusement très très souvent employé, celui que chaque époque, chaque pays se croit au centre de l’univers, un modèle si “enviable” que même des êtres non humains voudraient le copier( combien de films où des ETs cherchent à devenir humains ?).
    Non, il n’est pas raisonnable d’humaniser des machines, l’humain raisonne encore principalement en meute animale, à se ficher de la logique et toujours prêt à déchiqueter ses semblables pour une insignifiance.

  2. Biologiquement et – surtout – psychiquement parlant, le jour où les robots seront semblables aux hommes est loin d’être arrivé. S’il est moralement acceptable de considérer les animaux, c’est parce qu’on s’identifie implicitement à leur mode de fonctionnement, similaire au nôtre dans la mesure où la vie s’agite en eux à travers des pulsions, des instincts, des sentiments et des affects. Ce qui fait leur beauté, pourrait-on dire, c’est ce côté incontrôlable qui les anime, irrépressible et non pas dicté ou codé par la raison.

    On ne peut pas, on ne doit pas s’attacher aux robots, pour la simple et bonne raison que chez eux tout est rationnel, contrôlé, calculé. Bien sûr un bug n’est pas à exclure, et dans ce cas le robot pète un câble en sombrant dans un état proche de la “folie robotique”. Mais pour connaître un peu le milieu informatique, cela ne serait dû qu’à un défaut de programmation.

    Pour résumer, il me parait impossible de s’attacher à un être froid, d’idées, au comportement calculé (ou artificiellement aléatoire, mais toujours parqué dans une certaine logique). Et méprisable, car nous nous attacherions avant tout à une apparence. Et d’autant plus méprisable quand nous nous attacherions à un esclave créé pour nous, créé pour nous ôter la souffrance d’entretenir des relations durables avec nos semblables. Enfin bref, de nous ôter le poids de la vie.

  3. Avons-nous tant avance sur l intelligence artificielle?
    Cela est louable de s’interesser a la question, mais tant que les machine n ont pas de conscience de soi et encore de conscience tout cour..
    Ce ne sont que de bete servo motor articule qui suit des ligne de codes bien specifique, suivant ce qu ils recoivent de leur capteur…
    Que dire, meme du cote des programme et robot replicateur, les progree sont assez stupefiant, mais est-ce de l’intelligence? Pas encore non plus
    On en es loin du programme ou du robot qui reussira le test de Turing
    Tout simplement que l architecture actuelle informatique a base de puce de silicium ne le permetra tout simplement pas. tout au plus nous perfectioneront ce qui mime l’intelligence

  4. Si l’on pense comme moi que c’est l’âme qui fait l’être humain, les robots ne seront jamais des humains, quelque soit l’illusion que l’on pourra obtenir et la puissance de leur cerveau artificiel. Il leur manquera la conscience d’eux même.

  5. Dans ce commentaire, je m’intéresse aux progrès technologiques dans un objectif de déléguer des tâches de réflexion à d’éventuelles machines aux capacités intellectuelles supérieures à l’homme, si toutefois cela devient un jour possible.
    Pourquoi ce choix ? Nous sommes déjà dans une phase de “copie de l’humain” depuis la nuit des temps, des recherches dans ce sens sont donc peu innovantes pour motiver ma première phrase. Et il serait incohérent de fabriquer une copie de l’humain doté de capacités accrues par rapport à l’homme.

    Il pourrait être intéressant de se poser la question suivante :

    – “Existe-il une limite que nous ne pourrons jamais dépasser en ce qui concerne l’intelligence des machines ?” Un peu comme le fait que rien ne peut se déplacer plus vite que la lumière.
    Et quelques questions qui vont avec :
    – “Cette limite coïnciderait-elle avec les capacités intellectuelles humaines ?”
    Et donc : “On pourrait croire que capacités humaines progressent au fil de l’humanité (est-ce seulement vrai ?) Auquel cas cette limite d’intelligence des machines progresserait en même temps que les capacités intellectuelles de l’homme… Sans toutefois jamais les dépasser…”.
    Une conclusion à cela pourrait-être que les machines ne seraient alors rien de plus que de simples “copies humaines”. Dans la lignée de ce que nous entreprenons déjà depuis des lustres, et dans le meilleur des cas semblables aux humains. Mais alors en aucun cas elles-ne serviraient à faire avancer beaucoup plus la recherche et les connaissances.

    On pourrait également se dire qu’on utiliserait les machines supérieurement intelligentes uniquement pour leur déléguer les travaux de recherche et de réflexion. C’est à dire qu’on ne les concevrait que pour la réflexion pure, en les privant volontairement d’émotions.
    Ainsi, en les privant, dans leur conception, de capacités émotives elles serviraient alors uniquement de “super-cerveaux esclaves” dédiés à des travaux intellectuels pour lesquels elles seraient plus rapides, mais aussi dotées de capacités de réflexion accrues par rapport à l’homme. Néanmoins, nous savons très bien que toute découverte et tout travail de recherche est guidé par l’instinct, l’affect, l’intuition, … C’est à dire ce que j’appelle ici tout simplement l’émotion. On pourrait alors en déduire qu’il n’y a pas de progrès intellectuel et scientifique si on omet l’émotion. Et donc qu’une machine incapable d’avoir des émotions ne sera jamais capable d’effectuer des travaux intellectuels en remplacement de l’homme.

    De plus, si une machine devient plus intelligente que l’être humain, nous ne serons alors plus en mesure de comprendre ses réflexions. J’y vois pour le moment deux issues :
    – Cela ne sert donc à rien de déléguer des tâches intellectuelles à des machines puisque nous ne pouvons pas interpréter les résultats produits.
    – Cela est dangereux car si nous ne sommes pas en mesure d’interpréter les résultats produits, nous pourrions alors en perdre le contrôle et la maîtrise.

    Ces bribes de réflexion (qui comme nous le voyons dans cet article sont loin d’être nouvelles) illustrent le fait que selon moi, l’humanité est encore très loin de connaitre une “révolution intellectuelle des machines”.

    Une étape considérable sera franchie le jour lointain où une machine sera capable de se poser un question nouvelle par elle-même.

  6. Un robot n’est autre qu’un ordinateur muni d’un corps capable d’interagir avec l’environnement. Or, un ordinateur calcule, mais un ordinateur ne pense pas. Voici le fossé infranchissable entre l’ordinateur et l’humain. L’humain, créé par hasard au gré des mutations génétiques biologiques, est devenu ce qu’il est de façon naturelle. Croire que l’on pourra reproduire cela relève du fantasme ; aucune autre entité que nous n’en est capable. Et si un animal est incomparablement plus évolué qu’un robot, c’est parce que l’animal ressent des choses, éprouve des émotions et est capable d’une pensée basique et d’un zeste de folie. Il est donc normal de les considérer autrement que comme des objets, dans la mesure où ils peuvent souffrir. Un robot ne souffrira jamais.
    Il est donc voué à rester l’esclave de l’humain, car il ne développera jamais une once de conscience. Alors certes l’humain peut s’y attacher, et encore plus si l’on conçoit ce robot pour être un objet d’affection. Il y a des gens qui aiment leur voiture. Pourtant, s’ils lui mettaient le feu, le voiture n’éprouverait rien. Bien sûr on peut programmer un appareil à simuler une émotion, mais ce ne sera jamais une vraie émotion. On pourra dire à son robot “Fais-moi un câlin” et il fera un câlin, mais en faisant son câlin il ne ressentira absolument rien pour nous.
    Le problème du robot, c’est qu’il nous renvoie à notre insoutenable solitude. De façon indirecte, il nous fait comprendre que oui, nous sommes bien seuls dans notre univers. Pas dans l’Univers, nuance, mais dans celui que nous connaissons, il n’y a rien que nous et rien. La recherche de la vie intelligente ailleurs n’est d’ailleurs pas anodine…

  7. pour ceux qui (par exemple dans les commentaires) pensent encore que les robots ne pourraient rien faire d’autres que de repeter des lignes ecrites a l’avance, un petit truc a lire (qui ne se veut pas exhaustif, mais qui donne en tout cas une idee) : http://www.pyoudeyer.com/PourLaScience.pdf

    et si (pour reprendre le poete) la femme est l’avenir de l’homme, la robotique est sans doute l’avenir du genre humain…

  8. @tous. Je trouve les commentaires passionnants. Continuez ! :)
    Quelques réflexions :
    – Juger les robots sur leur potentiel actuel peut induire en erreur. En 1920, Karel Kapek n’a pas cherché à minimiser les performances des robots de l’époque, qui n’existaient qu’à l’état de fantasme.
    – Aujourd’hui, l’intelligence artificielle n’en est encore qu’à ses balbutiements. Ce dont elle sera capable dans 10, 20 ou 50 ans échappe, pour l’essentiel, à notre imagination. Il est fort possible qu’elle dépasse très largement celle de l’homme dans de multiples domaines.
    – Une intelligence artificielle supérieure à celle de l’homme posera de graves problèmes dont celui de la maîtrise des décisions prises par les machines. Quand déciderons-nous de débrancher la machine? La question a été posée, avec quel talent, par Stanley Kubrick dans 2001 L’odyssée de l’espace.
    – Les machines ne ressentiront jamais d’émotions. En sommes-nous si sûrs? Qu’est ce qu’une émotion humaine ?
    – Si l’homme utilise les robots comme des esclaves, on peut craindre que cela ne réveille les instincts qui l’ont, si longtemps, poussé à avoir cette attitude envers ses semblables.
    – La robotique, en se perfectionnant, nous conduira à redéfinir la nature humaine. Dans la matrice qui l’a construit, l’être vivant dispose d’un code génétique. Ce programme est bien plus complexe que les codes informatiques qui contrôlent les robots. Mais quelle est la différence fondamentale: la complexité à l’avantage des hommes (pour combien de temps?) ou l’essence ? Le recours à l’âme risque de ne pas être suffisant pour répondre à cette question.
    Michel Alberganti

  9. @vitchikiller

    Au lieu de lancer une vague réfutation aux arguments exposés ici ainsi qu’un lien vers un article que vous ne résumez pas et une phrase toute faite, je vous invite justement à le lire, cet article, et vous y découvririez avec stupéfaction que les robots ne peuvent “apprendre” que de la manière dont nous les programmons à apprendre, et non pas de manière autonome comme un humain le ferait. Et le robot n’apprend pas à apprendre, de plus il ne cherche qu’à apprendre et apprendre encore sans autre intérêt, en ne concentrant son attention que vers la réduction de ses erreurs de prédiction. En gros, si quelque chose n’est pas assez imprévisible, il s’en désintéresse, car il ne juge pas que cela lui apprend quelque chose. Or, il me semble bien que les scientifiques, avant de découvrir de nouvelles choses bénéfiques à l’humanité, doivent passer 20 ans de scolarité plutôt rébarbatives car privilégiant la connaissance au développement de ses facultés. Le robot n’y verrait par conséquent aucun intérêt.
    Se rajoute à cela le fait que le robot ne peut pas définir ce qui lui est absolument inconnu et pour lequel il n’a aucun point de repère. L’être humain, lui, ressent le bien-être ou le mal-être, considère la vie dans le général comme dans le détail, et surtout est capable d’effectuer une tâche sans aucun intérêt en terme d’apprentissage pour servir un but plus élevé (par exemple l’ouvrier d’usine qui met de coté pour permettre à ses enfants d’aller à l’université).
    Pour résumer, oui le robot apprend, mais c’est si limité qu’il ne pourra jamais aller beaucoup plus loin que reconnaitre ce que ses capteurs lui renvoient. Aucune pensée autonome, donc. Mettez-lui du Nietzsche entre les mains, et je doute qu’il en comprenne un traitre mot. C’est pourquoi le robot est condamné à l’automatisme, tout comme un ordinateur. C’est juste une mécanique.

  10. Ne souhaitant pas rentrer plus en avant dans le débat, je souhaitai a minima vous faire partager une référence indispensable sur le sujet, pour alimenter vos réflexions. Les lois de la robotique par I. Asimov
    1 Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.
    2 Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
    3 Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

  11. @Gautier Merci beaucoup pour cet utile rappel. Il ne faut néanmoins pas oublier qu’il s’agit de lois édictées par un auteur de science fiction pour, justement, protéger les hommes contre les robots. Il ne s’agit donc pas de lois naturelles, bien entendu. Le génial Asimov avait parfaitement analysé la future relation entre les hommes et les robots. Ses lois ne font que démontrer la perspective d’un danger et apporte une tentative de parade. Sera-ce suffisant ?

  12. Je suis tombé sur cet article en flanant sur le net, après la lecture du compte-rendu d’un livre sur la “chimie des sentiments”. Ce n’est pas une théorie nouvelle, la plupart des neurobiologistes semblent penser que l’amour et les sentiments en général ne sont que des “informations” hormonales et neuronales. A partir de ça (conclusions désespérantes à mes yeux, mais qui se placent bien dans la dynamique matérialiste et réductionniste que nous connaissons aujourd’hui) est-ce qu’on ne peut pas envisager (si le sentiment est simplement ça) des robots capables de ses sensations et de ses sentiments ?

  13. […] Faudra-t-il considérer les robots comme des personnes ? Le 10e colloque de bioéthique de Paray-le-Monial, organisé par Amour & Vérité ( <i>Communauté de l’Emmanuel </i>. – Compte rendu ici ), a eu lieu du 11 au 13 novembre sur le thème de la vulnérabilité. Le choix de ce sujet n’est pas étonnant finalement mais son actualité est particulièrement grande. Les réflexions sur la vulnérabilité se sont multipliées depuis plusieurs mois. Documents épiscopats a publié Vulnérabilité et dignité au cœur du débat bioéthique de Mgr d’Ornellas. […]

« »