Cet article prolonge l’enquête philosophique commencée dans “Le robot est-il un autre comme les autres ? Altérité et socialité en robotique interactive“.

La robotique sociale, également appelée robotique interactive, est un jeune champ de recherche (et de développement) dont l’objectif général est de produire des artefacts capables d’interagir socialement avec l’être humain. Ces interactions peuvent servir une fonction spécifique telle l’accession à des services numériques divers, ou être utilisées pour leurs vertus potentiellement socialisantes dans différents dispositifs thérapeutiques (accompagnement de l’autisme ou du grand âge). Du point de vue scientifique, on vante également les mérites « réflexifs » de la sociobotique en ce qu’elle représente l’occasion d’étudier, par contraste et confrontation expérimentale, la socialité humaine. Mais au-delà de ces considérations plutôt générales, force est de constater qu’il n’existe pas, à cette heure, d’étude poussée du concept quelque peu fuyant de « robot social ». Autrement dit, si la sociobotique permet à l’humain de réfléchir sur lui-même, cette réflexion ne s’est pas encore arrêtée sur l’humain en tant qu’il conçoit des robots interactifs. En quoi un robot peut-il être qualifié de social ? Quelles représentations du social, conscientes ou non, orientent la conception des sociobots ? Ce sont là des questions que je propose de prendre en charge dans ma recherche doctorale, tant elles paraissent nécessaires à la compréhension de ce qu’est la robotique sociale. Mais l’enquête ne saurait s’arrêter à la dimension sociotechnique du domaine. En effet, les roboticiens produisent déjà des entités dont nous pouvons faire l’expérience et dont nous pouvons d’ores-et-déjà dire quelque-chose. Le primat actuel de l’expérience sur la théorie (il existe des robots sociaux, mais pas de théorie du robot social) pousse à analyser la sociobotique en termes herméneutiques comme activité productrice d’altérités nouvelles ; car c’est bien de cela dont il s’agit : la robotique sociale accouche d’entités que nous pouvons qualifier spontanément d’autres, mais que l’appréhension phénoménologique pure, non raffinée par une description a posteriori, ne nous permet pas de singulariser. Une grande partie des efforts techniques en robotique sociale convergent vers la modélisation de comportements et, plus largement, de signaux phénoménologiques incitant à anthropomorphiser les sociobots. Est-ce à dire que ces autres nous apparaissent sur le mode de l’altérité humaine ? L’allophanie[1] du robot est-elle une anthropophanie ou, plus précisément, une autruiphanie[2] ? Dans cet article, je m’intéresserais à cette question en convoquant le concept de visage développé par Levinas. Selon lui, la rencontre avec l’autre (humain) s’effectue dans la visageité qui est un mode éthique d’apparition d’autrui. Je chercherai à montrer que malgré les tropismes anthropomorphes de la robotique sociale, on ne saurait intégrer ses créations à la visagéité telle que la définie le philosophe, à moins de trahir le concept initial en se cantonnant à une analyse phénoménologique trop superficielle. Toutefois, j’expliquerai en conclusion que la visagéité reste une analyse très intéressante pour penser l’altérité des robots et, surtout, ses effets sur l’humain.

Visagéité : la rencontre entre une vulnérabilité et une responsabilité

Levinas est un penseur incontournable pour qui s’intéresse à la question de l’altérité. On lui doit notamment de profondes analyses de la rencontre avec l’Autre et de ses implications éthiques dans ce qu’il nomme le visage. Le concept lévinassien de visage désigne une expérience méta-esthétique qui ne doit pas être confondue avec celle, quotidienne, du visage comme expression animée de la face. Au contraire, le visage d’autrui est ce qu’on expérimente, ce qu’on ressent, ce qui s’impose à nous indépendamment de la perception de son visage physique. Dans un entretien conduit par Philippe Nemo, Levinas déclare :

« Je me demande si l’on peut parler d’un regard tourné vers le visage, car le regard est connaissance, perception. Je pense plutôt que l’accès au visage est d’emblée éthique. C’est lorsque vous voyez un nez, un front, un menton, et que vous pouvez les décrire, que vous vous tournez vers autrui comme vers un objet. La meilleure façon de rencontrer autrui, c’est de ne même pas regarder la couleur de ses yeux » (Levinas, 1984).

Comme j’ai pu l’expliquer ailleurs : Levinas soutient que la philosophie n’est jamais parvenue à penser correctement l’altérité. Les grands penseurs se sont évertués à faire d’autrui l’objet d’une connaissance.  Or, « toute connaissance revient à un retour identificatoire à soi[3] », c’est pourquoi tenter de connaître l’Autre, de comprendre ce qu’il est nous éloigne nécessairement de l’altérité authentique. La connaissance d’autrui n’est autre que l’expression du retour au Même, car elle ramène vers moi quelque chose qui m’échappe. C’est pourtant bien là le propre de l’altérité : (s’) échapper. Le connaissable d’autrui est la part de Même qu’il offre en partage. Sa véritable altérité, ce qui le rend authentiquement autre est insaisissable, incompréhensible, absolument a-théorique, et il faut l’accepter. Le contact avec cet autrui invisible et indicible se fait dans la rencontre avec son Visage, mais un visage sans traits, sans contenu, un visage pure-présence qui déborde toute notion de forme. Le visage d’autrui n’est pas son visage en tant qu’il est un être singulier prénommé Yann, Camille ou Sylvain, mais uniquement en tant qu’il est autre que moi. C’est la trace de l’habitant de l’être, celle qui me fait deviner que derrière la chair, derrière l’expressivité de cette personne qui apparaît à mes sens, se cache un sujet. « Le visage, c’est l’irruption de l’autre dans mon existence (…), c’est l’exigence d’Autrui qui expulse le Moi de son tranquille repos[4]». La rencontre avec le visage de l’autre est un événement métaphysique. Elle est foncièrement troublante car elle nous arrache à la quiétude du Même. Autrui communique avec moi sans avoir à me parler. Le Visage s’exprime même quand le visage est muet. Cette communication s’offre comme une révélation : elle raconte la misère, la nudité, la vulnérabilité foncière d’Autrui qui m’implore tout en exigeant de moi que je le soutienne, que je sois responsable de lui. La rencontre avec l’Autre n’a donc rien d’épistémologique, elle est d’emblée éthique. Pour Levinas, le Visage est toujours ambigu car la misère qu’il révèle invite au meurtre d’Autrui tout en l’interdisant. Rencontrer authentiquement Autrui, c’est donc faire face à une vulnérabilité qui me responsabilise en ce qu’elle me place immédiatement en situation de choix originaire : pour être, je me dois de répondre de cet Autre qui me fonde et m’implore. Nul doute que Levinas aurait vivement condamné les drones et ce qu’on appelle aujourd’hui les robots tueurs ou SALA (Systèmes d’Armes Létaux Autonomes) pour la déresponsabilisation réifiante dont ces technologies nous rendent coupables envers Autrui. Le meurtre interfacé a quelque chose du péché absolu car il s’accompli dans un contexte de totale de dé-visagéité de l’Autre, de négation de sa visagéité qui justement fait de lui un Autre. Tuer par l’intermédiaire d’un drone ou d’un robot, c’est refuser l’altérité d’Autrui et décliner l’exhortation éthique fondatrice de mon rapport à lui comme à moi-même.

Ceci étant dit, on peut se demander si l’altérité robotique que nous souhaitons explorer rentre dans la sphère lévinassienne du visage. A première vue, cela semble impossible car, n’étant pas mortel et, plus précisément, pas tuable, un robot apparaît comme ontologiquement étranger à la vulnérabilité. Est-ce à dire, à l’inverse, que tout être mortel est capable de visagéité ? Les animaux, les arbres, les végétaux en général ou même des bactéries sont-ils des autres de ce point de vue ? Chaque entité vivante au sens biologique fait face, à tout instant, à la possibilité de sa propre mort. Autrement dit, la vie est mortelle en permanence. Mais cela signifie-t-il nécessairement que la vie soit vulnérable ? La vulnérabilité se définit-elle, dans l’absolu, par l’inéluctabilité de la mort doublée de sa possibilité permanente ou n’est-elle liée qu’à la conscience – ou, a minima, la sentience – de la mortalité ? Si la vulnérabilité se résume à la mortalité, alors chaque entité mortelle peut exprimer un visage. Mais si l’on définit la vulnérabilité à l’aune de la conscience plus ou moins claire qu’un être a de sa mortalité, alors le champ de la visagéité se réduit considérablement.

Progressant au sein de cette réflexion, il ne faut toutefois pas oublier que, dans la visagéité, Levinas lie de façon consubstantielle vulnérabilité et responsabilité. Malgré l’évidence, notons que, dans la description qu’il en donne, le visage émerge au sein d’une relation, ou plutôt d’une rencontre, entre des victimes et des tueurs potentiels. La vulnérabilité procède du choc virtuellement imminent entre mortalité et assassinat, entre possibilité et actualité du meurtre : l’autre est toujours vulnérable en tant qu’il est face à quelqu’un. Il est donc difficile de penser la visagéité indépendamment d’une conscience capable de vouloir, de choisir de tuer et ainsi d’être responsable de ce choix. Le visage se manifeste pour celui qui a le pouvoir de tuer autrui. Voilà pourquoi, selon Levinas, la visagéité est une exhortation à la responsabilité individuelle universelle, c’est-à-dire identique pour chaque homme. En bref, vulnérabilité et responsabilité sont prises dans la valse de leur corrélation, empêchant la visagéité d’être élargie à l’ensemble des vivants. Parler de la visagéité du zèbre face à la lionne n’aurait aucun sens car celle-ci ne peut accueillir la vulnérabilité du premier, elle n’en a pas le choix. Mais qu’en est-il de l’humain face à un animal sentient comme le chien, la baleine ou encore la vache ?

Visagéité simulée ?

Levinas n’a jamais tranché la question de la visagéité animale (le risque aurait peut-être été d’instaurer une forme d’égalité, dommageable à ses yeux, entre l’humain et l’animal ?), mais il est certain qu’il aurait rejeté celle des robots. Pour lui, l’analyse confirmerait l’intuition initiale en la complétant : la rencontre avec un robot est étrangère au visage puisqu’elle ne révèle aucune vulnérabilité ni responsabilité corrélative. L’expérience de l’autre robotique ne m’expose pas à l’appel d’autrui, à ce vertige qui me place sans arrêt dans la position du choix éthique originaire. Je peux prendre soin d’un robot, je peux même projeter sur lui des sentiments d’affections tels que l’attachement, mais je ne peux pas le tuer : je ne peux que le détruire. Je ne peux donc pas être responsable de sa « mort » autrement que par une construction sociale, culturelle, religieuse ou psychologique (ce qui n’ôte rien à l’importance, notamment anthropologique, de ces constructions). La chose est foncièrement différente face à autrui : je peux commettre l’irréparable, l’irréversible, je peux le nier en tant qu’autre en m’arrogeant le droit de lui ôter la vie, en opposant à sa volonté de vivre ma volonté de le tuer. En somme, autrui peut être l’objet du mal conçu comme négation, perverse ou non, de son altérité infinie.

Cette expérience méta-esthétique de l’altérité comme éthique originaire n’est pas présente dans la rencontre avec le robot. Mais en est-on réellement sûr ? Depuis longtemps, roboticiens et designers au sens large s’appuient sur notre tendance naturelle à l’anthropomorphisme pour enrichir nos échanges avec les robots, aussi rudimentaires soient-ils. Longtemps associé à une rémanence de la psychologie enfantine, l’anthropomorphisme est aujourd’hui considéré comme une dimension fondamentale de l’esprit humain (Airenti, 2012 ; Levillain & Zibetti, 2017 ; Damiano & Dumouchel, 2018) et représente une opportunité de développement. L’attribution d’intentionnalité et de comportements proches des nôtres aux robots est en effet l’une des composantes de leur bonne intégration à la société. Elle permet notamment de palier l’immaturité technique des artefacts en laissant la psychologie humaine se construire une représentation du robot comme interlocuteur/interacteur au moins partiellement viable et favorise ainsi l’émergence d’un sentiment de proximité avec la machine. Ce sentiment peut s’épanouir dans un éventail d’émotions propices au développement de diverses formes d’attachements envers l’artefact, voire dans l’instauration d’un rapport quasi animiste avec lui (Turkle, 2015).  

Ces dernières années, de nombreux articles, académiques ou non, ont rendu compte des effets étonnants voire inquiétants que les robots peuvent avoir sur nos comportements[5]. L’une des études les plus conséquentes sur les relations humain-robot est menée, depuis de nombreuses années, par l’anthropologue et psychologue américaine Sherry Turkle. Son travail porte notamment sur la perception que les enfants et les personnes âgées ont des personnages numériques comme les tamagotchis ou des robots interactifs tels que les Furbies, les My Real Baby du fabricant de jouets Hasbro, ou encore Kismet, conçu par la chercheuse du MIT Cynthia Breazeal. Dans son livre Alone Together au sous-titre éloquent « Why We Expect More from Technology and Less from Each Other »[6], Turkle ne cache pas son inquiétude quant aux raisons et conséquences de la confusion ontologique entre ces artefacts et l’humain. Selon elle, le design n’est pas la seule cause de notre attachement aux machines : le sentiment de solitude est également un puissant moteur de projections d’affects sur des entités dénuées d’émotions. La chercheuse résume ses constats d’une phrase concise et percutante : « Ce que nous demandons aux robots est le pendant de ce dont nous manquons cruellement.[7] » Selon elle, la robotique interactive représente un tournant majeur de l’interaction humain-machine : « ces objets relationnels n’attendent pas que les enfants leur « donnent vie », comme une poupée de chiffon ou un ours en peluche. Au contraire, ils se présentent comme déjà dotés de vie, déjà prêts pour nouer une relation. Ils promettent un engagement réciproque car, contrairement aux poupées traditionnelles, ils ne sont pas passifs. Ils formulent des exigences. Ils se présentent comme ayant leurs propres besoins et leur propre vie intérieure. Ils nous apprennent les gestes d’amour qui leur sont nécessaires pour s’épanouir. Pendant des décennies, nos ordinateurs nous ont demandé de penser avec eux : aujourd’hui, les ordinateurs et les robots, considérés comme sociaux, affectifs et relationnels, nous demandent d’éprouver des émotions pour eux et avec eux.[8] » En d’autres termes, le tournant de la robotique sociale est celui du passage d’un rapport purement projectif aux artefacts à un rapport relationnel. Dans ce nouveau rapport, les robots sont investis d’une dignité ontologique supérieure à celle de leurs prédécesseurs et à celle des objets non relationnels. Pour de nombreux enfants participants à l’étude, les robots sont « assez vivants[9] » pour être traités comme des vivants ; et ce phénomène touche aussi les adultes.  Turkle cite notamment l’exemple d’une expérience développée par Freedom Baird[10] consistant à maintenir un Furby la tête en bas et à observer combien de temps les sujets testés parviennent à le maintenir dans cette position. Rapidement, la créature artificielle se met à gémir et, quand l’expérience se prolonge, à dire « Moi peur ». « Quand ils commencent le test de la tête à l’envers, les adultes sont certains de deux choses : d’une part, que le Furby n’est qu’une machine, d’autre part, qu’ils ne sont pas sadiques. Pourtant, quand le test prend fin et qu’ils laissent derrière eux un Furby gémissant, ils font l’expérience d’un nouveau rapport à l’éthique.[11] » Et l’anthropologue de continuer : « Nous sommes arrivés au stade où nous considérons les objets numériques à la fois comme les créatures vivantes et comme des machines. Des plans très différents (celui de la voix, de l’animal de compagnie, de la machine, de l’ami) se rejoignent pour créer une situation dans laquelle le fait de savoir que le Furby est une machine ne change rien au sentiment qu’on peut la faire souffrir.[12] » Sur ce point, le témoignage d’une des participantes est particulièrement éloquent : « [C’est très déplaisant], pas parce que je pense que le Furby a vraiment peur, mais parce que je refuse d’entendre de tels gémissements et de ne pas modifier mon comportement. J’ai l’impression que cette expérience pourrait profondément m’affecter si je la poursuivais.[…] Ce n’est pas comme ça que je me comporte dans la vie.[…] Et à ce moment-là, le Furby en vient à représenter la façon dont je traite toutes les créatures vivantes.[13] » Ces mots sont riches de sens. Ce n’est pas l’artefact lui-même qui importe ici, mais sa force symbolique, sa capacité à nous projeter dans un rapport à l’altérité et, ainsi, à interroger nos actes, même si nous savons qu’il s’agit d’une machine. Nous avons beau savoir que le Furby n’est pas vivant au sens biologique du terme, qu’il n’est pas sentient et qu’il ne peut donc pas éprouver d’expérience subjective telles que la souffrance ou la détresse, nous nous comportons bien souvent comme si c’était le cas. Tout se passe alors comme si les robots pouvaient invoquer, en nous, le sentiment de la responsabilité. Si l’on en croit le témoignage précédent, cette responsabilité n’est pas vraiment celle de l’humain envers le robot, mais de l’humain envers l’idée de vulnérabilité. L’artefact n’est, dans cette histoire, qu’une sorte de catalyseur phénoménologique, un révélateur d’émotions et d’idées qui, en réalité, le transcendent.

Ainsi l’un des grands pouvoirs de la robotique contemporaine est de parvenir à stimuler notre sens de l’éthique, du devoir même, alors que nous sommes conscients d’avoir affaire à une catégorie d’entités ordinairement exclues de ces sphères[14]. L’une des grandes questions éthiques soulevée par la sociobotique est celle des usages à venir de ce pouvoir.

L’altérité est ailleurs

Concluons franchement : le robot n’a pas de visage, du moins pas au sens strict développé par Levinas. La visagéité qu’il décrit est celle de l’homme envers l’homme en tant qu’homme. Toutefois, nous venons de voir que les sociobots peuvent provoquer un sentiment proche de l’appel éthique, de cette responsabilité originaire révélée dans le visage. Qu’on se rassure toutefois : bien qu’il semble de plus en plus pressant de réviser nos catégories ontologiques dominantes, je n’invite pas à la confusion entre humain (ou animal) et robot. Et j’insiste : tuer -ou faire souffrir- un homme (ou un animal) reste un acte infiniment plus grave que détruire un robot. L’embarras philosophique provoqué par les questions classiques, mais non moins épineuses, de la distinction entre l’humain et la machine, entre le vivant et le non-vivant, nous conduit bien souvent sur le terrain de l’authenticité au sens de correspondance entre fond et forme. Prenons un exemple : lorsque le Furby dit « Moi peur », a-t-il réellement, authentiquement peur ? La réponse la plus intuitive (et peut être la plus culturelle ?) à cette question est non car, étant dénué de sentience, le Furby ne peut que simuler la peur et non la ressentir effectivement. Les sociobots sont techniquement capables de simuler toutes sortes d’émotions et d’états intérieurs, mais incapables de les ressentir. C’est le propre de la simulation au sens ici présenté : rester dans l’apparence, dans la superficie du phénomène esthétique. Bien entendu, l’humain est lui aussi un très bon simulateur, mais ses simulations sont intentionnées, c’est-à-dire qu’elles correspondent à une intention, qu’elles ont un but. Les simulations humaines sont dissimulatrices, ce sont des dis-simulations. Le robot, lui, simule avant tout pour s’intégrer au tissu social en donnant l’impression qu’il est un interlocuteur viable. Pour cette raison, on ne peut considérer que maintenir un Furby et un être sentient la tête en bas sont des actes équivalents.

Ceci étant dit, le mode d’existence simulationniste des sociobots ne délégitime pas le rôle singulier qu’ils peuvent jouer dans la vaste sphère de l’altérité, ici analysée à l’aune de l’éthique. Je pense que la question la plus pressante n’est pas tant de savoir quelles sont les différences ontologiques précises qui les séparent du genre humain, mais plutôt d’analyser l’effet qu’ils ont sur nous. Comme en témoigne l’expérience du Furby, les robots sociaux ont une force symbolique matérialisée, encorporée renvoyant à l’idée de responsabilité face à l’altérité. C’est donc dans une forme de visagéité générique que ces artefacts nous entrainent : nous ne sommes pas responsables envers eux, mais envers la vulnérabilité et, à travers elle, envers la responsabilité elle-même. Ainsi perçu, le sociobot apparaît plus que comme un vecteur de réflexivité éthique accrue pour l’humain.

Conclusion : une altérité symbolique ?

Dans cet article, je n’ai pas cherché à caractériser directement l’altérité spécifique du robot social, mais à questionner son lien avec une partie de l’analyse que Levinas a de l’altérité humaine. Ce faisant, nous avons vu que la rencontre avec le sociobot en tant qu’entité possédant de nombreux attributs allophaniques peut convoquer en nous un sens de l’éthique qui ne s’attache pas tant aux artefacts qu’à l’éthique elle-même. Ce phénomène est peut-être l’une des portes d’entrées possibles dans l’analyse de l’altérité propre aux robots : le symbolisme.

Julien De Sanctis

Bibliographie :

  • AIRENTI Gabriella, « Aux origines de l’anthropomorphisme. Intersubjectivité et théorie de l’esprit », Gradhiva [En ligne], 15, 2012, mis en ligne le 16 mai 2015, traduit de l’italien par Matteo Severi.
  • DAMIANO Luisa, DUMOUCHEL Paul, « Anthropomorphism in Human-Robot Co-evolution », Frontiers in Psychology, Vol.9, Article 468, 2018.
  • LEVILLAIN Florent, ZIBETTI Elisabetta, « Behavorial Objects: The Rise of the Evocative Machines », Journal of Human-Robot Interactions, Vol.6, No.1, 2017, p.4-24.
  • LEVINAS Emmanuel, Éthique et infini, Le Livre de Poche, Biblio Essais, 1984.
  • SALMON Maria, « La trace dans le visage de l’autre », Sens-Dessous, 2012/1, n° 10.
  • TURKLE Sherry, Seuls ensemble. De plus en plus de technologies, de moins ne moins de relations humaines, L’Échappée, 2015.
  • VIAL Stéphane, « Ce que le numérique change à autrui : introduction à la fabrique phénoménotechnique de l’altérité », Hermès, La Revue, n°68, 2014, p. 151-157.

[1]Fait d’apparaître comme un autre.

[2] Néologisme forgé par Mircea Eliade et repris par Stéphane Vial désignant la façon dont autrui se manifeste à nous selon les contextes d’expériences. Vial utilise le concept à propos des médiations d’altérité que fournissent les technologies numériques. Il cite également l’exemple du téléphone où autrui nous apparaît sur le mode vocal.

[3] SALMON Maria, « La trace dans le visage de l’autre », Sens-Dessous, 2012/1, n° 10.

[4] Ibid, p.107.

[5] Citons, par exemple, le cas très discuté en psychologie de certains soldats américains prêts à risquer leur vie pour « sauver » leur robot démineur qu’ils considèrent comme un frère d’armes.

[6] Livre traduit en Français aux éditions l’Echappée (2015) sous le nom de Seuls ensemble. De plus en plus de technologies, de moins ne moins de relations humaines.

[7] Sherry Turkle, Seuls ensemble. De plus en plus de technologies, de moins ne moins de relations humaines, l’Échappée, p.147.

[8] Ibid., p.75.

[9] Ibid., p.70.

[10] Artiste américaine diplômée du MIT.

[11] Ibid., p.86.

[12] Ibid.

[13] Ibid., p.86-87.

[14] Précisons que cette exclusion est propre au monde occidental et que les rapports humains au monde et aux objets sont bien différents selon les cultures comme en atteste l’anthropologie depuis bien longtemps.