Les robots dit sociaux, ou sociobots, sont des automates dotés de capacités d’interactions sociales, principalement utilisés dans une optique servicielle, ludique, thérapeutique et scientifique. Contrairement à leurs homologues industriels, ces robots ne sont pas confinés dans des usines ou des entrepôts, invisibles au regard du plus grand nombre, mais sont destinés à accompagner quotidiennement l’humain en société. Curieusement, c’est peut-être cette dimension « sociale » qui, aujourd’hui, rend ces artefacts difficiles à appréhender pour le public occidental.
Face à une technologie donnée, le réflexe est bien souvent de (se) demander « à quoi ça sert ? ». Or, j’aimerais montrer que cet automatisme ne permet pas de comprendre correctement les ambiguïtés du projet sociobotique. En témoigne la terminologie massivement utilisée par les acteurs économiques du domaine qui, souvent, peinent à justifier l’existence de leurs produits d’un point de vue strictement utilitaire et communiquent plus volontiers sur leurs dimensions « émotionnelle », « empathique » ou encore « merveilleuse ». Après avoir expliqué pourquoi la formule de « robot social » relève de l’oxymore, je présenterai le cas de deux automates japonais séparés par presque 100 ans d’histoire robotique, puis je terminerai par une rapide discussion quant à la question éthique majeure du devenir de l’ « expérience socio-émotionnelle » dans une économie dataïste.
Cet article a été initialement publié sur le Digital Society Forum d’Orange.
La robotique sociale : un oxymore ?
« A quoi ça sert ? » La question n’est pas illégitime, loin de là, mais elle suppose qu’un artefact a nécessairement une utilité, transcrite dans des usages précis, ce qui est loin d’être toujours le cas. Pour cette raison, la dimension sociale des robots se révèle particulièrement troublante. La socialité est a priori extérieure à toute définition ou délimitation instrumentale. En d’autres termes, la socialité ne sert a priori à rien et a posteriori à tout. Elle est, en quelque sorte, l’un des deux « socles », avec l’existence biologique, à partir desquels se déploie toute notion d’utilité. Chacun peut faire l’expérience de cette idée en se demandant « à quoi sert la socialité ? » Au mieux arrive-t-on à lister un certain nombre d’éléments sans jamais pouvoir affirmer avoir fait le tour de la question. A cet égard, le « robot social » apparaît comme un oxymore, une contradiction dans les termes puisque le robot (du tchèque robota pour « travail forcé ») se présente comme l’archétype de l’esclave artificiel, c’est-à-dire de l’être défini uniquement par son instrumentalité, alors que le social, lui, est ce qui échappe (ou permet d’échapper) à toute limitation instrumentale, même a posteriori. Face à un sociobot on peut alors ressentir une sorte de dissonance cognitive entretenue par la communication pour le moins nébuleuse des fabricants qui agitent des promesses d’utilité « révolutionnaire » (peu précises et souvent inactuelles) tout en affirmant qu’en réalité le principal n’est pas son instrumentalité, mais sa façon d’être instrumental, à savoir son interactivité sociale. Échappant aux catégories que nous avons l’habitude de manier comme l’ustensile, l’outil, l’œuvre d’art, la décoration ou encore le gadget, le sociobot fascine autant qu’il interpelle ou agace. Objet technique non identifié, il interroge la façon dont on le pense et dont on en parle. La grande question philosophique (et éthique) que nous adresse le sociobot est la suivante : comment penser (et donc concevoir puis déployer) un objet qui se présente, à certains égards au moins, comme un sujet (aussi choquant que cela puisse paraître, la question fut longtemps posée à propos des esclaves et des animaux) ? Il est intéressant de constater que cette question n’est pas sans conséquence, loin de là, au niveau du marché. En contexte marchand, le problème consiste alors à identifier ce que l’on vend lorsqu’on commercialise un robot social et où se situe sa valeur. Dans bien des cas, le gros de cette valeur se situe pour le moment dans l’expérimentation de nouvelles formes d’interactions humain-machine, cherchant à prendre en compte un maximum de « paramètres » sociaux (langage verbal et non verbal, contact oculaire, mouvements, expressions faciales etc.) sans grand intérêt serviciel ou ludique à la clé. Les fabricants se retrouvent donc dans la délicate position de promouvoir activement de très hypothétiques applications tout en rappelant que le principal reste l’« expérience sociale » qu’offrent leurs produits. Celle-ci fait alors figure de fin en soi dans l’interaction humain-machine : l’utilité peut être présente, mais la « vraie » valeur est ailleurs. La chose n’est pas sans rappeler la position de Kant selon laquelle l’humain n’est jamais seulement un moyen, mais toujours aussi une fin. Examinons maintenant deux exemples d’automates allant dans ce sens.
De l’esclave à l’inspirateur : une conception japonaise de la robotique humanoïde
Les robots, tant comme figure que comme terme, naissent en 1920 sous la plume de l’écrivain tchécoslovaque Karel Čapek dans une pièce de théâtre intitulée R.U.R. Il s’agit alors d’entités humanoïdes biosynthétiques totalement soumises à l’impératif de production et de rendements accrus, c’est pourquoi ils deviennent rapidement le symbole d’une société industrielle marquée par l’hubris d’une technoscience aussi galopante que dissociée des enjeux moraux qu’elle soulève. R.U.R. présente un scénario de science-fiction devenu classique : une équipe de scientifiques et de commerciaux dirigés par un administrateur idéaliste œuvre pour la libération humaine par l’asservissement des machines dont les robots sont les derniers représentants. Ceux-ci sont alors évoqués sur le seul mode restrictif et instrumental : ils ne sont que des (bio)machines destinées à servir nos ambitions prométhéennes. En 1923, le Professeur de biologie marine Makoto Nishimura découvre la pièce sur les planches tokyoïtes. Il est alors profondément troublé par la vision du couple humain-machine qui s’y déploie. Son malaise est principalement philosophique, car Nishimura estime que la véritable artificialité, au sens de contre-nature, n’est pas à chercher dans les machines, mais dans le rapport antagoniste qui nous oppose à elles. Cette rivalité factice ne peut que fatalement déboucher sur la subordination des humains aux machines ; voilà pourquoi les artefacts humanoïdes ne doivent pas être conçus comme des entités serviles, mais comme des compagnons vecteurs d’inspiration et d’émerveillement. C’est sur la base de cette conviction qu’il décide de concevoir un androïde qu’il nommera Gakutensoku (littéralement « apprendre des lois de la nature ») pour se démarquer du terme et de la figure du robot.
L’automate représente un humanoïde géant tenant une torche électrique dans la main gauche et une longue plume dans la main droite. A l’arrêt, ses yeux clos lui donnent un air méditatif. Lorsqu’il est activé, son bras gauche se lève peu à peu jusqu’à ce que la torche s’éclaire et que ses yeux s’ouvrent, comme s’il avait une illumination. L’automate se met alors à sourire et à écrire le contenu de son Eureka sur une feuille de papier. D’après Nishimura, le Gakutensoku était le premier représentant d’une nouvelle espèce dont la raison d’être serait d’inspirer les humains et de faciliter leur évolution intellectuelle. Dans Earth’s Belly (Daichi no harawata), livre dédié à l’explicitation de sa philosophie de la nature, le biologiste déplore que le progrès soit pensé comme « conquête de la nature » au détriment de l’idée de collaboration. Malgré la réalité darwinienne de l’évolution, les processus coopératifs sont omniprésents dans la nature et Nishimura souhaite inscrire notre rapport aux machines dans le prolongement de cette coopération. Ce continuisme naturaliste le pousse à affirmer de façon syllogistique que si les humains sont les enfants de la Nature et que les humains artificiels sont issus du pouvoir de la main humaine, alors ceux-ci sont les petits enfants de la Nature (pour plus de détails sur Nishimura et le Gakutensoku on pourra se reporter à cet article ou, dans une version académique, à celui-là).
Le cas Lovot : fonctionnaliser l’expérience émotionnelle
Grand penseur français de la technique, le philosophe Gilbert Simondon (1924-1989) attribue lui aussi les effets délétères des techniques à une mauvaise orientation de nos relations envers elles. Selon lui, ces relations sont configurées par l’idéologie du rendement qui préside à la conception des techniques. En d’autres termes, notre rapport aux machines est dominé par une conception productiviste de l’utilité. Simondon et Nishimura se retrouvent, par des chemins différents, sur un même point : bien loin de libérer l’humain, les machines asservies (car entièrement soumises au dogme du productivisme) se révèlent profondément aliénantes.
Aujourd’hui, un certain nombre de propositions sociobotiques semblent converger vers une libération, au moins partielle, des machines. Prenons le cas du Lovot (contraction de « love » et « robot »), un automate produit par la société japonaise Groove X. Ce dernier est présenté comme (énergétiquement) alimenté par l’amour (« powered by love »). L’artefact n’est d’ailleurs pensé que pour donner et recevoir de l’affection. Bien qu’il ne ressemble pas du tout à un chien, les comportements dont il est capable rappellent très fortement ceux de nos compagnons canins. Câliner un Lovot agit sur son comportement, mais peut aussi engendrer la « jalousie » d’un autre Lovot et le faire rappliquer aussitôt (aux dernières nouvelles, Groove X ne les vend que par paire). Grâce à un algorithme de reconnaissance faciale, l’automate reconnaît celles et ceux qui se montrent aimants envers lui et peut ainsi leur demander encore plus d’attention en les suivant partout dans la maison. En outre, pour une plus grande impression de vie, Groove X a rendu possible l’interaction par « contact oculaire » avec ses créatures. Enfin, les Lovot peuvent accueillir leur(s) propriétaire(s) lorsqu’il(s) rentre(nt) à la maison et effectuer des « patrouilles » filmées en cas d’absence prolongée.
Cette dernière fonctionnalité mise à part, l’automate n’a donc rien d’un artefact utilitaire et se présente, en quelque sorte, comme un héritier du Gakutensoku. Les « mission » et « vision » de Groove X rappellent d’ailleurs fortement la position de Nishimura :
• Mission : « Bring out humanity’s full potential through robotics » (Révéler le plein potentiel humain à travers la robotique)
• Vision : « Build trust between humanity and robots, to create companions for more enriched and secure living. » (Construire des relations de confiance entre humains et robots afin de concevoir des compagnons pour des vies plus riches et assurées/sûres)
Pour Kaname Hayashi, ancien directeur du développement de Pepper chez SoftBank Robotics et fondateur de Groove X, l’inutilité des Lovot est un motif de fierté :
« Je voulais créer une opportunité pour les humains d’aimer. Notre robot ne s’acquitte d’aucune tâche et n’offre aucun contenu de divertissement. Mais c’est pareil pour les chiens et les chats. Ce qu’il fait, c’est qu’il vous reconnaît et vient vous embêter. C’est là le but de notre robot. »
Toutefois, inutilité ne rime pas avec ineffectivité ou absence d’objectif. Les Lovot ont en quelque sorte pour vocation de combler les vides affectifs engendrés par des modes de vies favorisant la solitude (surtout au Japon) et/ou l’accroissement des possessions matérielles au détriment d’expériences sociales émotionnellement riches. Dans la section « Message du PDG » du site de Groove X, Hayashi l’écrit en toutes lettres :
« A mesure que le progrès technique nous assure une abondance de possessions matérielles, nous devenons de plus en plus conscients que les expériences et les souvenirs sont plus importants que les objets. »
Dans l’absolu, la séparation entre expériences et objets n’a toutefois rien d’évident, tant les seconds participent en permanence aux premières. Le problème est plutôt celui de l’accroissement pulsionnel et indéfini des possessions matérielles qui finissent par ne plus générer aucune expérience et par devenir encombrantes en sens plein. C’est une chose que l’économie contemporaine a bien compris en essayant d’ancrer la surconsommation matérielle, pour la légitimer, dans le champ de l’expérience. Bien qu’inutile, le Lovot a donc bel et bien une fonction : celle d’offrir des expériences émotionnelles fortes (en accord avec ce que nous avons vu plus haut).
Le devenir de l’« inutile » dans une économie de l’expérience et des données
Mais la ou les fonctions d’une technologie donnée ne sauraient être réduites aux effets produits pour et par les utilisateurs. Tout artefact, a fortiori numérique, a des fonctions écosystémiques au sens où il participe au maintien voir au développement du ou des écosystèmes dans lesquels il intervient. Voilà pourquoi il est primordial de préciser d’où l’on parle lorsqu’on affirme que Lovot est une entité non-instrumentale. Dans une économie qui tend de plus en plus à « commercialiser » l’expérience, mais aussi à y extraire directement les précieuses données qui constituent désormais le carburant indispensable de l’industrie numérique, le Lovot peut faire figure d’instrument ultime. A l’instar des enceintes connectées, l’automate est destiné à pénétrer le cœur de notre intimité tant matérielle (nos foyers) qu’émotionnelle (on le câline, on lui parle voire se confie à lui). Le risque, on l’aura compris, est de transformer le mignon petit robot en mouchard. Côté pile, l’innocence d’un Gakutensoku 2.0, côté face, un data-ninja surentraîné et suréquipé.
Cette inquiétude critique est aujourd’hui l’une des principales préoccupations de l’éthique appliquée au numérique, ce qui est une très bonne chose. Toutefois, l’éthique appliquée, surtout lorsqu’elle devient organisationnelle, tend parfois à gommer voire à rompre avec ses justifications existentielles. Or, le « pourquoi » de l’éthique est peut-être ce qui garantit le mieux sa mise en pratique volontaire. L’éthique doit donc, en un sens, se faire métaphysique. C’est ce qu’a fait Nishimura en faisant dériver sa création technique d’une forme d’humanisme convivialiste envers la nature, à rebours d’un humanisme « conquérant ». Malheureusement, le projet de l’économie des données sous sa forme dominante ne partage aucunement cette vision puisqu’elle mise sur un nouveau servage (volontaire ? Désiré ?) où l’humain est mis au travail sans effort ou, en d’autres termes, produit une valeur sans aucune force de travail associée. L’extractivisme ne concerne plus seulement les ressources naturelles, mais aussi les « ressources humaines » dont l’existence peut être totalement encadrée et pilotée algorithmiquement pour servir l’économie.
Bien qu’elle soit encore très marginale, la robotique sociale possède en puissance ce pouvoir délétère d’instrumentaliser ce qui semble a priori ininstrumentalisable en mettant à profit chaque moment de nos existences. Invitons donc ses acteurs à ne pas céder aux creux autosatisfécits en termes d’humanité (nombre d’acteurs de l’IA et de la robotique ne s’en lassent pas) et à prendre le noble risque de définir clairement, en paroles comme en actes ce qu’ils entendent quand ils se réclament de l’humain et de son progrès. L’humanisme est un discours pratique, pas une pratique discursive.
Julien De Sanctis