Dans le cadre du cours intitulé “Machines Insurrectionnelles” qu’il dispensait cette année à l’École normale supérieure, le philosophe Dominique Lestel, spécialiste d’éthologie, a accepté de répondre à ces quelques questions en lien avec mon terrain de recherche. Je l’en remercie.
* Dominique Lestel est aujourd’hui Berggruen Fellow au Center of Advanced Studies in the Behavioral Sciences à l’Université de Stanford.
Cette année, vous dispensiez un cours à l’École normale supérieure intitulé « Machines Insurrectionnelles ». C’est une formule intrigante. Pourriez-vous l’expliciter ?
Dominique Lestel : « Machine Insurrectionnelle », c’est une notion que j’ai inventée. Elle prend son sens dans l’analyse selon laquelle il existe deux catégories fondamentales de machines. Les machines qui sont conçues pour effectuer une tâche précise, bien déterminée a priori. Une voiture, par exemple. Et les machines avec lesquelles le vivant (en particulier l’humain) doit négocier, qui opposent constamment des frictions à ce qu’on veut faire d’elle – à ce qu’on veut faire avec elles. Ce sont même des machines qui peuvent « prendre des initiatives », c’est-à-dire des machines qui surprennent non seulement leurs utilisateurs mais également leurs concepteurs. A noter que leur attribuer des « intentions » au sens classique du terme n’est pas indispensable et est même plutôt contre-productif. Certains robots sont des représentants particulièrement intéressants de Machines Insurrectionnelles.
Au Japon, vous avez travaillé sur les robots. C’est une catégorie d’artefacts dont il n’existe pas de réelle définition officielle. Comment les caractériseriez-vous ?
D.L : Je n’ai pas une définition du robot. Je ne veux d’ailleurs pas en avoir une. J’en ai plusieurs qui se recoupent plus ou moins. Certaines sont très fonctionnelles, par exemple qu’un robot est une IA qui est reliée à des effecteurs et des détecteurs sensoriels. D’autres sont apparemment plus poétiques, par exemple dire qu’un robot, c’est une machine qui sort de l’espace de la machine. Ou qu’un robot est un dispositif causal historique qui conduit à des actions dépourvues de sujet. Ou encore, que c’est une prothèse de soi qui se meut de l’extérieur de soi. Laquelle est la plus juste ? La question ne se pose sans doute pas sous cette forme. Les définitions qui m’intéressent le plus ne décrivent pas une machine, elles essaient d’en déterminer les points de pertinence.
Pensez-vous que le terme de robot soit encore pertinent pour un artefact tel que Spoon, ou faudrait-il trouver un autre concept pour penser correctement ce nouveau genre de machine ?
D.L : La difficulté qu’on rencontre avec des artefacts inédits comme Spoon, c’est d’en trouver une « définition féconde », c’est-à-dire une définition à partir de laquelle on peut mieux comprendre ce qu’on peut faire avec ou comprendre ce qui se passe quand elle fonctionne – non pas ce que le concepteur veut faire, mais ce qui se passe vraiment. On pourrait ainsi caractériser Spoon comme une machine dotée d’une tactilité répondante qui s’ancre dans une capacité d’apprentissage interactive et qui a la capacité de mobiliser une base de données qui est constamment en train de se constituer (parler de ‘mémoire’ pour de telles machines est faux et non rigoureux) plutôt que comme un robot. On peut aussi penser Spoon comme un élément parmi d’autres qui prend sa place dans un dispositif plus large et plus élaboré qui vise à constituer la dernière étape de ce que le penseur américain Lewis Mumford appelait dès les années soixante la méga-machine. Spoon peut ainsi être perçu comme appartenant à un ensemble de techniques qui conduit à considérer de plus en plus les humains comme les robots de façon à pouvoir les asservir comme des robots. Je ne dis pas que c’est l’objectif de son concepteur mais que les technologies émergentes conduisent rarement aux objectifs recherchés. Après tout, on peut caractériser une voiture comme une technologie à générer des embouteillages, à produire de la pollution et à faire éclater des guerres (pour avoir l’essence nécessaire), ainsi que l’a fait Ivan Illich. Spoon est incontestablement un robot, mais le caractériser seulement ainsi n’est pas très intéressant parce que la notion de robot est une « catégorie-faute-de-mieux ». En fait, je n’arrive toujours pas à comprendre l’intérêt des robots personnels (les robots industriels, c’est une autre question) sauf comme technologie de destruction de l’humain et du vivant – et de mise au pas des gens – en polluant systématiquement la signification des notions les plus emblématiques de ce que signifie être humain et être vivant.
Vous êtes par ailleurs spécialiste d’éthologie et, plus particulièrement, d’éthologie philosophique. Pouvez-vous nous expliquer ce qu’elle est ?
D.L : Il existe plusieurs versions de ce qu’est l’éthologie philosophique. Pour moi, c’est une partie de la philosophie qui veut penser ce qu’est un être vivant et ce que signifie « être vivant » – jusqu’où on peut être vivant, et comment rendre compte de l’extrême complexité de ce qui est vivant et de la nécessité d’être vivants à plusieurs ? L’éthologie philosophique cherche aussi à savoir si un être vivant particulier comme l’humain peut avoir la prétention exorbitante de vouloir penser le vivant en général, et, de façon plus large, ce que signifie que des êtres vivants pensent le vivant. Penser le vivant, ce n’est pas en donner une définition. C’est se demander comment le vivant se reconnait comme tels et comment le vivant existe avec d’autres êtres vivants et avec des entités non vivantes.
Selon vous, les robots doivent être pensés éthologiquement. Qu’est-ce que cela signifie et quel(s) impact(s) cela pourrait ou devrait avoir sur leur conception ?
A Tokyo, j’ai mis en place un groupe de « robotique performative » avec ma collègue roboticienne Gentiane Venture. L’intuition sur laquelle s’appuie cette initiative est qu’avec des artefacts comme les robots, on ne peut savoir ce qu’on peut faire avec qu’en les utilisant. Ce sont ce que j’ai appelé des « machines a posteriori ». On sait ce que fait une machine normale parce qu’elle a précisément été conçue et construite pour faire ce qu’elle fait et qu’elle fait effectivement ce pour quoi elle a été conçue. D’où l’intérêt des modes d’emploi. Un problème passionnant, pour un philosophe comme moi, c’est justement savoir quoi faire de vraiment intéressant avec les robots qui sont quand même des petites merveilles technologiques. C’est loin d’aller de soi ! Quand on me dit, qu’un robot pourra me servir de pense-bête, j’avoue que je me marre (comme aurait dit Coluche) parce que franchement, nos parents (et nos grands-parents) faisaient déjà ça très bien avec un bloc note et un crayon à papier. S’extasier sur un robot qui fait l’aspirateur me fait bailler sauf quand je découvre qu’une puissance malfaisante comme la NSA peut le pirater pour avoir un plan de mon appartement à mon insu ce qui en fait du coup une machine autrement plus intéressante. Penser le robot « éthologiquement », ça ne veut pas dire plaquer sur des robots les grilles intellectuelles de l’éthologie scientifique (même s’il s’agit d’une discipline passionnante), mais de penser les robots comme des agents à comprendre dont un « mode d’emploi » ne peut épuiser le sens. L’éthologie est pertinente à deux niveaux pour la robotique. D’abord à un niveau évolutionniste et l’écrivain anglais Samuel Butler en a eu la première intuition précise en 1863, quand il a expliqué qu’il fallait dorénavant penser les machines comme des compétiteurs du vivant. A un deuxième niveau, il s’agit de subvertir l’éthologie scientifique pour en faire un cadre fécond pour penser ces machines particulières que sont ces robots qu’on appelle imparfaitement « sociales » et que j’appellerai plus volontiers « existentielles ». C’est ce que j’ai commencé à faire, toujours avec Gentiane Venture, avec la notion de « machines pathétique », des machines qui sont là pour qu’on s’occupe d’elles, qui vous pourrissent la vie en conséquence, mais à laquelle vous vous attachez précisément à cause de ça. L’avenir appartient-il à des machines qui emmerdent les humains ? On peut au moins prendre cette hypothèse apparemment un peu farfelue comme point de départ et chercher à voir jusqu’où on peut la pousser en considérant que l’humain est un animal qui recherche ce qui lui complique la vie, en particulier l’homme moderne qui vit dans des sociétés profondément ennuyeuses (et où on a des consommations record de drogues). La figure de « l’ami-qui-vous-veut-du-bien », une figure que tout le monde connait, est peut-être un cadre de pensée plus fécond pour penser le tricotage homme/machine de façon plus féconde que la machine qui « fait-le-boulot-à-votre-place ».
Vous avez beaucoup discuté la question du « propre de l’Homme ». Ce dernier est mis à mal un peu plus chaque jour par l’enrichissement des connaissances en éthologie animale et les progrès techniques de l’intelligence artificielle. Faut-il cesser de penser les êtres en ces termes exclusifs ? Comment accueillez-vous l’idée de plus en plus répandue d’une pensée de la complémentarité entre l’humain et les autres-qu’humains ?
D.L : Le « propre de l’homme » (non seulement ce qui distingue l’homme de l’animal mais l’en distingue tellement que ça fait sortir l’homme de l’animalité) est une notion idéologique dont les origines se trouvent dans la pensée grecque. Il est inutile d’essayer de réfuter cette notion empiriquement en ce sens que toute différence, si minime soit-elle avec les autres animaux, se verra attribuée une importance excessive. L’humain a des particularités qui ne sont pas partagées par les autres animaux, comme des animaux de très nombreuses espèces ont eux-mêmes des caractéristiques que n’ont pas les autres espèces animales. La question de ce qui fait la spécificité de l’humain est plus délicate si on ne l’évalue pas seulement par rapport au animaux ou par rapport aux machines mais par rapport aux animaux et aux machines. J’ai moi-même défendu dès 1996 l’idée selon laquelle les humains étaient intrinsèquement liés aux autres-qu’humains par l’intermédiaire de communautés hybrides de partage de sens, d’intérêts et d’affects et je pense donc qu’il faut considérer que les communautés hybrides humain/autres qu’humains biologiques et machines – et même fantômes – constituent les vraies unités symbiotiques et hybrides qui ont un sens.
D’après vous, à quelle éthique l’appréhension éthologique des robots pourrait-elle donner naissance ?
D.L : La question éthique centrale posée par les robots est celle de savoir ce qu’on va considérer (ou non) comme une personne. Une nouvelle (« Enlèvement », in : Axiomatique, Livre de poche, 2006, pp.251-274) de l’écrivain de science-fiction Greg Egan raconte une histoire intéressante de ce point de vue en montrant comment des hackers ont kidnappé non pas la femme d’un producteur à qui ils veulent demander une rançon, mais le scan de la représentation que l’homme se fait de sa femme, ce qui rend insupportable les mises en scènes de captivités auxquelles il est confronté et les comportements de ce duplicata numérique plus vrai que la vraie femme du point de vue du producteur. Se focaliser sur l’éthique des robots, comme on le fait beaucoup aujourd’hui, est trompeur parce que la question est aujourd’hui plus politique qu’éthique. En d’autres termes, la question fondamentale aujourd’hui est celle de savoir qui commande avec les robots, et comment on commande aux commandeurs – mais c’est déjà la question centrale du politique que Platon pose déjà.
One thought on “Dominique Lestel : « la notion de robot est une “catégorie-faute-de-mieux” »”
Comments are closed.