Crédit : SPooN Artificial Creatures

L’acceptabilité sociale de l’IA est un défi dont les acteurs politiques et économiques doivent s’emparer sans complaisance ni demi-mesures. Attention toutefois aux contresens : elle ne consiste pas à faire accepter, par des pratiques manipulatoires, une technologie donnée aux citoyens ; mais bien au contraire à développer cette technologie à partir du social lui-même. En d’autres termes, l’acceptabilité sociale ne doit pas chercher à faire rentrer la technologie dans le social mais le social dans la technique.L’IA est aujourd’hui loin de remplir toutes les conditions nécessaires à cette acceptation. Cela s’explique notamment par son opacité et son caractère « éthérée ». Concevoir des IA socialement approuvées suppose 1) de les rendre interactives, 2) universellement accessibles, 3) transparentes et 4) d’assurer un contrôle permanent sur leur devenir qui ne soit pas simplement technique mais aussi éthique.

Sortir les IA du néant interactionnel

Commençons par noter que nos rapports avec les intelligences artificielles sont loin d’être toujours conscients. Des algorithmes de collection de données à ceux de recommandation de produits en passant par la reconnaissance faciale, nombreuses sont les IA incrustées implicitement dans notre quotidien. Le problème que pose ces “travailleurs de l’ombre” est qu’ils régentent une partie conséquente de notre existence sans nous offrir la possibilité d’interagir avec eux (on peut parler, selon la formule d’Antoinette Rouvroy, de gouvernementalité algorithmique). Il est donc difficile de les intégrer à un quelconque “art” de vivre, dans lequel leur place serait clairement identifiée, soigneusement circonscrite et, surtout, librement acceptée. Pour que l’IA soit réellement acceptée elle doit, au minimum, offrir la possibilité d’une interaction permettant aux sujets que nous sommes de nous situer par rapport à elle et de développer une pratique à son égard. En d’autres termes, l’IA ne doit pas être conçue sur le mode du cheval de Troie ou de la boite noire.

Cette remarque n’enlève rien aux immenses bénéfices que l’intelligence artificielle peut apporter et apporte déjà. Dans le domaine médical, par exemple, celle-ci permet déjà d’effectuer des opérations complexes avec un risque d’erreur quasi nul, et l’on attend beaucoup des technologies d’aide au diagnostic qu’elle rendra bientôt possible grâce aux big data. Mais l’IA connaît beaucoup d’autres champs d’application dont l’objectif est loin d’être thérapeutique. L’un des cas les plus emblématiques de l’inquiétude que peuvent susciter les algorithmes est celui de la reconnaissance faciale et émotionnelle qui menace nos anonymat et intimité affective sans possibilité d’interaction et donc de consentement éclairé.

Nous l’aurons compris, pour avancer sur le chemin de l’acceptabilité sociale des IA, celle-ci vont devoir sortir de l’ombre, pour que nous puissions 1) les voir et 2) interagir avec elles.

Vers des machines comportementalisées et transparentes

Pour répondre à ce problème majeur, la société de robotique sociale SPooN Artificial Creatures développe un humanisme technologique basé sur la “comportementalisation” des artefacts. Pour les équipiers de cette startup, c’est à la technologie de s’adapter à l’humain et non l’inverse. Cette adaptation passe, entre autres, par le développement d’une interaction animale avec les machines, dont l’objectif est la baisse de la charge cognitive que leur utilisation requiert ou, autrement dit, la diminution du coût en ressources intellectuelles de cette utilisation. La finalité d’une telle diminution n’est autre que l’universalisation de l’accès aux IA.

Le premier pas que celles-ci doivent faire vers nous est celui de l’attention : les artefacts doivent être dotés d’une capacité d’attention explicitée en intentions afin que nous sachions quand ils nous prennent pour objet et que nous anticipions l’action qu’ils “entendent” effectuer. Des villes aux maisons en passant par le bureau et les transports, l’intelligence artificielle devient chaque jour un peu plus “ambiante”. Pour accompagner ce phénomène dans la bonne direction, il est nécessaire de l’inscrire dans une logique d’environnement attentionné et intentionnel, c’est-à-dire capable de manifester son attention et ses intentions envers nous (comme le fait chaque grand mammifère de façon plus ou moins codifiée). Cette idée s’inscrit dans le registre dit de l’empathie artificielle. Elle vise entre autres à créer chez l’humain la sensation d’être compris par les machines et donc d’augmenter leur valeur interactive. Malgré tout son intérêt, ce point doit faire l’objet d’une vigilance éthique particulière, notamment quant au risque de confusion ontologique entre l’humain et la machine qu’il peut susciter.

Le second pas de cette comportementalisation des artefacts est celui de la socialisation. Nous devons pouvoir interagir, communiquer (verbalement ou non) avec eux sans passer constamment par une interface. Bien entendu, cette socialisation ne doit pas être en tout point calquée sur la socialité humaine : un humain peut mentir, feinter, dissimuler ses intentions ou ses pensées. L’artefact comportementalisé ne doit pas avoir cette possibilité. Il doit être un livre ouvert, ne jamais être ambigu, faute de quoi il deviendrait un puissant vecteur de manipulation. Dans cette optique de transparence, le robot ou l’IA doivent pouvoir être mis en demeure d’expliquer les décisions qu’ils prennent et les données qu’ils récoltent sans que nous le sachions. L’objectif est ici de permettre à l’humain de garder la main en toute circonstances sur les agissements de ses créatures.

 

Des philosophes technologues en entreprise

Enfin, précisons que le potentiel vertueux de ces développements ne les rend pas automatiquement acceptables. Toute technologie est un pharmakon, c’est-à-dire, un remède et un poison à la fois (comme tout médicament). Pour que la dimension curative prenne le dessus, il est nécessaire de mettre en place des processus d’analyse et de pratique des artefacts que le philosophe spécialiste des techniques Bernard Stiegler rassemble sous le concept de thérapeutique. Cette nécessité doit se traduire par l’abandon de l’idée selon laquelle la technique serait une activité exclusivement technique. Concrètement, les processus de conception doivent s’ouvrir à d’autres parties prenantes que le triptyque classique ingénieur/développeur/designer. Si l’objectif est d’orienter l’activité technique vers des productions socialement désirable, alors les philosophes sont plus que légitimes pour intégrer durablement les entreprises techniciennes. Mais les vieux pieux ne suffisent pas en la matière. De profondes réflexions doivent être menées pour faire en sorte que ces acteurs qui se connaissent mal trouvent un langage et des buts communs. De ce point de vue, l’instrument des thèses CIFRE (convention industrielle de formation par la recherche) est extrêmement intéressant et mérite d’être développé en philosophie, mais aussi en sciences humaines et sociales en général.

Julien De Sanctis

Cet article est initialement paru sur spoon.ai.