Photo by Jeswin Thomas on Unsplash

Chaque jour, dans les coulisses de notre existence, des nuées d’intelligences artificielles s’activent pour faciliter, analyser ou encore contrôler notre quotidien. Le principal défaut de ces IA eu égard à une conception humaniste des technologies est leur manque, souvent absolu, d’interactivité. Comment se positionner et se définir comme sujet face à quelque chose d’imperceptible et d’impalpable ? Travailleuses de l’ombre, les IA ne sont-elles pas également les émissaires d’une hétéronomie technologiquement instituée ? Sans la possibilité, même minime, d’interagir avec elles, elles deviennent totalitaires en ce qu’elles confisquent les conditions minimales d’émergence de toute relation subjectivante envers elles. Il semble donc nécessaire de doter ces artefacts de capacités interactionnelles. Toutefois, comme nous allons le voir, l’interaction en soi n’est pas suffisante pour faire émerger ce que j’appelle une encapacitation technique.

Structures de pouvoir et sculptures éthiques…

Dans sa thèse de doctorat intitulée The design of our own lives. Technical mediation and subjectivation after Foucault, Steven Dorrestijn développe une interprétation originale du travail de Michel Foucault sur le pouvoir en l’appliquant aux techniques. A l’instar de ce que Barthes a pu dire sur le langage dans son discours d’intronisation au Collège de France, le philosophe hollandais explique que les artefacts, quels qu’ils soient, sont et resteront des structures de pouvoir. Il entend par là qu’ils imposent des usages mais aussi des façons d’agir, d’interpréter et de s’organiser dans le monde. Selon Dorrestijn, il est vain de vouloir échapper à ce pouvoir. L’éthique n’est pas à chercher du côté de l’émancipation, mais plutôt dans la capacité de sculpter notre propre rapport aux artefacts. Une citation d’Olivier Nannipieri est intéressante à cet égard : « L’homme est un entre-deux : son humanité réside dans la résistance au déterminisme – sous toutes ses formes : lois de la nature, influences sociales, etc. Mais cette résistance se manifeste rarement par un rejet absolu et définitif, elle est plus subtile. Elle consiste généralement en un détournement. A y regarder de manière superficielle, on croit que l’homme est docile : il obéit aux prescriptions, il adopte presque instantanément toute innovation technique, même la plus inutile. Et pourtant, parfois, sa manière de résister consiste non pas à refuser l’objet qu’on lui présente, mais à transformer sa relation à l’objet.[1] »

Dans cette perspective, l’idée d’une éthique basée sur la sculpture de nos relations aux techniques n’est pas qu’une simple métaphore. Plus qu’une image, le verbe sculpter témoigne 1) de la volonté d’information[2] de nos rapports aux objets et 2) du caractère esthétique d’une telle activité. L’idée de la « belle relation » est très présente dans la pensée grecque antique. Celle-ci se caractérise par un rapport équilibré où le sujet ne domine ni n’est dominé par l’objet (ou le sujet) avec lequel il entre en relation. J’avais donné un exemple concret de cette sculpture dans un article dédié à mon rapport aux jeux vidéo.

Encapacitation technique

« Rendre la technologie invisible »

On l’aura compris, dire que l’on n’échappe pas au pouvoir en général ne signifie aucunement qu’il faille se résoudre à subir tous les pouvoirs en particulier. On peut agir pour changer le mode de pouvoir qu’exercent les artefacts. Il est en revanche illusoire de penser parvenir à dissiper le pouvoir lui-même. Le plus grand danger est celui du totalitarisme technologique, c’est-à-dire un pouvoir n’autorisant absolument aucune interaction avec lui. Des dérives peuvent d’ailleurs se cacher dans des intentions parfaitement louables. Rand Hindi, dirigeant de la jeune société snips dont le slogan est « Using voice to make technology disappear », explique vouloir rendre la technologie invisible grâce à l’interaction par interface naturelle. Son entreprise propose une technologie open-source d’assistance vocale qui, contrairement à Google Home ou Amazon Alexa, n’envoie aucune donnée dans le cloud. La promesse de snips se concentre sur le respect des vie privée et anonymie de ses utilisateurs car, contrairement à ce que l’on croit -ou, plutôt, veut bien nous faire croire- cela est non seulement techniquement possible mais aussi commercialement viable. En substance, la question forte que pose Rand Hindi est la suivante : puisque les technologies permettant de garantir la vie privée des utilisateurs existent, pourquoi toutes les entreprises ne les utilisent-elles pas ?

Si le discours de snips dépasse le simple effet d’annonce, alors son initiative doit être saluée et encouragée ! J’insiste sur ce point : il est très rassurant de voir que de jeunes entrepreneurs s’emparent de ces valeurs et cherchent à le transcrire dans des actions concrètes. Il est également salutaire qu’une place croissante soit donné aux discours alternatifs à ceux des GAFA.  Il faut toutefois se garder de résumer l’éthique des techniques numériques à la question, certes très pressante, des données personnelles. Les artefacts destinés à remodeler les interactions humain-machine sur le mode naturel posent, selon moi, un autre problème de taille : celui d’une potentielle aliénation par simplification. Je m’explique. La technicisation croissante de nos sociétés occidentales repose en grande partie sur une culture des usages et non du fonctionnement des techniques. Autrement dit, les artefacts sont de véritable boites noires : nous savons massivement les utiliser, mais nous ne connaissons que rarement les principes qui les animent. Dans notre modèle dominant de conception technique, le commun des mortels est perçu sous le seul angle de l’usager (et du client) et non du technicien potentiel. Cette vision n’offre que peu de place à l’encapacitation (empowerment) technique des utilisateurs qui se retrouvent trop souvent à subir l’innovation, quand bien même ils s’empareraient fermement des usages possibles des artefacts.

Encapaciter techniquement : le rôle du design et de l’école

Il est ici nécessaire d’expliciter ce que j’entends par encapacitation technique, notion venant de l’anglais empowerment, difficile à traduire élégamment en Français. Encapaciter techniquement consiste à donner aux utilisateurs les moyens de comprendre les artefacts avec lesquels ils interagissent pour accroître leurs capacités d’auto-détermination et de contrôle face à leur pouvoir structurant. A cet égard, la prolifération des IA dans l’imperceptible se révèle problématique en ce qu’elle fait rempart à l’encapacitation. En effet, comment comprendre et contrôler une technologie dont on ignore jusqu’à la présence ? Il me semble impératif de doter les IA d’avatars (virtuels ou physiques selon les cas) permettant de les phénoménaliser. Puisque l’exemple de snips a été donné, on pourra rétorquer que les assistants vocaux ne sont pas imperceptibles. Ils ont un « corps » et « parlent ». C’est vrai, mais la seule interaction par langage naturel (ILN) avec un produit physiquement identifié ne saurait conduire à une réelle encapacitation. Au contraire, elles peuvent favoriser la mise distance de la culture du fonctionnement en renforçant l’impression de « magie » technique (déjà bien entretenue par la communication des fabricants). Pour générer de l’encapacitation, les artefacts d’ILN comme les IA en général, doivent offrir la possibilité à leurs utilisateurs d’explorer et de contrôler l’envers du décor. L’ILN prend ici tout son sens car on peut envisager, à terme, la possibilité de programmer soi-même une IA sans prérequis technique. L’idée est également de pouvoir lui demander de s’auto-expliciter. Si une IA fait appel à un algorithme de reconnaissance faciale, elle devra être en mesure 1) de le signaler et 2) d’expliquer comme il fonctionne sur demande. C’est là un exemple quant à la façon dont le design pourrait contribuer à l’encapacitation technique. Mais cela suppose une réelle volonté de ne pas entretenir l’obscurantisme technologique.

Notons enfin que la responsabilité des fabricants est énorme, mais qu’il serait actuellement illusoire de tout attendre d’eux en la matière. L’encapacitation technique est aussi affaire d’éducation, de formation et de régulation. Ici, je me concentrerai sur les deux premières. A cet égard, il est grand temps de réfléchir au rôle de la technologie à l’école autrement qu’en parlant de l’introduction des tablettes dans les salles de classe. A l’heure où notre quotidien est plus que jamais -et ne cessera d’être plus que jamais- régenté par des logiques artefactuelles, il est impératif de réaliser que la technique est bien plus qu’une question économique : c’est un enjeu politique et social ! Veut-on former des techno-citoyens, c’est-à-dire des personnes armées pour comprendre et agir dans le monde que les artefacts contribuent à construire ? Ou préfère-t-on encourager grégarité et servitude semi-volontaire ? Les mots sont forts, un peu par provocation, mais également un peu par réalisme et inquiétude. L’encapacitation technique est un thème dont l’école doit s’emparer. Il est intéressant d’imaginer que les cours de technologies commencent au collège, comme à l’heure actuelle, et se prolongent au lycée, sans forcément soumettre la « matière » aux systèmes de contrôle et de validation habituels. Ces cours pourraient se scinder en deux, avec des moments spécifiquement dédiés au technologos (histoire, philosophie, économie, actualité des techniques etc.) et d’autres centrés sur la technopraxis, c’est-à-dire la pratique des techniques (acquisition de compétences techniques de base en code, UX/UI, logiciels graphique/vidéo, maintenance et sécurité informatique etc.).

Entre les menaces de l’hétéronomie et les chimères de l’autonomie

Ces deux propositions me semblent pertinentes pour lutter contre l’hétéronomie dont les artefacts peuvent être porteurs. Je rappelle, dans cette remarque conclusive, que l’objectif n’est pas de viser l’autonomie pure et parfaite, qui est une notion aussi chimérique que son homologue économique en matière concurrentielle. L’encapacitation technique vise plutôt à équilibrer les rapports de pouvoir entre l’humain et les technologies qu’ils mobilisent quotidiennement pour 1) se positionner de façon éclairée face à elles et 2) ne pas servir uniquement des intérêts qui lui sont totalement extérieur.

Julien De Sanctis

 
 

[1] NANNIPIERI Olivier, Du réel au virtuel. Les paradoxes de la présence, L’Harmattan, coll. Ouverture Philosophique, 2017, p.49-50.

[2] Au sens premier, l’information désigne l’action de donner ou de recevoir une forme.