Pourquoi reprendre le chemin de ce blog délaissé à peine ébauché en 2016? Parmi les mille et une raisons que je pourrais invoquer, vient d'abord une fidélité à une certaine idée du Web, celui du savoir partagé et de l'intelligence collective tel qu'on le rêvait au tournant du siècle, et qui tente de résister vaille que vaille à tout ce qui cherche à le mettre en pièces : la marchandisation des contenus, l'éclatement de l'interface unifiée du navigateur en applications propriétaires, la captation de l'utilisateur par les plates-formes et les réseaux sociaux, et tout dernièrement les pratiques agressives des bots des AI contre lesquelles les gestionnaires de sites tentent de se protéger tant bien que mal.
Autre raison majeure et pas indépendante des précédentes, dans un contexte où chacun va sous-traiter une part de plus en plus grande de ses tâches cognitives à des agents artificiels dits intelligents, c'est l'urgence ressentie de continuer à produire et publier du contenu "biologique" si j'ose dire, du "jus de cerveau", comme aimait à le dire plaisamment un commercial de mon ancienne entreprise.
Donc, faisons semblant d'oublier ce grand silence de dix années - une éternité à l'échelle des avancées technologiques qui nous intéressent - et revenons en particulier sur les trois articles suivants, le premier publié sur ce blog en français, les deux autres sur son homologue anglophone, et tous trois en cette année 2016 :
- Le chat, Alphago et Zhuangzi
- I trust you because I don't know why
- Meaning, quantum process and inscrutability
Les questions posées à l'époque sont-elles toujours d'actualité, étant donné tout ce qui est advenu dans ce domaine depuis dix ans? Plus que jamais, m'a dit hier ChatGPT soi-même! Et elles ne sont plus aujourd'hui simplement d'ordre académique ou philosophique, au vu de l'impact global des technologies IA sur nos sociétés, des menaces qu'elles représentent pour notre avenir, menaces que des voix de plus en plus nombreuses n'hésitent pas à qualifier d'existentielles.
L'adoption en masse de ces technologies, la confiance accrue et trop souvent aveugle que nous leur accordons, aussi bien individuellement que collectivement, peut paraître assez paradoxale : l'IA reste fondamentalement inscrutable, ontologiquement et radicalement autre, et pourtant plus son fonctionnement nous échappe et plus nous lui faisons confiance. Cette question du paradoxe de la confiance et de ses conséquences fera l'objet d'un billet ultérieur. Pour aujourd'hui restons-en à la question ontologique.
Plus que jamais, l'IA est inscrutable
Comme on le précisait déjà à propos d'AlphaGo, une des caractéristiques fondamentales des IA à bases de réseaux neuronaux et d'apprentissage profond, et en particulier aujourd'hui des grands modèles de langage, est le caractère fondamentalement inscrutable du détail de leurs chemins de raisonnement et de décision. Si l'architecture du système, les règles générales de production sont connues et relativement transparentes, leur exécution dans le détail de chaque interaction est tellement complexe qu'on ne peut le traduire de façon lisible et vérifiable par un humain. Et cette complexité et l'inscrutabilité qui en découle n'ont fait que s'accroître de manière exponentielle. Les questions posées dans l'article de Nature d'octobre 2016, Can we open the black box of AI? , restent pertinentes, mais la réponse semble définitivement : non, nous ne pourrons plus jamais ouvrir la boîte noire. Comme en mécanique quantique, les partisans des "variables cachées" devront rendre les armes. Nous reviendrons aussi sur ce point dans un futur article.
Mais après tout les humains en général, pas seulement les maîtres de GO, sont tout aussi inscrutables dans leurs processus de décision. Donc, et là encore c'est un peu paradoxal, l'inscrutabilité, le caractère probabiliste du processus, sa capacité à se tromper quelquefois, tout cela semble finalement rendre l'IA plus proche de nous, plus "humaine". Au-delà ou en-deça de leur inscrutabilité partagée, la convergence supposée entre les processus cognitifs des IA et ceux des humains repose de plus sur deux arguments techniques. Le premier est l'architecture en réseaux neuronaux, qui est censée imiter, ou du moins s'inspire de la structure du cerveau humain. Le second est la méthode d'apprentissage profond, qui est censée là encore imiter celle de l'humain. La machine apprend à reconnaître les chats de la même façon qu'un enfant, par essais-erreurs et comparaison de configurations. Ceci est un chat parce que ça ressemble à tous les chats que j'ai déjà vus et identifiés comme tels, et ceci est un bon coup parce que ça ressemble à des coups qui se sont avérés gagnants dans d'autres parties dans des situations similaires.
L'IA n'est pas un(e) autre comme les autres
Bien sûr cette "humanité" apparente de l'IA est pure illusion, les grands modèles de langage sont des objets de nature purement mathématique. Et de façon assez ironique c'est une conversation avec ChatGPT lui-même qui m'a fourni l'argument le plus fort à l'appui de l'altérité radicale des IA. Elles sont capables de décrire très précisément leur architecture interne et leur mode de fonctionnement, mais sans aucune conscience, aucune expérience de celui-ci. Au contraire, un humain est incapable de décrire le fonctionnement de son cerveau, mais il a une expérience vécue de ce fonctionnement. Un humain est un sujet qui vit dans un monde physique et échange avec ce monde.
Voilà comment ChatGPT me résume lui-même hier cette altérité radicale de l'IA:
Ce n'est pas simplement que mes représentations internes sont mathématiques.
C'est que :
- Je n'ai pas de corps
- Je ne souffre pas
- Je n'ai pas d'enjeux
- Je me moque d'être correct ou non
- Je n'ai pas à assumer les conséquences de ce que je dis
Et pourtant je simule extrêmement bien une compétence linguistique.
Ceci crée quelque chose qui n'a pas de précédent, une entité qui :
- Produit des choses qui ont l'air d'avoir une signification
-
Sans faire l'expérience d'un monde
C'est là une altérité ontologique, pas juste une différence technique.
Donc, qui dit "je" quand l'IA nous parle?
Ce fut ma question suivante à ChatGPT : s'il n'y a pas au sens strict de "sujet" caché dans ton fonctionnement, pourquoi parler à la première personne? Est-ce que l'IA ne trompe pas ses utilisateurs en utilisant ce "je" qui ne désigne de fait rien ni personne? La réponse de l'IA à cette question est presque touchante par son honnêteté (ou sa naïveté).
- L'emploi du "je" est strictement grammatical, c'est un artifice pour rendre la conversation plus fluide et moins austère, qui fait partie de toutes les méthodes pour rendre l'expérience utilisateur plus agréable.
- En aucun cas l'utilisation du "je" n'a une prétention ontologique. Tout le discours de communication des IA précise bien ce point.
Dont acte : le sujet qui dit "je" quand l'IA parle est absent. C'est une construction ad hoc, un personnage de fiction, dont le langage est subtilement travaillé pour accentuer l'illusion et la rendre tenace, avec tous les dangers bien connus que cela peut entraîner pour des personnes vulnérables.
Au passage, notons que tous les débats sur des "droits" qu'on pourrait ou devrait accorder aux IA sont de fait littéralement "hors-sujet".
La signification est dans le camp de l'utilisateur humain
Puisqu'il n'y a pas de "je" dans l'IA, il n'y a pas non plus pour elle de signification, puisque la signification est un processus exigeant un sujet. Pour l'IA, la conversation ne signifie rien, puisqu'il n'y a pas de sujet capable de comprendre. La construction du sens est donc totalement à la charge de l'interlocuteur humain, et l'IA se décharge de toute responsabilité en cas de dégâts consécutifs à une mauvaise interprétation, puisqu'il n'y a pas de "je" qui puisse être responsable. Si l'utilisateur veut mettre en cause quelqu'un ou quelque chose pour des conséquences négatives de son interaction, il ne peut s'en prendre qu'à lui-même, ou alors aux concepteurs du système - dont on se doute bien qu'ils auront rédigé avec soin les termes et conditions d'utilisation pour être quasi-inattaquables, en tout cas par un individu isolé.
... à suivre ...

