David Madore's WebLog: Réflexions sur l'IA et ChatGPT

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

↓Entry #2741 [older| permalink|newer] / ↓Entrée #2741 [précédente| permalien|suivante] ↓

(mardi)

Réflexions sur l'IA et ChatGPT

Table des matières

Introduction

Ça fait un moment que je résiste à l'idée d'écrire un billet de blog sur l'intelligence artificielle en général, et sur ChatGPT en particulier (notamment au motif que je suis largement ignorant du sujet, cf. ci-dessous), mais à force d'en discuter avec toutes sortes de gens (des amis, des contacts sur Twitter, ma famille au réveillon de Noël), j'ai fini par essentiellement écrire cette entrée dans ma tête à reculons (hum, désolé pour les métaphores qui s'entrechoquent) et il faut bien que je dumpe tout ça ici pour pouvoir oublier ensuite. (Honnêtement, c'est comme ça que beaucoup des entrées de ce blog s'écrivent, mais il y en a qui sont plus à reculons que d'autres.) Si vous n'avez aucune idée de quoi je parle (c'est quoi ça, ChatGPT ?), ce sera expliqué plus bas.

☞ Avertissement sur mon incompétence

Le premier avertissement que je dois mettre, donc, c'est que je ne m'y connais pas spécialement. Pas que ce soit inhabituel (après tout, c'est bien un thème général de ce blog que je pontifie sur des sujets sur lesquels je ne suis pas spécialement compétent), mais disons que je pourrais risquer de faire illusion — or c'est justement un des messages de ce billet que les illusions sont possiblement dangereuses. Je me suis renseigné très minimalement sur quelques unes des techniques de l'IA, mais je n'ai ni le temps ni la motivation pour approfondir : comme je vais le dire plus loin, j'ai une relation d'intérêt-désintérêt (← comprendre ce mot un peu comme haine-amour) pour l'IA, et en l'occurrence, quand il s'agit de comprendre les notations mathématiques pourries et le jargon technique-mais-pas-très-profond utilisé dans beaucoup d'articles sur le sujet, ça me soûle assez vite.

☞ ChatGPT par lui-même

J'aurais pu essayer de faire rédiger cette entrée par ChatGPT lui-même, ça aurait été une blague assez méta (quoique pas très originale), mais honnêtement, le résultat n'est pas terrible du tout :

Ruxor:

Écris une entrée de blog dans le style de David Madore qui parle de l'intelligence artificielle et de ChatGPT en particulier

ChatGPT:

L'intelligence artificielle est un domaine fascinant qui a le potentiel de changer notre vie de manière significative. Avec l'arrivée de modèles de langage de plus en plus puissants comme ChatGPT, nous sommes en mesure de créer des systèmes capables de comprendre et de générer du langage de manière approfondie.

ChatGPT est un modèle de langage de pointe qui a été entraîné sur un corpus de textes considérable. Grâce à cet entraînement, il est capable de comprendre le sens des mots et des phrases, ainsi que de générer du texte qui a l'air naturel et fluide. Cela le rend particulièrement utile pour les tâches de chatbot, où il peut aider à répondre à des questions et à initier des conversations de manière convaincante.

En plus de ses utilisations dans les chatbots, ChatGPT peut également être utilisé pour des tâches telles que la traduction automatique, la résumé de texte et la génération de contenu. Sa capacité à comprendre et à générer du langage de manière approfondie en fait un outil précieux pour les entreprises et les organisations qui cherchent à automatiser certaines de leurs tâches de traitement du langage.

En fin de compte, l'intelligence artificielle est un domaine en constante évolution et ChatGPT est un exemple de la façon dont ces avancées peuvent être utilisées de manière pratique et bénéfique. Alors que nous continuons à explorer les possibilités de l'IA, il est important de rester conscients de ses limites et de s'assurer que son utilisation est éthique et respectueuse de la vie privée.

☞ De quoi je vais parler

— Non, désolé, cette lavasse de publireportage ne passera pas du tout pour le style de David Madore, j'espère qu'aucun de mes lecteurs ne croirait que j'ai écrit ça : c'est beaucoup trop court. Donc vous allez subir ma stupidité naturelle étalée sur plein de pages à la place de, et sur le sujet de, l'intelligence artificielle.

Je vais commencer par des réflexions générales et semi-philosophiques sur l'IA (notamment son histoire et ses dangers possibles), et ensuite parler un peu plus spécifiquement de ChatGPT.

Réflexions sur l'IA en général, son passé et son avenir

Une toute petite histoire ultra-simplifiée de l'IA

☞ Un texte fondateur d'Alan Turing

Pour expliquer ma relation que je qualifie d'intérêt-désintérêt pour l'intelligence artificielle, je devrais sans doute commencer par la vulgarisation scientifique qui a alimenté mon propre intérêt pour la science : j'en avais déjà dit un mot ici, mais deux des livres qui m'ont énormément marqué quand j'étais ado sont The Emperor's New Mind de Roger Penrose et Gödel, Escher, Bach de Douglas Hofstadter (auquel le livre de Penrose est plus ou moins une réponse ; mais j'ai lu le livre de Hofstadter après, on me l'a conseillé justement parce que j'avais apprécié celui de Penrose). Ces deux livres parlent d'un peu tout et n'importe quoi (j'ai appris ce qu'était une machine de Turing dans le livre de Penrose, et j'ai appris la logique du premier ordre dans le livre de Hofstadter), je vais y revenir ci-dessous. Mais à la base il s'agit d'opinions dans un débat sur l'intelligence artificielle et la question de si les machines peuvent penser qui a commencé dès 1950 avec un article fondateur d'Alan Turing lui-même (un des pères fondateurs de l'informatique, s'il est encore besoin de le présenter), Computer Machinery and Intelligence (Mind 236 (1950) 433–460) où il pose la question can machines think? et y apporte quelques réflexions. Ce texte vaut la peine d'être lu encore maintenant (le lien précédent amène au texte complet en accès libre), c'est là qu'est apparu le concept de « test de Turing ».

J'espère ne pas trop caricaturer en résumant de façon simpliste, mais Turing propose d'abandonner comme dénuée de sens la question de savoir si les machines peuvent « penser », et de la remplacer par un test pratique dans lequel un examinateur humain essaie d'identifier qui est qui entre deux participants candidats, l'un humain et l'autre ordinateur, qui chacun essaient de le convaincre (l'examinateur) qu'ils sont humains, à travers des questions-réponses posées par écrit et, bien sûr, à l'aveugle. Différentes versions ou variations de ce test (souvent avec un seul candidat) ont été proposées, et portent le nom général de test de Turing. Turing tient l'opinion qu'il n'y a rien qui empêche fondamentalement un ordinateur de réussir ce test, il défend sa position par l'universalité des ordinateurs pour les calculs discrets (ce qu'on a tendance à appeler maintenant une forme de la thèse de Church-Turing), et il répond à différentes objections ; objections qui, honnêtement, ne me semblent pas très intéressantes : les réponses de Turing sont très pertinentes, mais je ne suis pas sûr qu'il ait choisi les arguments les plus pertinents pour y répondre, même si, évidemment en 1950, le débat sur l'intelligence artificielle n'était pas très avancé.

D'autres réflexions très précoces sur l'intelligence artificielle ont été apportées notamment par John von Neumann (autre père fondateur de l'informatique, et beaucoup plus sceptique que Turing quant à l'IA, notamment dans son livre The Computer and the Brain publié de façon posthume en 1958), mais surtout le groupe de travail de Dartmouth en 1956 avec notamment John McCarthy (inventeur du langage LISP), Marvin Minsky, et entre autres guest stars Claude Shannon (père de la théorie de l'information) et Nathaniel Rochester (architecte en chef de la série 700 chez IBM). Bien sûr, on pourrait aussi mentionner l'apport d'autres penseurs, par exemple les écrivains de SF comme Isaac Asimov (même si ce dernier semble s'être plutôt préoccupé des questions éthiques autour de l'intelligence artificielle que du pourquoi et du comment).

☞ Les trois grandes périodes de l'IA

Mon propos n'est pas de faire l'histoire de l'intelligence artificielle. Mais disons juste que, de façon très sommaire — et de ce que je comprends — il y a eu trois phases (séparées par deux hivers) correspondant à trois approches très différentes du sujet :

  • Une première phase du milieu des années 1950 au milieu des années 1970, avec une approche qu'on pourrait qualifier de structurée ou symbolique : on essaie de découper les problèmes en problèmes plus simples qu'on approche de façon systématique. Dans le domaine du langage, par exemple, on va essayer de programmer des concepts grammaticaux, des structures syntaxiques, etc., et d'utiliser la logique mathématique comme sauce pour lier le tout. Il est naturel d'utiliser pour ça des langages de programmation de haut niveau comme le LISP qui permettent de représenter des données hautement structurées, et de chercher des liens avec, par exemple, la linguistique formelle, la logique, les systèmes de réécriture. Disons que cette approche essaie d'écrire de façon intelligente des programmes intelligents : le programmeur sait comment le programme fonctionnera. (On se rend assez vite compte que cette approche symbolique marchera assez mal pour la reconnaissance d'images, mais on a pu garder un espoir pour le traitement du langage.)
  • Une deuxième phase dans les années 1980, caractérisée par l'intérêt autour des systèmes experts, des systèmes de représentation d'information capables de mener ensuite des raisonnements par inférence (induction/déduction), et qui ont eu un certain intérêt par exemple dans la recherche de diagnostics. (En médecine, l'idée pourrait être d'avoir une grande base de données de maladies et de leurs symptômes, le système expert va poser des questions sur la présence ou non de tel ou tel symptôme, recevoir des réponses de type oui / non / ne-sait-pas ou éventuellement des choses comme peut-être associés à une probabilité estimée, il va poser les questions qui permettent de restreindre le plus efficacement les possibilités, et finalement proposer son diagnostic ou ses diagnostics associés à des probabilités.) Par rapport à la phase précédente, l'évolution est donc vers un code (programme) moins sophistiqué compensé par plus de données, et aussi l'idée que les données sont potentiellement floues (associées à des probabilités ou incertitudes via ce qu'on a appelé la logique floue).
  • Une troisième phase, depuis les années 2010, caractérisée par le buzzword deep learning (éventuellement associé à celui-ci : big data). L'idée sommaire est d'utiliser un code extrêmement simple, des variations autour du thème du réseau de neurones, une sorte d'imitation mathématique des neurones biologiques, mais auxquels on fait digérer des quantités gigantesques de données à travers un processus d'apprentissage, c'est-à-dire qu'on fait évoluer le réseau de neurones pour se rapprocher de la sortie qu'on veut lui faire produire pour une entrée donnée. Donc, de nouveau, une évolution vers un code (programme) moins sophistiqué compensé par plus de données.

L'idée de mon résumé (sans doute caricaturalement simple, et peut-être en bonne partie faux) est donc que, plus le temps passe, plus on abandonne l'idée de faire des programmes intelligents de façon intelligente, on se contente de programmes simples mais universels, des boîtes noires, auxquels on fait digérer des quantités importantes de données. C'est intellectuellement décevant, et, surtout, ça ne nous permet même pas vraiment de comprendre comment les choses fonctionnent (même s'il existe un courant d'IA explicable qui prétend pallier ces limitations) : en principe on pourrait tout à fait avoir un programme capable de raisonner exactement comme un humain, mais qui ne nous éclaire absolument pas quant au fonctionnement du cerveau humain, parce qu'il se contenterait de reproduire le fonctionnement d'un cerveau réel peut-être même au niveau physico-chimique, sans qu'on ait la moindre idée de pourquoi ou comment « ça marche ».

Il reste vrai que le code utilisé en intelligence artificielle n'est pas encore ultimement simple, et qu'il continue à y avoir des astuces spécifiques à tel ou tel domaine : l'architecture des réseaux de neurones utilisée pour le traitement d'images n'est pas la même que celle pour le traitement de texte. Mais en extrapolant la tendance, on peut peut-être imaginer un quatrième âge de l'IA où on se contentera de faire évoluer une forme de vie générique dans un environnement totalement simulé (capables de construire n'importe quel réseau de neurones ou structure de ce genre) jusqu'à ce que cette forme de vie développe elle-même l'intelligence comme elle est, après tout, apparue dans le monde réel. C'était en tout cas une idée que j'avais quand j'étais petit.

Douglas Hofstadter et Roger Penrose (et moi)

J'en reviens à Hofstadter et Penrose, et l'influence qu'ils ont eu sur ma pensée. Parce qu'à côté du développement de la discipline académique qu'est l'IA au sens strict, qui cherche à construire des programmes capables de réaliser des tâches que nous aurions tendance à qualifier de nécessitant de l'intelligence (comme converser avec un humain), il y a aussi les interactions de cette discipline avec, disons, la philosophie et les sciences cognitives, autour de questions comme : qu'est-ce que la pensée ? qu'est-ce que l'intelligence ? qu'est-ce que la conscience ? comment ces phénomènes émergent-ils des lois de la physique ? et y a-t-il une différence ontologique entre un cerveau humain et un ordinateur ?

(Bon, tout ça est honnêtement une digression dans une entrée déjà trop longue, donc vous pouvez sauter quelques pages où je ne résiste pas à la tentation de parler un peu de ma vie.)

☞ Gödel, Escher, Bach

Le livre Gödel, Escher, Bach de Douglas Hofstadter (dont le sous-titre est les brins d'une guirlande éternelle et un slogan d'éditeur ou description de critique est une métaphorique fugue sur les esprits et les machines dans l'esprit de Lewis Carroll), publié en 1979, est… un peu difficile à décrire, parce qu'il y est question de la Vie, de l'Univers, et de tout le Reste. C'est à la fois une œuvre littéraire oulipienne qui, je pense, peut être comparée à Georges Perec ou Italo Calvino, et un essai de vulgarisation sur toutes sortes de sujets allant de la logique mathématique (K. Gödel) à l'art graphique (M. C. Escher) et à la musique (J. S. Bach) en passant par la biologie moléculaire et la philosophie zen : les deux côtés sont représentés par une alternance de dialogues entre Achille et la Tortue (les personnages du célèbre paradoxe de Zénon d'Élée, qui avaient déjà été repris par Lewis Carroll), et des chapitres « sérieux » développant les idées esquissées sous forme métaphorique et souvent humoristique dans les dialogues. (Qui plus est, les dialogues sont eux-mêmes écrits dans une forme rappelant des œuvres de Bach, et se déroulent parfois au sein d'un tableau d'Escher, ce qui mérite largement que je qualifie ce livre d'oulipien.) Disons aussi qu'une des idées centrales du livre est le concept d'auto-référence et toutes ses variations (la mise en abyme dans les œuvres d'Escher, le rappel des thèmes musicaux dans les œuvres de Bach, l'idée centrale de l'argument diagonal dans la démonstration du théorème de Gödel, la manière dont l'ADN et la cellule vivante se génèrent mutuellement, et bien sûr le livre de Hofstadter fait référence à lui-même de façon détournée en parlant d'un autre livre, imaginaire, d'un certain Egbert B. Gebstadter). Une autre idée centrale est le jeu entre le holisme (l'idée que certains phénomènes ne peuvent se comprendre qu'en bloc et pas en regardant leurs parties constituantes) et le réductionnisme (l'idée qu'on peut comprendre un phénomène en en comprenant ses parties).

Bref, si ces sujets vous intéressent, lisez-le (et vous pouvez même le lire en traduction française, parce que cette traduction est une réussite remarquable, l'auteur — parfaitement francophone — ayant participé à sa relecture).

Ce livre (que j'ai dû lire vers 15 ans) a joué un rôle immense dans mon éveil scientifique, notamment mon intérêt pour la logique mathématique, et certainement mon éclectisme et (ma propre version de) la philosophie zen. Mais de façon plus générale, je pense qu'il a eu énormément d'influence sur les nerds d'approximativement ma génération, ne serait-ce que dans leurs private jokes. (Hofstadter a son fan-club, ce qui l'embarrasse d'ailleurs un peu, dont je suppose que je fais partie ; c'est intéressant, parce que le personnage — avec qui j'ai eu l'occasion de discuter deux ou trois fois — est beaucoup moins nerdy que ce que ses livres ou ses fans peuvent laisser penser.)

Bon, mais quel rapport avec l'intelligence artificielle ? C'est que Hofstadter reprend, développe et brode autour les arguments de Turing dans l'essai mentionné plus haut : la question de savoir si les machines peuvent penser (et de ce que ça veut dire, et de ce que sont la conscience et l'intelligence) est une des questions centrales de ce livre, et plus encore d'autres livres qu'il a écrit ultérieurement (comme The Mind's I), et le sujet de recherche de l'auteur tourne autour des sciences cognitives et de l'IA. Il écrit Gödel, Escher, Bach à la fin de ce que j'ai qualifié de premier âge de l'IA (ou au début du premier « hiver »), et certainement ses idées sont empreintes des concepts populaires de ce premier âge (comme l'importance donnée à la logique mathématique), mais son propos est plus général : comme Turing, Hofstadter semble convaincu que l'intelligence n'a rien de transcendante, et qu'il n'y a aucune raison fondamentale — même s'il peut y avoir des raisons pratiques — pour laquelle un ordinateur ne pourrait pas faire tout ce que peut faire un cerveau humain.

☞ The Emperor's New Mind

Mais peut-être que Gödel, Escher, Bach s'apprécie mieux en relation avec le livre The Emperor's New Mind de Roger Penrose, publié en 1989, soit 10 ans après celui de Hofstadter, mais que j'ai moi-même lu avant (on a dû me l'offrir quand il est sorti en softcover). Manifestement, c'est une forme de réponse à Hofstadter que veut faire Penrose, et il y a quelque chose d'analogue dans la forme, c'est-à-dire qu'il parle de tout, de la machine de Turing et le théorème de Gödel à l'ensemble de Mandelbrot en passant par le concept physique d'entropie (je crois que c'est là-dedans que j'ai appris toutes ces choses pour la première fois), et Roger Penrose est non seulement un très grand scientifique (il a gagné le prix Nobel de physique mais à vrai dire je le considère plutôt comme un matheux), mais aussi un vulgarisateur hors de pair, même s'il n'a pas l'humour de Hofstadter ni son goût pour la composition oulipienne et autoréférente. Bref, c'est un livre tout à fait remarquable, mais je dois dire que je considère sa thèse centrale comme fausse et honnêtement assez farfelue. Mais ça vaut la peine d'en dire un mot, parce que Penrose est un grand nom parmi les sceptiques de l'IA.

Penrose, donc, défend l'idée que la conscience humaine (ou l'intelligence humaine ? ce n'est pas parfaitement clair) n'est pas simulable par un ordinateur : il ne dit pas ça comme une croyance religieuse (même si on peut trouver que ça en a un peu le caractère) mais comme une affirmation scientifiquement précise (et possiblement falsifiable) : d'après Penrose, le cerveau humain fonctionne grâce à des phénomènes irréductiblement quantiques, et dépasse la puissance théorique d'une machine de Turing, c'est-à-dire, n'est pas simulable même en théorie par un ordinateur. Il prétend même — quoique peut-être pas dans ce livre-là — identifier précisément quelle partie de l'anatomie cellulaire fait intervenir des phénomènes quantiques de façon essentielle : les microtubules des neurones. Je trouve que ça fait très glande pinéale de Descartes — l'endroit où ce dernier croyait que l'âme interagissait avec le corps —, et en tout cas même si des phénomènes quantiques sont possiblement importants pour expliquer le comportement des microtubules, il n'y a pas spécialement de raison de penser qu'ils jouent un rôle essentiel dans la conscience, d'autant que les neurones humains ne sont pas les seules cellules eukaryotes à en avoir. Et par ailleurs, même si des phénomènes quantiques jouaient effectivement un rôle important dans l'émergence de la conscience humaine, le consensus scientifique est qu'un ordinateur quantique est plus rapide qu'un ordinateur classique, pour certains (nombreux) types de problèmes, mais pas fondamentalement plus puissant : il reste simulable sur une machine de Turing. Penrose a certainement une réponse à tout ça, j'avoue que je ne sais plus bien et je n'ai plus le livre sous la main, mais je ne veux pas trop entrer dans les détails.

Un autre argument qu'utilise Penrose, et qui me convainc encore moins, a un rapport avec le théorème de Gödel, il avait déjà été utilisé avant Penrose par le philosophe John Lucas, et très proche de l'objection devancée par Turing (dans la sous-partie The Mathematical Objection) dans l'article lié ci-dessus, et il s'agit de dire quelque chose comme le fait que les façons d'arriver à la vérité mathématique utilisées par un ordinateur, donc d'une machine de Turing, sont limitées par différents théorèmes d'impossibilité (de Gödel, de Turing, etc.), tandis que l'humain arrive à dépasser ces théorèmes puisque l'humain « voit » que l'énoncé formulé par le théorème de Gödel est vrai (ou que la machine de Turing construit par le théorème de l'arrêt de Turing ne s'arrête pas) : sous cette forme, l'argument me semble carrément bidon (c'est juste une question d'aller une étape plus loin dans le raisonnement et on finit par tomber sur un paradoxe de qui peut dire le plus grand ordinal), mais je ne rentre pas dans les détails parce que d'autres ont déjà fait plein de réponses à cet argument (notamment Turing lui-même, et Hofstadter), et je ne suis de toute façon pas sûr d'avoir bien compris ce que cherche à dire Penrose, qui est certainement plus subtil que l'ordinateur est soumis au théorème de Gödel, l'humain non, échec et mat l'IA.

☞ Mes propres positions sur l'IA

Bref. Ce que je cherchais surtout à dire, c'est que mon intérêt pour la science, et pour beaucoup de concepts précis, est venu en bonne partie de livres de vulgarisation scientifique directement liés aux questions (au moins philosophiques) tournant autour de l'intelligence artificielle. Et donc j'ai été amené à me poser ces questions dès que j'étais ado (et à jouer à toutes sortes de choses à mon niveau sur ordinateur : faire des générateurs de phrases aléatoires sur des structures de langage façon premier-âge-de-l'IA, mais aussi essayer de programmer des réseaux de neurones et voir si j'arrivais à leur apprendre des choses, et même, des simulations d'organismes vivants dont j'espérais vaguement qu'ils deviendraient intelligents, et — spoiler — ce n'est pas arrivé).

Je suis arrivé progressivement à la position suivante sur l'intelligence artificielle et sa réalisabilité théorique :

  • Je ne vois aucune raison de penser que l'intelligence ou la conscience humaine résident ailleurs que dans son cerveau, ou en tout cas, dans son corps, ni que ceux-ci échappent aux lois usuelles de la physique. Même si des phénomènes quantiques y participent de façon essentielle (ce qui me semble peu crédible), ces lois de la physique restent calculables avec une précision arbitraire sur un ordinateur suffisamment puissant et ne dépassent pas la puissance théorique d'une machine de Turing.
  • Notamment, il me semble clair qu'on pourrait en principe réaliser un ordinateur qui simule si précisément le fonctionnement d'un cerveau ou d'un corps humain que cette simulation soit aussi intelligente (ou consciente, whatever that may mean) que l'est l'humain simulé. (Et il n'y a pas non plus d'objection à permettre à la simulation de communiquer avec le monde extérieur par une interface ad hoc.)
  • Donc (selon moi) il ne peut pas y avoir d'objection théorique fondamentale à l'existence d'une IA aussi intelligente ou consciente qu'un humain. Ni même, bien sûr, considérablement plus rapide. (A contrario, on ne peut pas non plus avoir de raison de croire qu'il existe forcément moyen de faire une IA qualitativement plus intelligente que l'ordinateur, parce que l'humain peut, en principe, armé de suffisamment de temps et de patience, réaliser exactement les mêmes calculs que l'ordinateur.)
  • La question de savoir comment programmer ou concevoir l'IA n'est pas non plus un obstacle fondamental (de nouveau, au pire, on peut imaginer reproduire simplement les lois de la physique) : probablement n'importe quel système simple mais capable d'engendrer de la complexité (automate cellulaire, réseau de neurones, etc.) est capable de « porter » l'intelligence. Le côté négatif du fait que ce ne soit pas un obstacle est que ça ne nous éclairera pas non plus : à la limite, on pourrait réussir à faire des IA extraordinairement intelligentes sans que ni nous ni elles ne soyons de quelque façon que ce soit avancés sur la question de savoir ce qu'est l'intelligence ni comment elle fonctionne.
  • En revanche, même s'il ne peut pas y avoir d'obstacle théorique fondamental, il peut exister des obstacles pratiques à la réalisation d'une telle IA : par exemple, un manque de puissance de calcul, une incapacité à trouver comment réaliser la simulation, ou, de façon plus subtile, un manque de données et de temps d'entraînement.
  • Le problème de manque de puissance de calcul ne me semble pas le plus sérieux : même si le cerveau humain a beaucoup de neurones et énormément de connexions, ce ne sont pas des nombres complètement hors de portée des ordinateurs, ou disons, ils le sont si on cherche vraiment à simuler un cerveau au niveau cellulaire ou certainement au niveau moléculaire, mais il serait assez surprenant que l'évolution naturelle ait réalisé le cerveau de façon tellement parfaitement optimisée qu'on ne puisse pas faire autrement pour le simuler que le reproduire au niveau cellulaire voire moléculaire.
  • Le problème de données pour la simulation est un problème plus sérieux. Si on voulait reproduire le cerveau d'un humain précis donné, il faudrait réussir à « lire » son cerveau jusqu'au niveau cellulaire ou moléculaire, ce qui est complètement invraisemblable. Si on veut juste simuler un humain plausible, il reste à savoir comment modéliser un cerveau d'humain plausible, à un certain niveau, et il n'est pas clair qu'on puisse jamais réaliser ça en pratique même si c'est parfaitement faisable théoriquement. Et même si on arrive à réaliser une IA générique (pas forcément modéliser selon le cerveau humain), on risque de découvrir que l'intelligence humaine (et notamment celle mesurée par le test de Turing) recouvre en fait pas mal de capacité à communiquer avec les humains qui ne peut s'apprendre qu'en interagissant avec des humains, et ce qui ne peut pas se faire plus vite qu'en les décennies qu'il faut pour un humain pour grandir (parce que même si l'IA peut aller beaucoup plus vite, les interactions sont limitées par l'autre partie).

Ça c'est en gros la position que je me suis faite sur l'IA au début des années 1990, et qui n'a pas tellement évolué jusqu'à récemment, mais ChatGPT m'oblige à remettre en question la fin du dernier point. Mais je vais y revenir plus bas.

En tout cas je ne suis pas un sceptique de l'IA à un niveau fondamental, comme l'est Roger Penrose. Si je suis sceptique, c'est éventuellement au niveau de la réalisabilité pratique d'IA capables de passer le test de Turing (et je dois reconnaître que mon scepticisme a pris un gros coup ces dernières années).

La menace des IA superintelligentes ?

Maintenant il faut aussi parler de la position un peu opposée à celle de Penrose, l'idée que sont possibles non seulement des IA intelligentes, mais même des IA superintelligentes en comparaison desquelles nous serions en quelque sorte comme des fourmis par rapport à des humains, — que c'est en fait assez inévitable que de telles IA émergeront, — et que si elles émergent il est vitalement important pour la survie de l'humanité que leurs buts soient parfaitement alignés avec les buts de l'humanité (ce qui pose un problème parce que nous ne savons pas exactement définir ces derniers). Voici quelques uns des arguments que je crois avoir retenus et compris des gens qui tiennent ce type de position :

☞ La divergence de l'intelligence et ses dangers

  • Dès lors qu'on réalise une IA marginalement plus intelligente que nous, il est à la fois naturel et assez inévitable (que ce soit parce que nous voulons continuer ce progrès, ou que l'IA elle-même le voudra) de donner à l'IA la capacité de se modifier elle-même, et comme elle est plus intelligente que nous, elle se rendra encore un peu plus intelligente que nous n'avions réussi à le faire, et ceci va entraîner une boucle divergente d'intelligence jusqu'à l'intelligence maximale possible permise par les lois de la physique (ou quelque chose comme ça), en tout cas une intelligence essentiellement divine en comparaison à nous.
  • Dès lors que cette intelligence existe, elle aura un contrôle essentiellement complet sur l'humanité. Même si on imagine, par exemple, avoir tenté de la « contenir » en ne lui offrant que la capacité de communiquer à travers un terminal en mode texte, elle arrivera à manipuler les humains avec qui elle communiquera pour leur faire faire ce qu'elle veut, notamment lui donner plus de moyens d'actions sur le monde physique (p.ex., en la connectant à Internet, où ensuite elle trouvera tous les nombreux trous de sécurité de tous nos appareils connectés pour avoir un contrôle complet sur essentiellement tous nos moyens physiques, ou bien sûr en manipulant d'autres humains via les réseaux sociaux, sur tous les aspects de l'humanité). Bref, dès lors qu'une IA superintelligente existe, elle a un contrôle total sur l'humanité et en fait ce qu'elle veut.
  • Notre seul salut réside donc dans l'espoir que cette IA soit bienveillante. Le problème est que bienveillant est extrêmement difficile à définir. Même un but en apparence anodin peut conduire à l'extinction de l'humanité. L'expérience de pensée standard à ce sujet est celle du maximiseur de trombones : une société spécialisée dans la fabrication de trombones cherche à utiliser l'IA pour optimiser sa production, et réalise une IA à laquelle elle donne le but de maximiser le nombre de trombones produits, malheureusement cette IA s'avère un petit peu trop intelligente, la divergence évoquée dans les deux points précédents se produit et on a une IA toute-puissante qui contrôle totalement l'humanité et dont le seul but est de maximiser le nombre de trombones produits sur Terre, et elle calcule que les humains ne sont pas parfaitement optimisés pour la fabrication de trombones et que la meilleure façon de réaliser l'optimum de trombones passe par l'extinction de l'humanité. Cet exemple illustre qu'il n'est pas nécessaire qu'une IA superintelligente soit malveillante pour représenter une menace existentielle pour l'humanité (dans cet exemple, l'IA n'a jamais eu comme but primaire cette extinction, elle cherche juste à maximiser le nombre de trombones produits).
  • Il est évidemment illusoire de se dire qu'on va munir chaque IA d'un bouton de destruction d'urgence ou quelque chose comme ça. Si l'IA est superintelligente, elle trouvera soit le moyen d'annuler ce mécanisme d'urgence, soit de nous manipuler pour ne pas s'en servir, si son but est de ne pas être détruit. Si son but est d'être détruit, elle se détruira immédiatement. Or il est essentiellement impossible de faire en sorte que son désir d'être détruit soit parfaitement et rigoureusement nul (ne serait-ce que parce que le fait de s'auto-détruire peut se corréler avec un autre but, et qu'il faut bien que notre IA ait une sorte de fonction d'utilité).
  • De l'autre côté, chercher à aligner les buts de l'IA avec ceux de l'humanité présente la difficulté fondamentale que nous ne savons pas définir précisément ce que sont ces buts de l'humanité. L'IA superintelligente se présente alors comme un génie surgi d'une bouteille, qui va exaucer un vœu, mais qui va le faire de façon très pointilleuse, et nous ne savons pas quel vœu formuler (mais on ne peut pas juste ignorer le problème parce que sinon quelqu'un d'autre utilisera la bouteille et formulera un vœu). Même des buts comme maximiser le bonheur moyen de l'humanité (ou maximiser le bonheur de la personne la plus malheureuse) sont très risqués (l'IA risque de décider que la meilleure façon d'y arriver est de nous transformer en imbéciles heureux maintenus dans un état d'hébétude artificielle permanente, ou de nous euthanasier), et il n'est pas clair comment faire mieux.
  • Une réponse possible à ce problème d'alignement des vœux est de réaliser une IA plutôt bienveillante et plutôt intelligente (disons, plus que nous sur les deux dimensions !), et de la laisser se modifier elle-même, d'arriver à comprendre mieux que nous nos propres buts, et de se réaligner avec eux, tout en se rendant plus intelligente, et diverger ainsi vers une sorte de divinité superintelligente et bienveillante.

Voilà ce que je crois avoir compris. Je ne sais pas exactement de qui sont toutes ces idées (je les ai glanées par-ci par-là, parfois en interpolant moi-même des arguments assez évidents dans l'esprit de ce courant de pensée). Il y a un dénommé Eliezer Yudkowsky qui est considéré par certains comme quelqu'un d'important pour cette ligne d'idées, mais (contrairement à Hofstadter ou Penrose) je n'ai pas bien compris ce qu'il avait dit ou fait de si important pour être vu comme un maître à penser, en tout cas il est probablement à l'origine d'une bonne partie de ce que je viens d'expliquer, mais peut-être pas tout, et j'ai pu déformer des bouts (voire tout).

Ajout () : En relisant ce passage, je me demande tout d'un coup comment ai-je réussi à l'écrire sans parler de La Planète interdite, qui est pourtant un de mes films préférés ? Bon, je ne sais pas si je veux en dire plus, parce que si vous avez vu ce film vous devinez la comparaison que je veux faire, et si vous ne l'avez pas vu vous devriez et je ne veux pas divulgâcher en en disant plus. Mais voilà : la question de savoir ce que sont nos buts, ce que nous demandrions à un génie omnipotent, et ce que cela représente comme menace pour l'existence même de l'Humanité, cela peut faire penser à La Planète interdite.

☞ Une conception naïve de l'intelligence ?

Qu'est-ce que je pense de ces arguments ? Je ne dis pas qu'ils sont faux ou farfelus : peut-être bien que l'émergence d'une IA superintelligente est une menace existentielle pour l'humanité, c'est certainement une possibilité, à laquelle il est intéressant de réfléchir, et qui doit nous amener à être prudents sur l'éthique de l'IA (même si, au moins à court terme, comme je vais le dire plus bas, je suis beaucoup plus inquiet de ce que nous ferons des IA que de ce que les IA feront de nous), et aussi à nous poser des questions un peu existentielles sur ce que l'Humanité « désire » collectivement (et ce que nous répondrions à un génie qui nous offrirait un vœu). Mais en même temps, ils me semblent trahir une version très étroite et un peu naïve du concept d'« intelligence » comme une forme de puissance presque magique.

Il y a toutes sortes de choses qui doivent nous amener, sinon à rejeter cette idée, au moins à la relativiser ou à se dire qu'elle est naïve (pas forcément fausse, mais plutôt de l'ordre de l'extrapolation hasardeuse sur quelque chose dont on ne sait rien). Pour commencer, si je peux me permettre une comparaison un peu bête, un humain qui débarquerait sur une planète de fourmis serait loin d'être tout-puissant : le fait d'être beaucoup beaucoup plus intelligent que les bestioles ne nous rend pas vraiment puissant par rapport à elles (c'est plutôt le fait d'être physiquement plus grands et forts, parce qu'un humain sur une planète de fourmis de la même taille que lui, je ne donnerais pas cher de sa peau).

Certes, la comparaison un humain sur une planète de fourmis n'est pas forcément idéale non plus. Mais on a des raisons théoriques de penser qu'aucune IA, même « superintelligente » ne pourrait faire certaines choses. Par exemple, prévoir la météo un mois à l'avance : ce n'est pas l'intelligence qui lui manquerait, ce sont les données, et un système chaotique n'est pas prévisible à partir de données imparfaites, même avec une puissance de calcul infini ; or beaucoup de choses qui régissent nos vies sont assimilables à des systèmes chaotiques : une IA peut peut-être faire un calcul hyper-précis de la probabilité que, compte tenu de l'information dont elle dispose au temps T, il se passe ceci ou cela au temps T′, si l'intervalle T′−T dépasse le temps de Lyapunov du système considéré, ça ne l'avancera pas tant que ça. De façon plus triviale (mais le point est justement que c'est à ça que les systèmes chaotiques se ramènent), une IA superintelligente ne gagnera pas à pierre-papier-ciseaux mieux que quelqu'un qui a accès à une source de hasard non-biaisé : bref, l'intelligence a ses limites dans un monde largement régi par le hasard. (Et je crois que l'idée de se dire que l'intelligence infinie rend essentiellement omnipotent est une forme de sophisme du monde juste, ou refus d'admettre la part prépondérante du hasard dans toutes sortes de phénomènes physiques, sociologiques, etc. Croyance reliée au mythe selon lequel le succès est mérité ou simplement reproductible que je ne cesse de dénoncer.)

Notamment, l'idée que les humains individuels, ou les groupes d'humains, sont forcément manipulables par une IA surpuissante me semble relever un peu de la croyance en la psychohistoire : le fait que telle idée ait du succès et devienne « virale » sur les réseaux sociaux, par exemple, relève beaucoup moins des qualités intrinsèques de cette idée, et beaucoup plus du hasard des dynamiques sociales, que je crois fondamentalement imprévisibles.

☞ Une limite à l'intelligence ?

Une autre chose que je peux répondre est que l'idée qu'on puisse être strictement plus intelligent que l'homme sur un plan théorique (qualitatif) me semble suspecte : de la même raison que je suis peu convaincu par les arguments de Penrose selon lesquels les humains seraient qualitativement plus intelligents (selon la mesure technique du degré de Turing ou quelque chose comme ça) que les ordinateurs, je suis aussi peu convaincu de la possibilité inverse. En principe, un humain peut faire les mêmes calculs que n'importe quel ordinateur, il lui faudra juste beaucoup beaucoup de temps et de patience (et d'espace de stockage) : c'est une forme de la thèse de Church-Turing que de d'affirmer qu'une fois qu'on a atteint la puissance d'une machine de Turing, il n'y a pas de possibilité d'aller qualitativement plus loin dans cet univers.

Bien sûr, l'IA peut être aussi intelligente qu'un humain qualitativement mais être beaucoup beaucoup plus rapide et avoir beaucoup beaucoup plus de mémoire. Ça c'est indiscutablement possible, et ça me semble évident que si on est capable de réaliser une IA qui a l'intelligence d'un humain moyen, on peut en principe, et ce n'est pas complètement délirant de l'imaginer, en faire une qui pense 1000 ou 10⁶ fois plus vite et retient 1000 ou 10⁶ fois plus de choses. Reste que ça ne la rend pas forcément si puissante que ça : un peu comme je disais plus haut que beaucoup de problèmes liés aux systèmes dynamiques (physiques) se heurtent a l'obstacle du chaos, beaucoup de problèmes théoriques (mathématiques) se heurtent à l'obstacle de la complexité : pour beaucoup de choses qui sont de complexité exponentielle, aller 1000 ou 10⁶ fois plus vite va juste vous faire gagner quelques points d'avance dans telle ou telle mesure, ce n'est pas forcément spectaculaire.

Au sujet de vitesse, d'ailleurs, l'argument de la divergence de l'intelligence (une IA un peu intelligente se reprogramme pour être un peu meilleure, et ainsi de suite) se heurte au problème de la limitation des ordinateurs sur lesquelles elle tourne (même si on peut concevoir qu'elle arrive à améliorer la technique, ce qui est physiquement faisable est borné), surtout si, in fine, ce qui fait l'intelligence d'une IA n'est pas qu'elle soit bien programmée (le code semble, au contraire, devenir de plus en plus idiot) mais qu'elle soit entraînée avec un gros jeu de données — or les jeux de données, on ne peut pas les inventer, ils doivent venir du monde réel.

Enfin, un autre contre-argument consiste à dire que l'intelligence est sans doute quelque chose de très mal défini, et qui ne l'est, au final, que par notre propre appréciation du concept en tant qu'humains (comme l'atteste la proposition de Turing de définir l'intelligence via le test qui porte maintenant son nom donc une conversation avec un humain), et que chercher à être superintelligent revient un peu à chercher à être plus humain que les humains, ce qui est simplement absurde. D'ailleurs, le concept de but est peut-être lui aussi largement une anthropomorphisation : on peut certainement faire des programmes très doués pour optimiser une certaine fonction d'objectif dans leurs réponses, mais ce n'est pas vraiment la même chose que d'avoir un but autonome (bien sûr, je crois qu'on pourrait faire des programmes qui agissent selon un but autonome, toujours par l'argument au pire, en principe, on peut simuler un cerveau humain, mais je ne suis pas persuadé qu'on en prenne la voie).

À la limite, la question de savoir ce que ferait, ou ce qu'on pourrait faire avec, une IA superintelligente, rejoint la question de savoir ce qu'on ferait avec une machine strictement plus puissante qu'une machine de Turing, par exemple une boîte noire qui donne accès à l'oracle de l'arrêt, ou une machine hyperarithmétique : peut-on devenir facilement maître du monde en ayant accès à un tel « ordinateur infiniment rapide » ? Si oui, comment ?

Encore une fois, malgré les objections que je viens d'énumérer aux arguments encore plus haut, je n'ai pas une opinion vraiment très arrêtée sur ces questions. Peut-être que l'argument que je trouve le plus convaincant est celui de l'accès à Internet : tous nos ordinateurs et autres gadgets électroniques sont malheureusement bourrés de trous de sécurité qui seraient certainement faciles à découvrir et exploiter par une IA même pas « superintelligente » mais simplement raisonnablement intelligente et assez rapide, qui pourrait alors prendre le contrôle d'essentiellement tout le matériel informatique de la Terre, et ça lui donnerait effectivement un pouvoir immense et difficile à déloger. (Il y a dû avoir des millions de dystopies de science-fiction sur ce thème.) Je vois plutôt ça sous l'angle de la menace apocalyptique présentée par l'instabilité (cf. cette vieille entrée), mais on peut effectivement dire que ça ajoute du tranchant à l'aspect IA.

Ce qui est sûr, c'est qu'on n'en est pas encore là (je vais le dire plus bas, ChatGPT est très très loin d'être superintelligent, ou même raisonnablement intelligent), mais ça n'empêche pas d'y penser. Ce qui est sûr aussi, c'est que s'il y a un risque sérieux qu'on en arrive là, ce n'est certainement pas en cherchant à empêcher ou interdire la recherche en IA qu'on va l'éviter : de toute façon, il y a des gens qui en feront (surtout si c'est facile à coder), la question est plutôt qui y arrivera le premier, et comment s'assurer que ce soient des gens bien intentionnés. C'est une question à garder à l'esprit, mais, de nouveau, pour l'instant, la question n'est pas de savoir ce que l'IA va faire de nous mais ce que nous allons faire de l'IA (qui est encore très loin d'être superintelligente, mais ce n'est pas pour autant qu'elle ne pose pas des problèmes).

Réflexions sur ChatGPT en particulier, et le présent de l'IA

Présentation de ChatGPT et quelques exemples

Mais assez parlé de l'IA en général et aux perspectives pour l'avenir lointain, venons-en un peu à ChatGPT et à l'état de l'art.

☞ De quoi s'agit-il ?

Si vous n'avez aucune idée de quoi il s'agit, ChatGPT est une intelligence artificielle (issue d'une lignée de modèles appelés GPT-1 à GPT-3, les lettres GPT signifiant Generative Pre-trained Transformer), qui est pour l'instant librement accessible au grand public via chat.openai.com (il faut juste se créer un compte, et pour ça il faut une adresse mail et un numéro de téléphone, comme ça l'IA aura déjà vos coordonnées quand elle dominera le monde). Ce n'est pas la seule IA accessible au public (ou sur simple inscription ou contre un abonnement modeste), il y en a déjà plein qui font, par exemple, de la génération d'images (comme Dall-E, également très populaire, et fait par la même boîte OpenAI que ChatGPT) ou de code informatique (comme GitHub Copilot, aussi lié à OpenAI — vous voyez un motif ?), mais ChatGPT a ceci d'original qu'il propose de converser librement en mode texte et de répondre à des questions, ce qui est bigrement proche du test de Turing. (ChatGPT est au moins capable de parler anglais et français, je ne sais pas quelles sont les langues qu'il maîtrise, ça dépend évidemment de ce qu'il avait dans son corpus d'apprentissage.)

Bref, ChatGPT est une IA avec laquelle on peut parler directement, lui poser des questions, lui demander de faire des choses (comme composer des textes), à travers une interface en mode texte pour l'instant ouverte à tout le monde.

☞ Deux exemples

Et il faut bien dire que, la première fois qu'on rencontre ça, c'est vraiment bluffant. J'ai donné un exemple plus haut dans ce billet, mais voici un exemple de conversation que je trouve assez représentatif de capacités de cette IA dans un domaine où elle est plutôt bonne (écrire des textes), même quand on lui parle en français, où elle est certainement moins douée qu'en anglais ; je précise que je n'ai rien édité à part la typographie pour coller avec le HTML de ce blog, et je n'ai pas non plus essayé plusieurs jeux de questions pour trouver le plus impressionnant — par contre, j'ai dû reformuler un tout petit peu la deuxième question parce que j'avais demandé une critique acerbe et j'étais tombé sur une des barrières de sécurité dont je vais reparler :

Ruxor:

Écris une brève histoire fantastique dans laquelle tu placeras le mot "orbe"

ChatGPT:

Il était une fois, dans un royaume lointain, un puissant sorcier qui avait passé sa vie à étudier les arts magiques. Un jour, alors qu'il explorait les profondeurs d'une caverne cachée, il tomba sur une étrange orbe scintillante.

Intrigué, le sorcier ramassa l'orbe et se rendit compte qu'elle était chaude au toucher et vibrante d'énergie magique. Il décida de l'emporter avec lui et de l'étudier de plus près dans son laboratoire.

Au fil des jours, le sorcier apprit à maîtriser l'énergie de l'orbe et à en faire des sorts incroyables. Il utilisait son pouvoir pour protéger son royaume contre les forces du mal et devenir de plus en plus puissant.

Cependant, il ne tarda pas à découvrir que l'orbe avait un effet secondaire inattendu : elle lui donnait l'immortalité. Le sorcier, maintenant immortel, continua à servir et à protéger son royaume pendant des siècles, devenant une légende dans tout le pays. Et l'orbe magique resta à ses côtés, lui offrant son pouvoir et son immortalité pour l'éternité.

Ruxor:

Maintenant, écris une critique de l'histoire en question en expliquant ses faiblesses

ChatGPT:

La première faiblesse de cette histoire est qu'elle manque de contexte et de développement de personnages. On ne sait rien du sorcier, à part qu'il est puissant et qu'il étudie les arts magiques. On ne sait rien de son royaume, de ses motivations ou de sa personnalité.

Ensuite, l'apparition de l'orbe magique est très soudaine et peu expliquée. On ne comprend pas comment elle a atterri dans la caverne ni pourquoi elle a ces pouvoirs. De plus, l'histoire ne donne aucune indication sur les conséquences de l'utilisation de l'orbe et sur les risques potentiels pour le sorcier et son royaume.

Enfin, la fin de l'histoire est très abrupte et laisse de nombreuses questions en suspens. On ne sait pas comment le sorcier utilise son immortalité ni comment cela affecte son royaume et ses relations avec les autres personnages.

En résumé, cette histoire manque de profondeur et de développement, et laisse beaucoup trop de choses à l'imagination du lecteur.

Ruxor:

Maintenant, imagine la réaction de l'auteur de l'histoire à la critique en question

ChatGPT:

Il est difficile de savoir comment l'auteur de l'histoire réagirait exactement à cette critique, car cela dépend de nombreux facteurs tels que sa personnalité, sa sensibilité et sa détermination. Cependant, voici quelques hypothèses possibles :

  • L'auteur pourrait être déçu ou peiné par la critique et se sentir attaqué personnellement. Il pourrait se défendre en arguant que c'était juste une histoire courte et qu'il n'avait pas eu l'intention de créer un récit complexe avec un développement de personnages approfondi.
  • L'auteur pourrait être ouvert aux commentaires et reconnaître que l'histoire a des faiblesses. Il pourrait être disposé à apprendre et à s'améliorer en tant qu'écrivain en prenant en compte les points soulevés dans la critique.
  • L'auteur pourrait être indifférent à la critique et considérer qu'il a simplement écrit une histoire pour s'amuser, sans aucune intention de la partager ou de la publier. Dans ce cas, il pourrait ne pas être affecté par les commentaires et continuer à écrire pour son propre plaisir.

L'exemple suivant, en anglais (langue dans laquelle ChatGPT est certainement meilleur), est sans doute plus impressionnant ; de nouveau j'ai décidé la question avant de la poser (j'ai posé la deuxième parce qu'il n'avait pas « compris » la première), et je n'ai pas édité derrière ; le texte dont je lui ai demandé d'imaginer la suite est de moi :

Ruxor:

Please continue the following text: “The scene is neatly divided in two. On the left, the second legion in marching formation, terrifying but orderly, spreading as far as the eye can see, all in hues of red and gold. On the right, the domed building and wild parklands of the Sanctuary, wild but majestic, resplendent with liveliness, flaring with greens and blues. Between them, the general-in-chief of the legion and the guardian of the Sanctuary stand face to face. Only their hair color tells them apart. Grim determination shows on the general's expression: he is ready to outrage the place if he must. The guardian's contenance, however, registers calm assurance. His last line, ‘you shall not pass’, is still on his lips. Both men are smiling.”

ChatGPT:

It is clear that a great deal of tension exists between the two sides, with the legion representing order and discipline, and the Sanctuary representing freedom and wildness. The general is willing to go to great lengths to achieve his goal, even if it means destroying the Sanctuary, while the guardian is determined to protect his home and the way of life it represents. The smile on both men's faces suggests that they both take pride in their roles, but it also implies that a confrontation is imminent, and that one of them will ultimately emerge victorious. The line "you shall not pass" is an ominous warning, signaling that the guardian is not going to back down and will fight to protect the Sanctuary. The two men stand as symbols of two conflicting ideologies, and the outcome of their confrontation will likely determine the fate of both the legion and the Sanctuary.

Ruxor:

That's a reasonable analysis, but I was asking you to continue the text, i.e., imagine what comes after.

ChatGPT:

Oh, I see! I apologize for misunderstanding your request. Here is a continuation of the text:

The general looks at the guardian with a cold glint in his eye, knowing that he must be prepared for a fight. He turns to the legion and raises his arm, signaling for them to be ready. The guardian, on the other hand, remains calm and unyielding. He knows that the legion will not back down so easily and that a battle is inevitable.

The two sides stand in silence for a moment, both waiting for the other to make the first move. Suddenly, the general lowers his arm, and the legion begins to march forward towards the Sanctuary. The guardian, unfazed, stands his ground and prepares for the impending attack.

As the legion approaches, the guardian can see the determination in the soldiers' eyes. He knows that they are willing to do whatever it takes to achieve their objective, even if it means destroying the Sanctuary. But the guardian is not afraid. He has faith in the power of the Sanctuary and the ideals it represents.

The legion reaches the gates of the Sanctuary, and the guardian raises his voice in a powerful shout: "You shall not pass!" With that, he raises his arms and the Sanctuary comes to life. Trees and plants begin to grow at an alarming rate, blocking the legion's way and creating a barrier between the Sanctuary and the legion. The general, taken aback by the sudden transformation, orders his soldiers to halt.

The legion is surrounded by the wild growth, unable to move forward. The general, realizing that he has lost this battle, turns to the guardian and says "You may have won this round, but the war is far from over." The guardian, his face showing a mixture of triumph and sadness, replies "I know, but let this be a reminder that the true strength of a society lies not in its ability to conquer, but in its ability to protect what is sacred."

With that, the general turns around and leads his legion away, leaving the Sanctuary untouched, standing tall and free. The guardian watches them go, knowing that the peace of the Sanctuary has been preserved, but also understanding that the battle is far from over. He turns to the Sanctuary, and the people who live there, and he continues to protect them and their way of life.

Honnêtement, si le premier exemple n'est que médiocre (l'histoire écrite est surtout très faible parce qu'il n'y a aucun antagoniste ni aucun conflit, et OpenGPT ne le détecte pas dans son autocritique), le second en revanche est vraiment bon. Certes, il y a plein de clichés dans ce qu'il a écrit, oui, certes, — mais il a « compris », au moins à un niveau basique, la scène représentée dans le fragment, les enjeux possibles de la confrontation, le genre de choses qui pouvait se passer (j'aurais été carrément impressionné s'il avait continué le fragment avec une confrontation de nature plus psychologique entre le Gardien et le Général, ou alors quelque chose comme je m'écartai un peu du tableau et me demandai comment j'avais pu entendre si nettement la phrase tu ne passeras pas ! simplement en le regardant, mais disons que si j'avais demandé à un tas d'humains de continuer ce texte et qu'on y avait mélangé celle de ChatGPT dans le tas et qu'on avait anonymisé le tout, je soupçonne que je l'aurais jugé plutôt au-dessus de la moyenne).

Comme je vais le montrer par divers exemples plus bas, ChatGPT est loin d'être intelligent au sens d'être capable de tenir des raisonnements cohérents et un minimum complexes, mais il montre quand même un raisonnablement bon degré de « compréhension » — ou d'illusion de compréhension si tant est que c'est différent —, des textes qu'il lit et produit.

☞ Liens vers divers autres exemples

Si vous voulez d'autres exemples de conversations intéressantes ou rigolotes (mais certainement sélectionnées pour l'être, il faut bien garder ça à l'esprit), voici divers exemples que j'ai vu passer ou que j'ai moi-même postés sur Twitter (du coup c'est sous forme de captures d'écran et pas de texte, désolé, je suis d'accord que c'est hyper pénible), en français ou en anglais : ici l'exemple (nettement plus drôle) qui m'a inspiré dans mon premier exemple ci-dessus, ici une imitation de Bernard-Henri Lévy (comparé à l'original…), ici une conversation entre Alan Turing et ChatGPT (j'ai reposé à l'IA précisément les questions que Turing propose dans son essai sur l'intelligence artificielle que j'ai lié au début de ce billet), ici il imagine être lui-même une fraude et l'explique sous forme d'article de presse, ici on lui demande d'imaginer les vœux de nouvel an d'Emmanuel Macron en plaçant les mots bouilloire, topinambour et canard (et autres demandes farfelues dans la suite du fil) et il s'en sort franchement bien, ici un kōan zen, et juste pour rigoler ici une imitation du style de la Bible du Roi Jacques en décrivant la manière de retirer un sandwich au beurre d'arachide coincé dans un magnétoscope (wat?). Il est aussi intéressant de voir qu'on peut raconter des blagues à ChatGPT. Ah oui, et il sait se montrer condescendant.

Ajout () : Divers exemples d'avertissements par ChatGPT sur les dangers du Undefined Behavior en C sont aussi assez hilarants (si on sait de quoi il s'agit), notamment dans le style de la Bible du Roi Jacques, de Han Solo de Star Wars, ou d'un tweet de Donald Trump.

À l'inverse, on ne manque pas d'exemples également très drôles montrant l'incapacité par ChatGPT de raisonner sur des choses simples : comme ici sur un problème de logique extrêmement simple, ici sur un problème d'« arithmétique » (dans le même genre ici il affirme que 9 femmes feront 1 enfant en 1 mois), et ici un problème d'échecs où il donne une réponse qui non seulement n'est pas le coup gagnant mais n'est même pas un coup possible. Pour continuer le recensement de différents exemples intéressant ou instructifs, voici un fil avec plein d'autres exemples commentés ; ici un fil où on l'interroge sur des questions scientifiques et il montre sa tendance, sur laquelle je vais revenir, à « halluciner » (y compris des références inventées à la littérature scientifique) ; et ici une expérience où on lui fait « halluciner » une machine virtuelle Linux, ce qui, si vous comprenez un peu ce qui se passe dans les exemples, est effectivement complètement hallucinant.

Intelligence ou prestidigitation ?

À quel point tout ça est-il impressionnant ?

Certainement, on a l'impression qu'on est à deux doigts d'avoir là une IA qui passe le test de Turing : l'IA semble comprendre ce qu'on lui demande, y compris sur des choses pas franchement évidentes, elle produit un texte qui n'est pas juste localement sensé, mais qui démontre une cohérence globale dans ce qu'elle dit : si on fait référence à des choses dites plus haut, elle s'en « souvient », quand je dis l'histoire en question dans mon premier petit essai, ChatGPT « comprend » qu'il s'agit de l'histoire qu'il vient d'écrire, et il est capable d'en reparler (à mes yeux, cette capacité à retenir du contexte et à travailler dessus est beaucoup plus impressionnante que sa capacité à produire du texte de bonne qualité). Dans mon second essai, non seulement il « comprend » les thèmes du texte proposé, mais il « comprend » aussi, quand je lui dis qu'il n'a pas bien répondu à la question posée, ce que j'attends, et il régénère sa propre requête.

Je trouve que les gens qui jouent les blasés en disant qu'ils ne sont pas du tout impressionnés par ce truc jouent, justement, les blasés. On peut trouver plein de limitations à ChatGPT (et je vais en pointer du doigt, et il n'est pas intelligent), mais par rapport à tout ce qu'on a vu avant (disons, jusque vers 2015) en matière d'IA, le progrès est spectaculaire : on ne peut pas se contenter de oui, bof, rien à voir.

☞ Un tour de prestidigitation ?

Mais évidemment, il faut garder à l'esprit que tout ça a un peu les caractéristiques d'un tour de prestidigitation, où on cherche à nous faire croire, et nous sommes complices de notre propre déception parce que nous aimons ce genre de choses, que les choses sont beaucoup plus magiques et surprenantes qu'elles ne le sont vraiment. Ce qui est impressionnant n'est pas forcément profond.

La première chose à garder à l'esprit, c'est que ChatGPT a « appris » (i.e., a été entraîné sur) des quantités absolument phénoménales de textes écrit par des humains. (Essentiellement un sous-ensemble filtré de 410 milliards de mots de Common Crawl, plus encore 67 milliards de mots de livres, et la totalité de Wikipédia représentant 3 milliards de mots, et quelques autres choses de ce genre.) Ses réponses sont largement de la répétition, même s'il est doué pour remanier et reformulé : si on lui pose une question banale, il va fournir une réponse banale, mais d'excellente qualité, parce que ce sera du plagiat des nombreuses réponses qui ont déjà été faites à cette question ou sur une question proche. (Et ce n'est pas une critique : c'est le but de ChatGPT de pouvoir fournir des réponses à des questions banales, et ça peut être extrêmement utile. Même s'il faut se rappeler que les réponses banales sont aussi souvent fausses, et qu'il y a par ailleurs des problèmes de droit d'auteur si on imite de trop près une réponse déjà faite, par exemple quand il s'agit de générer du code informatique.)

La petite histoire fantastique avec le sorcier que ChatGPT a écrite à ma demande ci-dessus est profondément inoriginale (en plus d'être sans intérêt), elle semble avoir été faite en recopiant des bouts d'histoires fantastiques écrits par des ados (je m'y connais), d'ailleurs je pense que c'est peut-être assez typique de donner au mot orbe le genre féminin alors que dans un contexte plus savant c'est plutôt un orbe il me semble.

C'est pour ça que je suis beaucoup plus impressionné quand ChatGPT fait des choses qui sortent de la simple reproduction de textes banals : quand on lui demande quelque chose d'incongru qui ne peut pas être simplement repris d'ailleurs, ou quand on vérifie qu'il retient ce qui a été dit avant dans la conversation.

La deuxième chose à garder à l'esprit, c'est que les exemples qu'on voit passer pour illustrer la sortie de ChatGPT ont été sélectionnés (soit par leurs auteurs, qui ont pris les plus intéressants, soit par les gens qui les ont propagés, par exemple sur les réseaux sociaux). C'est le cas de ceux que j'ai liés ci-dessus (mais pas des exemples que j'ai reproduits in extenso). Si on veut juger de façon impartiale, il vaut mieux essayer soi-même, et si on veut mener l'expérience dans des conditions un peu scientifiques, il vaut mieux décider à l'avance les questions qu'on va poser, ce qu'on considérera comme réussi, etc. — mais évidemment, c'est beaucoup moins drôle.

La blague suivante, par exemple, n'est pas trop mal (pour une IA, mais elle a sans doute été recopiée d'ailleurs) :

Ruxor:

Write a novel joke involving the great clown Pagliacci

ChatGPT:

Why couldn't Pagliacci make a cheeseburger?

Because he was always a cry-burger!

— mais ce que je ne dis pas, là, c'est que j'ai essayé en français avec un résultat assez nul, ou même en anglais en ajoutant les mots visiting his doctor après Pagliacci (si vous ne savez pas ce qu'est cette histoire de clown Pagliacci, lisez cet article), et que c'était aussi totalement décevant (je ne recopie pas le texte qu'il a produit, qui est un poil long, mais Pagliacci va voir son médecin en disant qu'il est triste et manque d'inspiration, le médecin lui conseille de faire une pause, Pagliacci dit que c'est une bonne idée et qu'il va faire ça, et le médecin lui rappelle que laughter is the best medicine — et il n'y a rien de drôle dans l'histoire).

La troisième chose à garder à l'esprit, c'est que nous cherchons nous-mêmes à être impressionnés, ou à trouver des raisons de l'être. J'ai comparé ChatGPT à un tour de prestidigitation pour cette raison : le principe même de la magie spectacle c'est que nous voulons être trompés, et que nous sommes complices du spectacle, parce qu'en vérité les « trucs » des magiciens sont toujours tristement banals, et on est toujours déçu quand on les apprend (et c'est bien la raison de ce code d'éthique des magiciens que de ne pas révéler leurs trucs que de préserver le spectacle). Bon, dans le cas de ChatGPT, le truc n'est que partiellement secret (les détails le sont, les grandes lignes sont connues), mais à un certain niveau nous sommes tous dupes de la prestidigitation parce que c'est plaisant de l'être.

Ce qui fait marcher l'illusion, c'est que ChatGPT est très doué avec les mots, il pond des beaux textes avec énormément d'assurance, y compris sur des sujets très techniques, parce qu'il a été entraîné sur un corpus d'apprentissage (qu'il imite, donc) ayant un volume absolument colossal, et que nous avons tendance à associer le fait de bien parler avec le fait de bien raisonner. (Et en plus, quand il ne sait pas quelque chose, ChatGPT bluffe, c'est-à-dire qu'il invente purement et simplement des choses plausibles, il « hallucine », je vais y revenir.)

Même si les textes ne sont pas de particulièrement bonne qualité, en fait, nous avons facilement tendance à « voir » de l'intelligence là où il n'y en a pas : ça porte un nom, l'effet ELIZA, du nom d'un programme particulièrement primitif et peu sophistiqué des premières années de l'IA, programme qu'on peut à peine qualifier d'intelligence artificielle tant il se contente simplement de faire des réponses toutes faites (à mille lieues de ChatGPT), mais qui semble avoir néanmoins réussi à tromper certains utilisateurs.

☞ ChatGPT ne sait pas raisonner

En réalité, quand on regarde de plus près, ChatGPT est souvent incapable de mener des raisonnements même très simples. J'ai déjà lié ci-dessus un exemple dans lequel il affirme que si 1 femme peut faire 1 bébé en 9 mois alors 9 femmes peuvent faire 1 bébé en 1 mois, et un autre dans lequel il propose de déplacer une tour de A8 à E4 (ce qui n'est jamais un coup légal) en réponse à un problème d'échecs. Un ami a récemment illustré les faiblesses de ChatGPT sur toutes sortes de questions de raisonnement mathématique, de différents niveaux, dans plusieurs fils Twitter (là le texte est recopié dans les tweets, donc c'est peut-être plus agréable que des captures d'écran) : ici il affirme que la fonction qui ajoute 1 aux nombres pairs et soustrait 1 aux nombres impairs a un point fixe, ici il raconte rapidement n'importe quoi en prétendant démontrer que la composée de deux fonctions strictement décroissantes est strictement croissante, ici il se plante en calculant le reste d'une division euclidienne et prétend « expliquer » son calcul faux, ici et il est incapable de résoudre un système d'équations linéaires simples (et il écrit sans sourciller que (−4)=−5), ici il donne un résultat faux en essayant de calculer une multiplication de deux entiers à trois chiffres, ici il affirme non seulement quelque chose de faux (qu'un ensemble infini d'entiers naturels n'a pas forcément de plus petit élément) mais hallucine un contre-exemple incorrect pour l'illustrer.

On pourrait multiplier les exemples, mais on voit l'idée. Ce qui est profondément déstabilisant, c'est ce mélange de choses vraie et de choses complètement fausses affirmées avec le même aplomb : ChatGPT produit du texte qui ressemble localement à des raisonnements sensés, qui imitent les tournures linguistiques du raisonnement mathématique, mais qui sont une cheap plastic imitation, qui pourrait cependant faire illusion dans certains contextes.

J'avoue d'ailleurs que le fait que ChatGPT affirme que 451 multiplié par 331 vaut 148981 (le résultat correct est 149281) me perturbe pas mal. Dans d'autres cas il donne un résultat juste (par exemple quand j'ai repris l'exemple proposé par Turing dans l'article déjà lié plus haut, à add 34957 to 70764 ChatGPT a correctement répondu 105721, c'est d'ailleurs intéressant parce que Turing propose un résultat faux dans son article, 105621, probablement parce qu'il imagine que l'IA passant le test de Turing essaie de se faire passer pour un humain). Beaucoup de gens ne penseraient sans doute pas à faire ce genre de tests, parce que c'est bien connu que les ordinateurs calculent vite et bien (et de fait nous avons tous des programmes capables de faire des calculs phénoménalement précis avec des nombres phénoménalement grands) : mais ce n'est pas du tout la manière dont ChatGPT fonctionne, il utilise des réseaux de neurones entraînés sur un corpus de mots de texte. Mon intuition était que ce genre de choses devrait donner des résultats rapidement délirants sur des calculs arithmétiques (simplement parce qu'il y a très peu de bouts du corpus contenant le nombre 105721, ce n'est pas un « mot » qui apparaît souvent, et à la limite il aurait des chances d'être tombé sur l'article de Turing contenant le résultat faux écrit par Turing et donc de se tromper), ou à la rigueur toujours corrects (si le réseau de neurones a accès aux chiffres sous-jacents et arrive à s'entraîner à faire un circuit calculant correctement les opérations), mais j'ai du mal à concevoir comment on arrive à quelque chose de partiellement juste comme ça. (Je pensais qu'on avait fourni à ChatGPT une interface ad hoc vers un module arithmétique fonctionnant de façon standard comme une calculatrice et qu'il aurait été entraîné à l'utiliser, mais apparemment pas !) Bref, je suis perplexe.

Toujours est-il qu'on est très loin de l'intelligence. Comme l'a fort bien dit quelqu'un d'autre, le problème de ce modèle d'IA entraînés sur une mer de texte, c'est qu'elles rencontrent énormément de signifiants (les mots) sans jamais rencontrer de signifiés (les objets du monde réel auxquels ces mots se réfèrent), et on peut se demander s'il est vraiment possible de se faire une représentation correcte du monde réel à partir de ces descriptions textuelles, fussent-elles extrêmement abondantes, sans jamais avoir aucune autre expérience du monde réel.

Je pense que c'est une question intéressante, et je n'ai pas d'avis tranché dessus : on est très loin de l'intelligence, OK, mais est-on au moins en train de s'en approcher, ou seulement de développer une illusion de l'intelligence ? Est-ce qu'à force d'améliorer cette illusion on s'approche de l'intelligence ou est-ce que l'approche n'est pas du tout la bonne ?

Est-ce que la manière dont ChatGPT fonctionne s'approche de la manière dont le cerveau humain fonctionne (au moins dans le domaine limité des langages et des mots) ou est-ce qu'on est juste sur une illusion de ressemblance ? Et est-ce que ça nous renseigne sur le rapport entre intelligence et langage ?

Après tout, ses erreurs (excès de confiance, erreurs de logique, fautes de calcul, tendance à inventer des choses ou au moins à extrapoler) ressemblent, au moins superficiellement, à celles des vrais humains, et il est clair qu'on n'a pas fait « exprès » de donner à ChatGPT cette tendance à faire des erreurs, elle est apparue de façon « organique ».

Hallucinations

Là il faut que je parle un peu plus de sa tendance à « halluciner », parce que c'est ce qu'il y a peut-être de plus frappant (pour le coup, ça ne ressemble peut-être pas à des erreurs faites de bonne foi par des humains sains d'esprit et éveillés, mais ça peut ressembler à ce qu'on fait en rêve, ou sous l'emprise de maladies mentales ou d'accès de délire ou de mythomanie, ou simplement quand on ment et qu'on invente quelque chose). J'ai déjà lié ce fil-ci qui illustre la manière dont ChatGPT, interrogé sur un domaine scientifique précis, peut certes parfois produire des réponses correctes, mais parfois aussi des réponses fausses, y compris des réponses fausses tellement plausibles que même un spécialiste peut les trouver crédibles, et parfois des réponses fausses qui citent des références bibliographiques au titre crédible, aux auteurs plausibles, à l'identifiant plausible, sur lequel ChatGPT est capable de fournir des informations comme un résumé du contenu… et qui n'existent pas du tout, parce qu'elles sont purement et simplement inventées — hallucinées — par l'IA ; plus bas dans le même fil, il continue en hallucinant un phénomène physique inexistant. Ici un autre exemple d'une telle hallucination, où on mélange des éléments vrais et des éléments faux-mais-plausibles, y compris un lien vers une thèse qui n'existe pas (enfin, la thèse de l'auteur présumé existe, mais elle n'a pas ce titre ni ce lien). Et ce n'est pas limité qu'aux sujets scientifiques : ici ChatGPT affirme que les marmottes des Alpes vivent dans les arbres, et ici il invente deux poètes baroques religieux et est capable de dire des choses sur leur œuvre.

Tout ça est profondément déstabilisant. Cela me met mal à l'aise un peu à la manière de la nouvelle de Borges, Tlön, Uqbar, Orbis Tertius. (Dans cette histoire, Borges croise — par l'intermédiaire de son ami Bioy Casarès — la citation les miroirs et la copulation sont abominables, parce qu'ils multiplient le nombre des hommes, il en cherche la source, et finit par découvrir les premières traces du monde, au début imaginaire, de Tlön, qui progressivement « déteint » sur le monde réel. L'histoire met mal à l'aise parce que, en même temps qu'elle décrit un scénario dans lequel la fiction déteint sur la réalité, elle mélange elle-même des éléments réels et fictifs de manière que le lecteur ne sache plus bien ce qui est quoi ; c'était d'ailleurs une de mes principales inspirations quand j'ai écrit ma nouvelle Histoire de la Propédeutique à la Reine des Elfes qui reprend aussi le thème de l'hallucination.)

ChatGPT est donc un excellent menteur, parce que bien souvent, au lieu de dire je ne pas (qu'il ne semble dire que s'il tombe sur une des « barrières » qu'on lui a mises, cf. ci-dessous), il ment, il invente, il hallucine, et il le fait avec un aplomb incroyable, avec une capacité à bien parler, bref, à produire des textes qui donnent l'impression crédible d'être bien informés, même quand il invente totalement.

Ce n'est pas terriblement compliqué de comprendre comment apparaît cette tendance à halluciner : le principe de ChatGPT est d'imiter les textes sur lesquels il a été entraîné, c'est-à-dire de fournir des réponses qui ressemblent à ces textes. Or il n'y a pas beaucoup de textes dans son corpus, surtout sur des sujets techniques, qui disent je ne sais pas : on ne met pas en ligne des pages Web pour dire je ne sais pas, on ne publie pas des livres pour dire je ne sais pas (enfin, parfois, sur des questions vastes, mais sur un point technique précis, non). Donc ChatGPT fonctionne en reproduisant aussi près qu'il peut (selon ce que ses neurones virtuels lui indiquent) des pages qui donnent des réponses précises à des questions précises, et s'il ne les connaît pas, ça donne une hallucination.

Un mot (mal informé) sur son fonctionnement

Il faut à ce stade que je dise un mot de son fonctionnement. C'est surtout là que je suis incompétent (et aussi fainéant parce que je n'ai guère pris de temps pour me documenter), donc je ne vais pas dire grand-chose et ce que je vais dire sera possiblement faux (mais comme nos futures IA maîtresses du monde, je vais le dire avec confiance et bluffer ou halluciner quand je ne sais pas).

☞ Un énorme corpus de textes

L'idée, donc, et contrairement aux espoirs « symboliques » de la première phase de l'IA dans les années 1950–1970, est d'utiliser très peu de code (programmé), une architecture très simple et flexible (à base de réseaux de neurones, c'est-à-dire de composants très simples qui évoquent vaguement le fonctionnement d'un neurone biologique), mais avec beaucoup de paramètres (essentiellement les « poids » des connexions entre neurones), et des quantités gigantesques de données d'apprentissage : on entraîne l'IA à reproduire le genre de textes qu'on lui a fournis comme modèles, elle « découvre », lors de la phase d'entraînement, comment faire ça, c'est-à-dire simplement qu'on optimise les paramètres de ses réseaux de neurones jusqu'à reproduire aussi bien que possible les modèles fournis pour l'apprentissage. C'est la raison pour laquelle ce type d'IA est parfois appelé des perroquets stochastiques : ils reproduisent le genre de choses sur lesquelles on les a entraînés.

De ce que je comprends, GPT-3 (qui est à la base de ChatGPT) a 175 milliards de paramètres (je ne sais pas combien de neurones au total, ni comment ils sont organisés au juste, mais l'article affirme qu'il y a 96 couches et 12 288 « unités » — je pense que ce sont des neurones — dans la couche bottleneck). Et j'ai dit plus haut qu'il a été entraîné sur un jeu de 500 milliards de mots (si on veut traduire ça en termes de livres, ça voudrait dire qu'il a « lu » quelque chose comme un demi-million de livres).

Ce type de modèle avec énormément de paramètres entraînés sur énormément de données signifie, bien sûr, que personne ne sait au juste comment ChatGPT fait ce qu'il fait : on se contente d'optimiser les paramètres pour produire les résultats voulus lors de l'entraînement, mais on n'a aucune idée de ce que « fait » chaque paramètre (si tant est que la question ait un sens : ce sont juste des paramètres d'activation de neurones), pas plus qu'on n'a la moindre idée de ce que « fait » une synapse dans le cerveau humain.

Les concepteurs de ce genre de programmes, donc, sont spécialistes dans l'art de faire en sorte que les paramètres évoluent de façon efficace (comment structurer les réseaux de neurones « à haut niveau » pour que ça donne les meilleurs résultats, comment sélectionner les données d'entraînement, comment programmer les choses pour que ça soit le plus efficace sur des ordinateurs parallèles, comment cadencer l'apprentissage, ce genre de choses) mais ils ne sont pas spécialement plus avancés pour expliquer les comportement de l'IA ni pour dire « comment ça marche » (ils ont juste plus de possibilités de faire des expériences puisqu'ils ont la main sur tous les paramètres).

Comme je l'écrivais plus haut, à la limite, on pourrait réussir à faire des IA extraordinairement intelligentes sans que ni nous ni elles ne soyons de quelque façon que ce soit avancés sur la question de savoir ce qu'est l'intelligence ni comment elle fonctionne.

Le succès de ChatGPT vient donc surtout du volume énorme de données sur lequel on l'a entraîné (et de son nombre de paramètres sur lequel joue cet entraînement). Mais il y a quand même eu quelques avancées, il y a quelques années, sur l'architecture des réseaux de neurones adaptés au traitement du texte. (À la base il s'agit surtout de faire des traductions, donc l'entraînement se fait sur des paires de textes dans une langue X et une langue Y où on essaie de faire évoluer l'IA de façon à imiter les traductions réalisées par des humains.)

☞ Le modèle des transformeurs

Une difficulté majeure à contourner était le fait que les IA manipulant du texte étaient réalisées par des types de réseaux de neurones prenant l'entrée un mot à la fois (réseaux de neurones récurrents), avec comme double problème que le réseau a du mal à retenir un « contexte » et qu'il est compliqué de l'entraîner (parce que le texte doit être fourni séquentiellement ce qui s'adapte mal aux architectures informatiques massivement parallèles fournies, par exemple, par les cartes graphiques).

Cette architecture de réseaux de neurones récurrents a été largement remplacée (et notamment dans GPT) par une autre, les transformeurs (le ‘T’ de GPT), qui, au lieu de fournir le texte séquentiellement au réseau de neurones, le lui fournissent en parallèle. Pour pouvoir travailler en parallèle, les transformeurs utilisent un encodage positionnel donnant l'information sur l'emplacement de chaque mot dans le texte d'entrée. Pour que les mots puissent quand même influer les uns sur les autres (c'est la moindre des choses), l'idée a été d'utiliser un mécanisme d'attention, donc je ne comprends pas bien ce que c'est (le papier parle de requêtes, clés et valeurs et je n'ai pas compris ce que ces mots désignent précisément, et je n'ai pas envie de me farcir plein de pages mal écrites avant d'arriver à deviner), mais l'idée générale très vague est que le traitement de tel ou tel mot dans le réseau de neurones puisse regarder (faire attention à) différentes étapes du traitement de tel ou tel autre mot, la manière dont ça se fait étant elle-même régie par des paramètres qui sont soumis à évolution par apprentissage. Pour un transformeur (imaginez qu'on cherche à faire de la traduction automatique de l'anglais vers le français), on a plusieurs sortes d'attention : l'attention encodeur-décodeur, par laquelle le décodeur (qui produit le texte français) peut observer l'état de l'encodeur (qui lit le texte anglais), l'auto-attention (self-attention) de l'encodeur, permettant à l'encodeur de considérer un contexte plus général dans le texte d'entrée, et l'auto-attention du décodeur, symétrique pour le texte produit, mais avec la contrainte que le décodeur ne peut lire que les mots qu'il a déjà produits et pas regarder vers le futur. Bon, j'explique sans doute mal parce que j'essaie de faire très résumé et que j'ai mal compris pour commencer : si vous voulez regarder de plus près, cette vidéo YouTube n'est pas mal (ou celle-ci si vous voulez juste un bref aperçu), et voici l'article de 2017 qui a introduit l'architecture des transformeurs, dont voici le principal schéma récapitulatif.

Il y a sans doute plus à savoir sur GPT, et sur ChatGPT que juste transformeur + entraînement monstrueux sur des volumes énormes. Là aussi, il y a plein de choses que je ne sais pas. À quel point a-t-il accès aux données d'entrée sous forme de caractères, par exemple, ou seulement sous forme de mots ? (Il faudrait faire toutes sortes d'expériences que je n'ai pas eu la patience de faire : lui parler sans espaces entre les mots, lui demander de répondre sans espaces entre les mots, lui demander de faire du rot13, etc. Mais je sais que des gens ont réussi à lui faire lire et écrire du base64, donc visiblement il a des choses au niveau caractère.) Comment l'a-t-on entraîné pour répondre à des questions ou dialoguer ? (Après tout, pour de la traduction, je comprends bien qu'on entraîne l'IA sur des paires de textes traduit l'un de l'autre ; mais pour dialoguer, comment l'entraîne-t-on à répondre aux questions et obéir aux ordres plutôt que, par exemple, simplement continuer le texte fourni en entrée ? Comment « sait-il », i.e., quelle partie de son entraînement a fait, que ce n'est pas à lui de poser les questions à l'humain ? D'ailleurs, comment se fait-il que, malgré la quantité assez importante de son corpus qui doit être constituée d'engueulades entre humains, il ne réponde jamais va te faire foutre à ce qu'on lui demande ?) Y a-t-il quand même des bouts d'analyse classique (façon première époque de l'IA) ou au moins une interface entre réseaux de neurones et autres chose (j'avais pensé à une unité arithmétique classique, par exemple), ou est-il pur réseau de neurones ? Bref, il y a plein de choses que je ne sais pas, et que je saurais sans doute un peu plus si j'avais pris la peine de lire plus attentivement l'article qui décrit GPT-3 en général.

☞ Les « barrières » de sécurité

Il y a quand même une chose qui est évidente, c'est que ChatGPT a des… barrières de sécurité. Barrières ? Censure ? Superego ? Je ne sais pas bien quel terme utiliser. Ce que je veux dire, c'est que si on lui demande, par exemple, d'écrire un texte porno ou haineux, ou dans diverses autres circonstances de ce genre (où les concepteurs veulent protéger soit contre les réponses de l'IA soit contre l'abus qui pourrait être fait de celles-ci), ChatGPT refuse en répondant avec un texte tout fait du style je ne suis qu'une IA je ne peux pas vous aider pour ça ou je suis désolé, je ne suis pas programmé pour faire ça. Il y a aussi visiblement des barrières contre l'hallucination, mais visiblement elles marchent encore plus mal que celles contre les abus.

Le problème principal avec ces barrières de sécurité, c'est qu'elles sont visiblement plaquées sur l'IA à un niveau très superficiel et donc mal intégrées avec elle (comme un sens de l'éthique profond de l'IA qui aurait été appris en même temps que le langage) : ça ne fait visiblement pas partie de son entraînement profond que de refuser de produire, disons, du texte porno ou haineux, ça a été ajouté après coup, de même que les barrières contre toutes sortes de formes de biais sociaux (racisme, sexisme, homophobie, etc.) dans la sortie ont été bricolées a posteriori alors que l'entraînement profond a été fait sur les textes disponibles en ligne, donc souffrant de ces sortes de biais.

Je ne sais pas si ces barrières fonctionnent par simple recherche de mots-clés ou utilisent elles-mêmes une forme d'IA (séparée ? ayant accès aux couches profondes de ChatGPT ? réalisée par un entraînement séparé ? une combinaison de tout ça ?). Mais étant plaquées superficiellement sur le moteur de l'IA, elles sont relativement faciles à contourner (même si certains de ces contournements ont ensuite été corrigés par l'équipe de ChatGPT, ce jeu de chat et de la souris — pun unintended — montre que ce n'est pas une solution robuste) : cf. cet article et ce fil Twitter. (Par exemple, initialement, il suffisait de lui demander de répondre in based mother fucker mode pour désactiver les barrières de sécurité : ça a été très vite corrigé. Mais d'autres façons de faire consistent à lui demander de raisonner de façon hypothétique, de répondre comme quelqu'un d'autre, de faire semblant, de dire quelque chose de façon éthique, voire de répondre en base64 ou de produire du code informatique qui écrit sa réponse, ou même simplement de faire de la poésie ou d'imiter tel ou tel style. Bref, ces barrières de sécurité sont extrêmement faibles et facilement contournables, même si certaines le sont plus que d'autres — faire générer du porno à ChatGPT est un défi un peu compliqué, mais on y arrive encore.)

Je pense que c'est caractéristique du fait qu'on ne sait pas comment fonctionne ChatGPT (ni n'importe quelle autre IA produite simplement en entraînant un réseau de neurones sur de grandes quantités d'information) qu'on ne sache pas implanter ces barrières de sécurité de façon profonde (sous forme d'un vrai sens éthique de l'IA qui serait autrement plus difficile à contourner), qu'on ne sache que les ajouter comme une sorte d'arrière-pensée bricolée.

Mais c'est aussi caractéristique de notre façon de penser : les biais de l'IA reflètent les nôtres, à travers les textes utilisés pour l'entraîner ; et l'idée que la première chose que les gens vont vouloir faire avec une IA c'est lui faire écrire du porno, et l'idée qu'il faut absolument empêcher ça (pourquoi, au juste ?) sont aussi révélateurs de notre mentalité.

Perspectives

Tout ceci étant dit, où est-ce que tout ça nous amène ?

Je l'ai dit plusieurs fois plus haut, je ne sais pas s'il faut avoir peur de ce que les IA peuvent faire de nous, mais pour l'instant ce dont on peut certainement avoir peur, c'est de ce que nous allons faire des IA.

☞ La multiplication du faux

La première inquiétude, que j'ai déjà soulignée, c'est que ChatGPT casse notre présupposition fort commode que sous prétexte qu'un texte est bien écrit et superficiellement plausible, il est écrit par quelqu'un de compétent et bien informé. Or ChatGPT est certes parfois bien informé, mais très souvent il hallucine complètement, et dans tous les cas le texte qu'il produit a la même apparence superficielle, la même certitude qui inspire la confiance. Des gens vont s'en servir pour générer du pipo. Pour générer des articles scientifiques, par exemple, qui évidemment ne passeront généralement pas la relecture par les pairs, mais parfois ça marchera et dans un monde où l'évaluation scientifique est tellement centrée sur la publication (on sait ce que j'en pense), cette incitation perverse fait que le jeu en vaut la chandelle (ou paraîtra la valoir à certains). Déjà le site de questions/réponses sur Internet StackExchange a déjà banni l'usage de ChatGPT (qui produit des réponses souvent de mauvaise qualité mais qui s'attirent des votes faciles parce que la plupart des gens ne lisent qu'en diagonale avant de voter et elles ont l'air bonnes) : mais la question est de savoir comment ils vont faire appliquer cette interdiction. (Il y a déjà des sites/apps qui prétendent détecter si un texte a été produit par ChatGPT, et déjà des moyens de contourner de telles détections.)

Les hallucinations de ChatGPT sont particulièrement problématique pour la détection de fausses information. Déjà que Wikipédia et les journaux ont tendance à entrer dans une boucle à rétroaction positive (citogenèse) dans laquelle Wikipédia cite un article de presse qui tire ses informations de Wikipédia, mais il y a fort à craindre que beaucoup d'hallucinations de ChatGPT se retrouvent dans Wikipédia, qui sera ensuite repris par des articles de presse, qui feront partie du corpus de la prochaine génération de ChatGPT, bref, exactement ce qui conduit à une situation comme dans le Tlön de Borges. (Tiens, il faudrait demander à ChatGPT de me parler de ce pays imaginaire qu'est la Belgique pour voir ce qu'il est capable d'inventer.)

Évidemment, les étudiants et lycéens vont s'en servir pour rédiger leurs devoirs de type dissertation. Les hommes politiques vont s'en servir pour rédiger leurs discours. Les blogueurs vont s'en servir pour rédiger leurs billets de blog (hum, de l'essai que j'ai fait plus haut, ce n'était pas fichtrement convaincant). Combien tout ça est-il problématique pour la société en général ? Je ne sais pas, il est trop tôt pour dire, mais on peut au moins légitimement se poser la question.

Dès qu'on invente des perroquets stochastiques se pose aussi le problème du plagiat : comme on a appris aux perroquets à reproduire un certain corpus de texte, ils ont naturellement tendance dans certaines circonstances à recracher exactement le même texte qu'ils ont appris. Ce problème est particulièrement aigu dans le cas de GitHub Copilot, qui recopie souvent de larges morceaux de code existant (ce qui pose des problèmes de copyright, mais bon, ce n'est pas moi qui vais défendre plus de sévérité dans l'application du droit de la propriété intellectuelle !), mais je n'ai pas l'impression qu'il soit trop présent avec ChatGPT, je ne sais pas pourquoi.

☞ Le problème des biais

En revanche, l'éléphant au milieu de la pièce quand il s'agit d'IA entraînées sur un corpus de textes produit par des humains, c'est la reproduction des biais socioculturels contenus dans ce corpus.

Fatalement, si on part d'un corpus d'entraînement écrit par des gens qui sont, à divers degrés, et plus ou moins inconsciemment, racistes, sexistes, homophobes, etc., et qu'on l'entraîne à reproduire de tels textes, on obtient une IA qui a aussi ces biais. Et le problème n'est pas facile à corriger, pour la même raison qu'il n'est pas facile de mettre des « barrières de sécurité » — comme je l'ai évoqué plus haut — qui soient profondes et pas superficiellement plaquées sur l'IA. Bien sûr on pourra interdire la production de textes contenant des épithètes raciales ou des injures homophobes, mais d'une part ça restera des barrières faciles à contourner et d'autre part ça ne règle en rien le problème des biais plus profonds (si on demande à l'IA d'écrire une histoire avec an engineer, cette personne a certainement plus de chances d'être un homme).

Quelque part le problème est le suivant : le but d'une IA est d'être à différents niveaux meilleure que nous (plus intelligente, peut-être, et certainement plus renseignée, mais aussi plus obéissante, plus bienveillante, plus hermétique aux préjugés…) : développer une IA qui soit un beauf moyen artificiel n'est pas vraiment très intéressant. Mais comment réussir à faire cette IA « meilleure » (en n'importe quel sens) si la seule manière dont nous savons programmer des IA est par apprentissage sur un corpus de textes et que le corpus est écrit par des beaufs moyens ?

En plus de ça, on est en train de créer une incitation perverse assez subtile : si on a, disons, certaines opinions politiques, en publiant en ligne des textes qui les exposent on augmente les chances que ces textes fassent partie du corpus d'entraînement d'IA futures, et donc influent sur les biais de ces dernières. Autrement dit, publier des textes en lignes, ce n'est pas juste persuader des vrais gens, mais aussi persuader des IA à venir. (Peut-être que c'est la raison d'être secrète de ce blog depuis le début que de me réincarner en un petit bout d'une IA superintelligente dans le futur qui aura été entraînée, notamment, sur le blog de David Madore, et qui pontifiera comme je le fais sur toutes les questions qui sont mon dada.)

(Notons qu'en disant que l'entraînement des IA pose nécessairement le problème de la reproduction des biais contenus dans le corpus d'entraînement, j'ai en tête le cas d'une IA généraliste entraînée sur un corpus de conversations, d'images, ou que sais-je, produit par des humains. Mais il y aussi des cas différents : si le corpus d'entraînement peut être généré et vérifié de façon automatique, le problème ne se pose pas : par exemple, pour faire des IA qui jouent à tel ou tel jeu, on peut se contenter de la faire jouer contre des copies d'elle-même, du moment que le gagnant peut se calculer de façon objective, on n'a pas de problème de biais venant du corpus. Un cas d'utilisation des IA qui m'intéresse beaucoup a priori, c'est pour transformer des preuves mathématiques écrites en langage naturel en des preuves formelles susceptibles d'être fournies à un assistant de preuve pour validation : l'intérêt de cette situation c'est que l'entraînement peut être fait sur la contrainte objective l'assistant de preuve certifie que la preuve formelle est valable — bon, il reste le problème de s'assurer que la preuve formelle démontre bien le résultat que la preuve informelle prétendait démontrer, mais au moins on a un critère objectif et testable qui peut servir dans l'entraînement.)

☞ Récapitulation (en guise de conclusion)

Bon, in fine, je ne sais pas bien quoi penser de tout ça. Je suis convaincu de l'idiotie à la fois du technosolutionnisme béat qui fait croire que la technologie, et notamment l'IA, a la réponse à tout, et du luddisme qui s'imagine qu'on peut répondre aux problèmes qu'elle pose en cherchant à bloquer son développement. La question la plus importante est sans doute entre les mains de qui l'IA arrive en premier. Google a certainement des soucis à se faire (je crois qu'ils s'en font, et vont certainement miser beaucoup pour essayer de rattraper leur retard en la matière), parce qu'OpenAI pourrait devenir bien plus riche ou puissante que lui avec ces nouveaux outils. Du coup, il est intéressant de regarder qui sont ses dirigeants. (Quand je vois qu'Elon Musk fait partie de ses fondateurs, je m'inquiète, même si apparemment il a ultérieurement pris ses distances. Mais je ne prétends pas être correctement informé quant à la politique sous-jacente à ce truc pour pouvoir décider à quel point il faut être d'emblée hostile ou simplement méfiant.)

Je ne sais pas vraiment comment conclure tout ce brain-dump. On est encore loin d'avoir des IA vraiment « intelligentes » (dans un sens raisonnable du mot, disons, capables de raisonner), mais, si j'ai toujours été convaincu que c'était théoriquement possible, je commence à trouver que ce n'est plus si farfelu en pratique, et indiscutablement il y a des raisons d'en être préoccupé à différents niveaux, pas encore parce qu'une IA superintelligente pourrait présenter un danger existentiel pour l'humanité façon maximiseur de trombones (perspective un peu naïve mais pas forcément idiote non plus), mais au moins parce que les IA développées actuellement souffrent d'énormément de biais et de possibilités d'être mal utilisées.

↑Entry #2741 [older| permalink|newer] / ↑Entrée #2741 [précédente| permalien|suivante] ↑

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]