J'ai dîné hier soir, avec deux amis, en compagnie de Douglas
Hofstadter, chercheur en sciences cognitives à l'Université
d'Indiana, de passage à Paris pour quelques jours. Il très connu
entre autres pour avoir écrit un
livre qui est devenu une sorte de bible dans certains cercles
(disons geeks
pour faire vite) — un livre que j'ai
découvert[#] pour ma part à l'été
1991 (dans la bibliothèque municipale de la ville d'Aspen, Colorado,
pour être très précis) et qui, avec la chronique
du même auteur dans Scientific American, a
énormément influencé ma façon de penser (peut-être jusqu'à mon amour
pour les mathématiques et certainement mon intérêt pour le zen). On se doute donc que j'étais
heureux d'avoir l'occasion de parler un peu avec Douglas Hofstadter
(je l'avais déjà rencontré, début 2002, à l'occasion d'un cycle de
conférences qu'il était venu donner à l'École polytechnique, mais
j'avais peu eu l'occasion de discuter avec lui). Nous avons parlé de
toutes sortes de choses, entre les livres que Hofstadter a sur la
planche (trois en ce moment), les écritures indiennes[#2] (et Unicode), les ambigrammes, les
fugues graphiques, la théorie de Galois (et la manière de la rendre
visuelle
), les rues Galois et Monge à Paris, la fondation de
l'ENS, la futurologie (et la singularité
)
et, naturellement, les mécanismes de la pensée et l'intelligence
artificielle.
La question de base de l'intelligence artificielle serait sans
doute celle-ci : Est-il possible de faire une machine qui pense ?
Pour éviter de sombrer dans de la philosophie vaseuse, on peut définir
machine
— conformément à la thèse
de Church-Turing — comme n'importe quelle des définitions
d'algorithme
équivalente à la machine de
Turing, et penser
comme être capable de passer le test de
Turing
[#3] ; ceci a le
mérite de donner à la question un sens assez précis : on peut ensuite
la diviser en un sens abstrait (est-il théoriquement possible de
programmer une machine pour répondre à un test de Turing ?) et un sens
concret (peut-on effectivement et concrètement réaliser ce
programme ?). Je tiens à la distinction car j'ai une croyance assez
différente pour ces deux questions : j'ai tendance à penser que la
première question a pour réponse évidemment oui
, je ne vois pas
ce qu'il y aurait de remarquable au cerveau humain qui ne serait pas
théoriquement simulable par un ordinateur assez puissant[#4]. Pour la seconde, en revanche,
je suis très sceptique quant à notre possibilité d'y arriver un
jour[#5] : et, bizarrement, je ne
pense pas tellement que ce soit un problème de puissance de calcul,
mais plutôt de possibilité programmation. Disons qu'il existe très
grossièrement deux approches a priori pour l'intelligence
artificielle : l'une cherche à reproduire l'intelligence humaine par
une agrégation de méthodes ad hoc pour résoudre différentes
tâches, une autre cherche à utiliser des mécanismes génériques et
éventuellement proches de ceux du cerveau humain (comme des réseaux de
neurones) ; j'ai tendance à croire que la première piste ne peut pas
aboutir (on ne peut pas découper la pensée humaine en un nombre
important de tâches simples, même avec des interactions entre elles,
chacune résolues par des techniques spécifiques), et que la seconde
nécessite un apprentissage qui, in fine, ne peut pas se faire
autrement ou plus rapidement qu'en mettant la machine (le robot, si on
veut) dans un environnement complètement humain, ce qui, au bout du
compte, donne quelque chose de complètement humain, donc pas forcément
très intéressant (dépenser des milliards de dollars pour réaliser un
ordinateur qui pensera comme un humain et pas mieux,
bof). En résumé : pour atteindre une intelligence sur-humaine,
l'intelligence étant définie comme une certaine capacité de
reconnaissance de motifs, il faudrait arriver à produire un ensemble
de motifs susceptibles de permettre l'apprentissage à un niveau
sur-humain, et pour cela il faut, justement, une intelligence
sur-humaine, donc on ne s'en sort pas. Je conviens que mon
raisonnement est très approximatif et très douteux (mais personne
n'est capable de répondre autrement à ces questions, de toute
manière), il faut plutôt le comprendre comme une réaction instinctive
que comme une pensée structurée. Peut-être que cette réaction
instinctive est une forme de peur, d'ailleurs, ou de regret :
Hofstadter nous a dit hier soir qu'il trouverait certainement dommage
que le cerveau humain, résultat de millions d'années d'évolution,
puisse être dépassé en quelques décennies de technologie. (Là aussi,
c'est un jugement plus instinctif qu'autre chose. Après tout, notre
technologie nous dépasse largement pour ce qui est, disons, de la
force physique… mais à l'intelligence est associée la notion de
conscience et de liberté, c'est sans doute ce qui fait peur dans
l'intelligence artificielle. En tout cas, il est certain que des gens
ont eu du mal à admettre qu'un ordinateur puisse battre les humains
aux échecs — lesquels, pourtant, ont fort peu de rapport avec
l'intelligence.)
A-t-on vraiment fait des progrès en intelligence artificielle (je veux dire, sur le(s) problème(s) de fond, pas sur des applications un peu gadget) depuis l'invention de cette science ? Je n'en suis pas complètement convaincu, et Hofstadter lui-même nous avouait être incertain.
Mais cela n'empêche pas certains futurologues de prédire la venue de la singularité, et même de la prédire pour bientôt (parfois avec une précision extrême : 2049, nous disent certains… c'est assez absurde). Je pourrais en dire un peu plus, mais je crois avoir assez ranté pour aujourd'hui.
Suite : bien des années plus tard, j'ai écrit ceci.
[#] Si je me rappelle bien, j'ai d'abord lu un livre de Roger Penrose sur des thèmes proches (et sans doute écrit, d'ailleurs, en quelque sorte en réponse à Gödel, Escher, Bach) : apprenant que je venais de le finir et que j'aimais par ailleurs beaucoup les dessins d'Escher, un collègue de mon père (qui nous hébergeait à Aspen) m'a conseillé GEB. Bien lui en a pris.
[#2] Le restaurant où nous dînions était un restaurant indien, le Yugaraj (14 rue Dauphine, Paris 6e), que je recommande d'ailleurs (même s'il est un peu cher). Leur enseigne est formée de leur nom écrit en caractères latins mais de façon à imiter une écriture indienne : voilà un thème très « hofstadterien ».
[#3] On remarquera que
le nom de Turing revient assez souvent. Vu qu'il est
en quelque sorte à la fois l'inventeur de l'informatique et de l'idée
d'intelligence artificielle (même si ce sont des gens comme Minsky,
McCarthy, Simon et Newell, plus tard, qui en sont les pionniers), ce
n'est pas vraiment surprenant.
[#4] Puisque je parle
de la question complètement abstraite, je pourrais aller jusqu'à
demander, si la réponse est non
(i.e., une machine de Turing
ne peut pas passer le test de Turing
), quels sont les degrés de Turing
minimaux pour lesquels une machine avec oracle le peut (après tout, il
est certain qu'il existe des oracles qui permettent de passer le test
de Turing)… et sous cette forme la question devient tellement
absurde que je ne peux pas imaginer une autre réponse que zéro
(c'est-à-dire qu'il n'y a pas besoin d'oracle).
[#5] Un jour
signifiant avant une apocalypse
quelconque
.