David Madore's WebLog: Faut-il croire à l'intelligence artificielle ?

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

↓Entry #1331 [older| permalink|newer] / ↓Entrée #1331 [précédente| permalien|suivante] ↓

(mercredi)

Faut-il croire à l'intelligence artificielle ?

J'ai dîné hier soir, avec deux amis, en compagnie de Douglas Hofstadter, chercheur en sciences cognitives à l'Université d'Indiana, de passage à Paris pour quelques jours. Il très connu entre autres pour avoir écrit un livre qui est devenu une sorte de bible dans certains cercles (disons geeks pour faire vite) — un livre que j'ai découvert[#] pour ma part à l'été 1991 (dans la bibliothèque municipale de la ville d'Aspen, Colorado, pour être très précis) et qui, avec la chronique du même auteur dans Scientific American, a énormément influencé ma façon de penser (peut-être jusqu'à mon amour pour les mathématiques et certainement mon intérêt pour le zen). On se doute donc que j'étais heureux d'avoir l'occasion de parler un peu avec Douglas Hofstadter (je l'avais déjà rencontré, début 2002, à l'occasion d'un cycle de conférences qu'il était venu donner à l'École polytechnique, mais j'avais peu eu l'occasion de discuter avec lui). Nous avons parlé de toutes sortes de choses, entre les livres que Hofstadter a sur la planche (trois en ce moment), les écritures indiennes[#2] (et Unicode), les ambigrammes, les fugues graphiques, la théorie de Galois (et la manière de la rendre visuelle), les rues Galois et Monge à Paris, la fondation de l'ENS, la futurologie (et la singularité) et, naturellement, les mécanismes de la pensée et l'intelligence artificielle.

La question de base de l'intelligence artificielle serait sans doute celle-ci : Est-il possible de faire une machine qui pense ? Pour éviter de sombrer dans de la philosophie vaseuse, on peut définir machine — conformément à la thèse de Church-Turing — comme n'importe quelle des définitions d'algorithme équivalente à la machine de Turing, et penser comme être capable de passer le test de Turing[#3] ; ceci a le mérite de donner à la question un sens assez précis : on peut ensuite la diviser en un sens abstrait (est-il théoriquement possible de programmer une machine pour répondre à un test de Turing ?) et un sens concret (peut-on effectivement et concrètement réaliser ce programme ?). Je tiens à la distinction car j'ai une croyance assez différente pour ces deux questions : j'ai tendance à penser que la première question a pour réponse évidemment oui, je ne vois pas ce qu'il y aurait de remarquable au cerveau humain qui ne serait pas théoriquement simulable par un ordinateur assez puissant[#4]. Pour la seconde, en revanche, je suis très sceptique quant à notre possibilité d'y arriver un jour[#5] : et, bizarrement, je ne pense pas tellement que ce soit un problème de puissance de calcul, mais plutôt de possibilité programmation. Disons qu'il existe très grossièrement deux approches a priori pour l'intelligence artificielle : l'une cherche à reproduire l'intelligence humaine par une agrégation de méthodes ad hoc pour résoudre différentes tâches, une autre cherche à utiliser des mécanismes génériques et éventuellement proches de ceux du cerveau humain (comme des réseaux de neurones) ; j'ai tendance à croire que la première piste ne peut pas aboutir (on ne peut pas découper la pensée humaine en un nombre important de tâches simples, même avec des interactions entre elles, chacune résolues par des techniques spécifiques), et que la seconde nécessite un apprentissage qui, in fine, ne peut pas se faire autrement ou plus rapidement qu'en mettant la machine (le robot, si on veut) dans un environnement complètement humain, ce qui, au bout du compte, donne quelque chose de complètement humain, donc pas forcément très intéressant (dépenser des milliards de dollars pour réaliser un ordinateur qui pensera comme un humain et pas mieux, bof). En résumé : pour atteindre une intelligence sur-humaine, l'intelligence étant définie comme une certaine capacité de reconnaissance de motifs, il faudrait arriver à produire un ensemble de motifs susceptibles de permettre l'apprentissage à un niveau sur-humain, et pour cela il faut, justement, une intelligence sur-humaine, donc on ne s'en sort pas. Je conviens que mon raisonnement est très approximatif et très douteux (mais personne n'est capable de répondre autrement à ces questions, de toute manière), il faut plutôt le comprendre comme une réaction instinctive que comme une pensée structurée. Peut-être que cette réaction instinctive est une forme de peur, d'ailleurs, ou de regret : Hofstadter nous a dit hier soir qu'il trouverait certainement dommage que le cerveau humain, résultat de millions d'années d'évolution, puisse être dépassé en quelques décennies de technologie. (Là aussi, c'est un jugement plus instinctif qu'autre chose. Après tout, notre technologie nous dépasse largement pour ce qui est, disons, de la force physique… mais à l'intelligence est associée la notion de conscience et de liberté, c'est sans doute ce qui fait peur dans l'intelligence artificielle. En tout cas, il est certain que des gens ont eu du mal à admettre qu'un ordinateur puisse battre les humains aux échecs — lesquels, pourtant, ont fort peu de rapport avec l'intelligence.)

A-t-on vraiment fait des progrès en intelligence artificielle (je veux dire, sur le(s) problème(s) de fond, pas sur des applications un peu gadget) depuis l'invention de cette science ? Je n'en suis pas complètement convaincu, et Hofstadter lui-même nous avouait être incertain.

Mais cela n'empêche pas certains futurologues de prédire la venue de la singularité, et même de la prédire pour bientôt (parfois avec une précision extrême : 2049, nous disent certains… c'est assez absurde). Je pourrais en dire un peu plus, mais je crois avoir assez ranté pour aujourd'hui.

[#] Si je me rappelle bien, j'ai d'abord lu un livre de Roger Penrose sur des thèmes proches (et sans doute écrit, d'ailleurs, en quelque sorte en réponse à Gödel, Escher, Bach) : apprenant que je venais de le finir et que j'aimais par ailleurs beaucoup les dessins d'Escher, un collègue de mon père (qui nous hébergeait à Aspen) m'a conseillé GEB. Bien lui en a pris.

[#2] Le restaurant où nous dînions était un restaurant indien, le Yugaraj (14 rue Dauphine, Paris 6e), que je recommande d'ailleurs (même s'il est un peu cher). Leur enseigne est formée de leur nom écrit en caractères latins mais de façon à imiter une écriture indienne : voilà un thème très « hofstadterien ».

[#3] On remarquera que le nom de Turing revient assez souvent. ☺️ Vu qu'il est en quelque sorte à la fois l'inventeur de l'informatique et de l'idée d'intelligence artificielle (même si ce sont des gens comme Minsky, McCarthy, Simon et Newell, plus tard, qui en sont les pionniers), ce n'est pas vraiment surprenant.

[#4] Puisque je parle de la question complètement abstraite, je pourrais aller jusqu'à demander, si la réponse est non (i.e., une machine de Turing ne peut pas passer le test de Turing), quels sont les degrés de Turing minimaux pour lesquels une machine avec oracle le peut (après tout, il est certain qu'il existe des oracles qui permettent de passer le test de Turing)… et sous cette forme la question devient tellement absurde que je ne peux pas imaginer une autre réponse que zéro (c'est-à-dire qu'il n'y a pas besoin d'oracle).

[#5] Un jour signifiant avant une apocalypse quelconque.

↑Entry #1331 [older| permalink|newer] / ↑Entrée #1331 [précédente| permalien|suivante] ↑

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]