<foo>
simply produces <foo>in the text).
<URL: http://somewhere.tld/ >
,
and it will be automatically made into a link.
(Do not try any other way or it might count as an attempt to spam.)mailto:
URI,
e.g. mailto:my.email@somewhere.tld
,
if you do not have a genuine Web site).
Ruxor (2019-02-08T13:47:26Z)
@vicnent: J'avais complètement oublié ce texte… Il faudra que je le relise un peu plus attentivement. Mais sommairement, je dirais que ce qu'on a appris entre temps, c'est qu'on arrive très bien à faire du machine learning, mais aussi que le machine learning a des limitations qui ne seront pas faciles à contourner (soit que la tâche soit intrinsèquement difficile à « apprentissager » — pardon pour le néologisme —, peut-être même aussi difficile que de résoudre le problème directement, soit, de façon plus subtile, que cette approche ouvre la voie à des attaques inattendues lorsqu'on est dans un environnement adversarial). Au final, je ne sais pas si grand-chose à changé, ni si on a fait le moindre progrès en « intelligence » artificielle (à la limite, on a plutôt cherché à viser la stupidité que l'intelligence, parce qu'on y arrive mieux).
vicnent (2019-02-08T10:52:17Z)
Et donc, 12 ans plus tard ? Quand on voit les progrès et/ou les tendances de ce début 2019 en terme d'IA (texte écrit à la mi 2006) : tu changerais quoi ?
Fork (2009-06-06T19:27:49Z)
En tout cas, l'IA est un domaine qui a du succès chez les jeunes. La plupart des gens que je connais qui disent vouloir faire de la recherche en info~ plus tard parlent d'en faire en IA.
Autre touriste (2009-06-06T09:38:16Z)
Très en retard : Elizer Yudkowsky <URL: http://yudkowsky.net/ > dit que ces deux approches, qui ont effectivement échoué en leur temps, sont ce qu'on sert au Grand Public et aux néophytes de la discipline, et que c'est ennuyeux pour ceux qui essaient de nouvelles approches. 'People who don't work in AI, who hear that I work in AI, often ask me: "Do you build neural networks or expert systems?" This is said in much the same tones as "Are you a good witch or a bad witch?"' Apparemment, le nouveau grand espoir de l'intelligence artificielle est le réseau bayésien (whatever that may be).
Ruxor (2006-08-27T16:48:14Z)
Oui. Je lui ai d'ailleurs dit que c'est moi qui avais eu la mauvaise idée, en 2002, de l'inviter à ce restaurant, et que j'avais voulu réparer ce coup cette fois-ci.
Submarine (2006-08-27T14:37:52Z)
Ah, tiens, ce coup-ci, tu as réussi à aller avec Hofstadter au Yugaraj avant qu'il ne ferme?
bidibulle (2006-08-02T09:57:54Z)
Diner avec Hofstader… La classe absolue!
Mister Geek (2006-07-31T11:54:39Z)
Bah ! Dans quelques décennies on te greffera une nano-puce dans le cerveau qui te permettra de télécommander ton super-ordinateur et tu seras alors un vrai Geek …
gratyn (2006-07-29T23:57:55Z)
Il est en fait probable que l'homme trouvera de nouveaux moyens informatiques pour gagner de l'argent. Comme par exemple, rendre la motricité aux handicapés, rendre la vue aux aveugles, construire des machines qui déchargent plus rapidement les conténaires des ports, empêcher les accidents de voitures, conduire tout seul une voiture (ou l'engin de locomotion de l'époque où ça arrivera), comprendre des instructions plus ou moins evoluées en language humain, reconnaître les personnes qui donnent les instructions, prévoir les activités humaines dangeureuses, les empêcher, etc…
A ce moment-là une A.I. émergera peut-être sans même que l'on s'en rende compte. Et comme on ne pourra plus s'en passer, elle continuera son évolution au fur à mesure des nouveaux besoins humains. Puis choisira probablement un jour d'évoluer toute seule de son coté.
Je crois donc que c'est la voie de l'agrégation progressive des méthodes informatiques (éventuellement combiné pour chaque sous-étape aux mécanismes génériques de type réseau de neurones) qui créera *peut-être* les A.I. (si les humains ne se sont pas auto-détruits d'ici là).
phi (2006-07-27T23:32:40Z)
"un ordinateur qui pensera comme un humain et pas mieux, bof"
si on arrive à en faire autant avec un ordinateur, alors on pourra en faire plus, càd plus vite et plus grand, même si peut-être "pas mieux"; c'est déjà très intéressant car les Indiens aptes comme coprocesseur ne sont pas infiniment nombreux. Et donc, on peut espérer accélrer l'évolution et qu'il ne faudra pas attendre des millions d'années pour obtenir un saut qualitatif.
Par contre, "la consciences ou de l'intuition ou de la sensation", c'est ce qu'on appelle un bug, non? (resp. "illegal access" (to a pgm segment as data), "unhandled exception", interference physique). Ah, au fait, attention à ne pas confondre le phnéomène et la description de sa cause physique. Non, je ne vais rien dire; Ruxor va bientôt tout nous révéler.
ln (2006-07-27T21:14:33Z)
J'imagine que toute personne intéressée par l'informatique, les quine, les virus, etc, rêve de manger avec Douglas Hofstadter, alors j'espère que t'en as bien profité (et lui aussi) et que vont en résulter des nouveautés sur la partie *site* du site (par opposition à la partie weblog).
"dépenser des milliards de dollars pour réaliser un ordinateur qui pensera comme un humain et pas mieux, bof" -> sûr ?
ooten (2006-07-27T17:56:49Z)
Tu vas trop vite Vicnent, aujourd'hui encore il n'est pas dit qu'un jour on pourra doter une "machine" et à fortiori nos ordinateurs de conscience, qui ne sont encore qu'un assemblage de circuits combinatoires et sequenciels booleens dans lesquels passent des impulsions électriques.
Si effectivement l'ordinateur nous permet de simuler intensivement cetains processus mentaux tels que le calculs,la mémoire et la transmission d'informations, pourrons-nous y simuler de la consciences ou de l'intuition ou de la sensation ou que sais-je ?
Anonymous Coward (2006-07-27T10:14:24Z)
La singularité c'est pas pour demain.
Désormais fort avisés, nous sommes très loin de mettre nos meilleurs éléments à faire progresser l'intelligence artificielle. C'est le genre d'erreur que l'on faisait jusqu'aux années 50, mais maintenant on a bien saisi le danger !
Je suis donc fort confiant sur notre capacité à éviter le pire.
phi (2006-07-27T07:01:09Z)
PS: Aïe, c'est bien 'Turing' <URL: http://en.wikipedia.org/wiki/Alan_Turing>, anglais pure souche.
Zéro Janvier (2006-07-26T22:44:15Z)
Un texte très intéressant, merci pour ce début de réflexion sur l'intelligence artificielle.
Eric C. (2006-07-26T21:22:55Z)
"Est-il possible de faire une machine qui pense ?"
La construction de la pensée, dans les machines dites à intelligence artificielle, passe souvent par une imitation du fonctionnement du cerveau humain. Or l'important dans l'art de l'imitation c'est de savoir saisir l'intention. Y a-t-il des machines qui en soient aujourd'hui capables ? Y en aura-t-il un jour ?
Vicnent (2006-07-26T20:49:39Z)
Quelle chance d'avoir pu manger et discuter avec un tel Monsieur !! Mais où est le podcast ??!!
Reste que je ne suis en gros pas du tout d'accord avec toi sur tes deux définitions : se limiter à croire que "penser est passer le test de turing", et croire également que "l'intelligence n'est que la capacité à reconnaitre des motifs" manque de saveur, de vision, nous enferme dans un mode beaucoup trop anthropologique et devient forcément réducteur.
Mais ici n'est pas le lieu de démarrer un long échange à la Platon.
Reste que quand IBM (plus gros déposeur de brevet au monde depuis 13 ans) nous annonce des puces à 500 GHz pour dans deux ans dans le commerce, reste que quand on est un peu visionnaire (il suffit d'être un peu fou, le reste n'est qu'une question de temps), reste que quand on prend un peu de recul (les sciences il y a 20 ans, 100 ans, 500 ans)… on (je !) me dit que lorsque les Machines auront conscience de leur propre existence, alors, alors ce jour là, on sera dans la merde.
Et ça peut paraitre bête, mais il m'arrive parfois de penser (avec un certain effroi) que tout cela pourrait se dérouler à "la terminator" : un déclic, un jour, où tout bascule. Les Machines qui se mettent à penser (SGBD, inférence, modification des buts, développement de la notion de plaisir, puis des émotions), le lendemain, se rendant compte que l'humain leur est nuisible. Bigre…
Mais il me plait à penser que ce qui pourrait nous sauver, c'est la conscience d'une machine de sa propre immortalité. Et de fait, ça réglerait bien des problèmes.
jonas (2006-07-26T20:34:51Z)
Oh, I'm so jelous. From how you list the different topics you talked about, it must have been quite a long chat.
phi (2006-07-26T19:57:52Z)
Pour éviter de sombrer dans de l'informatique oiseuse, ou d'en appeler à des conjectures non indubitables, il faudrait appeler machine ce que l'homme fabrique entièrement (enfin, à partir des molécules simples) ce qui exclurait de partir de matériaux biologiques dont le mécansime serait inconnu et dans lesquels pourrait se cacher de l'intelligence naturelle (c'est une denrée fort rare sur Terre, mais on ne sait jamais). La première opposition à l'intelligence artificielle est en effet d'ordre métaphysique (voire théologique), cad que l'homme ne se réduit pas aux atomes qui le constituent à un instant donné.
Si on se restreint aux machines de Türing, il semble effectivement crédible qu'on peut programmer une machine pour qu'elle se rapproche indéfiniment du comportement humain et fasse illusion dans des situations de plus en plus variées, mais il y a peut-être un problème d'uniformité de la convergence. Mais il n'est pas évident qu'on puisse introduire des structure de données toujours plus générales qui permettent de le maintenir sa taille dans certaines limites qui rendent sa réalisation possible. C'est un problème bien connu dans la formation des bureaucrates.
Le test de Türing est d'abord un test de compréhension du langage naturel; les machines en sont encore très en déçà. Mais heureusement, comme les machines progressent et que les humains régressent (sur ce plan, au moins), la machine dépassera peut-être l'homme plus tôt qu'on n'aurait pu l'imaginer. À moins que les machines intelligentes ne soient victimes, elles aussi, des extrémistes naturofétichistes .