David Madore's WebLog

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., celle écrite en dernier est en haut). Cette page-ci rassemble les dernières 20 entrées (avec un lien, à la fin, pour les plus anciennes) : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the latest written is on top). This page lists the 20 latest (with a link, at the end, to older entries): there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Latest entries / Dernières entrées publiées:

↓Entry #2741 [older| permalink|newer] / ↓Entrée #2741 [précédente| permalien|suivante] ↓

(mardi)

Réflexions sur l'IA et ChatGPT

Table des matières

Introduction

Ça fait un moment que je résiste à l'idée d'écrire un billet de blog sur l'intelligence artificielle en général, et sur ChatGPT en particulier (notamment au motif que je suis largement ignorant du sujet, cf. ci-dessous), mais à force d'en discuter avec toutes sortes de gens (des amis, des contacts sur Twitter, ma famille au réveillon de Noël), j'ai fini par essentiellement écrire cette entrée dans ma tête à reculons (hum, désolé pour les métaphores qui s'entrechoquent) et il faut bien que je dumpe tout ça ici pour pouvoir oublier ensuite. (Honnêtement, c'est comme ça que beaucoup des entrées de ce blog s'écrivent, mais il y en a qui sont plus à reculons que d'autres.) Si vous n'avez aucune idée de quoi je parle (c'est quoi ça, ChatGPT ?), ce sera expliqué plus bas.

☞ Avertissement sur mon incompétence

Le premier avertissement que je dois mettre, donc, c'est que je ne m'y connais pas spécialement. Pas que ce soit inhabituel (après tout, c'est bien un thème général de ce blog que je pontifie sur des sujets sur lesquels je ne suis pas spécialement compétent), mais disons que je pourrais risquer de faire illusion — or c'est justement un des messages de ce billet que les illusions sont possiblement dangereuses. Je me suis renseigné très minimalement sur quelques unes des techniques de l'IA, mais je n'ai ni le temps ni la motivation pour approfondir : comme je vais le dire plus loin, j'ai une relation d'intérêt-désintérêt (← comprendre ce mot un peu comme haine-amour) pour l'IA, et en l'occurrence, quand il s'agit de comprendre les notations mathématiques pourries et le jargon technique-mais-pas-très-profond utilisé dans beaucoup d'articles sur le sujet, ça me soûle assez vite.

☞ ChatGPT par lui-même

J'aurais pu essayer de faire rédiger cette entrée par ChatGPT lui-même, ça aurait été une blague assez méta (quoique pas très originale), mais honnêtement, le résultat n'est pas terrible du tout :

Ruxor:

Écris une entrée de blog dans le style de David Madore qui parle de l'intelligence artificielle et de ChatGPT en particulier

ChatGPT:

L'intelligence artificielle est un domaine fascinant qui a le potentiel de changer notre vie de manière significative. Avec l'arrivée de modèles de langage de plus en plus puissants comme ChatGPT, nous sommes en mesure de créer des systèmes capables de comprendre et de générer du langage de manière approfondie.

ChatGPT est un modèle de langage de pointe qui a été entraîné sur un corpus de textes considérable. Grâce à cet entraînement, il est capable de comprendre le sens des mots et des phrases, ainsi que de générer du texte qui a l'air naturel et fluide. Cela le rend particulièrement utile pour les tâches de chatbot, où il peut aider à répondre à des questions et à initier des conversations de manière convaincante.

En plus de ses utilisations dans les chatbots, ChatGPT peut également être utilisé pour des tâches telles que la traduction automatique, la résumé de texte et la génération de contenu. Sa capacité à comprendre et à générer du langage de manière approfondie en fait un outil précieux pour les entreprises et les organisations qui cherchent à automatiser certaines de leurs tâches de traitement du langage.

En fin de compte, l'intelligence artificielle est un domaine en constante évolution et ChatGPT est un exemple de la façon dont ces avancées peuvent être utilisées de manière pratique et bénéfique. Alors que nous continuons à explorer les possibilités de l'IA, il est important de rester conscients de ses limites et de s'assurer que son utilisation est éthique et respectueuse de la vie privée.

☞ De quoi je vais parler

— Non, désolé, cette lavasse de publireportage ne passera pas du tout pour le style de David Madore, j'espère qu'aucun de mes lecteurs ne croirait que j'ai écrit ça : c'est beaucoup trop court. Donc vous allez subir ma stupidité naturelle étalée sur plein de pages à la place de, et sur le sujet de, l'intelligence artificielle.

Je vais commencer par des réflexions générales et semi-philosophiques sur l'IA (notamment son histoire et ses dangers possibles), et ensuite parler un peu plus spécifiquement de ChatGPT.

Réflexions sur l'IA en général, son passé et son avenir

Une toute petite histoire ultra-simplifiée de l'IA

☞ Un texte fondateur d'Alan Turing

Pour expliquer ma relation que je qualifie d'intérêt-désintérêt pour l'intelligence artificielle, je devrais sans doute commencer par la vulgarisation scientifique qui a alimenté mon propre intérêt pour la science : j'en avais déjà dit un mot ici, mais deux des livres qui m'ont énormément marqué quand j'étais ado sont The Emperor's New Mind de Roger Penrose et Gödel, Escher, Bach de Douglas Hofstadter (auquel le livre de Penrose est plus ou moins une réponse ; mais j'ai lu le livre de Hofstadter après, on me l'a conseillé justement parce que j'avais apprécié celui de Penrose). Ces deux livres parlent d'un peu tout et n'importe quoi (j'ai appris ce qu'était une machine de Turing dans le livre de Penrose, et j'ai appris la logique du premier ordre dans le livre de Hofstadter), je vais y revenir ci-dessous. Mais à la base il s'agit d'opinions dans un débat sur l'intelligence artificielle et la question de si les machines peuvent penser qui a commencé dès 1950 avec un article fondateur d'Alan Turing lui-même (un des pères fondateurs de l'informatique, s'il est encore besoin de le présenter), Computer Machinery and Intelligence (Mind 236 (1950) 433–460) où il pose la question can machines think? et y apporte quelques réflexions. Ce texte vaut la peine d'être lu encore maintenant (le lien précédent amène au texte complet en accès libre), c'est là qu'est apparu le concept de « test de Turing ».

J'espère ne pas trop caricaturer en résumant de façon simpliste, mais Turing propose d'abandonner comme dénuée de sens la question de savoir si les machines peuvent « penser », et de la remplacer par un test pratique dans lequel un examinateur humain essaie d'identifier qui est qui entre deux participants candidats, l'un humain et l'autre ordinateur, qui chacun essaient de le convaincre (l'examinateur) qu'ils sont humains, à travers des questions-réponses posées par écrit et, bien sûr, à l'aveugle. Différentes versions ou variations de ce test (souvent avec un seul candidat) ont été proposées, et portent le nom général de test de Turing. Turing tient l'opinion qu'il n'y a rien qui empêche fondamentalement un ordinateur de réussir ce test, il défend sa position par l'universalité des ordinateurs pour les calculs discrets (ce qu'on a tendance à appeler maintenant une forme de la thèse de Church-Turing), et il répond à différentes objections ; objections qui, honnêtement, ne me semblent pas très intéressantes : les réponses de Turing sont très pertinentes, mais je ne suis pas sûr qu'il ait choisi les arguments les plus pertinents pour y répondre, même si, évidemment en 1950, le débat sur l'intelligence artificielle n'était pas très avancé.

D'autres réflexions très précoces sur l'intelligence artificielle ont été apportées notamment par John von Neumann (autre père fondateur de l'informatique, et beaucoup plus sceptique que Turing quant à l'IA, notamment dans son livre The Computer and the Brain publié de façon posthume en 1958), mais surtout le groupe de travail de Dartmouth en 1956 avec notamment John McCarthy (inventeur du langage LISP), Marvin Minsky, et entre autres guest stars Claude Shannon (père de la théorie de l'information) et Nathaniel Rochester (architecte en chef de la série 700 chez IBM). Bien sûr, on pourrait aussi mentionner l'apport d'autres penseurs, par exemple les écrivains de SF comme Isaac Asimov (même si ce dernier semble s'être plutôt préoccupé des questions éthiques autour de l'intelligence artificielle que du pourquoi et du comment).

☞ Les trois grandes périodes de l'IA

Mon propos n'est pas de faire l'histoire de l'intelligence artificielle. Mais disons juste que, de façon très sommaire — et de ce que je comprends — il y a eu trois phases (séparées par deux hivers) correspondant à trois approches très différentes du sujet :

  • Une première phase du milieu des années 1950 au milieu des années 1970, avec une approche qu'on pourrait qualifier de structurée ou symbolique : on essaie de découper les problèmes en problèmes plus simples qu'on approche de façon systématique. Dans le domaine du langage, par exemple, on va essayer de programmer des concepts grammaticaux, des structures syntaxiques, etc., et d'utiliser la logique mathématique comme sauce pour lier le tout. Il est naturel d'utiliser pour ça des langages de programmation de haut niveau comme le LISP qui permettent de représenter des données hautement structurées, et de chercher des liens avec, par exemple, la linguistique formelle, la logique, les systèmes de réécriture. Disons que cette approche essaie d'écrire de façon intelligente des programmes intelligents : le programmeur sait comment le programme fonctionnera. (On se rend assez vite compte que cette approche symbolique marchera assez mal pour la reconnaissance d'images, mais on a pu garder un espoir pour le traitement du langage.)
  • Une deuxième phase dans les années 1980, caractérisée par l'intérêt autour des systèmes experts, des systèmes de représentation d'information capables de mener ensuite des raisonnements par inférence (induction/déduction), et qui ont eu un certain intérêt par exemple dans la recherche de diagnostics. (En médecine, l'idée pourrait être d'avoir une grande base de données de maladies et de leurs symptômes, le système expert va poser des questions sur la présence ou non de tel ou tel symptôme, recevoir des réponses de type oui / non / ne-sait-pas ou éventuellement des choses comme peut-être associés à une probabilité estimée, il va poser les questions qui permettent de restreindre le plus efficacement les possibilités, et finalement proposer son diagnostic ou ses diagnostics associés à des probabilités.) Par rapport à la phase précédente, l'évolution est donc vers un code (programme) moins sophistiqué compensé par plus de données, et aussi l'idée que les données sont potentiellement floues (associées à des probabilités ou incertitudes via ce qu'on a appelé la logique floue).
  • Une troisième phase, depuis les années 2010, caractérisée par le buzzword deep learning (éventuellement associé à celui-ci : big data). L'idée sommaire est d'utiliser un code extrêmement simple, des variations autour du thème du réseau de neurones, une sorte d'imitation mathématique des neurones biologiques, mais auxquels on fait digérer des quantités gigantesques de données à travers un processus d'apprentissage, c'est-à-dire qu'on fait évoluer le réseau de neurones pour se rapprocher de la sortie qu'on veut lui faire produire pour une entrée donnée. Donc, de nouveau, une évolution vers un code (programme) moins sophistiqué compensé par plus de données.

L'idée de mon résumé (sans doute caricaturalement simple, et peut-être en bonne partie faux) est donc que, plus le temps passe, plus on abandonne l'idée de faire des programmes intelligents de façon intelligente, on se contente de programmes simples mais universels, des boîtes noires, auxquels on fait digérer des quantités importantes de données. C'est intellectuellement décevant, et, surtout, ça ne nous permet même pas vraiment de comprendre comment les choses fonctionnent (même s'il existe un courant d'IA explicable qui prétend pallier ces limitations) : en principe on pourrait tout à fait avoir un programme capable de raisonner exactement comme un humain, mais qui ne nous éclaire absolument pas quant au fonctionnement du cerveau humain, parce qu'il se contenterait de reproduire le fonctionnement d'un cerveau réel peut-être même au niveau physico-chimique, sans qu'on ait la moindre idée de pourquoi ou comment « ça marche ».

Il reste vrai que le code utilisé en intelligence artificielle n'est pas encore ultimement simple, et qu'il continue à y avoir des astuces spécifiques à tel ou tel domaine : l'architecture des réseaux de neurones utilisée pour le traitement d'images n'est pas la même que celle pour le traitement de texte. Mais en extrapolant la tendance, on peut peut-être imaginer un quatrième âge de l'IA où on se contentera de faire évoluer une forme de vie générique dans un environnement totalement simulé (capables de construire n'importe quel réseau de neurones ou structure de ce genre) jusqu'à ce que cette forme de vie développe elle-même l'intelligence comme elle est, après tout, apparue dans le monde réel. C'était en tout cas une idée que j'avais quand j'étais petit.

Douglas Hofstadter et Roger Penrose (et moi)

J'en reviens à Hofstadter et Penrose, et l'influence qu'ils ont eu sur ma pensée. Parce qu'à côté du développement de la discipline académique qu'est l'IA au sens strict, qui cherche à construire des programmes capables de réaliser des tâches que nous aurions tendance à qualifier de nécessitant de l'intelligence (comme converser avec un humain), il y a aussi les interactions de cette discipline avec, disons, la philosophie et les sciences cognitives, autour de questions comme : qu'est-ce que la pensée ? qu'est-ce que l'intelligence ? qu'est-ce que la conscience ? comment ces phénomènes émergent-ils des lois de la physique ? et y a-t-il une différence ontologique entre un cerveau humain et un ordinateur ?

(Bon, tout ça est honnêtement une digression dans une entrée déjà trop longue, donc vous pouvez sauter quelques pages où je ne résiste pas à la tentation de parler un peu de ma vie.)

☞ Gödel, Escher, Bach

Le livre Gödel, Escher, Bach de Douglas Hofstadter (dont le sous-titre est les brins d'une guirlande éternelle et un slogan d'éditeur ou description de critique est une métaphorique fugue sur les esprits et les machines dans l'esprit de Lewis Carroll), publié en 1979, est… un peu difficile à décrire, parce qu'il y est question de la Vie, de l'Univers, et de tout le Reste. C'est à la fois une œuvre littéraire oulipienne qui, je pense, peut être comparée à Georges Perec ou Italo Calvino, et un essai de vulgarisation sur toutes sortes de sujets allant de la logique mathématique (K. Gödel) à l'art graphique (M. C. Escher) et à la musique (J. S. Bach) en passant par la biologie moléculaire et la philosophie zen : les deux côtés sont représentés par une alternance de dialogues entre Achille et la Tortue (les personnages du célèbre paradoxe de Zénon d'Élée, qui avaient déjà été repris par Lewis Carroll), et des chapitres « sérieux » développant les idées esquissées sous forme métaphorique et souvent humoristique dans les dialogues. (Qui plus est, les dialogues sont eux-mêmes écrits dans une forme rappelant des œuvres de Bach, et se déroulent parfois au sein d'un tableau d'Escher, ce qui mérite largement que je qualifie ce livre d'oulipien.) Disons aussi qu'une des idées centrales du livre est le concept d'auto-référence et toutes ses variations (la mise en abyme dans les œuvres d'Escher, le rappel des thèmes musicaux dans les œuvres de Bach, l'idée centrale de l'argument diagonal dans la démonstration du théorème de Gödel, la manière dont l'ADN et la cellule vivante se génèrent mutuellement, et bien sûr le livre de Hofstadter fait référence à lui-même de façon détournée en parlant d'un autre livre, imaginaire, d'un certain Egbert B. Gebstadter). Une autre idée centrale est le jeu entre le holisme (l'idée que certains phénomènes ne peuvent se comprendre qu'en bloc et pas en regardant leurs parties constituantes) et le réductionnisme (l'idée qu'on peut comprendre un phénomène en en comprenant ses parties).

Bref, si ces sujets vous intéressent, lisez-le (et vous pouvez même le lire en traduction française, parce que cette traduction est une réussite remarquable, l'auteur — parfaitement francophone — ayant participé à sa relecture).

Ce livre (que j'ai dû lire vers 15 ans) a joué un rôle immense dans mon éveil scientifique, notamment mon intérêt pour la logique mathématique, et certainement mon éclectisme et (ma propre version de) la philosophie zen. Mais de façon plus générale, je pense qu'il a eu énormément d'influence sur les nerds d'approximativement ma génération, ne serait-ce que dans leurs private jokes. (Hofstadter a son fan-club, ce qui l'embarrasse d'ailleurs un peu, dont je suppose que je fais partie ; c'est intéressant, parce que le personnage — avec qui j'ai eu l'occasion de discuter deux ou trois fois — est beaucoup moins nerdy que ce que ses livres ou ses fans peuvent laisser penser.)

Bon, mais quel rapport avec l'intelligence artificielle ? C'est que Hofstadter reprend, développe et brode autour les arguments de Turing dans l'essai mentionné plus haut : la question de savoir si les machines peuvent penser (et de ce que ça veut dire, et de ce que sont la conscience et l'intelligence) est une des questions centrales de ce livre, et plus encore d'autres livres qu'il a écrit ultérieurement (comme The Mind's I), et le sujet de recherche de l'auteur tourne autour des sciences cognitives et de l'IA. Il écrit Gödel, Escher, Bach à la fin de ce que j'ai qualifié de premier âge de l'IA (ou au début du premier « hiver »), et certainement ses idées sont empreintes des concepts populaires de ce premier âge (comme l'importance donnée à la logique mathématique), mais son propos est plus général : comme Turing, Hofstadter semble convaincu que l'intelligence n'a rien de transcendante, et qu'il n'y a aucune raison fondamentale — même s'il peut y avoir des raisons pratiques — pour laquelle un ordinateur ne pourrait pas faire tout ce que peut faire un cerveau humain.

☞ The Emperor's New Mind

Mais peut-être que Gödel, Escher, Bach s'apprécie mieux en relation avec le livre The Emperor's New Mind de Roger Penrose, publié en 1989, soit 10 ans après celui de Hofstadter, mais que j'ai moi-même lu avant (on a dû me l'offrir quand il est sorti en softcover). Manifestement, c'est une forme de réponse à Hofstadter que veut faire Penrose, et il y a quelque chose d'analogue dans la forme, c'est-à-dire qu'il parle de tout, de la machine de Turing et le théorème de Gödel à l'ensemble de Mandelbrot en passant par le concept physique d'entropie (je crois que c'est là-dedans que j'ai appris toutes ces choses pour la première fois), et Roger Penrose est non seulement un très grand scientifique (il a gagné le prix Nobel de physique mais à vrai dire je le considère plutôt comme un matheux), mais aussi un vulgarisateur hors de pair, même s'il n'a pas l'humour de Hofstadter ni son goût pour la composition oulipienne et autoréférente. Bref, c'est un livre tout à fait remarquable, mais je dois dire que je considère sa thèse centrale comme fausse et honnêtement assez farfelue. Mais ça vaut la peine d'en dire un mot, parce que Penrose est un grand nom parmi les sceptiques de l'IA.

Penrose, donc, défend l'idée que la conscience humaine (ou l'intelligence humaine ? ce n'est pas parfaitement clair) n'est pas simulable par un ordinateur : il ne dit pas ça comme une croyance religieuse (même si on peut trouver que ça en a un peu le caractère) mais comme une affirmation scientifiquement précise (et possiblement falsifiable) : d'après Penrose, le cerveau humain fonctionne grâce à des phénomènes irréductiblement quantiques, et dépasse la puissance théorique d'une machine de Turing, c'est-à-dire, n'est pas simulable même en théorie par un ordinateur. Il prétend même — quoique peut-être pas dans ce livre-là — identifier précisément quelle partie de l'anatomie cellulaire fait intervenir des phénomènes quantiques de façon essentielle : les microtubules des neurones. Je trouve que ça fait très glande pinéale de Descartes — l'endroit où ce dernier croyait que l'âme interagissait avec le corps —, et en tout cas même si des phénomènes quantiques sont possiblement importants pour expliquer le comportement des microtubules, il n'y a pas spécialement de raison de penser qu'ils jouent un rôle essentiel dans la conscience, d'autant que les neurones humains ne sont pas les seules cellules eukaryotes à en avoir. Et par ailleurs, même si des phénomènes quantiques jouaient effectivement un rôle important dans l'émergence de la conscience humaine, le consensus scientifique est qu'un ordinateur quantique est plus rapide qu'un ordinateur classique, pour certains (nombreux) types de problèmes, mais pas fondamentalement plus puissant : il reste simulable sur une machine de Turing. Penrose a certainement une réponse à tout ça, j'avoue que je ne sais plus bien et je n'ai plus le livre sous la main, mais je ne veux pas trop entrer dans les détails.

Un autre argument qu'utilise Penrose, et qui me convainc encore moins, a un rapport avec le théorème de Gödel, il avait déjà été utilisé avant Penrose par le philosophe John Lucas, et très proche de l'objection devancée par Turing (dans la sous-partie The Mathematical Objection) dans l'article lié ci-dessus, et il s'agit de dire quelque chose comme le fait que les façons d'arriver à la vérité mathématique utilisées par un ordinateur, donc d'une machine de Turing, sont limitées par différents théorèmes d'impossibilité (de Gödel, de Turing, etc.), tandis que l'humain arrive à dépasser ces théorèmes puisque l'humain « voit » que l'énoncé formulé par le théorème de Gödel est vrai (ou que la machine de Turing construit par le théorème de l'arrêt de Turing ne s'arrête pas) : sous cette forme, l'argument me semble carrément bidon (c'est juste une question d'aller une étape plus loin dans le raisonnement et on finit par tomber sur un paradoxe de qui peut dire le plus grand ordinal), mais je ne rentre pas dans les détails parce que d'autres ont déjà fait plein de réponses à cet argument (notamment Turing lui-même, et Hofstadter), et je ne suis de toute façon pas sûr d'avoir bien compris ce que cherche à dire Penrose, qui est certainement plus subtil que l'ordinateur est soumis au théorème de Gödel, l'humain non, échec et mat l'IA.

☞ Mes propres positions sur l'IA

Bref. Ce que je cherchais surtout à dire, c'est que mon intérêt pour la science, et pour beaucoup de concepts précis, est venu en bonne partie de livres de vulgarisation scientifique directement liés aux questions (au moins philosophiques) tournant autour de l'intelligence artificielle. Et donc j'ai été amené à me poser ces questions dès que j'étais ado (et à jouer à toutes sortes de choses à mon niveau sur ordinateur : faire des générateurs de phrases aléatoires sur des structures de langage façon premier-âge-de-l'IA, mais aussi essayer de programmer des réseaux de neurones et voir si j'arrivais à leur apprendre des choses, et même, des simulations d'organismes vivants dont j'espérais vaguement qu'ils deviendraient intelligents, et — spoiler — ce n'est pas arrivé).

Je suis arrivé progressivement à la position suivante sur l'intelligence artificielle et sa réalisabilité théorique :

  • Je ne vois aucune raison de penser que l'intelligence ou la conscience humaine résident ailleurs que dans son cerveau, ou en tout cas, dans son corps, ni que ceux-ci échappent aux lois usuelles de la physique. Même si des phénomènes quantiques y participent de façon essentielle (ce qui me semble peu crédible), ces lois de la physique restent calculables avec une précision arbitraire sur un ordinateur suffisamment puissant et ne dépassent pas la puissance théorique d'une machine de Turing.
  • Notamment, il me semble clair qu'on pourrait en principe réaliser un ordinateur qui simule si précisément le fonctionnement d'un cerveau ou d'un corps humain que cette simulation soit aussi intelligente (ou consciente, whatever that may mean) que l'est l'humain simulé. (Et il n'y a pas non plus d'objection à permettre à la simulation de communiquer avec le monde extérieur par une interface ad hoc.)
  • Donc (selon moi) il ne peut pas y avoir d'objection théorique fondamentale à l'existence d'une IA aussi intelligente ou consciente qu'un humain. Ni même, bien sûr, considérablement plus rapide. (A contrario, on ne peut pas non plus avoir de raison de croire qu'il existe forcément moyen de faire une IA qualitativement plus intelligente que l'ordinateur, parce que l'humain peut, en principe, armé de suffisamment de temps et de patience, réaliser exactement les mêmes calculs que l'ordinateur.)
  • La question de savoir comment programmer ou concevoir l'IA n'est pas non plus un obstacle fondamental (de nouveau, au pire, on peut imaginer reproduire simplement les lois de la physique) : probablement n'importe quel système simple mais capable d'engendrer de la complexité (automate cellulaire, réseau de neurones, etc.) est capable de « porter » l'intelligence. Le côté négatif du fait que ce ne soit pas un obstacle est que ça ne nous éclairera pas non plus : à la limite, on pourrait réussir à faire des IA extraordinairement intelligentes sans que ni nous ni elles ne soyons de quelque façon que ce soit avancés sur la question de savoir ce qu'est l'intelligence ni comment elle fonctionne.
  • En revanche, même s'il ne peut pas y avoir d'obstacle théorique fondamental, il peut exister des obstacles pratiques à la réalisation d'une telle IA : par exemple, un manque de puissance de calcul, une incapacité à trouver comment réaliser la simulation, ou, de façon plus subtile, un manque de données et de temps d'entraînement.
  • Le problème de manque de puissance de calcul ne me semble pas le plus sérieux : même si le cerveau humain a beaucoup de neurones et énormément de connexions, ce ne sont pas des nombres complètement hors de portée des ordinateurs, ou disons, ils le sont si on cherche vraiment à simuler un cerveau au niveau cellulaire ou certainement au niveau moléculaire, mais il serait assez surprenant que l'évolution naturelle ait réalisé le cerveau de façon tellement parfaitement optimisée qu'on ne puisse pas faire autrement pour le simuler que le reproduire au niveau cellulaire voire moléculaire.
  • Le problème de données pour la simulation est un problème plus sérieux. Si on voulait reproduire le cerveau d'un humain précis donné, il faudrait réussir à « lire » son cerveau jusqu'au niveau cellulaire ou moléculaire, ce qui est complètement invraisemblable. Si on veut juste simuler un humain plausible, il reste à savoir comment modéliser un cerveau d'humain plausible, à un certain niveau, et il n'est pas clair qu'on puisse jamais réaliser ça en pratique même si c'est parfaitement faisable théoriquement. Et même si on arrive à réaliser une IA générique (pas forcément modéliser selon le cerveau humain), on risque de découvrir que l'intelligence humaine (et notamment celle mesurée par le test de Turing) recouvre en fait pas mal de capacité à communiquer avec les humains qui ne peut s'apprendre qu'en interagissant avec des humains, et ce qui ne peut pas se faire plus vite qu'en les décennies qu'il faut pour un humain pour grandir (parce que même si l'IA peut aller beaucoup plus vite, les interactions sont limitées par l'autre partie).

Ça c'est en gros la position que je me suis faite sur l'IA au début des années 1990, et qui n'a pas tellement évolué jusqu'à récemment, mais ChatGPT m'oblige à remettre en question la fin du dernier point. Mais je vais y revenir plus bas.

En tout cas je ne suis pas un sceptique de l'IA à un niveau fondamental, comme l'est Roger Penrose. Si je suis sceptique, c'est éventuellement au niveau de la réalisabilité pratique d'IA capables de passer le test de Turing (et je dois reconnaître que mon scepticisme a pris un gros coup ces dernières années).

La menace des IA superintelligentes ?

Maintenant il faut aussi parler de la position un peu opposée à celle de Penrose, l'idée que sont possibles non seulement des IA intelligentes, mais même des IA superintelligentes en comparaison desquelles nous serions en quelque sorte comme des fourmis par rapport à des humains, — que c'est en fait assez inévitable que de telles IA émergeront, — et que si elles émergent il est vitalement important pour la survie de l'humanité que leurs buts soient parfaitement alignés avec les buts de l'humanité (ce qui pose un problème parce que nous ne savons pas exactement définir ces derniers). Voici quelques uns des arguments que je crois avoir retenus et compris des gens qui tiennent ce type de position :

☞ La divergence de l'intelligence et ses dangers

  • Dès lors qu'on réalise une IA marginalement plus intelligente que nous, il est à la fois naturel et assez inévitable (que ce soit parce que nous voulons continuer ce progrès, ou que l'IA elle-même le voudra) de donner à l'IA la capacité de se modifier elle-même, et comme elle est plus intelligente que nous, elle se rendra encore un peu plus intelligente que nous n'avions réussi à le faire, et ceci va entraîner une boucle divergente d'intelligence jusqu'à l'intelligence maximale possible permise par les lois de la physique (ou quelque chose comme ça), en tout cas une intelligence essentiellement divine en comparaison à nous.
  • Dès lors que cette intelligence existe, elle aura un contrôle essentiellement complet sur l'humanité. Même si on imagine, par exemple, avoir tenté de la « contenir » en ne lui offrant que la capacité de communiquer à travers un terminal en mode texte, elle arrivera à manipuler les humains avec qui elle communiquera pour leur faire faire ce qu'elle veut, notamment lui donner plus de moyens d'actions sur le monde physique (p.ex., en la connectant à Internet, où ensuite elle trouvera tous les nombreux trous de sécurité de tous nos appareils connectés pour avoir un contrôle complet sur essentiellement tous nos moyens physiques, ou bien sûr en manipulant d'autres humains via les réseaux sociaux, sur tous les aspects de l'humanité). Bref, dès lors qu'une IA superintelligente existe, elle a un contrôle total sur l'humanité et en fait ce qu'elle veut.
  • Notre seul salut réside donc dans l'espoir que cette IA soit bienveillante. Le problème est que bienveillant est extrêmement difficile à définir. Même un but en apparence anodin peut conduire à l'extinction de l'humanité. L'expérience de pensée standard à ce sujet est celle du maximiseur de trombones : une société spécialisée dans la fabrication de trombones cherche à utiliser l'IA pour optimiser sa production, et réalise une IA à laquelle elle donne le but de maximiser le nombre de trombones produits, malheureusement cette IA s'avère un petit peu trop intelligente, la divergence évoquée dans les deux points précédents se produit et on a une IA toute-puissante qui contrôle totalement l'humanité et dont le seul but est de maximiser le nombre de trombones produits sur Terre, et elle calcule que les humains ne sont pas parfaitement optimisés pour la fabrication de trombones et que la meilleure façon de réaliser l'optimum de trombones passe par l'extinction de l'humanité. Cet exemple illustre qu'il n'est pas nécessaire qu'une IA superintelligente soit malveillante pour représenter une menace existentielle pour l'humanité (dans cet exemple, l'IA n'a jamais eu comme but primaire cette extinction, elle cherche juste à maximiser le nombre de trombones produits).
  • Il est évidemment illusoire de se dire qu'on va munir chaque IA d'un bouton de destruction d'urgence ou quelque chose comme ça. Si l'IA est superintelligente, elle trouvera soit le moyen d'annuler ce mécanisme d'urgence, soit de nous manipuler pour ne pas s'en servir, si son but est de ne pas être détruit. Si son but est d'être détruit, elle se détruira immédiatement. Or il est essentiellement impossible de faire en sorte que son désir d'être détruit soit parfaitement et rigoureusement nul (ne serait-ce que parce que le fait de s'auto-détruire peut se corréler avec un autre but, et qu'il faut bien que notre IA ait une sorte de fonction d'utilité).
  • De l'autre côté, chercher à aligner les buts de l'IA avec ceux de l'humanité présente la difficulté fondamentale que nous ne savons pas définir précisément ce que sont ces buts de l'humanité. L'IA superintelligente se présente alors comme un génie surgi d'une bouteille, qui va exaucer un vœu, mais qui va le faire de façon très pointilleuse, et nous ne savons pas quel vœu formuler (mais on ne peut pas juste ignorer le problème parce que sinon quelqu'un d'autre utilisera la bouteille et formulera un vœu). Même des buts comme maximiser le bonheur moyen de l'humanité (ou maximiser le bonheur de la personne la plus malheureuse) sont très risqués (l'IA risque de décider que la meilleure façon d'y arriver est de nous transformer en imbéciles heureux maintenus dans un état d'hébétude artificielle permanente, ou de nous euthanasier), et il n'est pas clair comment faire mieux.
  • Une réponse possible à ce problème d'alignement des vœux est de réaliser une IA plutôt bienveillante et plutôt intelligente (disons, plus que nous sur les deux dimensions !), et de la laisser se modifier elle-même, d'arriver à comprendre mieux que nous nos propres buts, et de se réaligner avec eux, tout en se rendant plus intelligente, et diverger ainsi vers une sorte de divinité superintelligente et bienveillante.

Voilà ce que je crois avoir compris. Je ne sais pas exactement de qui sont toutes ces idées (je les ai glanées par-ci par-là, parfois en interpolant moi-même des arguments assez évidents dans l'esprit de ce courant de pensée). Il y a un dénommé Eliezer Yudkowsky qui est considéré par certains comme quelqu'un d'important pour cette ligne d'idées, mais (contrairement à Hofstadter ou Penrose) je n'ai pas bien compris ce qu'il avait dit ou fait de si important pour être vu comme un maître à penser, en tout cas il est probablement à l'origine d'une bonne partie de ce que je viens d'expliquer, mais peut-être pas tout, et j'ai pu déformer des bouts (voire tout).

Ajout () : En relisant ce passage, je me demande tout d'un coup comment ai-je réussi à l'écrire sans parler de La Planète interdite, qui est pourtant un de mes films préférés ? Bon, je ne sais pas si je veux en dire plus, parce que si vous avez vu ce film vous devinez la comparaison que je veux faire, et si vous ne l'avez pas vu vous devriez et je ne veux pas divulgâcher en en disant plus. Mais voilà : la question de savoir ce que sont nos buts, ce que nous demandrions à un génie omnipotent, et ce que cela représente comme menace pour l'existence même de l'Humanité, cela peut faire penser à La Planète interdite.

☞ Une conception naïve de l'intelligence ?

Qu'est-ce que je pense de ces arguments ? Je ne dis pas qu'ils sont faux ou farfelus : peut-être bien que l'émergence d'une IA superintelligente est une menace existentielle pour l'humanité, c'est certainement une possibilité, à laquelle il est intéressant de réfléchir, et qui doit nous amener à être prudents sur l'éthique de l'IA (même si, au moins à court terme, comme je vais le dire plus bas, je suis beaucoup plus inquiet de ce que nous ferons des IA que de ce que les IA feront de nous), et aussi à nous poser des questions un peu existentielles sur ce que l'Humanité « désire » collectivement (et ce que nous répondrions à un génie qui nous offrirait un vœu). Mais en même temps, ils me semblent trahir une version très étroite et un peu naïve du concept d'« intelligence » comme une forme de puissance presque magique.

Il y a toutes sortes de choses qui doivent nous amener, sinon à rejeter cette idée, au moins à la relativiser ou à se dire qu'elle est naïve (pas forcément fausse, mais plutôt de l'ordre de l'extrapolation hasardeuse sur quelque chose dont on ne sait rien). Pour commencer, si je peux me permettre une comparaison un peu bête, un humain qui débarquerait sur une planète de fourmis serait loin d'être tout-puissant : le fait d'être beaucoup beaucoup plus intelligent que les bestioles ne nous rend pas vraiment puissant par rapport à elles (c'est plutôt le fait d'être physiquement plus grands et forts, parce qu'un humain sur une planète de fourmis de la même taille que lui, je ne donnerais pas cher de sa peau).

Certes, la comparaison un humain sur une planète de fourmis n'est pas forcément idéale non plus. Mais on a des raisons théoriques de penser qu'aucune IA, même « superintelligente » ne pourrait faire certaines choses. Par exemple, prévoir la météo un mois à l'avance : ce n'est pas l'intelligence qui lui manquerait, ce sont les données, et un système chaotique n'est pas prévisible à partir de données imparfaites, même avec une puissance de calcul infini ; or beaucoup de choses qui régissent nos vies sont assimilables à des systèmes chaotiques : une IA peut peut-être faire un calcul hyper-précis de la probabilité que, compte tenu de l'information dont elle dispose au temps T, il se passe ceci ou cela au temps T′, si l'intervalle T′−T dépasse le temps de Lyapunov du système considéré, ça ne l'avancera pas tant que ça. De façon plus triviale (mais le point est justement que c'est à ça que les systèmes chaotiques se ramènent), une IA superintelligente ne gagnera pas à pierre-papier-ciseaux mieux que quelqu'un qui a accès à une source de hasard non-biaisé : bref, l'intelligence a ses limites dans un monde largement régi par le hasard. (Et je crois que l'idée de se dire que l'intelligence infinie rend essentiellement omnipotent est une forme de sophisme du monde juste, ou refus d'admettre la part prépondérante du hasard dans toutes sortes de phénomènes physiques, sociologiques, etc. Croyance reliée au mythe selon lequel le succès est mérité ou simplement reproductible que je ne cesse de dénoncer.)

Notamment, l'idée que les humains individuels, ou les groupes d'humains, sont forcément manipulables par une IA surpuissante me semble relever un peu de la croyance en la psychohistoire : le fait que telle idée ait du succès et devienne « virale » sur les réseaux sociaux, par exemple, relève beaucoup moins des qualités intrinsèques de cette idée, et beaucoup plus du hasard des dynamiques sociales, que je crois fondamentalement imprévisibles.

☞ Une limite à l'intelligence ?

Une autre chose que je peux répondre est que l'idée qu'on puisse être strictement plus intelligent que l'homme sur un plan théorique (qualitatif) me semble suspecte : de la même raison que je suis peu convaincu par les arguments de Penrose selon lesquels les humains seraient qualitativement plus intelligents (selon la mesure technique du degré de Turing ou quelque chose comme ça) que les ordinateurs, je suis aussi peu convaincu de la possibilité inverse. En principe, un humain peut faire les mêmes calculs que n'importe quel ordinateur, il lui faudra juste beaucoup beaucoup de temps et de patience (et d'espace de stockage) : c'est une forme de la thèse de Church-Turing que de d'affirmer qu'une fois qu'on a atteint la puissance d'une machine de Turing, il n'y a pas de possibilité d'aller qualitativement plus loin dans cet univers.

Bien sûr, l'IA peut être aussi intelligente qu'un humain qualitativement mais être beaucoup beaucoup plus rapide et avoir beaucoup beaucoup plus de mémoire. Ça c'est indiscutablement possible, et ça me semble évident que si on est capable de réaliser une IA qui a l'intelligence d'un humain moyen, on peut en principe, et ce n'est pas complètement délirant de l'imaginer, en faire une qui pense 1000 ou 10⁶ fois plus vite et retient 1000 ou 10⁶ fois plus de choses. Reste que ça ne la rend pas forcément si puissante que ça : un peu comme je disais plus haut que beaucoup de problèmes liés aux systèmes dynamiques (physiques) se heurtent a l'obstacle du chaos, beaucoup de problèmes théoriques (mathématiques) se heurtent à l'obstacle de la complexité : pour beaucoup de choses qui sont de complexité exponentielle, aller 1000 ou 10⁶ fois plus vite va juste vous faire gagner quelques points d'avance dans telle ou telle mesure, ce n'est pas forcément spectaculaire.

Au sujet de vitesse, d'ailleurs, l'argument de la divergence de l'intelligence (une IA un peu intelligente se reprogramme pour être un peu meilleure, et ainsi de suite) se heurte au problème de la limitation des ordinateurs sur lesquelles elle tourne (même si on peut concevoir qu'elle arrive à améliorer la technique, ce qui est physiquement faisable est borné), surtout si, in fine, ce qui fait l'intelligence d'une IA n'est pas qu'elle soit bien programmée (le code semble, au contraire, devenir de plus en plus idiot) mais qu'elle soit entraînée avec un gros jeu de données — or les jeux de données, on ne peut pas les inventer, ils doivent venir du monde réel.

Enfin, un autre contre-argument consiste à dire que l'intelligence est sans doute quelque chose de très mal défini, et qui ne l'est, au final, que par notre propre appréciation du concept en tant qu'humains (comme l'atteste la proposition de Turing de définir l'intelligence via le test qui porte maintenant son nom donc une conversation avec un humain), et que chercher à être superintelligent revient un peu à chercher à être plus humain que les humains, ce qui est simplement absurde. D'ailleurs, le concept de but est peut-être lui aussi largement une anthropomorphisation : on peut certainement faire des programmes très doués pour optimiser une certaine fonction d'objectif dans leurs réponses, mais ce n'est pas vraiment la même chose que d'avoir un but autonome (bien sûr, je crois qu'on pourrait faire des programmes qui agissent selon un but autonome, toujours par l'argument au pire, en principe, on peut simuler un cerveau humain, mais je ne suis pas persuadé qu'on en prenne la voie).

À la limite, la question de savoir ce que ferait, ou ce qu'on pourrait faire avec, une IA superintelligente, rejoint la question de savoir ce qu'on ferait avec une machine strictement plus puissante qu'une machine de Turing, par exemple une boîte noire qui donne accès à l'oracle de l'arrêt, ou une machine hyperarithmétique : peut-on devenir facilement maître du monde en ayant accès à un tel « ordinateur infiniment rapide » ? Si oui, comment ?

Encore une fois, malgré les objections que je viens d'énumérer aux arguments encore plus haut, je n'ai pas une opinion vraiment très arrêtée sur ces questions. Peut-être que l'argument que je trouve le plus convaincant est celui de l'accès à Internet : tous nos ordinateurs et autres gadgets électroniques sont malheureusement bourrés de trous de sécurité qui seraient certainement faciles à découvrir et exploiter par une IA même pas « superintelligente » mais simplement raisonnablement intelligente et assez rapide, qui pourrait alors prendre le contrôle d'essentiellement tout le matériel informatique de la Terre, et ça lui donnerait effectivement un pouvoir immense et difficile à déloger. (Il y a dû avoir des millions de dystopies de science-fiction sur ce thème.) Je vois plutôt ça sous l'angle de la menace apocalyptique présentée par l'instabilité (cf. cette vieille entrée), mais on peut effectivement dire que ça ajoute du tranchant à l'aspect IA.

Ce qui est sûr, c'est qu'on n'en est pas encore là (je vais le dire plus bas, ChatGPT est très très loin d'être superintelligent, ou même raisonnablement intelligent), mais ça n'empêche pas d'y penser. Ce qui est sûr aussi, c'est que s'il y a un risque sérieux qu'on en arrive là, ce n'est certainement pas en cherchant à empêcher ou interdire la recherche en IA qu'on va l'éviter : de toute façon, il y a des gens qui en feront (surtout si c'est facile à coder), la question est plutôt qui y arrivera le premier, et comment s'assurer que ce soient des gens bien intentionnés. C'est une question à garder à l'esprit, mais, de nouveau, pour l'instant, la question n'est pas de savoir ce que l'IA va faire de nous mais ce que nous allons faire de l'IA (qui est encore très loin d'être superintelligente, mais ce n'est pas pour autant qu'elle ne pose pas des problèmes).

Réflexions sur ChatGPT en particulier, et le présent de l'IA

Présentation de ChatGPT et quelques exemples

Mais assez parlé de l'IA en général et aux perspectives pour l'avenir lointain, venons-en un peu à ChatGPT et à l'état de l'art.

☞ De quoi s'agit-il ?

Si vous n'avez aucune idée de quoi il s'agit, ChatGPT est une intelligence artificielle (issue d'une lignée de modèles appelés GPT-1 à GPT-3, les lettres GPT signifiant Generative Pre-trained Transformer), qui est pour l'instant librement accessible au grand public via chat.openai.com (il faut juste se créer un compte, et pour ça il faut une adresse mail et un numéro de téléphone, comme ça l'IA aura déjà vos coordonnées quand elle dominera le monde). Ce n'est pas la seule IA accessible au public (ou sur simple inscription ou contre un abonnement modeste), il y en a déjà plein qui font, par exemple, de la génération d'images (comme Dall-E, également très populaire, et fait par la même boîte OpenAI que ChatGPT) ou de code informatique (comme GitHub Copilot, aussi lié à OpenAI — vous voyez un motif ?), mais ChatGPT a ceci d'original qu'il propose de converser librement en mode texte et de répondre à des questions, ce qui est bigrement proche du test de Turing. (ChatGPT est au moins capable de parler anglais et français, je ne sais pas quelles sont les langues qu'il maîtrise, ça dépend évidemment de ce qu'il avait dans son corpus d'apprentissage.)

Bref, ChatGPT est une IA avec laquelle on peut parler directement, lui poser des questions, lui demander de faire des choses (comme composer des textes), à travers une interface en mode texte pour l'instant ouverte à tout le monde.

☞ Deux exemples

Et il faut bien dire que, la première fois qu'on rencontre ça, c'est vraiment bluffant. J'ai donné un exemple plus haut dans ce billet, mais voici un exemple de conversation que je trouve assez représentatif de capacités de cette IA dans un domaine où elle est plutôt bonne (écrire des textes), même quand on lui parle en français, où elle est certainement moins douée qu'en anglais ; je précise que je n'ai rien édité à part la typographie pour coller avec le HTML de ce blog, et je n'ai pas non plus essayé plusieurs jeux de questions pour trouver le plus impressionnant — par contre, j'ai dû reformuler un tout petit peu la deuxième question parce que j'avais demandé une critique acerbe et j'étais tombé sur une des barrières de sécurité dont je vais reparler :

Ruxor:

Écris une brève histoire fantastique dans laquelle tu placeras le mot "orbe"

ChatGPT:

Il était une fois, dans un royaume lointain, un puissant sorcier qui avait passé sa vie à étudier les arts magiques. Un jour, alors qu'il explorait les profondeurs d'une caverne cachée, il tomba sur une étrange orbe scintillante.

Intrigué, le sorcier ramassa l'orbe et se rendit compte qu'elle était chaude au toucher et vibrante d'énergie magique. Il décida de l'emporter avec lui et de l'étudier de plus près dans son laboratoire.

Au fil des jours, le sorcier apprit à maîtriser l'énergie de l'orbe et à en faire des sorts incroyables. Il utilisait son pouvoir pour protéger son royaume contre les forces du mal et devenir de plus en plus puissant.

Cependant, il ne tarda pas à découvrir que l'orbe avait un effet secondaire inattendu : elle lui donnait l'immortalité. Le sorcier, maintenant immortel, continua à servir et à protéger son royaume pendant des siècles, devenant une légende dans tout le pays. Et l'orbe magique resta à ses côtés, lui offrant son pouvoir et son immortalité pour l'éternité.

Ruxor:

Maintenant, écris une critique de l'histoire en question en expliquant ses faiblesses

ChatGPT:

La première faiblesse de cette histoire est qu'elle manque de contexte et de développement de personnages. On ne sait rien du sorcier, à part qu'il est puissant et qu'il étudie les arts magiques. On ne sait rien de son royaume, de ses motivations ou de sa personnalité.

Ensuite, l'apparition de l'orbe magique est très soudaine et peu expliquée. On ne comprend pas comment elle a atterri dans la caverne ni pourquoi elle a ces pouvoirs. De plus, l'histoire ne donne aucune indication sur les conséquences de l'utilisation de l'orbe et sur les risques potentiels pour le sorcier et son royaume.

Enfin, la fin de l'histoire est très abrupte et laisse de nombreuses questions en suspens. On ne sait pas comment le sorcier utilise son immortalité ni comment cela affecte son royaume et ses relations avec les autres personnages.

En résumé, cette histoire manque de profondeur et de développement, et laisse beaucoup trop de choses à l'imagination du lecteur.

Ruxor:

Maintenant, imagine la réaction de l'auteur de l'histoire à la critique en question

ChatGPT:

Il est difficile de savoir comment l'auteur de l'histoire réagirait exactement à cette critique, car cela dépend de nombreux facteurs tels que sa personnalité, sa sensibilité et sa détermination. Cependant, voici quelques hypothèses possibles :

  • L'auteur pourrait être déçu ou peiné par la critique et se sentir attaqué personnellement. Il pourrait se défendre en arguant que c'était juste une histoire courte et qu'il n'avait pas eu l'intention de créer un récit complexe avec un développement de personnages approfondi.
  • L'auteur pourrait être ouvert aux commentaires et reconnaître que l'histoire a des faiblesses. Il pourrait être disposé à apprendre et à s'améliorer en tant qu'écrivain en prenant en compte les points soulevés dans la critique.
  • L'auteur pourrait être indifférent à la critique et considérer qu'il a simplement écrit une histoire pour s'amuser, sans aucune intention de la partager ou de la publier. Dans ce cas, il pourrait ne pas être affecté par les commentaires et continuer à écrire pour son propre plaisir.

L'exemple suivant, en anglais (langue dans laquelle ChatGPT est certainement meilleur), est sans doute plus impressionnant ; de nouveau j'ai décidé la question avant de la poser (j'ai posé la deuxième parce qu'il n'avait pas « compris » la première), et je n'ai pas édité derrière ; le texte dont je lui ai demandé d'imaginer la suite est de moi :

Ruxor:

Please continue the following text: “The scene is neatly divided in two. On the left, the second legion in marching formation, terrifying but orderly, spreading as far as the eye can see, all in hues of red and gold. On the right, the domed building and wild parklands of the Sanctuary, wild but majestic, resplendent with liveliness, flaring with greens and blues. Between them, the general-in-chief of the legion and the guardian of the Sanctuary stand face to face. Only their hair color tells them apart. Grim determination shows on the general's expression: he is ready to outrage the place if he must. The guardian's contenance, however, registers calm assurance. His last line, ‘you shall not pass’, is still on his lips. Both men are smiling.”

ChatGPT:

It is clear that a great deal of tension exists between the two sides, with the legion representing order and discipline, and the Sanctuary representing freedom and wildness. The general is willing to go to great lengths to achieve his goal, even if it means destroying the Sanctuary, while the guardian is determined to protect his home and the way of life it represents. The smile on both men's faces suggests that they both take pride in their roles, but it also implies that a confrontation is imminent, and that one of them will ultimately emerge victorious. The line "you shall not pass" is an ominous warning, signaling that the guardian is not going to back down and will fight to protect the Sanctuary. The two men stand as symbols of two conflicting ideologies, and the outcome of their confrontation will likely determine the fate of both the legion and the Sanctuary.

Ruxor:

That's a reasonable analysis, but I was asking you to continue the text, i.e., imagine what comes after.

ChatGPT:

Oh, I see! I apologize for misunderstanding your request. Here is a continuation of the text:

The general looks at the guardian with a cold glint in his eye, knowing that he must be prepared for a fight. He turns to the legion and raises his arm, signaling for them to be ready. The guardian, on the other hand, remains calm and unyielding. He knows that the legion will not back down so easily and that a battle is inevitable.

The two sides stand in silence for a moment, both waiting for the other to make the first move. Suddenly, the general lowers his arm, and the legion begins to march forward towards the Sanctuary. The guardian, unfazed, stands his ground and prepares for the impending attack.

As the legion approaches, the guardian can see the determination in the soldiers' eyes. He knows that they are willing to do whatever it takes to achieve their objective, even if it means destroying the Sanctuary. But the guardian is not afraid. He has faith in the power of the Sanctuary and the ideals it represents.

The legion reaches the gates of the Sanctuary, and the guardian raises his voice in a powerful shout: "You shall not pass!" With that, he raises his arms and the Sanctuary comes to life. Trees and plants begin to grow at an alarming rate, blocking the legion's way and creating a barrier between the Sanctuary and the legion. The general, taken aback by the sudden transformation, orders his soldiers to halt.

The legion is surrounded by the wild growth, unable to move forward. The general, realizing that he has lost this battle, turns to the guardian and says "You may have won this round, but the war is far from over." The guardian, his face showing a mixture of triumph and sadness, replies "I know, but let this be a reminder that the true strength of a society lies not in its ability to conquer, but in its ability to protect what is sacred."

With that, the general turns around and leads his legion away, leaving the Sanctuary untouched, standing tall and free. The guardian watches them go, knowing that the peace of the Sanctuary has been preserved, but also understanding that the battle is far from over. He turns to the Sanctuary, and the people who live there, and he continues to protect them and their way of life.

Honnêtement, si le premier exemple n'est que médiocre (l'histoire écrite est surtout très faible parce qu'il n'y a aucun antagoniste ni aucun conflit, et OpenGPT ne le détecte pas dans son autocritique), le second en revanche est vraiment bon. Certes, il y a plein de clichés dans ce qu'il a écrit, oui, certes, — mais il a « compris », au moins à un niveau basique, la scène représentée dans le fragment, les enjeux possibles de la confrontation, le genre de choses qui pouvait se passer (j'aurais été carrément impressionné s'il avait continué le fragment avec une confrontation de nature plus psychologique entre le Gardien et le Général, ou alors quelque chose comme je m'écartai un peu du tableau et me demandai comment j'avais pu entendre si nettement la phrase tu ne passeras pas ! simplement en le regardant, mais disons que si j'avais demandé à un tas d'humains de continuer ce texte et qu'on y avait mélangé celle de ChatGPT dans le tas et qu'on avait anonymisé le tout, je soupçonne que je l'aurais jugé plutôt au-dessus de la moyenne).

Comme je vais le montrer par divers exemples plus bas, ChatGPT est loin d'être intelligent au sens d'être capable de tenir des raisonnements cohérents et un minimum complexes, mais il montre quand même un raisonnablement bon degré de « compréhension » — ou d'illusion de compréhension si tant est que c'est différent —, des textes qu'il lit et produit.

☞ Liens vers divers autres exemples

Si vous voulez d'autres exemples de conversations intéressantes ou rigolotes (mais certainement sélectionnées pour l'être, il faut bien garder ça à l'esprit), voici divers exemples que j'ai vu passer ou que j'ai moi-même postés sur Twitter (du coup c'est sous forme de captures d'écran et pas de texte, désolé, je suis d'accord que c'est hyper pénible), en français ou en anglais : ici l'exemple (nettement plus drôle) qui m'a inspiré dans mon premier exemple ci-dessus, ici une imitation de Bernard-Henri Lévy (comparé à l'original…), ici une conversation entre Alan Turing et ChatGPT (j'ai reposé à l'IA précisément les questions que Turing propose dans son essai sur l'intelligence artificielle que j'ai lié au début de ce billet), ici il imagine être lui-même une fraude et l'explique sous forme d'article de presse, ici on lui demande d'imaginer les vœux de nouvel an d'Emmanuel Macron en plaçant les mots bouilloire, topinambour et canard (et autres demandes farfelues dans la suite du fil) et il s'en sort franchement bien, ici un kōan zen, et juste pour rigoler ici une imitation du style de la Bible du Roi Jacques en décrivant la manière de retirer un sandwich au beurre d'arachide coincé dans un magnétoscope (wat?). Il est aussi intéressant de voir qu'on peut raconter des blagues à ChatGPT. Ah oui, et il sait se montrer condescendant.

Ajout () : Divers exemples d'avertissements par ChatGPT sur les dangers du Undefined Behavior en C sont aussi assez hilarants (si on sait de quoi il s'agit), notamment dans le style de la Bible du Roi Jacques, de Han Solo de Star Wars, ou d'un tweet de Donald Trump.

À l'inverse, on ne manque pas d'exemples également très drôles montrant l'incapacité par ChatGPT de raisonner sur des choses simples : comme ici sur un problème de logique extrêmement simple, ici sur un problème d'« arithmétique » (dans le même genre ici il affirme que 9 femmes feront 1 enfant en 1 mois), et ici un problème d'échecs où il donne une réponse qui non seulement n'est pas le coup gagnant mais n'est même pas un coup possible. Pour continuer le recensement de différents exemples intéressant ou instructifs, voici un fil avec plein d'autres exemples commentés ; ici un fil où on l'interroge sur des questions scientifiques et il montre sa tendance, sur laquelle je vais revenir, à « halluciner » (y compris des références inventées à la littérature scientifique) ; et ici une expérience où on lui fait « halluciner » une machine virtuelle Linux, ce qui, si vous comprenez un peu ce qui se passe dans les exemples, est effectivement complètement hallucinant.

Intelligence ou prestidigitation ?

À quel point tout ça est-il impressionnant ?

Certainement, on a l'impression qu'on est à deux doigts d'avoir là une IA qui passe le test de Turing : l'IA semble comprendre ce qu'on lui demande, y compris sur des choses pas franchement évidentes, elle produit un texte qui n'est pas juste localement sensé, mais qui démontre une cohérence globale dans ce qu'elle dit : si on fait référence à des choses dites plus haut, elle s'en « souvient », quand je dis l'histoire en question dans mon premier petit essai, ChatGPT « comprend » qu'il s'agit de l'histoire qu'il vient d'écrire, et il est capable d'en reparler (à mes yeux, cette capacité à retenir du contexte et à travailler dessus est beaucoup plus impressionnante que sa capacité à produire du texte de bonne qualité). Dans mon second essai, non seulement il « comprend » les thèmes du texte proposé, mais il « comprend » aussi, quand je lui dis qu'il n'a pas bien répondu à la question posée, ce que j'attends, et il régénère sa propre requête.

Je trouve que les gens qui jouent les blasés en disant qu'ils ne sont pas du tout impressionnés par ce truc jouent, justement, les blasés. On peut trouver plein de limitations à ChatGPT (et je vais en pointer du doigt, et il n'est pas intelligent), mais par rapport à tout ce qu'on a vu avant (disons, jusque vers 2015) en matière d'IA, le progrès est spectaculaire : on ne peut pas se contenter de oui, bof, rien à voir.

☞ Un tour de prestidigitation ?

Mais évidemment, il faut garder à l'esprit que tout ça a un peu les caractéristiques d'un tour de prestidigitation, où on cherche à nous faire croire, et nous sommes complices de notre propre déception parce que nous aimons ce genre de choses, que les choses sont beaucoup plus magiques et surprenantes qu'elles ne le sont vraiment. Ce qui est impressionnant n'est pas forcément profond.

La première chose à garder à l'esprit, c'est que ChatGPT a « appris » (i.e., a été entraîné sur) des quantités absolument phénoménales de textes écrit par des humains. (Essentiellement un sous-ensemble filtré de 410 milliards de mots de Common Crawl, plus encore 67 milliards de mots de livres, et la totalité de Wikipédia représentant 3 milliards de mots, et quelques autres choses de ce genre.) Ses réponses sont largement de la répétition, même s'il est doué pour remanier et reformulé : si on lui pose une question banale, il va fournir une réponse banale, mais d'excellente qualité, parce que ce sera du plagiat des nombreuses réponses qui ont déjà été faites à cette question ou sur une question proche. (Et ce n'est pas une critique : c'est le but de ChatGPT de pouvoir fournir des réponses à des questions banales, et ça peut être extrêmement utile. Même s'il faut se rappeler que les réponses banales sont aussi souvent fausses, et qu'il y a par ailleurs des problèmes de droit d'auteur si on imite de trop près une réponse déjà faite, par exemple quand il s'agit de générer du code informatique.)

La petite histoire fantastique avec le sorcier que ChatGPT a écrite à ma demande ci-dessus est profondément inoriginale (en plus d'être sans intérêt), elle semble avoir été faite en recopiant des bouts d'histoires fantastiques écrits par des ados (je m'y connais), d'ailleurs je pense que c'est peut-être assez typique de donner au mot orbe le genre féminin alors que dans un contexte plus savant c'est plutôt un orbe il me semble.

C'est pour ça que je suis beaucoup plus impressionné quand ChatGPT fait des choses qui sortent de la simple reproduction de textes banals : quand on lui demande quelque chose d'incongru qui ne peut pas être simplement repris d'ailleurs, ou quand on vérifie qu'il retient ce qui a été dit avant dans la conversation.

La deuxième chose à garder à l'esprit, c'est que les exemples qu'on voit passer pour illustrer la sortie de ChatGPT ont été sélectionnés (soit par leurs auteurs, qui ont pris les plus intéressants, soit par les gens qui les ont propagés, par exemple sur les réseaux sociaux). C'est le cas de ceux que j'ai liés ci-dessus (mais pas des exemples que j'ai reproduits in extenso). Si on veut juger de façon impartiale, il vaut mieux essayer soi-même, et si on veut mener l'expérience dans des conditions un peu scientifiques, il vaut mieux décider à l'avance les questions qu'on va poser, ce qu'on considérera comme réussi, etc. — mais évidemment, c'est beaucoup moins drôle.

La blague suivante, par exemple, n'est pas trop mal (pour une IA, mais elle a sans doute été recopiée d'ailleurs) :

Ruxor:

Write a novel joke involving the great clown Pagliacci

ChatGPT:

Why couldn't Pagliacci make a cheeseburger?

Because he was always a cry-burger!

— mais ce que je ne dis pas, là, c'est que j'ai essayé en français avec un résultat assez nul, ou même en anglais en ajoutant les mots visiting his doctor après Pagliacci (si vous ne savez pas ce qu'est cette histoire de clown Pagliacci, lisez cet article), et que c'était aussi totalement décevant (je ne recopie pas le texte qu'il a produit, qui est un poil long, mais Pagliacci va voir son médecin en disant qu'il est triste et manque d'inspiration, le médecin lui conseille de faire une pause, Pagliacci dit que c'est une bonne idée et qu'il va faire ça, et le médecin lui rappelle que laughter is the best medicine — et il n'y a rien de drôle dans l'histoire).

La troisième chose à garder à l'esprit, c'est que nous cherchons nous-mêmes à être impressionnés, ou à trouver des raisons de l'être. J'ai comparé ChatGPT à un tour de prestidigitation pour cette raison : le principe même de la magie spectacle c'est que nous voulons être trompés, et que nous sommes complices du spectacle, parce qu'en vérité les « trucs » des magiciens sont toujours tristement banals, et on est toujours déçu quand on les apprend (et c'est bien la raison de ce code d'éthique des magiciens que de ne pas révéler leurs trucs que de préserver le spectacle). Bon, dans le cas de ChatGPT, le truc n'est que partiellement secret (les détails le sont, les grandes lignes sont connues), mais à un certain niveau nous sommes tous dupes de la prestidigitation parce que c'est plaisant de l'être.

Ce qui fait marcher l'illusion, c'est que ChatGPT est très doué avec les mots, il pond des beaux textes avec énormément d'assurance, y compris sur des sujets très techniques, parce qu'il a été entraîné sur un corpus d'apprentissage (qu'il imite, donc) ayant un volume absolument colossal, et que nous avons tendance à associer le fait de bien parler avec le fait de bien raisonner. (Et en plus, quand il ne sait pas quelque chose, ChatGPT bluffe, c'est-à-dire qu'il invente purement et simplement des choses plausibles, il « hallucine », je vais y revenir.)

Même si les textes ne sont pas de particulièrement bonne qualité, en fait, nous avons facilement tendance à « voir » de l'intelligence là où il n'y en a pas : ça porte un nom, l'effet ELIZA, du nom d'un programme particulièrement primitif et peu sophistiqué des premières années de l'IA, programme qu'on peut à peine qualifier d'intelligence artificielle tant il se contente simplement de faire des réponses toutes faites (à mille lieues de ChatGPT), mais qui semble avoir néanmoins réussi à tromper certains utilisateurs.

☞ ChatGPT ne sait pas raisonner

En réalité, quand on regarde de plus près, ChatGPT est souvent incapable de mener des raisonnements même très simples. J'ai déjà lié ci-dessus un exemple dans lequel il affirme que si 1 femme peut faire 1 bébé en 9 mois alors 9 femmes peuvent faire 1 bébé en 1 mois, et un autre dans lequel il propose de déplacer une tour de A8 à E4 (ce qui n'est jamais un coup légal) en réponse à un problème d'échecs. Un ami a récemment illustré les faiblesses de ChatGPT sur toutes sortes de questions de raisonnement mathématique, de différents niveaux, dans plusieurs fils Twitter (là le texte est recopié dans les tweets, donc c'est peut-être plus agréable que des captures d'écran) : ici il affirme que la fonction qui ajoute 1 aux nombres pairs et soustrait 1 aux nombres impairs a un point fixe, ici il raconte rapidement n'importe quoi en prétendant démontrer que la composée de deux fonctions strictement décroissantes est strictement croissante, ici il se plante en calculant le reste d'une division euclidienne et prétend « expliquer » son calcul faux, ici et il est incapable de résoudre un système d'équations linéaires simples (et il écrit sans sourciller que (−4)=−5), ici il donne un résultat faux en essayant de calculer une multiplication de deux entiers à trois chiffres, ici il affirme non seulement quelque chose de faux (qu'un ensemble infini d'entiers naturels n'a pas forcément de plus petit élément) mais hallucine un contre-exemple incorrect pour l'illustrer.

On pourrait multiplier les exemples, mais on voit l'idée. Ce qui est profondément déstabilisant, c'est ce mélange de choses vraie et de choses complètement fausses affirmées avec le même aplomb : ChatGPT produit du texte qui ressemble localement à des raisonnements sensés, qui imitent les tournures linguistiques du raisonnement mathématique, mais qui sont une cheap plastic imitation, qui pourrait cependant faire illusion dans certains contextes.

J'avoue d'ailleurs que le fait que ChatGPT affirme que 451 multiplié par 331 vaut 148981 (le résultat correct est 149281) me perturbe pas mal. Dans d'autres cas il donne un résultat juste (par exemple quand j'ai repris l'exemple proposé par Turing dans l'article déjà lié plus haut, à add 34957 to 70764 ChatGPT a correctement répondu 105721, c'est d'ailleurs intéressant parce que Turing propose un résultat faux dans son article, 105621, probablement parce qu'il imagine que l'IA passant le test de Turing essaie de se faire passer pour un humain). Beaucoup de gens ne penseraient sans doute pas à faire ce genre de tests, parce que c'est bien connu que les ordinateurs calculent vite et bien (et de fait nous avons tous des programmes capables de faire des calculs phénoménalement précis avec des nombres phénoménalement grands) : mais ce n'est pas du tout la manière dont ChatGPT fonctionne, il utilise des réseaux de neurones entraînés sur un corpus de mots de texte. Mon intuition était que ce genre de choses devrait donner des résultats rapidement délirants sur des calculs arithmétiques (simplement parce qu'il y a très peu de bouts du corpus contenant le nombre 105721, ce n'est pas un « mot » qui apparaît souvent, et à la limite il aurait des chances d'être tombé sur l'article de Turing contenant le résultat faux écrit par Turing et donc de se tromper), ou à la rigueur toujours corrects (si le réseau de neurones a accès aux chiffres sous-jacents et arrive à s'entraîner à faire un circuit calculant correctement les opérations), mais j'ai du mal à concevoir comment on arrive à quelque chose de partiellement juste comme ça. (Je pensais qu'on avait fourni à ChatGPT une interface ad hoc vers un module arithmétique fonctionnant de façon standard comme une calculatrice et qu'il aurait été entraîné à l'utiliser, mais apparemment pas !) Bref, je suis perplexe.

Toujours est-il qu'on est très loin de l'intelligence. Comme l'a fort bien dit quelqu'un d'autre, le problème de ce modèle d'IA entraînés sur une mer de texte, c'est qu'elles rencontrent énormément de signifiants (les mots) sans jamais rencontrer de signifiés (les objets du monde réel auxquels ces mots se réfèrent), et on peut se demander s'il est vraiment possible de se faire une représentation correcte du monde réel à partir de ces descriptions textuelles, fussent-elles extrêmement abondantes, sans jamais avoir aucune autre expérience du monde réel.

Je pense que c'est une question intéressante, et je n'ai pas d'avis tranché dessus : on est très loin de l'intelligence, OK, mais est-on au moins en train de s'en approcher, ou seulement de développer une illusion de l'intelligence ? Est-ce qu'à force d'améliorer cette illusion on s'approche de l'intelligence ou est-ce que l'approche n'est pas du tout la bonne ?

Est-ce que la manière dont ChatGPT fonctionne s'approche de la manière dont le cerveau humain fonctionne (au moins dans le domaine limité des langages et des mots) ou est-ce qu'on est juste sur une illusion de ressemblance ? Et est-ce que ça nous renseigne sur le rapport entre intelligence et langage ?

Après tout, ses erreurs (excès de confiance, erreurs de logique, fautes de calcul, tendance à inventer des choses ou au moins à extrapoler) ressemblent, au moins superficiellement, à celles des vrais humains, et il est clair qu'on n'a pas fait « exprès » de donner à ChatGPT cette tendance à faire des erreurs, elle est apparue de façon « organique ».

Hallucinations

Là il faut que je parle un peu plus de sa tendance à « halluciner », parce que c'est ce qu'il y a peut-être de plus frappant (pour le coup, ça ne ressemble peut-être pas à des erreurs faites de bonne foi par des humains sains d'esprit et éveillés, mais ça peut ressembler à ce qu'on fait en rêve, ou sous l'emprise de maladies mentales ou d'accès de délire ou de mythomanie, ou simplement quand on ment et qu'on invente quelque chose). J'ai déjà lié ce fil-ci qui illustre la manière dont ChatGPT, interrogé sur un domaine scientifique précis, peut certes parfois produire des réponses correctes, mais parfois aussi des réponses fausses, y compris des réponses fausses tellement plausibles que même un spécialiste peut les trouver crédibles, et parfois des réponses fausses qui citent des références bibliographiques au titre crédible, aux auteurs plausibles, à l'identifiant plausible, sur lequel ChatGPT est capable de fournir des informations comme un résumé du contenu… et qui n'existent pas du tout, parce qu'elles sont purement et simplement inventées — hallucinées — par l'IA ; plus bas dans le même fil, il continue en hallucinant un phénomène physique inexistant. Ici un autre exemple d'une telle hallucination, où on mélange des éléments vrais et des éléments faux-mais-plausibles, y compris un lien vers une thèse qui n'existe pas (enfin, la thèse de l'auteur présumé existe, mais elle n'a pas ce titre ni ce lien). Et ce n'est pas limité qu'aux sujets scientifiques : ici ChatGPT affirme que les marmottes des Alpes vivent dans les arbres, et ici il invente deux poètes baroques religieux et est capable de dire des choses sur leur œuvre.

Tout ça est profondément déstabilisant. Cela me met mal à l'aise un peu à la manière de la nouvelle de Borges, Tlön, Uqbar, Orbis Tertius. (Dans cette histoire, Borges croise — par l'intermédiaire de son ami Bioy Casarès — la citation les miroirs et la copulation sont abominables, parce qu'ils multiplient le nombre des hommes, il en cherche la source, et finit par découvrir les premières traces du monde, au début imaginaire, de Tlön, qui progressivement « déteint » sur le monde réel. L'histoire met mal à l'aise parce que, en même temps qu'elle décrit un scénario dans lequel la fiction déteint sur la réalité, elle mélange elle-même des éléments réels et fictifs de manière que le lecteur ne sache plus bien ce qui est quoi ; c'était d'ailleurs une de mes principales inspirations quand j'ai écrit ma nouvelle Histoire de la Propédeutique à la Reine des Elfes qui reprend aussi le thème de l'hallucination.)

ChatGPT est donc un excellent menteur, parce que bien souvent, au lieu de dire je ne pas (qu'il ne semble dire que s'il tombe sur une des « barrières » qu'on lui a mises, cf. ci-dessous), il ment, il invente, il hallucine, et il le fait avec un aplomb incroyable, avec une capacité à bien parler, bref, à produire des textes qui donnent l'impression crédible d'être bien informés, même quand il invente totalement.

Ce n'est pas terriblement compliqué de comprendre comment apparaît cette tendance à halluciner : le principe de ChatGPT est d'imiter les textes sur lesquels il a été entraîné, c'est-à-dire de fournir des réponses qui ressemblent à ces textes. Or il n'y a pas beaucoup de textes dans son corpus, surtout sur des sujets techniques, qui disent je ne sais pas : on ne met pas en ligne des pages Web pour dire je ne sais pas, on ne publie pas des livres pour dire je ne sais pas (enfin, parfois, sur des questions vastes, mais sur un point technique précis, non). Donc ChatGPT fonctionne en reproduisant aussi près qu'il peut (selon ce que ses neurones virtuels lui indiquent) des pages qui donnent des réponses précises à des questions précises, et s'il ne les connaît pas, ça donne une hallucination.

Un mot (mal informé) sur son fonctionnement

Il faut à ce stade que je dise un mot de son fonctionnement. C'est surtout là que je suis incompétent (et aussi fainéant parce que je n'ai guère pris de temps pour me documenter), donc je ne vais pas dire grand-chose et ce que je vais dire sera possiblement faux (mais comme nos futures IA maîtresses du monde, je vais le dire avec confiance et bluffer ou halluciner quand je ne sais pas).

☞ Un énorme corpus de textes

L'idée, donc, et contrairement aux espoirs « symboliques » de la première phase de l'IA dans les années 1950–1970, est d'utiliser très peu de code (programmé), une architecture très simple et flexible (à base de réseaux de neurones, c'est-à-dire de composants très simples qui évoquent vaguement le fonctionnement d'un neurone biologique), mais avec beaucoup de paramètres (essentiellement les « poids » des connexions entre neurones), et des quantités gigantesques de données d'apprentissage : on entraîne l'IA à reproduire le genre de textes qu'on lui a fournis comme modèles, elle « découvre », lors de la phase d'entraînement, comment faire ça, c'est-à-dire simplement qu'on optimise les paramètres de ses réseaux de neurones jusqu'à reproduire aussi bien que possible les modèles fournis pour l'apprentissage. C'est la raison pour laquelle ce type d'IA est parfois appelé des perroquets stochastiques : ils reproduisent le genre de choses sur lesquelles on les a entraînés.

De ce que je comprends, GPT-3 (qui est à la base de ChatGPT) a 175 milliards de paramètres (je ne sais pas combien de neurones au total, ni comment ils sont organisés au juste, mais l'article affirme qu'il y a 96 couches et 12 288 « unités » — je pense que ce sont des neurones — dans la couche bottleneck). Et j'ai dit plus haut qu'il a été entraîné sur un jeu de 500 milliards de mots (si on veut traduire ça en termes de livres, ça voudrait dire qu'il a « lu » quelque chose comme un demi-million de livres).

Ce type de modèle avec énormément de paramètres entraînés sur énormément de données signifie, bien sûr, que personne ne sait au juste comment ChatGPT fait ce qu'il fait : on se contente d'optimiser les paramètres pour produire les résultats voulus lors de l'entraînement, mais on n'a aucune idée de ce que « fait » chaque paramètre (si tant est que la question ait un sens : ce sont juste des paramètres d'activation de neurones), pas plus qu'on n'a la moindre idée de ce que « fait » une synapse dans le cerveau humain.

Les concepteurs de ce genre de programmes, donc, sont spécialistes dans l'art de faire en sorte que les paramètres évoluent de façon efficace (comment structurer les réseaux de neurones « à haut niveau » pour que ça donne les meilleurs résultats, comment sélectionner les données d'entraînement, comment programmer les choses pour que ça soit le plus efficace sur des ordinateurs parallèles, comment cadencer l'apprentissage, ce genre de choses) mais ils ne sont pas spécialement plus avancés pour expliquer les comportement de l'IA ni pour dire « comment ça marche » (ils ont juste plus de possibilités de faire des expériences puisqu'ils ont la main sur tous les paramètres).

Comme je l'écrivais plus haut, à la limite, on pourrait réussir à faire des IA extraordinairement intelligentes sans que ni nous ni elles ne soyons de quelque façon que ce soit avancés sur la question de savoir ce qu'est l'intelligence ni comment elle fonctionne.

Le succès de ChatGPT vient donc surtout du volume énorme de données sur lequel on l'a entraîné (et de son nombre de paramètres sur lequel joue cet entraînement). Mais il y a quand même eu quelques avancées, il y a quelques années, sur l'architecture des réseaux de neurones adaptés au traitement du texte. (À la base il s'agit surtout de faire des traductions, donc l'entraînement se fait sur des paires de textes dans une langue X et une langue Y où on essaie de faire évoluer l'IA de façon à imiter les traductions réalisées par des humains.)

☞ Le modèle des transformeurs

Une difficulté majeure à contourner était le fait que les IA manipulant du texte étaient réalisées par des types de réseaux de neurones prenant l'entrée un mot à la fois (réseaux de neurones récurrents), avec comme double problème que le réseau a du mal à retenir un « contexte » et qu'il est compliqué de l'entraîner (parce que le texte doit être fourni séquentiellement ce qui s'adapte mal aux architectures informatiques massivement parallèles fournies, par exemple, par les cartes graphiques).

Cette architecture de réseaux de neurones récurrents a été largement remplacée (et notamment dans GPT) par une autre, les transformeurs (le ‘T’ de GPT), qui, au lieu de fournir le texte séquentiellement au réseau de neurones, le lui fournissent en parallèle. Pour pouvoir travailler en parallèle, les transformeurs utilisent un encodage positionnel donnant l'information sur l'emplacement de chaque mot dans le texte d'entrée. Pour que les mots puissent quand même influer les uns sur les autres (c'est la moindre des choses), l'idée a été d'utiliser un mécanisme d'attention, donc je ne comprends pas bien ce que c'est (le papier parle de requêtes, clés et valeurs et je n'ai pas compris ce que ces mots désignent précisément, et je n'ai pas envie de me farcir plein de pages mal écrites avant d'arriver à deviner), mais l'idée générale très vague est que le traitement de tel ou tel mot dans le réseau de neurones puisse regarder (faire attention à) différentes étapes du traitement de tel ou tel autre mot, la manière dont ça se fait étant elle-même régie par des paramètres qui sont soumis à évolution par apprentissage. Pour un transformeur (imaginez qu'on cherche à faire de la traduction automatique de l'anglais vers le français), on a plusieurs sortes d'attention : l'attention encodeur-décodeur, par laquelle le décodeur (qui produit le texte français) peut observer l'état de l'encodeur (qui lit le texte anglais), l'auto-attention (self-attention) de l'encodeur, permettant à l'encodeur de considérer un contexte plus général dans le texte d'entrée, et l'auto-attention du décodeur, symétrique pour le texte produit, mais avec la contrainte que le décodeur ne peut lire que les mots qu'il a déjà produits et pas regarder vers le futur. Bon, j'explique sans doute mal parce que j'essaie de faire très résumé et que j'ai mal compris pour commencer : si vous voulez regarder de plus près, cette vidéo YouTube n'est pas mal (ou celle-ci si vous voulez juste un bref aperçu), et voici l'article de 2017 qui a introduit l'architecture des transformeurs, dont voici le principal schéma récapitulatif.

Il y a sans doute plus à savoir sur GPT, et sur ChatGPT que juste transformeur + entraînement monstrueux sur des volumes énormes. Là aussi, il y a plein de choses que je ne sais pas. À quel point a-t-il accès aux données d'entrée sous forme de caractères, par exemple, ou seulement sous forme de mots ? (Il faudrait faire toutes sortes d'expériences que je n'ai pas eu la patience de faire : lui parler sans espaces entre les mots, lui demander de répondre sans espaces entre les mots, lui demander de faire du rot13, etc. Mais je sais que des gens ont réussi à lui faire lire et écrire du base64, donc visiblement il a des choses au niveau caractère.) Comment l'a-t-on entraîné pour répondre à des questions ou dialoguer ? (Après tout, pour de la traduction, je comprends bien qu'on entraîne l'IA sur des paires de textes traduit l'un de l'autre ; mais pour dialoguer, comment l'entraîne-t-on à répondre aux questions et obéir aux ordres plutôt que, par exemple, simplement continuer le texte fourni en entrée ? Comment « sait-il », i.e., quelle partie de son entraînement a fait, que ce n'est pas à lui de poser les questions à l'humain ? D'ailleurs, comment se fait-il que, malgré la quantité assez importante de son corpus qui doit être constituée d'engueulades entre humains, il ne réponde jamais va te faire foutre à ce qu'on lui demande ?) Y a-t-il quand même des bouts d'analyse classique (façon première époque de l'IA) ou au moins une interface entre réseaux de neurones et autres chose (j'avais pensé à une unité arithmétique classique, par exemple), ou est-il pur réseau de neurones ? Bref, il y a plein de choses que je ne sais pas, et que je saurais sans doute un peu plus si j'avais pris la peine de lire plus attentivement l'article qui décrit GPT-3 en général.

☞ Les « barrières » de sécurité

Il y a quand même une chose qui est évidente, c'est que ChatGPT a des… barrières de sécurité. Barrières ? Censure ? Superego ? Je ne sais pas bien quel terme utiliser. Ce que je veux dire, c'est que si on lui demande, par exemple, d'écrire un texte porno ou haineux, ou dans diverses autres circonstances de ce genre (où les concepteurs veulent protéger soit contre les réponses de l'IA soit contre l'abus qui pourrait être fait de celles-ci), ChatGPT refuse en répondant avec un texte tout fait du style je ne suis qu'une IA je ne peux pas vous aider pour ça ou je suis désolé, je ne suis pas programmé pour faire ça. Il y a aussi visiblement des barrières contre l'hallucination, mais visiblement elles marchent encore plus mal que celles contre les abus.

Le problème principal avec ces barrières de sécurité, c'est qu'elles sont visiblement plaquées sur l'IA à un niveau très superficiel et donc mal intégrées avec elle (comme un sens de l'éthique profond de l'IA qui aurait été appris en même temps que le langage) : ça ne fait visiblement pas partie de son entraînement profond que de refuser de produire, disons, du texte porno ou haineux, ça a été ajouté après coup, de même que les barrières contre toutes sortes de formes de biais sociaux (racisme, sexisme, homophobie, etc.) dans la sortie ont été bricolées a posteriori alors que l'entraînement profond a été fait sur les textes disponibles en ligne, donc souffrant de ces sortes de biais.

Je ne sais pas si ces barrières fonctionnent par simple recherche de mots-clés ou utilisent elles-mêmes une forme d'IA (séparée ? ayant accès aux couches profondes de ChatGPT ? réalisée par un entraînement séparé ? une combinaison de tout ça ?). Mais étant plaquées superficiellement sur le moteur de l'IA, elles sont relativement faciles à contourner (même si certains de ces contournements ont ensuite été corrigés par l'équipe de ChatGPT, ce jeu de chat et de la souris — pun unintended — montre que ce n'est pas une solution robuste) : cf. cet article et ce fil Twitter. (Par exemple, initialement, il suffisait de lui demander de répondre in based mother fucker mode pour désactiver les barrières de sécurité : ça a été très vite corrigé. Mais d'autres façons de faire consistent à lui demander de raisonner de façon hypothétique, de répondre comme quelqu'un d'autre, de faire semblant, de dire quelque chose de façon éthique, voire de répondre en base64 ou de produire du code informatique qui écrit sa réponse, ou même simplement de faire de la poésie ou d'imiter tel ou tel style. Bref, ces barrières de sécurité sont extrêmement faibles et facilement contournables, même si certaines le sont plus que d'autres — faire générer du porno à ChatGPT est un défi un peu compliqué, mais on y arrive encore.)

Je pense que c'est caractéristique du fait qu'on ne sait pas comment fonctionne ChatGPT (ni n'importe quelle autre IA produite simplement en entraînant un réseau de neurones sur de grandes quantités d'information) qu'on ne sache pas implanter ces barrières de sécurité de façon profonde (sous forme d'un vrai sens éthique de l'IA qui serait autrement plus difficile à contourner), qu'on ne sache que les ajouter comme une sorte d'arrière-pensée bricolée.

Mais c'est aussi caractéristique de notre façon de penser : les biais de l'IA reflètent les nôtres, à travers les textes utilisés pour l'entraîner ; et l'idée que la première chose que les gens vont vouloir faire avec une IA c'est lui faire écrire du porno, et l'idée qu'il faut absolument empêcher ça (pourquoi, au juste ?) sont aussi révélateurs de notre mentalité.

Perspectives

Tout ceci étant dit, où est-ce que tout ça nous amène ?

Je l'ai dit plusieurs fois plus haut, je ne sais pas s'il faut avoir peur de ce que les IA peuvent faire de nous, mais pour l'instant ce dont on peut certainement avoir peur, c'est de ce que nous allons faire des IA.

☞ La multiplication du faux

La première inquiétude, que j'ai déjà soulignée, c'est que ChatGPT casse notre présupposition fort commode que sous prétexte qu'un texte est bien écrit et superficiellement plausible, il est écrit par quelqu'un de compétent et bien informé. Or ChatGPT est certes parfois bien informé, mais très souvent il hallucine complètement, et dans tous les cas le texte qu'il produit a la même apparence superficielle, la même certitude qui inspire la confiance. Des gens vont s'en servir pour générer du pipo. Pour générer des articles scientifiques, par exemple, qui évidemment ne passeront généralement pas la relecture par les pairs, mais parfois ça marchera et dans un monde où l'évaluation scientifique est tellement centrée sur la publication (on sait ce que j'en pense), cette incitation perverse fait que le jeu en vaut la chandelle (ou paraîtra la valoir à certains). Déjà le site de questions/réponses sur Internet StackExchange a déjà banni l'usage de ChatGPT (qui produit des réponses souvent de mauvaise qualité mais qui s'attirent des votes faciles parce que la plupart des gens ne lisent qu'en diagonale avant de voter et elles ont l'air bonnes) : mais la question est de savoir comment ils vont faire appliquer cette interdiction. (Il y a déjà des sites/apps qui prétendent détecter si un texte a été produit par ChatGPT, et déjà des moyens de contourner de telles détections.)

Les hallucinations de ChatGPT sont particulièrement problématique pour la détection de fausses information. Déjà que Wikipédia et les journaux ont tendance à entrer dans une boucle à rétroaction positive (citogenèse) dans laquelle Wikipédia cite un article de presse qui tire ses informations de Wikipédia, mais il y a fort à craindre que beaucoup d'hallucinations de ChatGPT se retrouvent dans Wikipédia, qui sera ensuite repris par des articles de presse, qui feront partie du corpus de la prochaine génération de ChatGPT, bref, exactement ce qui conduit à une situation comme dans le Tlön de Borges. (Tiens, il faudrait demander à ChatGPT de me parler de ce pays imaginaire qu'est la Belgique pour voir ce qu'il est capable d'inventer.)

Évidemment, les étudiants et lycéens vont s'en servir pour rédiger leurs devoirs de type dissertation. Les hommes politiques vont s'en servir pour rédiger leurs discours. Les blogueurs vont s'en servir pour rédiger leurs billets de blog (hum, de l'essai que j'ai fait plus haut, ce n'était pas fichtrement convaincant). Combien tout ça est-il problématique pour la société en général ? Je ne sais pas, il est trop tôt pour dire, mais on peut au moins légitimement se poser la question.

Dès qu'on invente des perroquets stochastiques se pose aussi le problème du plagiat : comme on a appris aux perroquets à reproduire un certain corpus de texte, ils ont naturellement tendance dans certaines circonstances à recracher exactement le même texte qu'ils ont appris. Ce problème est particulièrement aigu dans le cas de GitHub Copilot, qui recopie souvent de larges morceaux de code existant (ce qui pose des problèmes de copyright, mais bon, ce n'est pas moi qui vais défendre plus de sévérité dans l'application du droit de la propriété intellectuelle !), mais je n'ai pas l'impression qu'il soit trop présent avec ChatGPT, je ne sais pas pourquoi.

☞ Le problème des biais

En revanche, l'éléphant au milieu de la pièce quand il s'agit d'IA entraînées sur un corpus de textes produit par des humains, c'est la reproduction des biais socioculturels contenus dans ce corpus.

Fatalement, si on part d'un corpus d'entraînement écrit par des gens qui sont, à divers degrés, et plus ou moins inconsciemment, racistes, sexistes, homophobes, etc., et qu'on l'entraîne à reproduire de tels textes, on obtient une IA qui a aussi ces biais. Et le problème n'est pas facile à corriger, pour la même raison qu'il n'est pas facile de mettre des « barrières de sécurité » — comme je l'ai évoqué plus haut — qui soient profondes et pas superficiellement plaquées sur l'IA. Bien sûr on pourra interdire la production de textes contenant des épithètes raciales ou des injures homophobes, mais d'une part ça restera des barrières faciles à contourner et d'autre part ça ne règle en rien le problème des biais plus profonds (si on demande à l'IA d'écrire une histoire avec an engineer, cette personne a certainement plus de chances d'être un homme).

Quelque part le problème est le suivant : le but d'une IA est d'être à différents niveaux meilleure que nous (plus intelligente, peut-être, et certainement plus renseignée, mais aussi plus obéissante, plus bienveillante, plus hermétique aux préjugés…) : développer une IA qui soit un beauf moyen artificiel n'est pas vraiment très intéressant. Mais comment réussir à faire cette IA « meilleure » (en n'importe quel sens) si la seule manière dont nous savons programmer des IA est par apprentissage sur un corpus de textes et que le corpus est écrit par des beaufs moyens ?

En plus de ça, on est en train de créer une incitation perverse assez subtile : si on a, disons, certaines opinions politiques, en publiant en ligne des textes qui les exposent on augmente les chances que ces textes fassent partie du corpus d'entraînement d'IA futures, et donc influent sur les biais de ces dernières. Autrement dit, publier des textes en lignes, ce n'est pas juste persuader des vrais gens, mais aussi persuader des IA à venir. (Peut-être que c'est la raison d'être secrète de ce blog depuis le début que de me réincarner en un petit bout d'une IA superintelligente dans le futur qui aura été entraînée, notamment, sur le blog de David Madore, et qui pontifiera comme je le fais sur toutes les questions qui sont mon dada.)

(Notons qu'en disant que l'entraînement des IA pose nécessairement le problème de la reproduction des biais contenus dans le corpus d'entraînement, j'ai en tête le cas d'une IA généraliste entraînée sur un corpus de conversations, d'images, ou que sais-je, produit par des humains. Mais il y aussi des cas différents : si le corpus d'entraînement peut être généré et vérifié de façon automatique, le problème ne se pose pas : par exemple, pour faire des IA qui jouent à tel ou tel jeu, on peut se contenter de la faire jouer contre des copies d'elle-même, du moment que le gagnant peut se calculer de façon objective, on n'a pas de problème de biais venant du corpus. Un cas d'utilisation des IA qui m'intéresse beaucoup a priori, c'est pour transformer des preuves mathématiques écrites en langage naturel en des preuves formelles susceptibles d'être fournies à un assistant de preuve pour validation : l'intérêt de cette situation c'est que l'entraînement peut être fait sur la contrainte objective l'assistant de preuve certifie que la preuve formelle est valable — bon, il reste le problème de s'assurer que la preuve formelle démontre bien le résultat que la preuve informelle prétendait démontrer, mais au moins on a un critère objectif et testable qui peut servir dans l'entraînement.)

☞ Récapitulation (en guise de conclusion)

Bon, in fine, je ne sais pas bien quoi penser de tout ça. Je suis convaincu de l'idiotie à la fois du technosolutionnisme béat qui fait croire que la technologie, et notamment l'IA, a la réponse à tout, et du luddisme qui s'imagine qu'on peut répondre aux problèmes qu'elle pose en cherchant à bloquer son développement. La question la plus importante est sans doute entre les mains de qui l'IA arrive en premier. Google a certainement des soucis à se faire (je crois qu'ils s'en font, et vont certainement miser beaucoup pour essayer de rattraper leur retard en la matière), parce qu'OpenAI pourrait devenir bien plus riche ou puissante que lui avec ces nouveaux outils. Du coup, il est intéressant de regarder qui sont ses dirigeants. (Quand je vois qu'Elon Musk fait partie de ses fondateurs, je m'inquiète, même si apparemment il a ultérieurement pris ses distances. Mais je ne prétends pas être correctement informé quant à la politique sous-jacente à ce truc pour pouvoir décider à quel point il faut être d'emblée hostile ou simplement méfiant.)

Je ne sais pas vraiment comment conclure tout ce brain-dump. On est encore loin d'avoir des IA vraiment « intelligentes » (dans un sens raisonnable du mot, disons, capables de raisonner), mais, si j'ai toujours été convaincu que c'était théoriquement possible, je commence à trouver que ce n'est plus si farfelu en pratique, et indiscutablement il y a des raisons d'en être préoccupé à différents niveaux, pas encore parce qu'une IA superintelligente pourrait présenter un danger existentiel pour l'humanité façon maximiseur de trombones (perspective un peu naïve mais pas forcément idiote non plus), mais au moins parce que les IA développées actuellement souffrent d'énormément de biais et de possibilités d'être mal utilisées.

↑Entry #2741 [older| permalink|newer] / ↑Entrée #2741 [précédente| permalien|suivante] ↑

↓Entry #2740 [older| permalink|newer] / ↓Entrée #2740 [précédente| permalien|suivante] ↓

(mardi)

La misérable race humaine périra par le froid

[Gravure de Meyer illustrant l'ouvrage “La Fin du monde” de Camille Flammarion, montrant des gens grelottant dans un paysage polaire, avec la légende suivante : « La misérable race humaine périra par le froid. »][Gravure illustrant l'“Astronomie populaire” de Camille Flammarion, montrant un couple de squelettes enlacés dans une grotte dans un paysage gelé, avec la légende suivante : « Surprise par le froid, la dernière famille humaine a été touchée du doigt de la Mort, et bientôt ses ossements seront ensevelis sous le suaire des glaces éternelles. »]Le titre de ce billet est tiré de la légende d'une gravure (de Henri Meyer, reproduite ci-contre) du livre La Fin du monde (1894) de Camille Flammarion (la gravure se trouve page 115, chapitre IV de la première partie ; le livre est trouvable ici sur Gallica avec les illustrations, ou ici sur Wikisource pour ce qui est du texte reformaté en HTML). J'avoue platement ne pas avoir lu ce livre (quel manque insupportable à ma culture générale !), peut-être que je m'y mettrai un jour où je me sentirai d'humeur d'absorber de la science-fiction post-apocalyptique de la Belle Époque, mais en tout cas vous en avez un bref résumé sur Wikipédia. J'avais dû voir l'image en question reproduite dans un livre de physique que j'avais lu quand j'étais petit, dans la section qui parlait de la seconde loi de la thermodynamique et qui évoquait la mort thermique et/ou l'histoire de ce concept. (Pour résumer sans entrer dans les détails, le concept de mort thermique était très à la mode quand les lois de la thermodynamique ont été dégagées ; il est toujours d'actualité, l'Univers est bien promis à une mort thermique selon nos connaissances actuelles, mais celle-ci aura lieu dans beaucoup plus longtemps que ce qu'on imaginait à l'époque de Flammarion, et au niveau de la Terre ce n'est vraiment pas un problème : voir par ici.)

Toujours est-il que cette gravure et sa légende m'avaient beaucoup frappé, par le style délicieusement suranné de cette époque où on avait encore le droit d'utiliser la tournure race humaine sans que des biologistes grincheux ne viennent vous reprocher que l'humanité n'est pas une race mais une espèce, et aussi le droit d'utiliser des phrases aussi ampoulées que celle qui accompagne la seconde gravure que j'ai reproduite en-dessous : Surprise par le froid, la dernière famille humaine a été touchée du doigt de la Mort, et bientôt ses ossements seront ensevelis sous le suaire des glaces éternelles.[#] Cette autre gravure (dont je ne sais pas qui est l'artiste) est aussi tirée d'un ouvrage de Flammarion, cette fois c'est son Astronomie populaire (1880 ; la planche se trouve dans page 101 du tome 1, chapitre VII du livre I ; le livre est de nouveau trouvable sur Gallica ; il n'a pas l'air d'être en ligne sous un format texte propre, mais il continue encore à être réimprimé sur des bouts d'arbres morts).

[#] Remarquez le cadavre du petit chien accompagnant ce dernier couple d'humains qui sont morts dans les bras l'un de l'autre, comme c'est touchant. Au fait, si quelqu'un a accès à Dall·E, je veux bien voir à quoi ressemble l'image qu'on obtient si on lui propose cette légende.

Bon, tout ça c'était juste pour dire que j'adore ces gravures, pas vraiment pour parler de Flammarion ni de la vision de la thermodynamique à la fin du XIXe siècle, mais ces livres sont sans doute très intéressants si on aime l'histoire des sciences et qu'on a un temps que je n'ai pas présentement pour les lire. (Je crois comprendre que l'Astronomie populaire a eu beaucoup d'influence sur son temps, dans la mesure où un livre de vulgarisation scientifique peut en avoir.) Si vous aimez la futurologie dans un style plus moderne mais dans la lignée des idées exposées par ces planches, je ne peux que recommander deux vidéos de l'extraordinaire chaîne Kurzgesagt : celle-ci sur l'avenir lointain, et celle-ci sur la mort de froid de la Terre sans le soleil. (Un peu plus ancien, mais au sujet de la mort thermique de l'Univers et du second principe de la thermodynamique, on peut toujours référencer la nouvelle classique de science-fiction The Last Question d'Isaac Asimov, trouvable ici en ligne probablement en débit du droit d'auteur.)

Bref.

J'ai froid.

Je m'étais plaint de l'hiver l'an dernier (mais avec une image d'illustration tirée de Game of Thrones, admettez que c'est beaucoup moins classe que Flammarion, même si elle reflète aussi très bien mon état d'esprit actuel), et décidément mon appréciation pour cette saison ne va pas en s'améliorant. Du coup je vais passer mon temps grelottant devant un clavier en infligeant à mes lecteurs mes rants incohérents sur le froid, l'énergie, et tous les sujets qui me passent par la tête.

Il fait froid en France en ce moment. Les gens qui habitent les pays où il fait vraiment froid sont priés de ne pas se moquer qu'on puisse appeler froides des températures de l'ordre de −1°C à −6°C, surtout si les pays en question ont encore de l'énergie pour se chauffer.

En vrai, je ne sais pas bien estimer combien la vague de froid actuelle là où j'habite est inhabituelle. J'ai bien essayé de faire un peu joujou avec des données (voir ce fil Twitter), mais c'est compliqué à exploiter tant elles sont bruitées.

↑Entry #2740 [older| permalink|newer] / ↑Entrée #2740 [précédente| permalien|suivante] ↑

↓Entry #2739 [older| permalink|newer] / ↓Entrée #2739 [précédente| permalien|suivante] ↓

(lundi)

Quelques réflexions sur l'électricité, la pénurie et les probables coupures à venir

Avec l'arrivée de l'hiver, l'opinion publique française découvre que la sécurité de l'approvisionnement en électricité du pays est tout à fait précaire. (Le phénomène n'est pas exclusivement français, il se produit dans d'autres pays européens — sans même parler de l'Ukraine — mais avec des différences et à des degrés d'acuité divers, et comme je ne connais essentiellement que la situation en France et un tout petit peu en Allemagne et au Royaume-Uni, je vais éviter de me mouiller en parlant d'autre chose que de la France.) Personnellement je suis amplement averti du problème parce que mon poussinet m'en parle régulièrement depuis au moins deux ans (même s'il faut reconnaître qu'il a surestimé son ampleur puisqu'il me promettait déjà des blackouts pour l'hiver 2020–2021, puis pour l'hiver 2021–2022, qui n'ont pas eu lieu), mais je trouve assez malheureuse cette façon qu'a le pays de découvrir les choses quand on est au pied du mur : j'ai l'impression qu'on est reparti dans le même système de déni qu'avant la première vague de covid, où on a d'abord fait semblant que le problème ne toucherait pas la France, puis que ça n'affecterait pas notre vie courante, pour finalement découvrir l'impréparation totale du pays, qui est certes la faute des autorités, mais aussi des autres composantes de la vie publique, par exemple la presse qui aurait dû les harceler sur le sujet depuis des mois pour exiger des détails sur ce qui était prévu et ce qui pourrait se passer.

(Je ne comprends même pas la logique des gouvernements, dans leur intérêt égoïste, à nier ce genre de crises à venir. Il me semble que si j'étais au pouvoir et intéressé par y rester, je chercherais au contraire à amplifier tous les problèmes à l'horizon dont je peux vaguement prétendre qu'ils ne sont pas de ma faute — comme une pandémie ou une mauvaise gestion du réseau électrique par les gouvernements précédents — quitte à pouvoir dire, si rien de mal ne se produit, vous voyez ? notre action a réussi à éviter la catastrophe, et, si le problème survient effectivement, vous voyez ? nous vous avions prévenus. Mais passons.)

Je vais donc essayer de faire un peu le tour de ce que je peux dire sur le sujet tel que je le comprends. Comme je le fais parfois quand je n'arrive pas à plaquer mon discours sur un plan structuré en parties, je fais un succédané de plan sous forme de petits intertitres alignés à droite qui aident j'espère un petit peu à s'y retrouver dans ce pavé de texte.

☞ Énergie et puissance

Les raisons du problème sont variées (ce qui permet commodément à chacun de pointer du doigt ce qui l'arrange : qui l'intermittence des énergies renouvelables, qui la lenteur de l'entretien des centrales nucléaires, qui la guerre en Ukraine, qui la pandémie, qui la conjoncture économique), mais disons déjà qu'il y a deux chose qu'il ne faut pas confondre, même si elles ont un impact l'un sur l'autre : l'Europe en général, et la France en particulier, a à la fois un problème d'énergie en général (et de prix de l'énergie) et un problème de puissance de pointe sur le réseau électrique. C'est du deuxième que je veux parler même si le premier l'affecte indirectement.

☞ Tristesse quant au manque de culture scientifique du grand public (une digression)

Donc déjà, là, on a un méta-problème, qui est que le grand public a du mal à comprendre le problème, déjà parce que grand public ne connaît pas ou ne comprend pas la différence entre une énergie (qui est un stock) et une puissance (qui est un flux), confusion à la fois trahie et alimentée par les journalistes qui mélangent complètement les kilowatts·heure (kW·h, unité d'énergie) et les kilowatts (kW, unité de puissance), ou parlent même de kilowatts par heure (ce qui n'a pas de sens, enfin, ça peut en avoir dans des cas fort rares comme pour une montée ou baisse de charge, mais ce n'est presque jamais ce dont on parle). Et je prétends que cette confusion, loin d'être un point anecdotique (oui oui, j'ai écrit kilowatts par heure, je voulais dire kilowatts·heure, c'est un lapsus, vous m'embêtez, les scientifiques, avec vos pinaillages) devient un grave problème politique parce que quand on ne comprend rien à une crise, on mélange tout, on finit par croire des conneries, et des gens peu scrupuleux en profitent pour vous faire passer des vessies pour des lanternes. Or on a besoin de citoyens éclairés, surtout quand on leur demande des efforts ou des actions intelligentes (ou simplement de voter pour des non escrocs) ; et ce billet de blog est ma modeste contribution pour essayer d'aider à cet éclairement.

Ceci s'inscrit bien sûr dans le cadre plus large du problème de manque de compétences scientifiques basiques du grand public, donc je me suis déjà indigné plusieurs fois (par exemple ici) sur ce blog, et qui s'est déjà manifesté pendant la pandémie avec la difficulté à comprendre ce qu'est une exponentielle ou un taux de létalité (mais bon, pendant la pandémie, les épistémologistes ont eux-mêmes dit énormément de conneries). On peut aussi comparer ça avec un problème de culture générale : il ne s'agit de se moquer de personne individuellement (tout le monde a beaucoup de lacunes quelque part dans sa culture), mais on peut néanmoins être affligé par le niveau général collectif de culture scientifique du grand public. Ne pas comprendre la différence entre une énergie et une puissance est à peu près d'analogue à ne jamais avoir entendu parler de la première guerre mondiale, à la différence que (je ne sais pas pourquoi) c'est socialement moins mal vu d'être ignorant sur le concept d'énergie que sur l'existence de la première guerre mondiale, et que c'est politiquement plus problématique quand on est plongé dans une crise de l'énergie qui rend le concept autre chose que théorique.

Est-ce que ça vaut la peine que j'essaie d'expliquer les choses ? J'ai toujours peur que ce soit comme pisser dans un violon : les gens qui ont déjà la culture scientifique nécessaire savent déjà très bien ce qu'est la différence entre une énergie et une puissance, et ceux qui ne le savent pas, ce n'est souvent pas tellement par manque d'information que par manque de motivation pour apprendre (c'est technique, ça ne m'intéresse pas), donc même s'il y en a qui lisent mon blog, ce qui est déjà assez rare vu le contenu dont je parle en général, j'ai peur qu'ils se disent simplement ouhlà, il y a des chiffres : je vais sauter, et c'est bien ça le cœur du problème.

Mais bon, hauts les cœurs, je vais quand même faire des efforts de pédagogie.

☞ Une analogie avec de l'eau

Pour essayer d'expliquer les choses avec une analogie, si on imagine que l'énergie est remplacée par de l'eau, ou plus exactement l'analogie dans laquelle l'énergie est un volume d'eau, alors la puissance est un débit, c'est-à-dire un volume par unité de temps qui peut circuler dans une canalisation, ou qu'une pompe est capable de produire, ou qu'une installation domestique consomme, ou quelque chose comme ça. On voit qu'il y a plusieurs façons différentes de manquer d'eau : on peut manquer de volume mais pas de débit (le lac source ou la nappe phréatique est presque vide, on peut en tirer très vite mais bientôt il n'y aura plus rien), ou on peut manquer de débit (la nappe phréatique est bien pleine, mais la pompe qui en extrait de l'eau ne peut pas extraire assez vite). Le débit se mesure en volume par unité de temps, par exemple en litres par seconde ou en mètres cube par heure ; inversement, un volume écoulé se calcule en multipliant un débit par le temps pendant lequel on a laissé ce débit s'écouler.

Il en va exactement de même de l'énergie et de la puissance, sauf que les accidents de l'histoire font que l'unité la plus souvent utilisée pour l'énergie (≈ volume) dans la vie courante (pour la facturation et l'économie de l'énergie, disons) se déduit de l'unité pour la puissance (≈ débit), le watt, et pas le contraire : cette unité d'énergie est le watt·heure (ou ses multiples), qui est l'énergie consommée ou produite si on consomme ou produit une puissance de 1 watt pendant une heure : c'est une multiplication, pas une division, parce que l'énergie est un produit d'une puissance par un temps de la même manière qu'un volume d'eau est un produit d'un débit par un temps ; donc watt·heure, pas watt/heure. Si on préfère, l'unité de puissance, le watt, est un watt·heure par heure (unité d'énergie par unité de temps) de la même manière que pour l'eau, une unité de débit est par exemple mètre cube par heure (disons). En fait, l'unité standard officielle d'énergie est le joule, qui est un watt·seconde, mais c'est trop petit pour être utile en économie, donc on utilise le watt·heure, qui vaut 3600 joules puisqu'une heure vaut 3600 secondes (et, de nouveau, c'est un produit : un watt consommé pendant 3600s ça va faire 3600 fois plus d'énergie consommée qu'un watt consommé pendant 1s). Et en fait, plutôt que le watt·heure lui-même, on utilise surtout ses multiples, le kilowatt·heure (kW·h), qui vaut 1000 watts·heure (ou 3.6 millions de joules), le mégawatt·heure (MW·h), qui vaut 1000 fois ça c'est-à-dire 1 million de watts·heure (ou 3.6 milliards de joules), le gigawatt·heure (GW·h), qui vaut 1000 fois ça c'est-à-dire 1 milliard de watts·heure, et le térawatt·heure (TW·h), qui vaut encore 1000 fois ça, c'est-à-dire 1 billion de watts·heure (le billion français, pas le billion américain qui est un autre nom du milliard).

(J'aurais pu faire une analogie avec de l'argent au lieu de la faire avec de l'eau : l'énergie est comme un capital alors que la puissance est comme un salaire. Le problème avec cette analogie, peut-être superficiellement plus parlante que celle avec l'eau, c'est que le salaire n'est reçu que par sommes mensuelles, ce qui aide moins à comprendre les problèmes des pics instantanés de débit. Elle serait plus appropriée si on recevait un salaire sous forme d'augmentation continue de son compte en banque : un centime toutes les quelques secondes. Mais ce n'est pas le cas alors je préfère parler d'eau.)

(Bon, par ailleurs, j'aurais peut-être dû mettre partout dans cette entrée des guillemets autour de consommer de l'énergie : techniquement, on ne consomme jamais d'énergie, pas plus qu'on n'en produit, parce que l'énergie se conserve, on ne fait que la transformer d'une forme en une autre, et in fine en chaleur qui est la forme la plus difficilement utilisable de l'énergie ; mais bon, il n'est pas mon propos de faire ici de la vulgarisation sur la thermodynamique, pour ça je peux renvoyer à cette fort vieille entrée. Et puis, on parle bien de consommer de l'eau, alors que l'eau non plus elle ne disparaît pas quand on la consomme, elle finit bien quelque part, donc ça rend mon analogie tout à fait pertinente.)

☞ Unités d'énergie et de puissance

Je répète, pour que ce soit facile à trouver et à lire :

L'énergie est un stock (comme un volume d'eau), on la mesure en (joules, ou en) watts·heure (W·h) et ses multiples le kilowatt·heure (1kW·h = 1000 W·h), le mégawatt·heure (1MW·h = 1 000 000 W·h), le gigawatt·heure (1GW·h = 1 000 000 000 W·h), ou même le térawatt·heure (1TW·h = 1 000 000 000 000 W·h).

La puissance est un flux (comme un débit d'eau), on la mesure en watts et ses multiples le kilowatt (1kW = 1000 W), le mégawatt (1MW = 1 000 000 W) ou le gigawatt (1GW = 1 000 000 000 W).

Un watt·heure est l'énergie totale produite ou consommée si on produit ou consomme une puissance de 1W pendant 1h, et on a :

énergie = puissance (moyenne) × temps

— par exemple, consommer une puissance de 1000W pendant 1h, ou de 1W pendant 1000h, ou de 20W pendant 50h, ou de 50W pendant 20h, tout ceci consomme 1000W·h = 1kW·h au final.

Inversement, un watt est la puissance correspondant à consommer un watt·heure par heure :

puissance (moyenne) = énergie / temps

— par exemple si un équipement électrique a consommé 1000W·h (soit 1kW·h) pendant un intervalle de 5h, c'est que sa puissance consommée moyenne est de (1000W·h)/(5h) = 200W.

Le watt par heure, lui, n'a que très rarement un sens (quand on parle d'une variation de puissance dans le temps, ce qui n'est vraiment pas fréquent) : au moins 99 fois sur 100, quand un journaliste parle de watt par heure ou écrit W/h, c'est une erreur pour watt·heure ou W·h.

(La raison de la confusion qui fait écrire watt par heure ou W/h à beaucoup de journalistes est sans doute une forme d'hypercorrection : on leur a appris que ce qu'on appelle vulgairement un kilomètre-heure dans le langage courant est en fait un kilomètre par heure et ils savent qu'il faut écrire km/h, ce qui est vrai, donc par analogie ils s'imaginent qu'un watt-heure est une erreur pour watt par heure, mais justement ce n'est pas ça, ce n'est pas une division, c'est une multiplication, c'est un watt fois heure qu'on appelle un watt·heure, et c'est un watt qui est un watt·heure par heure et pas le contraire.)

☞ Ordre de grandeur : le kilowatt·heure

L'autre chose qui fait cruellement défaut au grand public, c'est un sens des ordres de grandeur. Un radiateur électrique typique peut consommer (c'est-à-dire en fait : transformer en chaleur) une puissance de 1000W, autrement dit 1kW : si on le fait tourner pendant 1h, on a donc consommé 1kW·h, un kilowatt·heure. Le kilowatt·heure est donc une unité assez typique pour les consommations domestiques individuelles. Son prix aux particuliers dépend du détail de l'abonnement, mais en ce moment chez EDF il est à 0.174€ pour l'abonnement de base, ou 0.147€ en heures creuses et 0.184€ (j'arrondis) en heures pleines si on a la formule HC/HP, ou entre 0.086€ (heures creuses bleues) et 0.549€ (heures pleines rouges) si on a la formule Tempo. Le mégawatt·heure, le gigawatt·heure et le térawatt·heure sont donc alors mille, un million, et un milliard de fois ça : le premier peut servir par exemple à mesurer la consommation d'un foyer sur un an, le second à mesurer la consommation d'un village sur un an, le troisième d'une grande ville sur un an (et pour la Terre entière, on parlera carrément en pétawatts·heure).

Il peut aussi être intéressant de noter que le watt·heure est à peu près la même chose que la « calorie » (qui est en fait en vrai une kilocalorie, mais tout le monde l'appelle calorie, et, oui, c'est vraiment confusant), cette unité à la con qui sert à indiquer les apports en énergie des aliments : oui, la calorie-qui-est-en-fait-une-kilocalorie est une unité d'énergie comme le watt·heure ou le joule, elle vaut 1.16 watt·heure. Du coup, les apports journaliers recommandés en énergie pour un adulte sont de l'ordre de 2.5 kW·h (l'essentiel part en métabolisme), ce qui peut aussi être un bon ordre de grandeur à retenir.

Autre ordre de grandeur possiblement intéressant : une voiture électrique consomme de l'ordre de grandeur de 150W·h par kilomètre, ou si on préfère, 15kW·h par 100km. Par ailleurs, un litre d'essence « contient » (c'est-à-dire, est capable de libérer quand on le brûle) environ 9kW·h.

☞ Puissance instantanée et puissance moyenne

Concernant le lien entre énergie et puissance, il faut que je fasse une remarque importante sur la puissance moyenne et la puissance instantanée. Là aussi, si je dois m'adresser au grand public, il vaut sans doute mieux que je fasse une analogie. Ce sera plus clair si je parle de distances et de vitesses :

↑Entry #2739 [older| permalink|newer] / ↑Entrée #2739 [précédente| permalien|suivante] ↑

↓Entry #2738 [older| permalink|newer] / ↓Entrée #2738 [précédente| permalien|suivante] ↓

(dimanche)

Et pendant ce temps-là, la CGPM fait des bêtises et décide de casser le temps sur Terre (ou pas)

Youhou, deux entrées dans mon blog cette semaine ! Mais quand ce n'est pas Elon Musk qui fait des bêtises, c'est la CGPM. Décidément, je ne peux pas laisser l'Univers une seconde sans qu'il se mette à déconner !

La 27e Conférence Générale des Poids et Mesures, donc, s'est réunie cette semaine. Elle a adopté sept résolutions (le texte de celles-ci est disponible au lien précédent) : les nº1 (Sur le rapport préparé par le Comité international des poids et mesures sur l'évolution des besoins dans le domaine de la métrologie) et nº2 (Sur la transformation numérique mondiale et le Système international d'unités) sont du blabla qui sert juste à faire jeune, la nº6 (Sur l'adhésion universelle à la Convention du Mètre) est du blabla politique, la nº7 (Sur la dotation du Bureau international des poids et mesures pour les années 2024 à 2027) est de l'administration interne, mais les nº3 à 5 méritent qu'on s'y attarde un peu plus, notamment parce que la nº4 pourrait représenter une révolution dans la gestion du temps (vous pouvez sauter la description des 3 et 5 si ce sont les secondes intercalaires qui vous intéressent ainsi que la question de savoir si le temps va être cassé, mais je vais quand même en dire un mot).

La résolution nº3 (Sur l'extension de la liste des préfixes du SI) crée quatre nouveaux préfixes SI : ronna (‘R’) pour 1027, ronto (‘r’) pour 10−27, quetta (‘Q’) pour 1030 et quecto (‘q’) pour 10−30. On a donc, par exemple, maintenant le droit de dire que le Soleil pèse 1988 quettagrammes tandis que la Terre, elle, pèse 5.972 ronnagrammes, ou encore que la masse de l'électron pèse 911 quectogrammes tandis que le proton, lui, pèse 1673 rontogrammes. C'est complètement ridicule, mais ça ne fait pas vraiment de mal. Ceci dit, je serais vraiment curieux de savoir qui a vraiment pris ces décisions et les a fait avaler aux délégués nationaux à la CGPM, et pourquoi : le moins qu'on puisse dire est que le processus est assez opaque, on ne semble pas avoir accès aux vrais documents préparatoires aux décisions. La seule explication que je trouve quant au nom et symbole des préfixes est ici, et elle n'explique pas grand-chose. Personne n'utilise ces préfixes farfelus (en vrai, la masse du soleil s'exprime en kilogrammes, comme 1.988×1030 kg, la masse des objets astronomiques s'exprime en… masses solaires ; et la masse du proton s'exprime en MeV) ; le plus proche que je trouve d'une explication, c'est que les préfixes « grands » seraient utiles pour des quantités de données (apparemment il y a des gens qui parlent vraiment de zettabytes et qui envisagent déjà quelques ordres de grandeurs au-dessus ?) ; reste donc aussi à ce que quelqu'un (qui ?) formalise les préfixes binaires équivalents robi (préfixe ‘Ri’) pour 290 et quebi (préfixe ‘Qi’) pour 2100, et on pourra dire qu'un quebi-octet vaut 1.268 quetta-octets et le ridicule sera achevé. Mais bon, au moins, ce ridicule ne tue pas, et même, honnêtement, ne fait guère de mal.

La résolution nº5 (Sur la future redéfinition de la seconde) prépare le terrain à une redéfinition de la seconde SI, probablement pour utiliser des fréquences optiques (des fréquences de l'ordre de 1015 Hz ou de la centaine de térahertz) au lieu de la transition hyperfine de l'atome de césium-133 (qui se fait à environ 1010 Hz, très exactement 9 192 631 770 Hz). Il paraît que ces horloges optiques devraient atteindre des précisions encore supérieures aux meilleures horloges atomiques (à fontaine d'atomes de césium ou de rubidium) et possiblement dépasser des précisions de l'ordre de 10−16 partie par partie (de l'ordre de 1 seconde par milliard d'années). Je ne m'y connais pas, mais là, c'est clairement du domaine d'attribution du BIPM (et de la CGPM qui le contrôle) de s'occuper de ça, et c'est très bien.

Reste la résolution nº4 (Sur l'utilisation et l'évolution future de l'UTC), et c'est là que je tique vraiment. Des journalistes ont résumé la chose en disant que la décision avait été prise d'abolir les secondes intercalaires d'ici 2035. Dit comme ça c'est faux[#], comme d'habitude avec les journalistes, ce n'est pas ce que dit le texte de la décision votée, mais ce qui a vraiment été décidé et là où ils veulent en venir n'est pas super clair. Commençons par rappeler le contexte.

[#] Je cite le premier paragraphe de l'article du International Business Times : Scientists and government representatives meeting at a conference in France voted on Friday to scrap leap seconds by 2035, the organisation responsible for global timekeeping said. — À peu près tout est faux là-dedans : sans compter que le terme a conference in France suggère vraiment autre chose qu'une organisation internationale établie depuis 147 ans, ce n'est certainement pas the organisation responsible for global timekeeping, et la décision n'a pas été prise to scrap leap seconds by 2035, ce n'est pas ce que dit la résolution, et même si c'est peut-être l'intention, ce n'est pas clair, comme je vais le dire.

❀✿❀ Les secondes intercalaires ❀✿❀

Historiquement, la seconde était la partie 1 / 86 400 du jour solaire moyen (parce qu'un jour fait 24 heures de 60 minutes de 60 secondes, et 24×60×60 = 86 400). Mais la rotation de la Terre autour d'elle-même est légèrement irrégulière quand on y regarde de très près, et pour plus de précision, la seconde a été redéfinie sur la base de la révolution de la Terre autour du Soleil, puis sur la base d'horloges atomiques, considérablement plus précises, donc sur la base d'une certaine vibration de l'atome de césium-133 : je ne rentre pas dans les détails de ces redéfinitions (voir cette entrée passée), mais en gros, parce que les valeurs ont été basées sur des tables astronomiques établies à la fin du XIXe siècle et elles-mêmes basées sur des observations réalisées entre environ 1750 et 1850, la seconde correspond à la partie 1 / 86 400 du jour solaire moyen non pas maintenant mais grosso modo autour de l'année 1800, et la rotation de la Terre a un peu ralenti depuis. Donc, maintenant que la seconde SI a été définie de façon très très très (très !) précise (et, désolé, il n'est vraiment plus possible de la changer maintenant), le jour solaire moyen fait actuellement plutôt autour de 86400.002 secondes, avec plein d'irrégularités autour de cette valeur (voir ici pour un graphe de l'excès de la durée du jour par rapport à 86 400 s, en millisecondes, sur l'intervalle 1964–2002, avec la décomposition des divers effets : je ne sais pas où trouver des données plus récentes, mais actuellement on est provisoirement retombé en-dessous de 86 400 et je vais y revenir).

Bon, alors, si la seconde SI est telle que la durée du jour moyen fait 86400.002 secondes et qu'on veut diviser le jour en 24 heures de 60 minutes de 60 secondes, il n'y a pas besoin d'être très fort en maths pour se rendre compte qu'il va y avoir un problème. Que fait-on ?

Il y a plusieurs approches imaginables, suivies par différentes échelles de temps : ignorer le problème et compter juste les secondes SI, ou suivre vraiment le Soleil, ou essayer de faire un compromis entre les deux. Respectivement :

  • L'approche j'ignore le problème, je compte juste le temps en secondes est celle suivie par le temps atomique international (TAI) : le temps TAI est simplement un décompte de secondes à la surface de la Terre réalisé par les meilleures horloges atomiques, et il ignore le jour solaire. Il se décale donc progressivement du temps solaire mesuré au méridien de référence (en ayant tendance à avancer puisque le jour solaire moyen est plus long que les 86400s exactement d'un jour TAI, donc TAI avance). Actuellement, TAI est en avance d'environ 37s par rapport au temps solaire qui fait l'objet du point suivant.
  • L'approche j'ignore la seconde, je regarde le vrai temps solaire est celle suivi par le temps universel (astronomique observé), disons UT1. Bon, c'est compliqué, il y a plein de temps universels astronomiques différents (UT0, UT1, UT2, mais plus personne n'utilise UT2 et UT0 est une mesure brute bruitée, donc celui qui importe est UT1 qui apporte des corrections de la nutation et du mouvement des pôles), mais pour simplifier, UT1 est le temps solaire observé par les astronomes au méridien de référence (le 0° de longitude). Du coup, son écoulement n'est pas exactement régulier (parce que la Terre tourne plus ou moins vite selon le moment), ni même prévisible à l'avance, et il ne compte pas en secondes SI, ce n'est même pas vraiment un temps, c'est plutôt un angle de rotation de la Terre. Ce n'est pas non plus un temps pratique à utiliser, parce qu'on ne le connaît vraiment que a posteriori, et il faut faire des observations astronomiques pour ça.
  • Et l'approche faisons un compromis entre les deux. Le compromis actuellement en vigueur, qui porte le nom de temps universel coordonné, UTC (autrefois GMT ou heure de Greenwich), consiste à dire : on compte le temps en secondes SI, mais on ne s'écarte pas trop de UT1 (le vrai temps solaire observé), et si on va s'en écarter trop, on introduit une seconde en plus ou en moins appelée seconde intercalaire pour revenir proche de UT1.

Le temps universel coordonné UTC est la base de l'heure légale partout dans le monde, donc c'est lui qui importe le plus. (L'heure légale en France, par exemple, est UTC plus une heure en hiver, et plus deux heures en été, cf. cette entrée-là sur le sujet. Il y avait un doute sur le Danemark, je crois, qui peut-être utiliserait UT1 et pas UTC comme base pour son temps légal, mais si je me rappelle bien c'est sur la base d'une interprétation assez hasardeuse d'un texte de loi et je pense que personne ne prend ça très au sérieux. On peut aussi faire valoir des différences minuscules — quelques nanosecondes — entre les horloges atomiques maîtresses des différents pays dans la réalisation d'UTC, l'heure UTC finale définitive étant connue a posteriori par un travail de synchronisation très fin entre ces horloges, mais là c'est vraiment du coupage de cheveux en quatre alors que la différence entre TAI, UT1 et UTC, elle, ne l'est pas, 37 secondes ce n'est pas un truc qu'on peut juste ignorer.)

↑Entry #2738 [older| permalink|newer] / ↑Entrée #2738 [précédente| permalien|suivante] ↑

↓Entry #2737 [older| permalink|newer] / ↓Entrée #2737 [précédente| permalien|suivante] ↓

(samedi)

Comment migrer de Twitter à Mastodon (ou pas)

Annonce préliminaire : si je décide de créer un compte sur Mastodon (ce qui implique de choisir un serveur, cf. ci-dessous) ou autre réseau social équivalent, en remplacement, ou en plus, de mon compte Twitter, je l'indiquerai en éditant cette entrée-ci pour fournir le lien, ainsi que dans la liste de liens sociaux qui se trouve en bas de chacune des pages du présent site ; je l'annoncerai aussi depuis mon compte Twitter si Twitter existe encore, ainsi que depuis le compte Mastodon temporaire @gro_tsen_test@mastodon.sdf.org que j'ai créé en attendant de prendre une décision définitive.

Je mets de côté l'écriture d'un billet de taille gigantesque consacré aux maths constructives pour parler un peu du fiasco Twitter et de la question de comment migrer vers autre chose, parce qu'à la vitesse à la quelle vont les choses ça devient vraiment urgent.

Je suppose que même les gens qui ne sont pas dessus ont entendu que Twitter était en train de mourir : Elon Musk (vous savez, le multimilliardaire complètement déjanté surtout connu pour Tesla et SpaceX et pour ses idées délirantes de colonisation de Mars) l'a racheté il y a quelques semaines (pour la somme complètement absurde de 44GUSD) et, depuis, semble prendre décision stupide sur décision stupide, à tel point qu'on se demande si c'est vraiment se couper sur le rasoir de Hanlon que de se dire que c'est forcément intentionnel. La vitesse à laquelle il a réussi à tout brûler est même assez impressionnante, ayant d'abord fait fuir les recettes publicitaires avec ses déclarations incohérentes et sa réputation sulfureuse, puis en ayant provoqué un chaos indescriptible en permettant à n'importe qui d'acheter des comptes « vérifiés » pour une somme dérisoire (avant de changer d'avis deux jours plus tard), et, au moment où j'écris, il a fermé les bureaux et licencié quasiment tout le monde (à croire qu'il ne se rend pas compte combien la valeur d'une boîte de tech est dans le savoir-faire de ses employés). Je ne sais pas où tout ça va aller mais j'avoue que je ne m'attendais pas à un tel clusterfuck quand il a racheté la boîte. (Soyons bien clair : je déteste profondément ce type, mais je le pensais au moins minimalement compétent au point de ne pas tout casser immédiatement. Je suis d'avis que ses prédécesseurs n'étaient pas moins détestables, juste moins chaotiques : les réseaux sociaux et leurs utilisateurs sont dans une relation de parasitisme mutuel et leurs patrons ne méritent de toute façon aucune sympathie de notre part, ils nous utilisent comme marchandise et nous les utilisons pour porter nos messages ; donc en soi la détestation que j'éprouve pour Elon Musk ne faisait pas obstacle à ce que je reste sur Twitter, mais évidemment, s'il fait que l'infrastructure se casse la gueule, il n'y a plus d'autre choix.) J'éprouve indiscutablement de la schadenfreude à l'idée que Musk (comme d'ailleurs Zuckerberg, dont les plans de Métavers semblent aussi très foireux) perdent des milliards et soient humiliés, mais il reste la question de savoir quoi faire si Twitter disparaît complètement (ou même sans attendre ce moment), et je suis assez embêté. J'insiste sur le fait qu'il n'y a aucune contradiction entre cette schadenfreude et cet embêtement.

Évidemment, dans la liste des possibilités, il y a rien du tout qui est une option à avoir à l'esprit : si Twitter disparaît, je peux (et chaque utilisateur peut) juste se dire que c'est tant pis, et qu'on a un réseau social de moins mais en avait-on vraiment besoin. Ce n'est pas un besoin vital de faire savoir instantanément au monde qu'on a mal dormi la nuit dernière. J'avais un blog bien avant Twitter pour communiquer mes idées un peu longues (comme, euh, tout ce rant !), je ne compte pas le faire disparaître. Mais j'avoue que j'aime bien la forme courte et plus spontanée que le microblogging permet, et je ne vais pas écrire un billet de blog pour dire à chaque fois que je veux utiliser le verbe valoir au subjonctif, je dois vérifier si c'est qu'il vale ou qu'il vaille ou autres pensées ou blagounettes à 0.02¤ (même si j'eus fait ce genre de choses par le passé), l'effort nécessaire pour publier un billet de blog sur mon site est trop important pour rendre raisonnables les billets ultra-courts mais très nombreux, et je ne crois pas que mes lecteurs apprécient tant que ça si je me mets à écrire autant d'entrées ici que de fils Twitter. Et je ne veux pas nier qu'avoir ~5000 followers est occasionnellement utile (s'il s'agit de demander un renseignement, par exemple), même si ça peut aussi avoir ses inconvénients (comme créer une bulle de contenu ou empêcher, justement une forme de spontanéité), mais bon, ça, de toute façon, les followers, je ne vais pas en garder plus qu'une poignée si je passe à autre chose quelle que soit la manière dont je m'y prenne.

Il est indubitable que les réseaux sociaux n'ont pas que des inconvénients, et que parfois ils servent à autre chose qu'à propager des messages racistes, des appels à signer une pétition, ou des vidéos de chats qui font des conneries : parfois ils sont à la hauteur de leur nom, les gens arrivent vraiment à tisser des liens personnels ou à créer des communautés virtuelles, et c'est dommage de voir ces choses disparaître parce qu'un milliardaire a des lubies (ou parce que Google a décidé d'abandonner un projet, ou parce que Tumblr a été racheté par Verizon, ou n'importe quelle péripétie de ce genre). Je suis assez d'accord avec ce qu'écrit un ami dans ce fil. Je suis aussi assez conscient des choses que ma décision de ne pas aller sur Facebook me rend inaccessibles pour me rendre compte que le fait de vendre son âme au diable n'a pas que des mauvais côtés (et que si mon souhait de voir Facebook disparaître en laissant Zuckerberg ruiné était exaucé il y aurait aussi des conséquences négatives sur des gens qui, contrairement au patron, ne le méritaient pas).

Cory Doctorow a écrit un rant sur Medium que je trouve très bien sur la difficulté de quitter un réseau social pour un autre, et la manière dont nous nous retrouvons prisonniers des relations que nous avons créées sur le premier. (Comme d'habitude avec lui, il défend — même s'il n'utilise pas explicitement le terme — de l'interopérabilité adversariale, avec laquelle je suis tout à fait d'accord, mais ce n'est pas vraiment mon point ici.)

Bref.

Le candidat naturel au remplacement de Twitter, c'est Mastodon. Enfin, plus exactement, c'est le Fediverse (le Fediverse c'est le réseau, ActivityPub c'est le protocole qui sous-tend ce réseau, et Mastodon c'est le principal logiciel qui implémente ce protocole et qui y ajoute des conventions et fonctionnalités, et Mastodon point social est la principale instance de ce logiciel, donc on peut avoir tendance à confondre tout ça et dire Mastodon comme métonymie pour le Fediverse, et vous me permettrez de le faire librement ici, mais je vais tenter d'expliquer plus bas ces histoires de serveurs).

Beaucoup de gens parlaient de, proposaient de, ou incitaient à, quitter Twitter pour Mastodon avant même que Musk rachète Twitter, le mouvement de fuite Twitter → Mastodon s'est amplifié avec le rachat, et accélère encore avec le chaos actuel. (J'en ai notamment parlé ici.) La migration est encore simplifiée par l'existence de nombreux outils qui permettent de retrouver automatiquement une partie des contacts Twitter sur Mastodon (tant que Twitter existe, bien sûr), ou de poster plus facilement en double sur les deux, et bien sûr il y a plein de tutoriels sur comment passer de Twitter à Mastodon. (Il n'est d'ailleurs pas clair que tout le monde sur Mastodon soit forcément très heureux de voir des hordes de réfugiés de Twitter débarquer dans leur coin d'Internet jusque là plutôt tranquille.)

↑Entry #2737 [older| permalink|newer] / ↑Entrée #2737 [précédente| permalien|suivante] ↑

↓Entry #2736 [older| permalink|newer] / ↓Entrée #2736 [précédente| permalien|suivante] ↓

(vendredi)

Sur les vaches des Highlands de Saint-Lambert-des-Bois

Je suis tout étonné de voir que je n'en ai jamais parlé sur ce blog (à part très brièvement dans cette entrée sur l'été 2020 ; j'en ai surtout parlé sur Twitter, mais c'est un peu dispersé entre plusieurs fils, donc je vais reprendre de façon plus systématique). La race Highland de l'espèce Bos taurus (vous savez, ces vaches aux longues cornes et au poil long si caractéristiques, et si vous ne voyez toujours pas, allez suivre cette chaîne YouTube finlandaise) est certainement très haut dans ma liste d'animaux préférés[#]. Mais je ne veux pas parler ici des bovins Highland en général, mais d'un troupeau bien précis, celui de la prairie de la Gravelle à Saint-Lambert-des-Bois (Yvelines). Reprenons donc depuis le début.

[#] Sans doute à égalité, et quoique dans un genre très différent, avec la mésange à longue queue Aegithalos caudatus notamment la sous-espèce japonaise shima enaga, qui a l'air d'avoir évolué pour que les humains craquent complètement en disant que c'est meûgnôôon !!! (et, sans doute, lui donnent à manger). Je soupçonne vaguement que la sélection des vaches Highland a suivi un peu la même approche. En tout cas, je suis sûr que si un jour une mésange à longue queue se pose sur une vache Highland et que quelqu'un photographie ça, l'Univers disparaîtra dans un trou noir de mignonitude : le mieux que je peux vous proposer est donc avec une pie sur la tête.

[Vaches des Highlands dans la prairie de la Gravelle à Saint-Lambert-des-Bois, en train de ruminer (et un cheval au fond)]Les vaches Highland, je pense qu'il n'y en a pas énormément en France, et les vaches tout court il n'y en a pas tant que ça en Île-de-France, et les vaches d'agrément ou de décoration ce n'est certainement pas ce qu'il y a de plus courant (ça coûte cher à entretenir, ces choses-là, cf. ci-dessous), aussi[#2] ai-je été tout surpris de découvrir, en faisant une de mes premières balades à moto, le , en passant sur la D46 après Saint-Lambert-des-Bois, un troupeau de vaches des Highlands en train de brouter. Pourtant, je connaissais déjà le coin (cf. ci-dessous), mais je ne les avais jamais vues ou remarquées.

[#2] Entre temps j'ai appris l'existence de quelques autres vaches des Highlands en Île-de-France. Il y en a deux[#2.1] sur l'île Panchout à Yerres (Essonne), j'en ai aperçu une par hasard dans le Vexin du côté de Labbeville (Val d'Oise), et on me signale qu'il y en a aussi à Gambaiseuil (Yvelines). J'imagine qu'il peut y en avoir en Seine-et-Marne, aussi, je connais beaucoup moins le coin. Mais en tout cas, ça ne court pas les rues.

[#2.1] Avec une histoire assez triste, d'ailleurs, parce qu'un de ces bovins des Highlands installés là par la mairie d'Yerres est mort assez rapidement d'une occlusion intestinale sans doute parce que quelqu'un lui avait jeté quelque chose qu'il a mangé. La mairie a mis de grandes pancartes incitant les visiteurs à ne pas donner à manger aux vaches et surtout ne pas leur jeter de déchets.

(Une assez longue digression sur la géographie du coin, cliquez ici pour sauter.) La vallée de Chevreuse (voir cette entrée passée pour plusieurs cartes) est la vallée de la rivière Yvette entre, grosso modo, sa source et Villebon-sur-Yvette (plus loin la rivière continue jusqu'à se jeter dans l'Orge, mais elle ne fait pas vraiment une vallée nette). Cette vallée est assez rectiligne est-ouest, avec, de la source vers l'aval, c'est-à-dire de l'ouest vers l'est, Lévis-Saint-Nom, Maincourt-sur-Yvette, Dampierre-en-Yvelines, Saint-Forget, Chevreuse, Saint-Rémy-lès-Chevreuse, Gif-sur-Yvette, Bures-sur-Yvette, Orsay et Villebon-sur-Yvette. Il y a quelques affluents de l'Yvette qui creusent des vallées secondaires dans les plateaux au nord et au sud, les trois plus significatifs étant (de l'amont vers l'aval) le ru des Vaux de Cernay (affluent rive droite, dont le confluent est à Dampierre), le Rhodon (affluent rive gauche, dont le confluent est à Saint-Rémy) et la Mérantaise (affluent rive gauche, dont le confluent est à Gif). Tout ce coin est très bucolique et ça vaut la peine de s'y balader (à pied, à vélo, en moto…), et c'est pour ça que je mentionne les vallées du ru des Vaux, du Rhodon et de la Mérantaise, parce que c'est particulièrement joli, mais celle qui m'intéresse ici c'est celle du Rhodon, qui prend sa source quelque part vers le Mesnil-Saint-Denis et se jette dans l'Yvette à Saint-Rémy-lès-Chevreuse, en traversant en chemin Saint-Lambert-des-Bois et Milon-la-Chapelle.

La vallée du Rhodon est notamment connue à cause du site historiquement important de l'ancienne abbaye de Port-Royal-des-Champs (fondée au XIIIe siècle comme une sorte de spinoff féminin de l'abbaye des Vaux de Cernay mais qui devient rapidement autonome, et dont le Port-Royal à Paris est d'ailleurs une extension créée au XVIIe). On retient Port-Royal-des-Champs notamment pour une des plus célèbres traductions en français de la Bible (celle de Lemaistre de Sacy, ou bible de Port-Royal), ou pour quelques pensionnaires célèbres (Blaise Pascal et Jean Racine), mais aussi et surtout pour avoir été un haut lieu du jansénisme qui lui a valu sa fermeture, son expulsion et sa démolition ordonnées par le pape Clément XI et le roi Louis XIV (vers 1709). Les bâtiments ont été rasés, mais il reste quelques ruines ainsi qu'un pigeonnier, et une ferme secondaire (la ferme des Granges). Le site, techniquement situé sur la commune de Magny-les-Hameaux mais en fait surtout proche de Saint-Lambert-des-Bois, se visite : il n'y a pas grand-chose à voir aux ruines, mais le musée des Granges, sur le plateau, a un très joli jardin et un beau point de vue. (J'avais parlé de Port-Royal par exemple dans cette entrée passée[#2b].)

[#2b] On m'informe au passage que l'âne qui y est mentionné (et photographié le recevant des gratouilles du poussinet) est maintenant mort de vieillesse.

L'endroit est aussi bien connu des promeneurs à cause du chemin Jean Racine qui relie Chevreuse à Port-Royal parce le dramaturge, alors âgé d'une vingtaine d'années, l'empruntait vers 1661 alors qu'il logeait à Port-Royal (où il avait été élève plus tôt) et se rendait régulièrement au château de la Madeleine à Chevreuse pour superviser des travaux de réfection du donjon (ce château de la Madeleine appartenait aux ducs de Chevreuse et de Luynes dont Racine était le protégé). Il y a une vue magnifique sur la vallée de Chevreuse depuis le château de la Madeleine. Le chemin de Racine (qui semble commencer « officiellement » ici mais la plupart des gens le prennent à partir du château de la Madeleine) descend dans la vallée du Rhodon et suit ce dernier jusqu'au site de Port-Royal. (Cela représente à peu près 5km, et il y a des bornes ornées de vers bucoliques et parfaitement niais que Racine a écrits.)

Pourquoi je raconte tout ça, moi ? Pas juste pour situer un peu l'endroit, et pour recommander les balades dans le coin[#3], mais aussi pour dire que c'est un endroit que je connaissais depuis longtemps, ayant grandi à Orsay et fait de nombreuses fois avec mon papa la balade du chemin de Racine, soit pour aller à Port-Royal soit pour manger au restaurant La Terrasse de Sauvegrain[#4] à Saint-Lambert-des-Bois, qui était alors moins chic et plus traditionnel. Les vaches dont je parle n'étaient pas là quand j'étais petit (je comprends qu'elles ont été installées en 1995), mais j'y étais retourné plusieurs fois depuis, et je ne les avais quand même pas vues, sans doute parce que le chemin Jean Racine suit vraiment le Rhodon alors que les vaches sont plus près de Saint-Lambert (donc si on suit le chemin sans chercher à les voir, on va les rater).

[#3] Par exemple on peut prendre le RER jusqu'à Saint-Rémy-lès-Chevreuse, marcher jusqu'à Chevreuse par le chemin de Coubertin, monter au château de la Madeleine, admirer la vue, ensuite suivre le chemin de Racine jusqu'à Port-Royal, monter aux Granges et admirer le jardin et l'autre vue, et revenir par exemple par Milon-la-Chapelle. Cela se combinera fort agréablement avec un repas au restaurant La Terrasse de Sauvegrain à Saint-Lambert-des-Bois (voir la note #4 en-dessous) et un petit bonjour aux vaches qui sont le sujet/prétexte de ce billet — si elles sont encore là et veulent bien se montrer. ❧ Mais sinon, la vallée de la Mérantaise entre Gif-sur-Yvette et Châteaufort (cf. par exemple cette trace-ci, ou même au-delà) est aussi très jolie aussi, et il y a un bon restaurant à Châteaufort aussi.

[#4] Ce restaurant est excellent. Je le mentionne parce qu'à chaque fois que le poussinet et moi y allons nous en profitons pour dire bonjour aux vaches du pré voisin, mais autant leur faire une pub que j'estime bien méritée : contrairement au restaurant La Table des Blot (Auberge du Château) à Dampierre, ils n'ont pas d'étoile au Michelin, mais je considère qu'ils sont tout à fait du même niveau en qualité.

(Fin de la digression.)

[Deux vaches des Highlands dans la prairie de la Gravelle à Saint-Lambert-des-Bois, en train de ruminer]Bref. En novembre 2019, donc, je découvre l'existence de ces vaches des Highlands (au nombre de neuf, je crois), ainsi que de deux chevaux, dans une prairie (étiquetée la Gravelle sur la carte topographique IGN) au niveau de l'intersection entre les routes départementales D46 (qui passe par Saint-Lambert-des-Bois) et D91 des Yvelines, juste de l'autre côté de cette dernière par rapport au site de Port-Royal (et à quelques centaines de mètres de ce dernier). Depuis, j'ai pris l'habitude de passer souvent par là et de m'arrêter admirer les vaches.

Il s'agit d'une prairie humide, sans doute en partie marécageuse puisque c'est le lit étendu du Rhodon. On voit ici sur Google Street View[#5] et sur mes photos ci-contre et au-dessus le type de végétation qui s'y trouve. La prairie est assez grande, peut-être une dizaine d'hectares, mais je ne sais pas où les vaches peuvent aller exactement : selon les jours elles sont plus ou moins près de la route, si bien qu'on les voit plus ou moins facilement.

[#5] Où y voit aussi la pancarte dont je parle juste après : Ici le Parc naturel régional de la Haute Vallée de Chevreuse restaure les clôtures, entretient les mares et les milieux remarquables pour garantir la présence de la flore et de la faune patrimoniale des prairies humides. Pas un mot sur les vaches.

Que font-elles là et à qui sont-elles ? Je n'en ai longtemps pas eu la moindre idée (je m'imaginais que c'était soit un agriculteur local soit l'hôtel associé au restaurant La Terrasse de Sauvegrain). En fait, j'ai fini par remarquer une pancarte assez discrète (voir la note #5 au-dessus) parlant d'entretien des prairies et qui semblait indiquer que c'était le Parc naturel régional (PNR) de la Haute Vallée de Chevreuse.

↑Entry #2736 [older| permalink|newer] / ↑Entrée #2736 [précédente| permalien|suivante] ↑

↓Entry #2735 [older| permalink|newer] / ↓Entrée #2735 [précédente| permalien|suivante] ↓

(lundi)

Liens vers quelques fils Twitter

J'avais déjà publié sur ce blog une liste de divers fils Twitter que j'avais écrits. Dans les plus de trois ans qui se sont écoulés depuis, j'en ai écrit beaucoup d'autres. J'ai écrit des explications sur toutes sortes de sujets (notamment des maths à des niveaux assez variés) ou des choses plus variées comme des comptes-rendus de balades (il faut reconnaître que c'est beaucoup plus commode pour moi de poster une image sur Twitter que de la mettre sur ce site web, même si la contrainte que je m'impose maintenant de mettre un texte alt à chaque image a rendu à son tour l'utilisation des images sur Twitter extrêmement pénible). Même si j'ai tendance à écrire en anglais par défaut (concernant ce blog, cf. cette entrée passée), et même si le saucissonnage par blogs de 280 caractères m'impose plus de concision (c'était un des buts pour moi d'aller sur Twitter que de me forcer à cette discipline), ces fils sont souvent assez proches des billets que je pourrais écrire sur ce blog.

Ceci pose le problème à la fois de comment les retrouver et de comment les rendre accessibles aux gens qui ne sont pas sur Twitter (surtout depuis qu'Elon Musk a pris le contrôle de l'oiseau, j'y reviens ci-dessous).

Pour ce qui est de l'accessibilité publique, Twitter permet heureusement de consulter un fil sans avoir de compte quand on a le lien (ceci est une différence avec d'autres réseaux sociaux comme Instagram ou, dans une certaine mesure, Facebook, et j'en fais une condition sine quā non ; il y aura peut-être de la pub insérée quelque part, mais rien qu'un bloqueur de pub ne permette d'éviter). Par ailleurs certains de mes fils ont été archivés (un peu aléatoirement : parfois à ma demande, parfois celles d'autres gens me suivant) sur ThreadReaderApp (liste de mes fils ici), qui est sans doute plus agréable à lire que l'interface native de Twitter, mais ce site a la limitation bizarre qu'il faut faire la demande d'archivage dans un temps limité après avoir été posté. [Mise à jour : concernant la possibilité de lire un fil Twitter sans avoir de compte Twitter, je reçois des signaux contradictoires, cf. les commentaires et les réponses ici sur Twitter (ou ici sur Nitter justement, cf. ci-dessous) ; il y a des gens qui y arrivent et d'autres qui n'y arrivent pas (peut-être qu'en ce moment c'est possible via un navigateur de PC mais pas de mobile sauf à demander le site non-mobile ? mais même ça n'est pas clair) ; en attendant d'éclaircir cette question, on me signale qu'il est possible de lire Twitter sans compte en remplaçant simplement twitter.com par nitter.it dans l'URL.]

(J'ai aussi une archive de tous mes tweets sur ce site, mise à jour tous les quelques jours, mais je pense qu'elle est très peu utilisable en tant que telle. Elle me sert surtout à moi-même pour certains types de recherches, et à améliorer les chances de préservation de l'information puisque The Internet Archive passe parfois dessus.)

Pour ce qui de retrouver les fils « intéressants » que j'ai écrits, je crois qu'il n'y a pas mieux que de compiler une sélection à la main. C'est donc ce que j'ai commencé à faire : la liste en question est ici (sur GitHub pour l'instant parce que c'est plus commode pour moi pour la publier rapidement, mais je n'exclus pas de la déplacer ailleurs ultérieurement). Cette liste est certainement très partielle, parce que je l'ai constituée en réunissant des souvenirs de fils marquants que j'avais écrits, une recherche rapide du motif •1/ dans tous mes tweets, des liens que j'avais donnés ailleurs, un décorticage partiel de ce qui est archivé sur ThreadReaderApp, et encore quelques autres pistes, mais j'ai pu passer à côté de choses intéressantes et évidemment tout le monde ne sera pas forcément d'accord avec l'intérêt relatif de ceci ou cela (même au sein de mes propres fils).

En plus de la sélection elle-même, il y a plein d'autres choses discutables : j'ai donné des titres en vitesse, certains sont complètement pourris ; j'ai classé par sujet et par ordre chronologique au sein de chaque sujet, mais peut-être que j'aurais dû diviser les mathématiques en sous-sujets, et peut-être que l'ordre chronologique n'est pas terrible. Certains fils en continuent d'autres, et je n'ai pas forcément fait des liens bidirectionnels et je ne sais pas bien comment l'indiquer dans la liste.

Évidemment, si vous voyez des choses significatives que j'ai oubliées de cette liste, n'hésitez pas à me le signaler (en commentaire à cette entrée de blog, ou sur Twitter, ou en commentaire sur GitHub).

Concernant le fait que je reste sur Twitter alors qu'Elon Musk en a pris le contrôle, j'ai écrit une explication générale ici (ici sur ThreadReaderApp), mais comme je le dis clairement dans ce fil, je me réserve le droit de changer d'avis à tout moment. (Il y a aussi le problème que la seule alternative crédible à Twitter, c'est Mastodon, et qu'ils ont fait des erreurs de conception qui font que ce machin a tous les inconvénients de la décentralisation sans avoir les avantages de la décentralisation[#], ce qui ne me donne vraiment pas super envie d'y passer : pour neutraliser en partie les inconvénients, il faudrait que je déploie ma propre instance Mastodon, et ça demande énormément de boulot que je n'ai vraiment pas envie de fournir maintenant.)

[#] Je ne veux pas m'étendre sur l'aspect technique parce que je n'ai pas regardé très en détails et parce que tout ceci est une digression, mais de ce que je comprends, Mastodon n'est pas vraiment décentralisé, c'est une fédération de serveurs, comme le trahissent les handles à la forme particulièrement merdiques @machin@truc.chose : on reste dépendant d'un serveur, et la migration d'un serveur (application) à un autre n'est pas complètement transparente. (Si j'ai bien compris, ils ont prévu une indirection par le DNS pour le handle du compte mais pas pour, par exemple, les permaliens des messages : quand on cite un message Mastodon, on le cite sur un serveur donné, et il n'y a pas de migration transparente possible.) La seule façon d'être vraiment indépendant, sur Mastodon, c'est donc de faire tourner son propre serveur, ce qui représente beaucoup de boulot. Bien sûr, c'est pire chez Twitter qui ne prévoit aucune sorte de migration, mais ce que je veux dire, c'est que je ne vais pas m'emmerder à me rendre indépendant du serveur Twitter de Musk pour devenir dépendant d'un autre serveur que je ne contrôle pas non plus. Tout ça est un formidable gâchis par rapport aux possibilités qu'aurait représenté un réseau de microblogging vraiment distribué, où les comptes seraient des clés cryptographiques signant des messages qui diffuseraient un peu comme fonctionne Usenet.

↑Entry #2735 [older| permalink|newer] / ↑Entrée #2735 [précédente| permalien|suivante] ↑

↓Entry #2734 [older| permalink|newer] / ↓Entrée #2734 [précédente| permalien|suivante] ↓

(jeudi)

La complainte des couche-tard

J'écris cette entrée après avoir fait entre 2h et 3h d'insomnie pour la deuxième nuit consécutive : je pense que j'ai déjà dit tout ce qui suit ailleurs sur ce blog[#], et sans doute plus qu'une fois, mais j'espère au moins le dire différemment (et peut-être plus clairement).

[#] Quelques entrées passées sur ce sujet : #1785, #2121, #2701.

C'est peut-être un peu simpliste de diviser les gens en lève-tôt et couche-tard (ne serait-ce que parce qu'il y a des gens qui ont besoin de très peu de sommeil et qui arrivent donc à être les deux à la fois : je ne sais pas si je les envie vu combien j'aime faire des rêves, mais ça doit être au moins assez pratique), mais ce n'est certainement pas complètement faux. Et comme c'est dit assez éloquemment dans ce fil Twitter qui me sert d'inspiration, il y a une forme de shaming social des couche-tard par rapport aux lève-tôt contre laquelle je voudrais m'insurger.

L'avenir appartient à ceux qui se lèvent tôt affirme un dicton stupide et détestable. Doublement détestable parce qu'il dénigre à la fois la valeur du repos (pourquoi pas l'avenir appartient à ceux qui se reposent correctement, par exemple ?) et parce que, même à temps d'éveil égal, il prétend dicter ce qu'on doit en faire (pourquoi pas l'avenir appartient à ceux qui veillent tard ?). Mais de fait, ce dicton est une sorte de prophétie auto-réalisatrice, parce que, de fait, notre société organise son rythme d'activités sur celui des lève-tôt, ou du moins, sur un rythme plus aisément compatible avec le leur : comme le cycle quotidien est grosso modo construit selon l'ordre sommeil → travail → loisirs → (répéter), et que le travail est socialement valorisé (chose sur quoi il y aurait tant à dire mais je ne veux pas m'étendre dessus ici), se lever tôt est donc considéré comme un signe positif (de dynamisme, ou quelque chose comme ça), tandis que se coucher tard est certainement le signe qu'on est un fêtard à la vie dissolue. (Je sais quelque chose de l'inanité de cette dernière conclusion par le fait que je ne fais essentiellement jamais « la fête », je ne vais jamais en boîte, mes dîners avec des amis se terminent vers 23h au plus tard, et quand je reste debout jusqu'à 4h du matin c'est probablement soit que j'ai trouvé comment traiter une question de maths qui m'obsédait soit qu'un de mes ordinateurs a fait des siennes et que je veux régler le problème avant d'aller au lit.)

Si tu es fatigué, tu n'as qu'à te coucher plus tôt s'entend-on régulièrement dire après une mauvaise nuit interrompue par la violence du cri strident d'un réveil. Merci, quelle idée géniale, je n'y aurais jamais pensé par moi-même. C'est du même calibre que de dire si tu te trouves trop gros, tu n'as qu'à manger moins aux personnes qui ont du mal à tenir un régime ou tu n'as qu'à faire plus d'exercice : l'idée exécrable que la volonté doit arriver à dicter au corps une discipline parfaite contre sa nature, et qu'un échec dans ce domaine est le signe d'une faiblesse. Quand bien même on ne souffrirait pas de contraintes externes (par exemple une sensibilité au bruit pour ce qui est du sommeil).

Je reconnais que ce n'est pas évident de comprendre comment le cerveau se « cale » sur un certain rythme de sommeil. (Évidemment le soleil joue un rôle prépondérant, mais les horaires des repas[#2] et autres activités doivent aussi avoir beaucoup d'influence, par exemple dans mon cas après le passage de l'heure d'été à l'heure d'hiver ou inversement je retrouve assez rapidement des heures de lever et coucher assez proches mesurées contre l'heure civile qui s'est pourtant décalée par rapport à l'heure solaire.) Mais le fait est qu'on ne peut pas simplement se « recaler » sur une heure différente, ou, si on le fait, cela ne dure pas, ou, s'il est absolument nécessaire que ça dure, ça se fait avec une violence inouie qui entraîne avec elle stress, irritabilité, fatigue, etc. (Et il est bon d'avoir ça en tête quand on juge, par exemple, les enfants et ados en âge scolaire qui ont du mal à rester attentifs en cours.)

[#2] Je sais qu'en ce qui me concerne, me forcer à être dans une lumière vive, et/ou manger, à l'heure H d'un jour donné, va avoir très fortement tendance à faire que je me réveille à l'heure H le jour suivant (voire celui d'encore après). Malheureusement, ça n'assure pas forcément que j'aurai bien dormi avant (ni même que je me sentirai fatigué à H−8).

Ce n'est pas une question de préférence pour telle ou telle partie de la journée : en ce qui me concerne, j'aime beaucoup le matin, l'air frais et encore chargé de rosée, la lumière du soleil bas mais moins rouge que celui du soir, j'aimerais avoir plus souvent l'occasion d'en profiter, mais ce n'est pas ça qui m'aide à me lever plus tôt pour en profiter.

Un bout d'explication que je proposais au fait que je suis couche-tard est que, si j'aime bien dormir, je ne prends pas plaisir à me coucher, alors que je prends plaisir à prolonger mon sommeil le matin. Ceci est dû (dans mon cas) à une différence de nature et de qualité de sommeil (cf. cette vieille entrée) : mon sommeil au début de la nuit est lourd, engourdi, confus, plutôt assommant que reposant, et finalement désagréable, donc je le ressens comme une obligation, alors que le sommeil à la fin de la nuit (enfin, du cycle de sommeil, parce qu'en ce qui me concerne, c'est souvent la matinée justement) est riche en rêves complexes et intéressants, je fais souvent des rêves lucides, je vole, j'explore des labyrinthes, je libère des empires, je fais de la magie, je résous des énigmes, j'accompis des quêtes cosmiques, bref, cette partie-là est bien plus plaisante et j'ai envie de la faire durer. (Et je note que presque à chaque fois que j'ai parlé à des lève-tôt ils ne comprenaient pas du tout, ou en tout cas ne partageaient pas, cet attrait que peut exercer sur moi le sommeil-de-la-fin-de-nuit-chargé-de-rêves.) Mais évidemment cette explication ne peut être que partielle, parce que ce que j'ai dit explique que je sois tenté de me coucher plus tard la nuit N+1 que la nuit N, mais au bout d'un moment il y a quand même une limite : si je me couche vers 5h du matin, je ne me sens pas bien du tout, ni quand je me couche, ni quand je me lève (donc je comprends quand même la non-tentation à se coucher de plus en plus tard), et finalement, en l'absence de contraintes externes, j'ai tendance à converger vers un rythme d'environ 1h–10h, avec de grosses variations cependant (et souvent une insomnie au milieu, cf. ci-dessous).

(Peut-être que la température est un élément explicatif ? Je sais que je dors d'autant mieux qu'il fait froid, et la courbe des températures, qui est en retard par rapport à celle de la lumière solaire, colle grosso modo à la courbe de mon sommeil au sens où j'ai tendance à dormir aux heures les plus fraîches de la journée, centrées autour de quelque chose comme 5h du matin — par opposition aux heures les plus sombres, centrées autour de quelque chose comme 2h du matin. Sinon, un autre bout d'explication est dans les repas : j'aime bien avoir le temps de digérer correctement après mon dîner, et il y a plein de raisons pour lesquelles il n'est pas aisé, en France, de dîner à 19h.)

Pourquoi je ne me couche pas plus tôt, alors ? Parce que cela provoque simplement de l'insomnie.

J'ai distingué ci-dessus le sommeil de début de nuit, appelons-le S1 (lourd, déplaisant, avec peu de rêves), et le sommeil de fin de nuit, appelons-le S2 (avec beaucoup plus de rêves). Cette distinction n'est évidemment pas rigoureuse, mais grosso modo disons que je fais 4h de S1 et 4h de S2, avec un réveil entre les deux. Si je me couche plus tôt, je ne vais généralement pas avoir de mal à m'endormir, simplement je vais me réveiller à la fin de S1, plus vraiment fatigué, avec plein de pensées qui me tournent dans la tête, et faire de l'insomnie : me coucher plus tôt décale S1 mais pas S2, et entre les deux je fais juste de l'insomnie. (Tout ceci est très simplifié, évidemment, et pas vraiment exact, mais c'est l'idée : j'ai tendance à faire du sommeil diphasique, et quand je tiens une nuit complète, c'est juste que les deux phases sont immédiatement adjacentes. Or S2 est beaucoup plus difficile à bouger que S1.)

Ce qui marche mieux pour me avancer mon sommeil S2, c'est d'interrompre mon sommeil au cours de S2 et de me lever plus tôt : la nuit suivante, S2 va avoir lieu plus tôt (donc si en plus je me suis couché plus tôt, ça me recale, au moins temporairement). Mais le prix à payer, c'est une journée ou je suis complètement crevé, ou surtout, ou j'ai les idées confuses. Et le résultat n'est vraiment pas durable, parce que la moindre perturbation de la nuit va redécaler mon sommeil dans le sens du retard.

En plus de ça, et je l'ai déjà dit, les réveils m'empêchent de dormir : je ne veux pas juste dire, évidemment, qu'ils m'empêchent de dormir quand ils se déclenchent, ça c'est le but, mais le fait de savoir que j'ai mis un réveil rend mon sommeil bien plus mauvais, parce que je n'arrête pas de savoir qu'il va être interrompu, je pense à cette interruption pénible à venir, et cette pensée m'empêche de bien dormir. Quand je dois absolument me lever à, disons, 7h du matin, et donc mettre un réveil pour cette heure-là, ce que je fais est généralement de prévoir large (je me couche vers 22h, même 21h si j'y arrive, ce qui rend les insomnies moins stressantes parce que je peux me dire même si je fais de l'insomnie j'aurai quand même bien dormi parce que j'ai prévu large), je prends un peu de doxylamine (un antihistaminique vendu sous le nom commercial de Donormyl® : j'en prends typiquement entre ~2mg et 7.5mg, pour ne pas m'abrutir mais quand même m'aider un peu), et globalement j'y arrive ; mais j'y arrive en me faisant violence, et si cette violence persiste jour après jour, j'en ressens clairement les conséquences (déjà, je ne prends jamais l'antihistaminique plusieurs jours d'affilée, parce que ça ne marche en gros qu'une fois). Bref, je peux ponctuellement me lever plus tôt, mais ça a un coût important, alors que si je dois ponctuellement me coucher plus tard, je n'en ressens pratiquement aucune conséquence.

(Ceci dit, je ne nie pas non plus que ce prix vaut parfois la peine d'être payé, même en l'absence de contraintes extérieures, parce que j'apprécie quand même bien de voir un vrai matin de temps en temps.)

On m'a dit plusieurs fois que la clé d'un bon sommeil était la régularité : se lever tous les jours précisément à la même heure, et se coucher quand on est fatigué. Mais je peux dire que ça n'a jamais marché pour moi, ou en tout cas, si ça marche, c'est en calant cette régularité sur mon rythme « naturel » et pas en essayant de le forcer à autre chose. (Bon, d'abord, c'est vraiment difficile de se lever tous les jours précisément à la même heure, parce que ça va vouloir dire de trouver l'heure la plus avancée à laquelle on ait jamais besoin de se lever, qui est quand même souvent assez ridiculement tôt. Ensuite, même si on se dit, disons, 7h tous les matins, le problème est que le vendredi et samedi soir il y a des gens qui font du bruit bien au-delà de l'heure à laquelle on sera fatigué. Mais surtout, je sens rapidement un déficit de S2 et le fait de me coucher plus tôt ne m'aide pas vraiment à le combler. Si je trouve une régularité, c'est souvent une régularité où je me couche extrêment tôt, je fais une énorme insomnie après S1, et S2 est quand même interrompu, et j'ai l'impression de me bousiller la santé.)

Bref, si vous faites partie des gens qui arrivent bien à dormir, ou surtou, qui arrivent bien à dormir aux heures que la société a tendance à imposer, tant mieux pour vous, mais soyez gentils d'arrêter avec le slumber shaming qui consiste à s'imaginer que quelqu'un qui se lève à 10h, ou 11h, ou même midi, est un paresseux ou que cette personne n'a aucune hygiène de vie. Et si vous faites partie des gens qui programment des réunions ou des cours de 8h à 10h du matin, imaginer que vous ayez à faire une série de réunions de 23h à 1h du matin vous permettra peut-être de comprendre que ce n'est pas si évident.

↑Entry #2734 [older| permalink|newer] / ↑Entrée #2734 [précédente| permalien|suivante] ↑

↓Entry #2733 [older| permalink|newer] / ↓Entrée #2733 [précédente| permalien|suivante] ↓

(samedi)

Chasse à l'essence et autres divagations

Cela fait longtemps que je n'ai rien publié dans ce blog : pas que je n'aurais pas éventuellement des choses à raconter sur plein de sujets, mais soit ça prend plus de temps que je n'en ai en ce moment (par exemple, j'apprends plein de choses sur les maths constructives, j'aurais certainement matière à continuer cette entrée, mais si je m'y mets ça va me prendre du temps que je voudrais plutôt consacrer à apprendre), soit je me dis que mes réflexions ne sont pas franchement abouties et je me retiens (ou parfois je n'ai pas envie de les pousser plus loin parce qu'elles me dépriment, comme quand je réfléchis à la fin du monde, qui est quelque chose à quoi il est difficile de ne pas penser en ce moment, mais je ne sais pas si j'ai envie de l'étaler par écrit). J'aurais peut-être des trucs à dire sur la gestion des pénuries, un sujet qui promet de devenir de plus en plus pertinent, et je n'exclus pas de le faire, mais bon ce n'est pas vraiment abouti, justement, et c'est déprimant. Cependant, comme le but de mon blog n'est pas seulement de faire profiter l'Univers de mon immense sagacité mais aussi tout bêtement de raconter ma vie, je peux en mettre un peu là-dessus, au moins ça ne prend pas trop de temps vu que je tape vite et que je n'ai pas besoin de réfléchir : râler est certainement la chose que je fais le mieux au monde, et ça a une vertu cathartique certaine. (Il faudrait peut-être aussi que je fasse un peu d'introspection et que je parle de l'espèce de « phobie du manque » dont je souffre, mais ce sera pour une autre fois.)

Donc, pour les personnes qui ne vivent pas en France et ne suivent pas l'actualité française, il y a en ce moment des raffineries qui sont bloquées par un conflit social (essentiellement entre le pétrolier Total et le syndicat CGT), avec pour effet un problème d'approvisionnement du pays en carburants. Je ne vais pas parler du fond, ni sur le conflit ni sur la pénurie, parce que je suis furieusement mal informé. (Je suis parti faire une balade à moto samedi dernier parce que je n'étais même pas au courant, et d'ailleurs j'ai eu de la chance de ne pas me retrouver en panne sèche loin de chez moi.) J'aimerais pouvoir lier vers une page de la Wikipédia francophone appelée quelque chose comme pénurie de carburants d'octobre 2022 en France pour plus d'information, mais, étonnamment, elle ne semble pas exister (pas que l'événement soit d'importance planétaire, mais Wikipédia a des pages sur des choses bien plus anecdotiques). En revanche, ce sur quoi je peux parler, justement, c'est le niveau absolument désastreux de l'information sur le sujet.

Je ne veux pas juste parler des informations générales qui seraient bonnes à savoir pour comprendre un peu le contexte. Quelle proportion des ~11 000 stations essence françaises est en pénurie partielle ou totale ?[#] Comment cette situation diffère-t-il selon le type de carburant recherché et selon l'endroit en France ? Quel est le volume total de carburant vendu par jour en France en temps normal pour chaque type, et comment a-t-il varié ces derniers jours ?[#2] Quel est l'ordre de grandeur de la baisse de fréquentation des routes françaises suite à cette pénurie ? Quelle est la fréquence « normale » typique des ravitaillements d'une station essence, et comment a-t-elle varié ces derniers jours ? Quelle est la fréquence « normale » typique des passages d'une voiture française à la pompe, et comment a-t-elle varié ces derniers jours ? Quel a été l'impact de cette pénurie sur les prix pratiqués à la pompe dans les stations qui sont encore approvisionnées ? Sur le temps d'attente moyen ? Sur le volume vendu par transaction (les gens prennent-ils moins de carburant plus souvent) ? Quelle proportion du carburant vendu en France est raffiné en France ? Quelle proportion l'est par Total ? Quelle proportion est vendue par Total ? Quelle augmentation du prix à la pompe représenterait l'ensemble des revendications salariales de la CGT si Total les acceptait et les répercutait purement comme hausse de prix ? J'ai plein de questions de ce genre auxquelles je n'ai aucune réponse et que je m'attendrais à trouver dans un article Wikipédia pénurie de carburants d'octobre 2022 en France et/ou dans des articles de presse traitant du sujet. (Ce qui m'inquiète plus, à la limite, c'est que je ne suis pas sûr que qui que ce soit ait une idée précise sur tout ça, notamment au gouvernement.)

[#] J'ai entendu un chiffre de l'ordre de 30%, mais dans mon expérience en Île-de-France, il me semble que c'est plutôt autour de 75%.

[#2] Si j'en crois ces statistiques, il se vend environ ~8 mégatonnes de sans-plomb (SP95 et SP98) par an en France, soit de l'ordre de ~30 mégalitres par jour, ce qui, divisé par 11 000 stations, donne une moyenne de ~2500 litres par jour et par station. Mais comme les tailles des cuves varient de façon gigantesque entre quelques milliers de litres et quelques dizaines voire une centaine de milliers de litres, je ne sais pas vraiment quoi en conclure (même si c'est déjà intéressant d'avoir un ordre de grandeur).

Mais à part ces considérations générales de type je veux savoir pour savoir, il y a évidemment aussi une considération pratique autour d'une question bien concrète : quelles stations sont approvisionnées à l'instant t et combien y y a-t-il d'attente ?

Il y a à ma connaissance trois sites web qui prétendent tenter de répondre à la question de savoir quelles stations sont approvisionnées, et les trois sont complètement merdiques pour des raisons différentes : ① www.prix-carburants.gouv.fr qui est un site gouvernemental donnant les prix du jour, mais il n'est mis à jour qu'une fois par jour, justement, et en plus de ça il ne tient pas vraiment la charge quand des dizaines de millions de Français essaient de le consulter en même temps, ② penurie.mon-essence.fr et son application mobile associée Essence&CO (la carte montre les stations qui n'ont pas d'essence, ce qui est à peu près aussi intelligent que si le prix Nobel était annoncé chaque année en faisant la liste des gens qui ne l'ont pas reçu, mais c'est sans doute pour vous pousser à installer l'app mobile, qui est à peu près aussi merdique que le site web), c'est mis à jour plus souvent, mais c'est fait par crowdsourcing et les informations sont souvent très fausses (parfois à tel point que je pense que c'est du vandalisme délibéré), et ③ services.totalenergies.fr/stations qui est géré par le groupe Total et ne montre (donc) que les stations Total, et comme ce sont les plus impactées, forcément, ça va surtout dire qu'ils n'ont rien (de toute façon, je ne comprends même pas bien comment cette carte est censée marcher). Quant à savoir la durée d'attente, on peut toujours rêver (le mieux semble encore de se faire une idée en regardant les bouchons relevés par Google Maps en entrée de la station).

Alors autant je ne jette la pierre à personne concernant la pénurie elle-même, autant je trouve ça hallucinant qu'en deux semaines le gouvernement n'ait toujours pas réussi à faire monter un site web, qui tienne la charge, permettant à chaque station essence de France de remonter en temps réel l'information de si elle a des carburants et lesquels, et d'inciter fortement (voire de rendre obligatoire) la transmission de cette information (éventuellement par l'intermédiaire du groupe pour les stations qui sont affiliées à une chaîne). Et s'ils pouvaient demander des informations sur le temps d'attente typique, ce serait bien aussi.

On est censé vivre dans la société de l'information, mais dès qu'il s'agit de répondre à un besoin concret et urgent, il n'y a plus personne.

Ce n'est pas juste qu'avoir une information précise et fiable serait utile pour plein de gens et leur ferait gagner du temps, mais cela économiserait aussi bien des kilomètres parcourus (donc de l'essence brûlée en pure perte) à essayer une, deux, trois, quatre, cinq stations différentes avant d'en trouver une qui a des stocks (ou peut-être de renoncer au final quand on voit la longueur de la queue). Je vais raconter mes propres aventures à ce sujet.

Alors évidemment, je ne suis pas aidé par le fait que j'ai une moto. Ces choses consomment moins pour 100km qu'une voiture thermique typique, mais comme leur réservoir est aussi beaucoup plus petit, finalement elles ont une autonomie riquiqui (à peu près aussi pourrie qu'une voiture électrique), et c'est encore empiré si on veut garder une réserve pour, justement, avoir de quoi trouver une station essence où faire le plein. (Cf. plus bas pour des remarques concernant les motos électriques.) Je ne suis pas trop à plaindre n'ai pas strictement besoin de la moto pour aller au boulot (c'est juste ~2.5 fois plus lent en transports en commun quand ils marchent bien, à 75min contre 30min), mais il y a des grèves qui se profilent aussi dans les transports en commun (il ne faut pas compter sur la location d'un véhicule électrique, ils ont évidemment tous été pris d'assaut), donc je me suis dit que je voudrais au moins faire un plein pour avoir une moto utilisable en cas de nécessité, surtout qu'on n'a aucune idée de combien de temps cette pénurie va durer (pour l'instant la situation semble empirer de jour en jour). Donc j'ai passé la semaine à guetter un moment où il y aurait du carburant disponible dans une station pas trop merdique d'accès pour moi.

Le problème en ville est que ça tourne rapidement à la pagaille monstre même quand une station a de l'essence : il n'est pas possible de faire une queue trop longue sans bloquer complètement la circulation, il y a des voitures venant de différentes directions qui vont se disputer pour savoir qui doit passer, et on ne sait pas si les deux-roues motorisés doivent faire la même queue que tout le monde ou attendre séparément. Samedi dernier, quand je suis rentré de la balade pendant laquelle j'ai appris l'existence de cette pénurie (j'ai pu prendre du carburant sur l'autoroute sans trop de mal, mais de retour à Paris avec moins d'essence que je n'étais parti, c'était une autre affaire), j'ai voulu aller à une des rares stations approvisionnées dans Paris (quai d'Ivry), et c'était presque une émeute : la circulation était complètement paralysée (y compris pour les bus qui essayaient vaillamment de passer par là), des automobilistes qui attendaient apparemment depuis des heures s'engueulaient avec des livreurs à scooter pour savoir qui devait passer, le gérant de la station service était complètement dépassé par les événements, ça s'insultait, du coup finalement personne ne pouvait se servir, ça n'avançait pas, les gens s'énervaient encore plus, et je suis parti au bout d'une demi-heure quand on a commencé à me menacer parce que je n'avais pas fait la queue autant que les autres.

↑Entry #2733 [older| permalink|newer] / ↑Entrée #2733 [précédente| permalien|suivante] ↑

↓Entry #2732 [older| permalink|newer] / ↓Entrée #2732 [précédente| permalien|suivante] ↓

(mardi)

Piranesi de Susanna Clarke

Piranesi (publié en 2020) n'est pas un roman très long (il fait 245 pages pas spécialement grandes ni écrites petites, ça doit représenter environ 350k signes), et de toute façon je ne lis que très rarement des romans longs, mais même eu égard à sa taille, et compte tenu du fait que je lis plutôt lentement[#], il est assez remarquable que je l'aie lu en deux jours tellement j'ai accroché.

[#] Normalement la manière dont je lis consiste à poser le livre dans mes toilettes qui font aussi office de cabinet de lecture, et même si ça rallonge un peu la durée de mes commissions, forcément, je n'y consacre pas un temps fou. Mais quand j'« accroche » assez, comme ça a été le cas ici, alors le livre m'accompagne ailleurs.

J'en avais entendu parler via une connaissance sur Twitter, qui cite l'extrait suivant (proche du début du roman) lequel m'a suffisamment intrigué pour me donner envie de lire le livre :

Since the World began it is certain that there have existed fifteen people. Possibly there have been more; but I am a scientist and must proceed according to the evidence. Of the fifteen people whose existence is verifiable, only Myself and the Other are now living.

[Gravure “L'arc gotique” des “Prisons imaginaires” de Giovanni Battista Piranesi]Il est vrai aussi que j'aime énormément les gravures de Prisons imaginaires de Giovanni Battista Piranesi (j'en reproduis une ci-contre), qui ressemblent beaucoup à mes rêves[#2], dont le titre a aussi attiré mon attention. Bon, le roman de Clarke n'a pas vraiment de rapport avec l'artiste italien éponyme ; mais le cadre a énormément à voir avec l'ambiance labyrinthique qui est évoquée dans ces gravures (ainsi qu'avec l'architecture classique représentée dans ses Vues de Rome).

[#2] Je souligne, et vous pouvez vérifier, que le tweet que je viens de lier date d'avant le roman de Clarke, donc certainement avant que j'en aie entendu parler : je ne triche pas, j'avais vraiment dit ma fascination pour l'architecture labyrinthique des gravures de Piranesi avant que quelqu'un ait l'idée d'écrire un livre appelé Piranesi dont l'ambiance s'inspire de ses gravures à l'architecture labyrinthique.

Et quiconque a parcouru un peu ce blog sait ma fascination pour les labyrinthes (cf. ici et , ainsi que les petits jeux en JavaScript ici et qui sont liés et commentés depuis ces deux entrées).

Borges, un de mes auteurs préférés, est connu pour avoir écrit une nouvelle intitulée La biblioteca de Babel qui fait référence à une bibliothèque, à la structure labyrinthique, sinon infinie du moins démesurément grande qui contient non seulement tous les livres réels mais tous les livres possibles (d'un format donné : avec les informations données par Borges — 25 signes possibles, 80 signes par ligne, 40 lignes par page et 410 pages par livre — on peut d'ailleurs déduire qu'il y en a 251 312 000 ≈ 2×101 834 097). Ce texte a ensuite inspiré de nombreux autres auteurs, par exemple Umberto Eco dans Le Nom de la Rose (dont l'intrigue tourne autour d'un livre caché dans une bibliothèque labyrinthique gardée par un bibliothécaire irascible appelé Jorge de Burgos).

Le roman de Clarke se déroule dans un espace lui aussi immense et labyrinthique (le narrateur l'appelle the House, la Maison) : comme la Bibliothèque de Babel, il est constitué de salle après salle apparemment sans limite, et on ne sait pas exactement comment elles sont organisées ni pourquoi ; mais à la différence de la Bibliothèque, les salles de la Maison, à l'architecture classique, ne sont pas remplies de livres mais ornées de statues apparemment toutes différentes. Bon, à vrai dire, on n'a pas une description très précise de la Maison (et certainement pas de plan, fût-il partiel ; le narrateur utilise une numérotation des salles très idiosyncratique, probablement l'ordre dans lequel il les a visitées), mais ce qu'on a est puissamment évocateur. Le niveau inférieur est inondé par la mer (ou peut-être les niveaux inférieurs ? la description n'est pas claire sur le fait qu'il y en ait un ou plusieurs), le niveau supérieur est en ruine (ainsi que certaines salles des autres niveaux), donc seul le niveau intermédiaire est vraiment explorable, ce qui fait qu'on a affaire à un labyrinthe essentiellement 2D.

C'est amusant, parce que le premier programme que j'ai écrit quand j'ai appris le C (il y a environ 30 ans ; je l'ai perdu depuis, malheureusement) était un jeu d'exploration qui simulait un espace immense constitué simplement de salles (je suppose 232×232 d'entre elles), qui avaient chacune un nom, une couleur, une décoration particulière, mais il n'y avait rien à faire à part visiter des salles et y trouver de (très rares) objets. J'avais fait attention à ce que l'espace créé par le jeu soit toujours précisément le même, si bien qu'il aurait été en principe possible d'explorer ce labyrinthe unique, d'en dresser un plan avec les noms et descriptions des salles, etc., sauf qu'il était bien trop grand s'il avait 18 milliards de milliards de salles (même si ça reste beaucoup plus petit que la Bibliothèque de Babel). Ce monde de mon petit jeu était donc remarquablement semblable à celui du roman de Clarke.

Dans le monde du roman n'évoluent (apparemment) que deux personnes : le narrateur, et celui que le narrateur appelle l'Autre (qui, en retour, appelle le narrateur Piranesi). Le narrateur s'est donné pour mission d'explorer la Maison, tandis que l'Autre semble être à la recherche d'une connaissance bien précise, qu'il soupçonne d'y être cachée. À part eux, il n'y a que treize squelettes pour seuls habitants connus de la Maison.

Je n'en dis pas plus. On est évidemment curieux de savoir ce que ces gens font dans ce monde, comment ils y sont arrivés et d'ailleurs comment ils y survivent, et toutes sortes d'autres choses qui paraissent initialement bien mystérieuses. C'est ce côté énigmatique qui m'a poussé à continué à lire (mû à la fois le désir d'avoir la clé de l'énigme et l'inquiétude que tout ça finisse en queue de poisson comme la série Lost) : je ne veux pas divulgâcher, mais pour les gens qui, comme moi, voudraient savoir à quoi s'attendre, disons qu'à la fin on a au moins des réponses satisfaisantes à un certain nombre de questions (en gros celles qu'ai formulées), que tout n'est pas exactement comme il semble, et que le livre tourne vaguement au policier. (Mais il ne faut pas non plus s'attendre à avoir une réponse à tout, en particulier concernant la nature exacte de la Maison, ni à ce que tout soit rationnel.)

Comme j'aime bien les énigmes en plus d'aimer les labyrinthes, on peut difficilement imaginer un roman qui donne autant l'impression d'avoir été écrit pour moi (même si cf. celui-ci). La fin est peut-être un peu plus faible que le début (ou disons, moins originale, moins captivante), peut-être que la toute dernière partie aurait pu être omise (c'est une sorte de coda post-climactique : moi j'aime bien, mais je suis sûr qu'il y a des gens qui trouveront que ça prolonge inutilement), mais ce ne sont pas des reproches graves. Globalement j'ai beaucoup aimé.

Suzanna Clarke est connue pour avoir précédemment écrit le roman Jonathan Strange & Mr. Norrell, une histoire de magiciens dans l'Angleterre du début du XIXe siècle d'une histoire alternative où la magie existe. Je ne l'ai pas lu (même si ce livre s'est matérialisé dans ma bibliothèque sans que je sache comment il est arrivé là parce que je ne l'ai jamais acheté, ce qui est quand même assez significatif s'agissant d'un livre sur la magie), mais j'ai vu la mini-série qui en a été tirée : il y a quelques aspects que j'ai bien aimés, mais j'ai surtout été assez fortement agacé par le fait qu'au final on n'avait aucune idée des motivations des personnages essentiels (et surtout deux puissants rois-magiciens qui dominent l'histoire et qui sont le King of Lost-Hope et le Raven King, dont on ne comprend même pas s'ils sont plus ou moins alliés ou plus ou moins ennemis ou indifférents l'un à l'autre, ni quels sont leurs pouvoirs, ni s'il faut craindre ou espérer que l'un ou l'autre « gagne »). Peut-être que le roman n'a pas ce défaut, mais en tout cas Piranesi ne l'a pas, et je le souligne pour quiconque aurait été agacé par la même chose que moi : ici, les personnages ont, au final, des motivations passablement claires, et leurs actions sont raisonnables compte tenu de ces motivations (et de leur connaissance / ignorance).

Bref, je recommande vivement Piranesi pour tous les gens qui ont des goûts proches des miens (et si vous lisez mon blog, c'est peut-être au moins en partie le cas).

↑Entry #2732 [older| permalink|newer] / ↑Entrée #2732 [précédente| permalien|suivante] ↑

↓Entry #2731 [older| permalink|newer] / ↓Entrée #2731 [précédente| permalien|suivante] ↓

(samedi)

Pourquoi la mort d'Elizabeth II suscite-t-elle tant d'émotion ?

Je me rappelle avoir un jour discuté avec mon poussinet des funérailles qui avaient rassemblé beaucoup de « beau monde » (chefs d'État ou de gouvernement et hauts dignitaires en tout genre), je ne sais plus si le point de départ de la discussion était celles de J. F. Kennedy, de Churchill ou de De Gaulle, mais je me rappelle avoir dit que je voyais deux personnes dont les funérailles rassembleraient certainement un niveau de gratin jamais égalé dans l'Histoire, et qu'il serait intéressant de les comparer : Nelson Mandela et Elizabeth II (au moment où je m'exprimais, les deux étaient encore vivants). Les funérailles de Mandela ont assurément été un événement planétaire impressionnant ; et lundi en huit, on pourra juger pour Elizabeth II et comparer le style et le succès mondain des deux. (Vous êtes en droit de proposer d'autres candidats pour rivaliser — même si c'est de mauvais goût de dire j'ai hâte de voir les funérailles de X — : Jimmy Carter ? le pape François ? je n'ai pas trop de nom qui me vienne évidemment à l'esprit.)

Mais évidemment, ces funérailles ne rassemblent pas que du « beau monde » mais aussi, fût-ce à distance, des milliers d'anonymes dont la plupart n'ont jamais rencontré la personne décédée (ou peut-être de façon très fugace une fois[#]), et qui sont néanmoins véritablement émus. Dans le cas de Mandela, cette émotion s'explique assez bien par son statut de héros. Mais pour Elizabeth II, c'est plus délicat à analyser. Contrairement à Mandela, on ne peut pas dire qu'elle ait fait grand-chose : précisément, son rôle constitutionnel consiste à ne rien faire et à ne rien dire[#2], et si elle a reçu des louanges pendant sa vie c'est précisément pour avoir exceptionnellement bien tenu ce rôle de ne rien faire et de ne rien dire. (Et la série The Crown montre assez bien que ce n'est pas toujours évident ; et l'excellent film The Queen montre la manière dont elle a dû — sous la pression de Tony Blair — consentir à l'occasion de la mort de Diana à sortir de son mutisme qui lui était devenu si naturel.)

[#] Pour la petite anecdote (puisque tout le monde en donne en ce moment) mon papa prétendait qu'il avait « rencontré » Elizabeth alors qu'elle visitait le Canada. Je ne sais pas si je dois croire cette anecdote, parce que les histoires de mon père n'étaient pas toujours de la plus grande exactitude (mais il n'était pas non plus mythomane) : je devrais demander à ma tante ce qu'elle en pense, et surtout, où ils habitaient à ce moment. Cela se passe probablement en 1951 (elle n'était que princesse et représentait son père George VI ; mon père aurait eu 13 ans à l'époque), ou peut-être en 1959 (mais ça semble moins probable parce que mon père semblait dire qu'il était ado), mon père se baladait près d'une voie ferrée (Canadian Pacific, je suppose), au milieu de nulle part, et il n'y avait personne alentours ; il voit passer un train, et sur la plate-forme arrière de ce train il y a une jeune femme qui regarde le paysage et qui, apercevant mon père, lui fait de grands saluts amicaux. (Les photos sur cette page montrent précisément le type de train utilisé, donc mon père n'a au moins pas inventé qu'il y avait bien une sorte de balcon à l'arrière.) Mon père lui fait de grands saluts en retour, n'ayant aucune idée de qui était cette jeune femme, et en rentrant chez lui a appris de qui il s'agissait. Mon père a ensuite fait référence à cette histoire comme mon tête-à-tête avec la reine Elizabeth.

[#2] Avait-elle seulement le pouvoir de faire quelque chose ? Ce n'est vraiment pas clair. D'un côté les prérogatives royales du souverain britannique restent importantes, de l'autre, la plupart (totalité ?) ne sont censées être exercées que sur le conseil de ses ministres (ou d'autres personnes : conseil privé, parlement…), et si jamais le souverain prenait une décision de sa propre initiative on imagine (et on espère !) que ce serait un énorme scandale qui conduirait à l'abolition de la monarchie. Finalement, on ne sait pas si le souverain a vraiment des pouvoirs mais ne les utilise pas, ou n'en a pas du tout. Encore que même le mot pouvoir est à définir : même à défaut de pouvoirs constitutionnels définis, le pouvoir d'influence, de conviction, celui de distribuer des hochets (titres honorifiques, par exemple) est quelque chose de significatif. Beaucoup de gens se demandent maintenant quel type de roi sera Charles III, mais la question est aussi s'il a une quelconque marge de manœuvre. Et on tombe sur l'aporie suivante : soit le souverain n'a aucune marge de manœuvre ou de décision, aussi faible soit-elle, et on se demande à quoi il sert, soit il en a, et c'est un grave problème dans une démocratie moderne que cette marge échoie institutionnellement à quelqu'un qui n'a été choisi que par le hasard de sa naissance. (Bon, est-ce vraiment plus grave que tous les gens qui sont riches ou autrement privilégiés par leur naissance, je ne sais pas, mais là ça a quelque chose de sacralisé qui le rend plus évident.)

On peut dire qu'elle était un symbole, par exemple, et certainement c'est un des rôles d'un monarque honorifique que d'être un symbole, mais je pense que ça rate un peu le point. D'abord parce qu'un symbole, justement, c'est intemporel : le principe de continuité de la Couronne, valable dans de nombreuses monarchiques et exprimé par la célèbre formule le roi est mort, vive le roi ! (ou bien rex nunquam moritur : le roi me meurt jamais, veut précisément que ce symbole soit toujours présent et se transmette instantanément d'un monarque au suivant. Ensuite, parce qu'un symbole n'est pas forcément quelque chose de très apprécié : le Royaume-Uni n'est certainement pas terriblement populaire dans le monde entier (et notamment dans ses anciennes colonies ou en Irlande, malgré les efforts, y compris les efforts personnels d'Elizabeth II, pour faire évoluer ses relations avec ces pays), disons que ce n'est pas un symbole facile à incarner, et je pense que la reine était plus appréciée que son royaume ne l'était. À l'inverse, quand l'actuelle reine du Danemark décédera (qui aura régné passablement longtemps elle aussi, même s'il est peu vraisemblable qu'elle atteigne 70 ans), et même si le Danemark est un symbole sans doute — disons — moins chargé à incarner que le Royaume-Uni, je pense que l'événement suscitera une grande indifférence (beaucoup de gens découvriront à cette occasion que le Danemark est une monarchie, et s'empresseront de l'oublier). Bon, les choses sont compliquées par le fait qu'Elizabeth II n'était pas reine que du Royaume-Uni, mais aussi d'Australie, de Nouvelle-Zélande, du Canada, de Papouasie-Nouvelle-Guinée, etc., mais l'explication du symbole est encore plus difficile à admettre à leur sujet, parce que presque personne ne va répondre du nom du monarque quand on demande un symbole du Canada (ou inversement ne va citer le Canada quand on demande à quoi on associe ce nom), et presque personne, même au Canada et certainement en-dehors, ne penserait à annoncer la mort d'Elizabeth II en disant la reine du Canada est morte[#3].

[#3] Ce qui eût pourtant été parfaitement correct (et peut-être même pertinent parce que, comme l'a fait remarquer Justin Trudeau, elle a été reine pendant presque la moitié de l'existence du Canada en tant qu'État, ce qui est tout de même assez impressionnant). À l'inverse, quitte à être un affreux pinailleur, ça m'énerve que les Français disent la reine d'Angleterre est morte : il n'y a plus eu de reine (ou de roi) d'Angleterre depuis 1707, ça fait un moment que la dernière est morte, peut-être qu'en 315 ans on pourrait réussir à apprendre le nom d'un des pays les plus proches de la France.

Bref. Je me suis un peu moqué sur Twitter de l'émotion que peut susciter le décès, à un âge fort canonique et de manière apparemment fort paisible, de quelqu'un que très peu de gens ont rencontré et dont le travail (accompli avec soin) consistait justement à ne rien faire et à ne rien dire, mais je me rends compte que c'est assez injuste, et ce billet de blog est une forme de mea culpa.

Ne serait-ce que parce que je n'ai moi-même pas été laissé complètement indifférent au décès de celle qui était aussi ma reine (en tant que souveraine du Canada), — même si je ne comparerais pas pour autant cette émotion à la tristesse que je peux ressentir à la mort d'un proche. (Peut-être plus de la nostalgie que de la tristesse ? Ou quelque chose qui n'a sa place que dans le Dictionary of Obscure Sorrows ?)

J'y ai repensé tout à l'heure en voyant qu'un platane pas loin de chez moi (assez majestueux et possiblement aussi âgé qu'Elizabeth II même si les platanes poussent vite donc je trompe peut-être dans mon estimation) venait d'être coupé (je suppose qu'il était pourri de l'intérieur), et que j'en étais attristé : indiscutablement ce platane était au moins aussi bon qu'Elizabeth II pour ce qui est de remplir la mission de ne rien faire et ne rien dire, et indiscutablement nous n'avons jamais parlé ensemble (je n'ai pas l'habitude de parler aux arbres, et même si je les qualifie parfois de gentil nanarbre, les arbres ne me répondent jamais) : donc je dois me rendre à l'évidence, on peut être attristé par la disparition d'un être vivant qui ne faisait rien et ne disait rien et avec lequel on n'a eu aucun échange. Il faisait juste partie du paysage et j'avais tendance à m'imaginer, sans vraiment y réfléchir, qu'il serait toujours là.

Ce n'est peut-être pas très flatteur de comparer Elizabeth II à un platane (même si les platanes sont de gentils nanarbres), alors j'en tente une autre : je repensais aussi à l'incendie de l'église Notre-Dame de Paris, qui a aussi suscité une grande émotion dans le monde, pas forcément tout à fait évidente à comprendre. Y compris pour des gens qui, n'étant pas catholiques voire étant hostiles au catholicisme, ne voient pas forcément d'un bon œil le symbole qu'est un siège épiscopal. Mais cette église est autre chose : une œuvre d'art, bien sûr, mais aussi et plutôt, je crois, en l'occurrence, un monument.

Je ne sais pas exactement ce que c'est qu'un monument (aucune des définitions données par les dictionnaires ne me plaît complètement), mais peut-être que ça pourrait ressembler à une chose qui fait partie du paysage et qui devient célèbre ; et dont la disparition nous surprend, et nous émeut d'autant plus que ça faisait longtemps qu'elle était là.

↑Entry #2731 [older| permalink|newer] / ↑Entrée #2731 [précédente| permalien|suivante] ↑

↓Entry #2730 [older| permalink|newer] / ↓Entrée #2730 [précédente| permalien|suivante] ↓

(vendredi)

Le multivers dans la fiction (voire dans la réalité)

J'ai tout récemment vu deux films, Everything Everywhere All at Once et Doctor Strange in the Multiverse of Madness dans lequel le « multivers » joue un rôle central, du coup je me suis dit que je devrais en parler un peu à la manière dont j'avais précédemment parlé de voyage dans le temps (où j'ai d'ailleurs expliqué que le voyage dans le temps polychronique était essentiellement équivalent à un voyage entre univers parallèles, et où j'ai déjà évoqué certaines des idées sur lesquelles je veux revenir). Mon but n'est pas de commenter sur ces films précis, même si je peux dire au passage que j'ai bien aimé le premier qui est plutôt touchant, et que le second est un blockbuster tout à fait standard dans la ligne du Marvel Cinematic Universe (je ne dirais pas que c'est mauvais, on sait bien à quoi s'attendre). Je veux plutôt parler de l'idée générale du multivers dans la (science-)fiction (enfin, du peu de culture que j'ai en la matière). Mais bon, comme mes lecteurs réguliers en ont l'habitude, je vais digresser dans tous les sens, et je pars sans plan précis.

Pour dire d'abord quelque chose du multivers au sens « scientifique » (je n'ose pas dire réel, mais disons quelque chose comme sérieusement imaginable) avant de passer à la fiction, je peux par exemple renvoyer à cette vidéo dans laquelle Tony Padilla (professeur de physique à l'Université de Nottingham) évoque et vulgarise la classification par Max Tegmark de quatre « niveaux » de multivers : ① ce qui est dans l'Univers au-delà de l'horizon cosmologique, ② des bulles (post-inflation) avec des valeurs différentes des constantes physiques, ③ les mondes multiples de l'interprétation, et ④ l'ensemble des structures mathématiques possibles. Je ne suis pas sûr que cette classification soit ni très pertinente ni franchement exhaustive, mais ce n'est pas vraiment mon sujet ici. (Plus franchement critique vis-à-vis de tout concept de multivers, Sabine Hossenfelder ici disqualifie complètement l'idée comme non scientifique et relevant de la religion. | Mise à jour : celle-ci, plus récente et un peu plus longue est encore plus sarcastique, en disant en gros la même chose.) Je voudrais cependant évoquer au moins un type de multivers scientifiquement sensé, qui ne rentre pas vraiment dans la classification de Tegmark, et qui me semble plus proche de ce que la fiction semble désigner sous ce nom, c'est juste « l'espace de toutes les possibilités », l'ensemble de toutes les histoires possibles de l'Univers compatibles avec les lois de la physique. Longue digression à ce sujet (que vous pouvez sauter si vous ne voulez pas de métaphysique théorique) :

Si les lois de la physique sont déterministes dans les deux sens du temps (et l'état actuel de nous connaissances ne permet ni de l'exclure ni de le conclure, mais c'est au moins le cas de certaines théories comme la mécanique classique), c'est-à-dire que pour (presque) n'importe quel état U(t₀) de l'Univers à l'instant t₀ elles prédisent un état U(t) bien défini pour n'importe quel temps t (qu'il soit avant ou après t₀ ; en relativité, il faudrait plutôt parler d'hypersurface de Cauchy que d'instant, mais laissons-ça de côté), alors toute l'histoire de l'Univers est entièrement déterminée par son état à un instant t₀ quelconque, et le multivers dont je parle (ensemble de toutes les trajectoires possibles de l'état de l'Univers) est simplement, ou s'identifie simplement avec, l'ensemble de tous les états possibles, lequel porte le nom standard d'espace des phases, et les lois de la physique sont flot sur cet espace (associant à chaque point l'ensemble de la trajectoire déterminée ; en mécanique classique hamiltonienne ce flot a une forme bien précise définie par la structure symplectique et le hamiltonien, mais je ne parle pas forcément de quelque chose d'aussi précis que ça).

(Une longue digression dans la digression.) Ceci présente d'ailleurs le paradoxe suivant dont j'ai déjà dû parler quelque part sur ce blog (j'aurais cru dans cette entrée sur la métaphysique, mais bizarrement ça n'y est pas ; sinon, voir ce post sur Usenet que j'ai écrit il y a 20 ans), et qui est très vaguement pertinent pour ce que je veux évoquer ici, ce qui justifie que je m'étende dessus. Si on modifie un tout petit peu, mais aléatoirement, l'état U(t₀) (que nous croyons être celui) de l'Univers actuellement pour donner un état U′(t₀) macroscopiquement presque identique à U(t₀) mais néanmoins distinct (disons qu'on a juste déplacé quelques atomes), alors en vertu du déterminisme bidirectionnel, on peut tracer la trajectoire de U′ vers l'avenir ou vers le passé. L'évolution de U′ vers l'avenir sera différente de celle de U, mais plausible comme évolution de l'un ou de l'autre : il faut imaginer que la trajectoire future de U ou de U′ correspondent à des avenirs qui nous semblent plausibles, et qui « divergent » à partir du moment t₀ (ceci correspond assez bien à notre intuition de lignes d'histoire divergeant à partir d'un point dans le temps). En revanche, l'évolution vers le passé de U′ ne ressemble absolument pas à celle de U, car l'entropie va augmenter dans les deux directions du temps (je veux dire, dans U elle est croissante avec t, alors que dans U′ elle a un minimum en t₀ : ceci résulte du fait que l'évolution d'une configuration d'entropie donnée dans l'espace des phases conduit presque toujours à une configuration d'entropie plus grande : ce n'est pas le cas dans U car il est le futur d'un état « naturel » d'entropie basse au moment du Big Bang, mais dans U′ l'évolution dans les deux sens du temps à partir de t₀ fait augmenter l'entropie) ; or ceci est intéressant parce que tous les habitants de l'univers U′ sont persuadés, à partir de t₀, qu'ils vivaient dans l'univers U : puisque U′ est quasi identique à U au temps t₀, ils ont les mêmes souvenirs que les habitants de l'univers U : ils ont donc de faux souvenirs de leur passé. La question métaphysique sous-jacente est pourquoi nous sommes persuadés de vivre dans un univers de type U (où l'entropie lors du Big Bang était plus faible que maintenant, ce qui est extrêmement improbable a priori) alors que ceux de type U′ sont inimaginablement plus nombreux et donc plus probables a priori au sens bayésien ; mais ce n'est pas ce que je veux évoquer ici. ❧ Je dois néanmoins souligner qu'avec des hypothèses raisonnables sur les lois de la physique, on peut trouver un U″ tel que U″ soit proche de U en t₀ et diverge ensuite (comme pour U′) et en même temps que U″ soit proche de U pour tout temps avant t₀ (à partir du Big Bang) : par continuité du flot entre le Big Bang et t₀, il suffit pour cela de faire un changement encore beaucoup plus petit à U(tBig Bang), donnant U″(tBig Bang) assez petit pour que U″(t) diffère peu de U(t) jusqu'à t₀, et diverge ensuite. Il est imaginable qu'on ne veuille considérer comme « licites » ou « pertinents » (ou accessibles ?) dans le multivers que des univers comme U″ que je viens de décrire, qui divergent d'un univers U de référence qu'à partir d'un certain point t₀ et dont le passé remonte à (ou : découle d') un état « naturel » (d'entropie très basse, ou proche de celui de U) au moment du Big Bang, et pas des univers comme U′ qui sont des monstruosités sans nom n'ayant en t₀ pas de véritable passé mais plutôt deux avenirs dans les deux sens du temps. (Fin de la longue digression dans la digression, pour laquelle je présente mes excuses — ça mériterait d'être ailleurs.)

Si les lois de la physique ne sont pas déterministes, alors on peut simplement appeler multivers l'ensemble de toutes les trajectoires qu'elles permettent dans l'espace états possibles de l'Univers. Comme expliqué au paragraphe précédent, même des lois déterministes (pour peu qu'elles soient chaotiques) permettent d'avoir des trajectoires qui coïncident essentiellement jusqu'à un instant t₀ et divergent ensuite, ce qui est la vision du multivers en jardin des sentiers qui bifurquent, donc en fait le déterminisme ou le non-déterminisme des lois fondamentales de la physique ne change essentiellement rien à cette histoire et à cette vision du multivers.

Ce type de multivers comme « espace de toutes les possibilités permises par les lois de la physique » est tellement basique et tellement trivial que se demander s'il existe vraiment est une question assez oiseuse : il n'y a évidemment aucune différence de prédiction observable entre la théorie qui affirme que seul existe une seule trajectoire dans l'espace des possibles (celle de l'Univers réel), et celle qui affirme que toutes les trajectoires existent simultanément et que nous en observons juste une parce que nous vivons dans celle-là. Je dirais quand même que la seconde théorie me semble plus économique, parce qu'elle nous dispense d'avoir à préciser les conditions initiales de l'Univers : tous les états possibles existent, et si nous observons celui-ci c'est jusque parce que c'est l'endroit où nous vivons dans l'espace des possibles ; alors que la première théorie, pour être complète, doit être accompagnée d'une description complète de chaque particule dans l'Univers réputé être le seul vrai. Mais bon, c'est un peu une querelle byzantine de savoir si ces deux théories sont vraiment différentes tant que les univers n'interagissent pas du tout entre eux, et c'est peut-être ça que veut dire Sabine Hossenfelder dans la vidéo liée ci-dessus où elle qualifie la question de religieuse.

(Fin de la longue digression.)

Le fait qu'il existe des univers parallèles, ou une quelconque sorte de multivers, n'a évidemment aucune espèce d'importance (et peut-être même aucune espèce de sens) si ces univers ne peuvent en aucune manière interagir ni même communiquer. (Bien sûr, ça n'interdit pas à un auteur de fiction de présenter deux histoires se déroulant dans deux mondes différents, peut-être en alternance, même si ces histoires n'ont aucune interaction l'une avec l'autre : peut-être qu'elles s'éclairent mutuellement, peut-être qu'elles évoquent les mêmes thèmes, peut-être qu'il y a une symétrie narrative entre elles, d'ailleurs je vais revenir là-dessus plus bas, bref, il peut tout à fait y avoir des raisons de faire appel à des univers parallèles en fiction même s'ils ne peuvent ni interagir ni communiquer ; mais ce n'est pas vraiment ça qu'on a en tête quand on utilise le terme de multivers.)

Disons donc qu'on parle d'univers différents entre lesquels il est possible de voyager, ou du moins, de communiquer. Ou peut-être que seulement quelques personnages ont cette capacité. La manière dont se fait cette interaction ou ce voyage entre univers plus-si-parallèles-que-ça a fait l'objet de toutes sortes d'explorations dans la fiction (par des portails fixes ou crées, par des gadgets du type machine à remonter le temps, par des rituels magiques, par les rêves, par une forme de télépathie…). Laissons ça de côté au moins pour l'instant. Laissons aussi de côté la question de savoir si les différents univers ont les mêmes lois naturelles (différant alors juste par leur contenu), ou des lois analogues, ou si tout est permis. Mais une autre question est de savoir combien il existe de ces univers.

↑Entry #2730 [older| permalink|newer] / ↑Entrée #2730 [précédente| permalien|suivante] ↑

↓Entry #2729 [older| permalink|newer] / ↓Entrée #2729 [précédente| permalien|suivante] ↓

(dimanche)

La sécheresse 2022 est-elle le résultat du changement climatique ou d'une anomalie ponctuelle ?

Avant de parler du sujet de ce billet, je commence par une longue digression pour revenir sur la question des données météo (ouvertes) dont j'ai parlé récemment (si ceci ne vous intéresse pas, sautez directement après le symbole ‘♠’ ci-dessous). Comme je le dit dans une mise à jour (écrite il y a quelques jours) que j'ai ajoutée à la fin du bilet que je viens de lier, la meilleure source de données météo ouvertes de stations météorologiques individuelles que j'ai trouvée jusqu'à présent est celle distribuée par le European Climate Assessment & Dataset (ECAD) : en allant dans l'onglet Daily data, on trouve des données météorologiques à fréquence quotidienne pour toutes sortes de variables et toutes sortes de stations météo en Europe. Voilà qui est très bien, et exactement le genre de choses que je voulais.

Mais pas exactement non plus.

Parce qu'il y a une chose qui demeure curieuse : pour la France, on y trouve seulement une poignée de stations, dont la plus proche de Paris est la station d'Orly (ici, techniquement sur la commune d'Athis-Mons, mais on dit Orly parce que c'est celle de l'aéroport de ce nom). Or la station météo de référence pour Paris (peut-être pas la seule, mais sans doute la plus ancienne), c'est celle située dans le parc Montsouris (ici). Pas que je tienne spécialement à avoir les données ici plutôt que là, mais la station de Paris-Montsouris a des relevés qui remontent au moins à 1900, alors que celle d'Orly n'en a que depuis 1947, et comme je voudrais avoir une série aussi longue que possible et aussi homogène que possible, je veux celle de Montsouris. Et puis je voudrais comprendre ce qui se passe : je trouvais bizarre que l'ECAD ait accès aux données d'Orly mais pas de Paris-Montsouris et encore plus bizarre parce que (comme je le disais aussi dans l'addendum à la fin de cette même entrée) on trouve en téléchargement depuis cette page Meteo-Paris.com de vieux fichiers de données qui manifestement viennent de l'ECAD et qui sont pour la station de Paris-Montsouris (mais ils ne vont que jusqu'à fin septembre 2008). Quelle est cette diablerie ?

J'ai donc écrit à l'équipe du KNMI qui gère l'ECAD pour leur demander des explications, et ils m'ont répondu que Météo France ne leur communiquait initialement les données que pour un nombre restreint de stations (dont celle de Paris-Montsouris), et que les fichiers trouvables chez Meteo-Paris.com datent de cette époque, mais qu'ils (Météo France) ont ensuite beaucoup augmenté ce nombre de stations transmises, et en « contrepartie » ont explicitement demandé que seul une poignée de ces stations soient marquées comme téléchargeables, c'est-à-dire pour lesquelles on peut télécharger les données quotidiennes, et ce petit ensemble n'inclut pas celle de Paris-Montsouris. Bref, l'ECAD les a, mais on n'y a plus accès. (Et du coup, je me retrouve avec les données de Paris-Montsouris seulement jusqu'à 2008, et celles d'Orly depuis 1947, ce qui n'est pas mal, mais ça ne fait quand même pas une série longue et complète.)

Tout ceci n'a aucun sens. D'abord, il est à la fois absurde, mesquin et contraire à leur mission d'information pour Météo France de restreindre l'accès à des données d'observation collectées avec l'argent du contribuable français. (En plus, c'est particulièrement mesquin de ne pas avoir mis la station de Paris-Montsouris dans la liste des stations téléchargeables alors qu'elle l'était auparavant.) Je ne sais pas pourquoi ils font ça (peut-être espèrent-ils vendre les données ? mais qui voudrait acheter des vieux relevés météo ?), je ne sais pas qui est le connard qui a pris cette décision, mais je constate qu'en Allemagne, (quasiment) toutes les stations météo sont marquées comme téléchargeables. Mais en fait, rien ne tient vraiment debout dans cette histoire, parce que plein de gens semblent quand même avoir accès à ces données de Paris-Montsouris et qui les diffusent (sous des formats peu exploitables) : Infoclimat.fr, par exemple, ou Meteociel.fr ou même un compte Twitter pour cette foutue station : d'où ces gens tirent-ils ces données, à la fin, si elles ne sont pas diffusées publiquement par Météo France ? Quelles sont leurs sources ? Quels sont leurs réseaux ? Je n'y compris rien.

De toute façon, si je comprends bien le droit d'accès aux documents administratifs (et que j'ai raison de penser que Météo France, pour l'accès aux documents administratifs est assimilé à une administration), ils ont l'obligation de communiquer ces données à qui en fait la demande (et gratuitement ; et il y a même une exigence renforcée en matière de données environnementales dont l'état de l'atmosphère fait partie), donc ne pas permettre à l'ECAD de rediffuser ces données qu'ils (Météo France) doit légalement fournir à qui les demande est simplement absurde.

J'ai vraiment envie de foutre des baffes à des gens chez Météo France, là.

Mais faute de baffes, je vais leur envoyer une demande d'accès aux données, dont voici un brouillon que vous êtes encouragés à relire avant que je l'envoie, surtout si vous avez des connaissances juridiques. (Je pense notamment au long paragraphe qui dit en creux vous êtes des sales connards de ne pas avoir autorisé l'ECAD à republier ces données, alors je vais vous emmerder en vous les demandant tous les six mois jusqu'à ce que vous changiez de politique à ce sujet, mais j'essaie de le dire de façon un peu plus conciliante que ce que je pense très fort : je ne sais pas si c'est optimal pour maximiser la probabilité que j'obtienne ce que je veux.) Il faut aussi voir s'ils peuvent m'empêcher de les rediffuser ensuite, mais manifestement ils ne sont même pas très cohérents dans leur désir de non-rediffusion vu qu'il y a ce compte sur Twitter (lié ci-dessus) qui les obtient je ne sais comment et les diffuse en temps réel.

Mise à jour () : Pour la suite de cette histoire, je recopie un bout d'une entrée ultérieure à laquelle je renvoie pour plus de précisions : J'avais imaginé qu'il suffirait de faire une demande d'accès aux documents administratifs pour les forcer à les communiquer, parce que Météo France est un établissement public à caractère administratif, et que le principe général est celui de la gratuité ; mais j'ai ensuite découvert qu'ils ont une exception taillée sur mesure pour percevoir des redevances, exception qui n'est d'ailleurs elle-même peut-être pas conforme à la Loi, mais je n'ai pas les compétences légales ni les moyens juridiques pour la contester devant les juridictions administratives, donc mon espoir d'obtenir ces données s'arrête là. Ce qui ne m'empêche pas de trouver complètement délirant de garder secrète la température qu'il fait à Paris, et secondairement de m'interroger sur la manière dont des sites comme Infoclimat.fr ou Meteociel.fr les obtiennent quand même : je me demande comment ces sites amateurs ont les moyens de payer 200 000€/an.

Bref.

Bref, c'est en fouillant pour trouver ces données météo, et notamment du côté du KNMI que j'ai découvert l'existence de ce gadget fabuleux qu'est le Climate Explorer and Climate Change Atlas, qui est un site interactif permettant de calculer des cartes et des graphes (ou d'extraire des données) pour représenter le changement climatique (soit à partir d'observations soit à partir de modèles) : voir ce fil Twitter et celui-ci, mais aussi la suite de cette entrée, pour quelques exemples de ce qu'il permet de faire.

(Les cartes et graphes des tweets que je viens de lier, ainsi que ceux ci-dessous, sont tirés du modèle ERA5 du European Centre for Medium-Range Weather Forecasts, qui est une réanalyse du climat passé, c'est-à-dire qu'on fait tourner des modèles sur les observations réelles pour obtenir quelque chose de cohérent à l'échelle de la Terre entière, avec une résolution de quelque chose comme 30km en surface et 1h dans le temps, en l'occurrence depuis 1950 ou 1959 ou 1978 je n'ai pas bien compris ce qui change à ces dates. En un certain sens, c'est mieux que des observations locales, parce qu'on peut demander des valeurs n'importe où, et ce sera beaucoup moins bruité ; en revanche, c'est plus limité dans le temps, ce qui explique que je veux quand même me battre pour obtenir mes relevés à Paris-Montsouris.)

Tout ceci m'a amené à me poser la question suivante (j'en viens enfin au sujet de cette entrée) :

La France et les pays voisins connaissent actuellement une sécheresse exceptionnelle en même temps qu'une série de canicules. J'entends beaucoup de gens dire que « c'est » le changement climatique, qu'« un cap » a été franchi (ou « un point de non-retour »). Mais est-ce vraiment le cas ? Autrement dit, cette sécheresse 2022 et plus généralement le caractère exceptionnel de cette année doit-elle se concevoir comme une étape de plus dans un changement climatique, ou comme une anomalie, ou comme une combinaison des deux ? D'ailleurs, est-ce vraiment une année si exceptionnelle ? J'ai voulu essayer d'y voir plus clair : je ne prétends pas avoir réussi, mais j'ai au moins fait joujou avec des graphiques.

Ce qui est sûr (et peut-être justement ce qui est dramatique, comme dans l'histoire — largement inventée — de la grenouille qu'on fait bouillir progressivement) c'est que le changement climatique est quelque chose de graduel. Malgré l'existence de points de bascule où le changement s'accélère si certains mécanismes de rétroaction positive se mettent en route, il n'y a pas de discontinuité à prévoir : il reste un phénomène graduel. (Enfin, graduel à l'échelle de quelques années ou décennies, entendons-nous bien : à l'échelle géologique, ça reste inimaginablement rapide, j'avais déjà évoqué le fait que le changement actuel est entre dix et cent fois plus rapide que celui déjà très soudain qui s'est opéré à la frontière paléocène-éocène.) Il peut y avoir accélération, mais il est évident qu'il ne peut pas y avoir eu un changement climatique important entre 2021 et 2022. En même temps, tous ces phénomènes sont extrêmement bruités : le climat, c'est une tendance à long terme à laquelle s'additionnent des variations météo aléatoires extrêmement importantes au niveau de l'heure, de la journée et de la saison, ce qui rend la lecture de la tendance à long terme très difficile : il faut faire des statistiques sur des intervalles très longs, et ce n'est pas toujours possible (d'autant que le phénomène peut lui-même changer dans l'intervalle).

Évidemment, un changement à long terme peut avoir rendu seulement improbable un événement qui était quasi-impossible, et probable un événement qui était improbable. (Toutefois, ces probabilités évolueront tout de même graduellement.) En outre, la distribution de n'importe quelle variable météo n'évolue pas forcément comme une simple translation : le changement à long terme peut concevablement aussi affecter la distribution, c'est-à-dire augmenter la variance ou la forme de la queue de la distribution, c'est ce que j'avais essayé de dire dans mon billet sur les événements extrêmes sans pour autant arriver à y voir clair (ni à m'exprimer clairement).

Mais on peut malgré tout essayer de séparer une tendance à long terme, dont l'expression la plus simple est une régression linéaire dans le temps sur un intervalle assez long, et des écarts par rapport à cette tendance (et se demander si l'écart 2022 est particulièrement remarquable). C'est ce que j'ai tenté de faire ci-dessous.

Rappelons en tout cas que si l'impact du changement climatique sur la température est indiscutable (et se traduit par une augmentation presque partout sur la Terre, pas à la même vitesse partout, mais l'Europe est, après l'Arctique, un des endroits qui se réchauffe le plus vite), celui sur les précipitations (et autres aspects du cycle de l'eau, comme la sécheresse) est plus complexe. J'avais mentionné dans mon entrée sur les événements extrêmes (lien précédent) le rapport du projet DRIAS pour la France métropolitaine (bâti au-dessus des modélisations du GIEC pour le monde) qui conclut pour la France à plus de pluies en hiver et plus de sécheresse en été, mais avec une incertitude considérable sur tous ces phénomènes (beaucoup plus que sur les températures), si bien qu'on ne peut même pas vraiment conclure si le total de précipitation sur l'année sera augmenté ou diminué (le modèle est plutôt favorable à une augmentation du total, mais les marges d'erreur sont énormes) ; et ces évolutions ne doivent, selon ce modèle, être vraiment sensibles qu'à l'horizon fin de siècle (voir notamment pages 60–63 du rapport). Bon, ça c'est pour les modèles : maintenant, qu'en est-il des observations ?

Pour essayer de préciser un peu les choses, et espérer à séparer tendance à long terme et anomalie de l'année, j'ai calculé les cinq graphes suivants (cliquer sur chacun pour le zoomer), qui représentent cinq variables météorologiques importantes moyennées de janvier à juillet, et que je vais à présent commenter et expliquer :

[Graphe de température (°C) en France moyennes janv–juil par année][Graphe de précipitation (mm/j) en France moyennes janv–juil par année][Graphe de différence P−E (mm/j) en France moyennes janv–juil par année][Graphe de rayonnement solaire (W/m²) en France moyennes janv–juil par année][Graphe de pression atmosphérique (hPa) en France moyennes janv–juil par année]

↑Entry #2729 [older| permalink|newer] / ↑Entrée #2729 [précédente| permalien|suivante] ↑

↓Entry #2728 [older| permalink|newer] / ↓Entrée #2728 [précédente| permalien|suivante] ↓

(mardi)

Retour sur ma phobie et fascination des lieux abandonnés

J'avais parlé il y a quelques années du mélange bizarre de phobie et de fascination que j'éprouve pour certains lieux abandonnés, abandonnés ou désertés, que je précisais dans cette entrée par le qualificatif industriels mais je me dis maintenant qu'il est plus un élément amplifiant que déterminant (je donne d'ailleurs des exemples ci-dessous qui n'ont rien d'industriel). Je voudrais revenir un petit peu sur cette sensation, que je crois en fait un peu plus répandue que ce que je m'imaginais alors, même si elle ne prend pas forcément chez tout le monde la forme d'une phobie.

[Image générée par l'IA NightCafé]La nature exacte des lieux qui déclenchent ce sentiment n'est pas bien claire, et son intensité varie beaucoup. (Il en va du même du vertige, avec lequel je vais faire un certain nombre de comparaisons : je suis assez fortement sujet au vertige, mais les endroits qui me donnent le vertige ne sont pas forcément si faciles que ça à prévoir, ni son intensité, et il se peut que j'aie moins le vertige à tel endroit qu'une autre personne alors que j'en aurai plus qu'elle à un autre endroit.) S'agissant de ces lieux abandonnés, il y a plusieurs éléments qui contribuent au phénomène dont je parle : le fait qu'il s'agisse d'un lieu abandonné ou liminal, si possible un peu labyrinthique, soit dont la visite est interdite soit qui est simplement déserté, mais il est aussi pertinent qu'on ait affaire à une construction artificielle en train de tomber en ruines. Je n'ai pas peur de la solitude dans les endroits naturels (enfin, peut-être que si, par exemple j'ai certainement peur des grottes, mais c'est une sensation vraisemblablement différente et sans doute plus rationnelle) ; je n'ai pas non plus peur, disons, de ruines vraiment anciennes, par exemple si ce sont quelques bouts de mur dans un paysage (en fait, je pense que dès qu'il n'y a plus de toit c'est nettement moins effrayant) : c'est sans doute quand l'endroit a été fortement artificialisé par l'homme mais qu'il est en train d'être repris par la nature que la sensation est la plus forte, comme une sorte de vallée de l'étrange entre le naturel et l'artificiel.

L'image ci-dessus ou ci-contre à droite a été générée par le moteur d'intelligence artificielle NightCafé avec l'algorithme cohérent sur la base des prompts creepy abandoned place (poids 1), urban exploration (poids 0.9) et scary (poids 0.5). Je pense qu'il rend assez bien l'ambiance dont je parle.

Et finalement, je pense que la description la plus simple, même si elle n'est pas 100% précise, des lieux qui provoquent cette sensation chez moi est : les lieux d'urbex (= exploration urbaine), i.e., les lieux qui intéressent les urbexeurs, que la Wikipédia en anglais décrit assez bien comme l'exploration de structures artificielles, généralement des ruines abandonnées ou des composantes cachées de l'environnement artificiel — sans doute faudrait-il ajouter quelque chose sur la condition d'être interdit ou difficile d'accès, parce que ce n'est pas de l'urbex si le lieu est officiellement balisé. (Par exemple, visiter le très étrange jardin d'agronomie tropicale René Dumont, qui est ici en bord du bois de Vincennes de Paris, qui regroupe des restes de pavillons, à différents degrés de délabrement et d'abandon, d'une exposition coloniale tenue en 1907, c'est joli et amusant, mais ce n'est pas de l'urbex sauf si on commence à entrer dans les pavillons en principe condamnés au public.)

J'écrivais dans l'entrée précédente sur le sujet et que j'ai liée ci-dessus que je serais a priori intéressé par l'“exploration urbaine”, mais dans les faits, cette sorte de phobie, combinée avec la peur un peu plus rationnelle de me retrouver perdu ou coincé, me l'interdit complètement : je pense qu'il serait plus exact de dire que c'est justement la même sensation qui à la fois me terrifie et me fascine : ce ne sont pas deux sensations différentes en conflit, c'est la même qui m'attire et me repousse à la fois. Le fait d'être fasciné par ses propres peurs n'a rien de spécialement inhabituel ni exotique : c'est un peu le principe des films d'horreurs, je suppose (bon, je suis moi-même complètement hermétique au film d'horreur : je suppose qu'ils me font peur, mais en tout cas ils ne me fascinent pas du tout, mais beaucoup de gens vont les voir parce qu'ils leur font peur, pas en dépit du fait qu'ils leur font peur). C'est aussi le principe qui fait que des gens sujets au vertige aiment — comme c'est mon cas — regarder des vidéos de personnes faisant des choses très vertigogènes (voyez /r/SweatyPalms sur Reddit, par exemple cette vidéo de mouvements style parkour incroyablement dangereux exécutés au sommet de gratte-ciel ; parfois cela tourne un peu au voyeurisme comme dans la vidéo de la mort de Wu Yongning — 吴咏宁 — en 2017, qui avait beaucoup circulé, et que je ne lie pas ici mais qu'on trouvera assez facilement si on aime regarder ce genre de choses).

Je ne sais pas dans quelle mesure les gens qui pratiquent souvent l'urbex (et, mutatis mutandis, les gens qui font les casse-cou en haut de gratte-ciel) n'éprouvent que de la fascination, ou éprouvent aussi ce genre de peurs mais arrivent à les dépasser, ou peut-être n'éprouvent rien de particulier mais savent que d'autres gens sont intéressés parce qu'ils ont le mélange de peur et de fascination dont je parle. Mais je suis maintenant sûr, en tout cas, que ce mélange ne concerne pas que moi (alors que lorsque j'écrivis l'entrée précédente sur le sujet je pensais que c'était une bizarrerie de ma part).

Une preuve en est la popularité qu'a acquis le mème (je ne sais pas comment le qualifier : légende ? mythe ? blague ? trope ? une histoire à laquelle on fait semblant de croire pour se faire peur mais dont fondamentalement tout le monde sait que c'est une histoire à laquelle on fait semblant de croire) apparu en 2019 des « backrooms » (cf. ce que j'en écrivais ici sur Twitter), qui sont censément un monde parallèle formé d'espaces infinis et vides auxquels on accède par accident en prenant une mauvaise porte dans le monde réel. Il y a toute une mythologie factice autour des backrooms (voir par exemple ici), et certains des « niveaux » qui y sont décrits ressemblent beaucoup à, et sont manifestement décrits pour évoquer les mêmes peurs que, les espaces abandonnés dont je parle dans ce billet. (Attention !, si on commence à lire des choses sur les backrooms, comme sur l'urbex réelle, on risque de tomber dans un labyrinthe de liens Wikipédia ou autres qui, pour être virtuel, n'en est pas moins labyrinthique que ces lieux imaginaires.) • Déjà avant ce mythe des backrooms, il y avait déjà quantité d'histoires qui circulaient sur Internet dans un genre mêlant à des degrés divers des éléments d'urbex réelle et des inventions destinées à faire peur, souvent sur le modèle j'ai trouvé tel endroit abandonné, j'ai exploré des passages de plus en plus bizarres et effrayants et trouvé des choses anormales ou des signes inquiétants, jusqu'à quelque chose de vraiment mystérieux, et je n'ai pas osé aller plus loin : on n'y croit pas vraiment, mais parfois un petit peu quand même, ou on fait semblant d'y croire, parce que c'est bon de se faire peur. Si les gens jouent à ça, c'est bien qu'il y a un mélange entre peur et fascination que je ne suis pas le seul à éprouver. (Je pourrais aussi mentionner les histoires tournant autour des morts dans les catacombes au-dessous d'Odessa, cf. par exemple cet article de Vice de 2015.)

Pour en revenir à l'urbex réelle et pas les histoires inventées, dans mon cas, la phobie est trop forte pour que je puisse pratiquer cette distraction (ou alors il faudrait que je sois avec un groupe suffisamment nombreux, parce que je pense que la présence d'autres gens est ce qui aurait l'effet rassurant le plus fort auprès de moi). En revanche, ça ne m'empêche pas de chercher à assouvir la fascination que j'éprouve quand même, soit en lisant des histoires de ces lieux abandonnés, si possible avec images ou vidéos, et en me documentant sur leur histoire, soit en allant jusqu'à l'entrée du lieu même si je ne suis pas capable de m'approcher plus que ça.

Évoquons en quelques mots deux lieus abandonnés que j'ai vus récemment :

Il y a deux semaines, j'étais avec le poussinet dans la forêt de la Grange à Yerres (Essonne), qui n'est pas du tout abandonnée, mais qui entoure le domaine du château de la Grange (ou du Maréchal de Saxe) (c'est ici sur la carte, et ici sur Google Street View) qui, lui, semble être abandonné depuis quelques années (et d'ailleurs en vente pour 8.7M€ si vous avez ça à jeter par les fenêtres), et le domaine devait être en assez mauvais état déjà ; nous avons fait une bonne partie du tour du domaine en longeant le mur d'enceinte, qui s'effondre çà et là, j'ai mis quelques photos sur Twitter de douves emplies d'eau stagnante et envahie d'algues, qui me mettaient assez mal à l'aise, preuve que ce n'est pas une question de lieux « industriels » comme je l'écrivais dans mon entrée précédente. (Et preuve aussi que cette peur est assez irrationnelle : ces murs et douves se présentaient à mon esprit comme une limite entre l'espace plutôt rassurant de la forêt et l'espace assez terrifiant du domaine abandonné du château, mais il est évident qu'il n'y a rien de franchement différent entre les deux : le domaine du château est juste en train de redevenir forêt. Bon, l'eau croupie des fossés a aussi quelque chose de terrifiant en elle-même, et pas que pour l'inquiétude tout à fait rationnelle du nombre de moustiques qui doivent y avoir élu domicile. Soit dit en passant, j'aimerais bien comprendre pourquoi le domaine est limité par une alternance de murs et de douves, avec parfois juste quelques mètres de fossé qui interrompent le mur. Mais je digresse. Toujours est-il que j'ai peu d'informations sur ce lieu : l'article Wikipédia ne mentionne même pas l'abandon du château, et je ne sais pas à quand il remonte.)

Ceci m'a amené à reparcourir des sites de comptes-rendus d'urbex (notamment certains signalés en commentaire à l'entrée précédente, comme celui-ci ou celui-là) : j'ai appris l'existence d'un endroit que je trouve particulièrement intéressant : l'ancien sanatorium d'Aincourt dans le Vexin. Il s'agit d'un gigantesque sanatorium, construit dans les années 1930 pour traiter les tuberculeux, et qui a servi temporairement de camp de concentration pendant la guerre avant de redevenir hôpital et d'être partiellement abandonné. Il se compose de trois immenses bâtiments construits selon un plan apparemment identique, et dont deux sont maintenant abandonnés (quoique inscrits aux monuments historiques) : le pavillon des Tamaris (anciennement pavillon Adrien-Bonnefoy-Sibour, réservé aux hommes) au sud ; le pavillon des Peupliers (anciennement pavillon du Docteur Vian, réservé aux femmes) au nord ; et le pavillon des Cèdres (anciennement pavillon Louis-Amiard, réservé aux enfants) entre les deux, ce pavillon des Cèdres étant encore en activité sous forme de centre hospitalier intercommunal du Vexin, tandis que les pavillons des Tamaris et des Peupliers ont été abandonnés respectivement début 2000 et dans les années 1980. (Le pavillon des Tamaris est entouré d'un grillage qui en interdit l'accès, mais celui des Peupliers n'est apparemment pas ainsi protégé, j'ignore si la différence est due à la dangerosité des dommages à la structure ou au fait qu'il y a un projet de possible réaménagement du pavillon des Tamaris en logements, ou simplement au fait que le pavillon des Peupliers est plus loin dans la forêt.) Il s'agit d'un lieu d'urbex apparemment assez standard (et assez facile d'accès), et on trouve toutes sortes d'images, que je trouve fascinantes, en cherchant sanatorium d'Aincourt dans Google images (même s'il n'est pas facile de savoir ce qui est une photo de quel pavillon parce qu'ils sont quasi identiques, et il est probable qu'il y ait en plus des confusions entre les noms). Cette vidéo n'est pas mal faite pour présenter le lieu en images, et celle-ci (probablement le pavillon des Tamaris) est plus artistique et donne une idée de la taille de l'endroit ; on trouve aussi quantité d'autres documents en ligne (soit dit en passant, j'ai fait une petite édition sur Wikipédia mais il faudrait que quelqu'un se dévoue pour nettoyer cet article qui est assez bordélique et par endroits pas du tout encyclopédique). • Le poussinet et moi y sommes allés avant-hier, parce que le poussinet voulait revoir, maintenant qu'il fait (trop) sec, les carrières de Feularde où nous nous étions perdus il y a quelques mois, et qui ne sont pas loin de ce sanatorium, donc nous avons fait un crochet par Aincourt après. Le poussinet est allé jeter un œil au bâtiment des Peupliers (celui qui est au nord) tandis que, puisque ma phobie m'interdisait d'aller jusque là, je suis resté faire un tour du jardin japonais (non abandonné, et très joli, mais un peu en triste état à cause de la sécheresse) qui se trouve à côté du bâtiment des Cèdres encore en activité : j'ai mis quelques photos sur Twitter ; ce jardin est tout à fait officiellement ouvert au public et peut être un prétexte pour aller dans le coin.

Tout ceci étant dit, je n'ai pas vraiment idée de la raison de cette peur que j'éprouve (et que je ne suis apparemment pas le seul à éprouver, même si la mienne est probablement inhabituellement forte) pour les endroits abandonnés, les endroits d'urbex. Autant le vertige est assez facile à comprendre (le danger de tomber est quelque chose certainement assez atavique), autant la peur des endroits abandonnées n'est pas facile à expliquer. Il y a une raison rationnelle qu'on peut invoquer, c'est les dangers qui peuvent être associés à un endroit qui n'est plus correctement entretenu (risques d'effondrement, de chute, de blessure, que sais-je encore), mais ces dangers sont trop rationnels et sans doute trop banals pour expliquer une peur sans doute ancrée dans un inconscient plus profond. Est-ce que la contemplation de la décrépitude nous rappelle notre mortalité ? Est-ce la peur de ce qui pourrait se cacher dans les coins d'ombre quand les humains abandonnent l'endroit ? Est-ce la peur de déranger les fantômes du passé ? (Un sentiment que j'avais essayé d'évoquer dans ce fragment littéraire.) Je n'en sais rien. Il y a certainement une bonne partie simplement due à l'idée que c'est interdit, et au fait qu'il n'y ait personne (comme je l'écris plus haut, je pense que le simple fait d'être en groupe me rassurerait beaucoup), mais c'est loin de tout expliquer. En tout cas, une preuve que je ne suis pas du tout le seul à ressentir au moins une forme de gêne est dans la facilité avec laquelle une recherche Google de quelque chose comme abandoned place se trouve accompagnée de mots comme eerie, scary, creepy, spooky ou hautning (mais aussi cool, beautiful, poetic et d'autres mots nettement moins négatifs). Si d'autres gens éprouvent le même genre de peur mêlée de fascination que moi, n'hésitez pas à livrer votre introspection en commentaire !

↑Entry #2728 [older| permalink|newer] / ↑Entrée #2728 [précédente| permalien|suivante] ↑

↓Entry #2727 [older| permalink|newer] / ↓Entrée #2727 [précédente| permalien|suivante] ↓

(lundi)

Comment comparer les niveaux de joueurs à un jeu ? (et : le classement Elo aux échecs)

Considérons la question suivante :

Alice, Barbara et Carole aiment jouer à un certain jeu (qui se joue à deux joueurs, et qui détermine un gagnant et un perdant). Quand Alice joue contre Barbara, elle gagne 80% des parties. Quand Barbara joue contre Carole, elle gagne 80% des parties. Avec quelle fréquence doit-on s'attendre à ce qu'Alice gagne quand elle joue contre Carole ?

Formulé comme ça, le problème est en quelque sorte un de ces pièges où, même si on a superficiellement l'impression d'avoir assez d'informations pour pouvoir faire des calculs intéressants, en fait on n'a pas les données permettant de répondre à la question posée (qui pourrait aussi bien être quel est l'âge du capitaine ?) : la réponse formellement correcte est donc on ne peut rien dire. Après tout, et même si c'est un peu paradoxal, le jeu pourrait très bien être tel que le style de jeu d'Alice la fasse gagner 80% du temps contre Barbara, qui gagnera elle-même 80% du temps contre Carole, qui gagnera à son tour 80% du temps contre Alice ; cela pourrait même être 100% du temps dans les trois cas, par exemple si le jeu est pierre-papier-ciseaux, qu'Alice joue toujours papier, Barbara toujours pierre et Carole toujours ciseaux. (Voir aussi ce fil Reddit.)

Néanmoins, ce genre de cercles paradoxaux de joueurs sont assez inhabituels. Dans un vrai jeu entre vrais joueurs, qu'il s'agisse des échecs ou du tennis ou du bras de fer ou un combat entre personnages à Donjons & Dragons, ou je ne sais quoi encore, on aura quand même tendance à se dire qu'Alice est plus forte que Barbara qui est elle-même plus forte que Carole, donc certainement Alice devrait gagner facilement contre Carole — et même, largement plus que 80% du temps — oui mais combien au juste ?

Encore une fois, il n'y a pas de « bonne » réponse. La réponse 80% est possible — quoique surprenante. Mais on peut quand même se demander quelle est la réponse la « moins surprenante », la réponse typiquement attendue, sans information supplémentaire sur le jeu. J'ai posé la question sur Twitter, mais les gens ont couardement refusé d'essayer d'y répondre. C'est dommage, parce que je pense que c'est intéressant, et j'encourage à y réfléchir avant de lire la suite : quel modèle mathématique raisonnablement simple utiliseriez-vous pour essayer de quantifier la différence de niveau des joueurs, et quelle réponse ce modèle apporte-t-il à la question ci-dessus ? (Plus généralement, bien sûr, il s'agit de se demander : si Alice gagne contre Barbara avec probabilité p et que Barbara gagne contre Carole avec probabilité q, avec quelle probabilité S(p,q) ce modèle prédit-il qu'Alice gagnera contre Carole ?)

On peut vraiment proposer des réponses sérieuses à cette question, qu'il serait amusant d'essayer de confronter à des jeux réels, même si je doute fortement qu'on puisse arriver à une situation assez « pure » et précisément reproductible pour faire une mesure utile. (Pour commencer, dans la réalité, un joueur fort ne joue pas de la même manière contre un joueur connu comme faible que contre un joueur intermédiaire.) Les deux modèles qui me semblent les plus naturels ou évidents, et que je vais décrire ci-dessous donnent l'un 95.38% et l'autre 94.12% (lorsque p=q=80%). Évidemment un tel niveau de précision est complètement illusoire, et je les donne juste pour permettre à une personne qui ferait le même calcul sans lire la suite de vérifier si elle a obtenu la même chose : je serais vraiment curieux de savoir si d'autres gens tombent aussi, sans lire ce qui suit, sur une de ces valeurs (malheureusement sans doute trop proches pour pouvoir être sérieusement départagées par l'expérience).

Cela faisait un moment que je m'étais dit que je parlerais du sujet au sujet du classement Elo aux échecs (j'y viens ci-dessous) : ce qui me motive à écrire ça maintenant, c'est d'une part que mon poussinet s'est soudainement découvert un intérêt pour les échecs (bien qu'il y soit assez nul), et d'autre part que je me suis rendu compte qu'il y avait un lien avec cette entrée récente.

Le cadre simplificateur général qui me semble assez naturel si on imagine un jeu dans lequel on peut parler de niveau d'un joueur, c'est le suivant (★) :

Chaque joueur a un niveau, qu'on peut quantifier par un nombre réel. Lorsque deux joueurs X et y de niveaux respectifs x et y jouent l'un contre l'autre, la probabilité que X gagne est donné par une certaine fonction h(xy) (avec h continue, croissante) de la différence entre ces niveaux.

Il y a deux hypothèses qui sont faites là-dedans : la première est que le niveau est quantifié par un unique nombre réel, et la seconde est que la seule chose qui importe lorsque deux joueurs jouent l'un contre l'autre est la différence arithmétique entre leurs niveaux, et notamment un joueur de niveau 1 000 001 a autant de chances de gagner contre un joueur de niveau 1 000 000 qu'un joueur de niveau 1 contre un joueur de niveau 0. Enfin, plus exactement, la première partie est un postulat (elle signifie par exemple que si Alice et Zoé ont les mêmes probabilités de gagner contre Barbara, alors elles ont le même niveau, donc auront aussi les mêmes probabilités de gagner contre Carole). La seconde partie, elle, est la définition de l'échelle de niveaux plus qu'elle n'est un postulat : on peut imaginer qu'on définit arbitrairement les joueurs de niveaux 0 et 1, puis on définit les joueurs de niveau 2 comme ceux qui ont autant de chances de gagner contre un joueur de niveau 1 qu'un joueur de niveau 1 contre un joueur de niveau 0, puis les joueurs de niveau 3 comme ceux qui ont cette même probabilité de gagner contre les joueurs de niveau 2, etc. (Bien sûr, ensuite il faut aussi interpoler : par exemple, les joueurs de niveau 0.5 sont ceux qui ont autant de chances de gagner contre un joueur de niveau 0 que ceux de niveau 1 ont de gagner contre eux, etc.) En revanche, la question qui est vraiment matière de modélisation — ou de postulat simplificateur — plutôt que de définition, c'est celle de savoir la forme de h, par exemple ce que vaut h(u+v) connaissant p := h(u) et q := h(v) (et spécifiquement, la question tout en haut de cette entrée est de savoir ce que vaut vaut h(2t) si h(t)=0.8).

Clairement, on veut que la fonction h soit croissante et continue, voire arbitrairement lisse. Pour des raisons de symétrie, on a h(−t) = 1 − h(t), et notamment h(0)=½ (deux joueurs de même niveau ont chacun une chance sur deux de gagner). On veut sans doute demander que h(t) → 0 quand t → −∞ et h(t) → 1 quand t → +∞, c'est-à-dire qu'un joueur infiniment plus faible qu'un autre n'a aucune chance de gagner tandis qu'un joueur infiniment plus fort qu'un autre est certain de gagner ; mais déjà il s'agit là d'hypothèses faites sur le jeu, parce que, après, tout, il peut très bien comporter une part de hasard suffisante pour que la probabilité de gagner ne dépasse jamais, disons, 80% pour le joueur le plus fort. L'échelle des valeurs est normalisée de façon arbitraire, donc quitte à toutes les multiplier par une constante positive, on peut aussi assurer que la dérivée h′(0) de h en 0 vaut 1 (par exemple), c'est-à-dire en gros qu'un joueur de niveau ε de plus qu'un autre, avec ε extrêmement petit, a une probabilité essentiellement ½+ε de gagner ; mais cette normalisation n'aura évidemment aucun impact sur la réponse à la question posée initialement.

Voici un modèle très simple qui me semble assez naturel[#] : chaque joueur est modélisé par les paramètres (i.e., la distribution) d'une variable aléatoire gaussienne ; lorsque deux joueurs jouent l'un contre l'autre, on tire deux réels selon leurs deux distributions, et celui qui a la plus haute valeur gagne. Néanmoins, ce modèle modélise chaque joueur par deux paramètres (la moyenne=espérance de la variable, et son écart-type) ; pour entrer dans le cadre (★) ci-dessus, il faut que je restreigne encore les choses en demandant que chaque variable ait le même écart-type (disons 1/(2√π) pour me conformer à la normalisation arbitraire h′(0)=1 proposée ci-dessus ; du coup, la différence entre deux variables gaussiennes d'espérance x et y respectivement et d'écart-type 1/(2√π) chacune est une variable gaussienne d'espérance xy et d'écart-type 1/√(2π), ce qui justifie la formule suivante). On a alors h(t) = ½(1+erf(t·√π)) où erf est la fonction d'erreur. Avec ce modèle, on peut répondre à la question initiale : si h(t)=0.8 c'est que t≈0.3358 (différence de niveau entre Alice et Barbara ou entre Barbara et Carole), et alors h(2t)≈0.9538. Autrement dit (indépendamment de la normalisation arbitraire de t), le modèle « tirage de variables aléatoires gaussiennes de même écart-type » prédit la réponse 95.38% à la question initiale.

[#] Disons au moins, c'est le premier qui m'est venu à l'esprit, avant d'avoir lu que le classement Elo fait autre chose, mais que, en fait, c'était peut-être bien le modèle initial proposé par Elo (cf. ci-dessous).

[Graphes de deux fonctions sigmoïdes]Oui mais pourquoi des variables gaussiennes ? Simplement parce que c'est la réponse la plus simple ou évidente quand on a besoin d'une variable aléatoire sur les réels, mais il n'y a pas de vraie justification ici (sauf qu'on peut peut-être se dire que chaque un coup d'un jeu est un tirage aléatoire et qu'à force d'en accumuler assez le théorème de la limite centrale va finir par donner quelque chose de gaussien, mais c'est plus de l'agitage de mains qu'une justification sérieuse). Les variables gaussiennes ont aussi ceci de bien que la différence entre deux variables gaussiennes est une variable gaussienne (d'espérance la différence et de variance la somme). Mais si au lieu de tirer la différence selon une variable gaussienne (d'espérance xy et d'écart-type 1/√(2π)) je prenais une variable, disons, logistique[#2] (de nouveau avec espérance xy et écart-type cette fois π/(4√3) si j'ai bien fait mon calcul), on trouve, ou plutôt on postule, h(t) = 1/(1+exp(−4t)) (le 4 est juste là pour la normalisation arbitraire que j'ai faite, mais l'idée importante est qu'on remplace la fonction d'erreur une fonction logistique). J'ai tracé ci-contre les graphes des deux fonctions h résultantes, en vert ½(1+erf(t·√π)) et en bleu 1/(1+exp(−4t)) (normalisées par h′(0)=1, donc ; voir aussi ce graphe sur Wikipédia pour d'autres fonctions du même genre). Avec ce modèle « logistique », on peut aussi répondre, différemment, à la question initiale : si h(t)=0.8 c'est que t≈0.3466 (différence de niveau entre Alice et Barbara ou entre Barbara et Carole), et alors h(2t)≈0.9412. Autrement dit (indépendamment de la normalisation arbitraire de t), le modèle « logistique » prédit la réponse 94.12% à la question initiale.

↑Entry #2727 [older| permalink|newer] / ↑Entrée #2727 [précédente| permalien|suivante] ↑

↓Entry #2726 [older| permalink|newer] / ↓Entrée #2726 [précédente| permalien|suivante] ↓

(mercredi)

Et maintenant, un rant sur les données ouvertes

En écrivant l'entrée précédente, j'ai eu envie de jeter un œil à des séries de données historiques de températures à Paris (ou ailleurs, mais il se trouve que j'habite Paris, donc ça m'intéresse un peu plus), à la fois pour répondre à des questions un peu sérieuses (quel est le profil d'évolution des températures moyennes ? des températures moyennes d'été et d'hiver ? des minimales et maximales quotidiennes ? des extrêmes ? de la variance des températures ? etc.) et moins sérieuses[#]. Mais où trouver ces données ?

[#] À titre d'exemple, j'aime bien celle-ci : si T(y,d,h) désigne la température mesurée à Paris à l'heure h du jour d de l'année y (avec 0≤h≤24, 0≤d≤365 et 1870≤y≤2022 par exemple)[#b], que valent les huit quantités maxy maxd maxh T(y,d,h), maxy maxd minh T(y,d,h), maxy mind maxh T(y,d,h), maxy mind minh T(y,d,h), miny maxd maxh T(y,d,h), miny maxd minh T(y,d,h), miny mind maxh T(y,d,h), miny mind minh T(y,d,h) ? Je trouve que c'est intéressant de réfléchir à la signification intuitive de ces huit nombres et d'essayer de s'imaginer leurs valeurs approximatives (maxh T(y,d,h) est ce qu'on appelle usuellement la température maximale du jour ou abusivement température diurne, et minh T(y,d,h) la température minimale ou abusivement température nocturne, donc argmaxd maxh T(y,d,h) est le jour le plus chaud de l'année tandis que argmaxd minh T(y,d,h) est la nuit la plus chaude, et on aboutit à des descriptions comme le jour le plus chaud jamais enregistré, la nuit la plus chaude jamais enregistrée, l'hiver aux jours les plus doux, l'hiver aux nuits les plus douces, l'été aux jours les moins chauds, l'été aux nuits les moins chaudes, le jour la plus froid jamais enregistré et la nuit la plus froide jamais enregistrée) ; j'aimerais bien avoir des données permettant de les calculer de façon fiable comme je l'ai fait ici sur des données assez courtes. [Mise à jour () : et ici sur des données remontant à 1900.]

[#b] Bon, pour critiquer un peu cet exemple, autant un max max ou min min est clairement bien défini, autant un max min ou un min max dépend de la manière dont on découpe les jours ou les années. L'heure variant de minuit à minuit est raisonnable parce que ni le maximum ni le minimum journalier ne sont normalement atteints autour de minuit, mais l'année devrait plutôt être découpée de septembre à août pour éviter que le minimum annuel ne soit arbitrairement placé dans une année ou une autre selon qu'il tombe juste avant ou juste après le 1er janvier. On peut aussi s'interroger sur des quantités comme mind maxy maxh T(y,d,h) ou maxy maxh mind T(y,d,h) qui diffèrent possiblement de maxy mind maxh T(y,d,h) et essayer de se représenter intuitivement la différence.

Assez naïvement, je me suis dit, les données météo, c'est quelque chose de complètement public, et même spectaculairement public : il doit y avoir plein de gens qui les archivent et ça doit être très facile d'en trouver des compilations en ligne. Inversement, il y a plein de gens qui vous sortent régulièrement des statistiques du type c'est l'hiver le moins froid depuis YYYY : il doit y avoir un endroit publiquement accessible où on trouve les données brutes permettant de faire ce genre d'affirmation. Que nenni.

Et ce qui est particulièrement frustrant, c'est qu'il y a plein d'endroits qui semblent avoir de telles données ou vous les promettent, mais les données elles-mêmes sont introuvables. Par exemple, Météo France a un site web appelé Données publiques. Ça a l'air prometteur, ça, n'est-ce pas ? Eh bien ce site web est un peu comme cette vieille blague de l'époque soviétique :

Un soviétique de passage à Moscou décide d'aller au Goum pour s'acheter des chaussures. Il suit un premier signe vers le rayon habillement, puis un signe lui offre le choix entre différents articles d'habillement, il suit la direction chaussures. Il a ensuite le choix entre chaussures pour homme, chaussures pour femme et chaussures enfant, il suit le premier. Ceci l'amène à un nouveau choix entre chaussures techniques, chaussures de ville et chaussures de sport. Il suit chaussures de ville, et le voilà face à un choix entre chaussures noires et chaussures colorées. Il suit encore un autre signe puis un autre puis encore un autre jusqu'à sélectionner sa pointure, tombe sur une dernière porte et… se retrouve dans la rue.

Mais je ne comprends pas ? Où sont les chaussures ? demande-t-il à un passant.

Oh, nous n'avons pas de chaussures, lui répond le passant. Mais vous avez vu ? Quelle organisation !

En tout cas, je ne trouve rien sur ce site de Météo France qui corresponde à ma recherche de relevés météo (au moins les températures maximales et minimales par jour) en un lieu donné (disons, Paris) sur une longue période.

On m'a aussi signalé Infoclimat, qui a une section Open Data, mais là non plus, je ne trouve pas où on télécharge les données en bloc. Il y a un truc permettant de créer un compte pour télécharger 7 jours consécutifs maximum : c'est une blague ou quoi ? Je veux quelque chose comme 150 ans d'archives, pas 7 jours, moi.

Je comprends éventuellement que l'association qui gère[#2] Infoclimat ait peur d'être noyée sous le volume des téléchargements, mais il y a une solution simple : mettre ces données sur GitHub ou quelque chose d'équivalent. (Même à raison d'un relevé par heure pendant 150 ans, on parle d'environ 1.3 millions de lignes d'enregistrement pour une station météo : ce sont de petits fichiers, il n'y aucun obstacle à les mettre sur GitHub.) Par ailleurs, ce sont des données complètement publiques, librement copiables[#3] et téléchargeables puisque ce sont des informations factuelles que tout le monde peut observer, il n'y a aucune condition d'accès ni notion de sécurité : qu'est-ce que c'est que ces histoires d'utilisation commerciale interdite ? Ils ont complètement perdu la tête, là ? Ils ne peuvent pas plus interdire l'utilisation commerciale de ces données qu'un musée ne peut interdire la reproduction de tableaux anciens qui s'y trouvent.

[#2] Une chose qui fait que je n'arrive pas à trouver les données que je cherche est certainement que je ne comprends pas bien qui les produit. Je crois comprendre que certaines stations météo sont gérées ou possédées par des amateurs ? Mais sans doute n'est-ce pas le cas d'une station comme celle du parc Montsouris à Paris ? (Je trouve que ce serait plus qu'un peu anormal d'autoriser quelqu'un a installer une station météo dans un endroit public comme un parc de la ville de Paris sans exiger que les relevés de cette station météo soient librement téléchargeables.) Mais alors comment est-ce que l'association qui gère Infoclimat a elle-même accès à ces données ? D'où les tire-t-elle ? Qui est le producteur primaire des données ? Quel est son lien avec Météo France ? Et qu'en est-il des données historiques ? Par qui ont-elles été numérisées ? (J'imagine vaguement que ça faisait historiquement partie des attributions de l'Observatoire de Paris, mais je ne trouve aucun lien tangible entre l'Observatoire de Paris et une station météo de Paris ni de contact à l'Observatoire pour demander où sont stockées les archives.) Bref, tout ça est très confus pour moi, et ça n'aide pas à naviguer dans ces choses : une partie de la difficulté à obtenir des données est de savoir d'où elles viennent à l'origine et à qui les demander.

[#3] Éventuellement, on peut défendre l'idée que les quinze dernières années de la base de données sont protégées par le droit sui generis sur les bases de données (qui est la notion la plus scandaleuse et indéfendable du déjà détestable droit de la propriété intellectuelle : c'est tout simplement honteux que ce concept existe), mais même ce concept-là ne s'applique que si on considère que mettre en place une station de relevé de la température constitue un investissement substantiel, ce qui très difficile à prétendre.

On m'a aussi signalé le site Météociel dans le même genre, mais pas plus de succès de ce côté-là. Ni chez les autres sites du même genre vers lesquels on m'a dirigé. Plein de gens m'ont dit plein de variantes autour de si, si, ces données sont disponibles, regarde du côté de FoobarMétéo, mais jamais aucun moyen de télécharger l'archive que je cherche. C'est particulièrement frustrant vu qu'il y a des gens qui semblent avoir ces données et qui en tirent toutes sortes de graphiques ou tableaux : par exemple ici chez Météo Paris : où ont-ils tiré ces données et où sont-elles stockées, à la fin ?

À chaque fois c'est la même chose, c'est comme dans la blague sur le Goum : plein de promesses de données, plein d'organisation compliquée, mais jamais les données brutes elles-mêmes. Jamais un vrai lien de téléchargement qui donne un fichier d'un petit million de lignes de données.

Alors je vais quand même donner un lien vers le truc que j'ai trouvé qui ressemble le plus à ce que je cherche : ce lien (vers le domaine opendatasoft.com dont je ne sais pas quel est son rapport avec le schmilblick ni comment il les a obtenues de Météo France), dans l'onglet export propose un export CSV du jeu de données entiers, et c'est un tableau de relevés météo pour diverses stations météo de France : 62 stations, un relevé toutes les 3 heures. Malheureusement, il ne contient que des informations très récentes (il commence en 2010) ; comme par ailleurs, le format du fichier est absurdement inefficace, contenant la même information répétée de nombreuses fois (la température répétée en kelvins et en degrés Celsius et des textes automatisés comme On n’a pas observé d’évolution des nuages ou on n’a pas pu suivre cette évolution), les malheureux 2 millions d'enregistrements contenus finissent par peser 1Go. Bon, c'est déjà ça, je ne vais pas me plaindre. Mais où est-ce que je trouve quelque chose d'équivalent, sur une seule station, mais à des dates très anciennes ?

Partout où je regarde, j'ai l'impression de voir des dragons assis sur des trésors de données et qui les considèrent comme my data! my precious data! mine! mine! mine! (bon, mes métaphores tolkienesques se mélangent un peu, mais vous voyez l'idée).

↑Entry #2726 [older| permalink|newer] / ↑Entrée #2726 [précédente| permalien|suivante] ↑

↓Entry #2725 [older| permalink|newer] / ↓Entrée #2725 [précédente| permalien|suivante] ↓

(mardi)

Réchauffement climatique et événements extrêmes

Je veux ici apporter quelques embryons de réponse, mais surtout beaucoup d'interrogations, sur la question suivante : dans quelle mesure et pourquoi le réchauffement climatique est-il responsable d'événements extrêmes (canicules, sécheresses, pluies très fortes, vents violents, etc., et même, éventuellement, épisodes de froid intense) ? C'est une question très importante, qu'il faut arriver à communiquer correctement au public, et je trouve que ce n'est pas du tout bien fait, à tel point que même en disposant d'une — ahem — culture générale que j'espère correcte en thermodynamique, planétologie et météorologie, je ne trouve vraiment pas la réponse très claire.

Le problème quand on parle de réchauffement climatique de 1°C, 2°C, 3°C, 4°C par rapport à la période pré-industrielle, c'est qu'il s'agit de températures globales moyennes (moyennées sur l'ensemble de la surface de la Terre et sur une période assez longue). Il est tentant de se dire que si les températures augmentent de 2°C en moyenne, les pics de chaleur augmenteront aussi de 2°C, et comme zéroième approximation ce n'est pas stupide ; mais le fait est que même si on soustrait 1.5°C (ce qui est une borne supérieur du niveau actuel de réchauffement, au moment où j'écris, par rapport aux niveaux pré-industriels) aux records de chaleur récents, ils continuent à paraître extrêmement exceptionnels en comparaison aux données historiques. Ceci est le résultat de possiblement trois effets différents :

  • le changement climatique n'est pas uniforme dans l'espace : certaines régions du globe se réchauffement moins que d'autres (très sommairement, les terres émergées se réchauffent plus que les océans, l'hémisphère nord plus que l'hémisphère sud, et l'Europe et l'Amérique plus que l'Afrique et l'Asie du Sud-Est) ;
  • le changement climatique n'est pas uniforme dans l'année (très sommairement, les températures minimales ont tendance à augmenter plus que les températures maximales, ce qui devrait au contraire avoir tendance à faire que les extrêmes augmentent moins que la moyenne, mais cette tendance n'est pas forcément vraie partout) ;
  • le changement climatique n'est pas uniforme en probabilité, au sens où il n'effectue pas une simple translation de la distribution de probabilité des températures à une date et un lieu donnés, mais augmente peut-être aussi leur variance.

Concernant le dernier point, il n'y a aucune contradiction a priori à ce que les extrêmes de froid deviennent de plus en plus froids en même temps que les extrêmes de chaud deviennent de plus en plus chauds dans le cadre d'une augmentation générale de la moyenne ; cela pourrait être vrai de façon systématique, ou à certains endroits (par exemple, en Europe, si le gulf stream diminue en intensité et que le climat européen devait être moins tempéré par l'influence océanique, on pourrait très bien imaginer que, dans un contexte de réchauffement climatique global, Paris se retrouve avec un climat proche de Winnipeg qui est, après tout, à peu près à la même latitude) ; néanmoins, à ce que je comprends, ce n'est pas le cas, les extrêmes de froid devraient devenir moins extrêmes à peu près partout sur la planète.

Les informations sur tous ces points sont assez difficiles à trouver, surtout s'il s'agit de donner des ordres de grandeur chiffrés, et notamment une séparation des trois effets que je viens de lister. Les modèles climatiques sont très bons pour des moyennes, mais pas très bons pour prévoir des phénomènes localisés dans l'espace, et encore moins les événements rares ; ils sont tellement coûteux en puissance de calcul qu'on ne peut pas les faire tourner un nombre considérable de fois (avec des petites perturbations initiales) pour obtenir une distribution raisonnable de probabilités.

Cette vidéo de Sabine Hossenfelder (dont j'ai déjà dû dire du bien un certain nombre de fois) explique assez bien les enjeux de la question et la difficulté à attribuer au changement climatique la responsabilité des événements externes précis, donc il faut au moins que je la mentionne au passage.

Par ailleurs, même une fois des informations calculées par les modèles, il reste encore la question pas du tout évidente de comment les présenter (surtout s'il s'agit de tenir compte à la fois du lieu, de la période de l'année, de l'horizon temporel, du scénario de réchauffement climatique envisagé, et de la borne de probabilité considérée : il n'est pas évident de rassembler en un seul graphique des informations comme à Paris, entre juin et août, sur la période 2040–2070, dans un scénario d'émissions standardisé conduisant à un réchauffement global de 4°C, les températures maximales typiques sur un intervalle de 10 ans vont augmenter de x°C avec un intervalle de confiance à 95% de y°C — il y a un peu trop de paramètres à rassembler).

Voici néanmoins trois sources qu'on m'a signalées et qui offrent au moins une vue d'ensemble sur ce à quoi on peut s'attendre :

  • Le chapitre 11 (Weather and Climate Extreme Events in a Changing Climate) de la partie WG I (Climate Change 2021: The Physical Science Basis) du sixième rapport d'évaluation du GIEC. (Oui, la nomenclature est compliquée, donc pour que vous ne vous perdiez pas dans ce système merdique, voici le lien direct vers le chapitre dont je parle.) Oui, ce seul chapitre fait 254 pages, mais on peut au moins lire le résumé, l'introduction et la FAQ, et les lignes des régions auxquelles on est intéressé dans les grandes tables à la fin.
  • Concernant la France métropolitaine spécifiquement, le rapport Nouvelles projections climatiques de référence DRIAS 2020 pour la métropole du projet DRIAS (les futurs du climat). (Lien direct vers le rapport.) Ce rapport fait 98 pages, mais on peut au moins lire les deux pages de synthèse, p. 68–69.
  • Le site web de l'organisation Berkeley Earth a aussi des données intéressantes, mais c'est un peu le bordel pour s'y retrouver.

Je n'ai pas réussi à retrouver la source précise du graphique de ce tweet qui affirme que sur les dernières ~40 années, la température moyenne en surface des terres a augmenté de 0.27°C/décennie, comparée à seulement 0.11°C/décennie pour les océans. En comptant que les océans constituent 70% de la surface, cela représenterait un facteur de 1.7 de démultiplication entre l'élévation de la température moyenne globale et celle de la surface des terres.

Je retire de ces sources les ordres de grandeur et idées suivantes :

  • Il faut s'attendre à un facteur de démultiplication d'environ 1.7 entre le réchauffement climatique moyen et le maximum annuel moyen en l'Europe occidentale, c'est-à-dire que chaque degré de réchauffement de la moyenne globale se traduit par 1.7 degrés de réchauffement du maximum annuel moyen en Europe occidentale. [Source : figure 11.3 du rapport du GIEC cité ci-dessus.] Mais je n'arrive pas vraiment à trouver une valeur cohérente pour la démultiplication sur la température moyenne (i.e., combien chaque degré de réchauffement de la moyenne globale se traduit en réchauffement sur la moyenne de l'Europe occidentale) : les valeurs indiquées dans le rapport DRIAS (de +3.9°C en France à l'horizon 2100 pour un scénario représentant +3.7°C de moyenne globale, valeurs trouvées p.68&72 du rapport cité ci-dessus) suggèrent un facteur assez proche de 1, mais je trouve ailleurs des choses assez incohérentes avec un tel chiffre, donc peut-être que j'ai mal compris.
  • L'augmentation des températures minimales annuelles moyenne en Europe occidentale devrait elle-aussi augmenter plus que la moyenne globale, et même encore plus que les températures maximales, avec un facteur de démultiplication de peut-être 2.5 [source : figure 11.A.1 du rapport du GIEC cité ci-dessus]. Ceci me laisse donc encore plus confus quant au phénomène sur la moyenne annuelle (mais peut-être que les saisons intermédiaires se réchauffent beaucoup moins ?).
  • Les épisodes de canicule devraient devenir plus fréquents, mais il n'est pas clair pour moi (d'après les sources que j'ai trouvées) si cette fréquence augmentée devrait être plus importante que celle prédite par l'augmentation de la température maximale annuelle moyenne ou s'il y a une véritable augmentation de fréquence intrinsèque des événements rares. Quoi qu'il en soit, les épisodes de froid intense devraient devenir plus rares, donc s'il y a augmentation de la variance, elle ne semble pas devoir compenser l'augmentation de la moyenne.
  • La quantité de précipitation annuelle totale ne doit pas changer de façon considérable en Europe occidentale (pour la France on prévoit plutôt une légère hausse, mais avec une grande incertitude), mais sa répartition au cours de l'année doit évoluer : d'avantage de pluies en hiver et moins de pluies en été. Là aussi, ces évolutions doivent s'accompagner d'évolution des extrêmes, avec des épisodes plus fréquents de pluies très intenses et aussi des épisodes plus fréquents de sécheresse estivale.
  • Les effets du changement climatique sur les vents, y compris sur les événements extrêmes en la matière, ne sont pas clairs du tout.

Tout ça n'est pas terriblement clair ! Mais ce qui est encore plus confus, pour moi, c'est la raison pour laquelle un réchauffement climatique global entraînerait plus d'événements extrêmes, ou une augmentation de la variance (dispersion par rapport à la moyenne) en plus de la simple augmentation de la moyenne.

Je pose notamment la question suivante : le climat de l'éocène inférieur, période pendant laquelle les températures moyennes étaient de 10°C à 14°C supérieures[#] aux valeurs actuelles était-il sujet à des événements particulièrement extrêmes ? (Y avait-il des dômes de chaleur qui se formaient montant l'air à 60°C? Des températures dépassant les 45°C au thermomètre humide[#2] et tuant tous les animaux ?) Je ne crois pas qu'on ne ait pas la réponse à cette question (les événements de ce genre ne laissent pas de trace particulièrement exploitable). En fait, on ne comprend pas bien le climat de cette période (qui semble avoir été caractérisé par un réchauffement plus important aux pôles qu'à l'équateur, donc un écart de températures moins important entre les deux, et si je comprends bien on ne sait pas vraiment pourquoi, ou en tout cas pas expliqué le niveau observé).

Mais ce qui est sûr, c'est que le rythme actuel d'augmentation des températures est supérieur à tout ce qu'on a détecté[#3] dans les données géologiques. Peut-être que ce n'est pas tant l'amplitude du réchauffement qui compte que son rythme (= sa dérivée temporelle) ? Là je peux nettement plus facilement imaginer des explications, par exemple différents sous-systèmes climatiques qui mettent plus ou moins de temps à s'équilibrer et, tant que cet équilibre n'a pas eu lieu, donnent lieu à des fluctuations un peu aléatoires pouvant causer des événements extrêmes.

Je crois comprendre, notamment, qu'une raison du dérèglement que nous observons notamment en Europe est lié à une faiblesse du jet-stream[#4] qui, du coup, se met à onduler, ce qui favorise soit la montée d'air du Sahara soit la descente d'air polaire (donc des épisodes inhabituellement chauds comme des épisodes inhabituellement froids — donc une plus grande variance des températures — quelle que soit la saison). Mais de nouveau, ceci soulève la question de si cette faiblesse du jet-stream est liée à l'amplitude de la hausse des températures, ou à sa vitesse, si c'est quelque chose qui se produit forcément quand la Terre est plus chaude (comment était le jet-stream à l'éocène ?) ou si c'est un régime transitoire quand la Terre se réchauffe. [Ajout : ici une explication possible proposée par un planétologue néanmoins non spécialiste de la Terre : l'affaiblissement du jet-stream pourrait être dû au fait que les pôles se réchauffent plus vite que l'équateur, ce qui diminue le gradient de température en latitude.]

Toujours est-il que je voudrais bien des explications plus claires. Il va peut-être falloir que je fouille moi-même dans les archives météo et dans les données DRIAS pour trouver au moins une réponse à la question de si la variance des températures augmente, et si oui de combien, et je ne crois pas que je trouverai de source claire sur la raison pour laquelle le réchauffement entraîne plus de variabilité, ni encore moins sur la météo de l'éocène.

PS : Je ne suis toujours pas décidé quant à savoir s'il vaut mieux parler de réchauffement climatique ou de changement climatique. J'ai longtemps préféré changement climatique parce que cela rappelle qu'il ne s'agit pas que d'un réchauffement, mais c'était en partie parce que je pensais qu'il pouvait aussi conduire à des froids plus extrêmes (malgré une augmentation moyenne) : apparemment, ce n'est pas vraiment au programme, et comme par ailleurs changement climatique semble avoir été en partie récupéré par des gens voulant faire croire qu'il est d'origine naturelle et pas anthropogène, il vaut peut-être mieux l'éviter. On peut aussi parler de dérèglement climatique, mais je n'aime pas énormément, parce que cela suggère une machine qui s'est déréglée toute seule.

[#] Ce graphique des températures historiques tout au long du phanérozoïque est extrêmement précieux pour se faire une idée (attention à bien lire l'échelle de temps, qui change quatre fois !). ⁂ Digression : Je fais remarquer ici qu'il ne faut pas prétendre qu'avec +6°C la Terre devient inhabitable : elle a été encore nettement plus chaude que ça, et de toute évidence elle était habitée (et pour les gens qui comme moi ont du mal avec les noms de ces périodes géologiques, je rappelle que l'éocène inférieur, c'est entre −56 et −47 millions d'années : il n'y avait plus de dinosaures non-aviaires depuis plus de 10 millions d'années, beaucoup d'ordres de mammifères actuels sont apparus vers ce moment-là, et les continents avaient pas loin de leur forme actuelle ; donc ce n'est pas comme si je comparais avec les températures probablement encore plus élevées du cambrien, il y a 500 millions d'années, où il n'y avait même pas de vie en surface, uniquement dans les océans, et assurément rien qui ressemble à un mammifère). Et plus globalement parlant, nous vivons dans un intervalle interglaciaire — l'holocène — d'une période glaciaire — essentiellement, le pleistocène : c'est ce qui explique qu'une bonne partie de l'histoire de la Terre au long du phanérozoïque a connu des températures plus élevées. Tout ceci n'est pas une façon de dire que le changement climatique actuel n'est pas catastrophique, mais il ne menace pas la vie animale sur Terre, il nous menace nous : si une grande majorité des espèces animales est menacée d'extinction (mais il en restera toujours assez adaptées pour se diversifier de nouveau comme après les extinctions de masse précédentes), et si les humains pourraient probablement survivre d'une manière ou d'une autre quelque part au climat de l'éocène ou à quelque chose qui y ressemble, en revanche, notre civilisation qui soutient 8 milliards d'entre nous grâce à une agriculture à haut rendement extrêmement optimisée, clairement, ne le peut pas. Et je pense qu'il ne faut pas escamoter ces points quand on communique au grand public, parce que sinon il y aura un petit malin qui lira l'article éocène sur Wikipédia, et qui dira ha ha, les scientifiques nous mentent, la Terre a été bien plus chaude par le passé [← ceci est vrai], le réchauffement climatique n'est donc pas un problème ou n'est pas d'origine anthropogène [← ceci est faux].

[#2] Digression : La température de thermomètre mouillé (ou de thermomètre humide ou juste température humide) est la température à laquelle on peut refroidir l'air par évaporation d'eau liquide, jusqu'à porter l'air à saturation en vapeur d'eau, la chaleur latente d'évaporation de l'eau était prise à l'enthalpie l'air. (C'est-à-dire qu'on introduit dans l'air une quantité infinitésimale d'eau liquide à température de l'air, on la laisse s'évaporer, et on recommence de façon isobare jusqu'à ce que l'air soit saturé d'eau. Concrètement, c'est la température que mesure un thermomètre qui est entouré d'une gaze humide qui assure que l'air autour de lui est saturé d'humidité. Il y a des différences subtiles entre petites variations autour de cette notion, qualifiées de façon incohérente de température thermodynamique de thermomètre humide ou température adiabatique de thermomètre humide ou d'autres variations avec des mots comme pseudo-adiabatique ou pseudo-potentiel.) Elle est au moins aussi importante que la vraie température (i.e., la température sèche) pour déterminer si des conditions météorologiques sont supportables ; notamment, une température humide supérieure ou de l'ordre de 35°C est mortelle pour l'homme même correctement hydraté, car la transpiration ne permet plus de refroidir suffisamment le corps. Il ne faut pas la confondre avec le point de rosée, lui aussi exprimé en degrés, et qui est la température à laquelle il faut refroidir l'air de façon isobare pour saturer l'eau qui est dedans : le point de rosée ne mesure, finalement, que l'humidité absolue. Cf. ce fil Twitter (ainsi que ce chapitre d'un livre de météorologie qui y est cité) pour le rapport entre ces deux notions.

[#3] À la frontière paléocène-éocène, il y a environ 56 millions d'années a eu lieu un événement de réchauffement très rapide suite à une émission massive de CO₂ dans l'atmosphère, provoquant une augmentation des températures globales de quelque chose comme 5° à 8°C (c'est énorme). Cet événement (à ne pas confondre avec l'augmentation puis baisse beaucoup plus graduelle des températures lors de l'éocène lui-même) est parfois évoqué comme modèle de l'épisode anthropogène actuel. Mais même cet événement très rapide à l'échelle géologique a duré tout de même quelque chose comme 20 000 à 50 000 ans, donc on parle d'un rythme d'augmentation des températures entre 10 et 100 fois plus lent que ce que nous observons actuellement. (Évidemment, ça n'interdit pas d'écrire une histoire de science-fiction dans laquelle une autre espèce intelligente avant nous aurait développé une civilisation à ce moment-là, brûlé plein d'énergie fossiles, et se serait éteinte sans laisser de trace. Cette vidéo est pertinente à ce sujet.)

[#4] Aveu : je n'arrête pas de confondre le jet-stream et le gulf stream (enfin, ce n'est pas que je confonds mentalement, ça n'a guère de rapport, l'un est un courant d'air et l'autre un courant d'eau, mais je n'arrête pas de faire des lapsus dans un sens ou dans l'autre), et le fait que les deux soient très importants pour le climat européen n'aide évidemment pas.

↑Entry #2725 [older| permalink|newer] / ↑Entrée #2725 [précédente| permalien|suivante] ↑

↓Entry #2724 [older| permalink|newer] / ↓Entrée #2724 [précédente| permalien|suivante] ↓

(jeudi)

Harmonisation de notes : variations sur un thème

Contrairement à ce que le titre de cette entrée peut laisser entendre, il n'est pas question ici de musique mais de comment corriger des copies. (Dans une certaine mesure, ce billet fait suite à celui-ci et dans une moindre mesure celui-là, mais je vais en redire les points importants.) Mais comme il est question de notes, je vais mettre beaucoup de notes dans ce billet. Et je vais, surtout, partir dans des digressions mathématiques franchement gratuites donc, préparez-vous.

Je suis responsable d'un enseignement de première année à Télécom Paris qui (comme quasiment tous les enseignements de première année) concerne l'ensemble de la promotion (soit ~200 élèves) : ils sont répartis en 6 groupes d'enseignement, chacun pris en charge pour cours+TD par un enseignant différent, mais au bout du compte, tout le monde passe le même contrôle de connaissances, qui est ce dont je veux parler ici : les copies de ce contrôle sont réparties aléatoirement[#][#2] entre les enseignants, et chacun va corriger un tas.

[#] Enfin, aléatoirement est peut-être un peu ambitieux. Je demande au service de l'enseignement de répartir les copies en six tas de taille à peu près égale, mais pas en suivant les groupes d'enseignement, et de me fournir la liste des noms de chaque tas. La manière exacte dont est faite cette répartition m'échappe, et il faut dire que c'est le genre de choses qui, en pratique, est un peu pénible, si on a une pile de ~200 copies (physiques) et un tableau de noms, pour faire une répartition en 6 groupes aléatoires et produire à la fois les six tas physiques et le tableau avec la répartition des noms. Si vous avez des astuces à proposer pour y arriver efficacement que je puisse expliquer sans mal au service de l'enseignement, n'hésitez pas à proposer.

[#2] On peut imaginer que chaque enseignant corrige les copies du groupe auquel il a fait cours (l'idée étant qu'il le connaît mieux), mais je trouve que c'est plus équitable d'avoir pour commencer une répartition aléatoire. En tout cas, c'est important pour l'harmonisation que je veux évoquer ici (à cause de leur construction, on ne peut pas faire l'hypothèse que les groupes d'enseignement sont de même niveau, alors qu'une répartition aléatoire l'est statistiquement).

Corriger, ici, ça veut dire remplir un tableau indiquant, pour chaque copie d'élève (λ, en ligne) et chaque question[#3] du contrôle (i, en colonne), une note (un nombre réel) xλ,i entre 0 et 1 [#4], où la note 0 signifie la question n'a pas été traitée ou est tellement fausse qu'il n'y a rien à en tirer et la note 1 signifie la question est traitée de façon parfaite et irréprochable, toute autre valeur étant à l'appréciation du correcteur.

[#3] Évidemment, s'il y a des sous-questions, je vais essayer de demander une note pour chaque sous-question, mais il y a une limite à la résolution atteignable. Grosso modo, je délimite 12 à 20 questions notées pour un contrôle.

[#4] Pour être plus précis, comme certains n'aiment pas noter sur 1, mon tableau de correction offre la possibilité de noter sur autre chose, par exemple sur 100, ce qui correspond simplement à diviser par le maximum en question. Mais comme cette possibilité ne change rien mathématiquement à ce que je veux raconter, ne fait que compliquer mes formules LibreOffice, et d'ailleurs de toute façon aucun correcteur ne s'en sert (pourtant c'est bien suite à des râleries de leur part que j'ai introduit la possibilité), autant ne pas en parler et convenir que la note de chaque question est entre 0 et 1. Ça simplifiera toutes les formules d'harmonisation dans la suite en évitant de diviser et de remultiplier.

Ensuite, bien sûr, toutes les questions n'ont pas la même valeur, c'est-à-dire qu'il y a un barème : chacune reçoit un poids pi, et la note de l'élève λ au contrôle est proportionnelle[#5] à la somme des pi · xλ,i pour toutes les questions i du contrôle.

[#5] J'écris est proportionnelle, parce que pour avoir 20/20 il n'est pas forcément nécessaire d'avoir 1 à toutes les questions (le contrôle est souvent noté sur plus que 20, les notes dépassant 20, s'il y en a, étant tronquées à 20). Donc la note de la copie λ est plutôt donnée par Nλ := Nmax · ∑i(pi·xλ,i)/∑i(pi) où Nmax vaut quelque chose comme 21 ou 22 ; ou, en fait, c'est min(Nλ,20) arrondi au 0.1 supérieur, ou quelque chose de ce goût-là. Je n'entre pas dans ces détails qui n'ont rien à voir avec ce que je veux évoquer ici. (Cf. le billet précédent pour plus de précisions.)

Seulement, voilà : tous les correcteurs ne notent pas aussi sévèrement. Cela se voit au fait que si je fais la moyenne des notes de chaque tas de copies, je devrais[#6] trouver plus ou moins la même chose si les tas ont été constitués aléatoirement, mais en fait je trouve des moyennes allant de 10.0 à 12.5 (disons, pour donner un ordre de grandeur) d'un correcteur à l'autre.

[#6] Pas exactement, bien sûr. Mais si l'écart-type des notes « justes » est de, disons, 3 points, alors moyenné sur 32 copies il devrait tomber à 3/√32 ≈ 0.5 points. Autrement dit, des fluctuations aléatoires entre moyennes des différents tas de copies de l'ordre d'un demi-point sont à attendre, mais quand c'est beaucoup plus, il devient pertinent d'harmoniser.

Comment harmoniser entre correcteurs, donc ? (Quand l'enjeu est vraiment important, on met en place une double correction, c'est le cas notamment à l'Agrégation ; mais on ne va pas faire ça pour les enseignements d'une grande école.) Les responsables de certains enseignements ignorent simplement le problème (ils considèrent par exemple que la répartition aléatoire des copies est une forme suffisante d'équité, ce qui se défend). D'autres appliquent un coefficient multiplicatif rendant égales toutes les moyennes (typiquement, on prend la plus haute moyenne d'un tas de copies, et on multiplie les notes de tous les autres par le bon coefficient par tas pour que chaque tas ait cette même moyenne). C'est simple, mais je trouve ça un peu insatisfaisant : une copie qui a traité parfaitement la moitié des questions et n'a pas du tout touché aux autres devrait avoir la même note quel que soit le correcteur qui l'a corrigée.

↑Entry #2724 [older| permalink|newer] / ↑Entrée #2724 [précédente| permalien|suivante] ↑

↓Entry #2723 [older| permalink|newer] / ↓Entrée #2723 [précédente| permalien|suivante] ↓

(vendredi)

Sur la relativité de la culture générale

Comme beaucoup de geeks, j'aime collectionner les bribes d'information en tout genre (mon papa aimait me qualifier de source inépuisable de renseignements complètement inutiles). À une certaine époque — et quand je dis à une certaine époque, je dois en fait reconnaître que cette époque dure jusqu'au présent, ou du moins que je peine à me défaire de cette illusion — je me faisais l'idée d'une structure bien organisée de la connaissance, avec un champ très large, la culture générale, sur laquelle je chercherais à avoir une connaissance peu profonde mais minimale, un champ plus étroit de culture scientifique sur lequel je chercherais à en savoir plus, un champ encore plus étroit de culture mathématique où j'en saurais encore plus, etc. Comme s'il y avait une grand disque des domaines possibles sur lequel on cherche à appliquer un vernis aussi uniforme que possible de culture général, avec quelques disques imbriqués dans lequel on va appliquer des couches supplémentaires.

La réalité, dont je me suis rendu compte plus tard, c'est que ma culture générale est faite de trous. La réalité encore plus importante, dont je me suis rendu compte encore plus tard, c'est que la culture générale de tout le monde est faite de trous. Et que c'est normal et que ce n'est pas quelque chose dont il faut se lamenter.

Et quand je dis faite de trous, il faut imaginer quelque chose comme un triangle de Sierpiński ou des cercles d'Apollonius, mais en moins régulier : un grand trou d'ignorance au centre, et pour chacun des bouts qui restent, encore un grand trou d'ignorance au centre, et pour chacun des bouts qui restent, etc. — les bribes de connaissance qu'on a sont ce qui reste quand on retire tous les trous.

Ce n'est pas un problème. Le problème est qu'on se comporte souvent en croyant, ou en faisant semblant de croire, que ce n'est pas le cas.

Un exemple assez évident de ça, ce sont les « classiques ». Les classiques, comme le dit un adage bien connu, ce sont des livres que tout le monde veut avoir lu mais que personne ne veut lire. Il est sans doute plus correct de dire que ce sont des livres qu'énormément de gens font semblant d'avoir lu parce qu'ils ont un peu honte de ne pas les avoir lus. Du coup, une règle tacite et assez absurde veut qu'on se comporte vis-à-vis des classiques comme si tout le monde avait tout lu (on les cite sans préfacer la phrase d'explications sur ce dont il est question ; il est considéré comme malpoli d'offrir un classique parce que cela suggère que le destinataire ne l'a pas lu ; et ainsi de suite). Il est pourtant facile de faire tomber le masque : il y a beaucoup trop de livres considérés comme des classiques pour que qui que ce soit puisse sérieusement prétendre tous les avoir lus. Rien que les pièces de Shakespeare (qui sont « évidemment » toutes des « classiques »), il est clair que très peu de gens les ont toutes lues ou vues représentées, et d'ailleurs peu de gens doivent en avoir lu ne serait-ce qu'une seule en-dehors d'un éventuel cours d'anglais : donc vous prenez une pièce de Shakespeare au pif et vous avez un exemple d'un trou dans la culture générale de… quasiment tout le monde. Et comme Shakespeare va favoriser les anglophones, ajoutez quelques autres grands auteurs et même si on se dit qu'on va se concentrer sur la littérature européenne ou « occidentale » (whatever that may be), il n'y a pas grand-monde qui va pouvoir frimer très fort.

Et je ne parle là que d'un aspect ridiculement petit de la culture générale : la lecture de quelques œuvres « classiques ». Le phénomène est le même à tous les niveaux et dans tous les domaines : des trous, des trous, des trous.

(Le mieux pour se convaincre qu'on ne sait rien, c'est peut-être bien d'aller sur Wikipédia, et de cliquer sur le bouton article aléatoireici pour la Wikipédia francophone — et de répéter l'opération jusqu'à tomber sur un article sur lequel on soit capable de dire quelque chose de non évident.)

Un autre adage prétend que la culture c'est comme la confiture : moins on en a, plus on l'étale. Il y a de ça, mais ce n'est pas vraiment moins on en a, c'est surtout plus on veut donner l'impression qu'on en a, ou plutôt, que les autres n'en ont pas ; et ce n'est pas tellement une question de l'étaler que de mettre le projecteur dessus. Les gens qui paraissent avoir une grande culture sont ceux qui arrivent à attirer l'attention sur les domaines où ils savent des choses. S'ils ont lu Titus Andronicus (ou peut-être juste lu l'article Wikipédia, en fait), ils vont vous le faire savoir en l'utilisant comme comparaison pour décrier les horreurs auxquelles peut conduire la soif de vengeance, et vous allez vous sentir un peu bête si, comme la grande majorité des gens, vous n'avez pas lu Titus Andronicus, vous savez peut-être tout juste que c'est de Shakespeare et certainement pas de quoi ça parle, mais vous aurez un peu l'impression que vous devriez savoir. (Et quand ces gens sont encore plus habiles, ils écrivent un billet de blog sur la culture générale et mentionnent Titus Andronicus au passage, et du coup vous vous dites qu'ils l'ont certainement lu, ce qui, en l'occurrence, est complètement faux, ils ont juste parcouru l'article Wikipédia, mais ça, ils ne l'avoueront qu'à travers une parenthèse alambiquée dans le billet de blog en question, parce que ne pas avoir lu un classique c'est quand même quelque chose qu'on ne peut pas avouer.)

Bref, le secret pour avoir l'air cultivé, ce n'est pas d'avoir moins de trous que les autres dans sa culture générale, c'est ① d'attirer l'attention sur les choses qu'on sait, et ② de bluffer quand on ne sait pas, en hochant la tête d'un air bien entendu ou en répondant par des platitudes pour ne surtout pas avoir à avouer qu'on n'a pas lu, disons, Nathan le Sage.

Je ne compte pas le nombre de fois où j'ai été saisi par l'illusion que telle ou telle personne à la conversation brillante avait une immense culture et où, par curiosité ou pour tester l'hypothèse formulée au paragraphe précédent, j'ai fait exprès de dévier la conversation sur un sujet où il n'était pas possible de bluffer, et j'ai vite vu combien c'était creux sous le vernis.

Même les gens qui semblent très forts en mode Questions pour un champion ont une culture générale qui n'est pas moins de trous que tout le monde, c'est juste que les non-trous sont différemment répartis, concentrés sur les choses qui peuvent se dire en très peu de mots (façon format de question à une émission télévisée) au lieu d'être concentrés de façon disciplinaire, ce qui peut donner l'impression que leur culture est immense et transversale.

❧ Mais ce n'est pas tellement ça que je veux souligner. L'autre aspect des choses, c'est que nous avons également tendance à considérer comme faisant partie de la culture générale indispensable les domaines dans lesquels nous sommes moins ignorants. C'est sans doute une sorte de mécanisme de défense en réaction au refus de nous considérer nous-mêmes comme « incultes », entretenu par l'illusion d'une culture uniforme.

Alors certes, entre, disons, pays différents, il est très largement admis qu'il est normal qu'il y ait des différences : tout le monde conviendra qu'il est compréhensible qu'un Japonais ne soit pas capable de citer une pièce de théâtre de Racine (ou même n'ait jamais entendu parler de Racine), par exemple. Mais beaucoup vont avoir tendance à penser que c'est quelque chose que les Français, au moins, doivent avoir dans leur culture générale.

Le problème, donc, c'est que les gens qui considèrent ça le considèrent parce qu'ils ont eux-mêmes cette culture particulière, et donc ils la considèrent comme essentielle. Je ne sais pas combien de fois j'ai entendu quelqu'un se lamenter de l'inculture de nos contemporains qui n'ont pas lu Racine (ou quelque chose d'équivalent) et j'ai eu une envie qui me démangeait très fort d'interrompre le quelqu'un pour lui demander : Êtes-vous capable d'énoncer et d'expliquer vaguement le second principe de la thermodynamique ?

Généralement je me retiens parce que je suis assez polémophobe dans les conversations, mais il est arrivé que je poursuive vaguement cette remarque (ou que j'assiste à une conversation où quelqu'un d'autre la faisait) : la réaction de la personne se plaignant que les gens ne lisent plus Racine mais qui n'est elle-même pas capable de citer le second principe de la thermodynamique est typiquement quelque chose comme oui mais ça c'est une compétence technique, ça n'a rien à voir avec la culture générale.

Ce type de réaction est d'une hypocrisie impressionnante. L'explication qu'on (i.e., le même genre de personnes) nous donne généralement de l'importance de la culture générale, c'est que ça aide à comprendre le monde qui nous entoure (par exemple, qu'avoir des connaissances en Histoire ou avoir lu Racine aiderait à comprendre tel enjeu géopolitique ou tel problème moral) : or il faut vraiment avoir une sacré dose de mauvaise foi pour s'imaginer que la connaissance des bases de la thermodynamique n'est pas importante pour comprendre le monde qui nous entoure (surtout à une époque de réchauffement climatique). Du coup, je vois mal pourquoi ce serait moins de la culture générale.

(Parfois la défense est différente : Racine est un auteur que, en France, on étudie très souvent au lycée, et ce, dans toutes les filières ; la thermodynamique, elle, ne s'étudie que dans le supérieur. C'est vrai, et je pense qu'il faudrait sérieusement se poser la question de pourquoi c'est comme ça et si c'est une bonne idée. Cf. aussi ce fil Twitter (24 tweets ; ici sur ThreadReaderApp) sur ce qui pourrait constituer une « culture générale » en thermo, et qu'on ne me dise pas que c'est impossiblement technique.)

Entendons-nous bien : je ne suis pas en train de reprocher à qui que ce soit de ne pas connaître le second principe de la thermodynamique (mon propos est que nous avons tous de semblables trous dans la culture générale, donc personne ne peut jeter la première pierre). Ce que je suis en train de dire c'est que les gens qui ne le connaissent pas ne peuvent pas la ramener sur leur sujet préféré et essayer de faire passer ce sujet comme très important. Profiter de sa culture pour briller en société, c'est de bonne guerre (j'en rigole plus haut, mais ça n'a rien de condamnable de se mettre en valeur, et nous sommes beaucoup à le faire sous une forme ou une autre) ; mais en profiter pour médire des autres, même en leur absence ou de façon un peu abstraite, je considère cela comme assez détestable.

Et j'évoque, là, la différence de culture entre « humanités » et « sciences » (pour parler très approximativement), mais je pourrais aussi évoquer l'écart entre générations : même si je ne suis pas trop du genre à dire OK, boomer, quand j'entends de vieux grincheux se plaindre que les jeunes de nos jours n'ont plus aucune culture ou autre variante sur cette rengaine, ça me donne vraiment envie de les renvoyer à leur ignorance de, par exemple, toute la culture Internet. (Il vaut mieux résister, parce que c'est probablement encore plus désespéré de faire comprendre à un boomer que la culture Internet est une forme de culture générale que de faire admettre à un humaniste que les bases de la thermo en sont.) • Et naturellement, en plus de la différence d'appréciation entre pays, entre domaines du savoir ou entre générations, on pourrait évoquer celle entre classes socioéconomiques, et la survalorisation de la culture bourgeoise par rapport à la culture populaire : ce qui fait la violence du capital culturel, ce n'est pas la connaissance pure, c'est la force de la convention que ces connaissances- sont importantes. Mais je vais arrêter de faire croire que j'ai lu Bourdieu, parce que je n'ai pas plus lu Bourdieu que Titus Andronicus, je fais juste semblant après avoir parcouru Wikipédia.

Pour être bien clair, je ne me crois pas du tout personnellement immun à l'illusion que les choses que je sais sont plus importantes que les choses que je ne sais pas. Pour donner une petite anecdote aléatoire à ce sujet, mon poussinet me fait régulièrement écouter des morceaux de musique (typiquement dans le segment musique pop / variétés françaises des années '70 et '80) en me disant ça tu connais forcément : ce n'est pas possible de ne pas avoir entendu, et je souvent hausse les épaules en disant que j'ai peut-être entendu mais que ça ne m'a pas marqué, et en pensant qu'il me fatigue à croire que les musiques qu'il connaît sont incontournables ; et puis je ne sais plus à quel propos il a mentionné qu'il ne connaissait rien de Bob Dylan, et là j'ai été victime exactement du même effet de perspective (Blowin' in the wind tu connais forcément : ce n'est pas possible de ne pas avoir entendu !), avec les mêmes arguments de mauvaise foi que je dénonce plus haut (quand même, Bob Dylan, il a eu le prix Nobel de littérature, ce n'est pas n'importe qui), et c'est justement cette observation de ma propre mauvaise foi qui m'amène à écrire toute cette réflexion.

Et ce qui est intéressant aussi, c'est que cette illusion de perspective sur la culture générale (croire que ce qu'on sait est très important) s'applique non seulement à la culture générale, justement, mais aussi dans n'importe quel sous-domaine. Ce que je veux dire, c'est que parmi les mathématiciens (et je suppose que c'est pareil dans n'importe quel autre domaine, il se trouve juste que je connais et peux observer celui-là), il y a une culture générale mathématique… qui est tout autant un fantasme que la culture générale tout court : je ne sais pas quelles sont les connaissances réellement communes à une majorité de mathématiciens (et il semble que personne ne sache), mais ce que je sais, c'est que chacun a tendance à surestimer à quel point la communauté mathématique connaît les résultats avec lesquels il est personnellement familier, et même à les considérer comme incontournables. (Comme le dit un commentaire de la question MathOverflow que je viens de lier, j'aurais eu tendance à penser que quasiment tous les chercheurs en maths savent ce qu'est un espace de Hilbert, mais ayant discuté avec des gens proches de l'informatique théorique, je n'en suis plus si sûr.) Ceci vaut aussi pour les très grands mathématiciens : je ne sais plus où j'avais lu que John von Neumann ne savait pas qu'on obtenait un tore en recollant les côtés opposés d'un carré (il était tombé sur une discussion de collègues autour de ce dessin, il avait demandé ce que c'était, et il était tout amusé de l'apprendre) ; et Jean-Pierre Serre, il n'y a pas longtemps, m'a demandé ce qu'était le nombre chromatique d'un graphe quand j'ai utilisé ce terme pour lui décrire le problème de Hadwiger-Nelson ; je sais bien que Terence Tao a l'air d'être l'exception et de tout savoir dans tous les domaines, mais je soupçonne que c'est aussi une illusion.

Où est-ce que je veux en venir en racontant tout ça ? Je ne sais pas très bien, mais disons au moins (quitte à bousculer au passage quelques portes ouvertes) que l'idée de valoriser le fait d'avoir une « grande culture » a quelque chose d'assez malsain : au mieux c'est un critère de substitution pour la curiosité intellectuelle, mais pour ce qui est de la connaissance elle-même, nous avons tous accès à Wikipédia donc une culture générale virtuellement infinie — à la limite le critère plus pertinent à juger c'est plutôt de savoir si on est prêt à ouvrir Wikipédia et à en apprendre plus dès qu'on tombe sur un trou de sa culture déjà apprise.

↑Entry #2723 [older| permalink|newer] / ↑Entrée #2723 [précédente| permalien|suivante] ↑

↓Entry #2722 [older| permalink|newer] / ↓Entrée #2722 [précédente| permalien|suivante] ↓

(vendredi)

De l'erreur de faire passer des oraux par visioconférence

Ce matin, j'ai fait passer des oraux d'examen (il s'agissait d'oraux pour des candidats n'ayant pas pu se présenter à l'examen écrit normalement prévu) : à cause d'obligations de mon côté et de contraintes extrêmement serrées dans la planification de ces oraux (aucun créneau n'avait été réservé à l'avance, et les résultats doivent être finalisés en très peu de temps), je les ai fait passer par visioconférence. C'est l'occasion de compléter ce que j'avais écrit l'an dernier sur l'enseignement à distance : en l'occurrence, je veux surtout dire que les oraux par vidéo, c'était une très très mauvaise idée et je regrette de ne pas avoir fait plus d'efforts pour trouver une solution en présentiel.

En fait, ça ressemblait un peu à la caricature de la réunion par vidéo dont on a vu plein de versions pendant la pandémie (un participant n'a pas le son, un autre n'a pas l'image, un troisième parle au groupe en oubliant qu'il a le micro coupé, un quatrième parle à son chien en oubliant qu'il n'a pas le micro coupé, etc.). Je pensais pourtant avoir assez essuyé les plâtres, mais visiblement pas.

J'ai prévu la visio par BigBlueButton. (J'évite d'utiliser Zoom, à la fois par principe, mais aussi parce que j'ai plus l'habitude de BigBlueButton, que j'ai utilisé avec succès pour échanger avec mon doctorant et son co-encadrant pendant la pandémie, et à diverses reprises pour toutes sortes d'autres raisons, y compris pour faire des rencontres virtuelles entre copains ; mais surtout, je peux facilement créer et paramétrer une conférence à ma convenance sur le BigBlueButton qu'un collègue a installé pour notre département, alors que pour Zoom il faut que je passe par la direction des études de l'école, c'est beaucoup plus lourd pour moi. Mais avant qu'on me dise que c'est ma faute et que je n'avais qu'à utiliser Zoom comme tout le monde, je précise qu'aucun des problèmes que je vais évoquer n'est imputable à BigBlueButton.)

J'avais d'ailleurs fait une petite séance de questions-réponses par BigBlueButton pour permettre aux élèves de l'ensemble du cours de me poser des questions avant l'examen final (qui a eu lieu par écrit sauf pour les quelques dispensés auxquels je faisais passer un oral ce matin), et tout s'était bien déroulé.

Pour les oraux, j'avais cru prévoir les choses correctement : j'ai ouvert la salle de conférence virtuelle plusieurs jours à l'avance, j'ai communiqué le lien + code d'accès aux candidats, en leur demandant de vérifier qu'ils arrivaient à se connecter et que le son marchait correctement. Mais surtout, je leur ai demandé de s'assurer d'avoir bien un moyen d'écrire de manière à ce que je puisse lire ce qu'ils font. Car le sujet sur lequel portait ces oraux demande de faire des schémas.

Il y a plusieurs façons de s'en tirer : la solution « high-tech » consiste à avoir une tablette graphique et utiliser un logiciel spécialisé (personnellement j'utilise Xournal, mais il y en a d'autres) pour pouvoir gribouiller avec la tablette sur un tableau blanc virtuel : BigBlueButton permet alors de partager la fenêtre ou l'écran tout entier, et ainsi de montrer à tout le monde ce qu'on gribouille. C'est comme ça que je faisais cours à distance pendant la pandémie, et j'ai continué à écrire mes cours sur tablette graphique depuis (avec un vidéoprojecteur en lieu de tableau). La solution « lo-tech » consiste à écrire simplement sur un papier et à filmer le résultat avec une webcam. J'ai dit aux candidats de vérifier qu'une de ces solutions, ou une autre, leur convenait, de contacter les services informatiques de l'école pour se voir prêter du matériel si besoin (tablette et/ou webcam), et de me contacter en cas de problème. Bref, je pensais avoir bien préparé les choses pour éviter les emmerdes.

(Bon, il y a une chose que j'ai assurément mal faite, c'est de ne prévoir que 5min de battement entre deux oraux, et une seule salle virtuelle pour tous, donc pas de possibilité de rattaper le temps en cas de problème technique.)

La première personne qui passait son oral avait prévu d'écrire sur une tablette mobile et de partager via son ordinateur. Malheureusement, elle a vu son ordinateur s'éteindre au bout d'une minute ou deux (surchauffe, peut-être ?). Tout a fini par remarcher, mais le temps que la machine redémarre a été perdu (et je n'ai pas pu le rattraper en décalant les oraux suivants parce que je n'avais pas prévu de marge). Comme en plus la tablette était petite, et son utilisation visiblement un peu malcommode, il était difficile de faire des figures complexes.

La deuxième personne avait prévu de filmer un papier avec une webcam, mais la webcam qu'on lui avait prêtée voyait double : je ne sais pas si c'était une caméra prévue pour faire de la 3D ou si c'était un problème de format vidéo, mais l'image était divisée verticalement en deux moitiés qui correspondaient chacune à une vue à peu près normale. C'était assez difficile pour moi de suivre dans ces conditions.

La troisième personne candidate a d'abord eu un problème de son (elle m'entendait mais je ne l'entendais pas ; puis elle s'est connectée une deuxième fois par téléphone, mais ça a causé un effet Larsen très pénible) qui a été un peu long à régler et le son était mauvais tout du long, peut-être parce que la connexion réseau n'était pas très bonne. Puis elle avait prévu d'utiliser une tablette (avec un truc comme Microsoft Whiteboard je crois), mais manifestement ça marchait mal, les traits ne s'affichaient pas comme elle voulait, bref, c'était insupportable pour écrire, et elle a dû se replier sur la solution consistant à filmer son cahier avec la webcam, et j'ai dû lire à l'envers ce qu'elle écrivait.

Évidemment, mon rôle est d'arriver à faire abstraction de ces difficultés techniques, et j'ai quand même assez entendu les trois personnes candidates pour les évaluer de façon — je pense — honnête sur le fond. Mais tout ça a diminué le temps effectivement disponible pour les oraux et c'était au mieux stressant pour les candidats et frustrant pour moi. (Un autre aspect frustrant est qu'il est difficile d'attirer l'attention sur un bout de ce qu'ils ont tracé comme figure quand je ne peux pas physiquement mettre le doigt dessus : j'ai dû avoir recours à des périphrases compliquées comme la transition étiquetée ‘b’ qui relie l'état qui n'a pas de nom vers le milieu de votre dessin et celui qui est étiqueté ‘4’ mais je veux dire le ‘4’ de gauche parce que vous avez deux états ‘4’ à cause du copier-coller.)

La moralité, c'est que les solutions de type « écriture à la tablette graphique » nécessitent un certain temps de prise en main (pour s'assurer qu'on sait s'en servir, que la tablette marche bien, etc.), et qu'il ne faut pas improviser ça pendant un oral, même si on a pris le soin d'encourager à vérifier à l'avance. Quand j'ai commencé l'enseignement en hybride (occasionnellement devenu purement à distance) à la rentrée 2020–2021, j'ai pris le soin de vérifier très soigneusement à l'avance que je savais utiliser la tablette, que je savais utiliser Xournal, que je savais utiliser Zoom, que le wifi passait bien dans les salles de cours et que je pouvais m'y connecter et que la connexion était stable, que je savais me reconnecter en cas de déconnexion du wifi, que je savais utiliser le vidéo-projecteur, et que je savais combiner tous ces éléments ; et quand j'ai testé la tablette et Xournal, j'ai testé plus qu'écrire un petit trait et vérifier que ça marche — j'ai écrit au moins une page entière de texte et de dessin pour me familiariser avec la réponse du stylet, les outils d'édition, les limites de ce que je pouvais écrire, etc.

Si je dois malgré tout faire de nouveau passer des oraux par visio, je pense que j'adopterai l'approche suivante : c'est moi qui tiens le stylo, en l'occurrence avec ma tablette et en partageant ma fenêtre Xournal, et c'est la personne qui passe l'oral qui me dit quoi écrire et comment faire ma figure. (En plus, comme ça je pourrai corriger tout seul les erreurs extrêmement mineures qui ne méritent pas d'être pénalisées mais qui font perdre du temps pour rien, et je pourrai montrer des régions de la figure sans avoir à passer par des périphrases pénibles.)

D'un autre côté, peut-être que la compétence « être capable de se débrouiller devant de solutions informatiques parfois frustrantes ou mal configurées » devrait faire partie des choses qu'on enseigne aux élèves de la grande école française des technologies numériques. Il y a un mythe tenace selon lequel la « génération Z » sait de façon presque innée comment utiliser un ordinateur (voire, que ce sont eux qui vont tout expliquer à leurs profs complètement largués par ces nouvelles technologies ; cf. aussi ce fil Twitter) : si c'était vrai, nous n'aurions pas grand-chose à leur enseigner, mais en tout cas, s'ils arrivent peut-être avec une grande familiarité de certaines interfaces graphiques, je n'ai pas l'impression qu'ils soient si doués pour prévoir les emmerdes possibles et les contourner.

↑Entry #2722 [older| permalink|newer] / ↑Entrée #2722 [précédente| permalien|suivante] ↑

Only the 20 most recent entries were included above. Continue to older entries.

Seules les 20 plus récentes entrées ont été incluses ici. Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2023 Jan 2023
2022 Jan 2022 Feb 2022 Mar 2022 Apr 2022 May 2022 Jun 2022 Jul 2022 Aug 2022 Sep 2022 Oct 2022 Nov 2022 Dec 2022
2021 Jan 2021 Feb 2021 Mar 2021 Apr 2021 May 2021 Jun 2021 Jul 2021 Aug 2021 Sep 2021 Oct 2021 Nov 2021 Dec 2021
2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020 May 2020 Jun 2020 Jul 2020 Aug 2020 Sep 2020 Oct 2020 Nov 2020 Dec 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]