David Madore's WebLog

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., celle écrite en dernier est en haut). Cette page-ci rassemble les dernières 20 entrées (avec un lien, à la fin, pour les plus anciennes) : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the latest written is on top). This page lists the 20 latest (with a link, at the end, to older entries): there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Latest entries / Dernières entrées publiées:

↓Entry #2732 [older| permalink|newer] / ↓Entrée #2732 [précédente| permalien|suivante] ↓

(mardi)

Piranesi de Susanna Clarke

Piranesi (publié en 2020) n'est pas un roman très long (il fait 245 pages pas spécialement grandes ni écrites petites, ça doit représenter environ 350k signes), et de toute façon je ne lis que très rarement des romans longs, mais même eu égard à sa taille, et compte tenu du fait que je lis plutôt lentement[#], il est assez remarquable que je l'aie lu en deux jours tellement j'ai accroché.

[#] Normalement la manière dont je lis consiste à poser le livre dans mes toilettes qui font aussi office de cabinet de lecture, et même si ça rallonge un peu la durée de mes commissions, forcément, je n'y consacre pas un temps fou. Mais quand j'« accroche » assez, comme ça a été le cas ici, alors le livre m'accompagne ailleurs.

J'en avais entendu parler via une connaissance sur Twitter, qui cite l'extrait suivant (proche du début du roman) lequel m'a suffisamment intrigué pour me donner envie de lire le livre :

Since the World began it is certain that there have existed fifteen people. Possibly there have been more; but I am a scientist and must proceed according to the evidence. Of the fifteen people whose existence is verifiable, only Myself and the Other are now living.

[Gravure “L'arc gotique” des “Prisons imaginaires” de Giovanni Battista Piranesi]Il est vrai aussi que j'aime énormément les gravures de Prisons imaginaires de Giovanni Battista Piranesi (j'en reproduis une ci-contre), qui ressemblent beaucoup à mes rêves[#2], dont le titre a aussi attiré mon attention. Bon, le roman de Clarke n'a pas vraiment de rapport avec l'artiste italien éponyme ; mais le cadre a énormément à voir avec l'ambiance labyrinthique qui est évoquée dans ces gravures (ainsi qu'avec l'architecture classique représentée dans ses Vues de Rome).

[#2] Je souligne, et vous pouvez vérifier, que le tweet que je viens de lier date d'avant le roman de Clarke, donc certainement avant que j'en aie entendu parler : je ne triche pas, j'avais vraiment dit ma fascination pour l'architecture labyrinthique des gravures de Piranesi avant que quelqu'un ait l'idée d'écrire un livre appelé Piranesi dont l'ambiance s'inspire de ses gravures à l'architecture labyrinthique.

Et quiconque a parcouru un peu ce blog sait ma fascination pour les labyrinthes (cf. ici et , ainsi que les petits jeux en JavaScript ici et qui sont liés et commentés depuis ces deux entrées).

Borges, un de mes auteurs préférés, est connu pour avoir écrit une nouvelle intitulée La biblioteca de Babel qui fait référence à une bibliothèque, à la structure labyrinthique, sinon infinie du moins démesurément grande qui contient non seulement tous les livres réels mais tous les livres possibles (d'un format donné : avec les informations données par Borges — 25 signes possibles, 80 signes par ligne, 40 lignes par page et 410 pages par livre — on peut d'ailleurs déduire qu'il y en a 251 312 000 ≈ 2×101 834 097). Ce texte a ensuite inspiré de nombreux autres auteurs, par exemple Umberto Eco dans Le Nom de la Rose (dont l'intrigue tourne autour d'un livre caché dans une bibliothèque labyrinthique gardée par un bibliothécaire irascible appelé Jorge de Burgos).

Le roman de Clarke se déroule dans un espace lui aussi immense et labyrinthique (le narrateur l'appelle the House, la Maison) : comme la Bibliothèque de Babel, il est constitué de salle après salle apparemment sans limite, et on ne sait pas exactement comment elles sont organisées ni pourquoi ; mais à la différence de la Bibliothèque, les salles de la Maison, à l'architecture classique, ne sont pas remplies de livres mais ornées de statues apparemment toutes différentes. Bon, à vrai dire, on n'a pas une description très précise de la Maison (et certainement pas de plan, fût-il partiel ; le narrateur utilise une numérotation des salles très idiosyncratique, probablement l'ordre dans lequel il les a visitées), mais ce qu'on a est puissamment évocateur. Le niveau inférieur est inondé par la mer (ou peut-être les niveaux inférieurs ? la description n'est pas claire sur le fait qu'il y en ait un ou plusieurs), le niveau supérieur est en ruine (ainsi que certaines salles des autres niveaux), donc seul le niveau intermédiaire est vraiment explorable, ce qui fait qu'on a affaire à un labyrinthe essentiellement 2D.

C'est amusant, parce que le premier programme que j'ai écrit quand j'ai appris le C (il y a environ 30 ans ; je l'ai perdu depuis, malheureusement) était un jeu d'exploration qui simulait un espace immense constitué simplement de salles (je suppose 232×232 d'entre elles), qui avaient chacune un nom, une couleur, une décoration particulière, mais il n'y avait rien à faire à part visiter des salles et y trouver de (très rares) objets. J'avais fait attention à ce que l'espace créé par le jeu soit toujours précisément le même, si bien qu'il aurait été en principe possible d'explorer ce labyrinthe unique, d'en dresser un plan avec les noms et descriptions des salles, etc., sauf qu'il était bien trop grand s'il avait 18 milliards de milliards de salles (même si ça reste beaucoup plus petit que la Bibliothèque de Babel). Ce monde de mon petit jeu était donc remarquablement semblable à celui du roman de Clarke.

Dans le monde du roman n'évoluent (apparemment) que deux personnes : le narrateur, et celui que le narrateur appelle l'Autre (qui, en retour, appelle le narrateur Piranesi). Le narrateur s'est donné pour mission d'explorer la Maison, tandis que l'Autre semble être à la recherche d'une connaissance bien précise, qu'il soupçonne d'y être cachée. À part eux, il n'y a que treize squelettes pour seuls habitants connus de la Maison.

Je n'en dis pas plus. On est évidemment curieux de savoir ce que ces gens font dans ce monde, comment ils y sont arrivés et d'ailleurs comment ils y survivent, et toutes sortes d'autres choses qui paraissent initialement bien mystérieuses. C'est ce côté énigmatique qui m'a poussé à continué à lire (mû à la fois le désir d'avoir la clé de l'énigme et l'inquiétude que tout ça finisse en queue de poisson comme la série Lost) : je ne veux pas divulgâcher, mais pour les gens qui, comme moi, voudraient savoir à quoi s'attendre, disons qu'à la fin on a au moins des réponses satisfaisantes à un certain nombre de questions (en gros celles qu'ai formulées), que tout n'est pas exactement comme il semble, et que le livre tourne vaguement au policier. (Mais il ne faut pas non plus s'attendre à avoir une réponse à tout, en particulier concernant la nature exacte de la Maison, ni à ce que tout soit rationnel.)

Comme j'aime bien les énigmes en plus d'aimer les labyrinthes, on peut difficilement imaginer un roman qui donne autant l'impression d'avoir été écrit pour moi (même si cf. celui-ci). La fin est peut-être un peu plus faible que le début (ou disons, moins originale, moins captivante), peut-être que la toute dernière partie aurait pu être omise (c'est une sorte de coda post-climactique : moi j'aime bien, mais je suis sûr qu'il y a des gens qui trouveront que ça prolonge inutilement), mais ce ne sont pas des reproches graves. Globalement j'ai beaucoup aimé.

Suzanna Clarke est connue pour avoir précédemment écrit le roman Jonathan Strange & Mr. Norrell, une histoire de magiciens dans l'Angleterre du début du XIXe siècle d'une histoire alternative où la magie existe. Je ne l'ai pas lu (même si ce livre s'est matérialisé dans ma bibliothèque sans que je sache comment il est arrivé là parce que je ne l'ai jamais acheté, ce qui est quand même assez significatif s'agissant d'un livre sur la magie), mais j'ai vu la mini-série qui en a été tirée : il y a quelques aspects que j'ai bien aimés, mais j'ai surtout été assez fortement agacé par le fait qu'au final on n'avait aucune idée des motivations des personnages essentiels (et surtout deux puissants rois-magiciens qui dominent l'histoire et qui sont le King of Lost-Hope et le Raven King, dont on ne comprend même pas s'ils sont plus ou moins alliés ou plus ou moins ennemis ou indifférents l'un à l'autre, ni quels sont leurs pouvoirs, ni s'il faut craindre ou espérer que l'un ou l'autre « gagne »). Peut-être que le roman n'a pas ce défaut, mais en tout cas Piranesi ne l'a pas, et je le souligne pour quiconque aurait été agacé par la même chose que moi : ici, les personnages ont, au final, des motivations passablement claires, et leurs actions sont raisonnables compte tenu de ces motivations (et de leur connaissance / ignorance).

Bref, je recommande vivement Piranesi pour tous les gens qui ont des goûts proches des miens (et si vous lisez mon blog, c'est peut-être au moins en partie le cas).

↑Entry #2732 [older| permalink|newer] / ↑Entrée #2732 [précédente| permalien|suivante] ↑

↓Entry #2731 [older| permalink|newer] / ↓Entrée #2731 [précédente| permalien|suivante] ↓

(samedi)

Pourquoi la mort d'Elizabeth II suscite-t-elle tant d'émotion ?

Je me rappelle avoir un jour discuté avec mon poussinet des funérailles qui avaient rassemblé beaucoup de « beau monde » (chefs d'État ou de gouvernement et hauts dignitaires en tout genre), je ne sais plus si le point de départ de la discussion était celles de J. F. Kennedy, de Churchill ou de De Gaulle, mais je me rappelle avoir dit que je voyais deux personnes dont les funérailles rassembleraient certainement un niveau de gratin jamais égalé dans l'Histoire, et qu'il serait intéressant de les comparer : Nelson Mandela et Elizabeth II (au moment où je m'exprimais, les deux étaient encore vivants). Les funérailles de Mandela ont assurément été un événement planétaire impressionnant ; et lundi en huit, on pourra juger pour Elizabeth II et comparer le style et le succès mondain des deux. (Vous êtes en droit de proposer d'autres candidats pour rivaliser — même si c'est de mauvais goût de dire j'ai hâte de voir les funérailles de X — : Jimmy Carter ? le pape François ? je n'ai pas trop de nom qui me vienne évidemment à l'esprit.)

Mais évidemment, ces funérailles ne rassemblent pas que du « beau monde » mais aussi, fût-ce à distance, des milliers d'anonymes dont la plupart n'ont jamais rencontré la personne décédée (ou peut-être de façon très fugace une fois[#]), et qui sont néanmoins véritablement émus. Dans le cas de Mandela, cette émotion s'explique assez bien par son statut de héros. Mais pour Elizabeth II, c'est plus délicat à analyser. Contrairement à Mandela, on ne peut pas dire qu'elle ait fait grand-chose : précisément, son rôle constitutionnel consiste à ne rien faire et à ne rien dire[#2], et si elle a reçu des louanges pendant sa vie c'est précisément pour avoir exceptionnellement bien tenu ce rôle de ne rien faire et de ne rien dire. (Et la série The Crown montre assez bien que ce n'est pas toujours évident ; et l'excellent film The Queen montre la manière dont elle a dû — sous la pression de Tony Blair — consentir à l'occasion de la mort de Diana à sortir de son mutisme qui lui était devenu si naturel.)

[#] Pour la petite anecdote (puisque tout le monde en donne en ce moment) mon papa prétendait qu'il avait « rencontré » Elizabeth alors qu'elle visitait le Canada. Je ne sais pas si je dois croire cette anecdote, parce que les histoires de mon père n'étaient pas toujours de la plus grande exactitude (mais il n'était pas non plus mythomane) : je devrais demander à ma tante ce qu'elle en pense, et surtout, où ils habitaient à ce moment. Cela se passe probablement en 1951 (elle n'était que princesse et représentait son père George VI ; mon père aurait eu 13 ans à l'époque), ou peut-être en 1959 (mais ça semble moins probable parce que mon père semblait dire qu'il était ado), mon père se baladait près d'une voie ferrée (Canadian Pacific, je suppose), au milieu de nulle part, et il n'y avait personne alentours ; il voit passer un train, et sur la plate-forme arrière de ce train il y a une jeune femme qui regarde le paysage et qui, apercevant mon père, lui fait de grands saluts amicaux. (Les photos sur cette page montrent précisément le type de train utilisé, donc mon père n'a au moins pas inventé qu'il y avait bien une sorte de balcon à l'arrière.) Mon père lui fait de grands saluts en retour, n'ayant aucune idée de qui était cette jeune femme, et en rentrant chez lui a appris de qui il s'agissait. Mon père a ensuite fait référence à cette histoire comme mon tête-à-tête avec la reine Elizabeth.

[#2] Avait-elle seulement le pouvoir de faire quelque chose ? Ce n'est vraiment pas clair. D'un côté les prérogatives royales du souverain britannique restent importantes, de l'autre, la plupart (totalité ?) ne sont censées être exercées que sur le conseil de ses ministres (ou d'autres personnes : conseil privé, parlement…), et si jamais le souverain prenait une décision de sa propre initiative on imagine (et on espère !) que ce serait un énorme scandale qui conduirait à l'abolition de la monarchie. Finalement, on ne sait pas si le souverain a vraiment des pouvoirs mais ne les utilise pas, ou n'en a pas du tout. Encore que même le mot pouvoir est à définir : même à défaut de pouvoirs constitutionnels définis, le pouvoir d'influence, de conviction, celui de distribuer des hochets (titres honorifiques, par exemple) est quelque chose de significatif. Beaucoup de gens se demandent maintenant quel type de roi sera Charles III, mais la question est aussi s'il a une quelconque marge de manœuvre. Et on tombe sur l'aporie suivante : soit le souverain n'a aucune marge de manœuvre ou de décision, aussi faible soit-elle, et on se demande à quoi il sert, soit il en a, et c'est un grave problème dans une démocratie moderne que cette marge échoie institutionnellement à quelqu'un qui n'a été choisi que par le hasard de sa naissance. (Bon, est-ce vraiment plus grave que tous les gens qui sont riches ou autrement privilégiés par leur naissance, je ne sais pas, mais là ça a quelque chose de sacralisé qui le rend plus évident.)

On peut dire qu'elle était un symbole, par exemple, et certainement c'est un des rôles d'un monarque honorifique que d'être un symbole, mais je pense que ça rate un peu le point. D'abord parce qu'un symbole, justement, c'est intemporel : le principe de continuité de la Couronne, valable dans de nombreuses monarchiques et exprimé par la célèbre formule le roi est mort, vive le roi ! (ou bien rex nunquam moritur : le roi me meurt jamais, veut précisément que ce symbole soit toujours présent et se transmette instantanément d'un monarque au suivant. Ensuite, parce qu'un symbole n'est pas forcément quelque chose de très apprécié : le Royaume-Uni n'est certainement pas terriblement populaire dans le monde entier (et notamment dans ses anciennes colonies ou en Irlande, malgré les efforts, y compris les efforts personnels d'Elizabeth II, pour faire évoluer ses relations avec ces pays), disons que ce n'est pas un symbole facile à incarner, et je pense que la reine était plus appréciée que son royaume ne l'était. À l'inverse, quand l'actuelle reine du Danemark décédera (qui aura régné passablement longtemps elle aussi, même s'il est peu vraisemblable qu'elle atteigne 70 ans), et même si le Danemark est un symbole sans doute — disons — moins chargé à incarner que le Royaume-Uni, je pense que l'événement suscitera une grande indifférence (beaucoup de gens découvriront à cette occasion que le Danemark est une monarchie, et s'empresseront de l'oublier). Bon, les choses sont compliquées par le fait qu'Elizabeth II n'était pas reine que du Royaume-Uni, mais aussi d'Australie, de Nouvelle-Zélande, du Canada, de Papouasie-Nouvelle-Guinée, etc., mais l'explication du symbole est encore plus difficile à admettre à leur sujet, parce que presque personne ne va répondre du nom du monarque quand on demande un symbole du Canada (ou inversement ne va citer le Canada quand on demande à quoi on associe ce nom), et presque personne, même au Canada et certainement en-dehors, ne penserait à annoncer la mort d'Elizabeth II en disant la reine du Canada est morte[#3].

[#3] Ce qui eût pourtant été parfaitement correct (et peut-être même pertinent parce que, comme l'a fait remarquer Justin Trudeau, elle a été reine pendant presque la moitié de l'existence du Canada en tant qu'État, ce qui est tout de même assez impressionnant). À l'inverse, quitte à être un affreux pinailleur, ça m'énerve que les Français disent la reine d'Angleterre est morte : il n'y a plus eu de reine (ou de roi) d'Angleterre depuis 1707, ça fait un moment que la dernière est morte, peut-être qu'en 315 ans on pourrait réussir à apprendre le nom d'un des pays les plus proches de la France.

Bref. Je me suis un peu moqué sur Twitter de l'émotion que peut susciter le décès, à un âge fort canonique et de manière apparemment fort paisible, de quelqu'un que très peu de gens ont rencontré et dont le travail (accompli avec soin) consistait justement à ne rien faire et à ne rien dire, mais je me rends compte que c'est assez injuste, et ce billet de blog est une forme de mea culpa.

Ne serait-ce que parce que je n'ai moi-même pas été laissé complètement indifférent au décès de celle qui était aussi ma reine (en tant que souveraine du Canada), — même si je ne comparerais pas pour autant cette émotion à la tristesse que je peux ressentir à la mort d'un proche. (Peut-être plus de la nostalgie que de la tristesse ? Ou quelque chose qui n'a sa place que dans le Dictionary of Obscure Sorrows ?)

J'y ai repensé tout à l'heure en voyant qu'un platane pas loin de chez moi (assez majestueux et possiblement aussi âgé qu'Elizabeth II même si les platanes poussent vite donc je trompe peut-être dans mon estimation) venait d'être coupé (je suppose qu'il était pourri de l'intérieur), et que j'en étais attristé : indiscutablement ce platane était au moins aussi bon qu'Elizabeth II pour ce qui est de remplir la mission de ne rien faire et ne rien dire, et indiscutablement nous n'avons jamais parlé ensemble (je n'ai pas l'habitude de parler aux arbres, et même si je les qualifie parfois de gentil nanarbre, les arbres ne me répondent jamais) : donc je dois me rendre à l'évidence, on peut être attristé par la disparition d'un être vivant qui ne faisait rien et ne disait rien et avec lequel on n'a eu aucun échange. Il faisait juste partie du paysage et j'avais tendance à m'imaginer, sans vraiment y réfléchir, qu'il serait toujours là.

Ce n'est peut-être pas très flatteur de comparer Elizabeth II à un platane (même si les platanes sont de gentils nanarbres), alors j'en tente une autre : je repensais aussi à l'incendie de l'église Notre-Dame de Paris, qui a aussi suscité une grande émotion dans le monde, pas forcément tout à fait évidente à comprendre. Y compris pour des gens qui, n'étant pas catholiques voire étant hostiles au catholicisme, ne voient pas forcément d'un bon œil le symbole qu'est un siège épiscopal. Mais cette église est autre chose : une œuvre d'art, bien sûr, mais aussi et plutôt, je crois, en l'occurrence, un monument.

Je ne sais pas exactement ce que c'est qu'un monument (aucune des définitions données par les dictionnaires ne me plaît complètement), mais peut-être que ça pourrait ressembler à une chose qui fait partie du paysage et qui devient célèbre ; et dont la disparition nous surprend, et nous émeut d'autant plus que ça faisait longtemps qu'elle était là.

Quelque chose qui fait partie du paysage : je repense au fait (je l'avais dit par exemple justement à propos de l'incendie de Notre-Dame) que, le 11 septembre 2001, j'avais été finalement plus ébranlé par la disparition des deux tours jumelles qui faisaient partie de la skyline emblématique de New York que par la mort des gens qui avaient péri dans l'attentat. Certainement la reine Elizabeth II faisait partie du paysage britannique : même si on ne pouvait pas la voir en personne, on peut voir son palais (les gens viennent voir son palais), et son effigie était partout, des billets de banque aux cartes postales vendues aux touristes.

Quelque chose qui est là, silencieusement, et qui finalement devient le témoin de ce qui se passe autour : quand on admire un vieil arbre on aime se dire que cet arbre a pu connaître Napoléon, ou Louis XIV ou que sais-je encore. (Le plus vieil arbre de Paris, un Robinia pseudoacacia qui est d'ailleurs un des plus anciens et pour ainsi dire l'ancêtre de tous les robiniers faux-acacia de France ou peut-être d'Europe puisqu'il a été importé par le jardinier Jean Robin auquel le nom du genre rend hommage, a été planté en 1601, et il a donc connu Henri IV. Je pense qu'on peut sans difficulté qualifier cet arbre de monument, et certainement beaucoup de gens seront inconsolables s'il meurt. Dans le même genre, je pense aussi à l'émotion qui a été ressentie quand l'aubépine de Glastonbury a été vandalisée, qui est censée avoir été plantée à l'origine par Joseph d'Arimathie même s'il faut prendre l'identité de cet arbre avec des pincettes, parce que la vraie, si tant est que c'était la vraie, a été brûlé sous Cromwell. Dans la fiction, je peux aussi mentionner l'arbre de Gondor.) Bref, ce que je cherche à dire avec tout ça, c'est qu'on attend d'un monument, et certainement d'un monument vivant comme un arbre, qu'il soit témoin muet du monde autour de lui, même si être témoin se limite à ce qu'on puisse s'émouvoir en se disant que cet arbre a connu tel ou tel personnage ou tel ou tel événement.

Et c'est justement une des choses qui revient le plus souvent quand on parle de la reine Elizabeth II : on ne peut pas dire qu'elle ait fait quoi que ce soit d'intéressant, mais elle a vu beaucoup d'histoire et beaucoup de gens. On nous rappelle qu'elle a eu 15 Premiers ministres (je parle là juste pour le Royaume-Uni, parce que comme je l'ai évoqué au-dessus elle a aussi été la souveraine de 12 des 23 Premiers ministres qu'a jamais eus le Canada), et que le premier était Winston Churchill (qui est d'ailleurs né presque exactement un siècle avant l'actuelle Liz Truss), et il faut reconnaître que c'est impressionnant[#4]. Elle a aussi connu un nombre faramineux de présidents américains, français, etc. (Et quand on dit qu'elle les a connus, c'est qu'elle les a vraiment rencontrés en tant que reine, ce n'est pas juste qu'elle a été vivante pendant qu'ils étaient présidents.) On ajoute souvent que, du coup, elle avait une expérience politique incroyable pour avoir discuté (et souvent reçu à dîner) tous ces gens, et c'est sans doute vrai, mais là on s'éloigne de ce qui la rend exceptionnelle aux yeux du public : car cette sagesse politique, elle n'en faisait profiter que ses premiers ministres[#5], mais ce qui importe ce n'est pas ce qu'elle a pu leur dire, c'est ce qu'elle a vu. Et de façon liée à ça, la séniorité qu'elle avait acquise parmi les chefs d'État du monde entier (on pense par exemple à ces images assez épatantes de la cérémonie pour les 70 ans du Débarquement, où Obama, Poutine, Hollande font figure de petits jeunes par rapport à Elizabeth II qui, si elle n'était pas encore reine à ce moment-là, avait fait la guerre).

[#4] Il y a toujours un côté assez impressionnant ou émouvant à avoir des chaînes assez courtes vers des personnages ou des époques qui semblent impossiblement reculées : je signalais ici une interview de Bertrand Russell qui raconte calmement, dans une interview filmée, que son grand-père, qu'il a connu et qui l'a élevé, était membre du parlement sous les guerres napoléoniennes (il a plus tard été Premier ministre de la reine Victoria) et a rencontré Napoléon (l'oncle, pas le neveu — enfin, il a certainement rencontré le neveu aussi, mais c'est moins impressionnant) : je dois dire que j'ai été suffisamment précis pour me dire que c'était forcément une erreur, que ce n'était pas possible qu'il y ait une interview filmée de quelqu'un qui a été élevé par quelqu'un ayant rencontré Napoléon, et j'ai vérifié les dates. (Dans une autre interview, ou d'autres bouts de la même, il raconte qu'il — le petit-fils, pas le grand-père — a rencontré Gladstone, et Lénine, et encore plein d'autres choses assez épatantes.) ❧ Il y a aussi l'anecdote malheureusement fausse (mais que j'évoque parce que cela illustre l'intérêt qu'on peut avoir pour ces choses) de Jeanne de Lavaulx, épouse du maréchal de Richelieu (petit-neveu du cardinal), filleul de Louis XIV, qui (selon la légende, mais c'est ça qui est faux, même si ce serait tout à fait possible) aurait vécu jusque sous le second empire et aurait dit à Napoléon III comme le disait le bon roi Louis XIV à mon défunt mari lors de son premier mariage, ce qui a indiscutablement une certaine classe. ❧ Sinon, dans la même ligne d'idées (même si ça ressemble à une digression de plus en plus anecdotique), il semble qu'il y a (ou il y avait encore tout récemment, parce qu'à cet âge-là l'information se périme assez vite) un petit-fils du dixième président des États-Unis, John Tyler (né en 1790) qui est actuellement vivant, et se dire que le petit-fils d'une personne née au XVIIIe siècle peut être vivant au XXIe est assez fou.

[#5] Mais bon, qui sait ?, peut-être va-t-on découvrir qu'Elizabeth Windsor tenait un journal secret qui finira par fuiter, et on y apprendra que Kennedy avait essayé de la draguer, ou que Nixon sentait mauvais, ou d'autres choses de ce genre : peut-être qu'alors même qu'elle ne disait jamais rien tout haut, la reine n'en pensait pas moins et notait toutes sortes de ragots ou de perfidies sur ses invités dès le soir tombé. Ce serait délicieux.

Et du coup, les monuments, plus ils sont vieux, plus leur disparition nous émeut (alors que normalement, quand on perd un proche, c'est plutôt d'autant plus triste que la personne est décédée prématurément) : quand un arbre plusieurs fois centenaire meurt, ou quand un bâtiment très ancien est détruit par un incendie, ou quand une personne célèbre qui a côtoyé énormément de gens qui nous paraissent maintenant très éloignés dans le temps s'éteint à son tour, nous avons l'impression d'une perte irrémédiable. Je ne prétends évidemment pas que c'est la seule explication de l'émotion ressentie suite au décès d'Elizabeth II, il y a certainement beaucoup de gens, notamment parmi ses sujets britanniques (voire ailleurs) qui la considéraient par exemple comme une sorte de grand-mère et qui se sentent maintenant orphelins, et il n'est pas défendu d'avoir de l'admiration pour elle en tant que personne, mais je pense que pour beaucoup, et en tout cas pour moi dans la mesure où je suis ému, l'émotion ressentie n'a pas grand-chose à voir avec ce qu'elle pouvait symboliser (le Royaume-Uni, l'impérialisme britannique), ni avec ce qu'elle a pu faire ou dire (rien, justement), ni même grand-chose à voir avec Elizabeth II en tant qu'être humain ayant des pensées et des émotions (sur lesquelles on ne sait pas grand-chose, et il pourrait tout aussi bien s'agir d'un arbre ou un bâtiment qui n'en ont pas), mais simplement avec son existence comme monument, passablement ancien, à la fois témoin et marqueur d'une époque, et avec le fait que cette époque est maintenant révolue puisque le monument a cessé d'être. Une page s'est tournée.

Par ailleurs, s'agissant du Royaume-Uni, en plus du monument (vivant) qu'était Elizabeth II en tant que personne, il y a aussi le monument (immatériel) que sont les institutions britanniques : de même que c'est impressionnant de se dire que tel arbre a pu connaître Henri IV, c'est impressionnant de se dire que tel cérémonial est inchangé depuis le Moyen-Âge ou que telle loi (la Magna Carta) de cette époque est toujours en vigueur : les institutions, les règles et les coutumes sont aussi une forme de monument qui tire son prestige de la continuité de ses formes. (Cf. cette entrée passée au sujet ce monument-là. Les autres pays monarchiques, à l'exception notable du Japon, n'ont pas un tel niveau de « cérémonial monumental ».) Ce monument-là survit à Elizabeth et investit maintenant Charles III, mais je pense que le regret des Français d'avoir fait table rase en 1789 (quelque raison qu'ils ont eu en cela), non pas d'avoir coupé la tête à un roi, après tout les Anglais en ont fait de même, mais d'avoir coupé la tête de la monarchie[#6], explique probablement la fascination étrange des Français pour la monarchie britannique en général et pour Elizabeth II en particulier (qui cumulait ces deux formes de monumentalité, la personnelle et l'institutionnelle). Je pense qu'Emmanuel Macron a vu assez juste en disant que si pour les Britanniques Elizabeth II était leur reine, pour les Français elle était la reine.

[#6] Ajout () : Je répète souvent ça (je l'avais déjà dit ici et j'en ai ajouté une couche sur Twitter), mais si jamais le Royaume-Uni décidait de se débarrasser de sa famille royale, je suis sûr qu'ils ne le feraient pas en devenant une République mais simplement en déclarant le trône vacant (à perpétuité), en nommant un régent (ou lieutenant du Royaume, ou quelque chose du genre) pour tenir la position effective de chef d'État, et en restant un Royaume sans roi (comme ça a été le cas de la Hongrie entre les guerres, même si je ne crois pas que ce soit un bon modèle à suivre sur d'autres plans). Une raison (que je mentionne dans le mini fil Twitter que je viens de lier) est que les Britanniques ont été traumatisés par Cromwell comme les Romains avaient été traumatisés par Tarquin le Superbe au point de ne jamais plus vouloir de rois (même s'ils sont finalement passés sous une monarchie elle a gardé formellement les institutions antérieures). Mais une autre est simplement l'attachement pour ce « monument » que sont leurs institutions et traditions : avoir un royaume sans roi permettrait de continuer tout le cérémonial qui va avec et de prétendre qu'il s'agit de traditions ancestrales qui n'ont jamais changé. Bref, je pense que les quelques Britanniques qui se proclament républicains n'ont pas compris leur propre pays (à la différence des Australiens, pour qui la monarchie n'est pas un monument, et qui s'en débarrasseront sans doute dans pas si longtemps).

PS : Je n'arrive pas à décider si je préfère écrire Elizabeth ou franciser le nom en en Élisabeth. Je constate que les journalistes ont l'air de préférer Elizabeth donc je vais m'aligner là-dessus, mais peut-être que la faire entrer dans l'histoire passerait par l'écriture Élisabeth : il me semble que quand on parle de la reine homonyme qui a régné de 1558 à 1603, on francise régulièrement le prénom (et on fait ça pour plein d'autres gens : on dit Catherine II de Russie pas Ekaterina, par exemple).

↑Entry #2731 [older| permalink|newer] / ↑Entrée #2731 [précédente| permalien|suivante] ↑

↓Entry #2730 [older| permalink|newer] / ↓Entrée #2730 [précédente| permalien|suivante] ↓

(vendredi)

Le multivers dans la fiction (voire dans la réalité)

J'ai tout récemment vu deux films, Everything Everywhere All at Once et Doctor Strange in the Multiverse of Madness dans lequel le « multivers » joue un rôle central, du coup je me suis dit que je devrais en parler un peu à la manière dont j'avais précédemment parlé de voyage dans le temps (où j'ai d'ailleurs expliqué que le voyage dans le temps polychronique était essentiellement équivalent à un voyage entre univers parallèles, et où j'ai déjà évoqué certaines des idées sur lesquelles je veux revenir). Mon but n'est pas de commenter sur ces films précis, même si je peux dire au passage que j'ai bien aimé le premier qui est plutôt touchant, et que le second est un blockbuster tout à fait standard dans la ligne du Marvel Cinematic Universe (je ne dirais pas que c'est mauvais, on sait bien à quoi s'attendre). Je veux plutôt parler de l'idée générale du multivers dans la (science-)fiction (enfin, du peu de culture que j'ai en la matière). Mais bon, comme mes lecteurs réguliers en ont l'habitude, je vais digresser dans tous les sens, et je pars sans plan précis.

Pour dire d'abord quelque chose du multivers au sens « scientifique » (je n'ose pas dire réel, mais disons quelque chose comme sérieusement imaginable) avant de passer à la fiction, je peux par exemple renvoyer à cette vidéo dans laquelle Tony Padilla (professeur de physique à l'Université de Nottingham) évoque et vulgarise la classification par Max Tegmark de quatre « niveaux » de multivers : ① ce qui est dans l'Univers au-delà de l'horizon cosmologique, ② des bulles (post-inflation) avec des valeurs différentes des constantes physiques, ③ les mondes multiples de l'interprétation, et ④ l'ensemble des structures mathématiques possibles. Je ne suis pas sûr que cette classification soit ni très pertinente ni franchement exhaustive, mais ce n'est pas vraiment mon sujet ici. (Plus franchement critique vis-à-vis de tout concept de multivers, Sabine Hossenfelder ici disqualifie complètement l'idée comme non scientifique et relevant de la religion. | Mise à jour : celle-ci, plus récente et un peu plus longue est encore plus sarcastique, en disant en gros la même chose.) Je voudrais cependant évoquer au moins un type de multivers scientifiquement sensé, qui ne rentre pas vraiment dans la classification de Tegmark, et qui me semble plus proche de ce que la fiction semble désigner sous ce nom, c'est juste « l'espace de toutes les possibilités », l'ensemble de toutes les histoires possibles de l'Univers compatibles avec les lois de la physique. Longue digression à ce sujet (que vous pouvez sauter si vous ne voulez pas de métaphysique théorique) :

Si les lois de la physique sont déterministes dans les deux sens du temps (et l'état actuel de nous connaissances ne permet ni de l'exclure ni de le conclure, mais c'est au moins le cas de certaines théories comme la mécanique classique), c'est-à-dire que pour (presque) n'importe quel état U(t₀) de l'Univers à l'instant t₀ elles prédisent un état U(t) bien défini pour n'importe quel temps t (qu'il soit avant ou après t₀ ; en relativité, il faudrait plutôt parler d'hypersurface de Cauchy que d'instant, mais laissons-ça de côté), alors toute l'histoire de l'Univers est entièrement déterminée par son état à un instant t₀ quelconque, et le multivers dont je parle (ensemble de toutes les trajectoires possibles de l'état de l'Univers) est simplement, ou s'identifie simplement avec, l'ensemble de tous les états possibles, lequel porte le nom standard d'espace des phases, et les lois de la physique sont flot sur cet espace (associant à chaque point l'ensemble de la trajectoire déterminée ; en mécanique classique hamiltonienne ce flot a une forme bien précise définie par la structure symplectique et le hamiltonien, mais je ne parle pas forcément de quelque chose d'aussi précis que ça).

(Une longue digression dans la digression.) Ceci présente d'ailleurs le paradoxe suivant dont j'ai déjà dû parler quelque part sur ce blog (j'aurais cru dans cette entrée sur la métaphysique, mais bizarrement ça n'y est pas ; sinon, voir ce post sur Usenet que j'ai écrit il y a 20 ans), et qui est très vaguement pertinent pour ce que je veux évoquer ici, ce qui justifie que je m'étende dessus. Si on modifie un tout petit peu, mais aléatoirement, l'état U(t₀) (que nous croyons être celui) de l'Univers actuellement pour donner un état U′(t₀) macroscopiquement presque identique à U(t₀) mais néanmoins distinct (disons qu'on a juste déplacé quelques atomes), alors en vertu du déterminisme bidirectionnel, on peut tracer la trajectoire de U′ vers l'avenir ou vers le passé. L'évolution de U′ vers l'avenir sera différente de celle de U, mais plausible comme évolution de l'un ou de l'autre : il faut imaginer que la trajectoire future de U ou de U′ correspondent à des avenirs qui nous semblent plausibles, et qui « divergent » à partir du moment t₀ (ceci correspond assez bien à notre intuition de lignes d'histoire divergeant à partir d'un point dans le temps). En revanche, l'évolution vers le passé de U′ ne ressemble absolument pas à celle de U, car l'entropie va augmenter dans les deux directions du temps (je veux dire, dans U elle est croissante avec t, alors que dans U′ elle a un minimum en t₀ : ceci résulte du fait que l'évolution d'une configuration d'entropie donnée dans l'espace des phases conduit presque toujours à une configuration d'entropie plus grande : ce n'est pas le cas dans U car il est le futur d'un état « naturel » d'entropie basse au moment du Big Bang, mais dans U′ l'évolution dans les deux sens du temps à partir de t₀ fait augmenter l'entropie) ; or ceci est intéressant parce que tous les habitants de l'univers U′ sont persuadés, à partir de t₀, qu'ils vivaient dans l'univers U : puisque U′ est quasi identique à U au temps t₀, ils ont les mêmes souvenirs que les habitants de l'univers U : ils ont donc de faux souvenirs de leur passé. La question métaphysique sous-jacente est pourquoi nous sommes persuadés de vivre dans un univers de type U (où l'entropie lors du Big Bang était plus faible que maintenant, ce qui est extrêmement improbable a priori) alors que ceux de type U′ sont inimaginablement plus nombreux et donc plus probables a priori au sens bayésien ; mais ce n'est pas ce que je veux évoquer ici. ❧ Je dois néanmoins souligner qu'avec des hypothèses raisonnables sur les lois de la physique, on peut trouver un U″ tel que U″ soit proche de U en t₀ et diverge ensuite (comme pour U′) et en même temps que U″ soit proche de U pour tout temps avant t₀ (à partir du Big Bang) : par continuité du flot entre le Big Bang et t₀, il suffit pour cela de faire un changement encore beaucoup plus petit à U(tBig Bang), donnant U″(tBig Bang) assez petit pour que U″(t) diffère peu de U(t) jusqu'à t₀, et diverge ensuite. Il est imaginable qu'on ne veuille considérer comme « licites » ou « pertinents » (ou accessibles ?) dans le multivers que des univers comme U″ que je viens de décrire, qui divergent d'un univers U de référence qu'à partir d'un certain point t₀ et dont le passé remonte à (ou : découle d') un état « naturel » (d'entropie très basse, ou proche de celui de U) au moment du Big Bang, et pas des univers comme U′ qui sont des monstruosités sans nom n'ayant en t₀ pas de véritable passé mais plutôt deux avenirs dans les deux sens du temps. (Fin de la longue digression dans la digression, pour laquelle je présente mes excuses — ça mériterait d'être ailleurs.)

Si les lois de la physique ne sont pas déterministes, alors on peut simplement appeler multivers l'ensemble de toutes les trajectoires qu'elles permettent dans l'espace états possibles de l'Univers. Comme expliqué au paragraphe précédent, même des lois déterministes (pour peu qu'elles soient chaotiques) permettent d'avoir des trajectoires qui coïncident essentiellement jusqu'à un instant t₀ et divergent ensuite, ce qui est la vision du multivers en jardin des sentiers qui bifurquent, donc en fait le déterminisme ou le non-déterminisme des lois fondamentales de la physique ne change essentiellement rien à cette histoire et à cette vision du multivers.

Ce type de multivers comme « espace de toutes les possibilités permises par les lois de la physique » est tellement basique et tellement trivial que se demander s'il existe vraiment est une question assez oiseuse : il n'y a évidemment aucune différence de prédiction observable entre la théorie qui affirme que seul existe une seule trajectoire dans l'espace des possibles (celle de l'Univers réel), et celle qui affirme que toutes les trajectoires existent simultanément et que nous en observons juste une parce que nous vivons dans celle-là. Je dirais quand même que la seconde théorie me semble plus économique, parce qu'elle nous dispense d'avoir à préciser les conditions initiales de l'Univers : tous les états possibles existent, et si nous observons celui-ci c'est jusque parce que c'est l'endroit où nous vivons dans l'espace des possibles ; alors que la première théorie, pour être complète, doit être accompagnée d'une description complète de chaque particule dans l'Univers réputé être le seul vrai. Mais bon, c'est un peu une querelle byzantine de savoir si ces deux théories sont vraiment différentes tant que les univers n'interagissent pas du tout entre eux, et c'est peut-être ça que veut dire Sabine Hossenfelder dans la vidéo liée ci-dessus où elle qualifie la question de religieuse.

(Fin de la longue digression.)

Le fait qu'il existe des univers parallèles, ou une quelconque sorte de multivers, n'a évidemment aucune espèce d'importance (et peut-être même aucune espèce de sens) si ces univers ne peuvent en aucune manière interagir ni même communiquer. (Bien sûr, ça n'interdit pas à un auteur de fiction de présenter deux histoires se déroulant dans deux mondes différents, peut-être en alternance, même si ces histoires n'ont aucune interaction l'une avec l'autre : peut-être qu'elles s'éclairent mutuellement, peut-être qu'elles évoquent les mêmes thèmes, peut-être qu'il y a une symétrie narrative entre elles, d'ailleurs je vais revenir là-dessus plus bas, bref, il peut tout à fait y avoir des raisons de faire appel à des univers parallèles en fiction même s'ils ne peuvent ni interagir ni communiquer ; mais ce n'est pas vraiment ça qu'on a en tête quand on utilise le terme de multivers.)

Disons donc qu'on parle d'univers différents entre lesquels il est possible de voyager, ou du moins, de communiquer. Ou peut-être que seulement quelques personnages ont cette capacité. La manière dont se fait cette interaction ou ce voyage entre univers plus-si-parallèles-que-ça a fait l'objet de toutes sortes d'explorations dans la fiction (par des portails fixes ou crées, par des gadgets du type machine à remonter le temps, par des rituels magiques, par les rêves, par une forme de télépathie…). Laissons ça de côté au moins pour l'instant. Laissons aussi de côté la question de savoir si les différents univers ont les mêmes lois naturelles (différant alors juste par leur contenu), ou des lois analogues, ou si tout est permis. Mais une autre question est de savoir combien il existe de ces univers.

Il existe évidemment quantité d'œuvres de fiction qui postulent l'existence de mondes parallèles (je ne peux que renvoyer à TVTropes pour plein de sous-catégories et d'exemples), et à la limite toute histoire de fiction qui n'est pas simplement de l'Histoire avec un grand H postule l'existence d'un monde parallèle au nôtre, mais bon, je parle de mondes qui peuvent interagir autrement qu'en étant une fiction l'un dans l'autre. Assez souvent il y a juste un univers alternatif (en plus de l'univers principal où se déroule l'histoire, qui peut lui-même être censé être le nôtre ou pas), ou simplement un nombre « petit », c'est-à-dire assez petit pour qu'on puisse en faire le tour. Peut-être qu'ils sont arrangés selon un schéma mystique, par exemple 4 univers (un pour chaque élément ?) ou 7 ou 12 ou quelque chose comme ça. Je n'ai pas vraiment de problème avec cette forme de mondes parallèles, mais je sais pas si ça compte vraiment comme multivers. Faut-il dire, par exemple, que dans la série Narnia de C. S. Lewis, Narnia est un univers parallèle au nôtre ? ou juste un pays magique ? (il y a des éléments de multivers dans le roman The Magician's Nephew de la série quand les personnages découvrent le bois-d'entre-les-mondes qui est une sorte de monde d'où on peut atteindre les autres mondes, qui est une forme assez courante du concept de multivers dans la fiction). Dans le jeu de rôle Dungeons & Dragons, il est question de plans d'existence et pas d'univers, et même si la porte est ouverte à une infinité de plans, il n'y a qu'un nombre raisonnablement petit de plans décrits dans le Manual of the Planes. (Plans intérieurs correspondant aux éléments classiques, plans extérieurs correspondant à des formes d'« alignement » moral, et des plans comme le plan éthéré et le plan astral qui servent à voyager entre eux. Mais évidemment, dès qu'on met des limites comme ça, cela peut inciter à se demander si tout cet univers, avec son nombre fini de plans d'existence, peut lui-même admettre des univers parallèles au sein d'un multivers : donc on n'a fait que repousser le problème d'un cran.)

Mais souvent le multivers fictionnel est décrit, ou impliqué de façon plus ou moins claire, comme regroupant non pas un petit nombre d'univers bien définis, mais toutes les possibilités imaginables (parfois on nous dit explicitement qu'à chaque fois qu'un choix est fait dans l'univers, il y a un autre univers dans le multivers où l'autre choix a été fait). Conceptuellement c'est peut-être plus simple (cela évite de se demander pourquoi seulement ces 4, 7, 12 ou 1729 univers précis existent : il est plus simple de dire tout existe) et cela se rapproche plus de ce qui a un sens scientifique (au moins comme abstraction mathématique, cf. ce que je disais sur l'espace des phases). Mais cela pose d'immense problèmes pour la cohérence et l'intérêt narratifs.

Un problème fréquent que j'ai avec ce type de multivers, qui est peut-être plus un problème dans ma suspension d'incrédulité que dans le concept lui-même, a à voir avec le fait que les auteurs ne se rendent pas vraiment compte à quel point toutes les possibilités imaginables est immense. Par exemple, dans un des deux films désignés ci-dessus, les personnages viennent de l'univers 616 et voyagent vers l'univers 838 : alors soit on est en train de nous dire que trois chiffres décimaux suffisent à désigner un univers parmi toutes les possibilités imaginables, auquel cas on a vraiment un problème de manque d'imagination, soit c'est juste une numérotation dans l'ordre dans lequel ils ont été découverts, auquel cas celui des gens qui ont fait la numérotation devrait certainement s'appeler 1 (ou, s'ils ont meilleur goût, 0), parce qu'ils auront commencé par là. (Je suis peut-être bizarre, mais ce genre de choses dérange beaucoup plus que d'imaginer des gens qui volent ou jettent des sorts.) Mais plus largement qu'un problème de numérotation : si vous voyagez dans un univers un peu au pif, alors avec une probabilité absolument écrasante vous devriez aboutir soit dans un univers absolument mort et sans intérêt (et certainement sans aucune forme de vie), soit, si l'idée est qu'on voyage dans un univers « adjacent », un univers ressemblant tellement au nôtre qu'on ne verra pas la moindre différence avant des milliards d'années. Le fait de tomber dans un univers intéressant est quelque chose d'extraordinairement improbable selon toute notion raisonnable, et mérite au moins une tentative d'explication interne (la plus naturelle étant quelque chose comme : le personnage qui a le pouvoir de voyager entre les univers a une sorte d'instinct pour ces choses et donc les découvre naturellement ; c'est d'ailleurs l'explication qui est plus ou moins confusément faite dans l'un ou l'autre, voire les deux, des deux films évoqués ci-dessus).

Mais a priori il faut se dire que si l'œuvre de fiction nous dit que le multivers recouvre toutes les possibilités et nous montre un personnage en train de passer de l'univers U à l'univers V, alors en même temps, des milliards de milliards de personnages quasi identiques venant d'univers U′ quasi identiques à U vont voyager vers des univers V′ quasi identiques à V. Et en fait, si toutes les possibilités sont censées se produire, il devrait y avoir plein de U′ pour lesquels le personnage va arriver en V, donc à chaque fois qu'on change d'univers, ou d'ailleurs même quand on ne fait pas, on devrait voir une infinité de gens qui arrivent d'une infinité d'univers différents possibles et qui ont décidé de venir ici : le simple fait de ne pas voir tous les humains possibles se matérialiser simultanément dans mon bureau au moment où je parle semble prouver que le voyage entre univers n'est pas possible, ou alors que le multivers ne peut pas correspondre à tous les univers imaginables.

C'est même pire que ça : si j'appelle κ le nombre d'univers dans le multivers (cardinal infini), alors si on suppose qu'il est logiquement possible à chaque instant de voyager dans n'importe quel autre univers, on doit avoir κ ≥ 2ℵ₀ × κ (parce qu'il y a 2ℵ₀ instants où on peut sauter dans un des κ univers), ce qui revient à κ ≥ 2ℵ₀, et pour peu que deux sauts soient logiquement possibles, il devrait y avoir κ personnes qui se matérialisent à chaque instant dans n'importe quel univers donné. Pire, si on suppose qu'un univers permet de faire arbitrairement un saut quelconque à chaque instant du temps, c'est même κκ2ℵ₀ qu'on a (pour le choix d'un univers destination de saut à chaque instant du temps), ce qui implique κ ≥ 22ℵ₀, et on a plus-que-le-continuum de gens qui doivent apparaître.

Admettons que je passe sur ce problème. Il y a un problème plus profond qui est obligatoirement soulevé dès qu'on parle de multivers :

☞ Si toutes les possibilités arrivent quelque part dans le multivers, pourquoi devrions-nous nous intéresser particulièrement à celle qu'on nous raconte ? Pourquoi devrions-nous nous réjouir que les héros aient réussi à triompher de telle ou telle épreuve alors qu'il résulte de la prémisse que, dans un univers parallèle pas loin, ils ont échoué ? La simple existence du multivers ne rend-elle pas toute intrigue dénuée d'intérêt ?

Ce qui est notable avec le film Everything Everywhere All at Once, c'est qu'il reconnaît ce problème : c'est même plus ou moins le cœur de l'intrigue. Je ne sais pas si la réponse apportée est très satisfaisante (ni très compréhensible, en fait), mais comme je le dis plus haut, j'ai plutôt aimé dans l'ensemble, et en tout cas, c'est intéressant que la question soit abordée.

Parce que beaucoup de fictions impliquant un multivers, il me semble, et en tout cas certainement le Dr. Strange évoqué plus haut, ne se gênent pas pour nous montrer une dévastation causée dans d'autres univers (parfois même assez directement liée aux actions des héros), pas juste quelque chose d'un peu abstrait comme « quelque part dans un autre univers les choses se sont mal passées » mais dans des scènes qu'on nous montre, il peut y avoir des univers entier qui sont détruits, des groupes entiers de super-héros qu'on est censé apprécier (i.e., dont on est censé apprécier les correspondants) qui meurent comme des mouches, mais puisque ça se passe bien dans l'univers arbitrairement choisi comme point de départ… I guess it's all right? J'ai un peu du mal à adhérer à ça.

Bref, j'ai tendance à trouver que le multivers est un piège narratif : dès que vous le faites apparaître dans une fiction, cela condamne cette fiction à la médiocrité, ou du moins, il va falloir beaucoup plus de talent pour la sortir de la médiocrité qu'il n'en faudrait sans. (Et le pire, c'est quand on fait intervenir le multivers pour rétrocorriger des problèmes passés à coup de ah oui mais en fait ça ça s'est passé dans un autre univers.) C'est déjà le cas du voyage dans le temps polychronique, et j'ai expliqué que le voyage dans le temps polychronique est essentiellement équivalent à un voyage dans le multivers, mais les choses ont tendance à être encore plus mal gérées dès que le mot multivers est utilisé. La forme qui me semble sans doute narrativement la moins nocive de multivers consiste à imaginer quelques univers coïncidant avec l'univers de référence jusqu'à un certain point, et qui en divergent après ce point (i.e., des uchronies, mais qui peut-être arrivent à communiquer ou interagir de façon limitée).

Mais il y a encore une idée fréquente autour du concept de multivers (ou d'ailleurs de voyage dans le temps) dans la fiction qu'il faut que j'évoque, et dont je n'arrive pas bien à décider si je la trouve fascinante, amusante ou horripilante, et qui est en tout cas bien ancrée dans le genre, c'est le postulat plus ou moins explicite que les gens — ou parfois d'autres concepts ou objets — qui existent dans un univers donné ont (peut-être pas systématiquement, mais au moins souvent) des « équivalents » dans d'autres univers. C'est par exemple assez central aux deux films que j'ai cités, et il me semble que c'est extrêmement répandu.

Ce que je veux dire, c'est qu'on aime bien imaginer que dans un univers parallèle, même un univers qui postule un changement assez profond et radical du fonctionnement même de la nature (par exemple un univers parallèle où la magie existe mais la physique fait partie de l'ésotérisme), il y a quand même quelque chose d'analogue à tel ou tel personnage de l'univers de référence (ou du nôtre), ou d'analogue à telle ou telle ville, telle ou telle œuvre d'art, ou autre objet identifiable. Même si Shakespeare est un personnage de fiction, ou Isaac Newton était archevêque de Cantorbéry, il reste qu'« il y a » un Shakespeare, et « il y a » un Newton. Et si notre héros décide de voyager dans un univers parallèle, il va souvent découvrir que dans cet univers parallèle « il y a » un personnage qui lui correspond, peut-être que ce personnage est déjà mort, ou qu'il a une occupation complètement différente, ou (ce qui me semble plus logique mais est rarement utilisé) qu'il est lui-même parti voyager dans encore un autre univers parallèle (ou peut-être celui dont le héros original vient), mais toujours est-il qu'il y a un correspondant, un analogue, un pendant, du héros dans l'univers parallèle.

Tout ça est par exemple assez bien développé et explicité dans le roman The End of Eternity d'Isaac Asimov (au sujet du voyage dans le temps), mais ce n'est sans doute pas le seul : je n'en dis pas plus pour ne pas divulgâcher, mais c'est assurément un roman à lire si on veut réfléchir autour du concept de voyage dans le temps et/ou d'altérations de la réalité.

Parfois, les personnages « équivalents » à un personnage donné dans les différents mondes possibles peuvent se rencontrer et se parler (voire s'aider ou se combattre) ; parfois ils se confondent plus ou moins, peut-être par exemple que quand un personnage voyage entre les mondes il « devient » son alter ego dans l'autre monde ; parfois les choses sont très confuses et on ne sait pas ce qui vaut.

Ce genre de correspondance symbolique, même si elle n'est pas rendue explicite, est intéressant du point de vue narratif, c'est un jeu littéraire extrêmement fécond. (Par exemple, j'aime bien l'idée, qui a certainement été exploitée de toutes sortes de manières — on peut dire que The Hours de Michael Cunningham est un peu comme ça, et j'avais moi-même plusieurs fois pensé écrire un roman dans ce genre —, d'avoir plusieurs histoires qui s'entremêlent sans vraiment interagir, des histoires qui se déroulent à des moments différents ou même dans des univers différents, peut-être dans des genres complètement différents, des histoires qui, sans directement s'impacter l'une l'autre, s'éclairent l'une l'autre simplement parce qu'on sent bien qu'un certain personnage dans une histoire « correspond » à un certain personnage dans l'autre. Par exemple, on peut imaginer un roman où un chapitre sur trois serait dans un monde médiéval-fantastique, un chapitre sur trois dans un univers proche du nôtre, et un chapitre sur trois dans un univers de science-fiction, et qui raconte en fait la même histoire dans trois versions différentes, mais où chaque scène est décrite uniquement dans un des trois cadres, laissant le lecteur deviner ce qui s'est passé dans les deux autres, sur la base des correspondances qu'on doit voir entre eux.)

Et c'est aussi sans doute notre mode de pensée des mondes possibles ou hypothétiques. Il y a un article assez intéressant de Douglas Hofstadter quelque part où il s'interroge sur le sens que nous donnons aux affirmations conditionnelles : j'avais aussi évoqué le sujet ici avec des exemples plus ou moins rigolos de conditionnelles ; reprenons cet exemple que cite Hofstadter : quelqu'un avait (sérieusement) écrit quelque part que si Léonard de Vinci avait été une femme, le plafond de la chapelle Sixtine n'aurait sans doute jamais été peint, et quelqu'un d'autre a répondu de façon humoristique que si Michel-Ange avait été des frères siamois, le travail aurait été fini deux fois plus vite !. Est-ce que ces phrases conditionnelles ont le moindre sens et ont une valeur de vérité ? Nous sommes capables mentalement de construire un univers parallèle dans lequel Léonard de Vinci est une femme, et d'imaginer quel impact cela peut avoir sur la vie de Michel-Ange, ce qui sous-entend qu'il existe dans cet univers une personne que nous identifions à Michel-Ange : qu'on arrive à modifier un certain paramètre de notre univers (le sexe de Léonard de Vinci) mais garder constante l'identité de Michel-Ange.

Scientifiquement, cela pose un grave problème : si on considère un univers qui diverge du nôtre vers 1451 ou 1452, de manière à avoir un Léonard de Vinci féminin (ou du moins, de manière à ce que les parents de Léonard de Vinci aient une fille à cette date-là, qu'on peut peut-être considérer comme l'analogue de Léonard de Vinci), a priori, toute la suite de l'histoire de l'Univers va différer de façon plus ou moins aléatoire. Et notamment, toutes les personnes nées après 1452 (enfin disons 1453 voire 1454 pour prendre un peu de marge) devraient selon toute probabilité être remplacées par des gens différents, qui n'ont pas grand rapport, parce qu'au moment de leur conception c'est probablement un spermatozoïde différent qui va féconder l'ovule dont ils seraient nés. Donc a priori, Michel-Ange n'existe tout simplement pas, il y a peut-être quelqu'un qui est né en 1475 des parents de Michel-Ange (qui, eux, existaient peut-être bien parce qu'il est possible qu'ils soient nés avant 1452), mais il ou elle n'a pas plus de raison de ressembler au Michel-Ange de notre monde que n'importe quel frère ou sœur.

(Évidemment, rien n'interdit de rechercher, dans l'espace de tous les mondes possibles, un monde dans lequel Léonard de Vinci serait remplacé par une femme, mais où toutes les autres naissances qui ont lieu après donnent quand même un résultat extrêmement proche de celui que nous avons dans notre monde, ou du moins, qui peut être considéré comme analogue. On peut toujours imaginer ce qu'on veut, mais il est difficile de prétendre que c'est un résultat « typique » d'un changement dans le passé vers 1451. C'est un peu la même chose qu'avec mes univers U′ versus U″ dans la longue digression plus haut.)

[Ajout / digression : concernant les conditionnelles, j'ai lancé un petit sondage Twitter (résultats à venir dans une semaine) pour demander de juger si différentes affirmations conditionnelles de la plus sérieuse à la plus farfelue sont vraies, fausses, incertaines ou dénuées de sens.]

Ajout : Sean Carroll vient de publier dans BigThink une note intitulée The power of regret fuels our love of the Multiverse où il fait justement ce lien entre le multivers des mondes possibles dans notre imagination, et notre capacité à regretter ou à envisager des affirmations conditionnelles (cf. les exemples liés depuis l'ajout juste au-dessus).

Bref, je ne sais pas quoi penser de tout ça. Mais je pense au minimum que tout auteur qui veut faire quelque chose avec un multivers devrait se demander un peu sérieusement quelles sont les règles, quelles sont les possibilités de variations entre les univers, ce que ça veut dire que tel ou tel personnage « corresponde » à un autre dans un autre univers et quel effet ça a, etc., si on ne veut pas que ça ressemble un un vaste gloubi-boulga dans lequel on peut se tirer de toute difficulté en changeant d'univers.

Ce qui est amusant, c'est qu'au final, la morale de beaucoup d'histoires de voyage dans le multivers, comme de voyages dans le temps, c'est souvent en fait, on n'aurait pas dû (quand on cherche à changer le passé on découvre que ça ne fait qu'empirer les choses, quand on cherche à trouver un monde meilleur on découvre qu'ils ont tous un problème et l'enjeu devient de retrouver le monde de départ, en mode there's no place like home, etc.). On en vient presque à se dire que c'est une forme de repentir des auteurs qui ont introduit le gadget « multivers » dans leurs fictions sans avoir réfléchi aux règles précises qu'ils voulaient lui donner, ni aux conséquences que ces règles entraînent.

Bref, pour refaire la même blague que je fais à chaque fois, les enfants, arrêtez de voyager entre univers parallèles, sinon vous allez vous retrouver dans un monde où, parce que Léonard de Vinci était une femme, Isabelle de Castille aura décidé de ne pas financer l'expédition de Christophe Colomb vers le Nouveau Monde, celui-ci aura été atteint en premier par Amerigo Vespucci, et du coup il portera un nom complètement ridicule comme Amérique.

↑Entry #2730 [older| permalink|newer] / ↑Entrée #2730 [précédente| permalien|suivante] ↑

↓Entry #2729 [older| permalink|newer] / ↓Entrée #2729 [précédente| permalien|suivante] ↓

(dimanche)

La sécheresse 2022 est-elle le résultat du changement climatique ou d'une anomalie ponctuelle ?

Avant de parler du sujet de ce billet, je commence par une longue digression pour revenir sur la question des données météo (ouvertes) dont j'ai parlé récemment (si ceci ne vous intéresse pas, sautez directement après le symbole ‘♠’ ci-dessous). Comme je le dit dans une mise à jour (écrite il y a quelques jours) que j'ai ajoutée à la fin du bilet que je viens de lier, la meilleure source de données météo ouvertes de stations météorologiques individuelles que j'ai trouvée jusqu'à présent est celle distribuée par le European Climate Assessment & Dataset (ECAD) : en allant dans l'onglet Daily data, on trouve des données météorologiques à fréquence quotidienne pour toutes sortes de variables et toutes sortes de stations météo en Europe. Voilà qui est très bien, et exactement le genre de choses que je voulais.

Mais pas exactement non plus.

Parce qu'il y a une chose qui demeure curieuse : pour la France, on y trouve seulement une poignée de stations, dont la plus proche de Paris est la station d'Orly (ici, techniquement sur la commune d'Athis-Mons, mais on dit Orly parce que c'est celle de l'aéroport de ce nom). Or la station météo de référence pour Paris (peut-être pas la seule, mais sans doute la plus ancienne), c'est celle située dans le parc Montsouris (ici). Pas que je tienne spécialement à avoir les données ici plutôt que là, mais la station de Paris-Montsouris a des relevés qui remontent au moins à 1900, alors que celle d'Orly n'en a que depuis 1947, et comme je voudrais avoir une série aussi longue que possible et aussi homogène que possible, je veux celle de Montsouris. Et puis je voudrais comprendre ce qui se passe : je trouvais bizarre que l'ECAD ait accès aux données d'Orly mais pas de Paris-Montsouris et encore plus bizarre parce que (comme je le disais aussi dans l'addendum à la fin de cette même entrée) on trouve en téléchargement depuis cette page Meteo-Paris.com de vieux fichiers de données qui manifestement viennent de l'ECAD et qui sont pour la station de Paris-Montsouris (mais ils ne vont que jusqu'à fin septembre 2008). Quelle est cette diablerie ?

J'ai donc écrit à l'équipe du KNMI qui gère l'ECAD pour leur demander des explications, et ils m'ont répondu que Météo France ne leur communiquait initialement les données que pour un nombre restreint de stations (dont celle de Paris-Montsouris), et que les fichiers trouvables chez Meteo-Paris.com datent de cette époque, mais qu'ils (Météo France) ont ensuite beaucoup augmenté ce nombre de stations transmises, et en « contrepartie » ont explicitement demandé que seul une poignée de ces stations soient marquées comme téléchargeables, c'est-à-dire pour lesquelles on peut télécharger les données quotidiennes, et ce petit ensemble n'inclut pas celle de Paris-Montsouris. Bref, l'ECAD les a, mais on n'y a plus accès. (Et du coup, je me retrouve avec les données de Paris-Montsouris seulement jusqu'à 2008, et celles d'Orly depuis 1947, ce qui n'est pas mal, mais ça ne fait quand même pas une série longue et complète.)

Tout ceci n'a aucun sens. D'abord, il est à la fois absurde, mesquin et contraire à leur mission d'information pour Météo France de restreindre l'accès à des données d'observation collectées avec l'argent du contribuable français. (En plus, c'est particulièrement mesquin de ne pas avoir mis la station de Paris-Montsouris dans la liste des stations téléchargeables alors qu'elle l'était auparavant.) Je ne sais pas pourquoi ils font ça (peut-être espèrent-ils vendre les données ? mais qui voudrait acheter des vieux relevés météo ?), je ne sais pas qui est le connard qui a pris cette décision, mais je constate qu'en Allemagne, (quasiment) toutes les stations météo sont marquées comme téléchargeables. Mais en fait, rien ne tient vraiment debout dans cette histoire, parce que plein de gens semblent quand même avoir accès à ces données de Paris-Montsouris et qui les diffusent (sous des formats peu exploitables) : Infoclimat.fr, par exemple, ou Meteociel.fr ou même un compte Twitter pour cette foutue station : d'où ces gens tirent-ils ces données, à la fin, si elles ne sont pas diffusées publiquement par Météo France ? Quelles sont leurs sources ? Quels sont leurs réseaux ? Je n'y compris rien.

De toute façon, si je comprends bien le droit d'accès aux documents administratifs (et que j'ai raison de penser que Météo France, pour l'accès aux documents administratifs est assimilé à une administration), ils ont l'obligation de communiquer ces données à qui en fait la demande (et gratuitement ; et il y a même une exigence renforcée en matière de données environnementales dont l'état de l'atmosphère fait partie), donc ne pas permettre à l'ECAD de rediffuser ces données qu'ils (Météo France) doit légalement fournir à qui les demande est simplement absurde.

J'ai vraiment envie de foutre des baffes à des gens chez Météo France, là.

Mais faute de baffes, je vais leur envoyer une demande d'accès aux données, dont voici un brouillon que vous êtes encouragés à relire avant que je l'envoie, surtout si vous avez des connaissances juridiques. (Je pense notamment au long paragraphe qui dit en creux vous êtes des sales connards de ne pas avoir autorisé l'ECAD à republier ces données, alors je vais vous emmerder en vous les demandant tous les six mois jusqu'à ce que vous changiez de politique à ce sujet, mais j'essaie de le dire de façon un peu plus conciliante que ce que je pense très fort : je ne sais pas si c'est optimal pour maximiser la probabilité que j'obtienne ce que je veux.) Il faut aussi voir s'ils peuvent m'empêcher de les rediffuser ensuite, mais manifestement ils ne sont même pas très cohérents dans leur désir de non-rediffusion vu qu'il y a ce compte sur Twitter (lié ci-dessus) qui les obtient je ne sais comment et les diffuse en temps réel.

Bref.

Bref, c'est en fouillant pour trouver ces données météo, et notamment du côté du KNMI que j'ai découvert l'existence de ce gadget fabuleux qu'est le Climate Explorer and Climate Change Atlas, qui est un site interactif permettant de calculer des cartes et des graphes (ou d'extraire des données) pour représenter le changement climatique (soit à partir d'observations soit à partir de modèles) : voir ce fil Twitter et celui-ci, mais aussi la suite de cette entrée, pour quelques exemples de ce qu'il permet de faire.

(Les cartes et graphes des tweets que je viens de lier, ainsi que ceux ci-dessous, sont tirés du modèle ERA5 du European Centre for Medium-Range Weather Forecasts, qui est une réanalyse du climat passé, c'est-à-dire qu'on fait tourner des modèles sur les observations réelles pour obtenir quelque chose de cohérent à l'échelle de la Terre entière, avec une résolution de quelque chose comme 30km en surface et 1h dans le temps, en l'occurrence depuis 1950 ou 1959 ou 1978 je n'ai pas bien compris ce qui change à ces dates. En un certain sens, c'est mieux que des observations locales, parce qu'on peut demander des valeurs n'importe où, et ce sera beaucoup moins bruité ; en revanche, c'est plus limité dans le temps, ce qui explique que je veux quand même me battre pour obtenir mes relevés à Paris-Montsouris.)

Tout ceci m'a amené à me poser la question suivante (j'en viens enfin au sujet de cette entrée) :

La France et les pays voisins connaissent actuellement une sécheresse exceptionnelle en même temps qu'une série de canicules. J'entends beaucoup de gens dire que « c'est » le changement climatique, qu'« un cap » a été franchi (ou « un point de non-retour »). Mais est-ce vraiment le cas ? Autrement dit, cette sécheresse 2022 et plus généralement le caractère exceptionnel de cette année doit-elle se concevoir comme une étape de plus dans un changement climatique, ou comme une anomalie, ou comme une combinaison des deux ? D'ailleurs, est-ce vraiment une année si exceptionnelle ? J'ai voulu essayer d'y voir plus clair : je ne prétends pas avoir réussi, mais j'ai au moins fait joujou avec des graphiques.

Ce qui est sûr (et peut-être justement ce qui est dramatique, comme dans l'histoire — largement inventée — de la grenouille qu'on fait bouillir progressivement) c'est que le changement climatique est quelque chose de graduel. Malgré l'existence de points de bascule où le changement s'accélère si certains mécanismes de rétroaction positive se mettent en route, il n'y a pas de discontinuité à prévoir : il reste un phénomène graduel. (Enfin, graduel à l'échelle de quelques années ou décennies, entendons-nous bien : à l'échelle géologique, ça reste inimaginablement rapide, j'avais déjà évoqué le fait que le changement actuel est entre dix et cent fois plus rapide que celui déjà très soudain qui s'est opéré à la frontière paléocène-éocène.) Il peut y avoir accélération, mais il est évident qu'il ne peut pas y avoir eu un changement climatique important entre 2021 et 2022. En même temps, tous ces phénomènes sont extrêmement bruités : le climat, c'est une tendance à long terme à laquelle s'additionnent des variations météo aléatoires extrêmement importantes au niveau de l'heure, de la journée et de la saison, ce qui rend la lecture de la tendance à long terme très difficile : il faut faire des statistiques sur des intervalles très longs, et ce n'est pas toujours possible (d'autant que le phénomène peut lui-même changer dans l'intervalle).

Évidemment, un changement à long terme peut avoir rendu seulement improbable un événement qui était quasi-impossible, et probable un événement qui était improbable. (Toutefois, ces probabilités évolueront tout de même graduellement.) En outre, la distribution de n'importe quelle variable météo n'évolue pas forcément comme une simple translation : le changement à long terme peut concevablement aussi affecter la distribution, c'est-à-dire augmenter la variance ou la forme de la queue de la distribution, c'est ce que j'avais essayé de dire dans mon billet sur les événements extrêmes sans pour autant arriver à y voir clair (ni à m'exprimer clairement).

Mais on peut malgré tout essayer de séparer une tendance à long terme, dont l'expression la plus simple est une régression linéaire dans le temps sur un intervalle assez long, et des écarts par rapport à cette tendance (et se demander si l'écart 2022 est particulièrement remarquable). C'est ce que j'ai tenté de faire ci-dessous.

Rappelons en tout cas que si l'impact du changement climatique sur la température est indiscutable (et se traduit par une augmentation presque partout sur la Terre, pas à la même vitesse partout, mais l'Europe est, après l'Arctique, un des endroits qui se réchauffe le plus vite), celui sur les précipitations (et autres aspects du cycle de l'eau, comme la sécheresse) est plus complexe. J'avais mentionné dans mon entrée sur les événements extrêmes (lien précédent) le rapport du projet DRIAS pour la France métropolitaine (bâti au-dessus des modélisations du GIEC pour le monde) qui conclut pour la France à plus de pluies en hiver et plus de sécheresse en été, mais avec une incertitude considérable sur tous ces phénomènes (beaucoup plus que sur les températures), si bien qu'on ne peut même pas vraiment conclure si le total de précipitation sur l'année sera augmenté ou diminué (le modèle est plutôt favorable à une augmentation du total, mais les marges d'erreur sont énormes) ; et ces évolutions ne doivent, selon ce modèle, être vraiment sensibles qu'à l'horizon fin de siècle (voir notamment pages 60–63 du rapport). Bon, ça c'est pour les modèles : maintenant, qu'en est-il des observations ?

Pour essayer de préciser un peu les choses, et espérer à séparer tendance à long terme et anomalie de l'année, j'ai calculé les cinq graphes suivants (cliquer sur chacun pour le zoomer), qui représentent cinq variables météorologiques importantes moyennées de janvier à juillet, et que je vais à présent commenter et expliquer :

[Graphe de température (°C) en France moyennes janv–juil par année][Graphe de précipitation (mm/j) en France moyennes janv–juil par année][Graphe de différence P−E (mm/j) en France moyennes janv–juil par année][Graphe de rayonnement solaire (W/m²) en France moyennes janv–juil par année][Graphe de pression atmosphérique (hPa) en France moyennes janv–juil par année]

Il y a cinq graphiques, tous construits selon le même système, pour cinq variables météorologiques. Le premier est celui de la température moyenne de l'air au niveau du sol, le second celui du cumul de précipitations, le troisième (très semblable) est celui de la différence précipitation moins évaporation, le quatrième celui du rayonnement solaire reçu au niveau du sol, et le cinquième celui de la pression atmosphérique ramenée au niveau de la mer. (Les variables font partie de la réanalyse ERA5, cf. plus haut, et je ne sais pas exactement leur définition, par exemple je ne sais pas exactement ce qui est compté comme rayonnement solaire, par exemple.) À chaque fois, il s'agit de moyennes prises sur la France métropolitaine, et sur les mois de janvier à juillet (uniquement ; je vais y revenir), pour les années représentées en abscisses.

Sur chaque graphique, la courbe brisée en marron représente les valeurs réelles observées (pour la variable en question) de 1950 à 2022. La droite médiane en tirets bleus représente la régression linéaire de ces valeurs sur cet intervalle (i.e., la droite qui approche le mieux les observations réelles). Les deux lignes en pointillés bleus de part et d'autre de cette droite de régression donnent l'intervalle d'un écart-type des écarts résiduel : c'est-à-dire concrètement que, si on fait l'hypothèse que la variable se modélise par une tendance linéaire à long terme plus un bruit gaussien, alors 68% des valeurs devraient être entre ces deux droites pointillées.

La valeur pour 2022 a été représentée par un gros point à droite, à la fois de l'observation réelle (point marron) et pour la régression (point bleu) : si on veut, le point marron est la valeur réelle de la variable pour cette année, et le point bleu est la valeur moyenne attendue selon la tendance à long terme tracée. Les valeurs de ces deux points, ainsi que l'équation de la régression sont indiquées en bas. Pour simplifier les comparaisons d'année en année, j'ai aussi tracé une droite en pointillés gris de même pente que la régression linéaire, mais passant par la valeur réelle pour 2022 (i.e., toute valeur située au-delà de cette droite en pointillés gris est « plus exceptionnelle » que 2022 pour la variable considérée).

L'idée est donc que la droite bleue donne la tendance à long terme (le changement climatique observé en moyenne sur 1950–2022), et l'écart à celle-ci permet de voir le caractère plus ou moins exceptionnel d'une année ponctuelle ; le point bleu indique ce que serait une année normale pour 2022 compte tenu du changement climatique, et le point marron indique ce qui a vraiment été observé.

Pourquoi ai-je moyenné seulement les mois de janvier à juillet ? On peut m'accuser de faire du cherry-picking de mes données, là, donc je m'explique un peu. Évidemment, je n'ai pas encore les données pour août 2022 ; j'aurais pu prendre des années allant d'août à juillet pour avoir des années complètes (et l'année d'août 2021 à juillet 2022 apparaît alors comme nettement plus normale), mais ça me semblait tout aussi discutable de regrouper la fin de l'été 2021 avec le début de l'été 2022 juste pour avoir des années complètes : on cherche à étudier un phénomène particulier qui est en cours, pas un intervalle d'un an se terminant maintenant. J'ai choisi de prendre janvier à juillet parce que j'ai vu des météorologistes le faire, et affirmer que c'est vers janvier que l'anomalie a commencé. (Et après tout, pourquoi pas : en plus de coller avec le début de l'année civile, ça regroupe deux mois d'hiver météorologique et deux mois d'été météorologique autour du printemps.) J'insiste sur le fait que tous les points de données sur ces graphiques sont, à chaque fois, de janvier à juillet, ce qui permet les comparaisons entre années (mais bien sûr, ça veut dire que s'il y a eu un mois de novembre exceptionnel une année, il n'apparaîtra nulle part).

Pour ceux qui veulent reproduire mes graphiques, voici comment s'y prendre : aller sur le Climate Change Atlas, et choisir les réglages suivants dans le formulaire : type = countries ; country = France metropolitan ; season = jan + 7 months ; dataset = ERA5 reanalysis ; variable ∈ {near-surface temperature, precipitation, P−E, net solar radiation at the surface, air pressure at sealevel} ; output = time series. Il va tracer et montrer un graphique sur l'intervalle 1979–2022, mais si on clique ensuite sur all data en petits caractères au-dessus du graphique, on télécharge un zip contenant un fichier de données qui, lui, remonte à 1950. Ces fichiers zip s'appellent : time_era5_msl_France_metropolitan_mon1_ave7_dump0.txt, time_era5_pme_France_metropolitan_mon1_ave7_dump0.txt, time_era5_ssr_France_metropolitan_mon1_ave7_dump0.txt, time_era5_t2m_France_metropolitan_mon1_ave7_dump0.txt, time_era5_tp_France_metropolitan_mon1_ave7_dump0.txt. Une fois qu'on les a sauvegardés quelque part, on peut utiliser le script shell (faisant appel à Gnuplot) que j'ai mis ici pour générer les fichiers (oui, tout ça est assez dégueulasse). C'est Gnuplot qui fait le calcul des régressions linéaires.

Maintenant, que faut-il en conclure ? Ce n'est pas terriblement clair, et j'ai rerédigé à peu près douze fois ce qui suit, donc peut-être que je devrais juste dire je n'en sais rien <U+1F937 SHRUG> et laisser la personne qui me lit conclure d'elle-même. Mais essayons quand même un peu.

Clairement, toutes les variables représentées ci-dessus ne sont pas au même niveau. Sur la température, il y a un changement qui se voit très nettement. La tendance observée sur l'intervalle 1950–2022 (janvier à juillet, donc) est même de 2.65° par siècle, ce qui est plus rapide que la valeur globale, mais c'est un fait connu que les terres émergées se réchauffent plus vite que le reste, et l'Europe particulièrement vite. (Voir la première carte de ce tweet ; voir aussi les graphes de ce tweet pour des régressions saison par saison. Noter qu'il y a une accélération de la tendance, et sur la période 1979–2022, ma régression donne carrément 4.80° par siècle pour les mois de janvier à juillet. Mais je vais me contenter d'une régression linéaire.)

Il y a aussi une tendance à long terme significative sur l'ensoleillement (représenté ici par le rayonnement solaire reçu), de 11.3W/m²/siècle. Si je me restreins à la période 1979–2022 (voir la troisième carte du même tweet que ci-dessus), la tendance est même extrêmement forte et significative, avec 32.8W/m²/siècle. Sur la pression, les choses sont moins claires. Et sur les précipitations, il n'y a essentiellement aucune variation à long terme détectée par régression linéaire.

Une façon d'évaluer le caractère statistiquement significatif d'une une évolution à long terme représentée par une régression linéaire est de faire le rapport entre la pente de la régression linéaire et l'erreur standard σ sur cette dernière (voir sur Wikipédia pour le calcul de celle-ci) : en faisant ce calcul, je trouve une pente de 6.6σ sur la température, 0.35σ et 0.25σ sur les précipitations et la différence P−E, ainsi que 3.1σ sur le rayonnement solaire, et 2.0σ sur la pression. Il y a donc une évolution statistiquement significative de la température et du rayonnement solaire, c'est moins clair pour la pression. et on n'observe pas de changement climatique significatif sur les précipitations (de janvier à juillet, encore une fois). Ça ne veut pas dire qu'il n'y en a pas, encore moins qu'il n'y en aura pas, mais ça signifie qu'à l'heure actuelle le signal est trop bruité pour qu'on puisse conclure. (Bon, en raffinant géographiquement on peut peut-être trouver une évolution vers plus de sécheresse dans l'Est de la France : voir la deuxième carte de ce tweet.)

Maintenant que ces tendances à long terme sont dégagées, on peut chercher à juger le caractère exceptionnel du début d'année 2022 en comparant la valeur des différentes variables à la régression linéaire, i.e., en comparant les points marron et bleu de mes graphiques ; ou en cherchant combien il y a d'autres années aussi exceptionnelles par rapport à la tendance, i.e., qui dépassent de la ligne grise pointillée. Par exemple, au niveau température, le début de 2022 apparaît comme chaud, mais moins exceptionnel que celui de 1961, et autant que celui de 1990, bien que dans l'absolu il soit nettement plus chaud, mais ça c'est la tendance générale au réchauffement.

Au niveau des précipitations (telles quelles ou après soustraction de l'évaporation), comme je l'ai fait observer, de toute façon, la tendance observée depuis 1950 est essentiellement nulle (enfin, constante), donc comparer les écarts à la tendance ou les valeurs elles-mêmes ne change rien. La faiblesse des précipitations est notable, mais comparable à 2011, 2003 et 1953 et 1952, et moins importante qu'en 1976. Il est difficile de savoir quoi penser de l'ensoleillement tant la tendance générale est confuse. Finalement, c'est peut-être par la pression que l'année 2022 est la plus remarquable (la France a connu des blocages anticycloniques répétés qui ont conduit à un temps particulièrement stable), mais si on croit la régression, ça reste moins remarquable que 1990 ou 1992.

Finalement, ce n'est pas si clair ce qui rend l'année 2022 remarquable, ni si on doit vraiment la considérer comme telle. On peut aussi chercher à quantifier le caractère statistiquement exceptionnel en nombre d'écarts-types (résiduels) au-dessus de la droite de régression (i.e., le rapport entre l'écart à la droite de régression de ma droite grise pointillée et des droites bleues pointillées) : je trouve 1.4σ sur la température, 1.5σ et 1.4σ sur les précipitations et la différence P−E, ainsi que 1.7σ sur le rayonnement solaire, et 1.5σ sur la pression. Un écart-type et demi, ce n'est pas une déviation normalement considérée comme exceptionnelle (après tout, 13% des valeurs d'une loi normale soit à ≥1.5σ de distance de sa moyenne). Peut-être que ce qui rend 2022 remarquable, c'est la combinaison d'une anomalie sur chacune de ces variables, mais ce ne sont pas non plus des quantités indépendantes, donc il est difficile de chiffrer ce caractère remarquable.

Bref, il y a bien un effet de changement climatique sur la température et l'ensoleillement (et peut-être la pression), mais il est aussi vrai que cette année est aussi exceptionnelle d'une manière qui ne semble pas vraiment liée au changement climatique, et ce caractère exceptionnel n'est finalement pas statistiquement si remarquable : par rapport à la tendance à long terme, c'est quelque chose comme une année remarquable au sens décennal, mais pas au sens séculaire.

Évidemment la combinaison du réchauffement climatique, d'une année plus chaude que cette tendance (même si ce n'est pas si remarquable), d'une combinaison de hautes pressions et (du coup ? en plus ?) d'un déficit de précipitations peut expliquer une sécheresse particulièrement grave, et c'est bien un des effets du réchauffement climatique que d'aggraver des choses qui ne sont pas forcément liées à lui.

Néanmoins je pense qu'il ne faut pas laisser dire que c'est le changement climatique : au moins, cette affirmation est à nuancer par l'écart de cette année eu égard à ce qu'on attend pour le climat actuel. Le problème si on laisse passer l'idée que voilà, c'est comme ça, on a passé un cap irréversible, maintenant les étés seront tels ou même simplement vous voyez, vous vous moquiez des scientifiques, voyez maintenant la preuve qu'ils avaient raison, c'est que cela donne une fausse image à la fois du changement climatique et de la prévisibilité météorologique, et si les prochains étés sont moins remarquables (et il y a de bonnes chances pour qu'ils le soient), cela peut encourager à penser que le changement ne continue pas, ou qu'on l'a surestimé, ou je ne sais quoi.

Mise à jour () : ce fil Twitter est intéressant et suggère que, du point de vue de la sécheresse hydrologique au moins, c'est vraiment 2022 qui est anormale et pas un effet du changement climatique.

↑Entry #2729 [older| permalink|newer] / ↑Entrée #2729 [précédente| permalien|suivante] ↑

↓Entry #2728 [older| permalink|newer] / ↓Entrée #2728 [précédente| permalien|suivante] ↓

(mardi)

Retour sur ma phobie et fascination des lieux abandonnés

J'avais parlé il y a quelques années du mélange bizarre de phobie et de fascination que j'éprouve pour certains lieux abandonnés, abandonnés ou désertés, que je précisais dans cette entrée par le qualificatif industriels mais je me dis maintenant qu'il est plus un élément amplifiant que déterminant (je donne d'ailleurs des exemples ci-dessous qui n'ont rien d'industriel). Je voudrais revenir un petit peu sur cette sensation, que je crois en fait un peu plus répandue que ce que je m'imaginais alors, même si elle ne prend pas forcément chez tout le monde la forme d'une phobie.

[Image générée par l'IA NightCafé]La nature exacte des lieux qui déclenchent ce sentiment n'est pas bien claire, et son intensité varie beaucoup. (Il en va du même du vertige, avec lequel je vais faire un certain nombre de comparaisons : je suis assez fortement sujet au vertige, mais les endroits qui me donnent le vertige ne sont pas forcément si faciles que ça à prévoir, ni son intensité, et il se peut que j'aie moins le vertige à tel endroit qu'une autre personne alors que j'en aurai plus qu'elle à un autre endroit.) S'agissant de ces lieux abandonnés, il y a plusieurs éléments qui contribuent au phénomène dont je parle : le fait qu'il s'agisse d'un lieu abandonné ou liminal, si possible un peu labyrinthique, soit dont la visite est interdite soit qui est simplement déserté, mais il est aussi pertinent qu'on ait affaire à une construction artificielle en train de tomber en ruines. Je n'ai pas peur de la solitude dans les endroits naturels (enfin, peut-être que si, par exemple j'ai certainement peur des grottes, mais c'est une sensation vraisemblablement différente et sans doute plus rationnelle) ; je n'ai pas non plus peur, disons, de ruines vraiment anciennes, par exemple si ce sont quelques bouts de mur dans un paysage (en fait, je pense que dès qu'il n'y a plus de toit c'est nettement moins effrayant) : c'est sans doute quand l'endroit a été fortement artificialisé par l'homme mais qu'il est en train d'être repris par la nature que la sensation est la plus forte, comme une sorte de vallée de l'étrange entre le naturel et l'artificiel.

L'image ci-dessus ou ci-contre à droite a été générée par le moteur d'intelligence artificielle NightCafé avec l'algorithme cohérent sur la base des prompts creepy abandoned place (poids 1), urban exploration (poids 0.9) et scary (poids 0.5). Je pense qu'il rend assez bien l'ambiance dont je parle.

Et finalement, je pense que la description la plus simple, même si elle n'est pas 100% précise, des lieux qui provoquent cette sensation chez moi est : les lieux d'urbex (= exploration urbaine), i.e., les lieux qui intéressent les urbexeurs, que la Wikipédia en anglais décrit assez bien comme l'exploration de structures artificielles, généralement des ruines abandonnées ou des composantes cachées de l'environnement artificiel — sans doute faudrait-il ajouter quelque chose sur la condition d'être interdit ou difficile d'accès, parce que ce n'est pas de l'urbex si le lieu est officiellement balisé. (Par exemple, visiter le très étrange jardin d'agronomie tropicale René Dumont, qui est ici en bord du bois de Vincennes de Paris, qui regroupe des restes de pavillons, à différents degrés de délabrement et d'abandon, d'une exposition coloniale tenue en 1907, c'est joli et amusant, mais ce n'est pas de l'urbex sauf si on commence à entrer dans les pavillons en principe condamnés au public.)

J'écrivais dans l'entrée précédente sur le sujet et que j'ai liée ci-dessus que je serais a priori intéressé par l'“exploration urbaine”, mais dans les faits, cette sorte de phobie, combinée avec la peur un peu plus rationnelle de me retrouver perdu ou coincé, me l'interdit complètement : je pense qu'il serait plus exact de dire que c'est justement la même sensation qui à la fois me terrifie et me fascine : ce ne sont pas deux sensations différentes en conflit, c'est la même qui m'attire et me repousse à la fois. Le fait d'être fasciné par ses propres peurs n'a rien de spécialement inhabituel ni exotique : c'est un peu le principe des films d'horreurs, je suppose (bon, je suis moi-même complètement hermétique au film d'horreur : je suppose qu'ils me font peur, mais en tout cas ils ne me fascinent pas du tout, mais beaucoup de gens vont les voir parce qu'ils leur font peur, pas en dépit du fait qu'ils leur font peur). C'est aussi le principe qui fait que des gens sujets au vertige aiment — comme c'est mon cas — regarder des vidéos de personnes faisant des choses très vertigogènes (voyez /r/SweatyPalms sur Reddit, par exemple cette vidéo de mouvements style parkour incroyablement dangereux exécutés au sommet de gratte-ciel ; parfois cela tourne un peu au voyeurisme comme dans la vidéo de la mort de Wu Yongning — 吴咏宁 — en 2017, qui avait beaucoup circulé, et que je ne lie pas ici mais qu'on trouvera assez facilement si on aime regarder ce genre de choses).

Je ne sais pas dans quelle mesure les gens qui pratiquent souvent l'urbex (et, mutatis mutandis, les gens qui font les casse-cou en haut de gratte-ciel) n'éprouvent que de la fascination, ou éprouvent aussi ce genre de peurs mais arrivent à les dépasser, ou peut-être n'éprouvent rien de particulier mais savent que d'autres gens sont intéressés parce qu'ils ont le mélange de peur et de fascination dont je parle. Mais je suis maintenant sûr, en tout cas, que ce mélange ne concerne pas que moi (alors que lorsque j'écrivis l'entrée précédente sur le sujet je pensais que c'était une bizarrerie de ma part).

Une preuve en est la popularité qu'a acquis le mème (je ne sais pas comment le qualifier : légende ? mythe ? blague ? trope ? une histoire à laquelle on fait semblant de croire pour se faire peur mais dont fondamentalement tout le monde sait que c'est une histoire à laquelle on fait semblant de croire) apparu en 2019 des « backrooms » (cf. ce que j'en écrivais ici sur Twitter), qui sont censément un monde parallèle formé d'espaces infinis et vides auxquels on accède par accident en prenant une mauvaise porte dans le monde réel. Il y a toute une mythologie factice autour des backrooms (voir par exemple ici), et certains des « niveaux » qui y sont décrits ressemblent beaucoup à, et sont manifestement décrits pour évoquer les mêmes peurs que, les espaces abandonnés dont je parle dans ce billet. (Attention !, si on commence à lire des choses sur les backrooms, comme sur l'urbex réelle, on risque de tomber dans un labyrinthe de liens Wikipédia ou autres qui, pour être virtuel, n'en est pas moins labyrinthique que ces lieux imaginaires.) • Déjà avant ce mythe des backrooms, il y avait déjà quantité d'histoires qui circulaient sur Internet dans un genre mêlant à des degrés divers des éléments d'urbex réelle et des inventions destinées à faire peur, souvent sur le modèle j'ai trouvé tel endroit abandonné, j'ai exploré des passages de plus en plus bizarres et effrayants et trouvé des choses anormales ou des signes inquiétants, jusqu'à quelque chose de vraiment mystérieux, et je n'ai pas osé aller plus loin : on n'y croit pas vraiment, mais parfois un petit peu quand même, ou on fait semblant d'y croire, parce que c'est bon de se faire peur. Si les gens jouent à ça, c'est bien qu'il y a un mélange entre peur et fascination que je ne suis pas le seul à éprouver. (Je pourrais aussi mentionner les histoires tournant autour des morts dans les catacombes au-dessous d'Odessa, cf. par exemple cet article de Vice de 2015.)

Pour en revenir à l'urbex réelle et pas les histoires inventées, dans mon cas, la phobie est trop forte pour que je puisse pratiquer cette distraction (ou alors il faudrait que je sois avec un groupe suffisamment nombreux, parce que je pense que la présence d'autres gens est ce qui aurait l'effet rassurant le plus fort auprès de moi). En revanche, ça ne m'empêche pas de chercher à assouvir la fascination que j'éprouve quand même, soit en lisant des histoires de ces lieux abandonnés, si possible avec images ou vidéos, et en me documentant sur leur histoire, soit en allant jusqu'à l'entrée du lieu même si je ne suis pas capable de m'approcher plus que ça.

Évoquons en quelques mots deux lieus abandonnés que j'ai vus récemment :

Il y a deux semaines, j'étais avec le poussinet dans la forêt de la Grange à Yerres (Essonne), qui n'est pas du tout abandonnée, mais qui entoure le domaine du château de la Grange (ou du Maréchal de Saxe) (c'est ici sur la carte, et ici sur Google Street View) qui, lui, semble être abandonné depuis quelques années (et d'ailleurs en vente pour 8.7M€ si vous avez ça à jeter par les fenêtres), et le domaine devait être en assez mauvais état déjà ; nous avons fait une bonne partie du tour du domaine en longeant le mur d'enceinte, qui s'effondre çà et là, j'ai mis quelques photos sur Twitter de douves emplies d'eau stagnante et envahie d'algues, qui me mettaient assez mal à l'aise, preuve que ce n'est pas une question de lieux « industriels » comme je l'écrivais dans mon entrée précédente. (Et preuve aussi que cette peur est assez irrationnelle : ces murs et douves se présentaient à mon esprit comme une limite entre l'espace plutôt rassurant de la forêt et l'espace assez terrifiant du domaine abandonné du château, mais il est évident qu'il n'y a rien de franchement différent entre les deux : le domaine du château est juste en train de redevenir forêt. Bon, l'eau croupie des fossés a aussi quelque chose de terrifiant en elle-même, et pas que pour l'inquiétude tout à fait rationnelle du nombre de moustiques qui doivent y avoir élu domicile. Soit dit en passant, j'aimerais bien comprendre pourquoi le domaine est limité par une alternance de murs et de douves, avec parfois juste quelques mètres de fossé qui interrompent le mur. Mais je digresse. Toujours est-il que j'ai peu d'informations sur ce lieu : l'article Wikipédia ne mentionne même pas l'abandon du château, et je ne sais pas à quand il remonte.)

Ceci m'a amené à reparcourir des sites de comptes-rendus d'urbex (notamment certains signalés en commentaire à l'entrée précédente, comme celui-ci ou celui-là) : j'ai appris l'existence d'un endroit que je trouve particulièrement intéressant : l'ancien sanatorium d'Aincourt dans le Vexin. Il s'agit d'un gigantesque sanatorium, construit dans les années 1930 pour traiter les tuberculeux, et qui a servi temporairement de camp de concentration pendant la guerre avant de redevenir hôpital et d'être partiellement abandonné. Il se compose de trois immenses bâtiments construits selon un plan apparemment identique, et dont deux sont maintenant abandonnés (quoique inscrits aux monuments historiques) : le pavillon des Tamaris (anciennement pavillon Adrien-Bonnefoy-Sibour, réservé aux hommes) au sud ; le pavillon des Peupliers (anciennement pavillon du Docteur Vian, réservé aux femmes) au nord ; et le pavillon des Cèdres (anciennement pavillon Louis-Amiard, réservé aux enfants) entre les deux, ce pavillon des Cèdres étant encore en activité sous forme de centre hospitalier intercommunal du Vexin, tandis que les pavillons des Tamaris et des Peupliers ont été abandonnés respectivement début 2000 et dans les années 1980. (Le pavillon des Tamaris est entouré d'un grillage qui en interdit l'accès, mais celui des Peupliers n'est apparemment pas ainsi protégé, j'ignore si la différence est due à la dangerosité des dommages à la structure ou au fait qu'il y a un projet de possible réaménagement du pavillon des Tamaris en logements, ou simplement au fait que le pavillon des Peupliers est plus loin dans la forêt.) Il s'agit d'un lieu d'urbex apparemment assez standard (et assez facile d'accès), et on trouve toutes sortes d'images, que je trouve fascinantes, en cherchant sanatorium d'Aincourt dans Google images (même s'il n'est pas facile de savoir ce qui est une photo de quel pavillon parce qu'ils sont quasi identiques, et il est probable qu'il y ait en plus des confusions entre les noms). Cette vidéo n'est pas mal faite pour présenter le lieu en images, et celle-ci (probablement le pavillon des Tamaris) est plus artistique et donne une idée de la taille de l'endroit ; on trouve aussi quantité d'autres documents en ligne (soit dit en passant, j'ai fait une petite édition sur Wikipédia mais il faudrait que quelqu'un se dévoue pour nettoyer cet article qui est assez bordélique et par endroits pas du tout encyclopédique). • Le poussinet et moi y sommes allés avant-hier, parce que le poussinet voulait revoir, maintenant qu'il fait (trop) sec, les carrières de Feularde où nous nous étions perdus il y a quelques mois, et qui ne sont pas loin de ce sanatorium, donc nous avons fait un crochet par Aincourt après. Le poussinet est allé jeter un œil au bâtiment des Peupliers (celui qui est au nord) tandis que, puisque ma phobie m'interdisait d'aller jusque là, je suis resté faire un tour du jardin japonais (non abandonné, et très joli, mais un peu en triste état à cause de la sécheresse) qui se trouve à côté du bâtiment des Cèdres encore en activité : j'ai mis quelques photos sur Twitter ; ce jardin est tout à fait officiellement ouvert au public et peut être un prétexte pour aller dans le coin.

Tout ceci étant dit, je n'ai pas vraiment idée de la raison de cette peur que j'éprouve (et que je ne suis apparemment pas le seul à éprouver, même si la mienne est probablement inhabituellement forte) pour les endroits abandonnés, les endroits d'urbex. Autant le vertige est assez facile à comprendre (le danger de tomber est quelque chose certainement assez atavique), autant la peur des endroits abandonnées n'est pas facile à expliquer. Il y a une raison rationnelle qu'on peut invoquer, c'est les dangers qui peuvent être associés à un endroit qui n'est plus correctement entretenu (risques d'effondrement, de chute, de blessure, que sais-je encore), mais ces dangers sont trop rationnels et sans doute trop banals pour expliquer une peur sans doute ancrée dans un inconscient plus profond. Est-ce que la contemplation de la décrépitude nous rappelle notre mortalité ? Est-ce la peur de ce qui pourrait se cacher dans les coins d'ombre quand les humains abandonnent l'endroit ? Est-ce la peur de déranger les fantômes du passé ? (Un sentiment que j'avais essayé d'évoquer dans ce fragment littéraire.) Je n'en sais rien. Il y a certainement une bonne partie simplement due à l'idée que c'est interdit, et au fait qu'il n'y ait personne (comme je l'écris plus haut, je pense que le simple fait d'être en groupe me rassurerait beaucoup), mais c'est loin de tout expliquer. En tout cas, une preuve que je ne suis pas du tout le seul à ressentir au moins une forme de gêne est dans la facilité avec laquelle une recherche Google de quelque chose comme abandoned place se trouve accompagnée de mots comme eerie, scary, creepy, spooky ou hautning (mais aussi cool, beautiful, poetic et d'autres mots nettement moins négatifs). Si d'autres gens éprouvent le même genre de peur mêlée de fascination que moi, n'hésitez pas à livrer votre introspection en commentaire !

↑Entry #2728 [older| permalink|newer] / ↑Entrée #2728 [précédente| permalien|suivante] ↑

↓Entry #2727 [older| permalink|newer] / ↓Entrée #2727 [précédente| permalien|suivante] ↓

(lundi)

Comment comparer les niveaux de joueurs à un jeu ? (et : le classement Elo aux échecs)

Considérons la question suivante :

Alice, Barbara et Carole aiment jouer à un certain jeu (qui se joue à deux joueurs, et qui détermine un gagnant et un perdant). Quand Alice joue contre Barbara, elle gagne 80% des parties. Quand Barbara joue contre Carole, elle gagne 80% des parties. Avec quelle fréquence doit-on s'attendre à ce qu'Alice gagne quand elle joue contre Carole ?

Formulé comme ça, le problème est en quelque sorte un de ces pièges où, même si on a superficiellement l'impression d'avoir assez d'informations pour pouvoir faire des calculs intéressants, en fait on n'a pas les données permettant de répondre à la question posée (qui pourrait aussi bien être quel est l'âge du capitaine ?) : la réponse formellement correcte est donc on ne peut rien dire. Après tout, et même si c'est un peu paradoxal, le jeu pourrait très bien être tel que le style de jeu d'Alice la fasse gagner 80% du temps contre Barbara, qui gagnera elle-même 80% du temps contre Carole, qui gagnera à son tour 80% du temps contre Alice ; cela pourrait même être 100% du temps dans les trois cas, par exemple si le jeu est pierre-papier-ciseaux, qu'Alice joue toujours papier, Barbara toujours pierre et Carole toujours ciseaux. (Voir aussi ce fil Reddit.)

Néanmoins, ce genre de cercles paradoxaux de joueurs sont assez inhabituels. Dans un vrai jeu entre vrais joueurs, qu'il s'agisse des échecs ou du tennis ou du bras de fer ou un combat entre personnages à Donjons & Dragons, ou je ne sais quoi encore, on aura quand même tendance à se dire qu'Alice est plus forte que Barbara qui est elle-même plus forte que Carole, donc certainement Alice devrait gagner facilement contre Carole — et même, largement plus que 80% du temps — oui mais combien au juste ?

Encore une fois, il n'y a pas de « bonne » réponse. La réponse 80% est possible — quoique surprenante. Mais on peut quand même se demander quelle est la réponse la « moins surprenante », la réponse typiquement attendue, sans information supplémentaire sur le jeu. J'ai posé la question sur Twitter, mais les gens ont couardement refusé d'essayer d'y répondre. C'est dommage, parce que je pense que c'est intéressant, et j'encourage à y réfléchir avant de lire la suite : quel modèle mathématique raisonnablement simple utiliseriez-vous pour essayer de quantifier la différence de niveau des joueurs, et quelle réponse ce modèle apporte-t-il à la question ci-dessus ? (Plus généralement, bien sûr, il s'agit de se demander : si Alice gagne contre Barbara avec probabilité p et que Barbara gagne contre Carole avec probabilité q, avec quelle probabilité S(p,q) ce modèle prédit-il qu'Alice gagnera contre Carole ?)

On peut vraiment proposer des réponses sérieuses à cette question, qu'il serait amusant d'essayer de confronter à des jeux réels, même si je doute fortement qu'on puisse arriver à une situation assez « pure » et précisément reproductible pour faire une mesure utile. (Pour commencer, dans la réalité, un joueur fort ne joue pas de la même manière contre un joueur connu comme faible que contre un joueur intermédiaire.) Les deux modèles qui me semblent les plus naturels ou évidents, et que je vais décrire ci-dessous donnent l'un 95.38% et l'autre 94.12% (lorsque p=q=80%). Évidemment un tel niveau de précision est complètement illusoire, et je les donne juste pour permettre à une personne qui ferait le même calcul sans lire la suite de vérifier si elle a obtenu la même chose : je serais vraiment curieux de savoir si d'autres gens tombent aussi, sans lire ce qui suit, sur une de ces valeurs (malheureusement sans doute trop proches pour pouvoir être sérieusement départagées par l'expérience).

Cela faisait un moment que je m'étais dit que je parlerais du sujet au sujet du classement Elo aux échecs (j'y viens ci-dessous) : ce qui me motive à écrire ça maintenant, c'est d'une part que mon poussinet s'est soudainement découvert un intérêt pour les échecs (bien qu'il y soit assez nul), et d'autre part que je me suis rendu compte qu'il y avait un lien avec cette entrée récente.

Le cadre simplificateur général qui me semble assez naturel si on imagine un jeu dans lequel on peut parler de niveau d'un joueur, c'est le suivant (★) :

Chaque joueur a un niveau, qu'on peut quantifier par un nombre réel. Lorsque deux joueurs X et y de niveaux respectifs x et y jouent l'un contre l'autre, la probabilité que X gagne est donné par une certaine fonction h(xy) (avec h continue, croissante) de la différence entre ces niveaux.

Il y a deux hypothèses qui sont faites là-dedans : la première est que le niveau est quantifié par un unique nombre réel, et la seconde est que la seule chose qui importe lorsque deux joueurs jouent l'un contre l'autre est la différence arithmétique entre leurs niveaux, et notamment un joueur de niveau 1 000 001 a autant de chances de gagner contre un joueur de niveau 1 000 000 qu'un joueur de niveau 1 contre un joueur de niveau 0. Enfin, plus exactement, la première partie est un postulat (elle signifie par exemple que si Alice et Zoé ont les mêmes probabilités de gagner contre Barbara, alors elles ont le même niveau, donc auront aussi les mêmes probabilités de gagner contre Carole). La seconde partie, elle, est la définition de l'échelle de niveaux plus qu'elle n'est un postulat : on peut imaginer qu'on définit arbitrairement les joueurs de niveaux 0 et 1, puis on définit les joueurs de niveau 2 comme ceux qui ont autant de chances de gagner contre un joueur de niveau 1 qu'un joueur de niveau 1 contre un joueur de niveau 0, puis les joueurs de niveau 3 comme ceux qui ont cette même probabilité de gagner contre les joueurs de niveau 2, etc. (Bien sûr, ensuite il faut aussi interpoler : par exemple, les joueurs de niveau 0.5 sont ceux qui ont autant de chances de gagner contre un joueur de niveau 0 que ceux de niveau 1 ont de gagner contre eux, etc.) En revanche, la question qui est vraiment matière de modélisation — ou de postulat simplificateur — plutôt que de définition, c'est celle de savoir la forme de h, par exemple ce que vaut h(u+v) connaissant p := h(u) et q := h(v) (et spécifiquement, la question tout en haut de cette entrée est de savoir ce que vaut vaut h(2t) si h(t)=0.8).

Clairement, on veut que la fonction h soit croissante et continue, voire arbitrairement lisse. Pour des raisons de symétrie, on a h(−t) = 1 − h(t), et notamment h(0)=½ (deux joueurs de même niveau ont chacun une chance sur deux de gagner). On veut sans doute demander que h(t) → 0 quand t → −∞ et h(t) → 1 quand t → +∞, c'est-à-dire qu'un joueur infiniment plus faible qu'un autre n'a aucune chance de gagner tandis qu'un joueur infiniment plus fort qu'un autre est certain de gagner ; mais déjà il s'agit là d'hypothèses faites sur le jeu, parce que, après, tout, il peut très bien comporter une part de hasard suffisante pour que la probabilité de gagner ne dépasse jamais, disons, 80% pour le joueur le plus fort. L'échelle des valeurs est normalisée de façon arbitraire, donc quitte à toutes les multiplier par une constante positive, on peut aussi assurer que la dérivée h′(0) de h en 0 vaut 1 (par exemple), c'est-à-dire en gros qu'un joueur de niveau ε de plus qu'un autre, avec ε extrêmement petit, a une probabilité essentiellement ½+ε de gagner ; mais cette normalisation n'aura évidemment aucun impact sur la réponse à la question posée initialement.

Voici un modèle très simple qui me semble assez naturel[#] : chaque joueur est modélisé par les paramètres (i.e., la distribution) d'une variable aléatoire gaussienne ; lorsque deux joueurs jouent l'un contre l'autre, on tire deux réels selon leurs deux distributions, et celui qui a la plus haute valeur gagne. Néanmoins, ce modèle modélise chaque joueur par deux paramètres (la moyenne=espérance de la variable, et son écart-type) ; pour entrer dans le cadre (★) ci-dessus, il faut que je restreigne encore les choses en demandant que chaque variable ait le même écart-type (disons 1/(2√π) pour me conformer à la normalisation arbitraire h′(0)=1 proposée ci-dessus ; du coup, la différence entre deux variables gaussiennes d'espérance x et y respectivement et d'écart-type 1/(2√π) chacune est une variable gaussienne d'espérance xy et d'écart-type 1/√(2π), ce qui justifie la formule suivante). On a alors h(t) = ½(1+erf(t·√π)) où erf est la fonction d'erreur. Avec ce modèle, on peut répondre à la question initiale : si h(t)=0.8 c'est que t≈0.3358 (différence de niveau entre Alice et Barbara ou entre Barbara et Carole), et alors h(2t)≈0.9538. Autrement dit (indépendamment de la normalisation arbitraire de t), le modèle « tirage de variables aléatoires gaussiennes de même écart-type » prédit la réponse 95.38% à la question initiale.

[#] Disons au moins, c'est le premier qui m'est venu à l'esprit, avant d'avoir lu que le classement Elo fait autre chose, mais que, en fait, c'était peut-être bien le modèle initial proposé par Elo (cf. ci-dessous).

[Graphes de deux fonctions sigmoïdes]Oui mais pourquoi des variables gaussiennes ? Simplement parce que c'est la réponse la plus simple ou évidente quand on a besoin d'une variable aléatoire sur les réels, mais il n'y a pas de vraie justification ici (sauf qu'on peut peut-être se dire que chaque un coup d'un jeu est un tirage aléatoire et qu'à force d'en accumuler assez le théorème de la limite centrale va finir par donner quelque chose de gaussien, mais c'est plus de l'agitage de mains qu'une justification sérieuse). Les variables gaussiennes ont aussi ceci de bien que la différence entre deux variables gaussiennes est une variable gaussienne (d'espérance la différence et de variance la somme). Mais si au lieu de tirer la différence selon une variable gaussienne (d'espérance xy et d'écart-type 1/√(2π)) je prenais une variable, disons, logistique[#2] (de nouveau avec espérance xy et écart-type cette fois π/(4√3) si j'ai bien fait mon calcul), on trouve, ou plutôt on postule, h(t) = 1/(1+exp(−4t)) (le 4 est juste là pour la normalisation arbitraire que j'ai faite, mais l'idée importante est qu'on remplace la fonction d'erreur une fonction logistique). J'ai tracé ci-contre les graphes des deux fonctions h résultantes, en vert ½(1+erf(t·√π)) et en bleu 1/(1+exp(−4t)) (normalisées par h′(0)=1, donc ; voir aussi ce graphe sur Wikipédia pour d'autres fonctions du même genre). Avec ce modèle « logistique », on peut aussi répondre, différemment, à la question initiale : si h(t)=0.8 c'est que t≈0.3466 (différence de niveau entre Alice et Barbara ou entre Barbara et Carole), et alors h(2t)≈0.9412. Autrement dit (indépendamment de la normalisation arbitraire de t), le modèle « logistique » prédit la réponse 94.12% à la question initiale.

La fonction logistique apparaît ici comme un cheveu sur la soupe (pourquoi la fonction logistique ? enfin, on pouvait aussi demander pourquoi une gaussienne, mais la fonction logistique semble peut-être encore plus ad hoc), mais une raison pour laquelle je l'illustre est qu'elle correspond au modèle choisi par le classement Elo des échecs. Ceci dit, on peut sans doute aussi la motiver de façon un peu plus intrinsèque. Déjà, contrairement au modèle gaussien, la valeur calculée pour la question généralisée si Alice gagne contre Barbara avec probabilité p et que Barbara gagne contre Carole avec probabilité q, avec quelle probabilité ce modèle prédit-il qu'Alice gagnera contre Carole ? est une fonction rationnelle exacte[#3] de p et q, à savoir p·q/(1−pq+2p·q) (pour l'exemple de p=q=4/5 cela donne 16/17) : je soupçonne fortement qu'il doit y avoir un modèle différent, probabiliste plus simple, qui conclut à cette formule. Et le comportement asymptotique est peut-être plus intuitif : si Barbara a une probabilité ε très faible de gagner contre Alice et Carole la même probabilité ε de gagner contre Barbara, peut-être bien qu'on a envie de croire que Carole a une probabilité ε² de gagner contre Alice ? C'est, comme on le voit sur cette formule, ce que prédit le modèle logistique (le modèle gaussien prédit quelque chose de beaucoup plus petit, mais je n'ai pas la patience de faire le développement asymptotique, c'est toujours pénible).

Ajout () : je ne m'étais pas rendu compte en écrivant ce billet, et j'en prends conscience suite à une remarque sur Twitter (mais je n'ai pas envie de tout réécrire maintenant, donc je me contente de cet ajout), que ce modèle « logistique » admet la description plus simple suivante (la même que pour le modèle gaussien, mais en remplaçant la distribution gaussienne par une distribution exponentielle) : chaque joueur est modélisé par le paramètre (i.e., l'espérance, ou, mieux, le log de l'espérance) d'une variable aléatoire exponentielle ; lorsque deux joueurs jouent l'un contre l'autre, on tire deux réels selon leurs deux distributions, et celui qui a la plus haute valeur gagne. (Ceci se relie à la mise à jour de la note #2 ci-dessous par le fait que le log d'un variable distribuée exponentiellement suit une distribution de Gumbel de paramètre β=1.) Il devrait être possible de se servir de cette description pour prouver assez facilement la formule S(p,q) = p·q/(1−pq+2p·q) : j'éditerai de nouveau ce paragraphe si je trouve quelque chose qui me plaît.

Évidemment, le code de couleur que j'ai choisi pour le graphe ci-dessus évoque celui utilisé dans cette entrée : ce n'est pas un hasard : si S(p,q) est la réponse à la question si Alice gagne contre Barbara avec probabilité p et que Barbara gagne contre Carole avec probabilité q, avec quelle probabilité le modèle prédit-il qu'Alice gagnera contre Carole ?, alors S(p,q) est, à q fixé, une fonction d'harmonisation de notes comme j'évoquais dans l'entrée en question, donc à q variable une fonction comme je l'évoquais, et précisément p ↦ S(p,q) est celle de la famille qui envoie ½ sur q. Donc les graphes de familles de fonctions d'harmonisation de notes dans cette entrée sur le sujet peuvent se comprendre comme des graphes de la probabilité qu'Alice gagne contre Carole en fonction de la probabilité que Barbara gagne contre Carole en abscisse, la probabilité qu'Alice gagne contre Barbara étant lue comme l'ordonnée du point ½ dans la famille, avec en vert le modèle gaussien et en bleu le modèle logistique. Je ne reviens pas sur le modèle violet qui est sans doute assez artificiel ici (et surtout parce que j'ai la flemme de refaire encore un tas de graphes et de calculs).

[#2] Pour que XY soit distribuée selon une loi logistique d'espérance xy et d'écart-type π/(4√3), il s'agit que X et Y soient distribuées selon une loi « demi-logistique » d'espérance x et y respectivement et de même écart-type π/(4√6). La loi « demi-logistique », ici, fait référence à la racine carrée convolutionnelle de la loi logistique, et j'ai la flemme d'essayer de la calculer ni même de chercher si elle apparaît dans la littérature, mais n'hésitez pas à me le dire si vous savez. L'avantage de la gaussienne, c'est justement que cette différence ne se pose pas : la racine carrée convolutionnelle d'une gaussienne est une gaussienne. (Et j'avoue avoir commencé à rédiger les choses en écrivant à tort pareil pour la loi logistique, ce qui explique ma présentation un peu alambiquée.) • Mise à jour : la loi de Gumbel répond à ma question (ce n'est pas exactement ce dont je parlais parce que je pensais à une variable symétrique donc centrée, mais ce n'est pas grave : la différence de deux variables indépendantes de même loi de Gumbel a une loi logistique, donc on peut dire que le modèle logistique correspond à supposer qu'à chaque joueur est associé une loi de Gumbel, toujours de même paramètre β=1/(2√2) je crois, et dont le paramètre μ correspond au niveau, on tire deux réels selon les distributions des deux joueurs, et celui qui a le plus grand gagne).

[#3] Formule reliée à la formule d'addition pour les tangentes hyperboliques (parce que l'arctangente hyperbolique est essentiellement la fonction logistique).

Le modèle logistique, donc, est celui utilisé par le classement Elo aux échecs (tel qu'il est pratiqué maintenant, et peut-être pas tel que décrit initialement par Arpad Elo, cf. ci-dessous). La fonction h est normalisée différemment de ce que j'ai fait ci-dessus : si D est la différence xy de points Elo des deux joueurs, la probabilité que X gagne contre Y, ou plus exactement l'espérance de score (parce qu'aux échecs il y a des nuls, donc on convient de les compter comme ½) est supposée être 1/(1+10↑(−D/400)) (c'est-à-dire que c'est la même fonction 1/(1+exp(−4t)) que ci-dessus sauf que D = (1600/log(10))×t ≈ 695×t ; dans mon exemple avec 80%, Alice aurait 240.8 points Elo de plus que Barbara, qui aurait elle-même 240.8 points Elo de plus que Carole).

Insistons là-dessus : autant la normalisation précise est une définition arbitraire du « point Elo », autant ce modèle logistique est un postulat, une hypothèse faite sur un phénomène réel par le classement Elo : le classement Elo (pratiqué) suppose que si Alice gagne 80% des parties d'échec contre Barbara (enfin, a un score moyen de 0.8000) et que Barbara gagne 80% des parties contre Carole (idem), alors Alice gagne 94.12% des parties contre Carole (enfin, a un score moyen de 0.9412). Ce n'est que si cette hypothèse est vérifiée que le classement Elo se stabilisera vraiment (au sens où les trois joueuses auront des scores stables à long terme quel que soit les parties qu'elles jouent) ; si ce n'est pas le cas, elles peuvent utiliser la violation de l'hypothèse pour modifier leurs scores dans un certain intervalle.

Ce qui n'est pas clair (pour moi) est l'origine de cette hypothèse dans le classement Elo : est-ce que c'est une hypothèse simplificatrice (peut-être pas du tout vraie mais, après tout, tout n'étant que très approximatif, ce n'est pas très grave), ou y a-t-il des raisons soit théoriques (comme une justification de la formule p·q/(1−pq+2p·q) qui caractérise l'hypothèse logistique) soit expérimentales pour croire à ce modèle ? La page Wikipédia contient des affirmations bizarres et confuses, presque contradictoires, qui semblent dire qu'Arpad Elo avait initialement proposé un modèle gaussien et que cela a été changé en modèle logistique (sans changer le nom, ce qui est super confusant) pour des raisons peut-être expérimentales ou peut-être juste pratiques :

Elo's central assumption was that the chess performance of each player in each game is a normally distributed random variable.

[…]

Subsequent statistical tests have suggested that chess performance is almost certainly not distributed as a normal distribution, as weaker players have greater winning chances than Elo's model predicts. In practice, there is little difference between the shape of the logistic and normal curve. So it does not matter whether the logistic or normal distribution is used to calculate the expected scores. Mathematically, however, the logistics function is more convenient to work with.

[…]

The normal and logistic distributions are, in a way, arbitrary points in a spectrum of distributions which would work well. In practice, both of these distributions work very well for a number of different games.

[…]

The first mathematical concern addressed by the USCF was the use of the normal distribution. They found that this did not accurately represent the actual results achieved, particularly by the lower rated players. Instead they switched to a logistic distribution model, which the USCF found provided a better fit for the actual results achieved.

Maintenant qu'on a des ordinateurs qui jouent aux échecs, on pourrait tester un peu cette hypothèse : pour un moteur d'échecs donné, paramétrer le temps de calcul laissé à trois instances A, B et C pour que A gagne 80% du temps contre B et que B gagne 80% du temps contre C, et voir quelle proportion du temps A gagne contre C. Il faut voir si on peut faire assez de jeux pour que la différence entre 94.12% et 95.38% puisse être révélée, mais il est bien sûr possible, même plausible, que la réalité soit bien différente de ces deux chiffres. On pourrait ensuite chercher à changer le moteur ou les temps impartis, ou confronter deux moteurs différents, et aussi tester sur plein d'autres jeux où on peut faire jouer deux ordinateurs (y compris, par exemple, des simulations de combats à Donjons & Dragons ou je ne sais quoi d'autre). Ça ne donnerait pas forcément une idée très fiable sur ce qui se passe entre joueurs humains, mais ce serait au moins une indication, et une information intéressante en soi.

Il y a bien sûr une autre question qu'on doit évoquer : une fois la fonction h postulée, comment attribuer les scores ? Et notamment, comment les mettre à jour après des parties jouées ? L'idée est la suivante (voir l'article Wikipédia pour des explications plus longues et moins mathématiques) : si deux joueurs ont des scores x et y avant la partie, le score espéré attendu de X est p := h(xy) tandis que celui de Y est h(yx) = 1 − p. Si le score réel de X est s (aux échecs c'est 1 pour un gain, 0 pour une perte et ½ pour un jeu nul), on va transférer k·(sp) points du joueur Y au joueur X (c'est-à-dire ajouter cette valeur à x en la soustrayant à y ; bon, probablement on ne fait cette mise à jour des scores qu'après une série de parties, en sommant les valeurs correspondantes de toute la série) où k est une certaine constante : l'intérêt de cette formule est que si la valeur espérée de s est effectivement celle p prédite par la formule, le transfert est nul en moyenne, i.e., les scores n'évoluent plus quand ils sont correctement prédits par le modèle ; en revanche, si X gagne plus que prédit, on a en moyenne s>p donc X va gagner des points, ce qui va augmenter le p prédit la prochaine fois, jusqu'à ce que le modèle prédise correctement la valeur. (Il y a certainement moyen d'interpréter ça comme une forme ou une sorte de descente de gradient discret.) Le paramètre k, qui règle essentiellement le maximum de points échangeables par partie jouée, ajuste la vitesse à laquelle on réévalue les scores : un paramètre k trop petit fera évoluer les scores trop lentement (il faudra énormément de parties avant que le joueur fort prenne au joueur faible les points qui reflètent la différence de niveau), tandis qu'un paramètre k trop grand rendra le système trop instable aux aléas. (Le classement Elo utilise, selon le niveau des joueurs, des valeurs de k de 10 à 40 points Elo échangeables par partie, sachant qu'un point Elo est, comme je l'ai dit ci-dessus, environ 1/695 fois l'unité du paramètre t normalisé pour avoir h′(0)=1, c'est-à-dire que les probabilités p sont réévaluées par incréments de 1.5% à 6% au plus, selon le niveau.) Il y a bien sûr toutes sortes d'autres crottes de ragondin à évacuer, comme savoir ce qu'on fait avec les nouveaux joueurs ou les joueurs sortants (le modèle que je viens de dire suppose un ensemble de joueurs fixé, et la somme de tous leurs scores n'évolue pas du tout ; on devrait sans doute commencer par donner le score 0 à tout le monde) : Elo semble donner le score 100 aux débutants (pourquoi pas 0 ?), mais c'est un peu arbitraire parce que les débutants n'ont pas un score maintenu de façon constante, bref, je ne détaille pas plus ces histoires de comptabilité un peu sordides.

En tout cas, j'insiste sur le fait que cette méthode de mise à jour des scores est une question complètement différente, et indépendante, de l'hypothèse faite sur la fonction h définissant le modèle. Dans le classement Elo, il faut bien distinguer :

  • une hypothèse faite (au moins approximativement) sur un phénomène réel, à savoir la question initiale de cette entrée, pour laquelle le modèle logistique prédit la valeur 94.12% ou plus généralement p·q/(1−pq+2p·q) (mais il semble qu'Elo avait initialement proposé le modèle gaussien),
  • une convention de normalisation du point, qui consiste juste à fixer l'échelle de façon arbitraire (moi j'ai proposé h′(0)=1 pour simplifier les formules, mais le classement Elo prend log(10)/1600 ici),
  • une méthode de mise à jour des scores pour les faire évoluer de façon à se conformer aux probabilités observées (du moins si l'hypothèse de cohérence des probabilités entre elles est vérifiée), ce qui revient ici à choisir la constante k, et bien sûr, en plus, des choix faits sur les joueurs entrants et sortants, qui correspondent plus ou moins à une convention sur le niveau 0 de l'échelle (qui est encore plus arbitraire que l'échelle), tout ça n'ayant de sens que dans le cadre d'un pool de joueurs (je ne sais pas comment fonctionne le monde des échecs pour savoir qui reçoit un score, et ça ne m'intéresse pas des masses).

Ce qui m'intéresse le plus dans l'histoire est l'hypothèse, et je trouve qu'elle n'est pas assez bien mise en lumière par les textes qui parlent de scores Elo. Évidemment c'est un peu du coupage de cheveux en quatre de mathématicien (on n'arrivera sans doute pas sérieusement à distinguer 94.12% et 95.38%, et peut-être que les deux sont assez faux), mais en principe, avant même de commencer à chercher à donner des scores Elo-like à des joueurs d'un jeu, il faudrait tester expérimentalement l'hypothèse sur le jeu dont on parle, déterminer si un modèle gaussien ou logistique ou complètement différent convient, bref, mesurer S(p,q) la réponse à la question si Alice gagne contre Barbara avec probabilité p et que Barbara gagne contre Carole avec probabilité q, avec quelle probabilité Alice gagne-t-elle contre Carole ? (qui selon le modèle logistique vaut p·q/(1−pq+2p·q)).

↑Entry #2727 [older| permalink|newer] / ↑Entrée #2727 [précédente| permalien|suivante] ↑

↓Entry #2726 [older| permalink|newer] / ↓Entrée #2726 [précédente| permalien|suivante] ↓

(mercredi)

Et maintenant, un rant sur les données ouvertes

En écrivant l'entrée précédente, j'ai eu envie de jeter un œil à des séries de données historiques de températures à Paris (ou ailleurs, mais il se trouve que j'habite Paris, donc ça m'intéresse un peu plus), à la fois pour répondre à des questions un peu sérieuses (quel est le profil d'évolution des températures moyennes ? des températures moyennes d'été et d'hiver ? des minimales et maximales quotidiennes ? des extrêmes ? de la variance des températures ? etc.) et moins sérieuses[#]. Mais où trouver ces données ?

[#] À titre d'exemple, j'aime bien celle-ci : si T(y,d,h) désigne la température mesurée à Paris à l'heure h du jour d de l'année y (avec 0≤h≤24, 0≤d≤365 et 1870≤y≤2022 par exemple)[#b], que valent les huit quantités maxy maxd maxh T(y,d,h), maxy maxd minh T(y,d,h), maxy mind maxh T(y,d,h), maxy mind minh T(y,d,h), miny maxd maxh T(y,d,h), miny maxd minh T(y,d,h), miny mind maxh T(y,d,h), miny mind minh T(y,d,h) ? Je trouve que c'est intéressant de réfléchir à la signification intuitive de ces huit nombres et d'essayer de s'imaginer leurs valeurs approximatives (maxh T(y,d,h) est ce qu'on appelle usuellement la température maximale du jour ou abusivement température diurne, et minh T(y,d,h) la température minimale ou abusivement température nocturne, donc argmaxd maxh T(y,d,h) est le jour le plus chaud de l'année tandis que argmaxd minh T(y,d,h) est la nuit la plus chaude, et on aboutit à des descriptions comme le jour le plus chaud jamais enregistré, la nuit la plus chaude jamais enregistrée, l'hiver aux jours les plus doux, l'hiver aux nuits les plus douces, l'été aux jours les moins chauds, l'été aux nuits les moins chaudes, le jour la plus froid jamais enregistré et la nuit la plus froide jamais enregistrée) ; j'aimerais bien avoir des données permettant de les calculer de façon fiable comme je l'ai fait ici sur des données assez courtes. [Mise à jour () : et ici sur des données remontant à 1900.]

[#b] Bon, pour critiquer un peu cet exemple, autant un max max ou min min est clairement bien défini, autant un max min ou un min max dépend de la manière dont on découpe les jours ou les années. L'heure variant de minuit à minuit est raisonnable parce que ni le maximum ni le minimum journalier ne sont normalement atteints autour de minuit, mais l'année devrait plutôt être découpée de septembre à août pour éviter que le minimum annuel ne soit arbitrairement placé dans une année ou une autre selon qu'il tombe juste avant ou juste après le 1er janvier. On peut aussi s'interroger sur des quantités comme mind maxy maxh T(y,d,h) ou maxy maxh mind T(y,d,h) qui diffèrent possiblement de maxy mind maxh T(y,d,h) et essayer de se représenter intuitivement la différence.

Assez naïvement, je me suis dit, les données météo, c'est quelque chose de complètement public, et même spectaculairement public : il doit y avoir plein de gens qui les archivent et ça doit être très facile d'en trouver des compilations en ligne. Inversement, il y a plein de gens qui vous sortent régulièrement des statistiques du type c'est l'hiver le moins froid depuis YYYY : il doit y avoir un endroit publiquement accessible où on trouve les données brutes permettant de faire ce genre d'affirmation. Que nenni.

Et ce qui est particulièrement frustrant, c'est qu'il y a plein d'endroits qui semblent avoir de telles données ou vous les promettent, mais les données elles-mêmes sont introuvables. Par exemple, Météo France a un site web appelé Données publiques. Ça a l'air prometteur, ça, n'est-ce pas ? Eh bien ce site web est un peu comme cette vieille blague de l'époque soviétique :

Un soviétique de passage à Moscou décide d'aller au Goum pour s'acheter des chaussures. Il suit un premier signe vers le rayon habillement, puis un signe lui offre le choix entre différents articles d'habillement, il suit la direction chaussures. Il a ensuite le choix entre chaussures pour homme, chaussures pour femme et chaussures enfant, il suit le premier. Ceci l'amène à un nouveau choix entre chaussures techniques, chaussures de ville et chaussures de sport. Il suit chaussures de ville, et le voilà face à un choix entre chaussures noires et chaussures colorées. Il suit encore un autre signe puis un autre puis encore un autre jusqu'à sélectionner sa pointure, tombe sur une dernière porte et… se retrouve dans la rue.

Mais je ne comprends pas ? Où sont les chaussures ? demande-t-il à un passant.

Oh, nous n'avons pas de chaussures, lui répond le passant. Mais vous avez vu ? Quelle organisation !

En tout cas, je ne trouve rien sur ce site de Météo France qui corresponde à ma recherche de relevés météo (au moins les températures maximales et minimales par jour) en un lieu donné (disons, Paris) sur une longue période.

On m'a aussi signalé Infoclimat, qui a une section Open Data, mais là non plus, je ne trouve pas où on télécharge les données en bloc. Il y a un truc permettant de créer un compte pour télécharger 7 jours consécutifs maximum : c'est une blague ou quoi ? Je veux quelque chose comme 150 ans d'archives, pas 7 jours, moi.

Je comprends éventuellement que l'association qui gère[#2] Infoclimat ait peur d'être noyée sous le volume des téléchargements, mais il y a une solution simple : mettre ces données sur GitHub ou quelque chose d'équivalent. (Même à raison d'un relevé par heure pendant 150 ans, on parle d'environ 1.3 millions de lignes d'enregistrement pour une station météo : ce sont de petits fichiers, il n'y aucun obstacle à les mettre sur GitHub.) Par ailleurs, ce sont des données complètement publiques, librement copiables[#3] et téléchargeables puisque ce sont des informations factuelles que tout le monde peut observer, il n'y a aucune condition d'accès ni notion de sécurité : qu'est-ce que c'est que ces histoires d'utilisation commerciale interdite ? Ils ont complètement perdu la tête, là ? Ils ne peuvent pas plus interdire l'utilisation commerciale de ces données qu'un musée ne peut interdire la reproduction de tableaux anciens qui s'y trouvent.

[#2] Une chose qui fait que je n'arrive pas à trouver les données que je cherche est certainement que je ne comprends pas bien qui les produit. Je crois comprendre que certaines stations météo sont gérées ou possédées par des amateurs ? Mais sans doute n'est-ce pas le cas d'une station comme celle du parc Montsouris à Paris ? (Je trouve que ce serait plus qu'un peu anormal d'autoriser quelqu'un a installer une station météo dans un endroit public comme un parc de la ville de Paris sans exiger que les relevés de cette station météo soient librement téléchargeables.) Mais alors comment est-ce que l'association qui gère Infoclimat a elle-même accès à ces données ? D'où les tire-t-elle ? Qui est le producteur primaire des données ? Quel est son lien avec Météo France ? Et qu'en est-il des données historiques ? Par qui ont-elles été numérisées ? (J'imagine vaguement que ça faisait historiquement partie des attributions de l'Observatoire de Paris, mais je ne trouve aucun lien tangible entre l'Observatoire de Paris et une station météo de Paris ni de contact à l'Observatoire pour demander où sont stockées les archives.) Bref, tout ça est très confus pour moi, et ça n'aide pas à naviguer dans ces choses : une partie de la difficulté à obtenir des données est de savoir d'où elles viennent à l'origine et à qui les demander.

[#3] Éventuellement, on peut défendre l'idée que les quinze dernières années de la base de données sont protégées par le droit sui generis sur les bases de données (qui est la notion la plus scandaleuse et indéfendable du déjà détestable droit de la propriété intellectuelle : c'est tout simplement honteux que ce concept existe), mais même ce concept-là ne s'applique que si on considère que mettre en place une station de relevé de la température constitue un investissement substantiel, ce qui très difficile à prétendre.

On m'a aussi signalé le site Météociel dans le même genre, mais pas plus de succès de ce côté-là. Ni chez les autres sites du même genre vers lesquels on m'a dirigé. Plein de gens m'ont dit plein de variantes autour de si, si, ces données sont disponibles, regarde du côté de FoobarMétéo, mais jamais aucun moyen de télécharger l'archive que je cherche. C'est particulièrement frustrant vu qu'il y a des gens qui semblent avoir ces données et qui en tirent toutes sortes de graphiques ou tableaux : par exemple ici chez Météo Paris : où ont-ils tiré ces données et où sont-elles stockées, à la fin ?

À chaque fois c'est la même chose, c'est comme dans la blague sur le Goum : plein de promesses de données, plein d'organisation compliquée, mais jamais les données brutes elles-mêmes. Jamais un vrai lien de téléchargement qui donne un fichier d'un petit million de lignes de données.

Alors je vais quand même donner un lien vers le truc que j'ai trouvé qui ressemble le plus à ce que je cherche : ce lien (vers le domaine opendatasoft.com dont je ne sais pas quel est son rapport avec le schmilblick ni comment il les a obtenues de Météo France), dans l'onglet export propose un export CSV du jeu de données entiers, et c'est un tableau de relevés météo pour diverses stations météo de France : 62 stations, un relevé toutes les 3 heures. Malheureusement, il ne contient que des informations très récentes (il commence en 2010) ; comme par ailleurs, le format du fichier est absurdement inefficace, contenant la même information répétée de nombreuses fois (la température répétée en kelvins et en degrés Celsius et des textes automatisés comme On n’a pas observé d’évolution des nuages ou on n’a pas pu suivre cette évolution), les malheureux 2 millions d'enregistrements contenus finissent par peser 1Go. Bon, c'est déjà ça, je ne vais pas me plaindre. Mais où est-ce que je trouve quelque chose d'équivalent, sur une seule station, mais à des dates très anciennes ?

Partout où je regarde, j'ai l'impression de voir des dragons assis sur des trésors de données et qui les considèrent comme my data! my precious data! mine! mine! mine! (bon, mes métaphores tolkienesques se mélangent un peu, mais vous voyez l'idée).

Le concept de données ouvertes (open data) est un concept extrêmement vertueux : en poussant les pouvoirs et organismes publics ou quasi-publics à mettre en accès libre les données factuelles qu'ils produisent, observent ou manipulent, on permet de révéler toutes sortes d'usages de ces données qui n'étaient a priori pas évidents.

Pendant la pandémie de covid, par exemple, il faut saluer une chose que beaucoup de pays, dont la France, ont fait avec un certain sérieux, c'est de publier quantité d'indicateurs sur l'état de l'épidémie. Ceci a permis toutes sortes de recherches, aussi bien par des professionnels de la recherche en médecine ou en santé publique que par des simples citoyens, et toutes sortes de sites de présentation de la situation sanitaire. Il y a eu des ratées, des données bizarres, des corrections a posteriori, un étiquetage pas clair, et surtout, il a manqué une concertation au niveau international sur la manière dont ces données étaient harmonisées et présentées ; mais globalement parlant, il faut quand même saluer l'effort.

Maintenant, il faudrait réussir à faire passer l'idée qu'il faut généraliser tout ça. Il y a bien sûr toutes sortes de bases de données ouvertes qui sont très intéressantes ou simplement rigolotes. (Parmi mes préférées, et qu'on peut vraiment télécharger pour de vrai, il y a le fichier FANTOIR des noms de voies (rues, places, etc.) et lieux-dits de la France, qui permet toutes sortes d'études rigolotes sur l'hodonymie, et aussi la base de données des arbres de Paris qui recense tous les arbres entretenus par la Ville de Paris et qui a fait beaucoup pour m'aider à reconnaître certaines espèces.) Mais il y a aussi quantité de choses qui devraient être ouvertes et qui ne le sont pas (ou alors peut-être qu'on peut y accéder, mais il faut faire des démarches compliquées et chronophages au lieu de juste télécharger un fichier ; j'aimerais bien récupérer une version anonymisée du fichier des immatriculations de véhicules en France, par exemple, ainsi que des données historiques sur la circulation en Île-de-France, mais ça n'a pas l'air évident).

Et surtout, il est important qu'il n'y ait aucune barrière à l'accès aux données : s'il faut faire autre chose que juste cliquer sur le format souhaité pour télécharger le fichier (des données brutes, complètes, directement exploitables), ce n'est pas de l'OpenData. Et je répète, il est complètement anormal que les données météo historiques de base ne soient pas en OpenData. (Pendant la pandémie, je me suis engueulé au sujet de l'accès aux données brutes sur la détection de SARS-CoV-2 dans les eaux usées : mais au moins là il y avait un prétexte d'enjeu de sécurité qui ne peut simplement pas exister s'agissant de relevés météo.)

Donc pour l'instant, beaucoup de choses qui se prétendent être en données ouvertes sont surtout du hype : on nous parle de ces données, il y a vaguement des pages qui les promettent, mais quand on essaie de les télécharger vraiment, comme sur le site de Météo France ou d'Infoclimat, on ne trouve pas plus de données que de chaussures dans la blague du Goum.

(N'hésitez pas à répondre en commentaire avec des liens vers des jeux de données ouvertes qui vous semblent particulièrement intéressants ou remarquables, mais à condition d'avoir vraiment vérifié qu'on peut vraiment télécharger les données au bout du lien, que ce n'est pas une promesse comme celle des chaussures du Goum.)

✱ Mise à jour () concernant les données météo :

On m'a signalé en commentaire sur cette entrée l'existence des données Copernicus ERA5, qui sont issues d'une réanalyse par modèle des observations. La réanalyse est sans doute effectivement plus appropriée à ce que je cherche à faire parce qu'elle sera moins bruitée qu'une observation brute ; mais l'intervalle temporel est un peu limité puisque ce modèle ne remonte qu'à 1950 ; de toute façon, je n'ai pas réussi à télécharger ces données : l'interface d'accès est manifestement prévu pour les gens qui veulent peu de points dans le temps mais beaucoup de points dans l'espace, alors que moi c'est le contraire (j'ai essayé de demander à télécharger une seule latitude et longitude, mais même comme ça, je ne peux pas demander plus qu'une année de données, le système met deux heures à générer le fichier, et je n'ai même pas réussi à le télécharger à la fin).

En revanche, j'ai appris l'existence du jeu de données ECAD (European Climate Assessment Dataset), qui contient ce qui est le plus proche (que j'aie trouvé à ce jour) de ce que je cherchais, c'est-à-dire des relevés journaliers, en différentes stations météo, sur un intervalle de temps assez long, de diverses variables dont la température maximale quotidienne, la température minimale quotidienne, et la précipitation quotidienne cumulée. Pour avoir des données pour Paris, aller dans Daily dataCustom query, choisir blend, France, Orly, ne pas sélectionner d'élément (pour obtenir toutes les variables), et ceci permettra de télécharger une archive contenant des données remontant à 1921 (mais avec un gros trou entre 1924 et 1946) pour la température et les précipitations.

Ce qui me laisse assez perplexe, cependant, c'est que cette page propose en téléchargement (chercher le texte suivant : Températures minimales depuis 1900 / Températures maximales depuis 1900 / Précipitations depuis 1886 — ou cliquer directement sur les liens que je viens de reproduire) des données qui sont plus anciennes (et aussi plus complètes : il n'y a pas ce trou entre 1924 et 1946), qui viennent de cette même source European Climate Assessment si on en croit leur en-tête, mais je n'ai pas réussi à les trouver sur le site en question (les données pour la station Paris-Montsouris n'y ont que deux variables sans grand intérêt). Seulement, comme elles ont été téléchargées il y a un certain temps, elles ne vont que jusqu'à 2008. Du coup, j'ai soit des données pour Orly depuis 1921 (en fait 1947) jusqu'à maintenant, soit des données pour Paris Montsouris depuis 1901 jusqu'à 2008 : au niveau qui m'intéresse, je peux fusionner tout ça (en fait, les données de chaque jeu sont déjà des fusions de plusieurs séries de relevés pas forcément complètement cohérentes entre elles), mais c'est tout de même bizarre et confus. (J'ai envoyé un mail pour demander plus d'explications.)

(Mise à jour de la mise à jour…) Je découvre aussi à cette occasion le merveilleux outil qu'est le Climate Explorer and Climate Change Atlas du KNMI (l'institut météorologique néerlandais) : voir ce fil Twitter et celui-ci pour quelques exemples de visualisations qu'il permet de produire.

Suite / nouvelle mise à jour : la première moitié de cette entrée ultérieure est une sorte de suite à celle-ci (et à la mise à jour précédente).

↑Entry #2726 [older| permalink|newer] / ↑Entrée #2726 [précédente| permalien|suivante] ↑

↓Entry #2725 [older| permalink|newer] / ↓Entrée #2725 [précédente| permalien|suivante] ↓

(mardi)

Réchauffement climatique et événements extrêmes

Je veux ici apporter quelques embryons de réponse, mais surtout beaucoup d'interrogations, sur la question suivante : dans quelle mesure et pourquoi le réchauffement climatique est-il responsable d'événements extrêmes (canicules, sécheresses, pluies très fortes, vents violents, etc., et même, éventuellement, épisodes de froid intense) ? C'est une question très importante, qu'il faut arriver à communiquer correctement au public, et je trouve que ce n'est pas du tout bien fait, à tel point que même en disposant d'une — ahem — culture générale que j'espère correcte en thermodynamique, planétologie et météorologie, je ne trouve vraiment pas la réponse très claire.

Le problème quand on parle de réchauffement climatique de 1°C, 2°C, 3°C, 4°C par rapport à la période pré-industrielle, c'est qu'il s'agit de températures globales moyennes (moyennées sur l'ensemble de la surface de la Terre et sur une période assez longue). Il est tentant de se dire que si les températures augmentent de 2°C en moyenne, les pics de chaleur augmenteront aussi de 2°C, et comme zéroième approximation ce n'est pas stupide ; mais le fait est que même si on soustrait 1.5°C (ce qui est une borne supérieur du niveau actuel de réchauffement, au moment où j'écris, par rapport aux niveaux pré-industriels) aux records de chaleur récents, ils continuent à paraître extrêmement exceptionnels en comparaison aux données historiques. Ceci est le résultat de possiblement trois effets différents :

  • le changement climatique n'est pas uniforme dans l'espace : certaines régions du globe se réchauffement moins que d'autres (très sommairement, les terres émergées se réchauffent plus que les océans, l'hémisphère nord plus que l'hémisphère sud, et l'Europe et l'Amérique plus que l'Afrique et l'Asie du Sud-Est) ;
  • le changement climatique n'est pas uniforme dans l'année (très sommairement, les températures minimales ont tendance à augmenter plus que les températures maximales, ce qui devrait au contraire avoir tendance à faire que les extrêmes augmentent moins que la moyenne, mais cette tendance n'est pas forcément vraie partout) ;
  • le changement climatique n'est pas uniforme en probabilité, au sens où il n'effectue pas une simple translation de la distribution de probabilité des températures à une date et un lieu donnés, mais augmente peut-être aussi leur variance.

Concernant le dernier point, il n'y a aucune contradiction a priori à ce que les extrêmes de froid deviennent de plus en plus froids en même temps que les extrêmes de chaud deviennent de plus en plus chauds dans le cadre d'une augmentation générale de la moyenne ; cela pourrait être vrai de façon systématique, ou à certains endroits (par exemple, en Europe, si le gulf stream diminue en intensité et que le climat européen devait être moins tempéré par l'influence océanique, on pourrait très bien imaginer que, dans un contexte de réchauffement climatique global, Paris se retrouve avec un climat proche de Winnipeg qui est, après tout, à peu près à la même latitude) ; néanmoins, à ce que je comprends, ce n'est pas le cas, les extrêmes de froid devraient devenir moins extrêmes à peu près partout sur la planète.

Les informations sur tous ces points sont assez difficiles à trouver, surtout s'il s'agit de donner des ordres de grandeur chiffrés, et notamment une séparation des trois effets que je viens de lister. Les modèles climatiques sont très bons pour des moyennes, mais pas très bons pour prévoir des phénomènes localisés dans l'espace, et encore moins les événements rares ; ils sont tellement coûteux en puissance de calcul qu'on ne peut pas les faire tourner un nombre considérable de fois (avec des petites perturbations initiales) pour obtenir une distribution raisonnable de probabilités.

Cette vidéo de Sabine Hossenfelder (dont j'ai déjà dû dire du bien un certain nombre de fois) explique assez bien les enjeux de la question et la difficulté à attribuer au changement climatique la responsabilité des événements externes précis, donc il faut au moins que je la mentionne au passage.

Par ailleurs, même une fois des informations calculées par les modèles, il reste encore la question pas du tout évidente de comment les présenter (surtout s'il s'agit de tenir compte à la fois du lieu, de la période de l'année, de l'horizon temporel, du scénario de réchauffement climatique envisagé, et de la borne de probabilité considérée : il n'est pas évident de rassembler en un seul graphique des informations comme à Paris, entre juin et août, sur la période 2040–2070, dans un scénario d'émissions standardisé conduisant à un réchauffement global de 4°C, les températures maximales typiques sur un intervalle de 10 ans vont augmenter de x°C avec un intervalle de confiance à 95% de y°C — il y a un peu trop de paramètres à rassembler).

Voici néanmoins trois sources qu'on m'a signalées et qui offrent au moins une vue d'ensemble sur ce à quoi on peut s'attendre :

  • Le chapitre 11 (Weather and Climate Extreme Events in a Changing Climate) de la partie WG I (Climate Change 2021: The Physical Science Basis) du sixième rapport d'évaluation du GIEC. (Oui, la nomenclature est compliquée, donc pour que vous ne vous perdiez pas dans ce système merdique, voici le lien direct vers le chapitre dont je parle.) Oui, ce seul chapitre fait 254 pages, mais on peut au moins lire le résumé, l'introduction et la FAQ, et les lignes des régions auxquelles on est intéressé dans les grandes tables à la fin.
  • Concernant la France métropolitaine spécifiquement, le rapport Nouvelles projections climatiques de référence DRIAS 2020 pour la métropole du projet DRIAS (les futurs du climat). (Lien direct vers le rapport.) Ce rapport fait 98 pages, mais on peut au moins lire les deux pages de synthèse, p. 68–69.
  • Le site web de l'organisation Berkeley Earth a aussi des données intéressantes, mais c'est un peu le bordel pour s'y retrouver.

Je n'ai pas réussi à retrouver la source précise du graphique de ce tweet qui affirme que sur les dernières ~40 années, la température moyenne en surface des terres a augmenté de 0.27°C/décennie, comparée à seulement 0.11°C/décennie pour les océans. En comptant que les océans constituent 70% de la surface, cela représenterait un facteur de 1.7 de démultiplication entre l'élévation de la température moyenne globale et celle de la surface des terres.

Je retire de ces sources les ordres de grandeur et idées suivantes :

  • Il faut s'attendre à un facteur de démultiplication d'environ 1.7 entre le réchauffement climatique moyen et le maximum annuel moyen en l'Europe occidentale, c'est-à-dire que chaque degré de réchauffement de la moyenne globale se traduit par 1.7 degrés de réchauffement du maximum annuel moyen en Europe occidentale. [Source : figure 11.3 du rapport du GIEC cité ci-dessus.] Mais je n'arrive pas vraiment à trouver une valeur cohérente pour la démultiplication sur la température moyenne (i.e., combien chaque degré de réchauffement de la moyenne globale se traduit en réchauffement sur la moyenne de l'Europe occidentale) : les valeurs indiquées dans le rapport DRIAS (de +3.9°C en France à l'horizon 2100 pour un scénario représentant +3.7°C de moyenne globale, valeurs trouvées p.68&72 du rapport cité ci-dessus) suggèrent un facteur assez proche de 1, mais je trouve ailleurs des choses assez incohérentes avec un tel chiffre, donc peut-être que j'ai mal compris.
  • L'augmentation des températures minimales annuelles moyenne en Europe occidentale devrait elle-aussi augmenter plus que la moyenne globale, et même encore plus que les températures maximales, avec un facteur de démultiplication de peut-être 2.5 [source : figure 11.A.1 du rapport du GIEC cité ci-dessus]. Ceci me laisse donc encore plus confus quant au phénomène sur la moyenne annuelle (mais peut-être que les saisons intermédiaires se réchauffent beaucoup moins ?).
  • Les épisodes de canicule devraient devenir plus fréquents, mais il n'est pas clair pour moi (d'après les sources que j'ai trouvées) si cette fréquence augmentée devrait être plus importante que celle prédite par l'augmentation de la température maximale annuelle moyenne ou s'il y a une véritable augmentation de fréquence intrinsèque des événements rares. Quoi qu'il en soit, les épisodes de froid intense devraient devenir plus rares, donc s'il y a augmentation de la variance, elle ne semble pas devoir compenser l'augmentation de la moyenne.
  • La quantité de précipitation annuelle totale ne doit pas changer de façon considérable en Europe occidentale (pour la France on prévoit plutôt une légère hausse, mais avec une grande incertitude), mais sa répartition au cours de l'année doit évoluer : d'avantage de pluies en hiver et moins de pluies en été. Là aussi, ces évolutions doivent s'accompagner d'évolution des extrêmes, avec des épisodes plus fréquents de pluies très intenses et aussi des épisodes plus fréquents de sécheresse estivale.
  • Les effets du changement climatique sur les vents, y compris sur les événements extrêmes en la matière, ne sont pas clairs du tout.

Tout ça n'est pas terriblement clair ! Mais ce qui est encore plus confus, pour moi, c'est la raison pour laquelle un réchauffement climatique global entraînerait plus d'événements extrêmes, ou une augmentation de la variance (dispersion par rapport à la moyenne) en plus de la simple augmentation de la moyenne.

Je pose notamment la question suivante : le climat de l'éocène inférieur, période pendant laquelle les températures moyennes étaient de 10°C à 14°C supérieures[#] aux valeurs actuelles était-il sujet à des événements particulièrement extrêmes ? (Y avait-il des dômes de chaleur qui se formaient montant l'air à 60°C? Des températures dépassant les 45°C au thermomètre humide[#2] et tuant tous les animaux ?) Je ne crois pas qu'on ne ait pas la réponse à cette question (les événements de ce genre ne laissent pas de trace particulièrement exploitable). En fait, on ne comprend pas bien le climat de cette période (qui semble avoir été caractérisé par un réchauffement plus important aux pôles qu'à l'équateur, donc un écart de températures moins important entre les deux, et si je comprends bien on ne sait pas vraiment pourquoi, ou en tout cas pas expliqué le niveau observé).

Mais ce qui est sûr, c'est que le rythme actuel d'augmentation des températures est supérieur à tout ce qu'on a détecté[#3] dans les données géologiques. Peut-être que ce n'est pas tant l'amplitude du réchauffement qui compte que son rythme (= sa dérivée temporelle) ? Là je peux nettement plus facilement imaginer des explications, par exemple différents sous-systèmes climatiques qui mettent plus ou moins de temps à s'équilibrer et, tant que cet équilibre n'a pas eu lieu, donnent lieu à des fluctuations un peu aléatoires pouvant causer des événements extrêmes.

Je crois comprendre, notamment, qu'une raison du dérèglement que nous observons notamment en Europe est lié à une faiblesse du jet-stream[#4] qui, du coup, se met à onduler, ce qui favorise soit la montée d'air du Sahara soit la descente d'air polaire (donc des épisodes inhabituellement chauds comme des épisodes inhabituellement froids — donc une plus grande variance des températures — quelle que soit la saison). Mais de nouveau, ceci soulève la question de si cette faiblesse du jet-stream est liée à l'amplitude de la hausse des températures, ou à sa vitesse, si c'est quelque chose qui se produit forcément quand la Terre est plus chaude (comment était le jet-stream à l'éocène ?) ou si c'est un régime transitoire quand la Terre se réchauffe. [Ajout : ici une explication possible proposée par un planétologue néanmoins non spécialiste de la Terre : l'affaiblissement du jet-stream pourrait être dû au fait que les pôles se réchauffent plus vite que l'équateur, ce qui diminue le gradient de température en latitude.]

Toujours est-il que je voudrais bien des explications plus claires. Il va peut-être falloir que je fouille moi-même dans les archives météo et dans les données DRIAS pour trouver au moins une réponse à la question de si la variance des températures augmente, et si oui de combien, et je ne crois pas que je trouverai de source claire sur la raison pour laquelle le réchauffement entraîne plus de variabilité, ni encore moins sur la météo de l'éocène.

PS : Je ne suis toujours pas décidé quant à savoir s'il vaut mieux parler de réchauffement climatique ou de changement climatique. J'ai longtemps préféré changement climatique parce que cela rappelle qu'il ne s'agit pas que d'un réchauffement, mais c'était en partie parce que je pensais qu'il pouvait aussi conduire à des froids plus extrêmes (malgré une augmentation moyenne) : apparemment, ce n'est pas vraiment au programme, et comme par ailleurs changement climatique semble avoir été en partie récupéré par des gens voulant faire croire qu'il est d'origine naturelle et pas anthropogène, il vaut peut-être mieux l'éviter. On peut aussi parler de dérèglement climatique, mais je n'aime pas énormément, parce que cela suggère une machine qui s'est déréglée toute seule.

[#] Ce graphique des températures historiques tout au long du phanérozoïque est extrêmement précieux pour se faire une idée (attention à bien lire l'échelle de temps, qui change quatre fois !). ⁂ Digression : Je fais remarquer ici qu'il ne faut pas prétendre qu'avec +6°C la Terre devient inhabitable : elle a été encore nettement plus chaude que ça, et de toute évidence elle était habitée (et pour les gens qui comme moi ont du mal avec les noms de ces périodes géologiques, je rappelle que l'éocène inférieur, c'est entre −56 et −47 millions d'années : il n'y avait plus de dinosaures non-aviaires depuis plus de 10 millions d'années, beaucoup d'ordres de mammifères actuels sont apparus vers ce moment-là, et les continents avaient pas loin de leur forme actuelle ; donc ce n'est pas comme si je comparais avec les températures probablement encore plus élevées du cambrien, il y a 500 millions d'années, où il n'y avait même pas de vie en surface, uniquement dans les océans, et assurément rien qui ressemble à un mammifère). Et plus globalement parlant, nous vivons dans un intervalle interglaciaire — l'holocène — d'une période glaciaire — essentiellement, le pleistocène : c'est ce qui explique qu'une bonne partie de l'histoire de la Terre au long du phanérozoïque a connu des températures plus élevées. Tout ceci n'est pas une façon de dire que le changement climatique actuel n'est pas catastrophique, mais il ne menace pas la vie animale sur Terre, il nous menace nous : si une grande majorité des espèces animales est menacée d'extinction (mais il en restera toujours assez adaptées pour se diversifier de nouveau comme après les extinctions de masse précédentes), et si les humains pourraient probablement survivre d'une manière ou d'une autre quelque part au climat de l'éocène ou à quelque chose qui y ressemble, en revanche, notre civilisation qui soutient 8 milliards d'entre nous grâce à une agriculture à haut rendement extrêmement optimisée, clairement, ne le peut pas. Et je pense qu'il ne faut pas escamoter ces points quand on communique au grand public, parce que sinon il y aura un petit malin qui lira l'article éocène sur Wikipédia, et qui dira ha ha, les scientifiques nous mentent, la Terre a été bien plus chaude par le passé [← ceci est vrai], le réchauffement climatique n'est donc pas un problème ou n'est pas d'origine anthropogène [← ceci est faux].

[#2] Digression : La température de thermomètre mouillé (ou de thermomètre humide ou juste température humide) est la température à laquelle on peut refroidir l'air par évaporation d'eau liquide, jusqu'à porter l'air à saturation en vapeur d'eau, la chaleur latente d'évaporation de l'eau était prise à l'enthalpie l'air. (C'est-à-dire qu'on introduit dans l'air une quantité infinitésimale d'eau liquide à température de l'air, on la laisse s'évaporer, et on recommence de façon isobare jusqu'à ce que l'air soit saturé d'eau. Concrètement, c'est la température que mesure un thermomètre qui est entouré d'une gaze humide qui assure que l'air autour de lui est saturé d'humidité. Il y a des différences subtiles entre petites variations autour de cette notion, qualifiées de façon incohérente de température thermodynamique de thermomètre humide ou température adiabatique de thermomètre humide ou d'autres variations avec des mots comme pseudo-adiabatique ou pseudo-potentiel.) Elle est au moins aussi importante que la vraie température (i.e., la température sèche) pour déterminer si des conditions météorologiques sont supportables ; notamment, une température humide supérieure ou de l'ordre de 35°C est mortelle pour l'homme même correctement hydraté, car la transpiration ne permet plus de refroidir suffisamment le corps. Il ne faut pas la confondre avec le point de rosée, lui aussi exprimé en degrés, et qui est la température à laquelle il faut refroidir l'air de façon isobare pour saturer l'eau qui est dedans : le point de rosée ne mesure, finalement, que l'humidité absolue. Cf. ce fil Twitter (ainsi que ce chapitre d'un livre de météorologie qui y est cité) pour le rapport entre ces deux notions.

[#3] À la frontière paléocène-éocène, il y a environ 56 millions d'années a eu lieu un événement de réchauffement très rapide suite à une émission massive de CO₂ dans l'atmosphère, provoquant une augmentation des températures globales de quelque chose comme 5° à 8°C (c'est énorme). Cet événement (à ne pas confondre avec l'augmentation puis baisse beaucoup plus graduelle des températures lors de l'éocène lui-même) est parfois évoqué comme modèle de l'épisode anthropogène actuel. Mais même cet événement très rapide à l'échelle géologique a duré tout de même quelque chose comme 20 000 à 50 000 ans, donc on parle d'un rythme d'augmentation des températures entre 10 et 100 fois plus lent que ce que nous observons actuellement. (Évidemment, ça n'interdit pas d'écrire une histoire de science-fiction dans laquelle une autre espèce intelligente avant nous aurait développé une civilisation à ce moment-là, brûlé plein d'énergie fossiles, et se serait éteinte sans laisser de trace. Cette vidéo est pertinente à ce sujet.)

[#4] Aveu : je n'arrête pas de confondre le jet-stream et le gulf stream (enfin, ce n'est pas que je confonds mentalement, ça n'a guère de rapport, l'un est un courant d'air et l'autre un courant d'eau, mais je n'arrête pas de faire des lapsus dans un sens ou dans l'autre), et le fait que les deux soient très importants pour le climat européen n'aide évidemment pas.

↑Entry #2725 [older| permalink|newer] / ↑Entrée #2725 [précédente| permalien|suivante] ↑

↓Entry #2724 [older| permalink|newer] / ↓Entrée #2724 [précédente| permalien|suivante] ↓

(jeudi)

Harmonisation de notes : variations sur un thème

Contrairement à ce que le titre de cette entrée peut laisser entendre, il n'est pas question ici de musique mais de comment corriger des copies. (Dans une certaine mesure, ce billet fait suite à celui-ci et dans une moindre mesure celui-là, mais je vais en redire les points importants.) Mais comme il est question de notes, je vais mettre beaucoup de notes dans ce billet. Et je vais, surtout, partir dans des digressions mathématiques franchement gratuites donc, préparez-vous.

Je suis responsable d'un enseignement de première année à Télécom Paris qui (comme quasiment tous les enseignements de première année) concerne l'ensemble de la promotion (soit ~200 élèves) : ils sont répartis en 6 groupes d'enseignement, chacun pris en charge pour cours+TD par un enseignant différent, mais au bout du compte, tout le monde passe le même contrôle de connaissances, qui est ce dont je veux parler ici : les copies de ce contrôle sont réparties aléatoirement[#][#2] entre les enseignants, et chacun va corriger un tas.

[#] Enfin, aléatoirement est peut-être un peu ambitieux. Je demande au service de l'enseignement de répartir les copies en six tas de taille à peu près égale, mais pas en suivant les groupes d'enseignement, et de me fournir la liste des noms de chaque tas. La manière exacte dont est faite cette répartition m'échappe, et il faut dire que c'est le genre de choses qui, en pratique, est un peu pénible, si on a une pile de ~200 copies (physiques) et un tableau de noms, pour faire une répartition en 6 groupes aléatoires et produire à la fois les six tas physiques et le tableau avec la répartition des noms. Si vous avez des astuces à proposer pour y arriver efficacement que je puisse expliquer sans mal au service de l'enseignement, n'hésitez pas à proposer.

[#2] On peut imaginer que chaque enseignant corrige les copies du groupe auquel il a fait cours (l'idée étant qu'il le connaît mieux), mais je trouve que c'est plus équitable d'avoir pour commencer une répartition aléatoire. En tout cas, c'est important pour l'harmonisation que je veux évoquer ici (à cause de leur construction, on ne peut pas faire l'hypothèse que les groupes d'enseignement sont de même niveau, alors qu'une répartition aléatoire l'est statistiquement).

Corriger, ici, ça veut dire remplir un tableau indiquant, pour chaque copie d'élève (λ, en ligne) et chaque question[#3] du contrôle (i, en colonne), une note (un nombre réel) xλ,i entre 0 et 1 [#4], où la note 0 signifie la question n'a pas été traitée ou est tellement fausse qu'il n'y a rien à en tirer et la note 1 signifie la question est traitée de façon parfaite et irréprochable, toute autre valeur étant à l'appréciation du correcteur.

[#3] Évidemment, s'il y a des sous-questions, je vais essayer de demander une note pour chaque sous-question, mais il y a une limite à la résolution atteignable. Grosso modo, je délimite 12 à 20 questions notées pour un contrôle.

[#4] Pour être plus précis, comme certains n'aiment pas noter sur 1, mon tableau de correction offre la possibilité de noter sur autre chose, par exemple sur 100, ce qui correspond simplement à diviser par le maximum en question. Mais comme cette possibilité ne change rien mathématiquement à ce que je veux raconter, ne fait que compliquer mes formules LibreOffice, et d'ailleurs de toute façon aucun correcteur ne s'en sert (pourtant c'est bien suite à des râleries de leur part que j'ai introduit la possibilité), autant ne pas en parler et convenir que la note de chaque question est entre 0 et 1. Ça simplifiera toutes les formules d'harmonisation dans la suite en évitant de diviser et de remultiplier.

Ensuite, bien sûr, toutes les questions n'ont pas la même valeur, c'est-à-dire qu'il y a un barème : chacune reçoit un poids pi, et la note de l'élève λ au contrôle est proportionnelle[#5] à la somme des pi · xλ,i pour toutes les questions i du contrôle.

[#5] J'écris est proportionnelle, parce que pour avoir 20/20 il n'est pas forcément nécessaire d'avoir 1 à toutes les questions (le contrôle est souvent noté sur plus que 20, les notes dépassant 20, s'il y en a, étant tronquées à 20). Donc la note de la copie λ est plutôt donnée par Nλ := Nmax · ∑i(pi·xλ,i)/∑i(pi) où Nmax vaut quelque chose comme 21 ou 22 ; ou, en fait, c'est min(Nλ,20) arrondi au 0.1 supérieur, ou quelque chose de ce goût-là. Je n'entre pas dans ces détails qui n'ont rien à voir avec ce que je veux évoquer ici. (Cf. le billet précédent pour plus de précisions.)

Seulement, voilà : tous les correcteurs ne notent pas aussi sévèrement. Cela se voit au fait que si je fais la moyenne des notes de chaque tas de copies, je devrais[#6] trouver plus ou moins la même chose si les tas ont été constitués aléatoirement, mais en fait je trouve des moyennes allant de 10.0 à 12.5 (disons, pour donner un ordre de grandeur) d'un correcteur à l'autre.

[#6] Pas exactement, bien sûr. Mais si l'écart-type des notes « justes » est de, disons, 3 points, alors moyenné sur 32 copies il devrait tomber à 3/√32 ≈ 0.5 points. Autrement dit, des fluctuations aléatoires entre moyennes des différents tas de copies de l'ordre d'un demi-point sont à attendre, mais quand c'est beaucoup plus, il devient pertinent d'harmoniser.

Comment harmoniser entre correcteurs, donc ? (Quand l'enjeu est vraiment important, on met en place une double correction, c'est le cas notamment à l'Agrégation ; mais on ne va pas faire ça pour les enseignements d'une grande école.) Les responsables de certains enseignements ignorent simplement le problème (ils considèrent par exemple que la répartition aléatoire des copies est une forme suffisante d'équité, ce qui se défend). D'autres appliquent un coefficient multiplicatif rendant égales toutes les moyennes (typiquement, on prend la plus haute moyenne d'un tas de copies, et on multiplie les notes de tous les autres par le bon coefficient par tas pour que chaque tas ait cette même moyenne). C'est simple, mais je trouve ça un peu insatisfaisant : une copie qui a traité parfaitement la moitié des questions et n'a pas du tout touché aux autres devrait avoir la même note quel que soit le correcteur qui l'a corrigée.

Mon idée générale est plutôt d'harmoniser les notes telles qu'elles m'ont été renvoyées, autrement dit, d'appliquer une fonction φ par correcteur : remplacer chaque note xλ,i par yλ,i := φ(xλ,i), où φ est choisi une fois pour chaque correcteur (mais ne dépend ni de la copie λ ni de la question i), et ensuite de faire le calcul sur les yλ,i comme si c'étaient ces notes-là qu'on m'avait fournies. (Et bien sûr, les fonctions d'harmonisation φ de chaque correcteur doivent être choisies de manière à donner au moins approximativement la même moyenne à leurs tas de copies respectives.)

Mais quelle fonction φ choisir ? Ou plus précisément, dans quelle famille de fonctions choisir les φ ? On veut au minimum une fonction croissante [0;1]→[0;1] (puisque les notes de chaque question sont dans l'intervalle [0;1] et qu'évidemment si un même correcteur a mis une note plus élevée ça doit se refléter en un résultat plus élevé), et certainement continue (parce que les effets de seuil sont merdiques).

Je pars aussi du principe suivant : on doit avoir φ(0)=0 et φ(1)=1. Autrement dit, si le correcteur a mis 0 ou 1 à la question, je pars du principe que cela doit rester tel quel. Ce principe est sans doute contestable (la solution d'harmonisation consistant à multiplier toutes les notes par un même facteur c par correcteur revient à prendre φ(x) = c·x, ce qui préserve 0 mais pas 1, par exemple), mais je justifie mon principe en disant que si le correcteur a trouvé la question parfaite, ou au contraire totalement insauvable, tout autre correcteur devrait être d'accord avec ce jugement[#7] — ce sont les notes strictement intermédiaires entre 0 et 1 qui sont sujettes à plus de variations subjectives. (Les graphes tracés ci-dessous rendront peut-être plus claire l'idée de ce que je veux dire, mais grosso modo, une question 0% juste ou 100% juste on devrait être d'accord, alors qu'une question 30% juste peut-être qu'un autre correcteur la trouvera 50% juste ou 20% juste.)

[#7] Bon, encore faut-il que les correcteurs aient joué le jeu de suivre la consigne que je demande de ne mettre 0 que quand il n'y a rien, absolument rien à sauver à la question, et 1 que quand c'est absolument parfait, ce qui n'est pas forcément gagné, et de fait, je vois — et je mets moi-même ! — beaucoup plus de 0 et de 1 dans le tableau qu'il n'est raisonnable de penser qu'il y a de questions insauvables ou parfaites. Mais faisons semblant d'y croire.

Bref, c'est là que je commence à mettre ma casquette de matheux : on cherche des familles de fonctions continues croissantes, et même strictement croissantes, [0;1]→[0;1] fixant 0 et 1. Cela laisse encore énormément de possibilités ! Je vais m'imposer deux ou trois contraintes supplémentaires pour limiter sérieusement les choses :

  • D'abord, je vais chercher une famille à un paramètre de fonctions. Je ne vais pas définir ça rigoureusement, mais l'idée est que je cherche à appliquer une rectification unique par correcteur, sur la base d'un seul paramètre (pour harmoniser les moyennes de chaque tas) : je ne veux pas qu'il y ait trente-six paramètres à régler, en vertu de l'adage bien connu attribué à von Neumann : With four parameters I can fit an elephant, and with five I can make him wiggle his trunk. Donc : un seul paramètre d'harmonisation par correcteur (à la rigueur on peut envisager deux si je peux défendre très sérieusement cette idée, mais certainement pas plus), pour éviter de cacher un éléphant dans mes copies.
  • Ensuite, je veux que ma famille de fonctions d'harmonisations forme un groupe. Ceci signifie grosso modo que si on applique une fonction d'harmonisation (de la famille choisie) puis une autre, le résultat doit encore être une fonction d'harmonisation de la famille choisie. Cette exigence n'est pas évidente à justifier (à part pour son élégance mathématique), mais l'idée très vague est qu'aucun correcteur ne doit être privilégié : si on dispose d'une fonction qui ramène l'échelle des valeurs intermédiaires du correcteur X à celles du correcteur Y et une qui ramène l'échelle des valeurs intermédiaires du correcteur Y à celles du correcteur Z, on doit pouvoir les appliquer[#8] successivement pour ramener l'échelle des valeurs intermédiaires du correcteur X à celles du correcteur Z. Et aussi (cela fait aussi partie de l'exigence de constituer un groupe), si on dispose fonction qui ramène l'échelle des valeurs intermédiaires du correcteur X à celles du correcteur Y on doit pouvoir l'inverser (l'appliquer à l'envers) pour ramener l'échelle des valeurs intermédiaires du correcteur Y à celles du correcteur X.
  • Par ailleurs, on veut sans doute imposer que 0 et 1 soient les seuls points fixes de φ, ce qui revient à demander que soit φ(x)<x pour tout 0<x<1 (fonction appliquée pour un correcteur trop peu sévère), soit φ(x)>x pour tout 0<x<1 (fonction appliquée pour un correcteur trop sévère). Peut-être même qu'on veut imposer dans le premier cas que φ soit convexe et dans le second qu'elle soit concave, ou d'autres choses de ce genre.

[#8] Les théoriciens des catégories pourraient me faire remarquer que je demande plutôt, en fait, que mes fonctions d'harmonisation sont un groupoïde (une catégorie dont les objets sont les correcteurs et les morphismes sont les fonctions d'harmonisation). Ignorons-les.

Je suis donc amené à chercher des objets mathématiques déjà nettement plus limités : des groupes à un paramètre d'homéomorphismes croissants [0;1]→[0;1] (un homéomorphisme croissant [0;1]→[0;1] est la même chose qu'une fonction continue strictement croissante [0;1]→[0;1] fixant 0 et 1).

[Graphes des fonctions x ↦ x^γ sur [0;1]]Le choix que j'ai fait jusqu'à présent (c'est-à-dire, jusqu'à cette année incluse), consiste à utiliser la famille de fonctions x ↦ xγ d'élévation à une puissance γ (comprise au sens strict entre 0 et +∞). Le graphe de différents éléments de cette famille de fonctions d'harmonisation (régulièrement espacées[#9] dans le groupe à un paramètre) est tracé ci-contre à droite. Imaginez donc qu'en abscisse vous avez la note que le correcteur a choisie, et en ordonnée la note « harmonisée » (la courbe la plus basse correspond à un correcteur trop généreux dont il faut diminuer les notes, et la plus haute correspond à un correcteur trop sévère dont il faut augmenter les notes ; la courbe médiane est l'identité, c'est-à-dire, le segment diagonale ; et si on applique plusieurs fois la fonction juste au-dessus de l'identité, on obtient les fonctions successives au-dessus, tandis que leur inverse donne les fonctions successives en-dessous : c'est en gros ça le concept de groupe à un paramètre dont on a représenté des éléments régulièrement espacés).

[#9] Il faudrait expliquer exactement ce que régulièrement espacées veut dire ici : cela signifie que j'ai pris les puissances r-ièmes, pour r parcourant les entiers de −10 à 10 inclus, d'un même élément du groupe, autrement dit, j'ai tracé les x ↦ xγr où, en fait, γ₀ a été choisi valant exp(1/10), c'est-à-dire qu'il s'agit des graphes de x ↦ xexp(r/10) pour r∈{−10,…,10}. (Cela peut sembler bizarre d'avoir une exponentielle en exposant, mais c'est logique quand on pense que composer des fonctions puissances multiplie les exposants, donc des fonctions puissances régulièrement espacées dans le groupe sont des exposants qui sont multiplicativement régulièrement espacées, c'est-à-dire qui sont eux-mêmes des exponentielles de réels additivement régulièrement espacés.)

Le choix de x ↦ xγ se défend par ce qu'il est particulièrement simple : élever à une puissance γ est quelque chose qu'on peut faire facilement dans un tableur, notamment, et c'est aussi sans doute la première idée qui viendra à l'esprit de quelqu'un qui a compris le problème et cherche un homéomorphisme croissant [0;1]→[0;1]. (Au moins dans le domaine du graphisme, quand il s'agit d'harmoniser la réponse de moniteurs à un signal d'entrée, cela porte d'ailleurs un nom habituel : une correction gamma.)

Maintenant, ce qui saute aussi aux yeux sur ce graphique (surtout quand on est comme moi obsédé par la symétrie), c'est qu'il n'est pas très symétrique. Je veux dire, les notes proches de 0 et les notes proches de 1 ne subissent pas du tout le même effet sous l'opération de cette famille de fonctions d'harmonisation : l'effet de l'harmonisation est beaucoup plus prononcé[#10] sur les notes proches de 0. Peut-être est-ce souhaitable : peut-être que la différence de sévérité entre correcteurs va surtout se faire sentir sur les notes proches de 0 que sur celles proches de 1. (On peut bien sûr lire le graphique à l'envers, et imaginer qu'en abscisse on a une note de référence de la question et en ordonnée la note que met un correcteur plus ou moins sévère, selon l'échelle de sévérité corrigée par cette famille-là de fonctions d'harmonisation.) Peut-être bien, effectivement, que la différence de sévérité est plus liée à l'inclinaison à repérer une bribe d'idée dans une réponse presque entièrement fausse qu'à l'envie de sanctionner de petites imperfections dans une réponse presque parfaite. Est-ce le cas ? Je n'en sais rien. Mais faute d'information, je préfère partir de l'idée qu'on veut harmoniser de façon symétrique les notes proches de 0 et proches de 1. (Parce que, sinon, pourquoi utiliser x ↦ xγ plutôt que sa symétrique x ↦ 1−(1−x)γ ?)

[#10] Ceci est lié au fait que la dérivée de x ↦ xγ en 0 est nulle ou infinie selon que γ>1 ou γ<1, autrement dit, l'effet n'est pas du tout linéaire dans ce domaine — il est écrasant. Alors qu'en 1, la dérivée vaut simplement γ, donc on a un effet linéaire.

[Graphes des fonctions x ↦ x/((1−d)x+d) sur [0;1]][Graphes des fonctions x ↦ ½(1+erf(erfinv(2x−1)−e/√2)) sur [0;1]][Graphes des fonctions x ↦ (2/π)·arctan(tan(πx/2)/a) sur [0;1]]On peut tout à fait trouver des familles de fonctions d'harmonisation qui soient symétriques entre 0 et 1. La plus simple est donnée par la fonction rationnelle (homographie) x ↦ x/((1−d)x+d), où d est le paramètre dans la famille, qui est de nouveau multiplicatif (c'est-à-dire que composer deux telles fonctions multiplie les valeurs de d), que j'ai tracées en bleu ci-contre de façon régulièrement espacées[#11]. Ces fonctions sont encore assez simples à écrire et à calculer ; on peut les définir comme la famille des homographies qui envoient 0 sur 0 et 1 sur 1 (une homographie est le rapport entre deux fonctions affines non proportionnelles). La dérivée de la fonction vaut 1/d en 0 et d en 1, ce qui signifie que les notes très proches de 0 sont divisées par d tandis que l'écart à 1 des notes très proches de 1 est multiplié par d. La famille est complètement symétrique entre 0 et 1 en ce sens que symétriser la courbe par rapport au centre du carré (ce qui revient à conjuguer la fonction par x ↦ 1−x) donne la fonction inverse (c'est-à-dire la fonction correspondant au paramètre 1/d). Tout ça est assez satisfaisant pour l'esprit.

[#11] Là aussi, elles sont régulièrement espacées au sens où le paramètre d a été choisi comme valant exp(r × 3/20) pour r∈{−10,…,10}. La raison du 3/20 est qu'il fournit le même espacement, en aire, pour r petit, que le 1/10 du graphe précédent. (Plus exactement[#11b] : l'intégrale de xγ moins ½ vaut (1−γ)/4 à l'ordre 1, tandis que l'intégrale de x/((1−d)x+d) moins ½ vaut (1−d)/6 à l'ordre 1, donc une valeur de d de exp((3/2)·ε) est à comparer à une valeur de γ de exp(ε) en termes d'aire de l'écart à l'identité, ou coefficient de Gini si vous voulez.)

[#11b] Bon, puisque vous êtes apparemment du genre à lire les notes sur les notes, c'est que vous voulez vraiment les détails archi-précis, donc voici la normalisation que je fais : si (uφu) est un morphisme de (ℝ,+) vers le groupe des homéomorphismes croissants [0;1]→[0;1], de sorte que φ₀=id[0;1], si j'appelle G(u) la valeur 1 − 2∫φu(x)·dx (coefficient de Gini de φu), je reparamètre u (en le multipliant par une constante) de manière à avoir G′(0) = 1. Alors, avec cette convention, mes graphes sont tracés, dans chacun des trois cas, pour u allant de −½ à +½ par intervalles équidistants de 1/20. (Dans le premier cas (en rouge), γ = exp(2u), dans le second (en bleu), d = exp(3u), dans le troisième (en vert), e = (√π)·u, et dans le quatrième (en violet) a = exp((π²/4)·u).)

Les fonctions de cette famille x ↦ x/((1−d)x+d) peuvent aussi s'interpréter de la façon suivante : ce sont des décalages horizontaux[#12] sur le graphe d'une fonction logistique. Il y a toutes sortes de façons de redire ça[#13], par exemple en termes de variables aléatoires : on interprète (fictivement !) la note mise par un correcteur comme la probabilité qu'une certaine variable aléatoire, en l'occurrence distribuée selon une distribution logistique, soit inférieure à une certaine valeur, et en translatant la variable aléatoire en question (i.e., en décalant la valeur), on obtient la famille de fonctions que je viens de dire. C'est peut-être une façon bien compliquée de parler de x ↦ x/((1−d)x+d), mais l'intérêt est que cela suggère d'essayer d'autres distributions de variables aléatoires, d'autres fonctions « sigmoïdes », que la logistique.

[#12] Si on interprète x comme une valeur de la fonction logistique standard 1/(1+exp(t)), i.e., l'ordonnée d'un point (t,x) sur son graphe, alors x/((1−d)x+d) est l'ordonnée du point d'abscisse t + log(d), c'est-à-dire que translater l'abscisse de log(d) a l'effet de la fonction x ↦ x/((1−d)x+d) sur l'ordonnée.

[#13] En voici une : la fonction logistique fournit un homéomorphisme [−∞;+∞]→[0;1], et en conjuguant par cette homéomorphisme les translations sur [−∞;+∞], on obtient une famille d'homéomorphismes de [0;1], qui est celle que j'ai tracée en bleu. Mes autres familles s'obtiennent aussi[#13b] en conjuguant les translations par différents homéomorphismes [−∞;+∞]→[0;1] (qu'on peut préférer voir comme des fonctions de répartition de différentes variables aléatoires).

[#13b] Il n'est pas vrai en général qu'un groupe à un paramètre d'homéomorphismes [0;1]→[0;1] s'obtienne de la sorte : tout simplement parce que les translations n'ont pas de point fixe sur ℝ donc on obtient des familles d'homéomorphismes sans point fixe autre que 0 et 1. Je pense que des hypothèses tout à fait légères doivent permettre de conclure qu'un groupe à un paramètre d'homéomorphismes [0;1]→[0;1] sans point fixe autre que 0 et 1 s'obtient par conjugaison des translations par un homéomorphisme [−∞;+∞]→[0;1], mais je n'ai pas réfléchi précisément à quelles hypothèses.

En vert ci-contre j'ai utilisé la distribution normale (gaussienne). Précisément, les courbes vertes sont les courbes de la famille x ↦ ½(1+erf(erfinv(2x−1)−e/√2)) où e est le paramètre[#14] que je fais varier, et erf la fonction d'erreur (et erfinv son inverse) ; si on préfère, ces courbes vertes correspondent à faire un décalage horizontal sur le graphe de la fonction d'erreur alors que les courbes bleues étaient un décalage horizontal sur le graphe de la fonction logistique. Je suis sûr que ceci a une interprétation probabiliste assez naturelle.

(Il est par ailleurs intéressant que la dérivée en 0 — et aussi en 1 par symétrie — de ces fonctions est nulle ou infinie, même si c'est visuellement beaucoup moins frappant que pour la famille rouge. Et ce n'est pas complètement évident à voir ; cf. ce fil.)

[#14] Le √2 est complètement arbitraire ici, c'est juste pour dire que je translate la loi normale de e écarts-types. La note #11b en dit un peu plus sur la manière dont j'ai choisi, pour mes graphiques, de paramétrer les familles de façon comparable entre elles.

Quant aux courbes violettes, elles correspondent à la famille x ↦ (2/π)·arctan(tan(πx/2)/a), qu'on peut voir soit comme une homothétie sur la fonction tangente (sur la valeur d'une distribution de Cauchy, si on préfère), soit comme un décalage sur la fonction log-tangente[#15].

[#15] Non, ce n'est pas quelque chose d'aussi bizarre qu'il paraît : la fonction log-tangente apparaît en beaucoup d'endroits (par exemple dans l'ordonnée de la projection de Mercator). Le décalage de la tangente, lui, ne donnait pas quelque chose de convexe-ou-concave, c'est pour ça que je ne l'ai pas représenté.

[Graphes décrits dans le texte]On peut évidemment trouver d'autres familles de fonctions remplissant mes conditions, mais je pense que celles que j'ai tracées sont les plus simples et naturelles. Pour ce qui est de comparer ces familles, on peut par exemple tracer la différence à l'identité de la correction infinitésimale (i.e., la différentielle en l'identité de la famille[#16]) : c'est ce que j'ai fait ci-contre à droite[#17], ce qui permet de visualiser comment une toute petite correction affecte les notes, sur tout l'intervalle, dans chacune de ces quatre familles.

[#16] Elle-même normalisée pour être d'intégrale, disons, −½ pour correspondre à la normalisation donnée dans la note #11b.

[#17] Les fonctions tracées sont, précisément, 2x·log(x) en rouge, 3x(x−1) en bleu, −exp(−erfinv(2x−1)²)/√2 en vert, et −(π/4)·sin(πx) en violet.

Bref, je me suis laissé emporter à de longues digressions qui sont assez caricaturales du mathématicien (qui, partant de la question de comment noter des copies de façon efficace, en arrive à se demander comment on classifie les groupes à un paramètre d'homéomorphismes [0;1]→[0;1]), mais je me pose quand même vraiment la question pratique de si je devrais changer ma formule x ↦ xγ pour, disons, x ↦ x/((1−d)x+d) (ou autre chose), et le cas échéant, comment l'implémenter avec un tableur (LibreOffice) sans que ce soit trop lourd[#18].

[#18] Je crois que le langage merdique des formules LibreOffice (enfin, je suppose qu'il est copié sur celui d'Excel) n'a pas de concept de variable locale : il semble que je ne peux pas écrire let x=[expression compliquée] in [autre formule compliquée], il faut soit dupliquer l'expression de x, ce qui rend la formule abominable, soit utiliser une case du tableau pour la calculer, ce qui impose d'étendre le tableau par plein de cases fictives moches qui ne serviront qu'à stocker des valeurs intermédiaires, soit enfin utiliser un langage de macros (LibreOfffice Basic), ce qui imposera sans doute d'autoriser l'exécution des macros à chaque fois qu'on ouvre le fichier et ce qui cassera certainement la compatibilité avec Excel. Bref, toutes les solutions sont pourries.

↑Entry #2724 [older| permalink|newer] / ↑Entrée #2724 [précédente| permalien|suivante] ↑

↓Entry #2723 [older| permalink|newer] / ↓Entrée #2723 [précédente| permalien|suivante] ↓

(vendredi)

Sur la relativité de la culture générale

Comme beaucoup de geeks, j'aime collectionner les bribes d'information en tout genre (mon papa aimait me qualifier de source inépuisable de renseignements complètement inutiles). À une certaine époque — et quand je dis à une certaine époque, je dois en fait reconnaître que cette époque dure jusqu'au présent, ou du moins que je peine à me défaire de cette illusion — je me faisais l'idée d'une structure bien organisée de la connaissance, avec un champ très large, la culture générale, sur laquelle je chercherais à avoir une connaissance peu profonde mais minimale, un champ plus étroit de culture scientifique sur lequel je chercherais à en savoir plus, un champ encore plus étroit de culture mathématique où j'en saurais encore plus, etc. Comme s'il y avait une grand disque des domaines possibles sur lequel on cherche à appliquer un vernis aussi uniforme que possible de culture général, avec quelques disques imbriqués dans lequel on va appliquer des couches supplémentaires.

La réalité, dont je me suis rendu compte plus tard, c'est que ma culture générale est faite de trous. La réalité encore plus importante, dont je me suis rendu compte encore plus tard, c'est que la culture générale de tout le monde est faite de trous. Et que c'est normal et que ce n'est pas quelque chose dont il faut se lamenter.

Et quand je dis faite de trous, il faut imaginer quelque chose comme un triangle de Sierpiński ou des cercles d'Apollonius, mais en moins régulier : un grand trou d'ignorance au centre, et pour chacun des bouts qui restent, encore un grand trou d'ignorance au centre, et pour chacun des bouts qui restent, etc. — les bribes de connaissance qu'on a sont ce qui reste quand on retire tous les trous.

Ce n'est pas un problème. Le problème est qu'on se comporte souvent en croyant, ou en faisant semblant de croire, que ce n'est pas le cas.

Un exemple assez évident de ça, ce sont les « classiques ». Les classiques, comme le dit un adage bien connu, ce sont des livres que tout le monde veut avoir lu mais que personne ne veut lire. Il est sans doute plus correct de dire que ce sont des livres qu'énormément de gens font semblant d'avoir lu parce qu'ils ont un peu honte de ne pas les avoir lus. Du coup, une règle tacite et assez absurde veut qu'on se comporte vis-à-vis des classiques comme si tout le monde avait tout lu (on les cite sans préfacer la phrase d'explications sur ce dont il est question ; il est considéré comme malpoli d'offrir un classique parce que cela suggère que le destinataire ne l'a pas lu ; et ainsi de suite). Il est pourtant facile de faire tomber le masque : il y a beaucoup trop de livres considérés comme des classiques pour que qui que ce soit puisse sérieusement prétendre tous les avoir lus. Rien que les pièces de Shakespeare (qui sont « évidemment » toutes des « classiques »), il est clair que très peu de gens les ont toutes lues ou vues représentées, et d'ailleurs peu de gens doivent en avoir lu ne serait-ce qu'une seule en-dehors d'un éventuel cours d'anglais : donc vous prenez une pièce de Shakespeare au pif et vous avez un exemple d'un trou dans la culture générale de… quasiment tout le monde. Et comme Shakespeare va favoriser les anglophones, ajoutez quelques autres grands auteurs et même si on se dit qu'on va se concentrer sur la littérature européenne ou « occidentale » (whatever that may be), il n'y a pas grand-monde qui va pouvoir frimer très fort.

Et je ne parle là que d'un aspect ridiculement petit de la culture générale : la lecture de quelques œuvres « classiques ». Le phénomène est le même à tous les niveaux et dans tous les domaines : des trous, des trous, des trous.

(Le mieux pour se convaincre qu'on ne sait rien, c'est peut-être bien d'aller sur Wikipédia, et de cliquer sur le bouton article aléatoireici pour la Wikipédia francophone — et de répéter l'opération jusqu'à tomber sur un article sur lequel on soit capable de dire quelque chose de non évident.)

Un autre adage prétend que la culture c'est comme la confiture : moins on en a, plus on l'étale. Il y a de ça, mais ce n'est pas vraiment moins on en a, c'est surtout plus on veut donner l'impression qu'on en a, ou plutôt, que les autres n'en ont pas ; et ce n'est pas tellement une question de l'étaler que de mettre le projecteur dessus. Les gens qui paraissent avoir une grande culture sont ceux qui arrivent à attirer l'attention sur les domaines où ils savent des choses. S'ils ont lu Titus Andronicus (ou peut-être juste lu l'article Wikipédia, en fait), ils vont vous le faire savoir en l'utilisant comme comparaison pour décrier les horreurs auxquelles peut conduire la soif de vengeance, et vous allez vous sentir un peu bête si, comme la grande majorité des gens, vous n'avez pas lu Titus Andronicus, vous savez peut-être tout juste que c'est de Shakespeare et certainement pas de quoi ça parle, mais vous aurez un peu l'impression que vous devriez savoir. (Et quand ces gens sont encore plus habiles, ils écrivent un billet de blog sur la culture générale et mentionnent Titus Andronicus au passage, et du coup vous vous dites qu'ils l'ont certainement lu, ce qui, en l'occurrence, est complètement faux, ils ont juste parcouru l'article Wikipédia, mais ça, ils ne l'avoueront qu'à travers une parenthèse alambiquée dans le billet de blog en question, parce que ne pas avoir lu un classique c'est quand même quelque chose qu'on ne peut pas avouer.)

Bref, le secret pour avoir l'air cultivé, ce n'est pas d'avoir moins de trous que les autres dans sa culture générale, c'est ① d'attirer l'attention sur les choses qu'on sait, et ② de bluffer quand on ne sait pas, en hochant la tête d'un air bien entendu ou en répondant par des platitudes pour ne surtout pas avoir à avouer qu'on n'a pas lu, disons, Nathan le Sage.

Je ne compte pas le nombre de fois où j'ai été saisi par l'illusion que telle ou telle personne à la conversation brillante avait une immense culture et où, par curiosité ou pour tester l'hypothèse formulée au paragraphe précédent, j'ai fait exprès de dévier la conversation sur un sujet où il n'était pas possible de bluffer, et j'ai vite vu combien c'était creux sous le vernis.

Même les gens qui semblent très forts en mode Questions pour un champion ont une culture générale qui n'est pas moins de trous que tout le monde, c'est juste que les non-trous sont différemment répartis, concentrés sur les choses qui peuvent se dire en très peu de mots (façon format de question à une émission télévisée) au lieu d'être concentrés de façon disciplinaire, ce qui peut donner l'impression que leur culture est immense et transversale.

❧ Mais ce n'est pas tellement ça que je veux souligner. L'autre aspect des choses, c'est que nous avons également tendance à considérer comme faisant partie de la culture générale indispensable les domaines dans lesquels nous sommes moins ignorants. C'est sans doute une sorte de mécanisme de défense en réaction au refus de nous considérer nous-mêmes comme « incultes », entretenu par l'illusion d'une culture uniforme.

Alors certes, entre, disons, pays différents, il est très largement admis qu'il est normal qu'il y ait des différences : tout le monde conviendra qu'il est compréhensible qu'un Japonais ne soit pas capable de citer une pièce de théâtre de Racine (ou même n'ait jamais entendu parler de Racine), par exemple. Mais beaucoup vont avoir tendance à penser que c'est quelque chose que les Français, au moins, doivent avoir dans leur culture générale.

Le problème, donc, c'est que les gens qui considèrent ça le considèrent parce qu'ils ont eux-mêmes cette culture particulière, et donc ils la considèrent comme essentielle. Je ne sais pas combien de fois j'ai entendu quelqu'un se lamenter de l'inculture de nos contemporains qui n'ont pas lu Racine (ou quelque chose d'équivalent) et j'ai eu une envie qui me démangeait très fort d'interrompre le quelqu'un pour lui demander : Êtes-vous capable d'énoncer et d'expliquer vaguement le second principe de la thermodynamique ?

Généralement je me retiens parce que je suis assez polémophobe dans les conversations, mais il est arrivé que je poursuive vaguement cette remarque (ou que j'assiste à une conversation où quelqu'un d'autre la faisait) : la réaction de la personne se plaignant que les gens ne lisent plus Racine mais qui n'est elle-même pas capable de citer le second principe de la thermodynamique est typiquement quelque chose comme oui mais ça c'est une compétence technique, ça n'a rien à voir avec la culture générale.

Ce type de réaction est d'une hypocrisie impressionnante. L'explication qu'on (i.e., le même genre de personnes) nous donne généralement de l'importance de la culture générale, c'est que ça aide à comprendre le monde qui nous entoure (par exemple, qu'avoir des connaissances en Histoire ou avoir lu Racine aiderait à comprendre tel enjeu géopolitique ou tel problème moral) : or il faut vraiment avoir une sacré dose de mauvaise foi pour s'imaginer que la connaissance des bases de la thermodynamique n'est pas importante pour comprendre le monde qui nous entoure (surtout à une époque de réchauffement climatique). Du coup, je vois mal pourquoi ce serait moins de la culture générale.

(Parfois la défense est différente : Racine est un auteur que, en France, on étudie très souvent au lycée, et ce, dans toutes les filières ; la thermodynamique, elle, ne s'étudie que dans le supérieur. C'est vrai, et je pense qu'il faudrait sérieusement se poser la question de pourquoi c'est comme ça et si c'est une bonne idée. Cf. aussi ce fil Twitter (24 tweets ; ici sur ThreadReaderApp) sur ce qui pourrait constituer une « culture générale » en thermo, et qu'on ne me dise pas que c'est impossiblement technique.)

Entendons-nous bien : je ne suis pas en train de reprocher à qui que ce soit de ne pas connaître le second principe de la thermodynamique (mon propos est que nous avons tous de semblables trous dans la culture générale, donc personne ne peut jeter la première pierre). Ce que je suis en train de dire c'est que les gens qui ne le connaissent pas ne peuvent pas la ramener sur leur sujet préféré et essayer de faire passer ce sujet comme très important. Profiter de sa culture pour briller en société, c'est de bonne guerre (j'en rigole plus haut, mais ça n'a rien de condamnable de se mettre en valeur, et nous sommes beaucoup à le faire sous une forme ou une autre) ; mais en profiter pour médire des autres, même en leur absence ou de façon un peu abstraite, je considère cela comme assez détestable.

Et j'évoque, là, la différence de culture entre « humanités » et « sciences » (pour parler très approximativement), mais je pourrais aussi évoquer l'écart entre générations : même si je ne suis pas trop du genre à dire OK, boomer, quand j'entends de vieux grincheux se plaindre que les jeunes de nos jours n'ont plus aucune culture ou autre variante sur cette rengaine, ça me donne vraiment envie de les renvoyer à leur ignorance de, par exemple, toute la culture Internet. (Il vaut mieux résister, parce que c'est probablement encore plus désespéré de faire comprendre à un boomer que la culture Internet est une forme de culture générale que de faire admettre à un humaniste que les bases de la thermo en sont.) • Et naturellement, en plus de la différence d'appréciation entre pays, entre domaines du savoir ou entre générations, on pourrait évoquer celle entre classes socioéconomiques, et la survalorisation de la culture bourgeoise par rapport à la culture populaire : ce qui fait la violence du capital culturel, ce n'est pas la connaissance pure, c'est la force de la convention que ces connaissances- sont importantes. Mais je vais arrêter de faire croire que j'ai lu Bourdieu, parce que je n'ai pas plus lu Bourdieu que Titus Andronicus, je fais juste semblant après avoir parcouru Wikipédia.

Pour être bien clair, je ne me crois pas du tout personnellement immun à l'illusion que les choses que je sais sont plus importantes que les choses que je ne sais pas. Pour donner une petite anecdote aléatoire à ce sujet, mon poussinet me fait régulièrement écouter des morceaux de musique (typiquement dans le segment musique pop / variétés françaises des années '70 et '80) en me disant ça tu connais forcément : ce n'est pas possible de ne pas avoir entendu, et je souvent hausse les épaules en disant que j'ai peut-être entendu mais que ça ne m'a pas marqué, et en pensant qu'il me fatigue à croire que les musiques qu'il connaît sont incontournables ; et puis je ne sais plus à quel propos il a mentionné qu'il ne connaissait rien de Bob Dylan, et là j'ai été victime exactement du même effet de perspective (Blowin' in the wind tu connais forcément : ce n'est pas possible de ne pas avoir entendu !), avec les mêmes arguments de mauvaise foi que je dénonce plus haut (quand même, Bob Dylan, il a eu le prix Nobel de littérature, ce n'est pas n'importe qui), et c'est justement cette observation de ma propre mauvaise foi qui m'amène à écrire toute cette réflexion.

Et ce qui est intéressant aussi, c'est que cette illusion de perspective sur la culture générale (croire que ce qu'on sait est très important) s'applique non seulement à la culture générale, justement, mais aussi dans n'importe quel sous-domaine. Ce que je veux dire, c'est que parmi les mathématiciens (et je suppose que c'est pareil dans n'importe quel autre domaine, il se trouve juste que je connais et peux observer celui-là), il y a une culture générale mathématique… qui est tout autant un fantasme que la culture générale tout court : je ne sais pas quelles sont les connaissances réellement communes à une majorité de mathématiciens (et il semble que personne ne sache), mais ce que je sais, c'est que chacun a tendance à surestimer à quel point la communauté mathématique connaît les résultats avec lesquels il est personnellement familier, et même à les considérer comme incontournables. (Comme le dit un commentaire de la question MathOverflow que je viens de lier, j'aurais eu tendance à penser que quasiment tous les chercheurs en maths savent ce qu'est un espace de Hilbert, mais ayant discuté avec des gens proches de l'informatique théorique, je n'en suis plus si sûr.) Ceci vaut aussi pour les très grands mathématiciens : je ne sais plus où j'avais lu que John von Neumann ne savait pas qu'on obtenait un tore en recollant les côtés opposés d'un carré (il était tombé sur une discussion de collègues autour de ce dessin, il avait demandé ce que c'était, et il était tout amusé de l'apprendre) ; et Jean-Pierre Serre, il n'y a pas longtemps, m'a demandé ce qu'était le nombre chromatique d'un graphe quand j'ai utilisé ce terme pour lui décrire le problème de Hadwiger-Nelson ; je sais bien que Terence Tao a l'air d'être l'exception et de tout savoir dans tous les domaines, mais je soupçonne que c'est aussi une illusion.

Où est-ce que je veux en venir en racontant tout ça ? Je ne sais pas très bien, mais disons au moins (quitte à bousculer au passage quelques portes ouvertes) que l'idée de valoriser le fait d'avoir une « grande culture » a quelque chose d'assez malsain : au mieux c'est un critère de substitution pour la curiosité intellectuelle, mais pour ce qui est de la connaissance elle-même, nous avons tous accès à Wikipédia donc une culture générale virtuellement infinie — à la limite le critère plus pertinent à juger c'est plutôt de savoir si on est prêt à ouvrir Wikipédia et à en apprendre plus dès qu'on tombe sur un trou de sa culture déjà apprise.

↑Entry #2723 [older| permalink|newer] / ↑Entrée #2723 [précédente| permalien|suivante] ↑

↓Entry #2722 [older| permalink|newer] / ↓Entrée #2722 [précédente| permalien|suivante] ↓

(vendredi)

De l'erreur de faire passer des oraux par visioconférence

Ce matin, j'ai fait passer des oraux d'examen (il s'agissait d'oraux pour des candidats n'ayant pas pu se présenter à l'examen écrit normalement prévu) : à cause d'obligations de mon côté et de contraintes extrêmement serrées dans la planification de ces oraux (aucun créneau n'avait été réservé à l'avance, et les résultats doivent être finalisés en très peu de temps), je les ai fait passer par visioconférence. C'est l'occasion de compléter ce que j'avais écrit l'an dernier sur l'enseignement à distance : en l'occurrence, je veux surtout dire que les oraux par vidéo, c'était une très très mauvaise idée et je regrette de ne pas avoir fait plus d'efforts pour trouver une solution en présentiel.

En fait, ça ressemblait un peu à la caricature de la réunion par vidéo dont on a vu plein de versions pendant la pandémie (un participant n'a pas le son, un autre n'a pas l'image, un troisième parle au groupe en oubliant qu'il a le micro coupé, un quatrième parle à son chien en oubliant qu'il n'a pas le micro coupé, etc.). Je pensais pourtant avoir assez essuyé les plâtres, mais visiblement pas.

J'ai prévu la visio par BigBlueButton. (J'évite d'utiliser Zoom, à la fois par principe, mais aussi parce que j'ai plus l'habitude de BigBlueButton, que j'ai utilisé avec succès pour échanger avec mon doctorant et son co-encadrant pendant la pandémie, et à diverses reprises pour toutes sortes d'autres raisons, y compris pour faire des rencontres virtuelles entre copains ; mais surtout, je peux facilement créer et paramétrer une conférence à ma convenance sur le BigBlueButton qu'un collègue a installé pour notre département, alors que pour Zoom il faut que je passe par la direction des études de l'école, c'est beaucoup plus lourd pour moi. Mais avant qu'on me dise que c'est ma faute et que je n'avais qu'à utiliser Zoom comme tout le monde, je précise qu'aucun des problèmes que je vais évoquer n'est imputable à BigBlueButton.)

J'avais d'ailleurs fait une petite séance de questions-réponses par BigBlueButton pour permettre aux élèves de l'ensemble du cours de me poser des questions avant l'examen final (qui a eu lieu par écrit sauf pour les quelques dispensés auxquels je faisais passer un oral ce matin), et tout s'était bien déroulé.

Pour les oraux, j'avais cru prévoir les choses correctement : j'ai ouvert la salle de conférence virtuelle plusieurs jours à l'avance, j'ai communiqué le lien + code d'accès aux candidats, en leur demandant de vérifier qu'ils arrivaient à se connecter et que le son marchait correctement. Mais surtout, je leur ai demandé de s'assurer d'avoir bien un moyen d'écrire de manière à ce que je puisse lire ce qu'ils font. Car le sujet sur lequel portait ces oraux demande de faire des schémas.

Il y a plusieurs façons de s'en tirer : la solution « high-tech » consiste à avoir une tablette graphique et utiliser un logiciel spécialisé (personnellement j'utilise Xournal, mais il y en a d'autres) pour pouvoir gribouiller avec la tablette sur un tableau blanc virtuel : BigBlueButton permet alors de partager la fenêtre ou l'écran tout entier, et ainsi de montrer à tout le monde ce qu'on gribouille. C'est comme ça que je faisais cours à distance pendant la pandémie, et j'ai continué à écrire mes cours sur tablette graphique depuis (avec un vidéoprojecteur en lieu de tableau). La solution « lo-tech » consiste à écrire simplement sur un papier et à filmer le résultat avec une webcam. J'ai dit aux candidats de vérifier qu'une de ces solutions, ou une autre, leur convenait, de contacter les services informatiques de l'école pour se voir prêter du matériel si besoin (tablette et/ou webcam), et de me contacter en cas de problème. Bref, je pensais avoir bien préparé les choses pour éviter les emmerdes.

(Bon, il y a une chose que j'ai assurément mal faite, c'est de ne prévoir que 5min de battement entre deux oraux, et une seule salle virtuelle pour tous, donc pas de possibilité de rattaper le temps en cas de problème technique.)

La première personne qui passait son oral avait prévu d'écrire sur une tablette mobile et de partager via son ordinateur. Malheureusement, elle a vu son ordinateur s'éteindre au bout d'une minute ou deux (surchauffe, peut-être ?). Tout a fini par remarcher, mais le temps que la machine redémarre a été perdu (et je n'ai pas pu le rattraper en décalant les oraux suivants parce que je n'avais pas prévu de marge). Comme en plus la tablette était petite, et son utilisation visiblement un peu malcommode, il était difficile de faire des figures complexes.

La deuxième personne avait prévu de filmer un papier avec une webcam, mais la webcam qu'on lui avait prêtée voyait double : je ne sais pas si c'était une caméra prévue pour faire de la 3D ou si c'était un problème de format vidéo, mais l'image était divisée verticalement en deux moitiés qui correspondaient chacune à une vue à peu près normale. C'était assez difficile pour moi de suivre dans ces conditions.

La troisième personne candidate a d'abord eu un problème de son (elle m'entendait mais je ne l'entendais pas ; puis elle s'est connectée une deuxième fois par téléphone, mais ça a causé un effet Larsen très pénible) qui a été un peu long à régler et le son était mauvais tout du long, peut-être parce que la connexion réseau n'était pas très bonne. Puis elle avait prévu d'utiliser une tablette (avec un truc comme Microsoft Whiteboard je crois), mais manifestement ça marchait mal, les traits ne s'affichaient pas comme elle voulait, bref, c'était insupportable pour écrire, et elle a dû se replier sur la solution consistant à filmer son cahier avec la webcam, et j'ai dû lire à l'envers ce qu'elle écrivait.

Évidemment, mon rôle est d'arriver à faire abstraction de ces difficultés techniques, et j'ai quand même assez entendu les trois personnes candidates pour les évaluer de façon — je pense — honnête sur le fond. Mais tout ça a diminué le temps effectivement disponible pour les oraux et c'était au mieux stressant pour les candidats et frustrant pour moi. (Un autre aspect frustrant est qu'il est difficile d'attirer l'attention sur un bout de ce qu'ils ont tracé comme figure quand je ne peux pas physiquement mettre le doigt dessus : j'ai dû avoir recours à des périphrases compliquées comme la transition étiquetée ‘b’ qui relie l'état qui n'a pas de nom vers le milieu de votre dessin et celui qui est étiqueté ‘4’ mais je veux dire le ‘4’ de gauche parce que vous avez deux états ‘4’ à cause du copier-coller.)

La moralité, c'est que les solutions de type « écriture à la tablette graphique » nécessitent un certain temps de prise en main (pour s'assurer qu'on sait s'en servir, que la tablette marche bien, etc.), et qu'il ne faut pas improviser ça pendant un oral, même si on a pris le soin d'encourager à vérifier à l'avance. Quand j'ai commencé l'enseignement en hybride (occasionnellement devenu purement à distance) à la rentrée 2020–2021, j'ai pris le soin de vérifier très soigneusement à l'avance que je savais utiliser la tablette, que je savais utiliser Xournal, que je savais utiliser Zoom, que le wifi passait bien dans les salles de cours et que je pouvais m'y connecter et que la connexion était stable, que je savais me reconnecter en cas de déconnexion du wifi, que je savais utiliser le vidéo-projecteur, et que je savais combiner tous ces éléments ; et quand j'ai testé la tablette et Xournal, j'ai testé plus qu'écrire un petit trait et vérifier que ça marche — j'ai écrit au moins une page entière de texte et de dessin pour me familiariser avec la réponse du stylet, les outils d'édition, les limites de ce que je pouvais écrire, etc.

Si je dois malgré tout faire de nouveau passer des oraux par visio, je pense que j'adopterai l'approche suivante : c'est moi qui tiens le stylo, en l'occurrence avec ma tablette et en partageant ma fenêtre Xournal, et c'est la personne qui passe l'oral qui me dit quoi écrire et comment faire ma figure. (En plus, comme ça je pourrai corriger tout seul les erreurs extrêmement mineures qui ne méritent pas d'être pénalisées mais qui font perdre du temps pour rien, et je pourrai montrer des régions de la figure sans avoir à passer par des périphrases pénibles.)

D'un autre côté, peut-être que la compétence « être capable de se débrouiller devant de solutions informatiques parfois frustrantes ou mal configurées » devrait faire partie des choses qu'on enseigne aux élèves de la grande école française des technologies numériques. Il y a un mythe tenace selon lequel la « génération Z » sait de façon presque innée comment utiliser un ordinateur (voire, que ce sont eux qui vont tout expliquer à leurs profs complètement largués par ces nouvelles technologies ; cf. aussi ce fil Twitter) : si c'était vrai, nous n'aurions pas grand-chose à leur enseigner, mais en tout cas, s'ils arrivent peut-être avec une grande familiarité de certaines interfaces graphiques, je n'ai pas l'impression qu'ils soient si doués pour prévoir les emmerdes possibles et les contourner.

↑Entry #2722 [older| permalink|newer] / ↑Entrée #2722 [précédente| permalien|suivante] ↑

↓Entry #2721 [older| permalink|newer] / ↓Entrée #2721 [précédente| permalien|suivante] ↓

(vendredi)

(Nouvelle tentative d')introduction aux mathématiques constructives : histoire, motivations et principes

Méta : J'ai déjà fait plusieurs tentatives pour expliquer sur ce blog ce que sont les mathématiques constructives et comment elles fonctionnent (notamment ici — où j'ai tenté d'expliquer les règles de la logique intuitionniste mais en même temps je me suis embourbé dans des explications sur ce que je devrais ou voudrais écrire —, et ici — où j'ai publié l'introduction / motivation d'une entrée que j'avais commencé à écrire et qui, à cause de ça, s'est complètement embourbée). Je considère ces tentatives comme des échecs. Une raison de cet échec est que je n'ai pas correctement expliqué, pour commencer, de quoi il s'agit et pourquoi on s'y intéresse. Plus tard, j'ai participé à un podcast avec mes collègues Sylvie Benzoni-Gavage et David Monniaux sur le thème mathématiques honnêtes (l'expression vient d'une citation de Poincaré, qui a ensuite donné lieu à un échange sur Twitter), où il a été question au passage d'essayer d'expliquer ce que sont les maths constructives ; mais là aussi, j'ai peur de m'être très mal débrouillé quand j'ai évoqué le sujet. Je voudrais donc faire une nouvelle tentative, en reprenant à zéro. Comme cette tentative-ci est de nouveau en train de s'embourber (ça fait maintenant quelque chose comme six mois que j'ai commencé à l'écrire), je me force à en publier le début comme une entrée autonome, où je parle un petit peu de l'histoire et des motivations, puis je commence à développer quelques principes, quitte à ce que la fin soit un peu abrupte.

Au moins le début de cette entrée (où je parle plus d'histoire des mathématiques que de mathématiques) devrait être très largement compréhensible, quitte à sauter quelques passages un peu plus techniques.

De façon extrêmement schématique (et juste pour lancer le sujet : ceci ne se prétend pas être une explication), les mathématiques constructives sont des mathématiques faites dans une logique particulière appelée logique intuitionniste. (Les termes constructif et intuitionniste sont un peu — mais pas complètement — interchangeables.) Cette logique intuitionniste diffère de la logique usuelle dans laquelle on fait des mathématiques (logique classique) en ce qu'elle abandonne une règle de raisonnement, à savoir la loi du tiers exclu, laquelle affirme — schématiquement — que ❝si quelque chose n'est pas faux alors ce quelque chose est vrai❞. (Ou, ce qui revient au même, la logique intuitionniste abandonne le principe du raisonnement par l'absurde où, pour montrer que P est vrai, on suppose « par l'absurde » que P est faux, on aboutit à une contradiction, et on en conclut que P devait être vrai.) La logique intuitionniste est donc plus faible que la logique classique : du coup, prouver quelque chose en logique intuitionniste est plus difficile ou, si on veut, il y a moins de théorèmes (un théorème en logique intuitionniste est encore un théorème en logique classique, mais un théorème en logique classique n'est pas forcément un théorème en logique intuitionniste) ; donc obtenir un résultat « constructivement » est plus fort que l'obtenir « classiquement », et l'étude des maths constructives consiste en bonne partie à se demander quels résultats classiques sont encore valables constructivement, ou, à défaut, comment on peut les démontrer autrement, ou sinon, les reformuler, pour obtenir quelque chose de constructif.

☞ Oui mais pourquoi donc faire ça ? Pourquoi affaiblir la logique ? Pourquoi précisément comme ça ? Pourquoi remettre en cause la loi du tiers exclu ? Quel est l'intérêt de la démarche ? Quelles sont les règles du jeu ? Et pourquoi ces mots constructif et intuitionniste ? C'est ce que je veux essayer d'expliquer ici.

Plan :

Un (tout petit) peu d'histoire du constructivisme en mathématiques

Commençons par essayer d'expliquer comment cette notion est apparue. Qu'on me permette de faire de l'histoire des maths très schématique et simplifiée, juste pour situer un peu les choses et sans prétendre décrire complètement des positions philosophiques forcément assez complexes :

La controverse Hilbert-Brouwer

L'histoire commence au début du XXe siècle à un moment où les fondements des mathématiques commencent à se mettre en place : le monde mathématique a vu se mettre en place des approches rendant l'Analyse plus rigoureuse (Cauchy, Weierstraß, Dedekind…), l'axiomatisation de l'Arithmétique (Peano), la naissance de la théorie des ensembles (Cantor) et de l'idée que celle-ci peut servir à soutenir l'ensemble des mathématiques (Frege). Deux courants apparentés émergent en philosophie des mathématiques, le logicisme et le formalisme (voir ici pour une explication de la différence — qui ne m'intéresse pas tellement ici), qui proposent de ramener, autant que possible, la pratique mathématique à l'application de règles de déduction logique à partir d'un jeu d'axiomes (voire de pure logique dans le cas du logicisme).

Chef de file du courant formaliste, David Hilbert propose, en 1904, un programme visant à fonder les mathématiques sur une base axiomatique : au moins pour une branche donnée des mathématiques, on devrait (selon le programme de Hilbert), trouver des axiomes, formaliser ces axiomes (c'est-à-dire leur donner une forme extrêmement précise ramenant, en principe, la démonstration, à un simple jeu de manipulation de symboles), et idéalement, prouver mathématiquement que les axiomes en question permettent de démontrer ou réfuter tout énoncé syntaxiquement licite, et qu'ils ne comportent pas de contradiction. (La dernière partie de ce programme sera sérieusement mise à mal à cause des limitations posées par le théorème d'incomplétude de Gödel — voir notamment ici —, mais ce n'est pas ce qui me préoccupe ici. On dit parfois que Gödel a porté le coup de grâce au programme de Hilbert, mais il me semble, au contraire que, une fois acceptées ces limitations, le programme de Hilbert a été un grand succès et qu'il est largement admis que les mathématiques ont besoin d'axiomes et de règles de déductions claires même si, dans la pratique, les démonstrations se font généralement en langage informel.)

Hilbert accueille aussi avec enthousiasme la théorie des ensembles, qu'il qualifie de paradis créé par Cantor, parce qu'il permet de rendre précises les constructions admises en la matière, et il accepte, au passage, ses infinis de différentes tailles. (Qui font maintenant partie des mathématiques « standard », un nouveau signe de succès du programme de Hilbert.) Il s'oppose en cela au courant finitiste, dans lequel s'inscrit notamment Kronecker (selon lequel les entiers naturels ont été créés par le bon Dieu, tout le reste est l'œuvre de l'homme) et dans une moindre mesure Poincaré, qui rejettent ou regardent au moins avec soupçon les constructions infinies.

Les règles de logique admises par le programme formaliste, les règles de la logique « classique », permettent souvent de montrer qu'un certain objet mathématique existe sans pour autant exhiber cet objet. Ces raisonnements prennent typiquement une forme du style : je veux montrer qu'il existe un <machin> ; supposons au contraire que <machin> n'existe pas : dans ce cas <…diverses conséquences sont tirées…>, ce qui est une contradiction : ce n'est donc pas possible, et ceci prouve que <machin> existe. À aucun moment le <machin> n'est construit : il est simplement montré qu'il ne peut pas ne pas exister : classiquement, cela revient exactement au même qu'exister, mais cela ne permet pas d'expliciter <machin> ; on peut donc dire que la preuve n'est pas constructive.

Deux exemples significatifs de telles preuves non constructives (ou considérées à l'époque comme non constructives, parce qu'en fait, tout dépend de la manière précise dont on les formalise et/ou démontre) sont donnés par deux théorèmes mathématiques très importants et dus, justement, aux deux protagonistes de notre histoire. Il s'agit d'une part du théorème de la base de Hilbert (1888), avec comme conséquence le fait que les anneaux d'invariants polynomiaux (peu importe de quoi il s'agit) sont finiment engendrés, sans que la démonstration (au moins dans sa forme initiale) exhibe explicitement un système générateur ni ne permette de le calculer, ce qui aurait fait dire à Paul Gordan, le grand spécialiste des invariants, ce n'est pas des mathématiques, c'est de la théologie (en fait, cette phrase, comme toutes les meilleures citations, est probablement apocryphe). Et d'autre part, le théorème du point fixe de Brouwer (c. 1910), dû au topologiste Luitzen Egbertus Jan Brouwer, lequel théorème affirme que toute fonction continue d'une boule dans elle-même a un point fixe, sans que la démonstration (au moins dans sa forme initiale) exhibe un tel point fixe ni ne permette de le calculer.

Ces preuves non-constructives heurtent la conception philosophique de Brouwer, selon lequel prouver l'existence d'un objet ne doit pouvoir se faire qu'en construisant l'objet en question. Il est également en désaccord, plus généralement, avec l'idée formaliste de ramener les mathématiques — au moins en principe — à une application mécanique de règles logiques à partir d'axiomes : pour Brouwer, la créativité de la démarche du mathématicien ne peut pas se ramener à une application formelle de règles. Par ailleurs, Brouwer se rapproche de l'école finitiste par son scepticisme au sujet des constructions infinies arbitraires autorisées par la théorie des ensembles de Cantor (même si on ne peut pas vraiment dire que Brouwer soit un finitiste). Enfin, son intuition du continu, c'est-à-dire de la droite réelle, ne s'accorde pas vraiment avec la formalisation des nombres réels par Dedekind, mais je dois dire que je ne prétends pas vraiment comprendre ce que Brouwer pensait exactement des nombres réels (par opposition aux réinterprétations ultérieures de l'intuitionnisme). Bref, pour ces différentes raisons, Brouwer s'oppose à la philosophie formaliste défendue par Hilbert (ainsi qu'à sa cousine, le logicisme) et, une fois qu'il a obtenu un poste permanent en 1912, il développe ses propres idées auxquelles il donne le nom d'intuitionnisme.

↑Entry #2721 [older| permalink|newer] / ↑Entrée #2721 [précédente| permalien|suivante] ↑

↓Entry #2720 [older| permalink|newer] / ↓Entrée #2720 [précédente| permalien|suivante] ↓

(dimanche)

Je me décide enfin à mettre ma CB-500F en vente

Il faut reconnaître que je traînais pas mal des pieds pour m'y mettre, sans doute parce que je pressens que ce sera une activité hautement chronophage, et mon poussinet me disputait régulièrement parce que je paye pour l'assurance d'un véhicule qui ne me sert quasiment plus, mais ça y est, je mets officiellement en vente ma CB-500F achetée il y a une peu moins de trois ans et qui a 16 800km au totaliseur. C'est d'ailleurs peut-être tout un symbole que je le fasse pile trois ans après mon échec à la première présentation de l'épreuve de circulation du permis.

L'annonce est ici. (Page qui a été d'ailleurs pénible à écrire pour comprendre de nouveau comment mettre en place une galerie d'image, surtout qu'il y a une mini vidéo à la fin de la galerie ; je ne sais pas comment les gens normaux font, mais vraiment, je déteste tout ce qui ressemble au webdesign.)

Le prix a été choisi par la méthode hautement scientifique consistant à saisir l'année, le kilométrage et le prix demandé pour toutes les annonces sur La Centrale et Le Bon Coin pour une CB-500 (F ou X, de ≥2013) en Île-de-France, faire la régression linéaire (âge, kilométrage) ↦ prix et prendre la valeur pour (3 ans, 16 800km). Peut-être que j'aurais dû baisser un peu, mais je suis prêt à négocier, et je compte plutôt sur les quelques accessoires pour être un peu attractifs.

Malgré les conseils lus ici et et , je suis assez stressé dans l'idée de laisser un inconnu faire un essai (aussi bien à cause du risque de vol que du risque d'accident, et de toutes les emmerdes qui arriveront dans un cas ou dans l'autre) et par la question de sous quelle forme demander le paiement. J'aimerais donc autant que possible vendre à quelqu'un qui ne soit pas un complet inconnu (je suis d'ailleurs prêt à céder sur le prix pour ça, et comme on l'a vu, je ne suis pas hyper pressé) : l'idéal serait un ami d'ami, mais évidemment, c'est difficile de savoir si j'ai un ami d'ami ou ami d'ami d'ami qui veut acheter une moto. En tout cas, à ce stade, je ne mets pas l'annonce sur Le Bon Coin ou équivalent : en revanche, j'en ai mis quelques copies sur les tableaux d'affichage à Télécom (dans l'espoir que ça puisse intéresser un collègue ou un élève). Si vous connaissez des personnes dans votre entourage que ça peut intéresser, n'hésitez pas à transmettre le lien, que revoici.

↑Entry #2720 [older| permalink|newer] / ↑Entrée #2720 [précédente| permalien|suivante] ↑

↓Entry #2719 [older| permalink|newer] / ↓Entrée #2719 [précédente| permalien|suivante] ↓

(mercredi)

Quelques réflexions sur l'énergie nucléaire

Je dois dire avant toute chose que j'écris cette entrée assez à reculons. Le sujet m'emmerde : or si je tiens un blog c'est quand même pour raconter des choses qui m'amusent, ou au moins que je viens d'apprendre et que je veux noter avant de les oublier, et rien de tout ça n'est le cas ici. Le sujet m'emmerde comme m'emmerdent en général les sujets polémiques mais importants (i.e., politiques), parce qu'il il faut travailler pour en parler sérieusement, et on sait qu'on va se faire attaquer ce qui est toujours déplaisant. Or j'ai déjà suffisamment donné dans l'emmerdement par le fait de démêler les conneries sur le dernier virus à la mode de ces deux dernières années, et c'était vraiment usant de devoir m'engueuler à ce sujet. Le sujet m'emmerde d'autant plus qu'il obsède mon poussinet, et du coup nous nous frittons assez souvent à ce sujet, pas à cause de désaccords de fond mais parce qu'il me fatigue à tout ramener à ça, par exemple à ne juger les programmes politiques que pour leur volet nucléaire, à l'exclusion de toute autre considération. Le sujet m'emmerde aussi parce qu'il y a déjà plein de gens qui ont écrit des choses très bien à ce sujet et qu'il faut donc faire le choix entre redire en moins bien ce qu'ils ont déjà dit ou bien insérer les petites remarques complémentaires que je veux faire dans un tissu de pointeurs qui n'est pas très attirant non plus. Mais bon, ça fait quelque chose comme 14 ans que je promets d'en parler, et au bout d'un moment le sens du devoir doit prendre le dessus. Bref, parlons un peu du nucléaire. Mais comme j'ai écrit cette entrée à reculons, j'ai plusieurs fois perdu le fil de mes pensées, et ça doit se voir au plan assez décousu, aux changements de ton (selon mon humeur quand j'écrivais), et aux nombreuses redites ; j'ai quand même essayé de structurer le titre en ajoutant des petits intitulés (alignés à droite pour ne pas trop couper le fil d'un texte écrit d'un seul tenant), une technique que j'avais déjà utilisée auparavant.

☛ Quelques liens pour commencer

Avant tout, parmi les choses que je peux signaler sur le sujet qui sont bien faites (i.e., beaucoup mieux que ce qui va suivre), et qui ne sont pas trop suspectes d'être partisanes, il y a cette vidéo destinée au grand public de la toujours excellente chaîne de vulgarisation Kurzgesagt (si vous ne connaissez pas Kurzgesagt, regardez au moins pour les petits dessins très mignons ; mais ça ne les empêche pas d'être sérieux et de citer leurs sources), et celle-ci de la très bonne vulgarisatrice Sabine Hossenfelder (sans dessins mignons, mais qui fait aussi l'effort d'avoir cherché des sources précises, et de les lister, dans la description de la vidéo sur YouTube). Et bien sûr, une méta-source utilisée par les deux, et qu'on ferait bien de consulter directement, est la page consacrée à l'énergie nucléaire de l'extraordinaire site OurWorldInData, qui contient tout un tas de chiffres pertinents, entre la production d'énergie nucléaire dans le monde, et les estimations de morts causées par différentes formes d'énergie. La section 6.4.2.4 Nuclear Energy (p. 6-34) de la partie WG III (Mitigation of Climate Change) du sixième rapport d'évaluation d'avril 2022 du GIEC (oui, la nomenclature est compliquée) est également digne d'intérêt.

☛ Quelques chiffres

Mais la question du nucléaire prend une tournure assez différente et, disons, plus aiguë, en France, qui est le pays du monde produisant la part la plus importante de son énergie (69% de l'énergie électrique, 36% de l'énergie primaire) par ce mode de production, ce qui explique que l'énergie électrique en France soit si faiblement carbonée (68gCO₂/kWh pour la France en 2021, contre 364gCO₂/kWh pour l'Allemagne ou 657gCO₂/kWh pour la Pologne : les pays européens qui font mieux que la France sont les pays disposant d'une abondante énergie hydroélectrique ; source ici). Ce chiffre n'est pas tout (en émissions totales de CO₂ basées sur la consommation, la France fait 6.48tCO₂/hab/an contre 9.88tCO₂/hab/an pour l'Allemagne, c'est plus serré, ce qui nous rappelle que l'électricité n'est pas tout ; source ici), mais il est néanmoins très significatif à une époque où l'objectif écologique prioritaire doit être de diminuer autant que possible nos émissions de gaz à effet de serre, et aussi où la part de l'électricité dans l'ensemble de notre consommation énergétique doit être amenée (en conséquence) à augmenter considérablement. (On ne va pas remplacer les véhicules thermiques par des véhicules électriques sans produire nettement plus d'électricité.) Il est donc inévitable de mentionner immédiatement le fait que le nucléaire nous donne accès à une large quantité d'énergie électrique presque entièrement décarbonée (il y a quelques émissions dues à la construction des centrales et à la production du combustible, mais elles sont comparables aux émissions de l'éolien), et pilotable qui plus est (je vais revenir sur ce point important).

☞ Deux sortes de critiques

Pourquoi, donc, la critique-t-on au point que certains appellent à s'en passer, à plus ou moins long terme ?

Je veux distinguer deux catégories de critiques adressées au nucléaire, parce qu'elles sont de nature assez différente et surtout, avancées à des fins assez différentes. La première catégorie concerne essentiellement les questions de sécurité, et de gestion des déchets radioactifs. La seconde catégorie porte sur des problèmes tels que : la disponibilité du combustible à long terme, le coût économique (du minerai et de la construction des centrales), les délais (de construction), etc. De façon simplifiée, la première catégorie d'objections est mise en avant par des organisations ou des individus qui sont idéologiquement opposés au nucléaire (p.ex., Greenpeace) ; la seconde catégorie par des opposants moins idéologiques (ou par des gens qui ne sont pas du tout opposants, mais simplement reconnaissent qu'il n'y a pas de remède magique aux problèmes de l'énergie).

↑Entry #2719 [older| permalink|newer] / ↑Entrée #2719 [précédente| permalien|suivante] ↑

↓Entry #2718 [older| permalink|newer] / ↓Entrée #2718 [précédente| permalien|suivante] ↓

(jeudi)

Histoire des droits en Europe de Jean-Louis Halpérin

Je viens de finir de lire le livre Histoire des droits en Europe (de 1750 à nos jours) de Jean-Louis Halpérin (dans sa nouvelle édition sortie en 2020, collection Champs Histoire chez Flammarion). Peut-être est-il pertinent pour la critique qui va suivre de préciser que je l'ai lu aux toilettes. Ce n'est pas un reproche ni une façon de dire que le droit m'emmerde : c'est juste que je laisse volontiers dans mes toilettes des livres dont la structure se plie sans trop de problème au fait que je pourrai reprendre et interrompre la lecture à n'importe quel moment. Il se trouve par ailleurs que j'aime bien lire, en dilettante, des choses sur l'histoire du droit ou le droit comparé (cf. par exemple cette entrée ou celle-ci), ce qui peut expliquer des choix un peu inattendus : un de mes amis rigolait de voir le livre Histoire du droit pénal et de la justice criminelle de Jean-Marie Carbasse dans mes toilettes, mais il était plus aride que celui dont je veux parler ici.

Le livre de Halpérin entreprend une tâche assez titanesque : dresser un portrait comparé de l'histoire des droits en Europe depuis le début de la période contemporaine. C'est-à-dire que malgré la restriction sur l'époque (seulement depuis 1750, même s'il y a quelques évocations rapides des périodes antérieures) et sur la géographie (l'Europe), il s'agit de faire rien de moins que l'histoire de toutes les branches du droit dans tous les pays d'Europe depuis deux siècles et demi. C'est assez fou, et il faut admettre qu'il ne s'en tire pas mal. Forcément, traiter quelque chose d'aussi colossal en moins de 500 pages format poche oblige à s'en tenir au minimum, mais il réussit assez bien la synthèse, et j'ai appris beaucoup de choses intéressantes, — que je me suis empressé d'oublier.

Je ne sais pas bien quel est le public visé. Étudiants en droit ? sans doute pas, parce que l'auteur n'utilise pas le plan ultra-analytique typique des ouvrages de droit français, copié sur les textes de codes, divisés en parties, titres, chapitres, sections et autres subdivisions sans intitulé jusqu'au paragraphes numérotés consécutivement comme si c'étaient des articles de code (hiérarchie qui rappelle un peu l'étiquetage des degrés de la classification du vivant) : le livre de Halpérin est juste divisé en parties et en chapitres, pas plus. Étudiants en histoire peut-être plutôt, parce qu'il ne parle pas de ce que dit le droit mais aussi des relations entre les droits et la société, l'histoire des combats pour obtenir tel ou tel droit (même si ce n'est pas le cœur de son sujet), etc. Ou simplement le grand public : le livre est tout à fait lisible par tout le monde, même si évidemment tout le monde ne le trouvera pas forcément très intéressant.

La principale difficulté a manifestement dû être d'établir un plan : quand il y a au moins trois grandes dimensions à parcourir simultanément (la branche du droit, le pays et la période historique), il n'est pas évident de savoir dans quel ordre prendre les choses ! Faire une partie par branche du droit ? Suivre un plan strictement chronologique, quitte à passer sans arrêt d'un domaine à un autre ? Traiter les pays ou les groupes de pays les uns à la suite des autres ? Ici, il a choisi un compromis entre le plan thématique et le plan chronologique : la première partie (le renouvellement du cadre normatif) parle de la transition des anciens régimes vers des institutions parlementaires et aussi du mouvement de codification du droit, jusque, en gros, la première guerre mondiale ; la seconde partie (attentes sociales et orientation du droit) traite en autant de chapitres du développement et de l'évolution du droit du travail, du droit commercial, du droit de la famille et des personnes, et de l'organisation du droit lui-même (pensée et professions juridiques) sur une période qui va très grossièrement de 1850 à la première guerre mondiale (même s'il déborde dans un sens ou dans l'autre selon ce qui est pertinent pour le sujet évoqué) ; la troisième partie (ruptures et divergences) évoque essentiellement la période de 1914 à 1945 et s'organise par types de pays (URSS, états libéraux, états fascistes ou fascisants) ; enfin, la quatrième partie (confluences et pluralismes) traite de l'après seconde guerre mondiale selon une organisation thématique (démocratie, état-providence, droit des personnes, naissance du droit européen). Une annexe vient compléter le tout en évoquant très brièvement quelques thèmes transversaux : droit des étrangers, mariage (un thème déjà évoqué à plusieurs reprises dans le corps du livre), organisation et procédure administrative, organisation judiciaire, peine de mort, prisons, procédure civile, procédure pénale. Je trouve qu'avoir réussi à organiser tant de choses dans un plan qui, finalement, tient assez bien la route, est en soi presque un exploit.

L'exercice, bien sûr, a ses limites : si je devais retrouver quelque chose, je crois que j'aurais du mal (malgré un index très — presque trop — fourni). Mais le plan a la vertu qu'on peut lire le livre d'un bout à l'autre sans avoir l'impression d'une trop grande aridité ni répétition, et qu'on peut aussi picorer dedans sans devoir sans arrêt chercher ce qui a été dit avant sur tel ou tel sujet. (Et, globalement, c'est un livre qui se lit très bien aux toilettes — encore une fois, ce n'est pas un reproche.)

Bon, si j'ai appris beaucoup de choses sur plein de sujets, je me suis empressé de les oublier : à partir de quand et sous quelle forme le droit de grève a-t-il été reconnu dans les différents pays d'Europe ? comment l'égalité des droits entre femmes et hommes s'est-elle mise en place et quand et comment le divorce a-t-il été reconnu ? quand est apparue la notion de société à responsabilité limitée ? quand a-t-on mis en place des élections locales dans les différents pays européens, et à quels niveaux ? Voici quelques unes des questions dont j'ai trouvé des réponses dans ce livre, ainsi que bien d'autres, mais j'ai été incapable de la retenir, parce qu'il y a vraiment trop de complexité historique et géographique (chacun de ces droits a eu une histoire différente d'un pays à un autre, et des spécificités locales). Mais je suis quand même content d'avoir été brièvement moins bête, et certainement d'avoir tué quelques idées fausses au passage.

Vu le faible prix que coûte un livre de poche (16€), et le faible encombrement que cela représente, je pense vraiment pouvoir recommander de l'acheter si on n'a ne serait-ce qu'un peu de curiosité autour de ces questions. Mettez-le aux toilettes, au pire ouvrez-le au hasard, vous apprendrez bien des choses, même si c'est pour les oublier aussitôt.

↑Entry #2718 [older| permalink|newer] / ↑Entrée #2718 [précédente| permalien|suivante] ↑

↓Entry #2717 [older| permalink|newer] / ↓Entrée #2717 [précédente| permalien|suivante] ↓

(mercredi)

Introduction à la classification DRECOFGE du vivant

Je voudrais tenter de faire un peu de vulgarisation scientifique sur un sujet dont je ne suis pas du tout spécialiste, en l'occurrence la classification DRECOFGE du vivant, et même si je n'ai pas grand-chose à dire à part qu'elle existe (ce qui ne va pas m'empêcher de mettre environ 6000 mots à dire qu'elle existe), parce que je pense que ça fait partie de la culture scientifique élémentaire que tout le monde devrait avoir (disons, du même ordre qu'avoir entendu parler de la première guerre mondiale a même si on n'a pas fait d'études d'histoire), et parce que c'est quelque chose que mon papa m'a raconté quand j'étais petit (même s'il est avéré que ses connaissances sur le sujet étaient déjà datées à l'époque) entre deux conversations sur les maths ou la physique, alors pourquoi ne pas en reparler à mon tour. (Bien sûr, tout est sur Wikipédia, mais pas forcément expliqué de façon terriblement pédagogique.) Et je veux renier, voire expier, ce que j'ai écrit dans cette vieille entrée. Bon, après, j'ai un but secondaire caché, qui est que je vais certainement écrire des bêtises et que des gens plus compétents viendront me corriger, et comme ça j'apprendrai des choses.

Il s'agit, donc, d'un système de classification des êtres vivants en groupes ou taxa (pluriel de taxon), eux-mêmes organisés en une structure hiérarchique arborescente (c'est-à-dire que deux groupes sont toujours soit disjoints soit proprement inclus l'un dans l'autre, il ne peut rien y avoir à cheval entre deux groupes) dont les rangs (principaux) s'appellent séquentiellement : domaines (les plus gros groupes), règnes, embranchements, classes, ordres, familles, genres et espèces (les plus petits groupes, mais on discerne parfois des taxa encore plus petits au sein de l'espèce). Les mammifères, par exemple, sont une classe — c'est-à-dire un taxon de rang classe —, inclus dans l'embranchement des cordés, et qui contient lui-même divers ordres comme celui des primates.

L'origine du système remonte à la taxonomie créé par Carl von Linné (Linnæus) dans son Système de la nature en 1735–1758, surtout sa classification du règne animal (son organisation des espèces végétales n'a pas survécu dans sa structure, et l'idée de classifier le « règne minéral » selon le même système a été vite abandonnée). C'est pour ça qu'on parle aussi de classification de Linné, même si Linné n'utilisait que cinq des huit degrés classiquement reconnus de nos jours : ce n'est que plus tard (je ne sais pas quand) qu'on a jugé bon d'intercaler le rang de famille entre ordres et genres, et le rang d'embranchement entre règnes et classes, et encore plus tard le rang de domaine qui relève, il est vrai, plus de la théorie phylogénétique que de la classification. On parle aussi de classification de Linné pour le nom scientifique binomial (genre+espèce) ou abusivement nom latin des espèces, qui est quelque chose d'un peu différent de la classification DRECOFGE, mais je vais y revenir.

L'idéal, au moins l'idéal moderne, de la classification serait de refléter une véritable relation de parenté entre les êtres vivants, c'est-à-dire d'être phylogénétique : l'arbre phylogénétique, c'est l'arbre généalogique des espèces vivantes, indiquant la manière dont chacune s'est séparée de son groupe parent (et idéalement, à quel moment de l'évolution). On appelle clade ou groupe monophylétique un groupe d'êtres vivants qui descendent d'un individu unique (enfin, ça c'est une théorie un peu impossible, mais disons, d'un nombre extrêmement réduit d'individus) : l'idéal serait que chaque taxon de la classification fût un clade, et que la hiérarchie taxonomique reflétât exactement l'arbre phylogénétique (par exemple, chaque famille devrait correspondre à la descendance d'un couple — ou en tout cas d'un tout petit nombre — de parents originels, parmi laquelle descendance on aurait les parents originels de chaque genre de la famille, et ainsi de suite à chaque degré). ❧ Il peut cependant y avoir des raisons de mettre un peu d'eau dans le vin de la phylogénie stricte et d'avoir des taxa qui ne sont pas des clades : une entorse vénielle à la cladistique consiste à constituer un groupe de tous les descendants de X sauf ceux de Y, typiquement parce que ces derniers ont divergé plus significativement que les autres et qu'il est donc commode de les ranger à part, on parle alors de groupe paraphylétique pour ceux qui restent (il s'agit donc d'un clade moins un autre, ou moins un petit nombre d'autres) ; une entorse plus sérieuse consiste à regrouper plusieurs clades différents dans un même groupe, simplement à cause d'une ressemblance (évolution convergente), et on parle alors de groupe polyphylétique. ❧ La raison la plus évidente pour laquelle la taxonomie dévierait de la phylogénie est simplement qu'on est ignorant de la phylogénie exacte : reconstituer l'arbre généalogique du vivant est difficile, même en disposant des techniques d'analyse génétique, on en est réduit à faire des conjectures, parfois fausses, ou à ne même pas faire de conjectures et à regrouper les espèces selon des caractères purement descriptifs qui peuvent avoir évolué de façon indépendante. (À la base de l'arbre, une raison encore plus profonde est que l'arbre phylogénétique n'est pas vraiment un arbre, il y a des transferts horizontaux de matériau génétique ou des relations d'endosymbiose qui font qu'on ne peut plus forcément définir une relation de parenté nette entre les êtres vivants unicellulaires.) Mais il peut aussi y avoir des raisons plus pragmatiques de s'écarter de la phylogénie, du genre on sait très bien que ce groupe n'est pas monophylétique, mais on ne sait pas très bien comment le réorganiser, ou le réorganiser impliquerait des changements trop pénibles par rapport à la taxonomie en usage standard. De toute façon, il n'y a pas assez des huit rangs de la classification DRECOFGE, même si on peut toujours ajouter des sous-machin et des super-bidule et inventer quelques autres mots, pour refléter l'arbre phylogénétique vrai qui, par nature, est essentiellement binaire (quand un groupe se sépare, c'est essentiellement en deux, même s'il se sépare plusieurs fois il y a un ordre chronologique de spéciation), ce qui implique d'avoir au minimum 23 degrés si on veut organiser neuf million d'espèces. Pour les bactéries, je crois que toute prétention à la phylogénie est abandonnée, et la taxonomie est purement descriptive (et souvent selon des critères utiles à la médecine).

Par ailleurs, quand bien même on aurait accès à l'arbre phylogénétique exact, ça ne dit toujours pas à quel niveau dessus on doit décider qu'un groupe porterait le nom de règne, d'embranchement, de classe, d'ordre, de famille, de genre et d'espèce : en quoi les bourdons (genre Bombus), par exemple, ont-ils le même degré de parenté entre eux que les agrumes (genre Citrus) pour mériter qu'on considère que les uns et les autres constituent un genre ? pourquoi les agrumes ne seraient-ils pas plutôt une famille ? tout ça est scientifiquement assez arbitraire ; mais pour être arbitraire, ce n'en est pas moins assez pratique pour ranger les choses de façon à s'y retrouver un peu.

↑Entry #2717 [older| permalink|newer] / ↑Entrée #2717 [précédente| permalien|suivante] ↑

↓Entry #2716 [older| permalink|newer] / ↓Entrée #2716 [précédente| permalien|suivante] ↓

(vendredi)

Sur les réactions à la guerre en Ukraine et à la pandémie

J'avais promis de ne pas parler dans ce blog de la guerre en Ukraine parce que je n'ai pas de lumière particulière en géopolitique, et de ne plus parler de covid, et je vais donc m'entraîner à faire comme les personnes politiques en trahissant mes promesses aussitôt qu'elles sont faites en expliquant avec la plus parfaite mauvaise foi que, non non non, c'est très différent de ce que j'ai promis de ne pas faire : je ne vais pas parler de la guerre en Ukraine ni de la pandémie mais de la manière dont les gens réagissent à l'une et à l'autre, ça n'a rien à voir.

Ce que je veux dire, c'est que la pandémie m'a aidé à reconnaître un certain type de réaction face à une réalité adverse dont je retrouve tous les signes devant la guerre en Ukraine, et même si je ne prétends pas en tirer de conclusion sur le fond, la similitude témoigne des mécanismes plus émotionnels que rationnels par lesquels nous prenons parti pour telle ou telle approche face à une menace.

✱ Le premier niveau auquel je vois ce parallèle, c'est dans la réaction des régimes autoritaires. La dictature chinoise est confrontée au fait que sa politique « zéro covid » fonctionne manifestement beaucoup moins bien qu'elle l'avait prévu ; et la dictature russe est confrontée au fait que la guerre d'agression qu'elle mène contre l'Ukraine se déroule beaucoup moins bien qu'elle l'avait prévu. Dans les deux cas, la réaction qu'elles montrent au monde est celle de l'entêtement (voire du déni des difficultés) et pas de la remise en question, encore moins du changement de politique. Je soupçonne deux principaux effets qui contribuent à cet entêtement :

  • Le sophisme des coûts irrécupérables : quand on a commencé à suivre une voie qui est une erreur complète, il faut admettre son erreur et changer de voie. Mais c'est d'autant plus difficile qu'on s'est engagé dans la première voie, et qu'on a fait des efforts qui deviendront donc — au moins en partie — inutiles (coût irrécupérable). Tout le monde se tire mal de ce sophisme, les individus aussi et les démocraties aussi, mais les démocraties, au moins s'en tirent un peu moins mal parce qu'elles peuvent plus facilement changer de dirigeants que les dictatures, et c'est souvent en changeant de dirigeant qu'on change de voie.
  • La communication des échecs et des responsabilités : les dirigeants intermédiaires des dictatures tiennent particulièrement fort à leur poste, parce qu'il s'agit souvent de quelque chose d'essentiel à leur mode de vie (acquis chèrement en cirant les bottes des gens d'au-dessus, et/ou en marchant sur les têtes des gens d'en-dessous, et qui permet de profiter d'une rente de situation). Ils sont donc à la fois particulièrement peu enclins à admettre leurs erreurs (point précédent), mais aussi n'importe quelle difficulté : par peur de se retrouver virés, ils vont plutôt essayer de mentir sur la gravité de la situation, ou accuser les échelons du dessous. Comme toute la structure du pouvoir est faire pour que l'information et les responsabilités ne transitent que par la voie hiérarchique, quand la voie hiérarchique devient un blame game, c'est encore plus la merde que dans une démocratie qui a au moins d'autres modes de communication et de rétroaction.

C'est intéressant, parce qu'il existe énormément de fictions dans lesquelles le Grand Méchant est entouré de conseillers qui ont tellement peur de lui qu'ils sont incapables de faire autre chose que de s'incliner bien bas et lui répéter votre plan diabolique est parfait, ô Seigneur !, ce qui les rend complètement inutiles comme conseillers, et c'est souvent cet hubris et cette certitude d'être infaillible qui conduit le Grand Méchant à sa perte. J'ai souvent dit que si jamais je devenais un Grand Méchant, je m'arrangerais pour être entouré de conseillers qui se sentent assez à l'aise pour me dire franchement ton plan diabolique est complètement con et ne marchera jamais, David !, parce que c'est leur boulot de m'éviter ce genre d'échecs. Maintenant, c'est peut-être justement parce que je sais écouter ce genre de conseils que je deviens pas un Grand Méchant de fiction : mes conseillers, qui ne sont pas des imbéciles, et que j'écoute soigneusement, me disent clairement que je serai beaucoup moins heureux si je deviens maître du monde, donc je n'ai aucune intention d'essayer. (Parce qu'il n'y a aucun doute que j'arriverais sans problème si j'essayais. <Insérer ici un emoji approprié.>)

Bref, il est intéressant de remarquer que ce genre de problèmes advient aussi, au moins sur une certaine forme, aux dictateurs dans la vraie vie : les dirigeants des régimes autoritaires s'entourent de personnes sélectionnées pour leur loyauté (voire servilité) plus que pour leur compétence, pour leur alignement idéologique avec le grand chef plus que pour leur qualification à analyser la réalité même déplaisante, et pour leur capacité à accaparer le pouvoir plus que pour en faire quoi que ce soit d'utile, et cette oligarchie finit par faire obstacle à la capacité du régime à réagir notamment devant l'adversité. Au final, même si le grand chef est personnellement compétent (ce qui est souvent le cas du premier, rarement de ses successeurs[#]), il est entouré d'une nuée de flagorneurs qui empêchent sa compétence de s'exercer correctement alors même qu'ils ne lui évitent pas les erreurs. (Et même si un ministre est compétent, le même problème se reproduit un niveau plus bas.) Il va de soi que les démocraties ne sont pas immunes à ce type d'effets, notamment les régimes présidentiels (suivez mon regard), mais une alternance régulière du pouvoir, ou l'existence d'une opposition audible, a au moins tendance à les atténuer par rapport aux dictatures[#2].

Je suis une quiche en histoire mais je crois comprendre, de quelques lectures sur l'histoire de France sous le règne des Louis Bourbon numérotés XIV à XVI, que c'est un des phénomènes essentiels qui ont conduit à la chute de ce régime : Louis XIV voulait concentrer tout le pouvoir en sa personne, et il a ainsi réussi à créer un système où la servilité et l'obséquiosité étaient récompensées plus que la compétence et l'autonomie, et la multiplication des charges prestigieuses mais fantoches ont fini par scléroser l'État, surtout quand des successeurs moins doués pour l'exercice personnel du pouvoir ont hérité de ce bagage de traditions paralysantes où il était impossible de trouver une personne compétente, encore moins de lui donner un champ libre, pour mener les réformes profondes devenues indispensables.

Bref, jusqu'à il n'y a pas si longtemps, j'étais convaincu que si Vladimir Poutine était, en tant que dictateur et assassin, quelqu'un de profondément détestable et moralement condamnable, comme au moins il est intelligent et compétent, il n'allait rien faire de profondément stupide ; je révise mon jugement. Non pas que Poutine ne soit pas quelqu'un de très intelligent, je le crois toujours, au moins dans certains domaines, mais c'est une erreur de faire l'hypothèse que même les gens très intelligents sont parfaitement bien informés ou ne font pas d'erreurs. Et surtout, c'est oublier que s'ils ne sont pas entourés de conseillers capables de leur donner des informations correctes et de leur signaler leurs erreurs, il n'y aura pas de correction de ces erreurs, et ils peuvent tomber dans une obstination d'autant plus grande que leur compétence (avérée) les amène à se croire infaillibles.

↑Entry #2716 [older| permalink|newer] / ↑Entrée #2716 [précédente| permalien|suivante] ↑

↓Entry #2715 [older| permalink|newer] / ↓Entrée #2715 [précédente| permalien|suivante] ↓

(dimanche)

Ceci sera-t-il la dernière entrée parlant de covid ?

J'ai sans doute attrapé la covid il y a une quinzaine de jours, sous forme d'un petit rhume (merci la vaccination !). On ne saura probablement jamais avec certitude si c'était ça ou non, parce que la manière dont ça s'est déroulé, c'est que :

  • j'ai attrapé un rhume, i.e., j'ai eu les symptômes qui, chez moi, sont complètement caractéristiques d'un rhume comme j'en ai eu des tonnes pendant ma vie (cf. ici) : d'abord une douleur au niveau de l'arrière du palais pendant un jour ou deux, puis le nez bouché pendant trois ou quatre jours, puis une toux d'abord productive et de plus en plus sèche ;
  • je me suis demandé si ça pouvait être le covid, j'ai fait un autotest, il était négatif, donc j'ai conclu que non (je sais bien que les autotests ont pas mal de faux négatifs, mais ces faux négatifs sont, de ce que je comprends, essentiellement dus à la difficulté à prélever assez de mucus, et ici ce n'est vraiment pas ce qui manquait) ;
  • le poussinet est parti à Londres et en est revenu, et il a eu mal à la gorge, il a dit j'ai dû attraper ton rhume, il a quand même fait un autotest covid parce qu'il avait de la fièvre, et ce test était spectaculairement et indiscutablement positif ;
  • je me suis dit qu'il avait peut-être attrapé la covid à Londres indépendamment de mon rhume et que j'allais l'avoir à mon tour, mais nous n'avons pris aucune précaution entre nous (parce que, franchement, je m'en fous, à la limite j'ai plutôt envie de l'avoir pour avoir des anticorps contre le variant ο en plus des anticorps contre la forme ancestrale dus au vaccin), et depuis le temps que j'attends et que je n'ai rien attrapé de plus que ce rhume initial (et les symptômes du poussinet sont tout à fait passés depuis un moment, donc il est clair que je ne vais pas attraper quoi que ce soit maintenant) ;

— j'en conclus que le plus probable, quoique non certain, est que ce rhume était quand même le covid, malgré l'autotest négatif, et que c'est moi qui l'ai refilé au poussinet et non le contraire. (L'autre explication étant un peu tarabiscotée : j'aurais eu un rhume, le poussinet aurait attrapé le covid indépendamment en allant à Londres, et il ne me l'aurait pas transmis malgré les nuits et les repas passés ensemble et les nombreux bisous que nous nous sommes faits.)

Bref, pour moi, si c'est bien le covid que j'ai eu, ça a donné une rhinopharyngite tout à fait classique, aucune fièvre, même pas un rhume particulièrement gros. Le poussinet, lui, a eu de la fièvre (jusqu'à 38.9°C) pendant un jour ou deux, le nez bouché à peu près le même temps, un gros mal de tête pendant une soirée, et très mal à la gorge pendant quelques jours ; le principal inconvénient est surtout que ça l'a obligé à annuler un week-end qu'il avait prévu à Milan avec ses parents et son frère. Son frère a aussi eu la covid (de façon indépendante de nous, parce que ça fait des semaines que nous l'avons pas vu) : ça a été un peu plus sérieux pour lui, mais rien de grave non plus (juste au niveau où on commence à penser consulter un médecin). En fait, c'est intéressant de remarquer que je connais vraiment énormément de gens qui ont attrapé le covid (toujours sous une forme très ou assez bénigne) ces dernières semaines, beaucoup plus que lors de la vague de janvier qui était pourtant sensée être plus importante : peut-être que des groupes sociaux différents ont été touchés pendant ces deux vagues ; ou peut-être que les gens, comme moi, ne se font simplement pas ou plus tester, et les cas graves doivent devenir de plus en plus rares parce que les irréductibles antivax ont fini par être largement infectés, donc les gens immunologiquement naïfs il ne doit vraiment plus en rester beaucoup.

Toujours est-il que la transition vers une maladie endémique me semble maintenant achevée (cf. ce que j'écrivais précédemment). On va sans doute avoir des pics de covid chaque année à des moments assez prévisibles (peut-être deux par an, un au milieu de l'automne et un au début du printemps ?), avec un nombre de cas très important (dépendant de la durée typique de l'immunité stérilisante) mais une gravité faible ; des variants sans cesse nouveaux, mais qui n'ont pas plus de raison de nous préoccuper que ceux des autres virus respiratoires (dont quatre coronavirus) circulant depuis des décennies ou des siècles. (Bien sûr, on peut toujours craindre l'apparition d'un mutant apocalyptique, mais on peut craindre ça pour n'importe quel virus, pas spécialement plus pour SARS-CoV-2, et j'ai personnellement plutôt peur de la grippe.) La principale inconnue est la pertinence de revacciner les personnes âgées, à partir de quel âge et avec quelle fréquence : c'est quelque chose qu'on découvrira avec le temps.

La Chine est en train de démontrer au monde l'absurdité de la politique « zéro covid » appliquée avec obstination, et je me demande bien comment elle va se tirer du trou qu'elle s'est creusé : un moment ou un autre, il faudra bien se décider à rouvrir Shanghaï ! J'ai vraiment du mal à comprendre que certains puissent encore s'accrocher à cette idée. La politique « zéro covid » avait peut-être un espoir, on pouvait encore rêver éradiquer complètement le virus début janvier 2020, quand tous les cas étaient dans la même région de Chine, ou en tout cas tous en Chine. Dès lors qu'il y a eu plus qu'une poignée de cas en Corée, en Iran et en Italie, il fallait être d'une naïveté insoutenable pour s'imaginer qu'il y avait encore la moindre chance de faire disparaître SARS-CoV-2 de la Terre ; il aurait fallu une action coordonnée absolument parfaite de tous les pays du monde, et même si tous avaient bien voulu, tous n'auraient pas eu les moyens. (Et maintenant qu'il y a des réservoirs animaux, même si tous les pays du monde se mettaient d'accord pour faire un méga-confinement façon Shanghaï, ça ne marcherait quand même pas.) Essayer de suspendre l'épidémie le temps de vacciner tout le monde (comme l'a fait la Nouvelle-Zélande) peut peut-être aussi se défendre, mais la Chine semble avoir été coincée par son refus de développer ou d'importer des vaccins à ARNm et/ou son incapacité à vacciner suffisamment de personnes âgées, — et c'est sans doute en bonne partie à cause de l'illusion de succès que donnait sa politique de suppression. Et je crois surtout que les dirigeants chinois sont maintenant coincés par le sophisme des coûts irrécupérables : changer de politique impliquerait qu'ils ont fait tous ces efforts pour rien, .

Ailleurs dans le monde, où on a accepté la réalité que la covid ne va pas disparaître, la question se pose surtout de savoir si, jusqu'à quand et dans quelles conditions on doit continuer à imposer le port du masque dans les lieux intérieurs. Je doute franchement que la situation puisse s'améliorer nettement par rapport à ce qu'elle est maintenant en France ou en Europe : donc si on pense que ce n'était toujours pas le bon moment, ce ne sera jamais le bon moment, i.e., c'est qu'on réclame le port du masque in perpetuum. Pourquoi pas, après tout ? Ma principale objection à ça, c'est que même si le masque est raisonnablement efficace pour limiter la transmission, ce n'est pas ce qui conditionne le comportement à long terme de l'épidémie : ce qui importe pour ça, c'est la durée de notre immunité (et surtout de notre immunité stérilisante) : en gros, si elle dure N mois, chacun de nous attrapera la covid en moyenne une fois tous les N mois (peut-être souvent sans le remarquer, mais en le retransmettant), masques ou pas masques. (Plus d'explications sur mon raisonnement ici (43 tweets ; ici sur ThreadReaderApp.) Le masque serait intéressant s'il permettait de réduire le nombre de reproduction en-dessous de 1 dans une population naïve, mais ce n'est visiblement pas le cas parce que si c'était le cas le zéro covid aurait été facilement atteint : en fait, il y aura quasiment autant de cas de covid en moyenne par an si nous portons tous un masque que si nous n'en portons pas, en en disant ça je ne conteste pas l'efficacité du masque pour réduire la transmission — c'est juste qu'il n'a pas d'effet sur la durée d'immunité et que c'est ça le paramètre critique dans la phase endémique. Le masque est intéressant si un pic épidémique massif fait craindre de submerger le système hospitalier, parce que ça permettrait d'« aplatir la courbe », d'étaler ce pic sans pour autant diminuer son ampleur totale ; mais je pense que si c'est encore le cas maintenant que tout le monde est vacciné ou immunisé par infection, c'est surtout le signe que le système hospitalier a bien d'autres problèmes que le covid (ce qui est d'ailleurs le cas !).

Ceci étant, le masque peut représenter une forme de politesse, comme le fait de tousser dans son coude : la règle que je me suis faite jusqu'à nouvel ordre, c'est d'en porter un si j'ai des symptômes de type rhume (et donc notamment il y a deux semaines quand j'ai eu ce truc qui finalement était probablement, mais peut-être pas, la covid), ou bien si je m'adresse à une personne qui en porte elle-même déjà un (l'idée étant que si c'est moi qui initie la conversation, il est normal que je me plie aux règles préférées par la personne d'en face).

Alors à défaut de l'espoir d'atteindre le zéro covid, l'explication que certains mettent en avant pour défendre le maintien de certaines restrictions liées au covid (à commencer par réclamer la continuation du port du masque obligatoire), c'est de protéger les personnes immunodéprimées. Je trouve cet argument assez fabuleux d'hypocrisie : les personnes immunodéprimées ont toujours été particulièrement vulnérables à toutes sortes de maladies endémiques, mais parce qu'on a fait tout un foin avec cette maladie-là et que ça arrange ceux qui veulent sortir cet argument-là, on découvre le phénomène et on les met en avant. (De même que dans un registre un peu différent, comme je l'ai déjà signalé, on découvre que ce coronavirus peut infecter le cerveau et être associé à des déclins cognitifs : mais c'était déjà connu pour d'autres coronavirus endémiques « de rhume » et tout le monde s'en foutait.) Il existe, bien sûr, une grande variété de formes et de degrés d'immunodéficience, et l'accroissement du risque peut être modéré ou extrêmement sévère : typiquement, il semble que l'accroissement du risque soit d'ordre de grandeur comparable à cinq ou dix ans d'âge en plus (mais bien entendu, il y a des cas plus sérieux, et bien entendu, cela se cumule, et surtout, la réaction au vaccin risque d'être insuffisante ou carrément inexistante). Malheureusement, il n'y a pas grand-chose qu'on puisse proposer aux cas les plus sérieux : on peut toujours se réfugier dans l'idée qu'on a gâché une occasion d'éradiquer SARS-CoV-2 ou qu'obliger tout le monde à porter des masques partout les protégerait, il y a tout simplement fort peu de raison de croire que c'est vrai.

(Une digression épidémiologique : en fait, paradoxalement, je pense même qu'il vaut mieux pour les personnes immunodéprimées que la population générale ne porte pas le masque. En effet, comme je l'ai rappelé ci-dessus, dans la mesure où l'infection est endémique, récurrente et assez hautement contagieuse, le nombre d'infections covid par unité de temps et par nombre d'habitants sera, en moyenne à long terme, essentiellement contrôlé par la durée moyenne d'immunité, et pas par l'infectiosité, donc pas par les précautions prises comme le port du masque. Mais ceci est une moyenne générale sur toute la population : si on veut diminuer ses risques personnels, il s'agit essentiellement de se protéger soi-même plus que la moyenne, par exemple quelqu'un qui porterait normalement un masque FFP2 diminue sensiblement ses risques d'infections par unité de temps ; et cette protection individuelle dépend du rapport à la moyenne, donc elle est d'autant plus importante qu'on se protège soi-même bien et que la moyenne ne le fait pas. C'est, si on veut, une forme d'immunité collective dynamique : l'immunité collective est maintenue sous la forme d'une certaine proportion de la population étant immunisée contre le pathogène, cette proportion reste constante dans le temps même si des gens ne cessent de perdre leur immunité et d'autres de la gagner par infection, ce rythme d'entrée et de sortie dépend de la durée moyenne d'immunité, mais on peut se protéger individuellement en s'arrangeant pour que ce soient d'autres gens qui soient infectés. Bref, on protégera mieux les personnes immunodéprimées en n'imposant pas le port du masque en général — même s'il vaut mieux le porter autour de ces personnes ! et qu'il vaut certainement mieux qu'elles-mêmes en portent un. Mais bon, les gens qui mettent en avant les personnes immunodéprimées parce que ça arrange leurs théories sur le covid n'aiment pas non plus qu'on parle d'immunité collective, donc elles vont certainement rejeter tout le raisonnement que je viens d'esquisser.)

Pour conclure, j'espère bien que ceci sera la dernière entrée de ce blog où je parlerai de covid (même si je ne m'interdis évidemment pas de l'évoquer à l'avenir, d'ailleurs je compte revenir sur la comparaison avec le sophisme des coûts irrécupérables, disons que je voudrais bien ne plus en faire le sujet central d'un billet) : il y avait une certaine cohérence dramatique à ce que je finisse ce cycle sur le récit de ma propre infection covid comme j'ai raconté tant d'autres de mes rhumes. (Et aussi que ça tombe pendant le deuxième confinementversaire.) Je pourrais peut-être faire la liste des erreurs d'analyse que j'ai commises pendant cette pandémie, mais je me contenterai de mentionner celle-ci : j'étais persuadé que l'obligation du port du masque serait maintenue pendant de très longues années (et ne serait jamais vraiment levée, juste finirait par être ignorée par tout le monde), je dois reconnaître que j'ai eu tort ; j'étais aussi persuadé que la fin de la pandémie ne serait pas claire, et en fait elle a été extrêmement précise : la pandémie de covid a pris fin très précisément le 24 février 2022 à 3 heures temps universel, parce que l'attention du monde s'est tout d'un coup portée sur autre chose.

↑Entry #2715 [older| permalink|newer] / ↑Entrée #2715 [précédente| permalien|suivante] ↑

↓Entry #2714 [older| permalink|newer] / ↓Entrée #2714 [précédente| permalien|suivante] ↓

(lundi)

Surtout, ne parlons pas de l'élection présidentielle ! (Ils en ont parlé.)

Comme je le disais récemment sur Twitter, les résultats électoraux font toujours l'effet d'un choc même quand on sait qu'il est logiquement impossible qu'il en sorte quelque chose de bon. Il y a un effet psychologique à la révélation soit qu'on a attrapé la peste soit qu'on a attrapé le choléra, de même qu'il y a une violence psychologique inouïe à devoir choisir entre les deux (ou à choisir de ne pas choisir, mais en sachant on aura quand même l'un des deux), qu'on devrait logiquement ressentir dès que cette fatalité devient évidente, mais qui ne se concrétise que quand on est face à la révélation même. J'ai eu beau me dire je me fous de ces résultats, ils seront forcément un désastre, ça n'a pas marché.

Je ne suis pas du genre à crier tous pourris (et de toute façon la faute que je vois n'en est pas tant aux candidats qu'à une combinaison entre le mode de scrutin et surtout le modèle présidentiel, cf. ci-dessous), c'est bien la première fois que je ressens une aversion pareille pour tous les candidats, pourtant fort nombreux, qui se présentaient à cette élection : peste, choléra, fièvre typhoïde, cancer du pancréas… (est-ce que parmi tous les fils humoristiques du type candidats à la présidentielles as <truc> — où <truc> = projections cartographiques, trains, races de vaches, systèmes électriques, équations de la physique, éditeurs texte, etc. — personne n'en a fait un avec les maladies graves ? bon, y'a ça).

Alors certes, je ne m'attendais pas à trouver une personne candidate qui se prononce simultanément pour toutes sortes de choses que j'approuverais, comme : ⁃ une restauration de services publics forts, ⁃ la mise en place d'un revenu universel permettant de ne pas centrer la vie des individus autour du travail rémunéré, ⁃ un pacte écologique scientifique avec une place prépondérante donnée à l'énergie nucléaire (avec construction d'un maximum de nouvelles centrales) pour réduire les émissions de CO₂ et des taxes pigouviennes sur les pollueurs, ⁃ la relance d'une intégration européenne accrue, ⁃ le rejet explicite de tout nationalisme ou isolationnisme, ⁃ une stabilisation de la dette publique financée par une fiscalité progressive et redistributive, ⁃ des réformes constitutionnelles et organiques pour limiter les pouvoirs du président de la République, redonner le rôle de premier plan au parlement et la présidence du conseil des ministres au Premier ministre, mettre en place un scrutin plus représentatif à l'Assemblée nationale, (je n'ose même pas parler de réforme du Sénat,) et transformer le Conseil constitutionnel en cour de justice complètement séparée du pouvoir politique, ⁃ une protection claire du droit à manifester sans se heurter à la brutalité policière, ⁃ des moyens accrus donnés au Défenseur des Droits, ⁃ une politique judiciaire qui cherche vraiment à privilégier la réinsertion sur la punition, ⁃ une politique de santé publique qui condamne catégoriquement les errements répressifs lors de la pandémie de covid, ⁃ une réforme en profondeur du droit d'auteur pour mettre fin à ses excès, ⁃ la dépénalisation de l'usage de toutes les drogues récréatives et celle de la vente du cannabis, ⁃ des simplifications de procédures administratives (par exemple la suppression de cette idiotie qu'est le justificatif de domicile), ⁃ la suppression de toute mention du sexe des individus de l'état-civil, des papiers d'identité et de tout fichier de l'Administration, ⁃ le rejet clair de toute forme de service national obligatoire comme constituant une forme de servitude anachronique, ⁃ une revalorisation des métiers de l'enseignement et de la recherche, la fin de la recherche « compétitive », « darwinienne », et la possibilités de financements autrement que par seuls projets, ⁃ un grand plan de transparence de l'accès aux documents administratifs sous forme informatisée et en données ouvertes ⁃ et je veux bien cent balles et un mars aussi. Je me doute bien que plein de gens ne seront pas d'accord avec ça, et il est normal qu'aucun candidat ne le propose. (J'oublie sans doute plein de choses dans ma liste de toute façon. Par ailleurs, ce n'est pas la peine de me dire que ce que je liste est vague, irréalisable voire auto-contradictoire : si vous n'avez pas remarqué que les projets des candidats sont toujours vagues, irréalisables et auto-contradictoires, c'est que vous n'avez jamais lu un programme politique. Je précise cependant à toutes fins utiles que ceci n'est pas un programme et que je n'ai aucune intention de me présenter à quelque élection que ce soit.)

Bref, je n'en demandais pas tant, je sais bien que quand on vote il faut accepter d'avaler des grosses couleuvres, mais disons que ç'aurait été agréable qu'il y eût au moins une personne, parmi ces candidats, que je trouve susceptible de faire moins de mal que de bien, ou disons, moins de mal qu'une théière, — la théière étant quelque chose à qui on ne craint pas trop d'accorder les pouvoirs démesurément dangereux du président de la République française. J'ai quand même voté pour quelqu'un (peut-être du niveau « tuberculose » dans les maladies graves ?) parce que voter blanc ne permet pas d'avoir une théière présidente, mais c'est tout de même affligeant, et je crois que je ne suis pas loin d'être le seul affligé, que la moins pire option pour le second tour soit le mec qui il y a deux ans a fait fermer les forêts et fait signer des papiers débiles à 70M de personnes pour mettre le nez dehors, pour une infection respiratoire(!).

Il serait bien sûr bon que les électeurs français se rappellent qu'ils peuvent limiter le pouvoir de nuisance de la personne élue à la présidentielle en lui donnant une assemblée politiquement opposée, ce qui rapprocherait un peu l'Élysée du niveau théière, et donnerait aux Français la satisfaction d'avoir rembarré non pas onze mais douze des douze candidats à la présidentielle. Ce n'est pas idéal, ça reste plus dangereux qu'une théière (par exemple parce que le général De Gaulle a par inadvertance égaré une arme atomique à l'article 16 de la Constitution, qui dit le président de la République peut, à tout moment et sans rendre de compte à personne, sur une décision qui ne revient qu'à lui et qui n'est susceptible d'aucun recours, transformer la France en dictature : sympa ; au moins, un parlement hostile pourrait tenter une procédure de destitution), mais ce serait déjà quelque chose. Malheureusement, je ne crois pas que les Français aient bien compris qu'ils ont le droit de voter différemment aux législatives qu'à la présidentielle, donc ça reste sans doute un espoir naïf de ma part.

Le problème des dangers du pouvoir n'est pas neuf, bien sûr. Ce n'est pas difficile à comprendre : être président, c'est un boulot horrible, où on n'a pas une minute pour soi, où on doit sans arrêt gérer les merdes, où tout le monde vous demande de tout faire au sujet de tout, et où tout le monde finit par vous détester, où on est obligé de rencontrer plein de gens chiants ou cons ou meurtriers et de faire semblant de les trouver intéressants, intelligents et gentils, et où on passe des années sans dormir une seule nuit correcte. Pour vouloir un tel boulot, il faut être un dangereux psychopathe tellement obsédé par le pouvoir et la grandeur de soi qu'on juge que le hochet suprême de la présidence compense tous ces inconvénients. De là résulte le fait qu'aucune personne qui a envie de devenir président ne devrait être autorisée à approcher à moins de 100km du bouton nucléaire ou d'aucun des autres pouvoirs qui vont avec le hochet :

To summarize: it is a well known fact, that those people who most want to rule people are, ipso facto, those least suited to do it. To summarize the summary: anyone who is capable of getting themselves made President should on no account be allowed to do the job. To summarize the summary of the summary: people are a problem.

― Douglas Adams, The Restaurant at the End of the Universe (chap. 28)

Ça doit déjà être dans la République de Platon, sauf que Platon n'écrit sans doute pas dangereux psychopathe, il écrit plutôt en effet Socrates tu as raison il a certainement toutes les qualités d'un chien ou quelque chose de chiant comme ça. Et surtout, Platon est super méga hypocrite parce qu'après avoir expliqué qu'il ne faut pas donner le pouvoir aux gens qui veulent le pouvoir, il explique qu'il faut le donner aux philosophes, comme lui qui vient de nous exposer plein d'idées hyper dangereuses sur ce que les philosophes feraient avec le pouvoir ou sur l'éducation des gosses, alors bon, paille poutre tout ça.

Et de fait, quand on regarde l'ensemble des anciens présidents français ou même des gens qui ont été des candidats crédibles, il n'y en a pas des masses dont je n'ai pas l'impression qu'ils soient humainement infects et dangereusement obsédés par le pouvoir. (Indépendamment du fond de leurs idées et de leurs autres défauts pas difficiles à trouver, François Hollande et Alain Juppé sont peut-être de ceux-là.)

Presque n'importe quelle mesure qui conduirait à dépersonnaliser le pouvoir politique serait bienvenue dans la situation absolument pourrie où nous a laissé De Gaulle avec son obsession du pouvoir personnel : qu'il s'agisse d'un régime parlementaire, d'une présidence collégiale ou tournante… n'importe quoi qui limiterait les pouvoirs de nuisance accordés aux dangereux psychopathes qui se font élire, ou l'attrait du poste pour les dangereux psychopathe, mais aussi son caractère pénible pour les non psychopathes (si le pouvoir est réparti entre plus de gens, il est à la fois moins attirant pour les avides de pouvoir mais aussi plus attirant pour les personnes qui veulent simplement servir leur pays et pour qui le stress de trop de responsabilités, ou l'impossibilité de dormir correctement pendant cinq ans, est un repoussoir).

À titre d'exemple, un changement minimal sur la constitution française, qui serait déjà un immense progrès, consisterait à élire tous les cinq ans non pas une personne, mais un collège de cinq personnes (en bloc, selon la même procédure qu'on élit une personne actuellement — pas que j'aime cette procédure, mais je veux évoquer un changement minimal), qui ensuite exercerait le pouvoir chacune pour un an, dans un ordre tiré au sort après l'élection (et qui pourraient aussi servir de suppléants en cas de décès ou d'incapacité temporaire de la personne titulaire) : cela rendrait la charge moins attirante pour les non psychopathes, plus supportable pour les non psychopathes, et cela éviterait que les campagnes se concentrent autour du charisme personnel de la personne à leur centre.

Mais comme le pouvoir de faire un tel changement repose essentiellement dans les mains des dangereux psychopathes contre lesquels il servirait à nous protéger, autant dire que ça n'arrivera pas.

↑Entry #2714 [older| permalink|newer] / ↑Entrée #2714 [précédente| permalien|suivante] ↑

↓Entry #2713 [older| permalink|newer] / ↓Entrée #2713 [précédente| permalien|suivante] ↓

(jeudi)

Quelques réflexions à 1 femtozorkmid sur les transports

Méta : Bon, je me retrouve encore une fois à menacer de finir le mois sans avoir écrit une entrée dans ce blog, ce qui ferait peut-être bugguer mon moteur de blog (sans doute pas, mais je pense que ça lui fera générer une page avec juste le chapeau et le pied de page, et rien entre les deux, et je ne veux pas ça). Le problème est, comme d'habitude, que j'avais commencé à écrire plusieurs entrées de maths que j'ai à chaque fois suspendues pour en écrire une autre, et que j'ai donc empilé les textes commencés et que j'ai un peu la flemme de reprendre. (En plus, j'ai pas mal de cours en ce moment, et quand je n'ai pas cours j'ai plus envie d'en profiter pour me balader plutôt qu'écrire dans ce blog.) Mais comme je veux quand même écrire quelque chose ici et qu'il est hors de question que je reparle de covid et que je ne vais pas non plus parler de l'Ukraine parce que je ne suis pas spécialiste de Tout malgré les apparences, je vais dire quelques mots sur un sujet propre à apporter la paix et la quiétude, à savoir : les transports.

Just kidding. Je ne comprends pas vraiment pourquoi, mais s'il y a un sujet quasiment aussi explosif que la politique — par exemple sur les réseaux sociaux — c'est bien ce qui touche aux transports. Dans doute parce que, que ce soit sur la route ou dans la foule des transports en commun aux heures de pointe, nous avons une occasion unique d'être en situation conflictuelle avec un grand nombre d'autres personnes et donc de les rendre responsables de notre malheur alors que nous sommes plutôt tous ensemble dans la même merde. Il n'y a pas de meilleur moyen de devenir misanthrope ou malthusien ou de se convaincre du fait que l'enfer c'est les autres qui veulent faire le même chemin que d'essayer d'aller de A à B au même moment que des milliers d'autres.

Bizarrement, cette situation, qui devrait conduire à vouloir diversifier autant que possible les modes de transport, a plutôt l'effet inverse. Je veux dire que même les personnes les plus intelligentes ont tendance à tomber dans la mentalité les moyens de transport que j'utilise sont bien et sont indispensables, tous les autres sont inutiles, dangereux, polluants, coûteux ou idiots (à laquelle il faut souvent ajouter et pour les moyens que j'utilise, moi je sais bien m'en servir, le problème vient toujours des autres). Alors que dans la réalité, tous les moyens de transport sont très bien, et d'ailleurs je les utilise tous, sauf évidemment les scooters qui sont la pire engeance inutile, dangereuse, polluante, coûteuse et idiote. 😉

Quelque part, là, il faut que je sorte la blague de la personne qui roule sur l'autoroute en écoutant la radio et entend un flash info spécial avertissant qu'il y a une voiture sur cette autoroute qui roule à contresens. Elle s'exclame : Comment ça, une voiture ? Elles sont toutes à contresens !

Un peu plus sérieusement, il y a évidemment toutes sortes de questions qui interagissent de façon complexe et souvent contradictoire quand il s'agit d'évaluer les modes de transports : le coût individuel, le coût de maintenance des infrastructures, le temps de parcours, la possibilité d'utiliser ce temps pour autre chose (lire, travailler…), la fréquence de disponibilité, la prévisibilité du temps de parcours, la fiabilité, la congestion, les conflits avec les autres usagers, la sécurité pour l'usager, la sécurité pour les tiers, les nuisances et autres externalités pour les tiers (à commencer par la pollution, qui prend elle-même plusieurs dimensions : émissions de CO₂, émissions de particules fines, autres émissions comme l'ozone ou les oxydes d'azote, pollution à la production du véhicule, pollution sonore et lumineuse voire d'autres formes comme les détritus abandonnés), le stress engendré, le confort, le statut social associé au mode de transport, le respect des règles (comme le code de la route), les enjeux sociétaux (voire, moraux) à décider de privilégier tel ou tel mode, ou que sais-je encore. La pandémie nous a fait découvrir de nouvelles dimensions, comme le risque de contaminations ou l'inconfort de devoir porter un masque (qui ont certainement joué sur le report de modes de transport vers d'autres). Les grèves nous rappellent la question sociale délicate de savoir si les transports en commun sont un service essentiel dont on devrait exiger un service minimum. Chacun a sa petite idée sur tout ça, non seulement sur ces différentes dimensions, mais aussi sur leur importance relative. Je ne prétends certainement pas évoquer toutes ces questions, juste ranter sur quelques idées qui me passent par la tête. Mais ce qui est fascinant, c'est à quel point on peut être méprisant des arbitrages des autres (même si évidemment l'accusation d'ignorer les externalités de ses choix est légitime a priori).

Manifestement, si quelqu'un choisit de traverser l'Île-de-France en voiture, quitte à passer des heures dans les embouteillages (et peut-être à payer le prix de plus en plus élevé des carburants fossiles), plutôt que de prendre les transports en commun, ce n'est pas que cette personne ignore l'existence des transports en commun. L'explication la plus simple est peut-être simplement que le temps de trajet en transports en commun est beaucoup plus long : en fait, il est assez déprimant de constater à quel point il est difficile de trouver des trajets où les transports en commun soient meilleurs à la fois que la voiture et que le vélo : à Paris intra muros le vélo est presque toujours plus rapide que le métro, et en banlieue parisienne la voiture est presque toujours plus rapide que le RER, même quand on tient compte de la congestion sur les routes (disons la congestion normale aux heures de pointe). Pour donner un simple exemple, pour aller de chez moi à chez ma mère à Orsay (qui n'habite pourtant pas bien loin de l'arrêt du RER B alors que je suis moi-même sur une ligne de métro qui la croise), le mieux qu'on puisse faire en transports en commun est un poil en-dessous d'une heure, ce qui correspond en voiture à une situation de très gros bouchons en heure de pointe.

Je ne sais pas dans quelle mesure c'est possible de rêver une situation où les transports en commun seraient généralement concurrentiels en temps avec la voiture, mais on peut certainement rêver mieux. J'ai déjà raconté ici à quel point la qualité des transports vers mon bureau est nulle, entre un RER B à bout de souffle à force de sous-investissement chronique dans la maintenance, et un bus qui passe une fois tous les jamais à un arrêt très éloigné de là où passe le RER, qui est tout le temps archi-bondé, et qui dessert un nombre invraisemblable d'arrêts sur un trajet aussi tarabiscoté qu'interminable entre Massy-Palaiseau et mon école. Évidemment, il y a des endroits bien plus mal desservis en transports en commun, mais il fallait quand même une intelligence de génie pour décider de créer un pôle scientifique au milieu de nulle part sur cet endroit totalement inaccessible qu'est le plateau de Saclay — tellement grand et vide, d'ailleurs, que même les transports au sein du pôle scientifique du plateau de Saclay sont extrêmement problématiques si on n'a pas de voiture. (Je compte sur Émilia Robin, dont je fais au passage la pub du travail d'histoire de la région, pour nous expliquer comment on en est arrivé à une telle aberration.) Alors il est vrai qu'on nous promet l'arrivée pour Un Jour™ de la ligne de métro 18 du Grand Paris Express, qui ne doit pas être purement imaginaire parce que des travaux ont vraiment commencé (et contribuent leur part à ce que ce plateau soit un champ de boue permanent), sans doute que ce sera un progrès par rapport à cet épouvantable bus 91·06, mais le problème du RER et, ne l'oublions pas, de l'interconnexion entre le RER et le métro du futur, restera.

↑Entry #2713 [older| permalink|newer] / ↑Entrée #2713 [précédente| permalien|suivante] ↑

Only the 20 most recent entries were included above. Continue to older entries.

Seules les 20 plus récentes entrées ont été incluses ici. Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2022 Jan 2022 Feb 2022 Mar 2022 Apr 2022 May 2022 Jun 2022 Jul 2022 Aug 2022 Sep 2022
2021 Jan 2021 Feb 2021 Mar 2021 Apr 2021 May 2021 Jun 2021 Jul 2021 Aug 2021 Sep 2021 Oct 2021 Nov 2021 Dec 2021
2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020 May 2020 Jun 2020 Jul 2020 Aug 2020 Sep 2020 Oct 2020 Nov 2020 Dec 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]