David Madore's WebLog

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., celle écrite en dernier est en haut). Cette page-ci rassemble les dernières 20 entrées (avec un lien, à la fin, pour les plus anciennes) : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the latest written is on top). This page lists the 20 latest (with a link, at the end, to older entries): there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Latest entries / Dernières entrées publiées:

↓Entry #2771 [older| permalink|newer] / ↓Entrée #2771 [précédente| permalien|suivante] ↓

(vendredi)

Où j'apprends aussi l'informatique en l'enseignant

Ce que j'aime surtout dans le fait d'enseigner, c'est qu'on apprend souvent soi-même plein de choses sur le sujet qu'on enseigne, surtout la première fois, et surtout si on crée soi-même le programme du cours : on croyait bien savoir les choses de loin, mais être obligé de les regarder de près pour les enseigner oblige souvent à se rendre compte qu'il y avait une subtilité là où on ne le savait pas (ou qu'on avait oubliée) ; ça peut éventuellement conduire à une panique zut, l'approche que je croyais avoir tracée pour ce cours ne marche pas ! comment est-ce que je vais m'en sortir ?, mais souvent on en ressort bien plus compétent qu'avant : même si la subtilité qu'on a découverte, finalement, n'est pas enseignée, l'enseignant sera quand même meilleur (ceci étant, les personnes à qui on enseigne la première fois risquent de moins goûter l'expérience, et il faut parfois quelques années pour que la découverte de surprises se tarisse et que l'enseignant soit rôdé).

Pour prendre un exemple passé précis, en enseignant mon cours de théories des jeux (notez le pluriel à théories !) à Télécom — dont les notes sont ici si ça intéresse quelqu'un — je me suis rendu compte d'une subtilité importante dont je n'avais pas du tout pris conscience avant : quand on parle de stratégie dans un jeu (à information parfaite), on peut soit s'intéresser aux stratégies qui, pour prescrire un coup à jouer, dépendent seulement de la configuration actuelle du jeu (appelons-les stratégies positionnelles), soit de celles, plus générales, qui dépendent de tout l'historique de la confrontation jusqu'à ce point (appelons-les stratégies historiques) ; or, même si la règle du jeu ne dépend que de la configuration actuelle et pas de l'historique qui a mené à cette configuration, ce n'est pas du tout évident a priori qu'une stratégie gagnante dans le sens plus général (historique) soit forcément traduisible en une stratégie gagnante dans le sens plus restreint (positionnel) ; et j'avais un peu paniqué, parce que j'avais construit mon cours autour de la démonstration de l'existence d'une stratégie gagnante dans un sens via la théorie des jeux de Gale-Stewart (qui sont intrinsèquement « historiques »), alors que j'en avais besoin ensuite au sens plus fort (« positionnel ») pour la théorie de Sprague-Grundy. J'ai réussi à m'en sortir (j'ai écrit des notes expliquant correctement le lien, voir la section 3.5 du PDF lié ci-dessus), en cours je demande aux élèves d'admettre ce point en les renvoyant au poly s'ils ne veulent pas l'admettre, donc finalement je n'enseigne pas vraiment cette subtilité, mais j'ai été content d'en prendre conscience, et je suis étonné qu'il soit si peu évoqué, ou si mal expliqué, dans la littérature scientifique sur le sujet.

Même en donnant un cours d'analyse (dont je n'étais, cette fois, pas le responsable ni le créateur, mais simple intervenant) j'ai appris un certain nombre de choses sur le sujet, voyez par exemple ce billet passé pour quelque chose que j'ai appris au détour d'un exercice. Et en donnant un cours d'initiation à la géométrie algébrique, je me rends surtout compte… que c'est très difficile d'enseigner la géométrie algébrique et que je ne sais même pas produire une définition d'un morphisme entre variétés quasiprojectives (l'objet fondamental du domaine, quoi) qui ne soit pas abominable dans sa complication.

Bref. Cette année, comme je l'ai raconté ici et , j'inaugure un cours intitulé Logique et Fondements de l'Informatique où je dois parler de calculabilité, λ-calcul, logique, typage, isomorphisme de Curry-Howard, ce genre de choses (un programme à vrai dire assez ambitieux, mais on m'a donné comme consigne de profiter de la création de la filière MPI en prépa pour viser quelque chose d'assez sérieux). Des choses, à cheval entre mathématiques et informatique théorique, qui me plaisent beaucoup (sur la calculabilité voyez par exemple ce long billet) et sur lesquelles je pensais ne pas avoir grand-chose à apprendre… Famous last words!

(La suite de ce billet est essentiellement un brain dump de quelques unes des choses que j'ai apprises, réapprises, ou mieux comprises en préparant ce cours jusqu'à présent. Noter que ça ne veut pas dire que je vais les enseigner ! Ou du moins pas forcément sous cette forme. Comme les petits bouts de ce billet, de longueur très inégales, sont assez indépendants, je les ai séparés par des fleurons : si on n'aime pas ce que je raconte à un endroit donné, on peut sauter jusqu'au fleuron suivant.)

Il y a des choses que j'ai apprises en marge de la préparation de ce cours, sans que ça ait vraiment d'impact dessus. Par exemple, comment on fabrique des modèles du lambda-calcul non typé (pour ceux qui veulent en savoir plus là-dessus, j'ai bien aimé l'article From computation to foundations via functions and application: The λ-calculus and its webbed models de Chantal Berline, et notamment la partie sur les K-modèles, qui m'ont semblé les plus parlants de tout cette histoire : de façon très sommaire, on représente un terme par l'ensemble de tous les types qu'on peut lui attribuer dans un certain système de typage dont les types ne sont pas disjoints ; en plus ça semble avoir un rapport avec la réalisabilité, ce qui n'est pas déplaisant) : ce n'est pas spécialement une difficulté que j'ai rencontrée, juste quelque chose que j'ai appris au passage.

Il y a aussi des choses que je pensais savoir sans vraiment y avoir suffisamment réfléchi. Notamment, comment fonctionne au juste le combinateur de point fixe Y de Curry. J'avais déjà appris il y a longtemps que dans un langage fonctionnel non typé on peut faire des appels récursifs sans faire d'appels récursifs, par exemple (en Scheme) :

(define proto-fibonacci
  (lambda (self)
    (lambda (n) 
      (if (<= n 1) n
	  (+ ((self self) (- n 1)) ((self self) (- n 2)))))))
(define fibonacci (proto-fibonacci proto-fibonacci))

— code la fonction définie récursivement[#] par F(n)=n si n≤1 et F(n) = F(n−1) + F(n−2) sinon, sans jamais que la fonction fasse appel à elle-même dans sa définition (c'est, en fait, l'astuce de Quine — qui n'est pas due à Quine, c'est Hofstadter qui lui a donné ce nom-là, mais à Cantor, Gödel, Turing et Kleene — et sur laquelle j'avais écrit une page alors que mes élèves actuels n'étaient même pas nés). L'astuce (de Quine qui n'est pas de Quine), donc, c'est qu'on passe la fonction proto-fibonacci en argument à la fonction proto-fibonacci, et quand elle a besoin de faire appel à elle-même, elle applique son argument (self) en prenant bien soin de lui passer une copie de lui-même, d'où le self self dans ce code.

[#] Oui, je sais que la suite de Fibonacci est un très mauvais exemple de récursion parce qu'en vrai il ne faut pas la coder de façon récursive, c'est épouvantable pour la complexité ; mais c'est un exemple facile à lire, donc je le reprends avec cet avertissement qu'il ne faut pas faire comme ça pour autre chose que pour illustrer les appels récursifs.

Vous noterez bien, donc, qu'il n'y a pas d'appels récursifs dans ce code. La même astuce de Quine permet de faire un programme qui s'écrit lui-même même si le langage ne permet pas de faire référence à lui-même (voyez ma vieille page liée ci-dessus pour tous les détails), à Gödel de fabriquer un énoncé qui dit je suis indémontrable, etc. Ici ça sert à ce qu'une fonction s'appelle elle-même même si le langage ne permettait pas les appels récursifs comme construction spéciale (par exemple en λ-calcul, il n'y a pas de construction récursive).

Ici on est dans un langage fonctionnel donc on peut juste appeler une fonction passé en argument, mais dans un langage non fonctionnel capable d'écrire un interpréteur de lui-même, on pourrait quand même simuler les appels récursifs en lançant l'interpréteur (sur une représentation du code de la fonction !) à chaque fois qu'il est écrit self self dans le code ci-dessus, ce qui est la façon la plus mind-blowing de faire de la récursion, et je ne m'étais pas rendu compte de ça avant de commencer à préparer ce cours.

↑Entry #2771 [older| permalink|newer] / ↑Entrée #2771 [précédente| permalien|suivante] ↑

↓Entry #2770 [older| permalink|newer] / ↓Entrée #2770 [précédente| permalien|suivante] ↓

(lundi)

La Distinction de Tiphaine Rivière

Digression préliminaire : Je suis pas mal sous l'eau en ce moment : le problème principal étant que je rédige le cours d'informatique que je donne en ce moment à Télécom moins vite que le cours n'avance : pour l'instant j'ai encore un peu d'avance, mais je ne suis pas convaincu par l'argument de Monsieur Zénon qui m'assure qu'Achille ne peut pas rattraper la Tortue ; surtout qu'en plus de ça, la Tortue se laisse distraire en chemin, c'est-à-dire que j'ai eu le malheur de commencer à réfléchir à des questions comme ça qui n'ont rien, ou très peu, à voir avec ce que je suis censé enseigner, mais qui font partie de réflexions sur lesquelles je reviens périodiquement. En plus, j'ai déjà un billet de blog en cours d'écriture et que j'ai arrêté pour ne pas perdre trop de temps avec. Néanmoins, comme j'ai beaucoup aimé le livre dont je veux parler ici, je vais quand même prendre le temps d'écrire quelque chose, en essayant d'être un peu bref (et vue la longueur de ce paragraphe, ce n'est pas bien parti).

Je connaissais déjà l'autrice/dessinatrice Tiphaine Rivière à travers sa bédé Carnets de Thèse, laquelle raconte le parcours partiellement autobiographique d'une doctorante en lettres qui part avec l'enthousiasme de quelqu'un qui se dit qu'elle va découvrir le monde de la recherche et qui connaît rapidement la désillusion entre les années de thèse qui s'accumulent sans qu'on n'en voie le bout, l'absence de financement qui l'oblige à enseigner en parallèle jusqu'à l'épuisement, le directeur de thèse qui a plein de doctorants et ne s'occupe pas du tout d'elle, la famille qui ne comprend rien à ce qu'elle fait, le copain avec qui elle finit par rompre, etc. On pourra se dire qu'elle force le trait, mais j'ai connu assez de doctorants en lettres et sciences humaines pour savoir que tous ces clichés sont parfois — trop souvent — vrais. J'avais beaucoup aimé ce livre aigre-doux, et je le recommande ne serait-ce que comme avertissement préalable à toutes les personnes qui envisagent de se lancer dans un doctorat (surtout dans une discipline littéraire, mais même en sciences : au minimum il faut retenir l'avertissement de bien se renseigner auprès d'anciens thésards sur l'ambiance du labo, la manière dont l'encadrant de thèse traite ses doctorants et leur consacre son attention, etc.).

Bref, quand j'ai vu que Tiphaine Rivière avait sorti une autre bédé où je pouvais penser que son talent d'observation des situations humaines et sociales serait bien employé, j'ai sauté dessus.

Il s'agit de La Distinction, sous-titré Librement inspiré du livre de Pierre Bourdieu, et c'est à la fois une histoire (ou plutôt un tas de petites histoires ou saynètes, cf. mes réflexions à ce sujet ici concernant une autre bédé), et de la vulgarisation sociologique.

Je dois préciser d'emblée que je n'ai pas lu l'ouvrage source, La Distinction : Critique sociale du jugement (même si maintenant j'ai envie de le faire) : j'ai bien sûr[#] été exposé à un certain nombre des idées de Bourdieu (à commencer par la notion de capital culturel) à travers d'autres gens qui ont repris ses idées, à travers des discussions politiques, à travers des résumés ou compte-rendus divers et variés, donc ce n'est pas comme si je découvrais. Mais je suis également loin d'en avoir une connaissance approfondie, ou même une idée bien précise. Donc je ne peux pas juger si Tiphaine Rivière reproduit fidèlement les idées de Bourdieu (à part les passages qu'elle cite textuellement), ou si elle ajoute des idées de fond d'elle-même, combien elle transpose pour s'ajuster aux quelques décennies qui se sont écoulées depuis 1979. Mais ça ne me semble pas terriblement important.

[#] Le bien sûr ici est lui-même marqueur du capital culturel de la classe sociale à laquelle j'appartiens ; cf. aussi ce que j'écrivais ici sur la culture générale (et où d'ailleurs je mentionne Bourdieu au passage).

Ce qui est intéressant, et que je trouve très réussi, c'est qu'elle mélange assez habilement une exposition des thèses de Bourdieu et une illustration de celles-ci à travers des anecdotes qu'elle représente, ce qui rend les thèses à la fois plus compréhensibles (si j'en juge par les passages cités qui ne sont pas toujours franchement limpides), plus parlantes et plus convaincantes.

Et la bédé a un petit côté méta (j'ai déjà dit que j'aimais le méta ? ah oui) : car le point de départ en est un (nouveau) professeur de sciences économiques et sociales dans un lycée plutôt défavorisé, qui décide d'essayer d'enseigner à ses élèves les idées de Bourdieu. Évidemment, ça ne marche pas facilement (comme je l'ai dit plus haut à propos de Carnets de Thèse, Tiphaine Rivière est bien consciente que l'enseignement n'est pas toujours facile). Donc on a une sorte de double lecture : la bédé montre en même temps le prof qui essaye de démontrer et faire comprendre à ses élèves que, par exemple, le capital économique (l'argent !) n'est pas la seule distinction entre classes sociales[#2], et des situations qui illustrent ces idées, et les deux se rejoignent souvent. C'est assez délicieusement fait (par exemple j'ai beaucoup aimé les passages où une des élèves de la classe lit des passages du livre à ses parents en leur disant ah tiens, c'est marrant, vous faites exactement comme Bourdieu explique à propos des petits bourgeois, et les énerve parce que personne n'aime se trouver renvoyé aux clichés de sa classe sociale).

[#2] Par exemple quelque chose comme ceci (c'est moi qui paraphrase) : Est-ce que vous êtes déjà allés à l'opéra ?Non !Et pourquoi pas ?Parce que c'est trop cher !D'accord. Mais si vous aviez tout d'un coup plein d'argent, est-ce que vous vous mettriez à aller à l'opéra ?Ben non.

Les personnages sont assez nombreux, et assez variés, illustrant par exemple assez bien le fait que le patrimoine culturel n'est pas forcément parfaitement corrélé au patrimoine économique, qu'il y a cinquante nuances de bourgeois, etc. Mais ça ne tourne pas non plus à l'inventaire sans intérêt, et ces personnages sont au moins indirectement raccordés à l'histoire.

Il n'y a pas vraiment un arc narratif clair ni de conclusion savamment construite, mais je ne trouve pas que ce soit un défaut (il y a quand même une histoire, et une situation qui évolue, mais ce n'est pas le plus important). Le dessin (je veux dire, le dessin graphique) est moins détaillé que dans Carnets de Thèse (c'est en noir et blanc, et il n'y a pas ce que Boulet appelle les petits traits), mais j'ai eu l'impression que la peinture sociologique était tout à fait précise. En tout cas, à moi qui ne suis pas sociologue (mais quand même, j'espère, un peu observateur de la société et des comportements des gens) les portraits des personnages et des situations sonnent juste, et souvent juste dans le sens c'est un cliché, mais malheureusement ce cliché est vrai. Pas que je ne croyais pas à (disons) la réalité des distinctions sociales dans le domaine des goûts, mais je n'y pense pas trop, ou peut-être que j'essaie de ne pas y penser, et la représentation en bédé oblige à y penser, de manière à la fois éclairante et dérangeante.

Parce que c'est peut-être ce qui nous met le plus mal à l'aise avec la sociologie, c'est combien cette idée de déterminisme social, en nous renvoyant aux clichés auxquels nous nous conformons malgré nous, vient gifler notre désir (dans une certaine mesure illusoire) de liberté et d'individualité en nous rappelant combien nos goûts sont socialement construits et largement le fruit de notre classe sociale. Y compris, et ça fait encore plus mal, la rébellion contre le déterminisme social qui est elle-même le propre d'une certaine catégorie sociologique. Tout ça est profondément déprimant (je trouve), un peu comme la prédestination dans une tragédie grecque ; et la bédé dont je parle a donc, comme Carnets de Thèse, un côté décidément aigre-doux, triste en même temps qu'il est souvent drôle. (On se doute bien, par exemple, que la relation qu'essaient d'avoir deux ados de classes sociales très différentes, risque de ne pas durer longtemps, et d'ailleurs le père de la jeune bourgeoise qui fréquente un garçon des cités hausse les épaules en disant en substance ça ne durera pas, ça lui passera.)

Mais c'est précisément parce que cette gifle fait du bien qu'il faut lire ce livre !

La Distinction (Librement inspiré du livre de Pierre Bourdieu) de Tiphaine Rivière, 287 pages, éditions La Découverte Delcourt.

↑Entry #2770 [older| permalink|newer] / ↑Entrée #2770 [précédente| permalien|suivante] ↑

↓Entry #2769 [older| permalink|newer] / ↓Entrée #2769 [précédente| permalien|suivante] ↓

(dimanche)

Étude critique de vulgarisation mathématique : une petite vidéo d'Arte

La chaîne de télé Arte produit une série de petites vidéos de vulgarisation scientifique (à destination du grand public) sur les mathématiques appelée Voyages au pays des maths (on les trouve ici sur le site web d'Arte ou ici sur YouTube) : je n'en ai regardé qu'une partie (via leur site Web : je ne suis pas tombé dessus à l'antenne, mais c'est juste parce que je n'allume jamais la télé), mais celles que j'ai vues me semblent globalement correctes : il y a parfois des affirmations douteuses ou qui peuvent induire des idées fausses mais je n'ai rien entendu dans celles que j'ai regardées qui me fasse bondir au plafond ; la présentation est plutôt pas mal au sens où j'ai l'impression que tout le monde peut accrocher au moins un peu, et comme chacune dure 10 minutes, même si on n'aime pas, on n'a pas le temps de s'endormir et je pense que ça peut convaincre des gens d'essayer au moins de s'intéresser un minimum au genre de choses sur lesquelles les maths se penchent. (Je peux éventuellement reprocher au choix des sujets, même s'il est agréablement éclectique, de mélanger des choses qui sont des problèmes profonds et difficiles avec des petites curiosités qui ne font pas l'objet de recherches ; ce n'est pas grave en soi, mais il faudrait peut-être mieux expliquer au public ce qui tombe dans chaque catégorie.)

Comme je l'avais raconté dans cette entrée passée de ce blog, je suis moi-même intéressé par la vulgarisation mathématique, pas pour le contenu de ce que ça raconte, mais pour apprendre à améliorer ma propre présentation des choses, qu'il s'agisse de vulgarisation, d'enseignement (ou même d'exposition à des pairs), et à tous les niveaux (du grand public aux chercheurs).

Or il se trouve justement que dans cette série Voyages au pays des maths est paru un épisode intitulé L'Entscheidungsproblem ou la fin des mathématiques ? (visible ici sur le site web d'Arte ou ici sur YouTube) qui porte sur le même sujet — la calculabilité — sur lequel j'ai récemment publié les transparents d'un cours que j'inaugure cette année à Télécom Paris (et aussi un billet qui se veut grand public sur un thème apparenté).

Du coup je suis curieux de savoir comment ce genre de vulgarisation est jugé par le grand public : j'apprécierais si des personnes qui lisent mon blog, surtout celles qui ne sont pas mathématiciennes, idéalement même pas scientifiques, pouvaient regarder cette vidéo de 10 minutes et me dire ce qu'elles en pensent : ce qu'elles en retiennent, si elles ont l'impression de comprendre les enjeux évoqués, quels passages sont clairs, lesquels ne le sont pas, ce genre de choses, et si elles sont d'accord avec mes critiques qui vont suivre.

(Si possible, merci de regarder la vidéo avant de lire la suite pour ne pas se laisser influencer par mes propres remarques qui vont suivre ; et aussi tout bêtement parce qu'elles sont sans doute difficiles à lire si on n'a pas vu la vidéo avant.)

↑Entry #2769 [older| permalink|newer] / ↑Entrée #2769 [précédente| permalien|suivante] ↑

↓Entry #2768 [older| permalink|newer] / ↓Entrée #2768 [précédente| permalien|suivante] ↓

(jeudi)

Le curieux cas du mot intension

Au sujet des notes de cours signalées dans le billet précédent, on me fait remarquer en commentaire, d'ailleurs pas très agréablement, que j'ai écrit intention (dans le contexte d'un contraste avec extension) là où je voulais sans doute écrire intension. Alors, est-ce une erreur, ou quelle écriture est-elle préférable ? À vrai dire je m'y perds assez.

Bon, déjà en général je déteste ces mots en -/sjɔ̃/ dont on je sait jamais si on doit les écrire -tion ou -sion (sans parler des différences gratuites entre l'anglais et le français, comme le fait que contorsion, distorsion et extorsion et parfois distension mais pas torsion s'écrivent, en anglais, avec -tion là où le français met -sion : comment voulez-vous retenir quelque chose de pareil[#0] ?). Donc déjà le fait qu'on ait extension avec -sion mais intention avec -tion, tandis que distension hésite, est vraiment pénible. Mais peut-être justement qu'il y a deux mots distincts, intention et intension ? C'est là que ça devient hautement confus.

[#0] Digression () : Comme on me le signale en commentaire, j'oubliais aussi l'hésitation entre -ction et -xion : annexion mais exaction, complexion mais élection. Bon, encore, ceux-là on peut les retenir au fait qu'il y a des mots annexe et complexe. Mais parfois le français et l'anglais font des choix différents, ou bien l'anglais hésite : connexion, inflexion, réflexion, génuflexion et peut-être parfois même flexion lui-même s'écrivent, en anglais, avec -ction, au moins en anglais américain parce que l'anglais britannique hésite plus, alors que le français met -xion. (Le fait que connexion s'écrive -xion en français et -ction en anglais peut se retenir au fait que connexe en français se dit connected en anglais, mais reflex existe bien en anglais sans que ça empêche d'écrire reflection. Soupir.)

Indubitablement, certains dictionnaires contiennent bien un mot intension (qui n'est pas le même que intention). Ou peut-être même qu'il y a plusieurs mots intension différents ? La 5e édition (1798) du Dictionnaire de l'Académie française donne : INTENSION. sub. fém. Terme de Physique. Force, véhémence, ardeur. L'intension de la fièvre. — ce qui ne m'aide pas et ce qui n'est clairement pas le sens que je veux, et de toute façon ce mot semble avoir mystérieusement disparu des éditions ultérieures. Au moment où j'écris, le TLF en ligne semble en rade, donc je ne peux pas vérifier s'il a le mot intension et avec quel sens[#]. Mais dans Wiktionary en français, on trouve intension \ɛ̃.tɑ̃.sjɔ̃\ féminin 1. (Logique) Désignation d’un ensemble d’éléments par un prédicat qu’ils vérifient. En anglais, le American Heritage Dictionary of the English Language me dit : in·ten·sion (ĭn-tĕnʹshən) n. 1. The state or quality of being intense; intensity. 2. The act of becoming intense or more intense; intensification. 3. Logic. The sum of the attributes contained in a term. [Latin intēnsiō, intēnsiōn-, from intēnsus, stretched. See intense.] — in·tenʹsion·al adj. Et dans Wiktionary en anglais, je lis : intension (plural intensions) […] 2. (logic, semantics) Any property or quality connoted by a word, phrase or other symbol, contrasted with actual instances in the real world to which the term applies.

[#] Voici : INTENSION, subst. fém. A. - Vx. Force, ardeur. L'intension de la fièvre (Ac. 1798). B. - LOG., LING., vieilli. Synon. de compréhension (d'un concept, d'un terme). Anton. extension. Plus l'intension d'un terme (le nombre de traits) est grande, plus l'extension (la classe des objets dénotés) est restreinte. Il faut plus de traits pour définir hêtre que pour définir arbre, mais il y a dans l'univers observé plus d'arbres que de hêtres (MOUNIN 1974).

Voilà qui ne m'aide pas des masses, et honnêtement je ne comprends pas vraiment ces définitions.

L'étymologie n'est pas d'un grand secours non plus. En latin, intēnsiō et intēntiō existent tous les deux, mais ils ont l'air vaguement interchangeables. Le Gaffiot donne : intensĭo, ōnis, f. (intendo), action de tendre, tension — et il donne un plus grand nombre de sens pour intentĭo, mais le premier est le même. (À ce sujet, le Gaffiot a aussi les deux mots extensĭo et extentĭo, mais là l'un renvoie simplement à l'autre ; ça suggère en tout cas qu'il n'y a pas vraiment de raison étymologique forte au fait d'écrire extension avec -sion et intention avec -tion.)

Bon alors qu'est-ce que c'est que cette histoire du mot intension et quel est son sens en logique ?

Je ne suis pas sûr de comprendre le sens général.

Le sens dans lequel je l'utilisais (avec l'orthographe en -tion, mais peut-être que je vais changer) dans mes notes est le suivant : si on a un programme/algorithme qui calcule une fonction, alors ce programme/algorithme est l'intention (ou peut-être justement plutôt l'intension, donc… bon, écrivons intenſion comme une sorte de compromis) tandis que la fonction calculée est l'extension. C'est important de faire la distinction parce qu'une même fonction peut être calculée par toutes sortes d'algorithmes différents. (Et le théorème de Rice nous dit essentiellement qu'on ne peut rien dire de non-trivial — calculablement et à coup sûr — sur l'extension rien qu'en regardant l'intenſion.)

En théorie des ensembles, l'extension d'un ensemble, c'est justement l'ensemble de ses éléments. Et l'axiome d'extensionalité nous dit que deux ensembles ayant les mêmes éléments sont égaux (dans l'autre sens ça fait partie de la définition même de l'égalité). L'intenſion, si je me base sur la définition donnée par Wiktionary, ce serait une propriété définissant l'ensemble implicitement : par exemple {0,1,2} serait un ensemble défini en extension alors que {n∈ℕ : n≤2} serait le même ensemble définit en intenſion.

Déjà, je ne suis pas franchement convaincu que les deux sens décrits aux deux paragraphes précédents soient exactement le même, ni quel serait le sens général. Mais l'idée approximative est que l'extension est une description explicite (d'une fonction par ses valeurs, d'un ensemble par ses éléments) de l'objet désigné, alors que l'intenſion est une description par une caractérisation du sens, ou quelque chose comme ça.

Du coup, je peux très bien rapprocher ça du mot intention au sens de volonté de faire quelque chose : en décrivant un algorithme pour une fonction, je veux fabriquer cette fonction, donc l'algorithme est l'intention qui produit la fonction. Ceci justifierait d'écrire le mot en -tion et de l'identifier avec le mot usuel intention (but, volonté).

[Ajout  :] Ce qui est bizarre, c'est qu'il y a une distinction que je comprends bien, c'est celle entre extensif et intensif : extensif fait référence à quelque chose qui tend à s'étendre, i.e., tendu vers l'extérieur, alors qu'intensif fait référence à quelque chose qui tend à s'intensifier (← oui, OK, c'est une lapalissade), i.e., tendu vers l'intérieur. Je comprends par exemple bien la différence entre agriculture extensive (qui utilise de l'espace) et agriculture intensive (qui maximise ses rendements à surface donnée) ou, en physique, entre une grandeur extensive (qui double quand on double la quantité de choses considérées, p.ex. la masse ou le volume) et une grandeur intensive (qui reste la même quand on double la quantité de choses considérées, p.ex. la température ou la pression). Mais cette distinction extensif/intensif (pour laquelle je n'ai aucun doute sur l'orthographe en -s-) semble avoir assez peu de rapport avec la distinction extension/intenſion dont je parle ici (en tout cas je ne vois pas pourquoi l'un correspondrait à tendre vers l'extérieur et l'autre vers l'intérieur).

Une explication plus détaillée, mais dont honnêtement je ne comprends las bien les subtilités, sur la distinction entre extensionnel et intenſionnel en logique ou en philosophie est sur cette page de la Stanford Encyclopedia of Philosophy et celle-ci sur Wikipedia (voir aussi cet autre passage sur Wikipédia s'agissant précisément des théories des types intuitionnistes ; je sais que Martin-Löf en a inventé plusieurs qu'on désigne justement en en qualifiant certaines d'extensionnelles et d'autres d'itenſionnelles). Mais je trouve que tout ça est plus confus qu'éclairant (disons que j'ai l'impression confuse qu'on mélange plusieurs distinctions qui ne sont pas la même, notamment le fait de décrire un objet par son identité ou par une caractérisation, et le fait de s'intéresser à des égalités contingentes ou nécessaires, ce qui sont deux questions qui me semblent sans rapport).

Un exemple qu'on donne souvent, mais là aussi je ne suis pas sûr de pouvoir le relier clairement aux usages évoqués ci-dessus, est quelque chose comme le syllogisme fallacieux suivant (attention, divulgâchis concernant le film Star Wars) :

Luke Skywalker veut devenir comme son père.

Darth Vader est le père de Luke Skywalker.

Donc : Luke Skywalker veut devenir comme Darth Vader.

Si on veut expliquer l'erreur en parlant d'extension et d'intenſion, l'idée est que bien que Darth Vader soit le père de Luke Skywalker en extension (ce sont la même personne), l'intenſion, au moins dans la tête de Luke, est différente, puisqu'il n'a pas cette information (ou même quand il l'a, il y pense différemment). Donc on ne peut pas substituer une égalité extensionnelle dans un énoncé qui dépend des intenſions.

(Mais à vrai dire, moi, j'aurais plutôt tendance à analyser ça en termes de logique modale et mondes possibles : le fait que dans un monde donné on ait x=y, n'est pas la même chose que de dire que x et y sont nécessairement égaux, c'est-à-dire égaux dans tous les mondes possibles, et notamment dans le monde que Luke a dans sa tête. Ce n'est pas clair pour moi si cette analyse en termes de logique modale et mondes possibles soit compatible avec l'analyse en terme d'extension/intenſion que je viens de donner.)

Là aussi, je n'ai pas trop de mal à identifier le mot que je persiste à écrire intenſion pour signifier mon doute sur l'orthographe, avec le mot intention tout à fait habituel et qu'on écrit -tion de façon standard : on parle justement des intentions de Luke. Pourquoi une orthographe différente ?

Du coup je ne sais toujours pas si intension est une variante orthographique du mot intention qui s'est spécialisée dans ce sens bizarre en philo / logique / linguistique, ou si c'est un mot distinct (même si, in fine, ils viennent quand même de la même origine latine).

C'est peut-être comme mise en abyme, qui est juste une variante graphique de abîme, mais c'est quand même le même mot. (En l'occurrence, il semble que ce soit André Gide qui ait popularisé cette expression dans son sens figuré, avec cette orthographe particulière : ça vient de l'héraldique mais il n'y a pas spécialement de raison de préférer l'orthographe en ‘y’. Ceci étant, maintenant qu'elle s'est imposée, on peut trouver que ce n'est pas plus mal d'avoir cette spécialisation.)

Maintenant, comme il y a indubitablement des gens qui utilisent scrupuleusement l'orthographe intension pour les différents sens que je n'ai pas réussi à rendre très clairs ci-dessus, peut-être que c'est une bonne idée de se rallier à cette convention comme on peut choisir d'écrire mise en abyme avec ‘y’ même s'il n'y a pas de raison étymologique à le faire.

Ceci étant, on peut se demander comment est apparue cette écriture intension avec ce sens (je veux dire, celui de la philo / logique, pas celui donné par l'édition de 1798 du Dictionnaire de l'Académie), indépendamment du fait que ce soit ou non un mot distinct de intention. L'article de la Stanford Encyclopedia of Philosophy cité ci-dessus semble dire que c'est Carnap le coupable. (The Port-Royal Logic used terminology that translates as “comprehension” and “denotation” for this. John Stuart Mill used “connotation” and “denotation.” Frege famously used “Sinn” and “Bedeutung,” often left untranslated, but when translated, these usually become “sense” and “reference.” Carnap settled on “intension” and “extension.” However expressed, and with variation from author to author, the essential dichotomy is that between what a term means, and what it denotes.) Mais la Wikipédia en allemand évoque aussi Leibniz, qui aurait alors certainement l'antériorité sur Carnap.

Évidemment, si l'inventeur du terme (qu'il s'agisse de Carnap ou Leibniz) écrivait en allemand, langue dans laquelle intention se dit Absicht (même si Intention se trouve aussi), le fait d'avoir choisi l'écriture Intension comme pendant à Extension n'est pas aussi significatif qu'en français ou en anglais.

Quoi qu'il en soit, je reste assez dubitatif sur la question de si on doit considérer que intension est un mot distinct de intention, comme sur celle de savoir si on doit se tenir à cette orthographe (cette fantaisie de Carnap comme abyme en est une de Gide ?), et, en fait, sur la signification (ou peut-être la significasion ?) générale de cette histoire d'intenſionalité.

↑Entry #2768 [older| permalink|newer] / ↑Entrée #2768 [précédente| permalien|suivante] ↑

↓Entry #2767 [older| permalink|newer] / ↓Entrée #2767 [précédente| permalien|suivante] ↓

(mercredi)

Transparents de cours de calculabilité

Comme je le disais il y a un mois, je me suis engagé à organiser à Télécom Paris(PlusÀParis) un cours de Logique et Fondements de l'Informatique où je dois parler de calculabilité, logique et typage. Je suis évidemment complètement à la bourre sur la préparation de ce cours, qui commence , mais bon, j'ai au moins provisoirement fini d'écrire des transparents pour la partie « calculabilité » qui devrait occuper, je pense, bien 6h de cours (sur 22h au total pour le cours magistral ; il y a des TD/TP à côté). Autant que je rende ça public dès maintenant, des fois que des gens voudraient m'aider à corriger les fautes. Donc :

Ces transparents sont en ligne ici

(Je compte concaténer ceux de la suite du cours quand il seront écrits. Je ne sais pas encore comment je veux diviser ça donc ce n'est pas évident de choisir des adresses intelligemment.)

J'ai à peine commencé à les relire, donc c'est certainement bourré de typos et de fautes plus ou moins graves. J'espère quand même qu'il n'y a pas d'erreur tellement grave qu'elle m'obligerait à tout restructurer.

Si vous faites des commentaires, pensez à me donner l'identifiant Git (en bas du premier transparent) auxquels ils se rapportent. (Au moment où j'écris ce billet, c'est 31080ea Wed Nov 1 11:06:40 2023 +0100 ; l'arbre Git avec le source est ici.)

Il faut préciser que ça s'adresse à des élèves ayant déjà fait de l'informatique en prépa (filière MPI ou filière MP option info, plus quelques uns venus de licences d'info ; les programmes des classes prépa sont ici), donc d'une part ce n'est pas comme s'ils découvraient tout, d'autre part on peut les espérer motivés par le sujet.

Dans cette partie calculabilité, je présente les fonctions primitives récursives et surtout générales récursives, les machines de Turing et le λ-calcul non typé, l'esquisse de l'équivalence entre les trois présentations de la calculabilité (fonctions générales récursives, machines de Turing et λ-calcul non typé), ainsi que divers résultats classiques fondamentaux : théorème s-m-n, théorème de récursion de Kleene, existence d'une machine universelle, résultats élémentaires sur les ensembles décidables (= calculables) et semi-décidables (= calculablement énumérables), et bien sûr l'indécidabilité du problème de l'arrêt (et aussi l'incalculabilité de la fonction « castor affairé »). Dans la suite du cours, il est prévu de parler de λ-calcul simplement typé en lien avec le calcul propositionnel intuitionniste, puis de diverses extensions (logique classique, logique du premier ordre, et évoquer divers bouts du cube de Barendregt). Le fil conducteur du cours est censé être quelque chose comme ceci : L'indécidabilité du problème de l'arrêt signifie que tout langage informatique qui garantit la terminaison des programmes est nécessairement limité ; des systèmes de typage de plus en plus puissants cherchent à rendre cette limitation aussi faible que possible.

J'ai renoncé à parler, même allusivement, de machines avec oracle ou de degrés de Turing ; mais les gens qui veulent en savoir plus sur ce sujet peuvent se référer à ce billet interminable pour lequel les notes ci-dessus suffisent largement en matière de prérequis.

Ajout () : Suivant ce qu'on m'a fait remarquer en commentaire, j'ai ajouté (Git 1cdc719 Thu Nov 2 17:08:48 2023 +0100) des choses sur le théorème de Rice et les réductions (many-to-one et de Turing). Il est cependant vraisemblable que j'en saute au moins une partie.

Le fait de me replonger dans le λ-calcul non typé, et de vouloir en savoir plus que le minimum que j'enseigne, m'a obligé à réapprendre plein de choses à son sujet[#], que j'avais complètement oublié ou jamais sues, et redécouvrir toutes les petites crottes de ragondin qui polluent un sujet qui a superficiellement l'air simple et élégant (comme : la différence entre β-réduction et βη-réduction, la différence entre termes normalisables et fortement normalisables, la différence entre stratégie de réduction extérieure gauche et intérieure gauche, la différence entre forme normale, forme normale de tête et forme normale de tête faible, etc.) ; le livre de Barendregt (The Lambda Calculus: Its Syntax and Semantics) est assez abominable en matière de dissection de crottes de ragondin, et celui de Krivine (Lambda-calcul : types et modèles — disponible en ligne en traduction anglaise) ne l'est pas moins. Un des problèmes est sans doute qu'on n'a pas vraiment idée de ce que sont les termes du λ-calcul non typé (prima facie, ce sont des fonctions qui prennent en entrée une autre fonction de même sorte et renvoient une autre fonction de même sorte : ce n'est pas du tout clair qu'on puisse fabriquer un objet qui soit aussi l'objet des morphismes de lui-même dans lui-même !) : divers gens (en commençant par Dana Scott à la fin des années 1960) ont réussi à en donner des modèles, ce qui éclaircit un peu la sémantique, mais là aussi on se perd entre les différentes manières de fabriquer des modèles du λ-calcul et les zillions de relations d'équivalence entre types que fournissent ces façons de fabriquer des modèles. (J'ai commencé à lire plein de choses sur le sujet, et surtout à me noyer dans les notations pourries. J'espère que l'article From computation to foundations via functions and application: The λ-calculus and its webbed models de Chantal Berline m'aidera à y voir plus clair.)

Je suis assez étonné, en revanche, de ne pas trouver d'implémentation (libre, flexible et largement disponible) du λ-calcul non typé, qui permettrait de tester un peu les choses (transformer les notations, réécrire les termes à la main ou de façon automatisée, comparer les stratégies de réduction, etc.). Est-ce que j'en ai raté une évidente ?

[#] La première fois que j'ai appris des choses sur le λ-calcul, ça devait être vers 1990 quand on m'a offert le livre de vulgarisation scientifique The Emperor's New Mind de Roger Penrose (j'en ai parlé dans une section d'une entrée récente), qui décrit un peu le λ-calcul et les entiers de Church, et ça m'a complètement fasciné que des règles typographiques aussi simples et élégantes (← mais bon, en fait, une bonne quantité de poussière avait été glissée sous le tapis) puissent donner quelque chose d'aussi puisant.

Ajout () : Par pure coïncidence, la chaîne de télé Arte vient de produire, dans le cadre de sa série Voyages au pays des maths, un mini-documentaire de vulgarisation (10 minutes) intitulé L'Entscheidungsproblem ou la fin des mathématiques ? (ici sur YouTube, ici sur le site web d'Arte) et qui porte justement sur le sujet dont je parle ici. Je ne suis pas d'accord avec tous les choix de présentation, mais ça donne au moins une idée de ce dont il est question (et notamment, tenter de vulgariser l'équivalence entre fonctions générales récursives, machines de Turing et λ-calcul était un défi pas du tout évident, et je trouve qu'il s'en sort pas mal). Surajout : voir ce nouveau billet où je décortique un peu plus cette vidéo.

↑Entry #2767 [older| permalink|newer] / ↑Entrée #2767 [précédente| permalien|suivante] ↑

↓Entry #2766 [older| permalink|newer] / ↓Entrée #2766 [précédente| permalien|suivante] ↓

(vendredi)

Échecs de Víctor L. Pinel

Digression préliminaire : Je ne suis pas un gros consommateur de fictions (quel que soit le format : romans, films…) pour une raison sur laquelle il faudra que je revienne plus longuement dans un billet ultérieur, à savoir mon agacement devant la manie des histoires qui ne finissent jamais, soit parce qu'elles font partie de cycles interminables (pensez aux séries télé, enfin, maintenant il s'agit plutôt de séries Internet), ou bien, même quand ce n'est pas le cas à la conception ou d'ailleurs aussi quand c'est le cas, on trouve toujours moyen de leur donner des suites tant que le public en demande… si bien que je me sens trop souvent frustré de mon désir de résolution. Je détaillerai peut-être un peu ultérieurement dans une autre entrée, mais si je mentionne ce fait ici c'est pour parler de bandes dessinées. Parce que mon agacement devant les cycles qui ne terminent jamais n'est pas tout à fait le même s'agissant de romans et de bédés : un cycle de quatorze romans de 800 pages chacun (I'm looking at you, Wheel of Time) me rebute simplement parce que la vie est trop courte, je suis déjà trop vieux, et j'ai trop d'autres trucs à faire pour consacrer à ce genre de choses le temps et la patience qu'elles requièrent ; mais s'agissant de bédés, le problème est surtout que je trouve exaspérant d'attendre un an ou deux pour avoir le nouveau volet du cycle que, au contraire du roman de 800 pages, je lirai en une heure. (Et si j'attends que le cycle soit complet avant de le commencer, en général le premier livre est déjà épuisé quand le dernier paraît.) Bref : je ne suis jamais content, et je n'aime pas les cycles.

Tout ce qui précède est là pour dire que ce qui m'a attiré dans la bédé à laquelle je consacre ce billet, c'est que ce n'est pas un petit bout d'un cycle, et c'est ce qui m'a décidé à l'acheter après avoir passé pas mal de temps dans une librairie spécialisée en bédés à reposer volume après volume étiqueté quelque chose comme volume 17 dans le Cycle des Chevaliers de la Tour du Temps. C'est une histoire complète. (D'ailleurs, puisque l'éditeur prend la peine de l'écrire noir sur blanc au dos, j'imagine que je ne suis pas le seul pour qui les mots histoire complète ont quelque chose de rassurant.)

Cette bédé, donc, a (un début et) une fin, du moins ce que je considère comme une fin, ce qui ne veut pas forcément dire que tout est mené à son terme, mais que je ne me sens pas volé de mon sens de résolution, et je n'ai pas l'impression d'avoir lu une pub qui essaie de me vendre une suite. Une fin comme une partie d'échecs : il reste des choses sur l'échiquier, mais on a l'impression que quelque chose s'est joué jusqu'à son terme.

Mais je cherche ici à dire un peu plus que cette histoire a une fin : un type de récit qui me plaît particulièrement est — je ne sais pas le définir très précisément — celui qui construit une tapisserie en nouant les fils de plusieurs personnages dont aucun n'est véritablement central, qui vont se croiser et interagir et tisser ensemble un tableau dont aucun n'a de vision d'ensemble.

Je ne sais pas si ma description est très claire. Disons que c'est un peu l'opposé du cycle, lequel va explorer les personnages dans la longueur (i.e., dans le temps) : le type dont je parle les explore, au contraire, dans la largeur (i.e., dans leurs interactions complexes les uns avec les autres).

Le meilleur exemple que je puisse donner est ce qui est sans doute mon livre préféré : La Vie mode d'emploi de Georges Perec — qui est peut-être plus une collection de nouvelles interdépendantes qu'un roman, un livre qui (tout en remplissant toutes sortes de contraintes oulipiennes très savantes et complexes, qu'on peut parfaitement ignorer en le lisant) raconte, de façon généralement pas chronologique, la vie d'un immeuble parisien et ses différents habitants, entre 1885 et 1975, et la manière dont leurs chemins se croisent parfois (en amour, rivalité, haine et toutes sortes d'autres péripéties) ou parfois s'ignorent.

J'ai pris ci-dessus la métaphore (classique) de la tapisserie dont les personnages sont des fils dessinant un motif qui les dépasse : les lecteurs de La Vie mode d'emploi seront aussi familiers de celle du puzzle où on cherche à comprendre la manière dont tous les morceaux s'emboîtent et dans quel ordre il faut les mettre. On pourrait évoquer un morceau de musique où les voix ou instruments se répondent tout en concourant ensemble à la résolution. Mais une autre métaphore possible, plus active et plus confrontationnelle (et qui joue d'ailleurs aussi un rôle dans le roman de Perec, aussi bien dans le contenu que dans les contraintes formelles) est celle du jeu d'échecs : les pièces sur l'échiquier jouent une partie qui dépasse chacune d'elles, dont elles ne voient chacune qu'une petite partie, mais à laquelle elles contribuent toutes de façon essentielle.

Ces différentes métaphores peuvent s'appliquer à la bédé dont je parle ici, mais c'est la dernière que l'auteur a choisi d'utiliser explicitement pour construire son histoire, en comparant ses personnages à des pièces du jeu d'échecs. Ceci n'est pas transformé en une contrainte dure comme chez Perec ; il n'y a pas, par exemple, trente-deux personnages clairement regroupés en deux camps adverses, et je ne pense pas non plus qu'il y ait de contrainte d'écriture cachée au lecteur (comme le serait par exemple l'association à chaque case de l'échiquier d'un motif à faire intervenir dans l'histoire). On a donc plutôt affaire à une contrainte artistique « douce », mais ça ne m'empêche pas de la trouver très bien utilisée, comme l'est la mise en abyme du jeu d'échecs dans la bédé. D'ailleurs, la chute justifie en quelque sorte le fait de ne pas avoir suivi de contrainte formelle rigide.

Bref, tout ça est très réussi. (Et je dis ça alors que je n'aime pas spécialement le jeu d'échecs — auquel je suis vraiment très mauvais.)

Pour dire quand même un peu de quoi il s'agit sur le fond, ça se passe de nos jours, à Bordeaux (je crois que ce n'est jamais dit, mais on reconnaît bien la ville même si on ne la connaît qu'un peu), et divers personnages vont se croiser : un lycéen frimeur qui accumule les conquêtes, une élève nouvelle venue dans le même lycée, la directrice d'une maison de retraite, un infirmier qui y travaille, un bénévole qui vient tenir compagnie aux pensionnaires, l'acteur vedette d'une série télé qui se sent pris au piège dans son rôle, deux amies qui se confient leur vie amoureuse, une bibliothécaire dont le mari est passionné de danse, et une vieille dame acariâtre finissant ses jours dans la maison de retraite et qui est passionnée d'échecs. Les actions de certains de ces personnages vont avoir des effets sur d'autres les obligeant à agir à leur tour, avec une cascade de conséquences. Ce n'est pas une énigme, mais il y a néanmoins une ou deux révélations qui sont faites à la fin sur le fond et sur la nature de la narration, qui peuvent passer pour des coups de théâtre.

Globalement, j'ai beaucoup aimé, et je recommande tout à fait, notamment aux gens qui, comme moi, apprécient les histoires qui ne sont pas interminables mais qui sont bien construites et qui apportent un sens de résolution.

Échecs de Víctor Lorenzo Pinel, 176 pages, édition Grand Angle.

↑Entry #2766 [older| permalink|newer] / ↑Entrée #2766 [précédente| permalien|suivante] ↑

↓Entry #2765 [older| permalink|newer] / ↓Entrée #2765 [précédente| permalien|suivante] ↓

(samedi)

Une nouvelle toux qui n'en finit pas

J'ai raconté il y a deux semaines que j'avais eu la covid (pour la 3e ou peut-être même 4e fois) : ça s'est manifesté sous forme d'un gros rhume, bien pénible mais pas particulièrement affolant, qui a duré environ une semaine sous cette forme (en gros du au ). Sauf que si les symptômes de rhume ont disparu (fatigue générale, mal à la gorge, nez bouché, ganglions enflés, mal à la tête, sinusite ; et un nouvel autotest covid a été négatif), il y en a un qui persiste obstinément, et qui a même empiré, c'est la toux. Je tousse surtout la nuit : pas de façon continue, mais par grosses quintes, de l'ordre de trois par nuit, qui sont très violentes et me réveillent, et durent jusqu'à ce que je me lave le nez, du coup ça m'empêche de bien dormir. (En plus de ça, je dors dans le salon pour ne pas déranger le poussinet, et c'est nettement moins confortable.)

J'ai consulté un médecin lundi, qui n'a pas repéré d'infection (notamment, l'auscultation des bronches est normale) et m'a donc prescrit un corticoïde (béclométasone) en inhalation à faire le soir… ce qui ne semble pas aider du tout. Rien n'a l'air d'évoluer depuis dix jours : si progrès il y a, il est très très lent.

On pourrait être tenté d'appeler ça un covid long, sauf que j'ai assez souvent eu tendance à tousser longtemps après mes rhumes, et notamment, il y a cinq ans et demi, j'ai eu un rhume (qui n'était certainement pas le covid, en 2018) dont la toux s'est prolongée très longtemps, et je pourrais reprendre presque mot pour mot aujourd'hui la description que je faisais alors :

J'ai eu un rhume qui, depuis […,] a évolué en une toux persistante, presque uniquement nocturne, et qui m'empêche de dormir correctement. Dans la journée, tout va bien, je tousse un petit peu mais rien de vraiment gênant, je n'ai aucune fièvre, pas de ganglions enflés, aucune fatigue particulière (autre que celle due au manque de sommeil), aucune douleur notable (sauf à la gorge et aux sinus, juste quand je me lève après avoir tellement toussé). Mais dès que je suis couché, c'est quinte de toux sur quinte de toux, et impossibles à résister […]. Certaines crises de toux sont tellement fortes que je sens que je risque de vomir.

Impossible de savoir clairement si c'est une toux grasse ou sèche : j'ai quelques mucosités qui sortent, j'ai l'impression qu'elles refluent de l'arrière du nez […]. Peut-être que c'est juste l'irritation de la toux qui produit du mucus et pas le contraire. En tout cas, mes bronches elles-mêmes ne sont pas encombrées.

Je vois de ce que j'ai noté dans ce blog et dans mon journal qu'en 2018 il s'est écoulé approximativement quatre semaines entre les premiers symptômes de rhume et la fin de la toux. Donc peut-être que je dois m'attendre à ce que j'en aie encore jusqu'à fin octobre, ce qui m'emmerde bien. (L'autre chose que je remarque est qu'en 2018 j'ai eu bien mal à la gorge dès le début du rhume, et cette fois-ci aussi : peut-être donc que le mal de gorge au début est indicateur du fait que ça va déboucher sur une toux interminable ?)

En remontant plus loin, je me rappelle qu'à l'automne 1996 j'ai eu un rhume qui a débouché en une toux interminablement longue (j'étais à l'internat à l'ENS et je m'étais dit que mes voisins de chambre devaient me détester parce que chaque nuit je toussais à n'en plus finir). Comme je ne tenais pas de journal à l'époque, mes souvenirs ne sont pas plus précis que ça, notamment sur combien de temps ça a duré.

Bon, sans doute que cette toux-ci va finir par passer, mais je reste assez perplexe. Manifestement, ce n'est pas tellement le virus initial qui est en cause, puisque j'ai exactement le même phénomène avec une covid (diagnostiquée comme tel par un test antigénique, je suppose que ces trucs n'ont pas tellement de faux positifs) qu'avec une infection en 2018 qui ne pouvait pas être due à SARS-CoV-2 ; de toute façon, le test antigénique suggère que le virus n'est plus présent. Et il n'y a pas non plus de signe d'une réinfection bactérienne (pas de fièvre, pas de bronchite…). Mais si c'est une sorte de réaction immunitaire post-infection, on s'attendrait à ce que les corticoïdes ou les antihistaminiques aident : or ils n'ont pas l'air de faire le moindre effet (pas plus que l'acétylcystéine, dont la seule fonction semble être de me rappeler le goût de la cystéine).

Et manifestement je suis loin d'être le seul à qui ça arrive : une personne que je connais a eu quelque chose de semblable il y a deux ans, avec une vraie bronchite à la clé (qui est passée avec des antibiotiques), puis de nouveau récemment (mais la toux est passée d'elle-même). Une autre personne que je connais m'a dit avoir eu presque exactement la même chose que moi, et à peu près au même moment, en 2018. Et on trouve aussi quantité de pages Web, de qualité douteuse, qui documentent le phénomène (par exemple celle-ci ou celle-là) sans rien dire d'utile pour autant. Alors à défaut de pouvoir faire autre chose, je documente à mon tour le phénomène en une page Web de qualité douteuse qui ne dit rien d'utile pour autant.

Mise à jour ( — initialement insérée sur le mauvais billet) : Je pense que maintenant je peux dire que ma toux est finie (i.e., revenue à son état normal : ça m'arrive quand même occasionnellement de tousser !). Mais ça aura duré plus d'un mois !

↑Entry #2765 [older| permalink|newer] / ↑Entrée #2765 [précédente| permalien|suivante] ↑

↓Entry #2764 [older| permalink|newer] / ↓Entrée #2764 [précédente| permalien|suivante] ↓

(mercredi)

Oracles en calculabilité : degrés de Turing et diverses généralisations

Avant-propos et motivation

Avant-propos : J'ai publié il y a quelque temps un billet de vulgarisation sur la notion d'« oracle » en informatique théorique. Ce billet-là (qui se veut grand public) était initialement destiné à être l'introduction à celui-ci (plus technique — mais, j'espère, pas incompréhensible pour autant), mais j'ai décidé de les publier séparément parce qu'ils sont, en fait, à peu près indépendants : on peut donc commencer par lire celui-là si on veut une sorte d'explication introductive et de motivation du sujet, mais ce n'est pas nécessaire non plus.

Ce billet-ci, plus technique mais j'espère pas incompréhensible pour autant (voir le paragraphe suivant pour les prérequis), vise à présenter la notion classique de degré de Turing, et ensuite diverses généralisations de celles-ci dans la recherche contemporaine en logique / calculabilité. Mais je trouve aussi intéressant de vulgariser la notion (classique) de non-déterminisme et celle (pas du tout classique, mais que je trouve très intéressante) de « co-non-déterminisme » (le terme est de moi).

Pour ce qui est des prérequis, ce billet-ci s'adresse à des lecteurs qui savent déjà les bases de la calculabilité : c'est-à-dire en gros, ce qu'est une machine de Turing ou un algorithme (c'est-à-dire au moins approximativement : je n'ai pas l'intention de rentrer dans quelques détails que ce soit sur les état et les bandes), et une fonction calculable (c'est-à-dire, calculable au sens de Church-Turing), ce genre de choses. Je vais essayer de faire en sorte de ne supposer connu (outre des maths générales, du genre ce que c'est qu'une fonction, un ensemble, une partie, une bijection, un ordre, une relation d'équivalence…) que le contenu du chapitre 5 (Introduction à la calculabilité) des notes de mon cours Théorie des langages à Télécom, auquel je peux donc renvoyer pour ces notions de base en calculabilité (en attendant un nouveau cours sur le sujet). • Ajout () : la première partie des transparents de mon nouveau cours est disponible ici.

En tout cas, je ne suppose pas connu la notion de degré de Turing puisque mon but est justement de l'expliquer et de voir comment on peut aller plus loin. (Néanmoins, soyons honnête, les lecteurs déjà un minimum familiers du concept trouveront sans doute mon billet plus facile à suivre que si on le découvre pour la première fois ici.)

Mon but ici est d'abord de définir la notion (tout à fait standard) de réduction de Turing et de degré de Turing, puis de présenter des extensions de ces notions qui me semblent à la fois très importantes et profondément naturelles. J'ai appris l'existence de ces notions en lisant deux articles d'un certain Takayuki Kihara, Lawvere-Tierney topologies for computability theorists et Rethinking the notion of oracle (et dans une moindre mesure Degrees of incomputability, realizability and constructive reverse mathematics, mais je n'ai pas fini celui-là) : je cherche donc à la fois à faire de la pub pour ces articles et pour les notions qu'ils contiennent (parce qu'elles ont vraiment changé la manière dont je pense à la calculabilité), à montrer que ces notions ne sont pas terriblement techniques, et aussi simplement à assurer ma propre compréhension de ces articles en en réexposant certains bouts à ma façon. En outre, j'espère avoir apporté quelques éléments d'intuition utiles derrière certaines des définitions ou des concepts que j'expose. Je trouve particulièrement intéressante la notion de « co-non-déterminisme » (le passage du niveau T2 au niveau T3), donc mon but est notamment de faire de la pub pour ce concept (qui pourrait sans doute s'avérer fécond en-dehors de la calculabilité).

(Notons que j'attribue ces notions à Kihara, qui les a au moins synthétisées, et c'est par lui que je les ai apprises ; mais je ne prétends pas qu'il a tout inventé — il a plutôt réussi à relier, reformuler et réexposer de façon extrêmement convaincante des notions dont certaines figuraient déjà ailleurs : je renvoie aux références de ses papiers pour les citations antérieures, mais je peux par exemple mentionner Basic Subtoposes of the Effective Topos de Lee & van Oosten, ou Instance reducibility and Weihrauch degrees de Bauer, qui sont dignes d'intérêt si on apprécie le sujet.)

Bref, je veux commencer par expliquer ce qu'est un degré de Turing ordinaire (celui d'une fonction — totale, simplement valuée — ℕ→ℕ), puis donner trois extensions successives de cette notion (je vais parler de degrés T1, T2 et T3 faute de meilleure terminologie — Kihara n'en introduit pas vraiment). en expliquant ce qu'elles changent, et si possible pourquoi elles sont naturelles et intéressantes, et ce qu'on peut en dire : d'abord (T1) aux fonctions partielles, puis (T2) aux fonctions multivaluées (ou non-déterministes), et enfin (T3) aux « fonctions avec conseil » (une sorte de « co-non-déterminisme »). Enfin, je veux essayer d'expliquer pourquoi on a fait la « bonne » généralisation, et pour ça, je donne, en guise de dessert, une construction tout à fait différente des degrés (T1, T2 et surtout) T3 qu'on aura définis par des opérateurs effectifs locaux (et évoquer brièvement le lien avec le topos effectif, sur lequel j'ai récemment écrit un billet, mais je ne suppose pas qu'on ici l'a lu).

Conseil de lecture (en guise de leitfaden) : Je sais que j'ai tendance à entrer parfois dans de grandes digressions pas forcément tellement utiles. J'ai essayé de les marquer comme telles (par des petits caractères, ou en disant dès le début d'une section qu'on peut sauter celle-ci) ; je n'ai sans doute pas toujours marqué tout ce qui pouvait être sauté, mais les dépendances entre sections ne sont pas énormes. Même si on n'a pas lu tout ce qui précède, je pense que ça vaut la peine de goûter le dessert (surtout si on n'est pas convaincu par l'intérêt des définitions qui ont précédé, car, après tout, il s'agit plus ou moins de les justifier). Et surtout, je pense que ça vaut la peine de jeter un coup d'œil à la définition des degrés T3 pour la définition du « co-non-déterminisme », ou simplement parce que le jeu à trois joueurs entre Arthur, Nimué et Merlin est vraiment rigolo.

Table des matières

T0 : Degrés de Turing ordinaires (fonctions ℕ→ℕ totales simplement valuées)

Réduction de Turing ordinaire et degrés de Turing

La notion la plus standard est la réduction de Turing ordinaire (j'ajoute ordinaire parce que toutes les notions qui viennent peuvent légitiment être aussi qualifiées de réduction de Turing), et je vais commencer par la définir précisément et dire quelques choses basiques à son sujet. Elle concerne les fonctions ℕ→ℕ (c'est-à-dire, totales, prenant une seule valeur pour chaque entier naturel), ou éventuellement ℕ→{0,1} mais ça ne changera rien à l'histoire.

Une fonction f:ℕ→ℕ est dite réductible au sens de Turing (=Turing-réductible) à une fonction g:ℕ→ℕ, ou bien calculable avec g pour oracle, et on note (disons) f ≼T g, lorsqu'il existe une machine de Turing (i.e., un algorithme) qui calcule f en ayant accès à un oracle calculant g, c'est-à-dire un gadget magique capable de fournir à l'algorithme la valeur de g en tout point souhaité.

Plus précisément, f ≼T g signifie qu'il existe une machine de Turing qui, quand on lui donne un entier n en entrée, termine toujours en temps fini et calcule f(n) comme sortie (peu importent les manières dont n et f(n) sont codés sur la bande de la machine de Turing tant que c'est raisonnable), sachant que la machine dispose de l'accès à un oracle qui peut calculer g(m) pour n'importe quel m donné. (Voici un exemple de protocole d'interrogation de l'oracle : la machine écrit m sur un ruban dédié, entre dans un état spécial interrogation de l'oracle, l'oracle remplace m par g(m) et place la machine dans l'état réponse de l'oracle ; mais les détails sont peu importants tant qu'on parle de calculabilité.) La machine peut interroger l'oracle autant de fois qu'elle le souhaite (y compris pas du tout, mais ça ne changerait d'ailleurs rien si on imposait d'appeler l'oracle puisqu'on peut ignorer sa réponse), et elle l'interroge sur les valeurs qu'elle veut et fait ce qu'elle veut des réponses : la réponse de l'oracle pour une valeur m est toujours exactement g(m), et c'est tout. (Le temps d'interrogation de l'oracle est une étape de calcul, mais ceci est peu important puisqu'on parle de calculabilité et pas de complexité.)

En particulier, toutes les fonctions calculables (c'est-à-dire : sans oracle) sont réductibles à n'importe quelle fonction, tout simplement en utilisant un programme qui ne fait aucun appel à l'oracle (en particulier, elles sont réductibles les unes aux autres, ou par exemple à la fonction constante égale à zéro).

J'insiste bien (parce que c'est ce qui va changer dans la suite) sur le fait que cette réduction de Turing « ordinaire » concerne des fonctions totales. Notamment, l'algorithme réputé calculer f en ayant g pour oracle est censé terminer pour toute valeur n qu'on lui fournit en entrée (du moins tant que n est une représentation légitime d'un entier naturel, et la valeur calculée doit aussi en être une ; mais là non plus, ces subtilités ne changent essentiellement rien). Je réitère aussi le fait que la consultation de l'oracle n'est pas limitée (ou payante) : l'algorithme a le droit de s'en servir aussi souvent qu'il le veut.

La réduction de Turing (ordinaire, mais ça restera vrai pour les généralisations que je vais introduire après) ≼T forme ce qu'on appelle un préordre (relation réflexive et transitive) sur l'ensemble des fonctions ℕ→ℕ, c'est-à-dire que :

  • d'une part, f ≼T f : toute fonction f est Turing-réductible à elle-même (c'est évident) ; et
  • d'autre part, f ≼T g et g ≼T h impliquent f ≼T h : si f est Turing-réductible à g et que g est Turing-réductible à h, alors f est Turing-réductible à h (c'est assez facile à voir : si je sais calculer f en utilisant g et que je sais calculer g en utilisant h, alors pour calculer f en utilisant h je vais utiliser l'algorithme qui me permet f au moyen de g et, à chaque fois que cet algorithme fait appel à l'oracle, j'utilise le programme qui me permet g au moyen de h à la place, en utilisant l'oracle donnant h comme boîte noire).

Ce qui manque à une relation de « préordre » pour être un ordre, c'est l'antisymétrie, et c'est justement ce qui justifie la définition suivante.

On dit que f et g sont Turing-équivalentes ou de même degré de Turing quand chacune est réductible à l'autre (i.e., on peut calculer f en ayant un oracle qui donne g, et réciproquement) : c'est-à-dire qu'on note (disons) f ≡T g lorsque f ≼T g et g ≼T f. Ceci est une relation d'équivalence (c'est la notion de relation d'équivalence associée à un préordre) : les classes d'équivalence sont appelées les degrés de Turing. Autrement dit, le degré de Turing [f]T de f est l'ensemble {g:ℕ→ℕ : g ≡T f} de toutes les fonctions ℕ→ℕ qui sont Turing-équivalentes à f, et notamment, elles sont toutes Turing-réductibles les unes aux autres. C'est-à-dire que deux fonctions sont Turing-équivalentes exactement quand elles ont le même degré de Turing.

Intuitivement, un degré de Turing est la mesure de la puissance d'un oracle. On peut aussi considérer que c'est une forme d'« impossibilité à calculer » la fonction ou bien de « quantité d'information » (totale) contenue dans la fonction f (mais ce n'est pas exactement la même façon de la mesurer que, disons, la complexité de Kolmogorov, pour ceux qui savent ce que c'est que ça : il y a des rapports, bien sûr, mais disons très sommairement que le degré de Turing est une mesure plus grossière que la complexité de Kolmogorov ; comme ce n'est pas mon propos ici, je ne vais pas en dire plus).

Le « préordre » de la réduction de Turing devient un vrai ordre (partiel) sur les degrés de Turing : on dit qu'un degré de Turing f est inférieur ou égal à un degré de Turing g, et on note fg, lorsque une (ou, ce qui revient au même, toute) fonction du degré f est Turing-réductible à une (ou, ce qui revient au même, toute) fonction du degré g. (Autrement dit, [f]T ≤ [g]T signifie par définition exactement la même chose que f ≼T g.)

Parmi les degrés de Turing, il en est un plus petit, qu'on note 0, c'est celui des fonctions calculables (c'est notamment celui de la fonction constante égale à 0, c'est-à-dire un oracle qui ne répond rien d'intéressant, et on peut voir ça comme une raison de cette notation ; si on préfère, c'est la puissance des oracles qui n'ont aucun intérêt comme oracles parce qu'on peut les calculer directement sans oracle).

↑Entry #2764 [older| permalink|newer] / ↑Entrée #2764 [précédente| permalien|suivante] ↑

↓Entry #2763 [older| permalink|newer] / ↓Entrée #2763 [précédente| permalien|suivante] ↓

(vendredi)

Nouvelles d'octobre : covid, calculabilité, NanoPi

Je ne sais pas si j'ai besoin de le dire, mais les différentes parties de ce billet sont indépendantes.

Covid

Je viens d'attraper le covid pour la troisième fois et un an, et mois de quatre mois après la précédente (première fois :  ; deuxième :  ; troisième :  ; je donne la date des premiers symptômes, et tous les trois sont validés par un test antigénique à domicile entre J+1 et J+3). Les deux fois précédentes, et cette fois aussi jusqu'à maintenant, cela se présente comme un gros rhume, qui commence par une sensation de fatigue générale, puis évolue vers une rhinopharyngite classique avec énormément de mucosités dans le nez et ensuite la voix enrouée et de la toux ; dans la journée ce n'est pas trop gênant (j'alterne paracétamol et ibuprofène, mais je suis globalement fonctionnel), mais la nuit je dors vraiment très mal parce que je suis gêné soit par mon nez encombré soit par la toux. (Et, par transitivité, le poussinet dort très mal lui aussi, parce que je le réveille tout le temps en toussant très fort.)

Outre que c'est agaçant, cela soulève chez moi une certaine perplexité d'ordre scientifique.

Il y a 10–20 ans j'avais des rhumes tout le temps, c'est-à-dire au moins tous les six mois : on en trouve des traces dans les vieux billets de ce blog. Même l'obsédé que je suis de l'auto-documentation n'a pas tenu un registre précis de tous mes rhumes avec leur sévérité, leur durée et leurs symptômes, donc je ne peux pas être totalement précis, mais j'ai tendance à écrire une phrase du style réveillé enrhumé ou mal dormi à cause de mon rhume dans mon journal, donc je peux me baser là-dessus. J'avais l'impression que ces rhumes récurrents avaient disparu ou s'étaient raréfiés en fréquence, mais en recherchant un peu plus systématiquement quelques mots-clés dans mon journal, il semble que ce ne soit pas vrai : j'en ai eu en 2013-02, 2013-03(?), 2013-09, 2014-03, 2015-04, 2015-12, 2016-11, 2017-03, 2017-09, 2018-05, 2018-11, 2019-02 (celui-là était peut-être la grippe, en tout cas le tableau clinique était différent), 2019-10, 2022-04 (là j'ai soupçonné la covid, mais un autotest était négatif, peut-être parce qu'il était fait trop tôt) et 2022-10-0* (tout petit rhume, je n'ai pas fait de test covid), puis enfin ces trois rhumes-covid en 2022-10-2*, 2023-06 et maintenant 2023-10.

On peut éventuellement interpréter mon absence de rhumes en 2020 et 2021 comme un succès des mesures de diminution des contacts liés au covid (par exemple l'enseignement hybride, le port du masque).

Mais ce qui est perplexogène, c'est que le motif récurrent d'un rhume tous les six mois semble se prolonger… sauf que maintenant c'est le covid que j'attrape. (Je fais l'hypothèse que les tests antigéniques n'ont quasiment pas de faux positif : s'ils sont positifs, c'est vraiment la covid que j'ai. Pour les rhumes jusqu'à 2019, inversement, ça ne pouvait pas être ça. Les seuls pour lesquels il y a un doute sont ceux de 2022-04, pour lequel j'ai fait un autotest négatif mais il était peut-être fait trop tôt ou mal fait, et le poussinet a attrapé le covid juste un peu après, ce qui est suspect, et celui de 2022-10-0*.)

Les symptômes de mes trois covids sont presque exactement les mêmes que les rhumes que j'avais avant 2019 : la seule différence notable est que le premier signe est plutôt une sensation de fatigue général alors que mes rhumes antérieurs se manifestaient en premier par un picotement désagréable dans l'arrière-gorge. À part ça, et à part des fluctuations d'intensité, c'est essentiellement la même chose.

Du coup, je ne peux m'empêcher de me demander : que sont devenus les virus qui causaient mes rhumes jusqu'à 2019 ? Étaient-ce aussi des coronavirus ? (Je rappelle qu'il y en a quatre espèces connues qui circulaient chez les humains avant SARS-CoV-2 : OC43, 229E, NL63 et HKU1. Quasiment tout le monde a eu au moins les trois premiers au moins une fois.) Étaient-ce des rhinovirus ? Autre chose ? Comment savoir ? Ce n'est pas qu'ils me manquent, mais le fait qu'ils aient disparu en même temps que la covid est apparue est assez étrange (je veux dire disparu chez moi : dans la population générale, il ne semble pas qu'ils aient disparu ; j'ai entendu dire que la grippe B, ou peut-être juste une lignée de la grippe B, avait disparu, mais si c'était pareil pour OC43, 229E, NL63 et HKU1 je pense que ça se saurait). C'est aussi étrange que les symptômes soient à ce point semblables : ma meilleure explication est que, en fait, les symptômes d'un rhume dépendent beaucoup plus de la réaction immunitaire de la personne infectée que de l'agent infectieux (sauf au tout début).

Une autre chose intrigante est l'absence de contamination avérée entre le poussinet et moi. En 2022-04 j'ai eu un rhume (pas particulièrement intense ni notable), j'ai fait un autotest covid, qui était négatif, et le poussinet a eu le covid juste après (il a été bien malade ; et, ce qui est peut-être le plus notable, moi je n'ai pas eu de deuxième infection) : donc peut-être que c'était la covid et que je lui ai refilée, mais ce n'est pas totalement clair ; et en 2023-10, 2023-06 et 2023-10 jusqu'à présent, il semble que je n'aie pas contaminé le poussinet. Donc peut-être qu'il est maintenant plus immunisé que moi. Ou peut-être que le covid n'est pas si contagieux que ce qu'on imagine. (De façon générale, les rhumes que j'avais régulièrement avant, nous nous les refilions rarement l'un a l'autre : ça a dû arriver une fois ou deux dans toute la série que j'ai listée.)

Prière d'insérer ici une expression de mon agacement déjà plusieurs fois manifesté sur le fait qu'on s'est tellement intéressé à la covid qu'on a raté une occasion de mieux comprendre les infections respiratoires en général (par exemple si on avait commercialisé des tests PCR et antigéniques qui testent une dizaine de virus différents et recensé tout ça ensemble).

Mise à jour : ça a fini en toux qui a mis un temps invraisembable à passer.

Calculabilité

Je dois donner un cours à Télécom Paris à partir du mois prochain dont l'intitulé est Logique et Fondements de l'Informatique (ça fait LFI, et du coup lors d'un de mes derniers cours de l'an dernier j'avais sur mon bureau informatique un PDF avec pour titre Programme LFI bien en évidence sur l'écran : je me demande si quelqu'un aura pris ça pour un message politique).

Jusqu'à l'an dernier nous enseignions la même chose à tous les élèves de première année (à une petite différence près dans les maths pour des élèves admis autrement que par le concours commun) : ils étaient juste divisés en six groupes essentiellement aléatoires, chacun ayant exactement les mêmes enseignements (mais pas au même moment, et pas par les mêmes enseignants). Ceci posait déjà quelques difficultés pour l'enseignement de l'informatique parce que les élèves de prépas scientifiques peuvent avoir ou non suivi une option informatique dans laquelle ils apprenaient déjà un certain nombre de choses de mon cours de Théorie des Langages (notes de cours ici) et du coup ils s'ennuyaient. Il y a deux ans a été créée une nouvelle filière de prépa, MPI comme Maths Physique Informatique (en parallèle avec les filières MP, PC et PSI déjà existantes) : dès lors, il n'était plus tenable d'enseigner à tout le monde exactement la même chose, et nous avons réformé la première année à Télécom. Et spécifiquement, au second trimestre (novembre–janvier), pendant que la plupart des élèves auront un cours d'algorithmique générale, j'organiserai un cours pour la population issue des filières MPI et MP option info (qui auront déjà vu cette partie de l'algorithmique) pour prolonger ce qu'ils auront vu avant d'entrer à l'école en logique et fondements de l'informatique. Spécifiquement, je dois leur parler de calculabilité (fonctions générales récursives, machines de Turing et lambda-calcul), de logique, typage (lambda-calcul typé), et un peu de l'isomorphisme de Curry-Howard (qui exprime le fait que typer un programme informatique — spécifiquement, un terme du lambda-calcul — ou vérifier une démonstration mathématique, sont en fait « la même chose »). En parallèle de ça, un collègue leur fera des TP d'introduction à l'assistant de preuve Coq.

Voilà qui a l'air tout à fait alléchant, sauf que je suis complètement à la bourre dans ma préparation. J'ai plein d'idées, mais la partie critique, c'est-à-dire commencer à écrire vraiment des choses détaillées à présenter aux élèves, est encore au stade complètement évanescent.

Une des raisons est que je voulais commencer par finir de m'éclaircir les idées sur un sujet (distinct mais vaguement apparenté ne serait-ce que parce qu'il s'agit aussi de calculabilité) sur lequel je rumine depuis bien trop longtemps déjà : les oracles au sens de Kihara (une généralisation des degrés de Turing ; malgré mon envie d'en parler, il est peu probable que j'aie le temps d'évoquer les degrés de Turing lors de mon cours à Télécom, mais ça ne m'empêche pas d'avoir été conduit à reréfléchir à toutes sortes de questions attenantes). J'ai commencé à écrire un billet dans ce blog à leur sujet, billet dont l'entrée du mois dernier ne devait être que l'introduction (et devrait au moins expliquer le sens du mot oracle) ; mais ce billet est en train de prendre des proportions déraisonnables et de progresser de plus en plus lentement, et, une fois de plus, je me demande quoi en faire (la publiée inachevée sachant qu'alors je ne la finirai jamais ? la laisser dans mes cartons pour un jour où j'aurai plus de temps ?). Ce qui est sûr, c'est que le fait de l'écrire m'aura aidé à comprendre énormément de choses que je n'avais pas bien saisies, ce qui est, après tout, le but principal.

Ajout () : le billet en question a été publié ici.

Évidemment, le fait d'avoir attrapé la covid et d'être crevé parce que je dors très mal n'aide pas beaucoup à progresser dans quelque direction que ce soit.

Ajout () : la première partie des transparents de mon cours est disponible ici.

NanoPi

Quand je suis fatigué parce que malade, une chose que j'aime bien faire est de la bidouille informatique, parce que ça ne demande pas d'avoir l'esprit trop réveillé.

Il y a une douzaine d'années j'avais acheté des nano-ordinateurs du nom de DreamPlug pour servir de routeurs chez moi et chez mes parents (je n'aime pas les *box qu'on nous oblige à prendre avec tout abonnement ADSL ou fibre, et sur lequel on n'a essentiellement aucun contrôle : donc le but est d'avoir une machine Linux qui remplace la *box en servant de routeur et pare-feu domestique, point d'accès wifi, et éventuellement d'autres choses comme stockage disque), ou simplement pour jouer avec. Ce qui m'intéressait aussi était de mettre la main sur une architecture ARM pour changer du x86/x86_64 de Intel et AMD.

(Pour ceux qui ne sont pas familiers avec le terme, un nano-ordinateur ou ordinateur embarqué — ce n'est pas exactement pareil mais aucun de ces termes n'est très précisément défini — est un ordinateur d'une taille intermédiaire entre un PC portable usuel et un téléphone mobile — rappelons à ce sujet que les smartphones Android sont tous des ordinateurs Linux, d'ailleurs typiquement d'architecture ARM, mais ce n'est pas tout à fait pareil qu'un nano-ordinateur. Un nano-ordinateur est typiquement alimenté par un câble du genre USB ; il n'a normalement pas de ventilateur ni de disque qui tourne, ce qui le rend parfaitement silencieux ; souvent il n'aura ni clavier ni souris ni écran, mais sera utilisé à distance, comme c'est le cas pour un routeur. Il peut servir à plein de choses pour lequel on a besoin d'un ordinateur très compact et/ou peu gourmand en énergie : mon poussinet, par exemple, utilise un Raspberry Pi pour relever automatiquement un compteur de consommation électrique dans le sous-sol de notre copropriété, afin de payer au syndicat des copropriétaires la consommation de la recharge de sa voiture électrique qui est prise par convention sur les parties communes ; donc le nano-ordinateur, ici, sert juste à interroger le sous-compteur et enregistrer les valeurs mesurées en heures pleines et en heures creuses. Évidemment, il y a quand même des gens qui utilisent un nano-ordinateur comme un ordinateur normal, par exemple pour le transporter avec eux dans leurs bagages en espérant trouver la possibilité de brancher clavier et écran n'importe où… bref, ça peut servir à plein de choses.)

Le nano-ordinateur ARM tournant sous Linux le plus populaire de très loin est le Raspberry Pi, qui a eu un succès dingue auprès d'un public étonnamment large, montrant les choses rigolotes qu'on peut faire avec ce genre de petites « boîtes à tout faire ». Il ne convient cependant pas trop à mes usages parce qu'il n'a qu'un seul port Ethernet, alors que j'en veux au moins deux et idéalement trois.

Mes DreamPlugs jouent leur rôle (il y en a un dont l'alim est morte, mais les deux restants servent de routeur, un chez moi et un chez ma mère), mais un certain nombre de choses se sont avérées décevantes. Le fabricant fournissait une version de Linux de qualité douteuse (et surtout, comme souvent dans ce cas, pas du tout maintenue après) : j'ai réussi, avec beaucoup d'efforts, à mettre une Debian Linux beaucoup plus standard, mais tout le processus de démarrage a toujours été un enfer. (On démarre typiquement un ordinateur ARM avec un lanceur appelé U-Boot — appréciez le jeu de mot — qui va ensuite lancer le noyau Linux et tout ce qui suit. Mais installer ou réinstaller U-Boot lui-même est une véritable plaie, et dépend très fortement du type de machine : dans le cas du DreamPlug il fallait en gros attraper le contrôle du processeur par un mécanisme appelé JTAG, et qui marchait une fois sur dix. Et il y avait des incompatibilités subtiles entre versions de U-Boot et versions de Linux, surtout que juste au moment où j'ai commencé à me servir de ce truc ils ont décidé de changer de mécanisme de démarrage et inventé un truc, bien sur le principe mais pénible dans la transition, appelé les fichiers devicetree.) À cause de ça, DreamPlugs sont sous une version de Linux antédiluvienne, et je n'ose plus toucher à quoi que ce soit. En plus de ça, ils sont extrêmement lents, et le port USB est extrêmement peu fiable (aléatoirement il décide de ne plus marcher).

Je voulais quelque chose de plus moderne. Sur la base de recommandations concordantes, je me suis orienté vers les NanoPi (qui, malgré leur nom, n'ont pas grand-chose à voir avec le Raspberry Pi autrement qu'ils essaient de surfer sur la popularité de ce dernier, si bien que Pi est devenu un terme général pour nano-ordinateur). Spécifiquement, le NanoPi R6S (fiche produit ici, documentation là).

Plus chers que mes DreamPlugs, mais beaucoup plus attirants par certains aspects : trois ports Ethernet gigabit plus deux ports USB, ça c'est vraiment quelque chose qui me plaît, alimentation par USB-C pour éviter la multiplication des alims foireuses, démarrage par carte SD qui devrait éviter les manipulations hasardeuses du JTAG en cas de brickage accidentel, architecture ARM-64 avec 8 cœurs, bref, c'est un ordinateur raisonnablement puissant qui devrait pouvoir compiler ses propres noyaux (ça évite les tracas de la compilation croisée x86→ARM). Et en plus on peut y brancher un clavier et un écran si on veut faire des manipulations en console (alors qu'avec les DreamPlugs on ne pouvait avoir qu'une console série, et c'est vraiment pénible à utiliser).

Mais bon, comme le dit mon ami David Monniaux, le chemin de l'enfer est pavé de petites crottes de ragondin.

Le fabricant (FriendlyElec) fournit différents systèmes d'exploitation pour ses NanoPi (voir la page de documentation liée ci-dessus). Je me méfie pas mal de ces Linux dont on ne sait pas très bien ce qu'ils contiennent, et surtout, combien de temps ils seront maintenus. À vrai dire, le Debian modifié fourni par FriendlyElec semblait bien fonctionner, mais je n'ai pas compris comment était structuré son processus de démarrage (ce qui est un problème si on veut le modifier, par exemple mettre à jour le noyau pour corriger un trou de sécurité ou apporter un changement quelconque).

Je me suis alors tourné vers Armbian, qui est aussi une modification de Debian Linux, mais communautaire celle-ci, et qui vise à supporter énormément de nano-ordinateurs ARMl'exception notable du Raspberry Pi). De fait, elle marche très bien dessus (j'ai gribouillé quelques notes ici si ça intéresse quelqu'un).

Mais même si les choses marchent bien, on peut commettre plein d'erreurs et perdre plein de temps avec : j'ai cru avoir des bugs bizarres, par exemple, alors qu'en fait j'essayais de renommer les interfaces Ethernet eth1 et eth2 de façon systématique (ce qui apparemment n'est pas supporté par Linux : on peut les nommer en gros n'importe comment sauf à essayer de garder les noms par défaut mais en fixant les numéros de façon reproductible ; autrement dit, Linux permet tout sauf exactement ce que j'aurais voulu faire, qui était de permuter eth1 et eth2 quand elles apparaissaient dans le mauvais ordre : c'est quand même assez fou comme limitation stupide de ne pas savoir échanger deux noms de façon atomique) ; et ceci causait des problèmes mystérieux ailleurs (les adresses MAC étaient cassées, je ne rentre pas dans les détails de pourquoi).

Et après avoir perdu un temps totalement déraisonnable à reproduire la config de mon ancien routeur (DreamPlug) sur le NanoPi, j'ai découvert un problème inattendu : le noyau Linux fourni par Armbian n'a pas prévu le support du petit bitoniau USB qui me sert d'antenne wifi (ils ne compilent pas le module ath9k_htc dont j'ai besoin). Ce qui devrait être un problème mineur et facile à régler (recompiler un noyau avec une configuration un peu différente), sauf que… je ne comprends pas comment Armbian organise ses sources de noyau, et comment reproduire leur processus de compilation. (Ils fournissent un script tout-en-un qui prépare les sources et compile tout, mais évidemment ce script dépend de choses comme Docker que je ne sais pas utiliser, et en tout cas ne marche pas chez moi. Il n'y a pas juste un noyau Armbian standard trouvé à un endroit standard et qu'on peut configurer et compiler de façon standard, il faut comprendre toute leur sauce autour.) Après trop d'heures perdues j'ai fini par jeter l'éponge. Donc j'ai dû tout annuler et revenir sur mon DreamPlug qui décidément ne se laisse pas si facilement remplacer.

Coda : méditation sur les problèmes informatiques

Le méta-problème avec les problèmes informatiques, c'est qu'on se sent tellement seul face à eux.

Quand j'ai un problème mathématique, le plus souvent c'est un problème sérieux et dur, je peux concentrer le problème de façon raisonnablement concise, et, si je n'arrive pas à le résoudre par moi-même, le soumettre à des collègues ou sur MathOverflow.

Les problèmes informatiques, et par informatique je parle de l'informatique comme ensemble de technologies et pas comme science, ne sont typiquement pas clairement isolables, c'est bien le problème : ils apparaissent dans un contexte donné, qui est souvent assez compliqué (le problème se produit sur tel ordinateur quand on cherche à faire telle chose précise, et il dépend sans doute de plein de facteurs sur cet ordinateur et relatif à ce but, qui peut lui-même être compliqué), et une bonne partie de la difficulté est d'analyser le contexte. En général, ce n'est pas tant d'intelligence qu'il y a besoin, mais de patience pour essayer de démêler les fils du contexte, faire des essais (qui sont souvent lents et fastidieux, surtout s'il faut redémarrer une machine ou lancer plein de commandes), lire des documentations mal écrites (ou chercher les documentations en question), comprendre du code mal commenté, etc. C'est compatible avec l'esprit rendu brumeux par la fatigue d'une mauvaise nuit covidée, mais ce n'est pas agréable.

Là par exemple je dois essayer de comprendre comment Armbian organise sa compilation de noyau Linux pour pouvoir y ajouter un module (et/ou saisir ce que leur script censé tout faire d'un coup essaye de faire, et pourquoi il ne marche pas). Forcément je vais y arriver, mais ça va être extrêmement long et fastidieux, et ce n'est pas clair que le résultat soit satisfaisant (peut-être que cette antenne wifi USB ne marchera pas sur le NanoPi pour une raison d'obscure incompatibilité USB et que j'aurai tout fait en vain).

En fait, le plus souvent, je me dis que ce dont j'ai besoin quand je rencontre des problèmes lors de bidouilles informatiques, ce n'est pas de l'aide au sens de quelqu'un qui s'y connaîtrait très bien et qui me donnerait des réponses, mais plutôt le support émotionnel de quelqu'un qui écouterait le récit de mes problèmes, accepterait de s'intéresser au contexte précis, m'apporterait des suggestions occasionnelles sur comment il s'y prendrait, et surtout m'aiderait à traverser cette épreuve de patience. Je peux raconter mes aventures sur mon blog, et me plaindre que la vie est dure, mais ce n'est pas aussi cathartique.

Quand j'étais à l'ENS (à une époque où c'était un peu moins évident que tout le monde avait son PC à lui) il y avait une salle informatique partagée (la salle S) dans laquelle beaucoup de normaliens venaient sur les machines fournies par l'école, notamment pour hacker (au sens : écrire du code, bidouiller, chercher à comprendre comment quelque chose fonctionne… ; pas au sens, ou en tout cas pas forcément au sens, de chercher à pirater quelque chose), et souvent se soutenaient moralement les uns les autres dans ce qu'ils essayaient de faire (tu fais quoi, là ?j'essaie de comprendre pourquoi Apache se plante dans la négociation de contenu MIMEça a l'air passionnant, raconte-moi un peu). Maintenant quand je suis face à un problème informatique, je me sens résolument seul (le poussinet ne veut pas s'y intéresser, ou me dit que je suis assez compétent pour m'en sortir, ce qui est sans doute vrai, mais ce n'est pas qu'une question de compétence). Peut-être qu'il faudrait recréer des « bidouillodromes » informatiques pour recréer l'ambiance j'écoute un peu tes problèmes, tu écoutes un peu les miens, et on échange quelques suggestions.

↑Entry #2763 [older| permalink|newer] / ↑Entrée #2763 [précédente| permalien|suivante] ↑

↓Entry #2762 [older| permalink|newer] / ↓Entrée #2762 [précédente| permalien|suivante] ↓

(jeudi)

Célébrité et destruction : disparition d'un arbre

Je fais une pause dans l'écriture d'un billet sur la notion d'oracle en calculabilité (dont le précédent, déjà long, était destiné à n'être que l'introduction, et qui est en train de se transformer en roman ; ajout () : c'est ici) pour m'efforcer à écrire quelque chose de court sur un sujet qui m'attriste. Il s'agit d'une version un peu plus longue de ce court fil Twitter.

Je viens d'apprendre que le Sycamore Gap Tree, un célèbre érable (Acer pseudoplatanus), vieux d'environ 300 ans, situé en Angleterre, juste à côté du mur d'Hadrien, et connu pour sa position particulièrement photogénique (on le voit notamment apparaître dans le film Robin Hood, Prince of Thieves dans une scène entre Kevin Costner et Morgan Freeman), a été coupé en un acte de vandalisme. (La police a arrêté un ado soupçonné d'être responsable de l'arboricide.)

Alors c'est sûr qu'écologiquement, ce n'est pas très important : il y a quelque chose comme 3 mille milliards d'arbres sur la planète, un de plus ou de moins la planète elle s'en fout. Et il y a assurément plein de choses plus graves qui se déroulent sur la Terre en ce moment, à toutes sortes de niveaux, que la mort d'un arbre, fût-il vieux de 300 ans. Mais ce qui me désole, c'est que ça révèle sur nous, et sur l'aspect destructeur de la célébrité.

Sur la raison pour laquelle la mort de cet arbre particulier m'attriste, je pense que je l'ai déjà expliquée dans le billet sur la mort d'Elizabeth II il y a presque exactement un an, et je me permets de m'auto-citer :

Quelque chose qui est là, silencieusement, et qui finalement devient le témoin de ce qui se passe autour : quand on admire un vieil arbre on aime se dire que cet arbre a pu connaître Napoléon, ou Louis XIV ou que sais-je encore. (Le plus vieil arbre de Paris, un Robinia pseudoacacia qui est d'ailleurs un des plus anciens et pour ainsi dire l'ancêtre de tous les robiniers faux-acacia de France ou peut-être d'Europe puisqu'il a été importé par le jardinier Jean Robin auquel le nom du genre rend hommage, a été planté en 1601, et il a donc connu Henri IV. Je pense qu'on peut sans difficulté qualifier cet arbre de monument, et certainement beaucoup de gens seront inconsolables s'il meurt. Dans le même genre, je pense aussi à l'émotion qui a été ressentie quand l'aubépine de Glastonbury a été vandalisée, qui est censée avoir été plantée à l'origine par Joseph d'Arimathie même s'il faut prendre l'identité de cet arbre avec des pincettes, parce que la vraie, si tant est que c'était la vraie, a été brûlée sous Cromwell. Dans la fiction, je peux aussi mentionner l'arbre de Gondor.) Bref, ce que je cherche à dire avec tout ça, c'est qu'on attend d'un monument, et certainement d'un monument vivant comme un arbre, qu'il soit témoin muet du monde autour de lui, même si être témoin se limite à ce qu'on puisse s'émouvoir en se disant que cet arbre a connu tel ou tel personnage ou tel ou tel événement.

Mais voilà, le problème avec les monuments célèbres (en prenant le mot monument ici dans un sens extrêmement vaste : cet arbre en était un, comme l'est la Joconde ou comme l'était la reine Elizabeth II), c'est qu'il y a toujours des gens qui veulent les détruire.

Pour aucune autre raison que le fait qu'ils sont célèbres, et que c'est une sorte de titre de gloire que d'avoir détruit quelque chose de célèbre, on en parlera dans le monde entier (même si on n'est pas nommé, on sait in imo pectore, qu'on est le responsable).

Ainsi Hérostrate qui a détruit le temple d'Artémis à Éphèse dans le but d'être celui qui a détruit le temple d'Artémis à Éphèse. (Je ne sais pas du tout si cette histoire est vraie, mais ce n'est pas le point : si elle ne l'est pas, c'est un mécanisme qui, lui, est bien réel, et il est clair que le Sycamore Gap Tree a été détruit pour détruire le Sycamore Gap Tree, pas parce qu'il gênait le passage ou parce qu'on voulait construire quelque chose, ou je ne sais quelle raison indépendante de son identité comme arbre célèbre.)

C'est assez inévitable, en fait : si une chose quelconque est suffisamment célèbre pour que des millions de personnes en aient entendu parler, il suffit qu'il y ait 0.01% de ces gens qui aient envie de la détruire (pour la célébrité qu'elles en tireraient, pour le défi, par je ne sais quelle sensation de jalousie ou de n'importe quoi), et ça fait des centaines de personnes qui veulent détruire cette chose. Certainement il y en a bien plus qui veulent la protéger, mais il est plus difficile de protéger que de détruire. On ne va pas organiser des tours de garde pour défendre chaque chose qui est menacée par sa propre célébrité (peut-être qu'on devrait ?).

On peut mettre une vitre pare-balle autour de la Joconde. On peut accorder une protection policière à n'importe quelle personne célèbre[#] et/ou cacher son emplacement. Un monument fait de pierre ou de fer n'est pas trop facile à détruire. Mais un arbre ? Un arbre est sans défense. Au mieux on peut cacher son emplacement, mais ces choses finissent toujours par se savoir, et on ne peut pas transporter l'arbre ailleurs (alors qu'une personne on peut).

[#] Et à mon avis, la société a le devoir de le faire, peu importe ce qu'on pense de cette célébrité et de sa raison, précisément pour la raison expliquée dans ce billet : être trop célèbre est forcément dangereux, même si on est célèbre comme quelqu'un de particulièrement bon ou vertueux, on a des chances énormes (au moins relativement au reste de la population) de finir assassiné par un dérangé, un fanatique, ou un quelconque amateur de célébrité (qui pourra d'ailleurs, à son tour, etc. — comme Lee Harvey Oswald).

C'est la raison pour laquelle n'importe quel arbre célèbre, par exemple s'il est particulièrement vieux (ce qui donne aux vandales une motivation de plus pour le détruire) est forcément menacé, par exemple tous ceux de cette liste ou de celle-ci sont menacés par leur seule présence sur cette liste. Par exemple, l'épicéa doré Kiidk'yaas (sacré pour les Haïdas) a été coupé pour faire un message politique ; l'aubépine de Glastonbury a été plusieurs fois vandalisée ; l'emplacement du pin Mathusalem en Californie (vieux de presque 5000 ans, et un des candidats à l'arbre le plus vieux du monde selon la manière dont on définit les choses) a été gardée secrète pendant des années, mais elle a fuité en ligne il y a quelques années et j'en conclus qu'il n'en a probablement plus pour longtemps avant que quelqu'un ne décide de le brûler ; et l'épicéa Old Tjikko (vieux de plus de 9000 ans si on compte par son système racinaire) est surtout protégé par son emplacement au milieu de nulle part mais il est quand même peut-être question d'ériger une barrière autour.

Je recommande la (courte) vidéo The Broccoli Tree: A Parable (ou ce texte qui dit en gros la même chose) qui parle précisément de ce sujet : un arbre qui est devenu célèbre sur Instagram, et qui a été probablement coupé par un vandale précisément pour cette raison :

But the saddest thing of all, however
You absolutely cannot un-saw a tree.

Je ne sais pas s'il y a une morale à tout ça, à part qu'il suffit de 0.01% de gros cons (et il est clair qu'il y a largement plus que 0.01% de gros cons dans le monde) pour que la célébrité soit dangereuse et destructrice. C'est particulièrement vrai pour un arbre (ou n'importe quel élément de paysage qu'on ne peut pas facilement protéger, déplacer ou réparer), mais ce que ça dit surtout c'est quelque chose sur nous, pas sur les arbres.

Bon, au moins, le côté positif de la célébrité, c'est qu'il subsiste plein de photos.

↑Entry #2762 [older| permalink|newer] / ↑Entrée #2762 [précédente| permalien|suivante] ↑

↓Entry #2761 [older| permalink|newer] / ↓Entrée #2761 [précédente| permalien|suivante] ↓

(vendredi)

Vulgarisation sur la notion d'oracle en informatique théorique

Méta : Ce billet est un rejeton d'un autre que j'ai commencé à rédiger sur un sujet technique (à savoir : les oracles en calculabilité au sens de Kihara) : en écrivant ce dernier je me suis dit que j'allais commencer par une introduction générale essentiellement grand public à la notion d'oracle (qu'est-ce que c'est que ce truc et pourquoi on les étudie ?). Mais finalement, comme cette introduction générale devenait un peu longue, et surtout comme elle ne vise en fait pas du tout le même public (ce qui suit ne se veut pas technique, le billet dont il est détaché présuppose des connaissances en calculabilité), et aussi parce qu'il y a toujours un risque que je ne finisse pas ce que je commence, je choisis de la publier séparément, plutôt que risquer de rebuter les lecteurs de l'un ou de l'autre. Du coup, je développe aussi un peu plus largement que ce qui était initialement prévu, au risque de rendre ce billet un peu bancal parce que j'ai repris plusieurs fois certains passages en changeant mon approche (notamment à force d'insérer des explications plus détaillées de choses que j'avais évoquées ailleurs, j'ai créé un certain nombre de redites : je pense qu'elles ne sont pas graves et j'ai la flemme de les traquer).

Quand (si !) je publierai l'autre billet, j'ajouterai un lien ici et réciproquement, pour qu'on puisse les lire successivement comme c'était initialement prévu. • Ajout : c'est ici.

À cause du fait que j'essaie de viser un public très large, je ne vais pas donner de définitions mathématiques précises (si j'utilise un terme technique comme exponentiel, on peut se contenter d'une idée très approximative de ce que c'est) ; mais du coup, il faut que prévienne que je vais dire des choses qui seront parfois techniquement incorrectes (même quand j'oublie de prendre les précautions oratoires du type très grossièrement, approximativement parlant, etc.). J'espère ne rien avoir dit de violemment faux, quand même, mais tout est à prendre avec les pincettes de rigueur : il s'agit juste de donner une toute petite idée du type de questions qu'on peut se poser dans quelques parties de l'informatique théorique et d'un outil intéressant (la notion d'oracle) pour y répondre et poser d'autres questions, pas de rentrer dans le moindre détail technique (pour ça, il y aura le deuxième volet, indépendant de celui-ci).

Pour les lecteurs qui ont la patience d'aller jusqu'au bout, il y a une petite énigme de logique(?) à la fin ; en fait, elle ne nécessite pas d'avoir lu ce qui précède, donc on peut la lire directement. (Bon, je ne sais pas si elle est intéressante, et je ne sais pas non plus à quel point elle est difficile. Je ne suis même pas complètement convaincu qu'elle ait un rapport avec le sujet, même si le contexte où je l'ai lue a clairement un rapport.)

Le concept d'oracle dont il est question ici est vient de l'informatique théorique (le terme oracle apparaît dans la thèse d'Alan Turing en 1938). Je voudrais essayer d'expliquer de façon très informelle, très vague aussi malheureusement (mais, j'espère, du coup, assez grand public) ce dont il est question.

Une partie de l'informatique théorique (l'algorithmique) s'intéresse, de façon positive, à trouver des moyens de résoudre des problèmes (mathématiquement bien définis), c'est-à-dire à concevoir des algorithmes qui les résolvent : un algorithme est un programme, un plan d'opération susceptible d'être mené dans un ordinateur — mais aussi en principe par un humain particulièrement patient — qui effectue une tâche calculatoire donnée. Par exemple, la manière dont on apprend à faire des additions et des multiplications à l'école primaire sont des algorithmes, même si ce ne sont pas forcément les plus intéressants, ils ont le mérite de nous rappeler qu'un algorithme ne tourne pas forcément sur un ordinateur, on peut aussi l'exécuter à la main (ce sera juste quelques milliards de fois plus lent…) ; d'ailleurs, le mot algorithme fait référence au mathématicien persan (écrivant en langue arabe) Muḥammad ibn Mūsá al-H̱wārizmī parce qu'il a décrit toutes sortes de méthodes systématiques pour résoudre des problèmes mathématiques, qu'on peut donc légitimement qualifier d'algorithmes, et c'était plus de 1000 ans avant l'invention des ordinateurs.

(Petite digression sur le terme algorithme : il semble qu'un mélange entre l'incompréhension des journalistes face à tout ce qui est technique et l'approximation des termes utilisés dans le contexte de l'intelligence artificielle ait fait dévier le sens du mot, dans l'image qu'en a le grand public, vers une sorte de synonyme de système opaque auquel on ne comprend rien. Certainement beaucoup de programmes utilisés dans l'ingénierie informatique moderne (notamment tout ce qui relève de l'IA) comportent énormément d'heuristiques et de méthodes mal comprises, parfois même mal comprises de leurs programmeurs ou concepteurs, et dont la réponse est parfois fausse ou mal spécifiée. Mais le sens d'algorithme en algorithmique désigne au contraire un plan bien défini et bien compris qui arrive à un résultat bien spécifié.)

Mais d'autres parties de l'informatique théorique s'intéressent non pas à concevoir des algorithmes efficaces pour résoudre tel ou tel problème, mais à se pencher sur la notion même d'algorithme et les limites théoriques du concept : que peut-on faire avec un ordinateur ?

Spécifiquement, on s'intéresse alors plutôt à des résultats négatifs : plutôt que résoudre tel ou tel problème c'est-à-dire concevoir un algorithme qui le résout, on s'attache à montrer que tel ou tel problème est difficile (long et coûteux) voire impossible à résoudre par un algorithme, ou au moins, à étudier cette difficulté, à la classifier et à la jauger. Je reste délibérément vague sur ce qu'un problème peut recouvrir ici et ce que difficile veut dire, mais je peux délimiter ici trois grands domaines où ce que je veux dire s'applique, et j'en profite pour parler un peu plus longuement de chacun des trois, en gros du plus théorique vers le plus appliqué (il n'est pas nécessaire de lire tout ce que j'écris sur chacun ci-dessous pour passer à la suite, mais je cherche à donner un minimum de contexte) :

  • La théorie de la calculabilité est la branche de l'informatique théorique (possiblement la plus proche des mathématiques pures, et notamment de la logique) qui étudie ce qu'on peut faire algorithmiquement avec des ressources illimitées, c'est-à-dire, en disposant d'un temps illimité et d'une mémoire illimitée. (Le mot illimité signifie ici fini mais arbitrairement grand, sans limite a priori : c'est-à-dire que les algorithmes en question doivent s'arrêter un jour en disant j'ai terminé, mais ils ont le droit de prendre autant de temps qu'ils veulent, tant que ce temps est fini ; idem pour la mémoire : ils ont le droit de stocker toutes les données qu'ils veulent tant que cet espace utilisé reste fini à tout moment. C'est donc la forme la plus abstraite et théorique de la question que peut-on faire avec un ordinateur ? qui est étudiée ici, et elle déborde sur des questions du type comment peut-on imaginer des types de machines fondamentalement et théoriquement plus puissantes qu'un ordinateur même si elles ne sont pas réalisables en pratique ? — mentionnons par exemple que même un ordinateur quantique, qui si on réussissait à en construire serait pour certains types de problèmes incroyablement plus efficace qu'un ordinateur tel que nous disposons actuellement, ne représente pas un saut qualitatif tel qu'il peut intéresser la calculabilité : pour la calculabilité, un ordinateur quantique, un ordinateur classique, un système d'engrenages mécaniques ou encore un humain extrêmement patient et systématique muni d'un stylo et d'un papier et exécutant mécaniquement des opérations prédéfinies valent exactement la même chose.)

    La calculabilité est un peu la mère de l'informatique, parce que c'est au travers de la recherche d'une formalisation de ce qu'est un algorithme, et ce qu'un algorithme peut faire, qu'Alonzo Church et son étudiant Alan Turing sont arrivés au concept de calculabilité ; la définition précise d'algorithme à laquelle Turing est arrivé, la machine de Turing, est considéré comme une préfiguration théorique de ce qu'est un ordinateur.

    Un des thèmes majeurs de la calculabilité, donc, c'est de montrer que, pour des raisons théoriques, certains types de problèmes (mathématiquement bien posés) ne sont pas résolubles algorithmiquement : même avec un temps illimité(-mais-fini) à votre disposition, et autant de mémoire, vous ne pourrez pas écrire un algorithme qui répond à coup sûr à certaines questions qui admettent pourtant une réponse bien définie.

    L'exemple archétypal à ce sujet est le problème de l'arrêt : très grossièrement, ce problème demande justement, donné un algorithme, i.e., une suite d'instructions à exécuter (qui peut, bien sûr, contenir des boucles, du type répéter les instructions suivantes tant qu'une certaine condition n'est pas vérifiée), et des valeurs à fournir en entrée à cet algorithme, si l'algorithme en question finit (i.e., si le calcul aboutit à un résultat). Le théorème majeur de Turing, qui est à la base de la théorie de la calculabilité (et donc, dans un certain sens, de l'informatique ; mais à l'origine il s'y intéressait pour des raisons liées à la logique mathématique et spécifiquement au théorème de Gödel), c'est qu'aucun algorithme ne peut résoudre le problème de l'arrêt : autrement dit, aucun algorithme ne peut dire à coup sûr si un autre algorithme s'arrête au bout d'un temps fini. (La seule façon de savoir est de l'exécuter, ce qu'on peut faire, mais quand on l'exécute, tant qu'il n'est pas fini, on n'est jamais sûr si le programme finira par terminer plus tard.) La raison de cette impossibilité est d'ailleurs étonnamment bête une fois qu'on a fait le travail de formalisation pour rendre rigoureuse la théorie : en gros, si un algorithme existait qui puisse dire à coup sûr si un algorithme donné s'arrête, on pourrait faire un algorithme qui l'interroge et fait le contraire de ce qu'il a prédit, ce qui le met en défaut. (C'est ce qu'on appelle un argument diagonal de Cantor.)

    La calculabilité ne se contente pas, en fait, de définir des problèmes résolubles ou non résolubles algorithmiquement, et de le montrer : il y a des problèmes plus ou moins impossibles à résoudre, et l'étude des degrés d'impossibilité (par exemple les degrés de Turing dont je dirai un mot plus bas, et que je définirai précisément dans le volet technique de ce billet) est un sujet de recherche qui court depuis Turing, mais l'outil de base pour ne serait-ce que formuler ce genre de questions est la notion d'oracle que je vais chercher à introduire ici.

  • La théorie de la complexité [algorithmique], cherche à être plus fine que la calculabilité : alors que la calculabilité donne aux algorithmes l'accès à des ressources (temps, mémoire) illimitées-mais-finies, la complexité s'intéresse à des problèmes résolubles par un algorithme, mais cherche à mesurer combien de temps ou de mémoire (ou parfois d'autres ressources) un algorithme devra utiliser, en fonction de la taille du problème qu'on leur pose, lorsque cette taille devient très grande. (Par exemple, combien d'étapes faut-il pour multiplier deux nombres de 100 chiffres ? de 1000 chiffres ? de 10 000 chiffres ? Avec l'algorithme qu'on apprend à l'école primaire, la réponse est en gros 10 000, 1 000 000 et 100 000 000 respectivement, parce qu'il faut multiplier chaque chiffre du multiplicande par chaque chiffre du multiplicateur avant d'ajouter tout ça : en complexité on appelle ça un algorithme quadratique. En fait, on peut faire beaucoup plus efficacement, et d'ailleurs au moins un algorithme de multiplication plus efficace sur les grands nombres que l'algorithme appris à l'école primaire peut vraiment servir à la main — enfin, pourrait servir à la main si on était dans un monde où nous n'avions pas un ordinateur en permanence avec nous.)

    La complexité est donc une discipline un peu plus applicable au monde réel que la calculabilité : alors que la calculabilité va nous donner des réponses du type vous ne pouvez pas résoudre ce problème avec un ordinateur, quel que soit le temps que vous soyez prêt à attendre ou oui vous pouvez, mais je n'ai aucune idée du temps nécessaire parce que ce n'est pas mon sujet, la complexité va chercher à voir plus précisément dans la deuxième catégorie entre des problèmes théoriquement-résolubles-mais-absolument-pas-en-pratique (un peu comme si vous cherchiez à multiplier à la main deux nombres de 1 000 000 000 000 chiffres… oui, en principe c'est possible) et des problèmes un peu plus abordables en pratique. (La complexité va aussi faire la différence entre différents types d'ordinateurs qui, pour la calculabilité sont équivalents, par exemple un ordinateur quantique permet plus de choses du point de vue de la complexité parce qu'il peut en quelque sorte mener plein de calculs en parallèle ; alors qu'en calculabilité il ne change rien du tout par rapport à un ordinateur classique.)

    Néanmoins, la complexité reste une discipline assez théorique parce qu'elle se penche sur le temps (ou la mémoire, ou une autre ressource) utilisés asymptotiquement : ici, asymptotiquement veut dire quand la taille de l'entrée de notre problème (i.e. l'instance précise) devient extrêmement grande (tend vers l'infini). C'est-à-dire que le but de la complexité n'est pas de savoir si vous allez prendre exactement tel ou tel temps pour multiplier deux grands entiers (disons) mais comment ce temps grandit quand les entiers deviennent très grands (est-ce que doubler la taille des nombres double le temps qu'il faut pour faire la multiplication ? plus ? moins ?). Tout simplement parce que c'est un peu plus abordable comme type de question (et que c'est déjà utile dans la pratique).

    La complexité définit toutes sortes de catégories de problèmes en fonction de la difficulté à les résoudre, mesurée sous la forme des ressources qu'on accepte d'allouer à un algorithme qui les résout. (Par exemple, de façon approximative, un problème est dit EXPTIME ou EXPSPACE s'il existe un algorithme qui le résout et dont le temps d'exécution ou respectivement la mémoire utilisée croît au plus exponentiellement dans la taille de la donnée ; on peut faire énormément de choses avec un temps ou une mémoire exponentielle, donc énormément de problèmes sont dans ces classes, qui ne sont pas d'un grand intérêt pratique, mais c'est quand même plus restrictif que les problèmes tout simplement calculables en ressource illimitées que j'ai évoqués plus haut.)

    Deux classes particulièrement importantes en calculabilité sont les classes P et NP. La classe P est très grossièrement celle des problèmes faciles (un peu plus précisément, ce sont ceux qui sont résolubles par un algorithme qui utilise un temps au plus polynomial dans la taille de l'entrée : linéaire, quadratique, cubique, quelque chose comme ça, mais exponentiel n'est pas permis) ; la classe NP est plus subtile : très grossièrement, ce sont les problèmes faciles à vérifier (mais pas forcément faciles à résoudre ; c'est-à-dire que si vous avez la réponse, la vérification qu'elle est correcte se fait essentiellement selon la classe P, mais par contre, si vous ne connaissez pas la réponse, il est possible qu'elle soit très difficile à trouver ; j'insiste sur le fait que mes explications sont très grossières et que je passe sur plein de subtilités théoriques).

    Un exemple de problème NP très simple à décrire est le suivant : je vous donne un tas de nombres (entiers positifs, disons) et un nombre-cible, et votre but est d'exprimer le nombre-cible comme somme de certains des nombres donnés. (C'est une variante très simple des « chiffres et les lettres » où on n'a le droit qu'à l'addition ! Ou bien imaginez que ce sont des pièces de monnaie dans un système monétaire bizarre, et vous voulez réussir à payer exactement un certain montant cible en ayant dans votre poche des pièces de certains montants donnés. Par exemple, si je vous donne les nombres 1, 3, 8, 17, 32, 51, 82, 127, 216, 329, 611, 956 et 1849, et que je vous demande de faire la somme 2146 avec, ce n'est pas évident d'y arriver sauf à tester énormément de combinaisons ; par contre, vérifier que 1 + 8 + 32 + 82 + 127 + 329 + 611 + 956 = 2146 est un calcul facile.)

    Parmi les classes que j'ai pas-vraiment-définies-mais-un-peu-évoquées, on a P ⊆ NP ⊆ EXPTIME, le symbole ‘⊆’ signifiant ici est inclus dans, c'est-à-dire que tout problème P (facile à résoudre) est en particulier NP (facile à vérifier), et que tout problème NP est lui-même, en particulier, EXPTIME (résoluble en temps exponentiel). (Ce dernier est à son tour inclus dans EXPSPACE mais peu importe.) On sait par ailleurs montrer qu'il existe des problèmes qui sont dans EXPTIME mais qui ne sont pas dans P (et on sait en décrire explicitement), autrement dit, des problèmes résolubles en temps exponentiels mais pas faciles pour autant (pas résolubles en temps polynomial) : ce n'est pas très surprenant, parce qu'une exponentielle grandit vraiment très vite, donc il n'est pas surprenant que certains problèmes puissent se résoudre en un temps exponentiel mais pas en un temps beaucoup plus limité, mais encore fallait-il le prouver (ce n'est pas très difficile, mais ce n'est pas complètement évident non plus). Bref, si voit P ⊆ NP ⊆ EXPTIME comme trois boîtes imbriquées, la plus à gauche est effectivement strictement plus petite que la plus à droite. Mais la question se pose de savoir comment est celle du milieu. En fait, on ne sait pas la situer ni par rapport à celle de gauche ni par rapport à celle de droite.

    Spécifiquement, une question centrale de la théorie de la complexité est de savoir si P=NP (en gros, est-ce que tout problème facile à vérifier est, en fait, facile à résoudre ?). On pense très fortement que la réponse est non (i.e., qu'il existe des problèmes qui sont dans NP et qui ne sont pas dans P ; on en a même plein de candidats, d'ailleurs celui que j'ai donné plus haut en est un), mais on ne sait pas le prouver (l'enjeu, ici, est de prouver rigoureusement qu'un problème est difficile au sens où il ne peut pas exister d'algorithme qui le résout facilement). Cette question PNP est même mise à prix à 1 000 000 $ (et attire régulièrement des « solutions » incorrectes de toutes parts).

    Pour en savoir plus sur la situation en complexité, cet article récent de vulgarisation (costaud !) dans le magazine Quanta, quoique long, n'est pas mauvais pour donner un aperçu, et expliquer un peu mieux que ce que je l'ai fait ce que c'est que cette histoire de PNP, ce qu'on sait dire à son sujet et quelle est la difficulté. Ce n'est pas vraiment mon propos ici d'en dire plus ici.

  • La cryptographie (enfin, peut-être que je devrais plutôt dire cryptologie ici) est l'étude scientifique de la sécurité de l'information : il s'agit de développer des techniques de chiffrement (comment transformer un message en un chiffré qui ne puisse être déchiffré qu'en ayant accès à une clé) ou ayant trait à d'autres questions de sécurité de l'information (signature électronique, authenticité, non-répudiation, partage de secrets, ce genre de choses). Mais plus précisément, ici, au sein de la cryptographie, j'ai à l'esprit la cryptographie à clés publiques (voir ce billet récent pour une explication de ce que ça signifie ; ce n'est pas très important ici).

    Une différence importante entre la calculabilité/complexité et la cryptographie est qu'en cryptographie il y a un adversaire (par exemple, s'agissant d'un chiffrement, l'adversaire est un attaquant hypothétique qui essaie d'obtenir des informations sur le message sans avoir la clé de déchiffrement, ou peut-être sur la clé en ayant connaissance du message et du chiffré, ou des variantes autour de ces questions). En calculabilité ou en complexité on s'intéresse à la difficulté de problèmes parce que ça mettra une borne sur ce que nous pourrons faire. En cryptographie, on s'intéresse à la difficulté plutôt parce que ça peut représenter un travail pour l'attaquant (donc la difficulté est souhaitable !). Spécifiquement, on voudrait concevoir des méthodes de chiffrement qui soient faciles à utiliser (c'est-à-dire, peu coûteuses algorithmiquement) quand on connaît la clé, mais extrêmement difficiles à casser, c'est-à-dire pour l'attaquant qui ne connaît pas la clé, et si possible, on voudrait prouver cette difficulté, ou au moins avoir des raisons un peu plus tangibles que je ne sais pas faire, donc c'est sans doute compliqué.

Bref, dans ces trois domaines (et il y en a sans doute d'autres dont j'ignore tout ou qui ne me viennent pas à l'esprit), pour des raisons un peu différentes et avec des notions de problème et de difficulté différentes, on peut chercher à montrer qu'un certain problème est difficile (voire, s'agissant de la calculabilité, impossible, mais je vais ranger ça sous l'étiquette vague difficile), ou étudier sa difficulté.

Bon, mais comment montre-t-on qu'un problème est difficile ?

↑Entry #2761 [older| permalink|newer] / ↑Entrée #2761 [précédente| permalien|suivante] ↑

↓Entry #2760 [older| permalink|newer] / ↓Entrée #2760 [précédente| permalien|suivante] ↓

(jeudi)

Quelques remarques sur la climatisation

À chaque fois qu'il y a une grosse chaleur en France, on entend la même petite musique (venue essentiellement de ces partis politiques qui se prétendent écologistes et qui sont de plus en plus naturolâtres et/ou technophobes) pour dénoncer la climatisation, accusée de tous les maux : ce serait une forme d'égoïsme (on se rafraîchit en rejetant son air chaud sur les autres à l'extérieur), une dépense énergétique somptuaire, une mauvaise réponse au réchauffement climatique, ou je ne sais quoi encore. Le but de ce billet est de répondre un peu à ces reproches en rappelant un certain nombre de faits physiques ou économiques de base.

Divulgation complète pour commencer (← comment on dit full disclosure en français ?) : le poussinet et moi avons une pompe à chaleur (air/air) réversible, une Mitsubishi MXZ-3F54VF, que nous avons fait poser avant de nous installer dans notre nouvel appartement, et qui nous sert à la fois de chauffage (presque exclusif) en hiver et de clim en été. La pose de cette pompe à chaleur est d'ailleurs essentiellement les seuls travaux que nous ayons fait en nous installant dans cet appartement. Il s'agit d'un multi-split installé professionnellement, l'unité extérieure étant posée sur notre loggia et nous avons trois unités intérieures réglables séparément, une pour chaque pièce où nous vivons (salon, chambre, bureau ; nous ne chauffons pas spécialement la cuisine, ni la salle de bain sauf parfois le temps de prendre une douche). Je parlerai plus bas de la quantité d'énergie qu'elle consomme.

Mais la première chose que je veux souligner, c'est que le désir de fraîcheur en été chez soi n'est pas en soi moins légitime que le désir de chaleur en hiver : dès lors qu'on admet qu'il est normal que les gens se chauffent quand il fait froid, ce qu'on fait depuis des millénaires, il n'y a pas de raison de trouver inacceptable qu'on se refroidisse quand il fait chaud, ce qu'on ne fait pas depuis des millénaires pour la simple raison que la technologie des pompes à chaleur n'était pas disponible. Or il y a quelque chose de curieux à ce que, lors des canicules, on entende des voix moralisatrices s'élever pour la clim, décriée comme égoïste et dispendieuse, alors qu'il n'y en a pas lors des vagues de froid pour décrier tous les gens qui se chauffent (i.e., essentiellement tout le monde).

On peut d'ailleurs argumenter qu'il est même plus légitime de vouloir se rafraîchir en été : il n'y a pas de solution de repli contre la chaleur équivalente à ce que sont s'habiller chaudement (même à l'intérieur) ou multiplier les couettes du lit dans le cas du froid. La chaleur excessive peut rapidement devenir une menace pour la santé (le froid aussi bien sûr, mais il est vraiment difficile de s'approcher de tels niveaux en intérieur, dans un pays tempéré, même en l'absence de chauffage) ; or le réchauffement climatique va rendre les températures dangereusement chaudes de plus en plus fréquentes même dans un climat (autrefois) tempéré comme celui de la France métropolitaine : la climatisation fait partie de l'adaptation nécessaire à ce changement climatique, et il me semble que c'est une forme de climatoscepticisme que de nier son utilité.

Les moralisateurs anti-clim font valoir qu'il existe d'autres moyens de pallier les effets des chaleurs excessives : végétaliser les villes, construire des bâtiments mieux isolés (à la fois contre le chaud et contre le froid) ou conçus pour rayonner de nuit la chaleur absorbée pendant la journée. Loin de moi l'idée de nier l'intérêt de ces solutions : peut-être de toute façon que l'avenir est aux habitations troglodytes et que nous devrons apprendre à vivre en partie sous terre pour nous protéger des températures de surface devenues invivables (déjà pendant la canicule de 2003 je passais une bonne partie de mes journées au sous-sol). Je suis parfaitement d'accord, aussi, pour conspuer les architectes qui construisent des bâtiments tout en verre parce qu'ils trouvent ça joli mais qui rendent la clim absolument indispensable ; mais c'est une faute de logique que de confondre il est inacceptable que certains bâtiments mal conçus rendent la clim (encore plus) indispensable avec installer la clim est inacceptable — l'un est une injonction raisonnable adressée aux architectes, l'autre est une injonction moralisatrice adressée aux résidents (qui n'ont pas forcément choisi l'architecte). Accessoirement, même si on doit finir par mettre la clim partout, il serait au moins judicieux, sinon indispensable, d'aider son travail par des bâtiments conçus pour minimiser l'énergie qu'elle doit dépenser, et pour conserver un minimum le frais (ne serait-ce que pour le cas où la clim tombe en panne ou lorsqu'une chaleur carrément excessive la rend insuffisante).

Donc oui, il faut des bâtiments mieux conçus (et oui, il faut des îlots de fraîcheur urbains, mais ça ne règle pas du tout le problème des logements trop chauds, ça). Mais à moins de proposer de raser tout le bâti de France pour le reconstruire aux normes les plus récentes (ce qui, en-dehors du caractère irréaliste de la proposition, générerait des quantités hallucinantes de CO₂ !), il faut bien s'accommoder de ce qui existe. Oui, il faut aider à l'isolation des bâtiments existants, mais elle n'est pas toujours possible, et les habitants ne sont pas toujours ceux qui choisissent : la position consistant à les culpabiliser parce qu'ils ont un domicile mal isolé et/ou de leur dire de souffrir en silence (ou de trouver ailleurs où habiter) s'il fait 45°C dehors ne me semble pas vraiment tenable.

Je suis aussi d'accord pour dénoncer la climatisation excessive (notamment des lieux publics), comme d'ailleurs le chauffage excessif qui est d'ailleurs une cible plus sérieuse si on a l'économie d'énergie en tête : il me semble qu'on a fait des progrès en la matière et que ça fait quelques années que les centres commerciaux par exemple ne sont plus climatisés à 20°C même au plus chaud de l'été. (Ce qui, même en négligeant le gaspillage que ça constitue, n'est d'ailleurs même pas plaisant vu qu'on est habillé pour la chaleur : le choc thermique lorsqu'on franchit les portes est très désagréable, et passer devant une sortie d'air froid à l'intérieur — forcément glacial s'il s'agit de maintenir 20° malgré les pertes — ne l'est pas moins.) Il y a certainement des règles de bonne conduite à convenir pour la température intérieure à maintenir en fonction de la température extérieure (et la fonction du bâtiment) ; d'ailleurs je trouve un peu dommage que notre clim domestique ne permette pas de régler une cible dépendante de la température extérieure, même si je comprends que ce serait un peu complexe à utiliser.

Il faut aussi dire qu'il y a clim et clim. Beaucoup de gens ont sans doute encore en tête les clims monobloc mobiles avec un gros tuyau qui sert à souffler l'air chaud, souvent coincé un peu n'importe comment dans l'embrasure d'une fenêtre : ce type de clim ne peut servir qu'en mode clim et pas en mode chauffage (ou alors si elles peuvent elles sont rarement utilisées de la sorte pour les raisons que je vais dire) : terriblement inefficaces en plus d'être bruyantes, surtout quand l'installation est bricolée et rejette l'air chaud par une fenêtre entrouverte par laquelle une bonne partie de la chaleur va re-rentrer, on voit bien qu'en hiver personne ne voudrait garder une fenêtre entrouverte, c'est tout aussi absurde en été mais comme le frais est à ce prix on s'en accommode. Beaucoup de petits commerces font ainsi, certains particuliers aussi ; et il ne faut pas se cacher que si on décourage la pose de clims correctement installées, les clims monoblocs bricolées fleuriront partout qui sont un désastre énergétique.

Une clim bien posée, c'est un compresseur à l'extérieur, et des tuyaux (passant par un trou correctement isolé dans le mur) pour transférer un fluide caloporteur (qui peut être le même fluide réfrigérant utilisé dans le compresseur, ou bien de l'eau dans les grosses installations) vers les unités intérieures. La compresseur peut être tout à fait silencieux (le nôtre est étiqueté à 46dBA en mode clim, 50dBA en mode chauffage, en pratique c'est essentiellement inaudible depuis l'intérieur ou depuis la rue), les unités intérieures sont encore plus discrètes. Je vais revenir ci-dessous sur le souffle d'air chaud. Mais sinon, le principal problème réside dans le choix d'un endroit où poser l'unité extérieure : comme je l'ai écrit ci-dessus, nous avons installé la nôtre sur une loggia ouverte, ce qui la rend (presque) invisible depuis la rue, mais tout le monde n'a pas la chance de pouvoir faire ainsi : il va falloir décider collectivement si on préfère voir des compresseurs de clims posés en façade apparente, ou que les gens utilisent des monoblocs à travers des fenêtres entrouvertes (et/ou que le prix des logements où on ne peut pas installer de clim s'effondre).

(Bon, a priori il existe la solution « duale » où, au lieu que le compresseur soit à l'extérieur et que les unités intérieures soient de simples échangeurs, le compresseur est à l'intérieur et l'unité extérieure est un simple échangeur — il faut forcément un ventilateur pour évacuer l'air chaud, quand même. Elles sont sans doute plus adaptées lorsque l'espace en façade ne permet pas d'accrocher un gros compresseur. Mais j'ignore quelle est la bonne terminologie, ni quelle est leur existence sur le marché : malheureusement, toute tentative pour se renseigner sur les pompes à chaleur conduit à N réponses Google d'entreprises qui ne cherchent pas à vous renseigner mais à vous démontrer que leur camelote est la meilleure du monde.)

Mais le point crucial c'est surtout qu'une pompe à chaleur est par essence réversible : elle peut servir à la fois pour le chauffage ou pour le refroidissement, elle utilise une petite quantité d'énergie pour déplacer une plus grosse quantité de chaleur de l'intérieur vers l'extérieur ou vice versa. Je vais revenir sur l'aspect thermodynamique ci-dessous, mais le caractère réversible est essentiel. Il n'y a aucune différence conceptuelle théorique entre une clim et un chauffage par pompe à chaleur : il y a des différences d'ingénierie, mais dans la pratique, de nos jours, toute pompe à chaleur sérieuse peut servir dans les deux sens (même si sa conception peut chercher à privilégier l'un ou l'autre).

Or c'est un des éléments les plus importants de transition énergétique que de remplacer les chauffages traditionnels (électrique radiatif ou convectif, ou bien à combustible fossile) par des pompes à chaleur. Rappelons le fait thermodynamique basique suivant : un chauffage traditionnel, qui ne fait que dissiper de l'énergie en chaleur, est efficace « seulement » à 100% : chaque kW·h d'énergie qu'il consomme part bêtement en chaleur (il est impossible de faire moins en vertu du premier principe de la thermodynamique ; au pire, la chaleur pourrait s'enfuir de manière indésirée, par exemple si le radiateur est installé à côté d'un trou dans le mur, mais 100% de l'énergie dépensée finit forcément en chaleur, donc 100% est la plus faible efficacité possible). Une pompe à chaleur (utilisée en mode chauffage), en revanche, est efficace à nettement plus que 100%, parce qu'elle utilise l'énergie qu'elle consomme (qui va elle aussi finir en chaleur) pour prendre aussi de la chaleur de l'air froid extérieur et la transférer vers l'intérieur : on parle de coefficient de performance pour le rapport entre la puissance de chaleur émise à l'intérieur (ou dans le cas d'une clim, retirée) et la puissance (électrique) consommée (la différence étant prise à l'extérieur, puisque l'énergie totale doit être conservée, toujours d'après le premier principe de la thermodynamique). La nôtre, par exemple, a un coefficient de performance de 5 (c'est-à-dire qu'elle est efficace à 500%) en mode chauffage dans ses conditions nominales ; en pratique, comme je vais le dire plus bas, sur une longue période, d'après notre consommation électrique, ça semble plus proche de 2 ou 2.5, je ne sais pas bien, mais en tout cas c'est un gain important.

(Il faudrait insérer ici une petite digression sur le fait que le grand public est ignorant de la thermodynamique et que c'est une catastrophe vu l'importance qu'a ce sujet pour comprendre les enjeux du monde qui nous entoure et particulièrement de tout ce qui concerne l'énergie et le changement climatique. Je renvoie à ce passage d'un vieux billet, et/ou à ce fil Twitter (lisible ici sur Threadreaderapp si vous n'avez pas de compte sur TSNFKAT) qui est censé être encore plus accessible, pour les explications de base concernant la thermodynamique, mais le résumé ultra-rapide que je voudrais vraiment que tout le monde sache, c'est que ① la chaleur est une forme d'énergie et on ne peut ni créer ni détruire l'énergie, on ne peut que la déplacer ou la convertir, et ② tout mouvement de chaleur s'accompagne d'un mouvement d'une autre quantité, l'entropie, qui peut être créée et déplacée mais jamais détruite, et que plus la température d'un objet est élevée plus la quantité d'énergie sous forme de chaleur accompagnant une quantité donnée d'entropie transférée à cette objet est importante. Donc, une pompe à chaleur, utilisée en mode clim, elle veut retirer de la chaleur de la pièce, ce qui implique de lui retirer de l'entropie, mais comme l'entropie ne peut pas être détruite il va falloir l'envoyer dehors, mais comme le dehors est plus chaud que le dedans, cette même quantité d'entropie prise du dedans et envoyée dehors va demander d'envoyer une plus grande quantité de chaleur dehors que ce qu'on a pris dedans, et comme l'énergie doit aussi se conserver, la différence entre l'énergie prise dedans et cette envoyée dehors doit venir de l'électricité consommée par la clim. C'est la raison pour laquelle il faut forcément travailler pour refroidir une pièce quand il fait plus chaud dehors, et symétriquement, pour réchauffer une pièce quand il fait plus froid dehors : on ne peut pas juste magiquement déplacer la chaleur du froid vers le chaud en préservant l'énergie, il faut forcément payer en travail à cause du second principe de la thermodynamique. On peut rendre ça quantitatif : le coefficient de performance idéal — c'est-à-dire impossible à dépasser selon les règles de la thermodynamique — d'une pompe à chaleur est égal au rapport Tint/|TextTint| entre la température intérieure Tint mesurée en kelvins, c'est-à-dire 273.15K de plus que la température en degrés Celsius, et la différence |TextTint| entre les températures extérieures et intérieures. Mais bon, cette formule donne des coefficients de performance idéaux qui dépassent 15 dans presque toutes les conditions usuelles d'une pompe à chaleur, que ce soit en clim ou en chauffage, et dans la vraie vie les rendements sont bien moins bons. D'ailleurs, dans la vraie vie, je crois que la majeure partie du travail de la clim, au moins en mode clim, est d'évacuer non pas la chaleur de l'air mais la chaleur latente liée à la condensation de l'eau, parce que quand on refroidit de l'air humide une partie de la vapeur d'eau se condense et il faut évacuer l'enthalpie de cette condensation.)

En tout état de cause, le chauffage est un des principaux postes de consommation énergétique au moins domestique (pour ce qui est de l'électricité, par exemple, cf. mon billet précédent à ce sujet, la France consomme en hiver environ 1.9 GW de plus pour chaque degré de température en moins, cf. ce tweet ; la situation sur le gaz est évidemment analogue), et surtout sur lequel on a les plus grandes possibilités d'agir. Qu'il s'agisse de réduire les émissions de CO₂ (pour lesquelles évidemment il faut surtout réduire le chauffage au gaz ou, pire, au fioul) ou d'économiser l'énergie pour d'autres raisons, l'installation de pompes à chaleur est quelque chose d'éminemment souhaitables vu qu'elles permettent de gagner un facteur important (au moins 2, et peut-être jusqu'à 5 dans de bonnes conditions) sur la consommation d'énergie pour une chaleur produite égale.

Le fait que ces pompes à chaleur utiles pour économiser l'énergie de chauffage puissent également servir comme clims est un bonus qui au minimum constitue une façon d'inciter les gens à en installer, voire peut être considéré comme une adaptation au changement climatique.

Voici des chiffres à la louche concernant notre appartement (~90m² dans un immeuble des années 1990 donc pas trop mal isolé) : notre consommation électrique annuelle est d'environ 8500 kW·h par an moyennée sur l'année (soit environ 1000 W en continu). De ces 8500 kW·h, il y a environ 5400 kW·h de consommation hors pompe à chaleur (éclairage, ordinateurs, électroménager… mais surtout l'eau chaude[#]), 2500 kW·h de chauffage par pompe à chaleur, et grand maximum 600 kW·h de climatisation. (Tous ces chiffres sont vraiment à la louche, il n'y a pas d'année typique. La consommation de la pompe à chaleur est mesurée par un sous-compteur.) Combien est-ce qu'on gagne en ayant une pompe à chaleur ? Je le sais approximativement parce que nous avons été obligés de la déposer lors d'un ravalement de façade début 2022, donc nous sommes passés au chauffage électrique conventionnel pendant cette période, et on peut donc se faire une idée du rapport de consommation, c'est-à-dire le coefficient de performance en conditions réelles de notre pompe à chaleur : j'estime que si nous n'avions pas de pompe à chaleur, nous consommerions 5500 kW·h en chauffage (tout électrique) dans les mêmes conditions (au lieu de 2500 kW·h, i.e., le coefficient de performance est un peu supérieur à 2, ce qui est certes moins bon que le 5 nominal, mais ce n'est pas très étonnant).

[#] En été, l'essentiel de notre consommation électrique est celle du chauffe-eau (ceci se voit notamment au fait que nous consommons nettement plus en heures creuses qu'en heures pleines : notre chauffe-eau ne se déclenche qu'en heures creuses). Là aussi il y aurait évidemment intérêt à avoir une pompe à chaleur pour chauffer l'eau, mais celles-ci sont immensément compliquées et combinent les complexités de la plomberie à celles intrinsèques à une pompe à chaleur.

C'est-à-dire que cette pompe à chaleur (sans effort particulier de sobriété énergétique par ailleurs) nous fait économiser de l'ordre de 3000 kW·h par an sur le chauffage, dont nous redépensons au maximum 600 kW·h (environ le cinquième) en clim. Ou, si on préfère penser en termes de puissance, on a remplacé tous les convecteurs électriques de l'appartement (qui faisaient 1000 W ou 2000 W chacun) par une unique pompe à chaleur de 1400 W. Clairement on y gagne.

Et je pense que ces chiffres à la louche seront assez typiques : par rapport à un chauffage électrique traditionnel, une pompe à chaleur devrait faire gagner un facteur plus que 2 sur la consommation en chauffage, et s'en servir en clim ne reprend qu'une petite part de ce gain. Qu'on pense au niveau individuel (sur le montant de la facture d'électricité) ou au niveau collectif (sur la consommation énergétique du pays), le gain est clair : énergétiquement parlant, il y a tout intérêt à favoriser l'installation de pompes à chaleur, même si elles doivent servir de clim en été.

Une clim, en fait, ne consomme pas énormément (simplement parce que les différences de températures à combattre sont rarement énormes, en France métropolitaine, alors qu'en mode chauffage c'est une autre paire de manches : reprendre les chiffres de ce billet, notamment le graphe de la température moyenne, et comparer à une température typiquement désirable en intérieur). À peu près au moment où j'ai commencé à taper ce billet, il faisait 30°C dehors (ce qui est quand même assez rare à Paris), 24°C à l'intérieur, notre clim rejetait de l'air à 18°C dedans, à 36°C dehors, et elle consommait 340 W d'électricité pour ça (alors que nominalement elle peut monter jusqu'à 1320 W) : c'est en gros comme une ampoule halogène traditionnelle, ce n'est pas tellement plus de la gabegie énergétique que d'utiliser une telle ampoule. Je ne sais pas quelle est sa performance à ce moment précis, mais elle ne devait guère envoyer plus de 1200 W de chaleur dehors (je vais revenir sur ce point).

En outre, même dans la mesure où les clims consomment de l'énergie, elles le font surtout en été, où l'énergie a tendance à être plus abondante parce qu'il y a du solaire (et parce que, côté consommation, questions de chauffage mises à part, l'activité économique est moindre).

Même si les pics de chaleur doivent devenir plus nombreux et plus intenses à l'avenir à cause du réchauffement climatique, il y a énormément de marge, en tout cas dans un pays comme la France, avant que la clim s'approche du type de niveau de consommation que le chauffage peut atteindre : clairement on gagne à installer des pompes à chaleur, même si elles doivent aussi servir de clim.

Bon, mais si le problème de la clim n'est ni le droit intrinsèque de contrôler un peu la température qu'il fait chez soi, ni la consommation d'énergie associée, ni la gêne visuelle ou auditive, quel est-il ?

Il y a le problème de l'effet de serre causé par les fluides réfrigérants (en principe ce fluide circule en circuit fermé et ne doit pas s'échapper, et devrait être recyclé à la fin ; inévitablement, il peut y avoir des fuites ou des accidents, et je doute que le recyclage soit bien fait). Notre clim, par exemple, utilise du difluorométhane (R-32), qui a un potentiel d'effet de serre environ 700 fois supérieur au CO₂ (moyenné sur 100 ans) : comme il y en a 1.4 kg dans l'appareil, ça représente en gros l'équivalent de 1 tonne de CO₂ émis, à amortir sur la durée de vie de l'appareil (j'espère bien que celle-ci se compte en dizaines d'années !) : ce n'est pas du tout négligeable, mais ce n'est pas totalement monstrueux non plus (rien qu'avec l'électricité très largement décarbonée de la France, les ~2400 kW·h/an que nous économisons avec cette pompe à chaleur représentent ~150 kg de CO₂, donc amortissent l'effet de serre du fluide si la clim dure au moins 7 ans même s'il n'est pas recyclé à la fin et j'espère bien qu'il le sera ; si le chauffage remplacé était au gaz il n'y aurait même pas photo). Je crois que le problème de ces fluides réfrigérants se pose surtout pour les clims de voiture, qui sont bien plus malmenées, et bien moins souvent recyclées, que les clims domestiques. Mais ce problème est en tout cas en voie d'être réglé à mesure qu'on autorise des gaz qui n'ont pas ce problème de potentiel important d'effet de serre (bon, ils en ont d'autres, comme celui d'être inflammables ou irritants, mais les quantités ne sont pas grosses donc ce n'est pas forcément si grave ; les réfrigérants comme le R-32 ont eux-mêmes été introduits après qu'on avait interdit d'autres fluides, CFC, comme le dichlorodifluoromhéthane (R-12), qui détruisaient la couche d'ozone ; un jour on va bien finir par trouver un truc qui n'ait aucun inconvénient).

Bref.

Le reproche qui fait le plus sens, c'est celui de l'émission locale de chaleur (j'insiste sur le local : globalement, la chaleur produite directement par les activités humaines est complètement négligeable devant le forçage radiatif — « effet de serre » — que ces activités engendrent, et même au sein de la chaleur directement produite par les activités humaines, la clim est une partie minuscule). Il est vrai que la climatisation peut empirer les problèmes d'îlots de chaleur urbains.

Néanmoins, je pense que l'image mentale qu'on se fait de ce problème (réel) est déformée par deux fausses représentations. La première est celle des clims monobloc mobiles installées en vitesse (tuyau juste glissé dans l'embrasure d'une fenêtre) dont j'ai parlé plus haut : forcément, ces unités doivent lutter en permanence contre l'entrée d'air chaud qui accompagne la non isolation de leur sortie, elles émettent une quantité d'air chaud énorme dans un cycle futile, et c'est très désagréable quand on passe dehors : la solution, selon moi, n'est pas d'interdire les clims mais de favoriser les clims bien posées.

La seconde fausse représentation concerne le chaud émis par la clim. Je pense qu'elle vient d'une mauvaise compréhension de la thermodynamique, et spécifiquement de l'ignorance du premier principe : on a tendance à penser (ou au moins à se figurer inconsciemment) que la sortie d'air chaud de la clim est de la chaleur qu'elle rejette dans l'environnement. Mais bien sûr ce n'est pas le cas : la clim produit aussi du froid de l'autre côté, et ce froid finir forcément aussi par percoler dans l'environnement local (si le bâtiment climatisé était parfaitement isolé, le froid ne diffuserait pas, mais il n'y aurait pas besoin de clim puisque, justement, la température ne monterait pas : le fait qu'on ait besoin d'une clim est bien le signe que le chaud rentre, ou, ce qui signifie exactement la même chose, le froid sort). Évidemment si on se place juste devant la sortie d'air chaud de la clim, on reçoit la chaleur de celle-ci, mais dès qu'on considère un environnement un tout petit peu plus large, le bâtiment climatisé « rayonne du froid », si j'ose dire, justement parce qu'il est climatisé. La différence entre chaleur sortant de la sortie d'air chaud de la clim et le froid sortant du bâtiment climatisé, c'est le travail fourni par la clim : c'est ce que dit le premier principe de la thermodynamique — on ne peut ni créer ni détruire l'énergie, juste la déplacer ou la convertir.

Autrement dit, oui les clims émettent bien de la chaleur, mais la chaleur qu'elles émettent (à moins de considérer un environnement extrêmement local, l'environnement immédiat de la sortie d'air de la clim), ce n'est pas la chaleur libérée en sortie d'air chaud, c'est la consommation énergétique de la clim, et j'ai expliqué assez longuement qu'elle n'est pas énorme. Dans mon exemple numérique ci-dessus, si ma clim consomme 300 W électrique, et envoie disons 1200 W de chaleur à l'extérieur dont 900 W ont été pris à l'intérieur, le bilan net sur le pâté de maison est de 300 W, pas de 1200 W : c'est de l'ordre de grandeur d'une ampoule halogène traditionnelle, pas d'un four, et l'effet est en gros le même qu'un voisin qui allume une telle ampoule — pas nul, mais pas démesuré non plus.

Concernant les sorties d'air chaud, bien sûr qu'il vaudrait mieux les situer à des endroits où la chaleur va se dissiper le mieux possible, par exemple j'imagine sur les toits des immeubles. Raison pour laquelle il vaut mieux prévoir des immeubles avec clim dès la conception, mais bon, il faut bien faire avec le bâti existant (encore une fois, on ne va pas tout raser, ni réserver la clim à ceux qui peuvent se payer un logement neuf). Au demeurant, je ne vois pas pourquoi les sorties d'air seraient plus un problème en chaud (lorsque la pompe à chaleur sert à refroidir) qu'en froid (lorsque la pompe à chaleur sert à chauffer), et j'ai rarement entendu des plaintes au sujet des sorties d'air froid des pompes à chaleur (ce qui me conforte dans l'idée que ce sont surtout les monoblocs mobiles utilisés en clim de fortune qui sont problématiques).

C'est bien sûr encore mieux si on peut avoir des canalisation d'eau chaude ou froide servant à déplacer la chaleur en grandes quantités en-dehors des villes, et il y a ça dans une certaine mesure à Paris, mais pour toutes sortes de raisons pratiques le raccordement à ces réseaux des domiciles individuels, pour ne pas parler de ceux qui existent déjà, est très problématique, et encore une fois je pense que ce n'est pas tenable de dire aux gens de souffrir en silence s'il fait 45°C dehors sous prétexte que le raccord de leur domicile au réseau de froid n'est pas réalisable.

Au demeurant, la clim me semble surtout importante la nuit : il n'est pas agréable de supporter des températures élevées pendant la journée, mais il est encore plus important de pouvoir dormir dans un environnement raisonnablement frais (et d'emmagasiner un peu de frais pour la journée qui va suivre) lorsque les températures minimales sont elles-mêmes élevées : dans ces conditions, rejeter de l'air chaud dehors (la nuit, donc) n'est pas si grave.

Pour conclure, je pense qu'il est à la fois indéniable et inévitable que la climatisation fera à l'avenir partie des équipements considérés comme essentiels à la salubrité d'un logement, au même titre que l'électricité, l'eau courante ou un accès à Internet : on peut s'en lamenter mais elle constitue une adaptation indispensable face au changement climatique en même temps qu'un moyen de réduire notre consommation énergétique, et concernant ses nuisances il sera plus productif de chercher à définir des conditions permettant de les minimiser (modes d'installation collective, règles de bonne conduite sur la pose, la sortie d'air chaud, la température de consigne, les heures d'utilisation, etc.) plutôt que de vouloir culpabiliser ou interdire, ce qui ne fera que multiplier les installations sauvages qui auront tous les inconvénients en pire et ne permettront même pas de réaliser les gains en chauffage.

↑Entry #2760 [older| permalink|newer] / ↑Entrée #2760 [précédente| permalien|suivante] ↑

↓Entry #2759 [older| permalink|newer] / ↓Entrée #2759 [précédente| permalien|suivante] ↓

(mercredi)

Les derniers jours de Versailles d'Alexandre Maral et Sept Jours d'Emmanuel de Waresquiel

J'ai fini il y a quelques semaines déjà de lire le premier livre nommé dans le titre de ce billet, mais j'étais trop occupé à ranter sur plein d'autres sujets pour en parler (la manière dont je rédige ce blog rend difficile la rédaction de plusieurs entrées en parallèle, et c'est d'ailleurs un problème avec l'inflation de taille — et donc de temps pour les rédiger — que je n'arrive pas à contrôler).

☞ Les Derniers Jours de Versailles

Les derniers jours de Versailles d'Alexandre Maral (2018, édition revue et augmentée 2022) est un livre qui expose, de façon assez scrupuleusement chronologique, le déroulement de la première année de la Révolution française, dans la ville de Versailles. Autrement dit, il commence le et suit le déroulement des grandes journées de la première phase de la Révolution, et des moins grandes journées entre elles, jusqu'au départ de Louis XVI (le ), puis de l'Assemblée nationale, pour Paris. À de petites exceptions près (parce qu'on ne peut pas complètement s'épargner d'évoquer au moins allusivement ce qui s'est passé ailleurs), l'auteur s'impose cette unité de lieu : Versailles, et uniquement Versailles. Et à part brièvement dans un prologue pour rappeler le contexte, et tout aussi brièvement dans le chapitre final pour évoquer le devenir du château lors de la suite de la Révolution et la vision rétrospective du roi dans l'épilogue, il se tient aussi à cette unité de temps : 1789, et uniquement 1789. En outre, l'auteur s'interdit la prolepse : les événement nous sont narrés tels que vécus au moment où ils se sont déroulés, du moins autant que l'historien peut les reconstituer, mais sans la perspective du recul temporel : l'idée est de restituer, autant que possible, l'enchaînement serré des événements à la lumière de la perception qu'en ont eue les habitants du lieu — souverains, courtisans, députés, citadins. Comme l'explique Maral dans l'introduction de ses Derniers jours de Versailles :

Pour l'historien aujourd'hui, qui connaît la suite de l'histoire, les événements de 1789 ont un sens que leurs contemporains, surtout à Versailles, ont été loin de pouvoir comprendre. En outre, déconcertés par l'enchevêtrement des faits, des questions, des enjeux, ils ont été, dans bien des cas, incapables de développer une analyse critique et d'opérer un tri susceptibles de fonder une conduite rationnelle. Pour autant, sans recul, partielle et partiale, cette vision déformée est dans une certaine mesure plus authentique que la relation faite a posteriori par l'historien. Elle seule permet de comprendre le déroulement de certains faits qui nous surprennent aujourd'hui, comme la séance royale du  […].

La table des matières donnera une idée du contenu :

  • Introduction. C'est donc une révolte ?
  • Prologue. La révolution royale
  • I. Jeudi , la cérémonie de l'ordre du Saint-Esprit
  • II. La France vue de Versailles
  • III. La préparation des états généraux
  • IV. Lundi , la procession d'ouverture des états généraux
  • V. Mardi , la première séance
  • VI. Les états généraux en marche vers l'Assemblée nationale
  • VII. Mercredi , la fin de la monarchie absolue
  • VIII. Samedi , le serment du Jeu de paume
  • IX. Mardi , la séance royale
  • X. Mardi , la prise de la Bastille
  • XI. Mardi , l'abolition des privilèges
  • XII. L'été indien de la monarchie
  • XIII. Mercredi , la Déclaration des droits de l'homme et du citoyen
  • XIV. Les grands débats de septembre
  • XV. Jeudi , le banquet de l'opéra
  • XVI. Lundi , Versailles assiégé
  • XVII. Mardi , le dernier jour de Versailles
  • XVIII. L'Assemblée sans le roi
  • XIX. Tâchez de me sauver mon pauvre Versailles
  • Épilogue. L'année sans pareille
  • Références
  • Index

Alexandre Maral est conservateur général et directeur du centre de recherches du château de Versailles.

☞ Sept Jours

En même temps, il est impossible de parler du livre de Maral sans évoquer aussi, tant leur sujet est proche, celui d'Emmanuel de Waresquiel, Sept Jours (2020), consacré aux journées du  au  et sous-titré La France entre en révolution, que j'ai lu il y a deux ans (et que je n'ai pas relu, seulement rapidement reparcouru, pour écrire ce billet, donc mon souvenir n'est pas forcément exact). Ces deux livres, qui livrent une perspective toute différente, sont complémentaires. La période de temps ciblée par Waresquiel, qui va de la constitution de l'Assemblée nationale jusqu'à la « séance royale » le mardi suivant, est encore plus étroite (une semaine !) que celle que choisit Maral, mais c'est une étroitesse en trompe-l'œil, car le propos de Waresquiel n'est pas de suivre l'ordre chronologique et de rester enfermé dans une unité de temps et de lieu, mais plutôt d'utiliser cette période qu'il considère comme cruciale de la Révolution pour livrer une perspective plus large. Waresquiel écrit dans l'avant-propos de ses Sept Jours :

On l'aura compris, il y a dans ce livre plusieurs scènes. Je ne reste pas à Paris et à Versailles. Je ne me cantonne pas non plus aux sept « premiers » jours de la Révolution. Je regarde en arrière et parfois en avant. Je me promène à travers la France : celle des émeutes parlementaires de juillet 1789, des élections de mars et d'avril 1789, celle des sociétés de pensée, des journaux, des pamphlets et de l'opinion — ce que Jürgen Habermas appelle l'espace public du politique, qui à cette époque arrive à maturité.

Je ne recopie pas la table des matières du livre de Waresquiel parce que c'est un peu long : 82 brefs chapitres, regroupés en trois grandes parties, Le roi ou la nation ?, Nous le jurons et Échec et mat ; mais disons qu'ils sont plus thématiques que strictement chronologiques (exemple de titre de chapitre : Violences électorales — il y parle du climat de peur dans lequel se sont déroulées les élections d'avril 1789). Waresquiel est chercheur à École pratique des hautes études.

☞ Différence d'approche

Disons aussi que Waresquiel s'adresse clairement au grand public (dont je fais partie : ce n'est pas un reproche) : au public féru d'histoire, sans doute, mais probablement pas aux historiens de métier : il écrit comme quelqu'un qui cherche un succès d'édition, donc à captiver son lectorat, et n'hésite pas à livrer sa vision et ses réflexions personnelles ou à jouer de la rhétorique (autre exemple de titre de chapitre : Élections, piège à cons) ; tandis que le livre de Maral semble plus académique, et peut-être même un peu froid par moments : il s'adresse aussi au grand public, bien sûr (ce n'est pas un ouvrage de recherche stricto sensu, comme en témoigne le fait que les références ne sont pas collectées dans des notes en bas de page), mais il garde un style dans lequel je crois reconnaître celui de l'historien habitué aux publications de recherche plus qu'aux éditions grand public (là non plus ce n'est pas un reproche : j'ai aussi l'habitude de lire les publications académiques, et quoique certainement moins souvent en histoire qu'en maths, ça m'arrive).

J'ai beaucoup aimé ces deux livres, même si celui de Waresquiel m'a semblé peut-être plus désordonné si bien que j'ai préféré celui de Maral (mais le problème est peut-être simplement qu'il eût mieux valu les lire dans l'autre ordre, celui de Maral donnant un aperçu solide et précis des faits dans leur contexte chronologique avant de passer à la mise en perspective commentée fournie par le livre de Waresquiel).

(Je vais tenter de restituer dans ce qui suit certaines des informations que j'ai retenues de ces deux livres, surtout pour la partie qu'ils traitent en commun. J'avertis néanmoins que je n'ai pas revérifié chaque information que je donne généralement de mémoire après ma lecture, et qu'il est par ailleurs possible soit que ma compréhension ait été mauvaise soit que ma reformulation ait déformé : donc même en admettant que les livres que je décris soient un reflet parfait de la réalité historique, ce qui suit n'en est sans doute pas un — c'est juste censé être un reflet de ce que j'ai retenu et de ce qui m'a intéressé.)

☞ Sur le caractère de Louis XVI

Même s'ils ne se contredisent pas, l'impression qui résulte (ou du moins, qui en a résulté sur mon esprit) de ces deux livres peut être assez différente, et complémentaire. Par exemple, pour ce qui est du tempérament de Louis XVI, Waresquiel consacre un certain nombre de pages à réfuter la description qui est souvent faite du roi comme bon mais faible et indécis, parfois même décrit comme imbécile : il (Waresquiel) note au contraire qu'il (Louis XVI) était précis et pointilleux, renfermé et amateur de solitude (qu'il trouvait notamment à la chasse), méfiant et parfois brusque, sûr de son pouvoir ; que la bonté dont on parle à son sujet peut être une projection de ses contemporains (reflet de sa popularité) ou un terme que nous comprenons de travers ; qu'il a bien su, auparavant, prendre des décisions importantes (comme renvoyer les ministres hérités de son grand-père, financer la guerre d'indépendance américaine ou abolir le servage) quand il se sentait bien conseillé, mais qu'entouré de ministres pour qui il n'a que peu de sympathie (Necker), face à des problèmes qu'il comprend mal (les finances), incapable de penser autrement qu'au travers le système absolutiste qu'il a hérité de ses prédécesseurs, ne supportant pas la contradiction, et se sentant peut-être puni par le ciel (la maladie puis la mort de son fils), il a été comme paralysé devant la crise. Maral, lui, ne cherche pas à livrer une analyse du caractère du roi, donc c'est plutôt au lecteur de la trouver dans les faits exposés ; mais Louis XVI apparaît comme plutôt animé de bonne volonté et persuadé de celle de la majorité de ses sujets, mais à la fois difficile d'accès et dépassé par les événements. Toutes ces choses peuvent être vraies à la fois : de toute façon, il est difficile de saisir ou décrire brièvement une personnalité, qui a toujours de nombreuses facettes plus ou moins difficiles à relier, même quand nous en sommes proches et familiers, et à plus forte raison celle d'un homme que nous séparent à la fois deux siècles et une position hautement ritualisée : l'historien ne peut que sélectionner ce qu'il choisit de souligner, et le lecteur ne retient lui-même qu'une partie de ce qu'on lui montre. On peut aussi mentionner que Louis XVI était gauche, d'une gaucherie renforcée par son embonpoint ou par le fait qu'il ne portait pas de lunettes alors qu'il en avait besoin (au moins pour lire) ; mais il devait aussi avoir un côté facétieux : il aimait se promener sur les toits de Versailles, et a failli perdre la vie, en mars 1789, en tombant d'une échelle où il s'était amusé à monter lors d'une telle promenade. Comme ses prédécesseurs, il aime énormément la chasse (quand il est contrarié de ne pas pouvoir y aller, il note dans son journal le cerf chassait) : il est possible qu'il ait choisi Versailles (avec toutes les conséquences de la proximité de Paris) pour les états généraux entre autres de manière à pouvoir continuer ses parties de chasse habituelles. Il paraît aussi immensément populaire au sens où même quand on lui retire son pouvoir par petits morceaux, ou qu'on envahit son palais, tout le monde passe son temps à crier vive le roi ! — il est difficile pour moi de comprendre dans quelle mesure c'était sincère ou une expression presque figée, mais en tout cas il semble que ses sujets l'imaginaient plus facilement mal conseillé que malveillant.

☞ La vision romancée de l'Histoire

Les deux livres viennent corriger, ou au moins préciser, la vision de la Révolution française qui m'a été présentée à l'école quand j'étais petit, mais aussi dans la fresque télévisée d'Enrico et Heffron dont j'ai déjà parlé ici et dont j'ai déjà dit qu'elle avait fixé dans ma tête les traits de Louis XVI à ceux du personnage joué par Jean-François Balmer. (J'ai vu d'autres fictions ou documentaires sur la période, bien sûr. Et j'ai certainement lu un certain nombre d'autres choses depuis, au moins des pages Wikipédia — qui sont elles-mêmes de qualité assez variable d'un sujet à l'autre ou d'une phrase à l'autre dans la même page — mais ça n'a pas forcément autant marqué mon esprit.) Forcément, une présentation scolaire ou télévisuelle va simplifier les choses et, en simplifiant, va grossir le trait : dans la série de 1989, si Louis XVI garde une certaine complexité, beaucoup d'autres choses ou personnages sont réduit au point d'en perdre toute profondeur : Necker est présenté comme le ministre intègre sans ambition personnelle et qui a tout compris, et les députés du tiers-état agissent comme un seul homme (en l'espèce, Mirabeau, incarné par Peter Ustinov). Et la séance royale du , dans cette fiction, voit Louis XVI venir juste dire je déclare nulles et inconstitutionnelles les décisions de la prétendue Assemblée nationale qui s'est réunie malgré mes ordres ; je suis l'unique garant du bien de mon peuple, et si vous m'abandonnez dans une si belle entreprise, alors c'est vous qui serez abandonnés, et pas moi ! je vous ordonne de vous disperser sur-le-champ et de vous rendre demain matin dans les chambres affectées à vos ordres respectifs pour y reprendre vos séances — ce n'est qu'un prétexte pour représenter l'affrontement verbal qui n'est que trop connu (et dont les deux livres que je décris ici consacrent un certain temps à analyser l'historicité) entre Dreux-Brézé et Mirabeau (la légende fait dire à ce dernier nous sommes ici par la volonté du peuple et nous n'en sortirons que par la force des baïonnettes, et dans la série il le dit sous les applaudissements). La vérité est bien plus complexe, évidemment : Necker était lui aussi un homme complexe, ambitieux et soucieux de son image et de sa popularité (et qui a tenu à écrire sa propre version des choses après les faits, laquelle n'est pas forcément conforme à la réalité) ; les députés du tiers-état se disputaient tout le temps sur tout ; et la séance royale a vu Louis XVI proposer d'authentiques concessions, même si elles étaient trop tardives, trop hésitantes et très en-deçà de ce que les députés du tiers réclamaient, mélangées à une tentative de fermeté ; et Mirabeau n'a sans doute pas parlé du peuple dans son adresse à Dreux-Brézé (peut-être plutôt de vœu de la nation) et peut-être pas non plus de baïonnettes (mais de force matérielle ?), et d'ailleurs tout le monde n'était pas content qu'il prenne ainsi la parole, au nom d'une assemblée dont il n'était pas le président, et en utilisant des termes inutilement discourtois.

C'est peut-être le principal problème des représentations que nous voulons nous construire de l'Histoire, parce que nous aimons que les choses aient un sens clair, parce que nous aimons les fictions où les personnages tiennent leur rôle et où les scénaristes savent où ils vont : que d'oublier que, dans la réalité, les gens hésitent et changent d'avis, les événements sont brouillons et naissent au moins aussi souvent de malentendus et de hasards que de confrontations, et que ces dernières aboutissent parfois à des compromis boiteux et confus et pas toujours des victoires claires. Nous oublions aussi combien les gens ont du mal à se comprendre les uns les autres, tant leurs modes de pensée ou leur éducation peuvent différer. Je ne suis pas historien, mais j'ai suffisamment vécu et observé l'actualité pour savoir combien la réalité fait un mauvais film et combien les humains sont mauvais pour communiquer, et il n'y a aucune raison de croire que ç'aurait été différent il y a 234 ans ou 1000. Le livre de Maral, sans être lui-même mal écrit, rend très bien le caractère « mal écrit » de l'Histoire.

☞ Difficulté à communiquer

L'année 1789 à Versailles est intéressante en ce qu'elle concentre tous les malentendus. Il y avait d'énormes attentes autour de la convocation des états généraux (qui n'avaient pas été réunis depuis 175 ans), mais tout le monde attendait quelque chose de différent (le roi, Necker, les députés de chaque ordre et au sein de chaque ordre, le peuple…) et ces incompréhensions ont éclaté au grand jour. Les députés (et pas seulement ceux du tiers-état) ne comprennent pas ce monde étrange qu'est la cour de Versailles, avec ses codes archaïques et incompréhensibles, ses querelles de préséance, ses intrigues et ses jeux de pouvoir, dans lequel Louis XVI est enfermé.

Il y a par exemple cette scène surréaliste, le , où Bailly, qui est alors doyen des communes — c'est-à-dire de la chambre du tiers-état — et pas encore président de l'Assemblée nationale, cherche à rencontrer le roi pour savoir quand celui-ci pourra recevoir une députation, et qui montre bien la difficulté à s'adresser à lui : Bailly va d'abord voir Necker pour lui demander conseil, ils vont ensemble au palais, Necker voit le roi et revient avec la réponse que Louis XVI veut bien recevoir Bailly, mais à condition de passer par le ministre en charge des états généraux, c'est-à-dire le garde des sceaux[#] Barentin ; Bailly va donc trouver Barentin chez lui, mais Barentin est sorti dîner, et il rentre tard, et quand quand Bailly et Barentin vont ensemble au palais, cette fois c'est le roi qui est parti (à Meudon, pour voir le dauphin qui est mourant). À un autre moment (je ne retrouve plus le passage), Bailly, qu'on devine un peu excédé, demande s'il n'y a pas moyen qu'il puisse voir le roi à tout moment et sans passer par le ministre (surtout que Barentin justement est fort mal disposé à son égard) : on lui répond que (dans le langage de l'étiquette de la cour, qui remonte à Louis XIV), avoir accès au roi à tout moment cela s'appelle les entrées familières, et qu'il n'y a que je ne sais plus qui (la gouvernante des enfants de France ?) qui a eu les entrées familières au cours des dernières décennies. On repense au film Ridicule (que je recommande vivement au passage), dont le cœur de l'intrigue est, justement, la difficulté d'accéder au roi.

[#] Ajout () : Barentin est qualifié de garde des sceaux dans le livre de Maral (où il joue un rôle important), et de chancelier dans celui de Waresquiel (où il apparaît assez peu). Il me semble que c'est Maral qui a raison : Wikipédia (qui n'a pas toujours raison, mais en l'occurrence n'a probablement pas inventé ce truc, et d'ailleurs je l'ai aussi lu ailleurs) explique que le chancelier était nommé à vie : si le roi voulait confier les sceaux (et le ministère de la justice) à quelqu'un d'autre, ce quelqu'un d'autre était nommé garde des sceaux. (Bon, on peut légitimement se poser la question de pourquoi cette règle visiblement pénible était maintenue, mais c'est une autre question.) Or le chancelier, en 1789, devait encore être Maupeou, nommé en 1768 par Louis XV (et qui avait à la fin du règne de ce dernier mené un « coup » contre les parlements, parlements que Louis XVI avaient ensuite restaurés dans leurs prérogatives, ce qui est possiblement une cause de la convocation des états généraux).

↑Entry #2759 [older| permalink|newer] / ↑Entrée #2759 [précédente| permalien|suivante] ↑

↓Entry #2758 [older| permalink|newer] / ↓Entrée #2758 [précédente| permalien|suivante] ↓

(vendredi)

Parlons de Paris-Saclay et de son « campus urbain »

Cela fait maintenant presque quatre ans que l'école où je travaille a déménagé pour s'installer au milieu de nulle part, à Palaiseau, sur le plateau de Saclay, j'ai un petit peu parlé de ce déménagement (et surtout du fait que, quand nous y sommes arrivés, c'était dans un bâtiment à moitié fini au milieu d'un vaste champ de boue), mais je devrais parler plus largement de « Paris-Saclay » de ce que sont les différents projets et entités qui ont ce nom, et de pourquoi le « campus urbain » est un échec à plus d'un titre.

Avertissement préalable : Il va de soi que tout ce que je raconte dans ce billet (et plus généralement dans ce blog) représente mon avis personnel exprimé à titre individuel et privé, et ne traduit rien sur les positions de mon employeur (Télécom Paris). Par exemple si je dois dire que déménager de Paris à Palaiseau était une invraisemblable connerie, c'est mon avis à moi, et je ne m'exprime pas au nom de Télécom Paris, ni de l'Institut Polytechnique de Paris, ni de l'établissement public d'aménagement Paris-Saclay, ni du Gouvernement français, ni de qui que ce soit d'autre que ma pomme. Au fait, si vous faites partie des gens qui ont besoin de ce genre d'avertissement, il vous est interdit de lire au-delà ce ce paragraphe. Lisez plutôt ceci : Paris-Saclay est un merveilleux incubateur à idées, un écosystème d'innovations sans pareil dans le monde, et je suis reconnaissant envers les gouvernement successifs qui ont porté ce projet d'avoir impulsé cette dynamique de synergies et de m'avoir donné la chance d'y travailler.

Méta : Comme souvent quand je me donne un sujet pas très bien délimité au départ, je suis parti un peu dans tous les sens. J'espère que le plan qui suit permet quand même de s'y repérer dans ce billet, et qu'il n'est pas aussi confus que la complexité administrative du sujet que j'aborde. Mais parlant de plans :

Note au sujet des cartes : Dans ce qui suit, je vais régulièrement faire référence à des emplacements géographiques en utilisant les mots ici sur la carte et un lien : à chaque fois, il s'agit d'un lien vers OpenStreetMap où j'ai placé un marqueur à l'endroit dont je parle (endroit approximatif quand il s'agit d'une zone : j'ai alors cherché à mettre le marqueur à peu près au milieu de la zone, ou sur un endroit particulièrement important, pas toujours avec succès). Comme je ne sais pas faire de carte synthétique, j'encourage à suivre ces liens si on veut espérer suivre de quoi je parle et qu'on ne connaît pas la déjà géographie du lieu. (À toutes fins utiles, je rappelle que les liens sur ce blog ne s'ouvrent pas dans un onglet séparé, donc utilisez le clic du milieu si vous voulez éviter de toujours faire des allers-retours.) • D'autre part, j'ai fait le choix de positionner le marqueur toujours sur la même carte zoomée de la même manière (enfin, il y en a deux, une première quand je parle du plateau de Saclay dans son ensemble, et une deuxième quand je parle du « campus urbain »). Comme l'étendue de la carte montrée par OpenStreetMap dépend de la taille et résolution de la fenêtre de votre navigateur, il se peut que vous deviez dézoomer pour trouver le marqueur sur lequel j'attire l'attention : ce n'est pas idéal, mais je préfère ça plutôt que de choisir un niveau de zoom ou un centrage différents à chaque fois, ou un zoom très large pour tous, qui ferait qu'on n'y verrait rien ; d'ailleurs, le fait de devoir dézoomer pour trouver certains marqueurs permettra de prendre conscience qu'ils sont en-dehors du cœur de la zone dont je parle.

Table des matières

Le plateau de Saclay : un peu de géographie et d'histoire

Situation géographique

Commençons par la situation géographique, parce que ça c'est facile. Voyez ici sur OpenStreetMap, ici sur Google Maps et ici et là sur GéoPortail pour des cartes — en principe toutes les quatre à la même échelle — permettant de suivre ce que je vais raconter. C'est la première (carte OpenStreetMap) sur laquelle je vais ajouter des marqueurs montrant des emplacements précis dans ce qui suit (cf. la note au sujet des cartes plus haut).

Le plateau de Saclay, donc, c'est une étendue géographique de grosso modo 11km (d'ouest en est) par 6km (du nord au sud) centrée à peu près autour de la commune de Saclay et située à 19km de Paris dans la direction du sud-ouest (pile-poil) et 8km au sud de Versailles, et faisant partie de l'ensemble plus vaste du Hurepoix. Comme son nom l'indique, c'est un plateau : au nord-est il est limité par la vallée de la Bièvre (le long de laquelle est construite une branche de la ligne C du RER par Bièvres et Jouy-en-Josas, ici sur la carte) ; au sud, il est limité par la vallée de l'Yvette, dite vallée de Chevreuse (le long de laquelle est construite une branche de la ligne B du RER, par Orsay ici sur la carte et Gif-sur-Yvette) ; au sud-ouest, le plateau de Saclay est limité par la vallée de la Mérantaise, un affluent rive gauche de l'Yvette (toutes ces rivières coulent d'ouest vers l'est, donc on parle ici de la rive droite de la Bièvre et gauche de l'Yvette+Mérantaise). La limite nord-ouest n'est pas claire, ou est arbitraire, parce que les sources de la Bièvre et de la Mérantaise sont justement dans le coin ; du point de vue physique on ne rencontre pas de vallée en allant jusqu'à l'agglomération de Saint-Quentin-en-Yvelines : il peut être raisonnable de fixer la limite à la route départementale 938 (qui relie Châteaufort à Buc, ici sur la carte) ou, plus loin, à la route départementale 91 (qui relie Voisins-le-Bretonneux à Satory, ici sur la carte, dézoomez si nécessaire) de manière à inclure aussi l'aérodrome de Toussus-le-Noble et le Technocentre Renault de Guyancourt. Mais de toute façon, je vais essentiellement parler de la partie sud du plateau de Saclay (le campus urbain évoqué plus bas se situe autour d'ici sur la carte).

Si je faisais correctement mon travail, je dirais quelque chose sur la géologie, mais j'avoue être complètement nul en géologie, et quand je lis des termes comme des formations superficielles plio-quaternaires aux marnes supragypseuses de l'éocène supérieur, mes yeux partent dans le vague. Notons quand même que la couche la plus importante, les sables de Fontainebleau (oligocène inférieur) explique la présence d'anciennes carrières de grès en plusieurs points de la vallée de Chevreuse, dont celle de la Troche (ici sur la carte) au bord du plateau de Saclay et d'ailleurs sur le chemin entre la gare du Guichet et mon bureau.

Les communes situées au moins partiellement sur le plateau de Saclay sont (en tournant grosso modo en spirale à partir de Saclay) : Saclay, Bièvres, Vauhallan, Igny, Palaiseau, Orsay, Gif-sur-Yvette, Saint-Aubin, Villiers-le-Bâcle, Toussus-le-Noble, Buc, les Loges-en-Josas et Jouy-en-Josas ; celles-ci se répartissent entre deux départements, l'Essonne (91) pour la plupart, et les Yvelines (78) pour les autres.

Deux routes importantes traversent le plateau : la quasi-autoroute qu'est la nationale 118, du nord-est au sud, et la départementale 36 d'ouest en est ; ces deux routes se coupent, ainsi que plusieurs autres, en un grand carrefour routier, un peu à l'ouest du centre-bourg de Saclay, ici sur la carte, appelé Christ de Saclay en raison d'une statue visible ici sur Google Street View, et qui sert de direction sur les panneaux routiers. (Le carrefour en question est ancien puisqu'il apparaît déjà sur l'atlas de Cassini vers 1770 : voici sur Géoportail. Il a été complètement réaménagé en 2020 pour transformer un giratoire en de multiples intersections à feux.) J'ai utilisé ce Christ de Saclay comme centre des cartes du plateau de Saclay que je lie ci-dessus et ci-dessous.

Histoire ancienne et curiosités

Je ne sais pas depuis quand le plateau est déboisé (le haut Moyen-Âge ?), mais il est depuis longtemps d'utilisation agricole : ce sont des terres très fertiles, et un certain nombre de grandes fermes associent leur nom à la toponymie et se laissent ainsi retenir même lorsqu'elles ne sont plus actives : fermes de Villebois, de la Vauve, du Moulon, d'Orsigny, du Trou Salé, de Villeras, de Favreuse pour citer les principales. La ferme de Viltain (au nord du plateau, à Jouy-en-Josas, ici sur la carte) est non seulement encore en activité, c'est un gros élevage de vaches laitières, ils ont ouvert un point de vente directe au public (de leurs produits et de produits locaux) et proposent aussi des activités de cueillette selon la saison. Parmi les autres curiosités historiques, on peut citer au moins deux petits châteaux : celui de Corbeville (ici sur la carte) et celui de la Martinière (ici sur la carte ; à ne pas confondre avec un autre château de la Martinière, pas loin de là mais hors du plateau — oui, c'est confusant), et une abbaye bénédictine féminine pas du tout ancienne, l'abbaye du Limon à Vauhallan (ici sur la carte). Il y a aussi des fortifications militaires construites après la défaite de 1870 dont il ne reste pas grand-chose mais quand même au moins une batterie à la pointe sud-est du plateau (ici sur la carte) qui a l'air de servir de lieu d'urbex ; cependant, ces fortifications du XIXe peuvent expliquer le choix d'emplacements pour installer certains organismes, notamment le centre d'essai propulseurs de la DGA là où était le fort de Villeras (ici sur la carte), et l'ONERA là où était le fort de Palaiseau (ici sur la carte), je vais en reparler. Sinon, ce n'est pas de l'histoire mais c'est une curiosité du coin que je ne sais pas où signaler, on peut mentionner le nouveau radôme de l'aviation civile, ici sur la carte, qui est par conception le bâtiment le plus élevé à la ronde, et du coup on le voit de loin (ajout  : comme on me le signale en commentaire, on le voit ici sur Google Street View) ; à ne pas confondre avec l'ancien radôme, qui est un petit peu plus à l'est (ici sur la carte et ici sur Google Street View).

Mais ce qui caractérise surtout ce plateau depuis le XVIIe, c'est l'aménagement que l'ingénieur Thomas Gobert lui a imposé, à la demande de Colbert, dans les années 1680 : de manière à alimenter en eau les jardins de Versailles, Gobert conçoit tout un système de rigoles, d'aqueducs et d'étangs destinés à collecter l'eau du plateau et l'amener à Versailles. Pour ceux qui veulent en savoir plus sur ce sujet, et sur l'alimentation en eau des jardins de Versailles plus généralement, je recommande l'excellent dossier (bref mais étonnamment complet) écrit sur ce sujet en 2006 par un conseiller municipal de Saclay : Le système hydraulique du plateau de Saclay par Serge Fiorese. Pour résumer, cependant, diverses rigoles collectaient l'eau qui ruisselle sur le plateau et l'acheminaient dans deux lacs adjacents (l'un est, si je comprends bien, naturel quoi qu'il ait été aménagé, et l'autre est artificiel), les étangs de Saclay, tout juste au nord du Christ de Saclay (ici sur la carte, ici sur Google Street View, séparés par une digue qui supporte maintenant la départementale 446) ; cette eau était ensuite amenée, par un système d'aqueducs souterrains (ligne des puits, aqueduc de Saclay, aqueduc des Gonards) mais aussi un magnifique aqueduc aérien (les arcades de Buc, ici sur la carte, dézoomez si nécessaire, et ici sur Google Street View, qui enjambent la vallée de la Bièvre) en direction de Versailles. L'aménagement par l'homme de ce plateau ne date donc pas d'hier. (Tout ce système a cessé d'être actif : l'eau est maintenant détournée vers la Bièvre, et si les étangs de Saclay existent toujours et servent de réserve ornithologique, plusieurs des autres lacs artificiels créés par l'œuvre de Gobert ont été réduits, modifiés ou complètement asséchés comme l'étang du Trou Salé. Il reste que la rue qui passe juste en bas de mon bureau s'appelle boulevard Thomas Gobert en l'honneur de ce Monsieur.)

Ajout () : On me fait remarquer que l'étang du Trou Salé et les arcades de Buc, entre autres endroits plutôt au nord du plateau de Saclay (ainsi qu'un laboratoire scientifique aux desseins maléfiques), apparaissent, avec des illustrations éminemment précises, dans un album (S.O.S Météores) de la série Blake & Mortimer d'Edgar P. Jacobs : voir cette petite enquête pour une comparaison dessins/réalité.

Mais ce n'est pas de ce passé lointain, tout passionnant qu'il est, que je veux parler ici, mais de l'aménagement du plateau de Saclay au XXe siècle, et notamment l'installation d'établissements scientifiques.

L'histoire scientifique : première phase (1950–1976)

Cette phase de l'histoire du plateau de Saclay remonte au tout début des années 1950. Le CEA (créé en 1945 et dirigé scientifiquement par Frédéric Jolliot-Curie) déménage dès 1951 dans ce qui est maintenant son plus grand centre de recherche, à l'ouest du Christ de Saclay (ici sur la carte ; il est à cheval sur les communes de Saclay, Saint-Aubin et Villiers-le-Bâcle) : c'est notamment là que sera construit le premier réacteur nucléaire français à eau lourde en 1952, et un accélérateur de particules. À peu près au même moment, la DGA choisit les terrains du fort de Villeras adjacent aux étangs de Saclay pour installer son centre d'essais des moteurs et hélices (ultérieurement renommé en centre d'essai propulseurs, ici sur la carte), et l'ONERA les terrains du fort de Palaiseau (ici sur la carte) pour son laboratoire des bancs d'essai. En parallèle, le CNRS (lui aussi dirigé par Frédéric Jolliot-Curie) a racheté en 1946 le château de Button à Gif-sur-Yvette (dans la vallée de l'Yvette, ici sur la carte) et a commencé à installer des laboratoires dans ce domaine au cours des années 1950. Et à peu près au même moment, complètement de l'autre côté du plateau, dans la vallée de la Bièvre, l'INRA installe un centre de recherches à Jouy-en-Josas dans le domaine du château de Vilvert (ici sur la carte).

Mais le tournant majeur de ce qu'on peut qualifier de campus scientifique vient avec l'implantation de la Faculté des Sciences d'Orsay (qui deviendra ultérieurement une des UFR de l'Université de Paris-Sud XI, maintenant dissoute dans l'Université Paris-Saclay) : le terrain est choisi en 1954 par l'achat du domaine de Launay (ici sur la carte le château du domaine), au départ pour y installer de seuls laboratoires (cyclotron de l'équipe de Frédéric Jolliot-Curie — toujours lui ! — et accélérateur linéaire de l'équipe d'Yves Rocard), mais dès la fin des années 1950, le manque de place à Paris amène à installer aussi des enseignements à Orsay, et le campus se développe substantiellement au cours des années 1960, principalement dans la vallée (sur les communes d'Orsay et Bures-sur-Yvette) mais avec une extension sur le plateau (partie dite du Moulon, environ ici sur la carte, toujours sur la commune d'Orsay, et qui pose le départ du campus urbain Paris-Saclay dont je vais parler plus bas).

Un extension du CEA, l'Orme des Merisiers est inaugurée au milieu des années 1960, au sud du site principal, sur la commune de Saint-Aubin (ici sur la carte).

D'autres installations notables ont lieu au cours des années 1960 et 1970. L'École des hautes études commerciales de Paris (HEC) que je mentionne bien que ce ne soit pas un établissement scientifique au sens étroit, déménage en 1964 au nord du plateau de Saclay, à cheval entre Jouy-en-Josas et Saclay (ici sur la carte). L'Institut d'optique théorique et appliquée (IOTA ou Sup'optique) s'installe en 1966 sur le plateau, au sein du campus de la fac d'Orsay (ici sur la carte). L'école supérieure d'électricité (Sup'élec, maintenant CentraleSupélec) déménage sur le plateau en 1975, pas loin de Sup'optique (ici sur la carte, sur la commune de Gif-sur-Yvette). Et surtout, en 1976, c'est l'École polytechnique (l'X) qui quitte ses locaux de la Montagne Sainte-Geneviève à Paris pour s'installer sur le plateau de Saclay, de l'autre côté de la N118, à Palaiseau (ici sur la carte).

Voilà pour un très bref résumé de l'histoire de la première grande phase d'installations d'établissements scientifiques sur le plateau de Saclay (et dans la vallée adjacente) : des établissements de recherche isolés installés au début des années 1950, le développement de la faculté des sciences d'Orsay au cours des années 1960, et l'installation de plusieurs grandes écoles dans les années 1960 et 1970. Je tire essentiellement ces informations du travail de mon amie historienne Émilia Robin, qui raconte tout ça bien plus en détails son carnet de recherches Orsay-Saclay auquel je renvoie pour les précisions et références (et s'il y a quelque chose qui diffère entre ce que j'ai résumé et ce qu'elle explique, c'est évidemment elle qui a raison). Et si vous préférez les explications sous forme de vidéos, elle a mis ça sur YouTube : , , , .

Cette phase qui dure du début des années 1950 au milieu des années 1970 nous amène à l'état de la région que j'ai connue quand j'étais petit (j'ai grandi essentiellement à Orsay, et mon père a travaillé dans un laboratoire de l'École polytechnique puis à la fac d'Orsay). Je peux résumer ainsi la situation géographique du futur « campus urbain » : la fac d'Orsay dans la vallée, qui s'étend un peu sur le plateau (partie Moulon, à l'ouest de la N118, avec notamment Sup'optique et l'IUT d'Orsay) ; un peu à l'ouest de ça, un peu à l'écart Sup'élec (et l'Orme des Merisier) ; de l'autre côté de la N118, à Palaiseau, Polytechnique, mais pas grand-chose entre les deux. Les autres grands établissements que j'ai nommés sont de toute façon d'accès strictement contrôlé (certainement le CEA, le centre d'essais de la DGA et l'ONERA ; mais je crois qu'on ne rentre pas non plus sur le campus de HEC comme dans un moulin), donc ils n'ont que peu d'interaction avec le reste. En fait, même le campus de Polytechnique (qui était de toute façon plutôt isolé du reste) était en principe d'accès contrôlé dans les années 1980, il n'y a vraiment que la fac d'Orsay qui était ouverte à tous vents.

La situation n'a, je crois, que peu évolué entre 1976 (déménagement de l'X) et le début des années 2000.

Ajout / complément () : J'aurais dû ajouter ici que, dès les années 1960–1970 il y avait des projets ambitieux de développement du Moulon et de l'espace Corbeville-Palaiseau (avec des idées autour de la recherche de l'excellence), c'est-à-dire de la zone actuellement qualifiée de « campus urbain » (cf. plus bas), et, dès ce moment-là, il y avait les germes de la division que je vais évoquer plus bas entre les deux parties, ouest et est de la N118, avec à l'ouest l'Université et des écoles en convention avec l'Éducation nationale, et côté est les projets d'installation de Polytechnique et de ses écoles d'application (Mines, Ponts, Agro…). (Merci, de nouveau, à Émilia Robin pour m'avoir apporté ces précisions que j'espère ne pas avoir déformées au passage.)

Autre ajout () : J'aurais aussi dû mentionner l'installation du synchrotron SOLEIL à l'Orme des Merisiers (à proximité immédiate du centre du CEA, ici sur la carte) en 2006. Comme quoi il n'est pas vrai que rien n'a bougé sur le plateau entre 1975 et 2010.

Le réveil vers 2010

Je ne sais pas ce qui a fait que les choses se sont réveillées vers 2010. Il semble que plein de projets de fusion, regroupement, rapprochement ou déménagement d'établissements d'enseignement supérieur ou de recherche qui avaient été formulés peut-être 50 ans plus tôt ont été soit redécouverts soit indépendamment réinventés, ou en tout cas que des idées semblables ont réémergé et, cette fois, elles sont allées plus loin que le stade de l'idée. Toujours est-il qu'autour de 2010 les choses se sont remises à bouger sérieusement.

Peut-être que Nicolas Sarkozy y est pour quelque chose : je ne sais pas si c'est une lubie personnelle qu'il a eue de faire du plateau de Saclay une Silicon Valley à la française (je ne sais pas de qui est l'expression, mais elle a couru à ce moment), ou si quelqu'un lui a soufflé l'idée, ou s'il a repris quelque chose qui traînait dans les cartons et qui a surnagé pour une raison aléatoire à ce moment-là. En tout cas, Sarkozy a fait un discours à Palaiseau le dans lequel il annonce une opération d'aménagement du campus Paris-Saclay, portée par Valérie Pécresse (alors ministre de l'Enseignement supérieur et de la Recherche) et notamment le déménagement de plusieurs grandes écoles : l'Agro, Centrale, l'ENSAE, l'ENS Cachan et Télécom. Tous ces déménagements ont effectivement eu lieu (Centrale a fusionné avec Sup'élec pour devenir CentraleSupélec, et l'ENS Cachan est devenue l'ENS Paris-Saclay). Mais il annonce aussi d'autres choses, comme des installations communes aux établissements (il évoque d'ailleurs explicitement les cantines), et aussi une ligne de métro Versailles-Saclay-Massy. Je vais revenir sur plusieurs de ces points.

Dans le cas de Télécom Paris, notre directeur de l'époque a annoncé au personnel qu'il réfléchissait à l'opportunité de déménager, avant de finalement prendre sa décision (je ne me rappelle malheureusement plus du calendrier exact) : je ne sais pas dans quelle mesure il a vraiment eu une décision à prendre ou si le gouvernement lui a forcé la main, mais nous avons tous eu l'impression que les dés étaient pipés.

En tout cas, c'est en 2010 (par la loi 2010-597 relative au Grand Paris et le décret 2010-911 relatif à l'Établissement public de Paris-Saclay) qu'est créé l'Établissement public de Paris-Saclay, ultérieurement renommé Établissement public d'aménagement de Paris-Saclay (dans le cadre de la loi Métropoles de 2014). Qu'est-ce que c'est que ce truc ?

↑Entry #2758 [older| permalink|newer] / ↑Entrée #2758 [précédente| permalien|suivante] ↑

↓Entry #2757 [older| permalink|newer] / ↓Entrée #2757 [précédente| permalien|suivante] ↓

(vendredi)

Sur la « gauche » et la « droite » et le spectre politique

Introduction

Je n'aime normalement pas parler politique ; du moins, pas de politique en général : ce n'est pas que je n'aie pas d'opinions qu'on peut qualifier de politiques sur des questions précises, ni même que je n'aime pas les défendre, et par ailleurs je m'efforce lors des élections de trouver quelqu'un pour qui voter selon une estimation marginale largement pifométrique de ma fonction d'utilité, mais je ne suis pas sûr d'être capable d'étendre ces opinions ponctuelles (dont je ne suis même pas sûr qu'elles ne se contredisent pas les unes les autres), ni cette fonction d'utilité (largement pifométrique), en un système global cohérent, et quand bien même je m'en sentirais capable, je n'ai pas envie de faire l'effort de construire une charpente idéologique pour le soutenir et une trame argumentative pour les défendre. Du moins c'est ce que je pense qu'il faudrait faire pour discuter de bonne foi de questions politiques, et je constate que tout le monde n'a pas de tels scrupules.

Du coup, à défaut de parler de politique, je vais parler d'opinions politiques et de leur classification, ou de leurs tentatives de classification. Et notamment d'un truc qui est peut-être la racine de toute mon incompréhension de la politique : cet axe prétendument essentiel qui définit deux camps opposés, la « gauche » et la « droite », une division qui a son origine dans la position qu'ont adoptée les députés lors des premières assemblées de la Révolution française, et qui a été généralisée presque jusqu'à classifier l'ensemble des opinions politiques de tous les pays du monde à toutes les époques du monde, bigre, un tel niveau de généralité suggère que cette typologie doit être terriblement fondamentale et qu'il est hautement important de la comprendre.

Mais à vrai dire, je ne comprends pas cet axe. Ou du moins, je comprends plein d'instances de la division gauche-droite (et je ne nie pas qu'elles soient pertinentes voire importantes), mais il me semble qu'elles sont distinctes les unes des autres, c'est-à-dire que chaque fois que quelqu'un utilise l'un de ces deux termes, il a en tête une division différente, dépendant de ses propres idées politiques et/ou de la question en cours de discussion, et que c'est une manœuvre oratoire, plus ou moins inconsciente, de glisser des questions qui n'ont rien à voir les unes avec les autres, ou seulement un rapprochement sociologique ou émotionnel, derrière l'un ou l'autre terme gauche ou droite, l'autre servant alors de dépotoir ou de repoussoir.

Bref, ce billet rassemble différentes tentatives que je fais pour mettre de l'ordre intellectuellement, et pour moi-même, dans ce bordel. Mais il s'agit de tentatives, forcément teintées par mes propres idées, qui restent largement infructueuses : non seulement on n'est pas obligé d'être d'accord avec ce que je vais dire, mais ce billet n'est pas d'accord avec lui-même et va se contredire[#]. J'assume ces contradictions : je ne prétends pas avoir une réponse à la question de ce que sont la gauche et la droite ou ce qu'elles devraient être, je ne prétends même pas avoir une réponse à la question de ce que les gens entendent par là, je ne fais que lancer des idées en l'air pour illustrer mon incompréhension. Caveat lector, donc.

[#] Comme j'aime bien le dire, je ne suis pas un système formel, donc si je me contredis moi-même, je ne disparais pas dans un pouf de logique ; c'est mon droit le plus strict d'avoir, consciemment ou inconsciemment, des opinions (ou des préférences) contradictoires et de les exprimer, et si vous n'aimez pas ça, c'est votre problème, pas le mien.

Table des matières

L'axe entre « moi » et l'homme de paille

☞ Juste pour éclaircir un point de terminologie au cas où il serait douteux, ce que j'appelle homme de paille (i.e., épouvantail rhétorique), c'est le sophisme consistant à déformer la position d'autrui pour la rendre caricaturalement repoussante, ou pour la réfuter (brûler un homme de paille), alors qu'en fait personne ne tient la position telle qu'elle a été présentée. (Enfin, l'homme de paille fait référence à la caricature ainsi utilisée pour faire peur ou la faire brûler, et, par métonymie, au sophisme que constitue la manœuvre, et qui est sans doute le sophisme le plus répandu de toute la politique.)

La première chose, à laquelle je fais allusion dès l'introduction ci-dessus, est que cet axe gauche-droite semble toujours prendre la direction qui arrange la personne qui parle. Mais c'est un peu plus pervers que ça : la personne s'identifie typiquement à un de ces deux camps, attribue à ce camp les idées qui sont les siennes et le définit par ces idées, et regroupe l'ensemble de toutes les opinions opposées sous l'étiquette du camp opposé, sans se soucier si ces opinions ont la moindre cohérence idéologique. Autrement dit, pour beaucoup de gens, la définition de l'axe gauche-droite est simplement la distance à ses propres opinions politiques (que la personne a rangées dans l'une de ces cases).

Typiquement, donc, j'ai discuté avec quelqu'un qui se définissait de gauche, je lui ai demandé de m'expliquer ce qu'était la gauche pour lui, il m'a donné un tas d'idées qui étaient les siennes et qui formaient un ensemble idéologiquement cohérent (quelque chose comme : opposition au capitalisme, redistribution des richesses, protection de l'environnement). Très bien, lui ai-je dit, maintenant peux-tu m'expliquer ce qu'est la droite ? Et là les idées étaient absurdement incohérentes les unes avec les autres, allant du libéralisme économique au protectionnisme nationaliste : je lui ai fait remarquer cette incohérence, et il a commencé à trouver des explications extrêmement tarabiscotées justifiant qu'on peut penser telle et telle chose simultanément. Ce qui n'est pas complètement faux (de toute manière, en politique plus qu'en tout autre domaine, les gens arrivent à penser des choses incohérentes), mais il n'en restait pas moins que la seule véritable logique derrière les idées qu'il considérait comme de droite et que ce n'étaient pas les siennes, et il ne s'était visiblement jamais vraiment intéressé à ces idées ou à leur logique interne.

Je pense que le sophisme que je décris ci-dessus semble un peu plus couramment répandu chez les militants se réclamant eux-mêmes de la gauche, que la situation symétrique, mais je l'ai rencontrée aussi. C'est donc une expérience intéressante à mener à chaque fois que quelqu'un utilise l'un des deux mots « gauche » ou « droite » en politique : lui demander auquel elle se raccroche et, si elle fait une réponse (j'évoquerai plus loin les gens qui le refusent), si elle peut décrire raisonnablement précisément l'idéologie de l'autre camp : beaucoup de gens en seront spectaculairement incapables (ou se contentent de fourre-tout complètement vagues comme la droite est le camp de l'ordre, la gauche cherche à forcer l'égalité de tous — ce sont des hommes de paille ridicules merci d'avoir joué).

Bref, très souvent, les deux camps politiques sont simplement « les gens d'accord avec moi » et « tous les autres, que je regroupe dans un seul blob infâme auquel je ne comprends rien, et qui me sert de repoussoir ou d'homme de paille dans les arguments ».

Mais d'où vient ce sophisme ? D'abord, du rejet de la fameuse injonction de Sūn Zǐ sur l'art de la guerre, de connaître son ennemi (c'est-à-dire le connaître vraiment, tel qu'il est, et surtout tel qu'il pense, bref, ne pas se créer des hommes de paille) : mais en politique, connaître son ennemi cela signifie écouter son discours, et c'est dangereux parce qu'on risquerait de voir qu'il n'est pas si incohérent ni si repoussant, il est bien plus confortable émotionnellement de le ranger dans le blob infâme et incohérent « pas d'accord avec moi ».

Il y a aussi l'erreur logique consistant à penser que si B contredit A et que C contredit A aussi, alors B et C doivent vaguement être d'accord entre eux (ou peut-être qu'ils le sont secrètement et que leur opposition de façade est un plan diabolique pour contrer A), erreur logique qui est à la base de la « pensée de dimension 1 » qui veut imaginer qu'il n'y a que deux avis frontalement opposés sur n'importe quelle question, ou, à la rigueur, des opinions intermédiaires entre les deux.

Mais il y a une autre raison, sans doute, qui est que politiquement on a tendance à parler à des gens qui sont relativement proches de soi (ne serait-ce que parce que sociologiquement on a tendance à être entouré de telles personnes, et que la discussion est plus longue et sans doute plus productive avec elles, ce qui ne veut pas dire qu'elle soit moins agitée). Du coup, personne dans la discussion ne se réclame de l'« autre camp », et celui-ci sert simplement de support d'anathème pour accuser l'autre d'en faire partie s'il dévie de la pureté idéologique qu'on cherche à défendre.

↑Entry #2757 [older| permalink|newer] / ↑Entrée #2757 [précédente| permalien|suivante] ↑

↓Entry #2756 [older| permalink|newer] / ↓Entrée #2756 [précédente| permalien|suivante] ↓

(jeudi)

Petite pub pour le documentaire Homos en France

Je regarde beaucoup de documentaires (typiquement soit via les sites de chaînes de télé — le plus souvent Arte —, soit sur YouTube). Parfois je signale sur Twitter 𝕏 ceux qui me plaisent (p.ex., ici ou ) ; mais je ne juge normalement pas utile de le faire sur ce blog, d'une part parce que je n'ai généralement pas grand-chose à dire à part j'ai bien aimé ça, et d'autre part parce que, quand il s'agit d'émissions en replay, elles ne sont disponibles qu'un temps limité, et je n'aime pas trop faire un billet de blog qui n'aura plus vraiment de sens dans quelques années quand l'émission sera devenue introuvable (j'ai déjà dit que les liens qui cassent m'agacent et que j'aime préserver l'information ? ah oui). Mais on va faire une exception pour celui-ci, que j'ai déjà mentionné sur le réseau social de l'oiseau bleu mort, mais que je pense bon d'évoquer aussi ici, d'autant plus que plusieurs amis hétéros m'ont confirmé avoir bien aimé.

Bref, en parcourant le site de France TV à la recherche d'un docu à voir vendredi dernier, je suis tombé sur le documentaire Homos en France de Vincent Dedienne et Aurélia Perreau (diffusé à l'antenne en mai sur la chaîne France 2), et je l'ai trouvé vraiment extraordinaire : à la fois juste et émouvant. Et quand je dis émouvant, ce n'est pas souvent qu'un documentaire me touche au point que j'en arrive à plusieurs reprises aux larmes ! Évidemment le sujet me touche personnellement mais j'ai vu N émissions analogues et elles ne m'ont généralement pas fait pleurer et je n'aurais pas jugé utile de signaler, donc celui-ci a vraiment quelque chose de plus.

C'est juste le témoignage d'une douzaine de personnes homo ou bi en France en 2023, qui racontent leur vie et expériences. Mais ce qui est si bon, c'est qu'il évite et démonte les clichés, et laisse parler une belle diversité de voix : jeunes et âgées, féminines et masculines, célèbres et inconnues, venues de classes sociales diverses. Du lycéen dans le nord à la professeure d'histoire à UCLA (Laure Murat), de la jardinière paysagiste à l'ancien ambassadeur de France aux États-Unis (Gérard Araud), du footballeur pro (Ouissem Belgacem) au retraité en passant par la chanteuse pop (Angèle[#]), de la lycéenne très BCBG au black des banlieues, ils ont tous quelque chose de différent et d'intéressant à dire dans ce qu'ils racontent, mais quand même un thème partagé.

[#] Bon, apparemment France inclut ici la Belgique francophone. <U+1F937 SHRUG>

Et l'émission raconte aussi, même si ce n'est pas le sujet principal, l'évolution du regard du public sur l'homosexualité en France, depuis années 60 jusqu'à 10 ans après le vote du mariage pour tous (cet anniversaire étant j'imagine la raison dudit documentaire), ce qui permet de mesurer le trajet parcouru et aussi le trajet qui reste à parcourir.

Bref, à voir, vraiment !

Le documentaire est disponible jusqu'au en replay sur le site de France TV à l'adresse déjà liée ci-dessus.

Digression technique : Si vous ne voulez pas créer de compte ou si vous voulez garder une copie pour (re)voir plus tard quand il ne sera plus disponible sur ce site, je signale à toutes fins utiles que le programme yt-dlp (qui est le successeur de youtube-dl, lequel a l'air d'être mort) sait gérer le site de France TV et permet donc de récupérer le fichier vidéo (mumble mumble ce que je disais dans le billet précédent sur le scraping mumble mumble). Si vous lisez ce billet après expiration du replay de France TV, il est possible que j'aie gardé moi-même une copie du fichier, mais évidemment les lois complètement débiles que nous avons sur la propriété intellectuelle ne me permettent pas de le partager bien qu'il soit passé publiquement sur une chaîne de télé publique que tout le monde pouvait enregistrer : n'hésitez pas à me contacter si vous voulez que je vous nargue en vous disant que je ne peux pas vous en donner une copie.

Sur le fond du sujet, mon propre témoignage d'homo en France (qui ai pris conscience de mon homosexualité vers 1989 et ai fait mon coming out environ dix ans plus tard dans la foulée du vote sur le PACS) a été publié ici sur ce blog, je me permets à cette occasion de le resignaler. J'étais notamment curieux de comparer l'expérience des intervenants du documentaire (qui sont pour la plupart plus jeunes que moi) avec ce que j'ai moi-même vécu. Avec, je l'avoue, une part de préjugé de type pour la génération Z, être homo doit être d'une banalité totale, les uns doivent considérer ça avec la même indifférence que suscite le fait de préférer les escargots aux huîtres, les autres doivent avoir trouvé les personnes trans comme nouveau réceptacle de leur haine, mais apparemment même des jeunes dans un milieu qu'on devine socialement favorisé ne trouvent toujours pas évident de dire qu'ils sont homos.

Ce que je regrette un peu, cependant, mais le documentaire est déjà raisonnablement long et peut-être que ce n'était pas le sujet, c'est qu'ils n'aient pas ou presque pas abordé la question de comment on se rencontre, et comment on drague, entre homos, en France en 2023. Comme je l'écrivais dans mon témoignage lié ci-dessus, il y a une vingtaine d'années j'ai fréquenté un certain nombre d'associations LGBT étudiantes qui servaient de points de rencontre à la fois pour la sociabilité et pour la drague : j'ai l'impression que ces associations ont en bonne partie disparu : pour la recherche de partenaires sexuels je n'ai pas de doute qu'il y a plein de choses qui les remplacent (Grindr, par exemple ?), mais pour les autres fonctions (convivialité, rencontres pas forcément sexuelles) je me demande ce qui a pris leur place. S'il y a des homos plus jeunes que moi (ou simplement plus actifs socialement) qui me lisent, qu'ils n'hésitent pas à me tirer de mon ignorance.

↑Entry #2756 [older| permalink|newer] / ↑Entrée #2756 [précédente| permalien|suivante] ↑

↓Entry #2755 [older| permalink|newer] / ↓Entrée #2755 [précédente| permalien|suivante] ↓

(mardi)

Vulgarisation informatique : comment fonctionne le Web ?

Avant-propos

Pour changer un peu des entrées portant sur des maths incompréhensibles, j'ai voulu essayer de faire de la vulgarisation informatique et à un niveau — j'espère ! — compréhensible par tout le monde, pour expliquer les principes de base de comment fonctionne le World Wide Web (ce que la plupart des gens appellent Internet, mais ci-dessous je vais expliquer entre autres choses la différence entre ces termes).

Enfin, du moins, c'était mon idée initiale en commençant à écrire ce billet, mais il a, comme d'habitude, enflé bien au-delà de ce que j'imaginais possible, m'a demandé un temps totalement déraisonnable, et qui s'est plutôt transformé en un tas d'explications disparates (parfois à la limite du rant) sur divers sujets pas reliés de façon très cohérente les uns aux autres (et si certains sont, je l'espère, effectivement compréhensibles par tout le monde, il est clair qu'à d'autres endroits j'ai raté mon pari). Et j'avoue franchement que le plan de ce billet est complètement incohérent (par exemple, ce passage ne devrait pas être relégué à une sous-sous-sous-partie). La bonne nouvelle, c'est que tous ces petits bouts sont assez largement indépendants les uns des autres, donc on doit pouvoir lire ce pavé en sautant — ou en lisant en diagonale — les passages qu'on trouve inintéressants ou incompréhensibles, ou en picorant les passages potentiellement intéressants. Pour essayer d'aider le lecteur à lire en diagonale, j'ai fait précéder les parties et sous-parties d'un bref résumé de ce qui s'y dit (signalé par le signe ‘❖’).

Bon, j'avoue aussi ma crainte d'avoir essentiellement perdu mon temps à déployer des efforts pédagogiques mais que, au final, les gens qui me lisent savent déjà tout et n'apprendront rien, tandis que ceux qui ne savent pas déjà tout se diront que ce sont des questions hautement techniques qui ne les intéressent pas du tout et n'auront pas envie de me lire. Mais je pense que les gens qui se disent que ce sont des questions hautement techniques se trompent, et je pense que l'essentiel de ce que je vais raconter ci-dessous constitue des connaissances extrêmement basiques que tout le monde devrait avoir avant d'ouvrir un navigateur Web, histoire de ne pas risquer de tomber dans le premier hameçonnage venu (ah ben j'ai suivi le lien dans le mail, ça ressemblait bien au site de ma banque, donc j'ai donné mon mot de passe), du coup je fais l'effort de me dire que ça vaut la peine que je prenne la peine de l'écrire, au risque de pisser très longuement dans un violon.

Si au moins quelqu'un apprend quelque chose, n'hésitez pas à dire quoi en commentaire (ou d'ailleurs, à l'inverse, si vous trouvez que c'est trop technique et que ça n'a aucun intérêt, dites moi surtout à quel point vous avez laissé tomber), ça m'intéresse aussi d'en faire une sorte de petit sondage pour savoir si écrire ce genre de billet de vulgarisation a un sens.

Je vais faire beaucoup d'efforts pour garder mes explications au niveau le plus bas possible (et encore une fois, là où je n'y arrive pas, faites-le moi savoir, mon but est aussi d'apprendre à expliquer !). Du coup, fatalement, je vais parfois dire des choses qui sont un peu approximatives ou simplifiées (mais j'espère jamais complètement fausses, et je vais essayer de toujours dire que je simplifie) : je précise ça parce que je soupçonne que beaucoup de gens qui me liront seront, en fait, des gens déjà parfaitement compétents et qui vont plutôt avoir tendance à me chercher des poux. (Ceci vaut pour toute tentative de vulgarisation, bien sûr, mais particulièrement ici parce que je tâche de rester bien plus compréhensible que ce que je raconte d'ordinaire.)

Ce qui a déclenché mon envie d'écrire tout ça, ce n'est pas vraiment des questions de sécurité et de hameçonnage, c'est plutôt que Twitter et Reddit ont, à peu près au même moment, décidé de fermer leur API publique et gratuite, je trouve cette évolution très préoccupante (même si elle n'est pas du tout surprenante de la part du douchebro qui a repris Twitter), et je pense que ça a un sens d'expliquer de quoi il est question (c'est quoi, une API publique ?) et d'essayer de donner du contexte sur les enjeux d'ouverture du web. En plus de ça, pendant que j'étais en train d'écrire ce billet, je suis tombé sur cet article de Ars Technica sur la Web Integrity de Google, et j'ai inséré quelque chose à ce sujet.

Mais ces questions-là viendront à la fin : commençons plutôt par le début, c'est-à-dire par les définitions de base de ce que sont Internet et le Web et les très grandes lignes de leur fonctionnement.

Table des matières

Liste des termes définis dans le texte

(Liste donnée dans l'ordre dans lequel les termes sont définis ou évoqués pour la première fois. Chacun est un lien vers cette première définition ou évocation. Le terme apparaît en gras dans le texte à l'endroit lié.)

C'est quoi Internet ? C'est quoi le Web ? Et c'est quoi la différence ?

Dans cette section, je définis l'Internet (réseau d'ordinateurs interconnectés) et le Web (réseau d'information sous forme de pages hypertexte et reliées les unes aux autres par des hyperliens). J'évoque le fonctionnement « client-serveur » du Web et le protocole HTTP (au-dessus d'Internet) central à son fonctionnement, ainsi que le format HTML dans lequel sont écrites les pages hypertexte.

Je dois d'abord définir ce qu'est le Web et quelques termes en rapport avec lui, et contraster avec Internet.

Alors d'abord, le Web n'est pas pareil qu'Internet. Internet c'est un réseau d'ordinateurs interconnectés (en gros, de nos jours, tous les ordinateurs du monde) qui leur permet de s'échanger des informations. (Cela se fait au moyen d'un jeu de protocoles de communication appelé TCP/IP, qu'on peut donc considérer pour simplifier comme synonyme d'Internet, et qui a été inventé entre le milieu des années 1970 et le début des années 1980, essentiellement dans le cadre de recherches financées par le Département de la Défense américain, je ne rentre pas dans plus de détails, voyez Wikipédia si vous voulez en savoir plus. Mais ça vaut la peine de mentionner au moins deux noms de gens qui ont joué un rôle central dans la création de ces protocoles : Vinton Cerf et Bob Kahn, souvent considérés comme les pères d'Internet.)

Le but de ce billet n'est pas d'expliquer comment fonctionne Internet. Ce serait éventuellement pour une autre fois, mais je vais tenir Internet pour acquis.

Le (World Wide) Web, abrégé WWW, i.e. la Toile mondiale, c'est (ou au moins c'était, à l'origine) une manière d'utiliser Internet pour mettre à disposition des informations sous forme de pages Web. Une page Web peut contenir du texte, des images, des sons, des vidéos ou autres animations (et maintenant des programmes complets, je vais y revenir), et surtout, elle peut contenir des hyperliens, ou simplement liens, qui pointent vers d'autres pages Web (permettant à l'utilisateur de passer facilement de l'une à l'autre), l'ensemble de tout ça étant appelé de l'hypertexte. Enfin, je suppose que vous savez ça, parce que si vous lisez ces mots, a priori (sauf si par exemple vous êtes une personne du futur en train de lire une archive de quelques textes ayant miraculeusement survécu à l'apocalypse — auquel cas, coucou, et content de avoir que des bouts de mon blog en font partie), vous savez au moins un peu ce qu'est une page Web puisque vous êtes en train d'en lire une.

Le Web fonctionne au-dessus d'Internet (c'est-à-dire qu'il dépend d'Internet pour fonctionner), selon un mécanisme dit client-serveur : d'un côté il y a l'ordinateur de la personne qui veut lire une page Web, qu'on appelle client : il utilise un programme spécial, appelé navigateur Web, pour consulter le Web et afficher les pages hypertexte : ce programme côté client va contacter la machine qui met la page à disposition, et qu'on appelle le serveur (et qui fait tourner lui aussi un programme spécial, appelé serveur Web — parfois ce terme désigne la machine, parfois le programme, ce n'est pas toujours clair, et souvent pas très important) pour lui demander. La communication a lieu via Internet, c'est-à-dire que le client et le serveur doivent déjà faire partie d'Internet (avoir un accès Internet) pour espérer communiquer. Elle a lieu, plus précisément, par un protocole appelé HTTP (ou sa variante chiffrée, HTTPS dont je parlerai plus bas) qui se place au-dessus des protocoles TCP/IP : imaginez que TCP/IP est comme la poste qui achemine des lettres, alors que HTTP est un formulaire que vous envoyez pour recevoir un livre. Quant au format dans lequel les pages Web sont écrites s'appelle HTML (bon, là je simplifie excessivement, et je vais y revenir), qui est en gros une façon de décrire le contenu (là il y a le texte suivant, là il y a un hyperlien vers telle adresse, là il y a une image dont voici l'adresse).

Le Web a été inventé en gros une décennie après Internet, entre la fin des années 1980 et le début des années 1990, essentiellement au CERN (le Centre européen pour la recherche nucléaire, basé en Suisse), là aussi je renvoie à Wikipédia pour plus de détails, mais il y a un nom qui revient généralement comme le père du Web : Tim Berners-Lee (avec, comme dans le cas d'Internet, le caveat important qu'une invention de ce genre n'est jamais le fruit d'une seule personne et que c'est toujours réducteur de donner un seul nom ou même deux). Il y avait d'autres mécanismes utilisant Internet pour diffuser de l'information générale inventés avant ou à peu près au même moment (par exemple Gopher, qui est maintenant presque mais pas complètement mort, plus simple, utilisant une structure organisée en menus hiérarchiques ; ou FTP, qui joue un rôle un peu différent, puisque c'est plutôt pour échanger des fichiers entre ordinateurs qu'à destination d'un humain, mais il est lui aussi quasiment remplacé par HTTP(S) de nos jours), mais le Web a eu tellement de succès qu'il est devenu quasiment synonyme d'Internet.

Ce n'est pas qu'une confusion du grand public de traiter ces deux termes (Web et Internet) comme presque interchangeables, c'est de plus en plus vrai que beaucoup de systèmes d'échanges de données, même ceux qui concerne pas des pages hypertexte ou même qui ne sont pas des données à afficher directement à un humain dans un navigateur, tendent à utiliser le protocole HTTP(S) initialement prévu pour le Web, et que du coup les contours de ce dernier deviennent un peu flous. Mais c'est aussi et surtout le cas que le navigateur Web devient de plus en plus une sorte d'« application universelle », c'est-à-dire que toutes sortes de services de toutes sortes (communication, bureautique, jeux, etc.) tournent optionnellement ou même exclusivement à l'intérieur d'un navigateur Web, ce qui entretient la confusion non seulement entre le Web et l'Internet mais même entre le navigateur Web et l'ensemble du système d'exploitation (je veux dire que beaucoup de gens ne font sans doute pas une distinction claire entre une « Web application » qui tourne à l'intérieur de leur navigateur web, et un programme distinct du navigateur qui tourne sur leur ordinateur, et c'est encore pire sur les téléphones mobiles ; je reparlerai des Web applications plus bas pour essayer de dissiper cette confusion).

Malgré cette tendance à confondre Web et Internet, il continue à exister un grand nombre de protocoles Internet, plus ou moins spécialisés, qui ne peuvent pas vraiment être considérés comme faisant partie du Web. (Y compris des protocoles utilisés par le grand public : à titre d'exemple, BitTorrent, un protocole de partage de fichiers décentralisé et pair-à-pair, c'est-à-dire que tout le monde s'échange des petits bouts de fichier sans que personne n'ait une copie autoritative, notamment souvent utilisé pour partager des vidéos dites « pirates », c'est-à-dire échangées en contravention du droit d'auteur, est basé sur Internet mais s'oppose radicalement à l'organisation client-serveur du Web. De même, les applications de vidéoconférence comme Zoom ou Skype utilisent leurs propres protocoles propriétaires au-dessus d'Internet, même s'il y a souvent une passerelle Web permettant de les utiliser depuis un navigateur Web.)

En revanche, tous les réseaux sociaux (Facebook, Twitter, Instagram, Reddit, StackExchange, TikTok, etc.) peuvent être décrits comme faisant partie du Web ou construits au-dessus de lui : même s'ils disposent d'une application spécialisée permettant d'éviter de passer par un navigateur Web généraliste, ils restent toujours consultables via un navigateur Web, i.e., ils ont toujours au moins une interface Web en plus d'éventuelles interface mobile (essentiellement Android et iOS) vers le même contenu (je ne sais pas pourquoi, ça semble être uniquement sur mobile qu'on propose ces applications spécialisée, alors qu'il n'y a pas vraiment de raison technique pour laquelle on ne pourrait pas avoir une appli spécialisée pour ordinateur pour accéder à chacun de ces réseaux sociaux — l'explication relève plus de considérations historiques ou sociologiques que techniques).

Le fonctionnement de base du Web à papa

Dans cette section, j'évoque les idées essentielles fonctionnement du Web des années 1990–2000, en parcourant les composantes d'une adresse Web ou URL : nom d'hôte puis nom de chemin.

Comme je le dis ci-dessus, le Web est devenu quelque chose d'assez protéiforme, non seulement presque synonyme d'Internet mais englobant même presque tout ce qui se fait sur un ordinateur, et je pense que cela contribue à la confusion que le grand public peut ressentir. Pour dissiper cette confusion, je pense qu'il vaut mieux commencer par décrire le « Web à papa », c'est-à-dire le Web des années 1990–2000 (en gros), quand il s'agissait vraiment de consulter des pages de texte avec des hyperliens et quelques images et pas de faire essentiellement tout et n'importe quoi jusqu'à ne plus savoir ce qui est sur notre ordinateur et ce qui est dans un cloud vaporeux.

Remontons le temps et replaçons-nous donc dans cette époque où les choses étaient un peu plus simples. Vous voulez consulter une page Web (ou un ensemble de pages Web apparentées : un site Web). D'abord, vous lancez un programme spécial, le navigateur Web. Je vais revenir sur les navigateurs Web et leur histoire, mais tenons-les pour acquis pour le moment. Dedans, vous tapez, dans la barre d'adresse (parce qu'à l'époque il n'y a pas vraiment de moteur de recherche), l'adresse de la page que vous voulez consulter : on parle aussi d'URL ou URI pour cette adresse (il y a une petite différence entre ces deux termes, les URI étant plus générales que les URL, mais ignorons cette subtilité byzantine : les adresses de type HTTP sont bien des URL et donc aussi des URI). Cette adresse peut ressembler à quelque chose comme :

http://www.example.tld/some/where.html

Ceci signifie approximativement : se connecter (au moyen du protocole HTTP) à l'ordinateur serveur ayant le nom www.example.tld sur Internet, et lui demander le fichier ayant pour nom /some/where.html.

Mais donnons quelques explications un peu plus précises à ce sujet.

↑Entry #2755 [older| permalink|newer] / ↑Entrée #2755 [précédente| permalien|suivante] ↑

↓Entry #2754 [older| permalink|newer] / ↓Entrée #2754 [précédente| permalien|suivante] ↓

(mardi)

Où je me rends compte que je ne sais pas bien ce qu'est la pression

J'aime parfois dire que si j'ai fait des maths et pas de la physique, c'est qu'en maths il n'est pas nécessaire de comprendre ce qu'on dit, il suffit de suivre les règles. C'est sans doute vrai que je manque de cet élusif « sens physique » qui est censé permettre aux physiciens de deviner à l'avance à quoi s'attendre avant de mener un calcul (mais bon, en maths aussi il est bon d'avoir de l'intuition sur ce qu'on peut espérer dans une situation donnée). Mais il y a aussi une notion un peu différente qu'il est aussi bon de posséder (et là aussi ça s'applique en fait au maths aussi) c'est celle du « sens profond », de la substantifique moëlle d'un concept : qu'est-ce que l'énergie, fondamentalement ? qu'est-ce que l'entropie ? qu'est-ce que la masse ? ce genre de choses. Ces questions sont assez délicates et on peut les trouver oiseuses ou inutilement philosophiques (j'encourage, par exemple, à méditer sur la question de pourquoi l'énergie a une importance fondamentale en économie et pas, par exemple, la quantité de mouvement qui est aussi une quantité physique conservée : c'est un peu comme réfléchir à la question de pourquoi les miroirs inversent la gauche et la droite et pas le haut et le bas, certains trouvent que c'est très intelligent et d'autres que c'est juste un gimmick pour avoir l'air de dire des choses profondes). Mais ici je voudrais discuter d'un cas bien particulier : la pression.

Ce qui suit est donc un rant assez décousu sur le concept de pression (et surtout, de pourquoi parfois on ne sent que la différence de pression et parfois on sent la pression absolue), à des niveaux de technicité variant aléatoirement entre « vulgarisation tous publics » et « vous savez bien sûr ce qu'est le tenseur de Ricci » (donc n'hésitez pas à lire en diagonale, plein de bouts sont de toute façon indépendants les uns des autres).

Ce qui m'amène à cette réflexion, c'est que — comme le monde entier a été obligé d'en entendre les détails — récemment il y a quatre personnes littéralement trop riches pour leur santé qui ont payé une somme obscène à un escroc pour aller voir l'épave du Titanic (qui repose quelque part dans l'Atlantique sur le fond de la mer à environ 3800m de profondeur) à bord d'un submersible construit avec des bouts de ficelle tellement bricolés que même la sécurité informatique paraît robuste en comparaison. Forcément, le truc a implosé sous la pression de quelque 300 atmosphère et les gens sont morts (y compris le type qui dirigeait la compagnie qui avait construit le truc en carton, et qui se moquait de ceux qui réclamaient plus de sécurité). Si vous voulez plus de détails sur l'incident, Wikipédia a tout, évidemment ; si vous voulez une liste de quelques fautes de conception du truc, ce fil Twitter est plutôt bien ; sinon, vous pouvez attende la suite de Titanic que James Cameron ne manquera pas de faire de cette histoire. Mais ce n'est pas ce dont je veux parler.

Quelqu'un (il paraît que c'est un idiot, peu importe, ce n'est pas mon propos) a soulevé la question de comment ça se fait, si la pression à ~3000m sous la mer est suffisante pour faire imploser le submersible, que l'épave du Titanic, pour sa part, soit globalement assez intacte. Beaucoup de gens se sont moqués de lui, mais en fait je trouve que c'est une très bonne question. La réponse rapide c'est que ce qui pose problème n'est pas la pression, c'est la différence de pression dans le cas du submersible, entre l'air de l'habitacle, maintenu à la pression atmosphérique, et l'eau environnante, alors que l'épave du Titanic a coulé en se remplissant d'eau, donc en évacuant l'air à pression atmosphérique, et le fait d'être à 380 atmosphères de pression n'est pas, en soi, dommageable. (Une réponse un peu plus longue est ici : apparemment la poupe du Titanic a pu imploser sous la pression, parce que l'air ne s'est pas évacué à temps, et ce serait la raison pour laquelle elle est en plus mauvais état que la proue.) Mais ce n'est pas non plus ce dont je veux parler.

Parce que voilà, je suis tenté de résumer ça en disant :

La pression n'importe pas, ce sont les différences de pression qui importent.

Mais en fait non. Mais en fait peut-être que si quand même. Mais en fait peut-être que non. C'est confus. Et je trouve fascinant qu'aucun de mes cours de physique n'ait abordé franchement cette question : dans quelle mesure est-ce que la pression a des effets en elle-même, et dans quelle mesure est-ce que ce sont les différences de pression ?

Qu'est-ce que c'est, au juste, la pression ? Là aussi, évidemment, Wikipédia vous couvre : en bref, c'est la force qu'exerce un système physique sur sa surface, par unité de surface et perpendiculairement à elle. Notamment, un gaz exerce une pression vers l'extérieur sur les parois qui l'enferment (et, par la loi d'action et de réaction, la paroi doit exercer une force égale en magnitude et opposée en direction pour maintenir le gaz en place) : cette force s'explique essentiellement par les molécules de gaz qui rebondissent contre la paroi. Très bien. Mais de l'autre côté de la paroi il y a autre chose, qui exerce aussi une pression, et ce qui compte vraiment est la différence entre les deux côtés de la paroi, parce que c'est ça qui va définir la force ressentie par la paroi. C'est la raison pour laquelle une feuille de papier placée dans l'air ne ressent pas les ~1013hPa (soit l'équivalent de 1.03 kilogrammes de force par centimètre carré de papier) de la pression atmosphérique : elle est égale des deux côtés de la feuille.

↑Entry #2754 [older| permalink|newer] / ↑Entrée #2754 [précédente| permalien|suivante] ↑

↓Entry #2753 [older| permalink|newer] / ↓Entrée #2753 [précédente| permalien|suivante] ↓

(mercredi)

Aidez-moi à reproduire un bug de Firefox

Une entrée brève pour un appel à essayer de reproduire un bug de Firefox qui m'est extrêmement problématique.

Depuis quelques jours ou quelques semaines tout au plus, mon Firefox crashe systématiquement sur toute recherche Google Images. C'est 100% reproductible : la page de résultats Google Images s'affiche et une fraction de seconde plus tard, le tab crashe. (Gah. Your tab just crashed.)

Le message d'erreur dans le terminal de lancement est peu informatif : [Parent pid1, IPC I/O Parent] WARNING: process pid2 exited on signal 11: file /huge/mozilla/ipc/chromium/src/base/process_util_posix.cc:264 (Les détails du crash report suggèrent que le problème vient sans doute du moteur JavaScript JIT mais je n'en sais pas plus.)

Vu que je n'ai pas fait de mise à jour récente pouvant expliquer l'apparition du problème, je pense que c'est un changement de JavaScript chez Google qui déclenche un bug Firefox qui existait depuis longtemps, et qui ne se produit que sur certains systèmes (si plus personne utilisant Firefox sous Linux ne pouvait consulter Google Images, ça se saurait très très vite).

Le crash se produit avec toutes les versions de Firefox que j'ai testées (de la vieille 111 à la nightly actuelle, 116a), que ce soit un Firefox compilé par moi-même (ce que j'utilise normalement) ou distribuée en binaire par Mozilla, donc ce n'est pas une question de version. Ça se produit même avec un profil vierge donc ce n'est pas un problème dans mon profil. Ça se produit aussi avec l'option -safe-mode. Bref, c'est très large.

Il doit y avoir une bizarrerie dans mon système qui déclenche le bug, mais ce sera très difficile de savoir quoi tant que je n'ai pas trouvé au moins un 2e cas de reproduction. J'ai donc besoin l'aide de mes lecteurs qui utilisent (ou ont accès) à Firefox sur un PC Linux :

Pouvez-vous vérifier sur tous les systèmes Linux vaguement Debianoïdes (c'est-à-dire Debian mais tout ce qui y ressemble, y compris Ubuntu, Mint...) auxquels vous avez accès, que Firefox (peu importe la version, disons entre 111 et 116) arrive à afficher les résultats Google Images sans crasher ?

Ce n'est pas la peine de me signaler les résultats négatifs (non-crash) : je me doute bien que l'immense majorité ne crashent pas (encore une fois, sinon ça se saurait très très vite). Sauf peut-être si vous avez comme moi précisément une Debian 10 « Buster » (actuellement oldoldstable, oui, oui, je sais), auquel cas même un résultat négatif m'intéresse.

Par contre, n'importe quel résultat positif (reproduction du crash) m'intéresse au plus haut point.

Pour plus d'information, voici le lien vers le bug soumis à Mozilla : https://bugzilla.mozilla.org/show_bug.cgi?id=1839669 • Voir aussi ce bref fil Twitter

Mise à jour () : C'est bon, ce bug a maintenant suffisamment attiré l'attention pour qu'il n'y ait aucun doute qu'il existe indépendamment de mon système personnel. Comme expliqué dans le Bugzilla lié ci-dessus, le bug semble être une erreur de calcul de la quantité de pile que l'interpréteur JavaScript réclame ; mais il ne se déclenche pas sur tous les systèmes car il semble lié à un changement de logique du noyau Linux concernant l'allocation de la pile qui a été incorporé fin 2018 : les noyaux plus anciens que ça (y compris des branches stables branchées avant, telles que 4.19, même si elles ont été maintenues après) ne voient pas le bug (le noyau alloue la pile de façon plus flexible), ce qui explique que le bug n'ait pas été immédiatement attrapé.

Nouvelle mise à jour () : une explication du bug (un peu plus détaillée/précise que le paragraphe précédent) ici sur Mastodon ; par ailleurs, un patch est maintenant disponible qui va être incorporé dans Firefox.

↑Entry #2753 [older| permalink|newer] / ↑Entrée #2753 [précédente| permalien|suivante] ↑

↓Entry #2752 [older| permalink|newer] / ↓Entrée #2752 [précédente| permalien|suivante] ↓

(mardi)

Sur le topos effectif

Avant-propos

Le but ce de billet interminable est de donner (sans trop de prérequis, cf. plus bas) quelques explications, la définition, et quelques propriétés autour du topos effectif de Hyland. C'est un sujet sur lequel je m'étais promis de parler sur ce blog il y a un moment déjà. Je n'ai cependant pas vraiment suivi mon plan initial, qui était plutôt de faire d'abord une série de billets (en principe indépendant mais qu'il aurait été conseillé de lire dans l'ordre) pour expliquer au préalable l'idée générale du concept de topos et leur logique interne, puis les topos de faisceaux sur un espace topologique, avant d'en venir au topos effectif (que j'ai tendance à imaginer comme plus difficile à comprendre, mais peut-être que je me trompe, en fait). Seulement je me suis retrouvé (pour lire des choses sur un sujet connexe[#]) à ré-apprendre la définition du topos effectif après l'avoir oubliée pour la 42e fois environ, et j'ai pensé que la meilleure façon de la retenir et de m'assurer que j'en avais compris les bases, serait de me forcer à l'expliquer ici, autant que possible de mémoire, et, de fait, ça m'a permis de me rendre compte de plein de subtilités qui m'avaient d'abord échappé : voici pour la genèse de cette entrée, qui s'est évidemment avérée beaucoup plus longue qu'initialement prévue, et que sans doute personne ne lira mais ce n'est pas grave parce qu'elle m'aura servi à moi.

[#] En fait, pour expliquer d'où je viens pour les gens qui connaissent déjà le sujet, ces jours-ci j'essaie épisodiquement de comprendre trois articles que je considère à la fois très intéressants et très importants (pas tellement pour leurs résultats que pour le point de vue, surtout s'agissant des deux derniers), et dont je reparlerai sans doute une autre fois, d'un certain Takayuki Kihara : ① Degrees of incomputability, realizability and constructive reverse mathematics, ② Lawvere-Tierney topologies for computability theorists et ③ Rethinking the notion of oracle (ils peuvent se lire indépendamment les uns des autres et aussi indépendamment de la notion de topos effectif, mais toutes ces choses s'éclairent nettement les unes les autres). Notamment, les deux derniers articles suggèrent que la « bonne » notion d'oracle en calculabilité est celle de topologie de Lawvere-Tierney sur le topos de Kleene-Vesley, et donc j'essaie de me faire une intuition du pourquoi et du comment.

Cette genèse peut aussi expliquer le style inhabituellement brouillon, vu que j'avais commencé par me dire que j'allais juste donner la définition et rien d'autre, et au fur et à mesure que je l'écrivais je m'apercevais soit que je devais d'abord expliquer ceci ou cela, soit qu'il fallait bien que je dise un mot sur telle chose que j'avais mal comprise, ou simplement parce que je me suis dit que je ne pouvais pas m'affranchir d'un bout d'explication intuitive pour adoucir une présentation trop formelle. Bref, c'est un peu le bordel, surtout que j'ai plusieurs fois changé l'ordre dans lequel je disais certaines choses, et je n'exclus pas d'avoir commis des cercles vicieux de références, mais j'espère que ce qui suit a quand même un intérêt, surtout que ce n'est pas évident de trouver des textes où les choses sont bien expliquées. (Notamment si on ne veut pas savoir ce qu'est un tripos — et personnellement je préfère ne pas avoir à savoir ce qu'est un tripos, donc je ne parlerai pas du tout de tripos dans la suite.)

En plus de ça, je me suis très peu relu, et maintenant que ce billet est fini je n'ai plus vraiment le courage de le relire systématiquement. (Cet avertissement est valable pour toutes les entrées de ce blog, mais celle-ci est particulièrement propice à engendrer des fautes de frappe idiotes donc il y en a certainement à foison.)

Bref, je ne sais pas à quel point ce qui suit est compréhensible, mais j'ai fait un certain effort pour limiter les prérequis : en principe, pour l'essentiel de ce billet je ne suppose du lecteur qu'une familiarité avec la théorie élémentaire des ensembles et les rudiments de la calculabilité ; il n'est pas nécessaire, notamment, de savoir ce qu'est un topos (et d'ailleurs, je ne l'expliquerai pas, je me contente de définir le topos effectif), ni même une catégorie (mais ça doit quand même aider). Je suppose qu'on sait ce que c'est qu'une formule logique (connecteurs et quantificateurs, ce genre de choses), mais guère plus : il n'est pas vraiment nécessaire de savoir ce qu'est la logique intuitionniste, mais c'est utile, surtout à partir de la partie qui parle de réalisabilité, d'en avoir une certaine idée, et la lecture de ce billet ou surtout celui-là peuvent remplir ce prérequis faible. Je ne suppose pas non plus que le lecteur a lu mon précédent billet sur la réalisabilité, mais ça peut aider à motiver les définitions (le topos effectif est une généralisation de la réalisabilité de Kleene). Vers la fin du billet, je suppose la familiarité avec quelques concepts plus sophistiqués (coupures de Dedekind, ordinaux, des choses de ce genre), mais comme il s'agit de petits bouts assez indépendants les uns des autres, on doit pouvoir sauter ce qu'on ne comprend pas.

En tout cas, j'espère au moins avoir réussi à écrire quelque chose de plus clair que l'article Wikipédia ou celui du nLab.

Si on veut en savoir plus que ce qui est expliqué ici (ou corriger les bêtises que j'aurai certainement écrites), le mieux est sans doute de se tourner vers le livre de van Oosten, Realizability: An Introduction to its Categorical Side (2008), qui contient essentiellement tout ce que je raconte ici, mais il vaut mieux sauter directement au chapitre 3 si on ne veut pas entendre parler de tripos. On peut aussi regarder l'article de Bernardet & Lengrand, A simple presentation of the effective topos (ici sur l'arXiv), même si je ne suis pas persuadé que leur présentation soit vraiment plus simple que la version usuelle, elle a le mérite d'être assez compacte et contenue. L'article original de Hyland s'appelle The Effective Topos, et il est paru p. 165–216 dans les actes The L.E.J. Brouwer Centenary Symposium édité par Troelstra & van Dalen (1982) : en voici une version retypographiée et le scan de la version d'origine (disponible sur Sci Hub si vous n'y avez pas accès par ce lien).

Ajout () : on me signale en commentaire ce texte d'Ingo Blechschmidt (un chapitre du livre Exploring mathematical objects from custom-tailored mathematical universes édité par Oliveri, Ternullo et Boscolo, qui est plutôt de portée philosophique) ; cela semble en effet une bonne introduction : il développe de façon pédagogique (et en commençant de façon très informelle) le point de vue les topos comme des mondes mathématiques alternatifs ; néanmoins, il ne donne pas une vraie définition du topos effectif (juste comme une complétion de la catégorie des assemblées). Tant qu'à faire, je peux aussi signaler les notes d'Andrej Bauer sur la réalisabilité, qui sont à l'état d'ébauche au moment où j'écris : ce qui est là est très bien expliqué, mais c'est encore incomplet, et notamment, il n'y a pas de définition du topos effectif.

Ajout () : ce billet ultérieur sur diverses généralisations des degrés de Turing (et sur ce qui est, en fait, les topologies de Lawvere-Tierney sur le topos effectif), quoique indépendant de celui-ci, a néanmoins un rapport assez étroit.

Table des matières

Motivation

☞ Un monde de la calculabilité

Bref, le but est de donner ci-dessous la définition du topos effectif, c'est-à-dire des « objets » et des « morphismes » du topos effectif, et ensuite de la « réalisabilité » des formules logiques dont les variables sont « typées » par les objets du topos effectif. (Tous les mots entre guillemets doivent être expliqués plus bas.) Pour essayer de donner quand même un avant-goût de quoi il est question avant de passer aux définitions proprement dites, un objet du topos effectif va être une structure qui ressemble à un ensemble, et un morphisme va ressembler à une application, mais l'idée est de construire une sorte de monde mathématique alternatif (sujet aux lois de la logique intuitionniste, cf. ici et surtout ), ça c'est en gros le sens du mot topos, mais ce topos précis ayant la propriété remarquable que toute fonction des entiers vers eux-mêmes est calculable (au sens de Church-Turing), d'où le terme de effectif, et accessoirement toute fonction réelle est continue. (Ces affirmations étant certainement réfutables en logique classique, il est nécessaire de passer à une logique plus faible comme la logique intuitionniste pour espérer les rendre possibles.)

☞ Vérité par témoignages

Toujours pour donner une idée très vague et en agitant les mains de ce dont il va s'agir, le cœur de l'idée du topos effectif est d'utiliser en quelque sorte, les parties de ℕ (i.e., les ensembles d'entiers naturels) comme des sortes de valeurs de vérité (avec les opérations ⊓,⊔,⇛ que je vais définir ci-dessous pour tenir lieu de la conjonction, de la disjonction, et de l'implication logique). De façon un tout petit peu moins vague, pour différentes sortes d'affirmations logiques, le topos effectif va introduire une partie de ℕ (plus bas, je noterai ⟦φ⟧ pour la « valeur de vérité » associée à une formule logique φ), qu'on appellera l'ensemble de ses « réalisateurs » : le terme classique est de dire que n réalise φ pour dire que n appartient à la partie en question (n ∈ ⟦φ), mais je préfère, intuitivement, parler de témoignages de la véracité de φ.

Même si j'en suis juste à une explication très vague et informelle, profitons-en pour dissiper un malentendu possible dans l'idée qu'on peu se faire : la taille de la partie n'importe pas, il suffit de disposer d'un seul « témoignage » pour conclure que φ est valable dans le topos effectif ; ce n'est pas parce que la partie est plus grande qu'on conclut que l'affirmation est plus vraie, la seule chose qui importe est d'arriver à trouver un élément dedans : si ∅ représente le « faux », le « vrai » peut se représenter aussi bien par ℕ ou {0} ou {42}. Du coup, on peut se demander pourquoi il n'y a pas juste deux valeurs de vérité, le vide qui représente le faux, et n'importe quel ensemble habité[#2] qui représente le vrai, et de fait c'est bien le cas quand il n'y a aucun paramètre libre, mais dès que la partie dépend de paramètres, il va y avoir des parties habitées où il sera plus ou moins facile de trouver un élément. Dit comme ça, c'est désespérément vague, mais j'espère que ça aidera à comprendre un peu mieux les définitions précises qui vont suivre.

[#2] Le mot habité (pour un ensemble) signifie simplement non-vide. Je vais dire plus bas pourquoi je l'utilise.

☞ Ensembles avec égalité-existence

Toujours de façon très vague, un objet du topos effectif sera la donnée (X,E) d'un ensemble X (au sens usuel) muni d'une « fonction d'égalité-existence », qui à un couple (x,y) d'éléments de X va associer une partie de ℕ qui indique la « valeur de vérité » du fait que x et y existent et sont égaux (on pourrait certainement séparer les deux rôles en une fonction d'existence et une fonction d'égalité, mais ce serait techniquement moins commode), cette fonction étant symétrique et transitive en un sens qu'on va expliquer plus bas (mais pas réflexive, parce que la réflexivité va servir à mesurer l'existence). Et un morphisme entre objets du topos effectifs est défini, en gros, par une fonction qui indique, de même, la « valeur de vérité » du fait que x est envoyé sur y par le morphisme. Maintenant il s'agit de rendre précises ces idées que je viens de dire de façon très vague.

↑Entry #2752 [older| permalink|newer] / ↑Entrée #2752 [précédente| permalien|suivante] ↑

Only the 20 most recent entries were included above. Continue to older entries.

Seules les 20 plus récentes entrées ont été incluses ici. Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2023 Jan 2023 Feb 2023 Mar 2023 Apr 2023 May 2023 Jun 2023 Jul 2023 Aug 2023 Sep 2023 Oct 2023 Nov 2023 Dec 2023
2022 Jan 2022 Feb 2022 Mar 2022 Apr 2022 May 2022 Jun 2022 Jul 2022 Aug 2022 Sep 2022 Oct 2022 Nov 2022 Dec 2022
2021 Jan 2021 Feb 2021 Mar 2021 Apr 2021 May 2021 Jun 2021 Jul 2021 Aug 2021 Sep 2021 Oct 2021 Nov 2021 Dec 2021
2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020 May 2020 Jun 2020 Jul 2020 Aug 2020 Sep 2020 Oct 2020 Nov 2020 Dec 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]