David Madore's WebLog

This WebLog is bilingual, some entries are in English and others are in French. A few of them have a version in either language. Other than that, the French entries are not translations of the English ones or vice versa. Of course, if you understand only English, the English entries ought to be quite understandable without reading the French ones.

Ce WebLog est bilingue, certaines entrées sont en anglais et d'autres sont en français. Quelques-unes ont une version dans chaque langue. À part ça, les entrées en français ne sont pas des traductions de celles en anglais ou vice versa. Bien sûr, si vous ne comprenez que le français, les entrées en français devraient être assez compréhensibles sans lire celles en anglais.

Note that the first entry comes last! Notez que la première entrée vient en dernier !

Index of all entries / Index de toutes les entréesXML (RSS 1.0) • Recent comments / Commentaires récents

(mercredi)

L'élection présidentielle française devrait-elle se faire en trois tours ?

L'élection présidentielle française se déroule en deux tours : au premier tour peuvent se présenter tous les candidats ayant recueilli un certain nombre de « parrainages » (d'élus), et chaque électeur vote pour un et un seul de ces candidats ; ne sont qualifiés pour le second tour que les deux candidats ayant obtenu le plus grand nombre de voix (sauf si l'un obtient déjà la majorité absolue au premier tour, auquel cas il est élu immédiatement) ; les électeurs ont donc, au second tour, qui a lieu deux semaines après le premier, le choix entre deux et seulement deux candidats, parmi lesquels ils doivent en choisir un, et l'élection se fait de façon évidente (à la majorité, forcément absolue puisqu'il n'y a plus que deux candidats).

Je ne sais pas quelle est l'histoire de ce mode de scrutin « uninominal à deux tours », et Google comme Wikipédia me renseignent fort peu. L'élection présidentielle au scrutin universel direct a été introduite en France en 1962 (auparavant, le président était élu par un collège électoral), mais il est probable que le mode de scrutin en question ait été utilisé antérieurement, pour d'autres élections, ici ou ailleurs dans le monde, et je serais curieux d'avoir des informations sur les débats qui ont présidé à ce choix précis. J'entends dire qu'il est apparu dans l'empire allemand de 1870, mais les détails sont confus (je ne sais ni pour quelles élections au juste, ni quelles auraient été les conditions d'accès au second tour). Actuellement, beaucoup de scrutins en France se font en deux tours, mais les conditions d'accès au second tour changent de façon incompréhensible d'élection en élection. (Il n'y a que la présidentielle pour laquelle le critère est d'arriver dans les deux premiers au premier tour : d'autres élections fixent un minimum de voix en pourcentage des suffrages exprimés ou des inscrits, selon une insupportable absence de cohérence ; par voie de conséquence, ces élections rendent possibles des « triangulaires », voire théoriquement des « quadrangulaires », au second tour.) Beaucoup d'autres pays utilisent une variante ou une autre de ce mode de scrutin.

Ce scrutin uninominal à deux tours est un net progrès par rapport au scrutin uninominal à un seul tour (utilisé, par exemple, pour la plupart des élections aux États-Unis, pour les députés à la Chambre des Communes au Royaume-Uni, pour les députés au Canada même si l'actuel Premier ministre a promis de changer ce mode d'élection, et dans toutes sortes d'autres pays). Le scrutin uninominal à un seul tour est le plus simple qu'on puisse imaginer (ou demande à chaque électeur de choisir un et un seul nom, et celui ayant le plus de voix est élu), et il est catastrophiquement mauvais : ne serait-ce que parce qu'un candidat presque unanimement détesté peut se retrouver élu parce que ses adversaires sont divisés (voir le cas de l'élection de Rodrigo Duterte comme président des Philippines en 2016). Dans la pratique, le scrutin uninominal à un seul tour tend à conduire au bipartisme, parce que s'il y a plus que deux partis politiques, les résultats des élections sont assez aléatoires et profondément injustes. En contrepartie du bipartisme, on peut espérer que les deux partis mettent en place des systèmes de « primaires » pour choisir leurs candidats et compenser ainsi (un peu) l'injustice du système : c'est ce qui s'est passé aux États-Unis, assez récemment à l'échelle de l'histoire du pays ; mais le fait d'avoir des primaires pose de nouvelles questions, à commencer par les règles de ces élections-là et de comment elles sont décidées.

Le scrutin uninominal à deux tours, donc, est un progrès par rapport à celui à un seul tour. Il permet au moins dans une certaine mesure l'expression d'une pluralité d'opinions que ne permet pas le scrutin à un seul tour : s'il y a grosso modo deux blocs dans l'opinion, typiquement, la droite et la gauche, on peut espérer, et il arrive souvent (mais pas toujours !) dans la pratique, que ces deux blocs soient représentés au second tour, ce qui permet un ralliement de chaque bloc au candidat arrivé en tête du bloc et qui le représente au second tour. Le premier tour tient donc un rôle vaguement semblable à celui que tiennent les primaires dans un scrutin uninominal à un seul tour. Très vaguement.

Dans l'idée du général De Gaulle (qui a introduit l'élection présidentielle au scrutin universel direct en France), l'idée était probablement surtout d'assurer que le second tour « rassemble » les électeurs : comme le mode de scrutin garantit que le gagnant de l'élection a obtenu une majorité des suffrages exprimés au second tour, il peut se targuer de l'adhésion de la majorité — majorité assez factice en vérité, surtout si le candidat en face de lui au second tour ne représente pas grand-chose, mais l'idée n'est pas complètement stupide.

En fait, le système n'a pas si mal marché en France entre 1962 et 1995 (même si 1969 est discutable), ainsi qu'en 2007 et 2012.

Mais l'élection de 2002 a montré ses limites : les voix de la gauche s'étant dispersées au premier tour entre un trop grand nombre de candidats, ce camp n'a pas été représenté au second tour qui s'est déroulé entre la droite et l'extrême-droite ; Jacques Chirac a été élu contre Jean-Marie Le Pen avec une majorité écrasante après des manifestations de protestation contre les résultats de ce premier tour. En 2002, c'était une surprise (au moins pour ceux qui ne savaient pas lire les sondages et leurs marges d'erreurs, i.e., essentiellement tout le monde). En 2017, on s'attend généralement à ce que le même phénomène se reproduise, et ce ne sera, cette fois-ci, une surprise pour personne si le second tour voit s'affonter François Fillon et Marine Le Pen.

Il est difficile de nier qu'il s'agit d'un problème réel. Ce n'est pas tellement que la droite et la gauche doivent, par principe, être représentées au second tour. Des signes objectifs que les candidats représentés au second tour ne sont pas « les bons » sont plutôt à chercher dans le score écrasant que l'un d'entre eux obtient (s'il n'a pas déjà eu une forte majorité au premier tour) et/ou dans un taux de participation très bas : ce sont autant de signes que les électeurs sont insatisfaits du choix qu'il leur reste, et soit qu'ils refusent de faire ce choix, soit qu'ils s'estiment contraints. Ou bien par le fait que les deux candidats qui passent au second tour ne totalisent qu'une proportion modeste (disons, <50%) des suffrages exprimés au premier. L'élection de 1969, où la gauche n'était pas non plus représentée au second tour, n'était pas forcément problématique selon ces critères ; celle de 2002 l'était indubitablement. Et le scénario risque de se reproduire fréquemment à l'avenir : même s'il n'a pas lieu en 2017, le fait que l'extrême-droite soit devenue une force politique très importante suggère que le mode d'élection n'est plus adapté. En fait, même si le second tour voit s'affronter la gauche et la droite, ou la gauche et l'extrême-droite, il y aura de toute façon un problème de représentativité.

Ce n'est sans doute pas un hasard si les partis politiques français ont commencé, en 2011 pour la gauche et en cette année pour la droite, à jouer le jeu des primaires (ouvertes à tous les électeurs). Les primaires devraient permettre de pallier les insuffisances du scrutin uninominal à deux tours comme elles le permettent (dans une certaine mesure !) pour le scrutin uninominal à un seul tour. L'idée serait d'éviter l'éparpillement des voix au premier tour (devenu beaucoup plus critique qu'il l'était avant) en désignant un candidat unique en amont. Mais les primaires posent leur propre problème : outre qu'il leur faut elles-mêmes un mode de scrutin (reconnaissons que, cette fois, le scrutin uninominal à deux tours est adapté, et d'ailleurs peut-être même qu'un seul tour suffirait), il y a l'inquiétude, souvent exprimée mais sans doute exagérée, que des électeurs de « l'autre camp » participent à une primaire qui ne les concerne pas, inquiétude d'autant plus importante si tout le monde est convaincu de ce que sera le camp vainqueur. Et enfin — et surtout — comme les primaires ne lient personne, il est de toute façon possible à un candidat de se présenter hors des primaires, renvoyant celles-ci à l'affaire interne d'un parti plutôt que d'un camp au sens large, si bien que la dispersion se produira quand même.

On peut donc se poser la question d'un autre mode de scrutin.

Mathématiquement, il existe toutes sortes de modes de scrutin, qui prennent en entrée des préférences des électeurs exprimées sous une forme ou une autre (un seul nom, un ordre de préférence, un sous-ensemble des candidats « assentis », ou toutes sortes d'autres variantes), et qui produisent, parfois en faisant intervenir le hasard, un gagnant. Un théorème célèbre dû à Kenneth Arrow (peut-être trop célèbre, comme celui de Gödel, du coup tout le monde aime bien l'interpréter à tort et à travers) affirme qu'aucun mode de scrutin ne peut être parfait, où « parfait » signifie en fait qu'il vérifie un petit nombre de critères qui intuitivement paraissent pourtant vraiment faibles, et certainement désirables. Un problème apparenté à l'impossibilité énoncée par ce théorème est le suivant : si environ 1/3 des électeurs préfèrent X>Y>Z (lire : préfèrent X à Y et Y à Z), environ 1/3 des électeurs préfèrent Y>Z>X et environ 1/3 des électeurs préfèrent Z>X>Y, alors finalement 2/3 (donc une majorité) des électeurs préfèrent X à Y et 2/3 des électeurs préfèrent Y à Z et 2/3 des électeurs préfèrent Z à X, donc qui qu'on choisisse entre X, Y et Z, il y aura 2/3 des électeurs qui en préféreront un autre. (Cette situation porte le nom de pardoxe de Condorcet : la relation de préférence majoritaire n'est pas forcément transitive.)

Néanmoins, il n'est pas vraiment acquis que le théorème d'Arrow pose un problème réel dans la pratique : les situations de paradoxe de Condorcet, notamment, sont sans doute rares, les électeurs votent rarement stratégiquement, et il y a différents théorèmes de possibilité qui montrent que sous certaines hypothèses pas franchement farfelues sur les préférences des électeurs et/ou sur leur honnêteté, on peut quand même former des modes de scrutin raisonnablement satisfaisants. Mais ensuite, la question devient de savoir ce qu'on veut exactement, et les mathématiques n'ont pas de réponse à ça.

On peut par exemple évoquer le critère de Condorcet : on dit qu'un mode de scrutin vérifie le critère de Condorcet lorsque s'il y a un candidat X tel que pour tout candidat Y une majorité d'électeurs préfère X à Y, alors X est élu. Autrement dit : le critère de Condorcet demande qu'un candidat qui est majoritairement préféré à tout autre candidat soit forcément élu (un tel candidat, X dans la phrase précédente, est appelé vainqueur de Condorcet ; il n'y a pas forcément un vainqueur de Codorcet, et s'il n'y en a pas, c'est-à-dire essentiellement les situations visées par le paradoxe de Condorcet évoqué plus haut, alors le critère de Condorcet n'exige rien du tout ; mais s'il y en a un, le critère de Condorcet demande que ce candidat soit élu). Ni le scrutin uninominal à un seul tour ni celui à deux tours ne vérifient le critère de Condorcet. La situation typique est celle où il y a trois candidats, X (centriste), Y₁ (de droite, disons) et Y₂ (de gauche, disons), où il y a un peu moins que la moitié des électeurs (les électeurs de droite) qui préfèrent Y₁>X>Y₂, un peu moins que la moitié des électeurs (les électeurs de gauche) qui préfèrent Y₂>X>Y₁, et le petit restant des électeurs (les électeurs centristes) qui préfèrent X>Y₁>Y₂ ; dans ces conditions, si on applique un scrutin uninominal à deux tours, le second tour aura lieu entre Y₁ et Y₂, et Y₁ gagnera, alors qu'en fait X était vainqueur de Condorcet.

On peut trouver des modes de scrutin qui vérifient le critère de Condorcet. (J'aime beaucoup celui-ci, que j'avais « redécouvert » indépendant et mentionné plusieurs fois sur ce blog sous le nom de scrutin de « Condorcet-Nash » ; voir notamment cette entrée et les notes au point (5). Il est « optimal » en un certain sens : en contrepartie, il a l'inconvénient de faire intervenir le hasard et d'être incompréhensible pour les non-mathématiciens.) Malheureusement, aucun de ces modes de scrutin, à ma connaissance, n'est compréhensible par l'électeur moyen, i.e., l'électeur non-mathématicien. Et même si j'aimerais bien vivre dans un monde où tout le monde comprendrait raisonnablement bien les mathématiques (au moins des choses relativement basiques comme ça), ce n'est pas le cas, et il est certainement important qu'une large majorité d'électeurs ait une idée globalement correcte des principes du mode de scrutin pour que la démocratie fonctionne. (Bon, cette affirmation est peut-être à nuancer : le mode d'élection des élections régionales en France est franchement assez byzantin, et ça ne pose pas de problème particulier ; mais au moins on comprend que c'est grosso modo une proportionnelle.) De toute façon, pour espérer pouvoir convaincre des hommes politiques de changer le mode de scrutin, il faudrait commencer par le leur faire comprendre (et leur faire comprendre comment ça peut les avantager ou avantager leur parti…).

Et même sur le fond, il n'est pas certain que le critère de Condorcet soit forcément souhaitable : c'est un critère qui, finalement, « favorise » les centristes ; mais si on reprend l'exemple précédent et qu'on se dit que pas loin de la moitié des électeurs (les électeurs de droite) préfèrent Y₁≫X>Y₂, pas loin de la moitié des électeurs (les électeurs de gauche) préfèrent Y₂≫X>Y₁, et le restant des électeurs (les électeurs centristes) préfèrent XY₁>Y₂, alors peut-être qu'il est politiquement légitime que ce soit Y₁ qui soit élu et pas X, ce dernier fût-il vainqueur de Condorcet, parce qu'élire Y₁ (et sans doute Y₂ la fois suivante) c'est admettre que gouverner c'est choisir et pas forcément faire des compromis. De nouveau, c'est une question politique à trancher, les mathématiques ne peuvent que faire des suggestions.

Un certain nombre de pays pratiquent pour certaines élections un mode de scrutin appelé instant runoff voting, également connu sous d'autres noms comme alternative vote ou transferable vote (attention cependant, le single transferable vote est une extension plus complexe de ce système qui s'applique au cas où on élit plusieurs personnes et pas une seule). L'idée est simple et compréhensible par tout le monde : au lieu de faire 2 tours comme en France, on en fait N−1 où N est le nombre de candidats, chaque tour éliminant exactement un candidat (celui le moins bien placé) : autrement dit, on fait un premier tour entre tous les candidats, on élimine celui qui a eu le moins de voix, et on recommence jusqu'à ce qu'il n'y ait plus qu'un seul candidat, qui est alors le gagnant de l'élection. Seulement, faire revenir les électeurs aux urnes pour un si grand nombre de tours serait malcommode : à la place, on demande donc aux électeurs d'indiquer une fois pour toutes leur ordre de préférences entre tous les candidats, et on reporte automatiquement leur voix sur le candidat le plus haut dans leur ordre de préférence et qui soit encore en course. (Autrement dit, initialement, le vote de chaque électeur porte initialement sur le premier candidat sur son ordre de préférence, on élimine le candidat le moins bien classé ainsi, puis on recommence en reportant les voix obtenue par le candidat éliminé sur le second candidat de l'ordre de préférence de ses électeurs, et ainsi de suite.) Ce mode de scrutin ne vérifie pas le critère de Condorcet (le contre-exemple est le même que j'ai déjà donné !), mais il a l'avantage d'être compréhensible par tous, et il remédie globalement au problème de la dispersion des votes présenté par les modes de scrutin uninominaux à un seul et même à deux tours, puisque les candidats sont éliminés successivement en commençant par le moins populaire.

Il a cependant de gros inconvénients. Le principal est qu'il est très difficile à dépouiller : comme chaque électeur doit indiquer un ordre complet de préférences, il faut enregistrer tous ces ordres, ce qui est bien plus complexe que d'enregistrer un seul nom ; et contrairement à d'autres modes de scrutin qui demandent aussi aux électeurs de choisir un ordre de préférence, dans celui-ci, on ne peut pas se contenter de compter, pour chaque paire X,Y de candidats le nombre d'électeurs qui ont préféré le candidat X au candidat Y, ni le nombre de fois que le candidat X arrive en k-ième place : il faut vraiment stocker tous les ordres de tout le monde. Bref, cela se fait surtout bien avec des machines à voter, qui posent leurs propres problèmes de transparence et de sécurité contre la fraude. (Un autre problème possible, mais qui est sans doute peu important dans la pratique, est qu'il ouvre la voie à un canal de communication subliminal : s'il y a assez de candidats, un électeur identifier son bulletin en choisissant subtilement l'ordre dans lequel il classe les candidats « sans importance ». Un peu à la manière dont les enchères du bridge font passer des informations en plus du pari qu'elles annoncent ouvertement.)

Par ailleurs, comme l'instant runoff voting se fait en un seul tour de scrutin (même si ce tour « simule » N−1 tours), il ne permet pas, par exemple, d'avoir des débats de second tour où les candidats repositionneraient leur discours pour tenir compte des résultats du premier tour et chercher à convertir des nouveaux électeurs ; et symétriquement, il ne permet pas aux électeurs de changer d'avis entre les tours. On peut donc se demander si la « queue » des ordres de préférence est aussi bien réfléchie que la « tête ».

Bref, si je devais, moi, changer le mode de scrutin de la présidentielle française, en tenant compte du fait que les électeurs ne sont pas mathématiciens (et d'autres réalités pratiques de ce genre), sans bouleverser la pratique existante ni le fonctionnement des institutions, je ferais le choix suivant, qui me semble représenter un bon compromis et un changement assez minimal par rapport à la pratique actuelle : il s'agit simplement d'insérer un tour intermédiaire lorsque les deux candidats arrivés en tête du premier tour ne totalisent pas 50% des suffrages exprimés ; ou plus exactement :

  1. au premier tour peuvent se présenter tous les candidats ayant recueilli un certain nombre de « parrainages »,
  2. le tour intermédiaire a lieu entre les candidats les mieux classés à l'issue du premier tour jusqu'à totaliser (strictement plus que) la moitié des suffrages exprimés,
  3. le tour final a lieu entre les deux candidats les mieux classés à l'issue du tour intermédiaire.

Il est bien entendu que si le tour intermédiaire devait ne se dérouler qu'entre deux candidats, il est sauté (c'est le tour final qui en tient lieu) ; et encore plus évidemment, que si un candidat obtient la majorité absolue, il est élu d'emblée. Le tour final a lieu deux semaines après le premier tour, le tour intermédiaire s'intercalant sur la semaine intermédiaire s'il y a lieu.

La règle que j'indique pour le tour intermédiaire, à savoir prendre les candidats les mieux classés jusqu'à dépasser 50% des voix au total, est une sorte de compromis basé sur différentes idées. En pratique, cela devrait conduire à sélectionner généralement trois candidats pour le tour intermédiaire si les deux premiers à l'issue du premier tour sont insuffisamment représentatifs : il faut donc imaginer ce tour intermédiaire comme une possibilité de rattrapage en cas de trop grande dispersion des votes au premier tour (si on constate que les deux premiers ne totalisent pas assez de voix, on ressaye en en mettant trois ; il faudrait une dispersion vraiment incroyable pour qu'il y ait quatre ou plus candidats au tour intermédiaire). Cette règle assure qu'au moins la moitié de l'électorat du premier tour voit son choix préféré représenté au tour intermédiaire ; et il est presque certain dans la pratique (même si ce n'est pas logiquement nécessaire) qu'au moins la moitié de l'électorat du tour intermédiaire voit son choix représenté au tour final ; et évidemment, au moins la moitié de l'électorat du tour final voit son candidat élu, puisqu'il n'y en a plus que deux. Bref, j'ai pris un critère simple qui ne repose pas sur un chiffre trop arbitraire : 50% est la valeur maximale qui assure que si on répète ce processus de sélection (à savoir : prendre les candidats les mieux placés jusqu'à dépasser 50% des suffrages exprimés), il termine forcément en temps fini.

Si je regarde ce que cette règle donnerait sur les élections présidentielles passées depuis 1965, il n'y a qu'en 2002 et 1995 qu'elle aurait conduit à un tour intermédiaire (avec respectivement Lionel Jospin et Édouard Balladur comme « troisièmes hommes »), aucune des autres élections n'aurait été modifiée ; c'est-à-dire qu'il n'y a qu'en 2002 et 1995 que les deux candidats du second tour ont représenté à eux deux moins de la moitié de l'électorat — le cas que je qualifie de problématique. Il n'est même pas du tout acquis que la réforme décrite ci-dessus, quand bien même elle devrait être adoptée, permette à un candidat de gauche de dépasser le premier tour en 2017, mais ça deviendrait assurément plus plausible.

Bref, le changement que j'évoque devrait être assez consensuel : il s'agit d'une modification qui ne bouleverserait rien et surtout pas la dynamique des institutions, et qui s'inscrirait de façon assez cohérente dans la logique de la campagne présidentielle et de l'élection telle qu'elles sont déjà pratiquées en France (même le calendrier s'y prête très bien). Les différents partis pourraient avoir des raisons tactiques de l'approuver ou non, mais il n'est pas du tout clair qui elle favoriserait globalement (on peut trouver toutes sortes d'arguments contradictoires, mais le fait est que, globalement, tout le monde est susceptible d'être un jour le « troisième homme »).

Je rassure tout le monde : je ne me fais pas l'illusion qu'une telle mesure aurait la moindre chance d'être adoptée. À la limite, s'il s'agissait simplement de modifier la loi électorale, je pourrais rêver que la probabilité dépasse celle que François Fillon, Marine Le Pen, Emmanuel Macron, Jean-Luc Mélenchon, Manuel Valls, François Bayrou et quelques autres décident en même temps d'abandonner la politique et d'aller tous ensemble s'exiler sur une île paradisiaque pour y pratiquer l'amour libre et y fumer du chanvre entre deux baignades, ce qui ferait le plus grand bien au paysage politique français. Mais là, ce n'est pas juste une loi qu'il faut changer : le mode de scrutin de la présidentielle est inscrit dans la constitution, ce qui est, disons-le franchement, d'une connerie assez incroyable (surtout qu'elle impose même le calendrier, avec une marge de manœuvre quasi nulle pour le gouvernement). Du coup, je vais plutôt compter sur les chances côté île paradisiaque.

Cependant, je suis un peu étonné de n'avoir entendu personne ne serait-ce qu'évoquer une réforme comme je discute ci-dessus. Il y a bien une pétition ici, dont l'auteur n'a manifestement pas fait la même analyse que moi (il veut trois tours systématiquement, et sort de son chapeau un chiffre de quatre candidats admis à passer au deuxième), mais qui va au moins dans le même sens. Cette pétition a recueilli… 14 signatures. Ça doit être une bonne métrique de l'opportunité que j'ai à me lancer en politique.

(mardi)

Une version de Gödel sur l'inséparabilité des théorèmes et antithéorèmes

(Le mot antithéorème, dans le titre et dans ce qui suit, désigne un énoncé P dont la négation logique, que je note ¬P, est un théorème, i.e., un énoncé réfutable alors qu'un théorème désigne un énoncé démontrable. Si vous avez du mal à distinguer vrai/faux de théorème/antithéorème, vous pouvez réviser ici.)

Je fais de temps en temps des remarques sur le théorème de Gödel (par exemple ici), il semble que ce soit un sujet dont on n'arrête pas d'extraire du jus. J'ai fait une remarque à ce sujet récemment sur MathOverflow, je me dis qu'elle pourrait intéresser mes lecteurs, donc je vais tenter de l'expliquer. Je vais essayer de reléguer les détails ou les complément un peu plus techniques à plein de notes : ceux qui veulent juste the big picture peuvent ignorer ces notes (et, dans tous les cas, il vaut peut-être mieux les garder pour une seconde lecture). Pour ceux qui veulent vraiment juste the bottom line, j'explique ici, en utilisant un tout petit peu de calculabilité, pourquoi il existe non seulement des énoncés indémontrables et irréfutables (i.e., « logiquement indécidables »), mais même de tels énoncés dont l'indémontrabilité et l'irréfutabilité sont elles-mêmes indémontrables (i.e., « logiquement indécidablement indécidables »). J'avoue qu'il y a un peu plus de subtilités dans tous les sens que ce que je pensais (i.e., beaucoup de notes), mais j'espère qu'on peut quand même en retenir quelque chose sans comprendre tous les détails.

La clé de tout ça, c'est de méditer sur la manière dont un algorithme (i.e., une machine de Turing) peut séparer les théorèmes et les antithéorèmes, ou le vrai et le faux — en gros, montrer qu'il ne peut pas, même pas en un sens assez faible.

Voici un premier fait : il est possible de produire un algorithme (i.e., une machine de Turing) qui, quand on lui donne un énoncé mathématique P, termine en répondant oui lorsque P est un théorème, et termine en répondant non lorsque P est un antithéorème (i.e., ¬P est un théorème). Il suffit, pour cela, d'énumérer toutes les démonstrations mathématiques possibles (par exemple en énumérant toutes les suites de symboles possibles, en vérifiant pour chacune s'il s'agit d'une démonstration conforme aux règles de la logique, tout ceci étant faisable algorithmiquement), et si on tombe sur une démonstration de P, on s'arrête et on répond oui, tandis que si on tombe sur une démonstration de ¬P, on s'arrête et on répond non. Je n'ai pas précisé dans quel système axiomatique je me place, cela pourrait être, par exemple, l'arithmétique de Peano [du premier ordre] PA ou la théorie des ensembles ZFC (mais dans ce cas, il faudra la supposer cohérente, ce que ZFC lui-même ne peut pas prouver, sans quoi tout énoncé serait à la fois théorème et antithéorème ce qui n'est pas bien intéressant). Bien sûr, tout cela est complètement théorique (dans la vraie vie, la démonstration automatisée ne sert que dans des théories extrêmement étroites, pas pour des énoncés mathématiques « généraux »). Mais le point théorique à souligner, c'est que l'algorithme que je viens de décrire ne termine pas si P n'est ni un théorème ni un antithéorème (i.e., s'il est logiquement indécidable dans la théorie considérée) : la contrainte est seulement que si P est un théorème, l'algorithme termine en répondant oui, et si ¬P est un théorème, l'algorithme termine en répondant non.

Voici un deuxième fait : il n'est pas possible de faire un algorithme (i.e., une machine de Turing) qui, quand on lui donne un énoncé mathématique P, termine en répondant oui lorsque P est vrai, et termine en répondant non lorsque P est faux (i.e., ¬P est vrai). En fait, ce n'est même pas possible si on se limite[#] à ce que P soit un énoncé arithmétique (c'est-à-dire, qui ne parle que d'entiers : voir ici pour une petite discussion) ; ni même si on se limite encore plus à ce que P soit un énoncé arithmétique Π₁ (c'est-à-dire un énoncé de la forme pour tout entier naturel n, on a Q(n), où Q, lui, est arithmétique et algorithmiquement testable en temps fini pour chaque n donné ; voir ici pour une discussion). La démonstration de ce deuxième fait est facile si on connaît un tout petit peu de calculabilité, plus exactement, l'indécidabilité algorithmique du problème de l'arrêt : si un algorithme comme je décrit ci-dessus (i.e., capable de dire si un énoncé est vrai ou faux) existait, il serait notamment capable de dire si l'énoncé <tel algorithme> ne termine pas quand on le lance sur <telle entrée> est vrai ou faux (ceci est bien un énoncé arithmétique, et il est même arithmétique Π₁), et du coup, de résoudre algorithmiquement le problème de l'arrêt.

[#] À vrai dire, si je ne mets pas une restriction de ce genre, c'est encore pire : on ne peut même pas énoncer formellement ce que ça voudrait dire d'avoir un algorithme qui répond oui ou non selon que l'énoncé est vrai ou faux.

Quand on met ensemble les deux faits que je viens de dire, on obtient le théorème de Gödel : en effet, s'il est possible de faire un algorithme qui répond oui sur les théorèmes et non sur les antithéorème, et impossible de faire un algorithme qui répond oui sur les énoncés vrais et non sur les énoncés faux, c'est forcément que les deux concepts ne sont pas identiques !, et donc, si tant est que tous les théorèmes de la théorie sont bien vrais (ou au moins les théorèmes arithmétiques, ou au moins[#2] les théorèmes arithmétiques Σ₁), il y a forcément des énoncés vrais, et même forcément des énoncés arithmétiques Π₁ vrais[#3], mais qui ne sont pas des théorèmes. C'est le théorème de Gödel, et c'est d'ailleurs peut-être la manière la plus simple de le voir. La construction peut être rendue explicite (car l'indécidabilité du problème de l'arrêt l'est). Je crois que cette façon de démontrer le théorème de Gödel était une motivation importante pour Turing dans l'étude du problème de l'arrêt.

[#2] Un énoncé arithmétique Σ₁ est la négation d'un énoncé arithmétique Π₁, c'est-à-dire qu'il est de la forme il existe un entier naturel n tel qu'on ait Q(n)Q est testable. Une propriété intéressante de ces énoncés arithmétiques Σ₁ est que s'ils sont vrais (i.e., s'il existe un tel entier naturel), alors ils sont automatiquement démontrables (dans toute théorie contenant un fragment ridiculement faible de l'arithmétique), puisqu'il suffit d'exhiber le n et de constater qu'il marche. • L'hypothèse réciproque, à savoir que tout théorème arithmétique Σ₁ de la théorie est vrai, s'appelle la Σ₁-correction (soundness en anglais), ou simplement 1-correction. C'est une hypothèse un peu plus faible que la ω-cohérence que Gödel a supposée dans son papier (et dont je ne vais pas expliquer le sens précis), mais plus forte que la cohérence. • Pour ce qui est des énoncés arithmétiques Π₁, en revanche, la simple cohérence d'une théorie (contenant un minimum d'arithmétique) suffit à garantir que les théorèmes arithmétiques Π₁ sont vrais : car si ∀n.Q(n) est faux, c'est que ∃nQ(n) est vrai, or je viens d'expliquer qu'il est alors forcément démontrable, c'est-à-dire que ∀n.Q(n) est un antithéorème, et il ne peut pas être un théorème puisque la théorie était supposée cohérente.

[#3] Un peu plus précisément : comme tout énoncé arithmétique Σ₁ vrai est un théorème (note précédente), et comme on a fait l'hypothèse que tout théorème arithmétique Σ₁ est vrai, c'est que vrai et théorème sont synonymes pour les énoncés arithmétique Σ₁, i.e., faux et antithéorème sont synonymes pour les énoncés arithmétiques Π₁ ; et comme l'algorithme qui répond oui sur les théorèmes arithmétiques Π₁ et non sur les antithéorèmes arithmétiques Π₁ (=les énoncés arithmétiques Π₁ faux), ne peut pas distinguer parfaitement le vrai et le faux, il y a forcément un énoncé arithmétique Π₁ vrai qui n'est pas un théorème.

Bon, c'est intéressant, mais on peut faire mieux.

Posons-nous la question de savoir si on peut renforcer le premier fait : au lieu de vouloir simplement que mon algorithme termine en répondant oui lorsque P est un théorème, et termine en répondant non lorsque P est un antithéorème (i.e., ¬P est un théorème), je vais vouloir, en plus, qu'il termine toujours. Autrement dit, je veux un algorithme qui, quand on lui donne un énoncé P (peut-être seulement arithmétique, voire arithmétique Π₁), termine toujours, et réponde oui lorsque P est un théorème et non lorsque P est un antithéorème. Remarquez que si P n'est ni l'un ni l'autre, j'accepte que mon algorithme réponde n'importe quoi (soit oui, soit non, soit pouêt, soit 42, peu importe), mais il doit toujours terminer. Est-ce possible ? Non (au moins sous l'hypothèse que la théorie sur laquelle je travaille contient l'arithmétique de Peano PA ; par exemple, cela fonctionne pour PA lui-même et pour ZFC — en fait, même des théories beaucoup plus faibles que PA suffiraient).

Je répète ça comme troisième fait :

Il n'existe pas d'algorithme qui, quand on lui donne un énoncé mathématique P, ou même simplement un énoncé arithmétique Π₁, (1) termine toujours, et ce (2) en répondant oui lorsque P est un théorème, et (3) en répondant non lorsque P est un antithéorème (i.e., ¬P est un théorème).

Tout ceci se comprenant pour une théorie contenant PA.

Je veux maintenant expliquer pourquoi ce troisième fait est vrai (i.e., en esquisser une démonstration), et expliquer pourquoi il conduit à des conséquences qui généralisent le théorème de Gödel, et notamment à l'existence d'énoncés logiquement indécidablement indécidables (ou même plus).

Comment montrer ce troisième fait ? Il faut partir[#3b] de l'existence d'ensembles récursivement énumérables et récursivement inséparables : cela signifie qu'il existe deux machines de Turing (=algorithmes) A₁ et A₂ qui énumèrent[#4] des ensembles respectivement S₁ et S₂, tels que ces ensembles soient disjoints (S₁∩S₂=∅), et que de plus, il n'existe pas de machine de Turing U qui termine toujours, répond 1 sur les entiers de S₁ (i.e., énumérés par A₁) et 2 sur ceux de S₂ (i.e., énumérés par A₂) (sur les entiers qui ne sont ni dans S₁ ni dans S₂, la machine U peut répondre ce qu'elle veut). L'existence de S₁ et S₂ est un résultat standard de la calculabilité et se démontre de façon semblable à l'indécidabilité algorithmique du problème de l'arrêt, je vais donner les détails en note[#5]. J'aurai aussi besoin du fait que l'arithmétique de Peano PA démontre que S₁ et S₂ sont disjoints, ce qui ne pose pas de problème particulier (la démonstration que je donne en note fonctionne parfaitement bien dans PA).

[#3b] (Ajout) Comme jonas me le signale en commentaire (), on peut condenser un peu la démonstration et prouver directement le « troisième fait » en construisant, si V est une machine qui (au moins sur les énoncés Π₁) termine toujours, renvoie oui sur un théorème et non sur un antithéorème, l'énoncé P qui affirme V lancée sur P ne termine pas en répondant oui (si V lancée sur P ne termine pas, cela contredit (1), si elle termine en répondant oui alors une trace de ce fait réfute P, donc P est un antithéorème et ceci contredit (3), et si elle termine en répondant non alors une trace de ce fait le prouve, et un système très faible suffit à réfuter le fait qu'elle termine en répondant oui, donc P est un théorème et ceci contredit (2)).

[#4] Dire que A énumère S signifie que A crache une liste d'entiers S : par exemple on peut imaginer que l'algorithme tourne en continu et de temps en temps produit un nombre, et que S est l'ensemble de tous ces nombres, ou bien que l'algorithme prend en entrée un entier et en revoie un autre et que S est l'ensemble des entiers qui peuvent être renvoyés, ça n'a pas d'importance.

[#5] Voici comment on peut faire : soit S₁ l'ensemble des entiers e tels que la e-ième machine de Turing, quand on la lance sur l'entier e, termine et renvoie 2, et soit S₂ l'ensemble des entiers e tels que la e-ième machine de Turing, quand on la lance sur l'entier e, termine et renvoie 1. Il est clair que S₁ et S₂ sont disjoints (une machine ne peut pas à la fois renvoyer 1 et 2). Pour montrer qu'ils sont récursivement énumérables, plus exactement énumérés par des machines A₁ et A₂, on construit la machine A₁ qui exécute de façon déployée toutes les machines de Turing en lançant chacune sur l'argument donné par son propre numéro, et dès qu'une machine e (exécutée sur e) termine en renvoyant 2, la machine A₁ énumère ce e ; tandis que A₂ fait pareil pour les machines qui terminent en renvoyant 1. Enfin, s'il existait une machine U qui, quand on lui fournit un entier k, termine toujours en renvoyant 1 lorsque kS₁ et 2 lorsque kS₂, on voit qu'on peut facilement modifier U pour ajouter l'hypothèse qu'elle renvoie toujours soit 1 soit 2 (il suffit de la modifier pour renvoyer 2 dès qu'elle renvoie autre chose que 1) ; cette machine a un numéro, disons e, et si on exécute U sur e lui-même, elle doit terminer et renvoyer 1 ou 2 : mais si elle renvoie 1, la définition de S₂ signifie que eS₂, auquel cas la définition de U implique qu'elle doit renvoyer 2, une contradiction, et on a de même une contradiction dans l'autre cas. C'est donc que U ne peut pas exister.

Une fois acquise l'existence de A₁ et A₂ énumérant des ensembles S₁ et S₂ récursivement inséparables comme je viens de le définir, on va montrer le « troisième fait » (qui signifie, en fait que les théorèmes et les antithéorèmes, même si on se limite aux énoncés arithmétiques Π₁, sont récursivement inséparables).

(Démonstration du « troisième fait » énoncé ci-dessus :)

Imaginons qu'on ait une machine V qui termine toujours, renvoie oui sur un théorème et non sur un antithéorème.

Je considère l'algorithme U suivant. Donné un entier n, je fabrique l'énoncé A₂ n'énumère jamais l'entier n (i.e., nS₂, mais je l'écrit comme ça pour rendre bien clair le fait que :) cet énoncé, appelons-le P, est arithmétique Π₁. J'applique maintenant V à l'énoncé P en question, j'obtiens forcément une réponse en temps fini (puisque V termine toujours) : si cette réponse est oui je renvoie 1 (je signifiant U, bien sûr), tandis que si elle est autre chose, je renvoie 2.

Considérons tour à tour les deux cas que je viens de dire :

  • Si V renvoie oui sur P, comme ce n'est pas non, c'est que l'affirmation P selon laquelle A₂ n'énumère jamais n n'est pas un antithéorème, i.e., l'affirmation ¬P selon laquelle A₂ énumère n n'est pas un théorème ; i.e., il n'y a pas de preuve que A₂ énumère n, et du coup, A₂ n'énumère effectivement jamais n (car si A₂ énumérait n, le fait de le constater par une trace d'exécution constituerait une démonstration[#6]), autrement dit, nS₂.
  • Inversement, si V renvoie autre chose que oui sur P, c'est que l'affirmation P selon laquelle A₂ n'énumère jamais n n'est pas un théorème, mais du coup il n'est pas un théorème que A₁ énumère n (car c'est un théorème que A₁ et A₂ n'énumèrent jamais un entier commun), et comme ci-dessus ceci montre que A₁ n'énumère pas n, bref, nS₁.

J'ai donc construit une machine U qui termine toujours en répondant 1 ou 2, et quand nS₁, elle répond 1, tandis que quand nS₂, elle répond 2 (j'ai montré les affirmations contraposées). Ceci contredit l'inséparabilité récursive supposée de S₁ et S₂.

[#6] Ceci était encore une instance de si un énoncé arithmétique Σ₁ est vrai, alors il est démontrable (ou bien sa contraposée : si un énoncé arithmétique Π₁ n'est pas démontrable, alors il est faux) : voir la note #2.

Il y avait plein de négations empilées dans ce que j'ai écrit (j'espère d'ailleurs ne pas en avoir mis une en trop ou en moins par ci ou par là par inattention), mais globalement, pas de difficulté particulière à cette démonstration. Au final, j'ai prouvé mon troisième fait.

Voyons maintenant comment on peut s'en servir, de manière semblable à la façon dont j'ai montré le théorème de Gödel ci-dessus.

Je commence par redémontrer le théorème de Gödel, avec une petite variante. Pour cela, comme dans le « premier fait » ci-dessus, je construis une machine de Turing qui, donné un énoncé P, va énumérer toutes les démonstrations possibles : (A) si elle trouve une démonstration de ¬P, elle termine et répond non, (B) si elle trouve une démonstration de P, elle termine et répond oui. Si la théorie est cohérente, les recherches (A) et (B) ne peuvent pas aboutir simultanément[#7], la machine va renvoyer oui sur tous les théorèmes et non sur tous les antithéorèmes : d'après mon « troisième fait », il y a forcément des énoncés sur lesquels elle ne termine pas, c'est-à-dire, qui ne sont dans aucun des deux cas, et ceci prouve l'existence d'énoncés que ne réfute pas et ne démontre pas non plus (i.e., qui sont logiquement indécidables). La seule différence par rapport à ma démonstration précédente, est que cette fois-ci je n'ai pas du tout parlé de vérité, et j'ai seulement utilisé la cohérence de la théorie cadre (les précisions techniques sont dans la note qui suit). Comme précédemment, on peut obtenir un énoncé logiquement indécidable qui soit arithmétique Π₁, et il est alors vrai (voir la note #2) ; et la construction peut être rendue tout à fait explicite.

[#7] Je souligne que les recherches (A) et (B) ont lieu en parallèle. La cohérence est utilisée pour affirmer que si ¬P est un théorème, P n'en est pas un : il n'y a donc pas de risque que la machine réponde oui parce qu'elle aurait trouvé une démonstration de P avant celle de ¬P, et vice versa. La démontration du théorème de Gödel que j'avais utilisée précédemment (en utilisant mon « deuxième fait »), elle, utilisait la 1-correction, ce qui est plus fort que la cohérence. Ici, j'obtiens un énoncé logiquement indécidable à partir de la seule cohérence de la théorie : c'est le théorème de Gödel-Rosser.

Pour aller plus loin, je vais avoir envie de considérer deux théories simultanément. Jusqu'à présent, il y avait une théorie T sous-entendue quand j'écris quelque chose comme P est un théorème : cette théorie pouvait être par exemple l'arithmétique de Peano PA, ou la théorie des ensembles ZFC, ou plein d'autres choses. En gros j'ai besoin qu'elle démontre des énoncés arithmétiques de base et notamment la récursive inséparabilité des ensembles S₁ et S₂ que j'ai utilisés (pour cela il suffit qu'elle contienne PA ou même moins) ; j'ai besoin que l'ensemble des axiomes de la théorie soit récursif (i.e., qu'on puisse algorithmiquement décider ce qui est un axiome et ce qui ne l'est pas) de manière à pouvoir énumérer les démonstrations ; et j'ai aussi eu besoin ici ou là de supposer qu'elle était cohérente, voire plus, mais je l'ai toujours dit explicitement.

Maintenant je vais vouloir parler de deux théories T♭ et T (cette dernière va servir de métathéorie pour la première) où T♭ est incluse dans T (au moins au sens où tout théorème de T♭, ou au moins tout théorème arithmétique Π₁, est un théorème de T) : le lecteur qui ne veut pas se compliquer la vie peut s'imaginer par exemple que T♭ est PA et que T est ZFC ; ou bien, s'il préfère, que T♭ est l'une des deux (PA ou ZFC) et que T est la théorie T♭+Consis(T♭) qui ajoute à T♭ l'axiome que T est cohérente. (On a le droit de prendre T égale à T♭ mais ce que je dirai sera alors très peu intéressant.)

Je vais maintenant construire une machine de Turing qui, donné un énoncé P, va énumérer toutes les démonstrations possibles dans T : comme précédemment, (A) si elle trouve une démonstration de ¬P dans T, elle termine et répond non, (B) si elle trouve une démonstration de P dans T, elle termine et répond oui ; mais maintenant j'ajoute les clauses supplémentaires suivantes : (C) si la machine trouve une démonstration dans T du fait que P est indémontrable dans T, elle termine et répond non, et (D) si elle trouve une démonstration dans T du fait que P est irréfutable (i.e., ¬P est indémontrable) dans T, elle termine et répond oui. Si la théorie T est cohérente[#8], la machine va renvoyer oui sur tous les théorèmes de T♭ et non sur tous les antithéorèmes de T♭ : d'après mon « troisième fait », il y a forcément des énoncés sur lesquels elle ne termine pas, c'est-à-dire, qui ne sont dans aucun des quatre cas, et ceci prouve l'existence d'énoncés que T (A) ne réfute mais (B) ne démontre pas non plus (i.e., qui sont logiquement indécidables dans T), mais dont T ne démontre pas qu'ils sont (C) indémontrables ni (D) irréfutables, même[#9] dans T♭. Bref, on peut dire que ces énoncés sont logiquement indécidablement indécidables.

[#8] Plus précisément : si P est un théorème de T♭, et a fortiori de T, comme la théorie T est cohérente, ¬P n'est pas un théorème de T (donc la recherche (A) ne peut pas aboutir) ; mais par ailleurs, P est un théorème de T est aussi un théorème de T (car il suffit d'exhiber une démonstration pour démontrer l'existence d'une démonstration : ceci était encore une instance de si un énoncé arithmétique Σ₁ est vrai, alors il est démontrable [en l'occurrence dans T]), i.e, P n'est pas indémontrable dans T est un théorème de T, et de nouveau par cohérence de T, P est indémontrable dans T n'est pas un théorème de T (donc la recherche (C) ne peut pas aboutir) ; mais comme la recherche (B), elle, aboutit, la machine termine et répond oui. Et symétriquement, si ¬P est un théorème de T♭, la machine termine et répond non.

[#9] Pourquoi écrire même dans T♭ ? Parce que si P est indémontrable/irréfutable dans T, elle l'est a fortiori dans T♭ ; et du coup, il devrait être plus facile de démontrer l'indémontrabilité/irréfutabilité dans T♭ de P que celle dans T (en l'occurrence l'indémontrabilité/irréfutabilité dans T est vraie, et l'indémontrabilité/irréfutabilité dans T♭ n'est pas démontrable dans T). • Quant à la raison pour laquelle j'ai besoin de deux théories : ce que j'ai dit reste valable si T♭ est T, seulement dans ce cas la conclusion n'est pas intéressante, parce que T, supposée cohérente, ne peut pas prouver la cohérence de T (c'est le second théorème d'incomplétude), c'est-à-dire qu'elle ne peut même pas prouver que T ne prouve pas tous les théorèmes, et a fortiori, elle ne peut pas prouver que T ne prouve pas P, ni que T ne prouve pas ¬P — mais c'est pour des raisons « idiotes ».

De nouveau, la construction peut être rendue tout à fait explicite. Par ailleurs, P peut être choisi arithmétique Π₁ : on obtient alors un énoncé vrai (voir la note #2), indémontrable et irréfutable (dans T), et dont l'indémontrabilité et l'irréfutabilité (même dans T♭) sont eux-mêmes indémontrables[#9b][#10] (dans T).

[#9b] (Ajout) Ce que je raconte est un peu redondant, je ne sais pas si ça simplifie ou complique les choses, mais je peux signaler que la recherche (B) recouvre la recherche (D) : en effet, si T démontre que T♭ ne réfute pas P, alors T démontre P (car on peut tenir dans T le raisonnement suivant : si P n'était pas vrai, il serait réfutable dans T♭ — toujours car il suffit d'exhiber un contre-exemple — et a contrario, si T♭ ne réfute pas P, c'est que P est vrai). Du coup, je peux juste dire : un énoncé indémontrable et irréfutable dans T, et dont T ne démontre pas non plus l'indémontrabilité dans T♭ (tout le reste en découle).

[#10] Et on peut aussi les rendre irréfutables : soit, ce qui est le plus naturel, en supposant la 1-correction de T (car alors si P est indémontrable/irréfutable dans T♭, resp. irréfutable, on ne peut pas prouver le contraire dans T !) ; soit, sous l'hypothèse plus faible que T ne prouve pas que T♭ est incohérente, en refaisant l'astuce de Rosser, c'est-à-dire en ajoutant encore des recherches à la machine : (E) si la machine trouve une démonstration dans T du fait que P est réfutable (i.e., ¬P est démontrable) dans T♭, elle termine et répond non, et (F) si elle trouve une démonstration dans T du fait que P est démontrable dans T♭, elle termine et répond oui.

J'ai notamment démontré, sous l'hypothèse que ZFC est cohérent, qu'il existe des énoncés arithmétiques Π₁ qui soient vrais mais indécidables, mais dont ZFC ne prouve pas que ces énoncés soient indémontrables, ni qu'ils soient irréfutables, dans l'arithmétique de Peano. Toutes sortes de variantes[#11] sont possibles selon le même raisonnement, il faut juste fabriquer attentivement la machine de Turing sur laquelle on raisonne, et vérifier très soigneusement qu'elle répond oui sur les théorèmes (d'une certaine théorie contenant un minimum d'arithmétique) et non sur les antithéorèmes. Je laisse par exemple en exercice au lecteur de formuler des résultats sur l'existence d'énoncés indécidablement indécidablement indécidables et ainsi de suite (je ne vois pas trop comment monter à des ordinaux infinis, mais je n'exclus pas que ce soit possible).

[#11] Voici un exemple d'autre chose qu'on pourrait montrer dans le même genre : soit PA′ := PA+Consis(PA) la théorie obtenue en ajoutant à PA l'affirmation de sa cohérence ; et soit PA♠ := PA+¬Consis(PA) la théorie obtenue en ajoutant à PA l'affirmation de son incohérence. La théorie PA′ est cohérente (c'est un théorème de ZFC : ℕ en est un modèle) ; la théorie PA♠ l'est aussi (c'est une conséquence de la cohérence de PA et du second théorème d'incomplétude), bien que PA♠ affirme être elle-même incohérente (elle n'est pas 1-correcte, mais elle est quand même cohérente) ; en revanche, la réunion de PA′ et PA♠ est incohérente (ces deux théories ont des axiomes trivialement contradictoires). Maintenant, on peut faire une machine de Turing qui, donné P un énoncé arithmétique Π₁, recherche en parallèle des démonstrations dans PA′ et dans PA♠ : si elle trouve une démonstration de ¬P dans l'une ou l'autre, elle termine et renvoie non, et si elle trouve une démonstration de P dans l'une ou l'autre, elle termine et renvoie oui. Alors cette machine répondra oui pour tout théorème de PA (car sa négation ne peut pas être un théorème ni de PA′ ni de PA♠) et non pour tout antithéorème de PA. D'après mon « troisième fait », on en déduit qu'il existe un énoncé P arithmétique Π₁ (forcément vrai), qui n'est ni démontrable ni réfutable ni dans PA′ ni dans PA♠ : autrement dit, ni ajouter l'axiome Consis(PA) à PA ni ajouter sa négation ¬Consis(PA) ne permet de trancher quant à cet énoncé P ni dans un sens ni dans l'autre. Et en combinant avec ce que j'ai fait avant, on peut aussi obtenir que ni l'indémontrabilité de P dans PA ni son irréfutabilité ne soient démontrables dans PA′ (la question ne se pose pas pour PA♠ puisque PA♠ croit que tout énoncé est un théorème de PA ; mais on peut certainement trouver quand même des choses à ajouter de ce côté-là).

Ajout : Pour être un peu plus explicite, je pourrais donner la forme des différents énoncés qu'on obtient. L'énoncé classique G de Gödel est un énoncé qui signifie (informellement) : G n'est pas démontrable (dans la théorie T) (sous l'hypothèse que T est cohérente, cet énoncé est vrai, donc pas démontrable, et sous l'hypothèse que T est 1-correcte, il n'est pas non plus réfutable). L'énoncé de Gödel-Rosser G′ signifie : pour toute démonstration de G′ (dans T), il existe une démonstration de ¬G′ qui soit plus courte (sous l'hypothèse que T est cohérente, cet énoncé est vrai et n'est ni démontrable ni réfutable). Un exemble d'énoncé « logiquement indécidablement indécidable » G″ est : pour toute démonstration, dans T, de G″ ou bien du fait que G″ est démontrable dans T♭, il existe une démonstration, toujours dans T, de ¬G″ ou bien du fait que G″ est irréfutable dans T♭, qui soit plus courte (cet énoncé est vrai, indémontrable dans T, irréfutable dans T, et il est également indémontrable dans T qu'il est indémontrable dans T♭ ou irréfutable dans T♭). Le fait que ces différents énoncés G,G′,G″ fassent référence à eux-mêmes n'est pas un problème en vertu de l'astuce classique « quinienne » qui permet de construire de tels énoncés auto-référents par diagonalisation. Il est vrai que, complètement développé, un énoncé tel que G″ va être très pénible à écrire (déjà G s'écrit quelque chose comme : soit P l'énoncé obtenu en substituant à la variable libre (notée entre cornets) la valeur de R lui-même dans la formule R suivante : soit P l'énoncé obtenu en substituant à la variable libre (notée entre cornets) la valeur de R lui-même dans la formule R suivante : <Q> ; alors P n'est pas démontrable (dans la théorie T) ; alors P n'est pas démontrable (dans la théorie T) ; alors G″ devient vraiment lourd).

Pour conclure, je dirais que le « troisième fait » cité plus haut est un peu une forme ultime du théorème de Gödel (en tout cas sous sa variante Turing), un outil à fabriquer toutes sortes de théorèmes de Gödel. Je ne connais pas son histoire : il apparaît dans un article de Smullyan (Undecidability and Recursive Inseparability, Z. Math. Logik Grundlagen Math. 4 (1958), 143–147), mais ce dernier suggère que le résultat figure déjà dans un livre de Kleene (Introduction to Metamathematics, apparemment vers la page 313 de l'édition van Nostrand de 1952), je n'ai pas vérifié. Je suppose que plein de gens ont eu cette même idée. Je ne sais pas non plus à qui est due l'observation que ceci permet de construire des énoncés indécidablement indécidables : de même que pour le « troisième fait » (théorème de Kleene-Smullyan ?), et comme sans doute plein de gens qui se seraient posé cette question, je l'ai redécouvert indépendamment, mais il est évident que je suis loin d'être le premier, j'ai eu la flemme de chercher qui ce premier avait pu être.

(vendredi)

Pourquoi cette haine contre les sondages ?

Régulièrement, quand une élection tourne de manière différente de ce que les sondages annonçaient — ou plutôt, de ce qu'une lecture très naïve des sondages semblait permettre de conclure — on entend des hommes politiques, aussi bien du camp des gagnants (i.e., ceux qui ont fait mieux que ce que les sondages semblaient annoncer) que du camp des perdants (i.e., ceux qui ont fait moins bien) dire quelque chose comme : Le premier perdant dans cette élection, ce sont les instituts de sondages ! — ou encore : S'il y a une principale chose à retenir, c'est qu'il ne faut pas faire confiance aux sondages. Je pense que le message à comprendre entre les lignes est quelque chose comme, chez les uns, un infâme complot a cherché à nous faire croire que nous ne pouvions pas gagner (sans doute pour décourager nos électeurs de voter pour nous), et ce complot a été déjoué, et chez les autres, un infâme complot a cherché à nous faire croire que nous ne pouvions pas perdre (sans doute pour démotiver nos électeurs à venir voter), et ce complot a malheureusement réussi à nous coûter la victoire. Ce n'est jamais aussi clair, bien sûr, mais la petite musique est là quelque part.

Plus exactement, il semble y avoir une double affirmation chez à peu près tout le monde politique : (1) les sondages n'ont aucune valeur scientifique, ils sont tout faux, ils se trompent tout le temps, et, plus subtilement, (2) les sondages nuisent à la démocratie parce que l'impression de prédestination qu'ils procurent influence les électeurs dans leur choix, et gâche l'authenticité de leur vote, voire, corrompt une forme d'idéal démocratique qui devrait être celui où les électeurs font leur choix chacun sans tenir compte de ce qu'ils savent des choix des autres. Les petits partis, par exemple, aiment bien prétendre qu'ils restent petits parce que les sondages montrent qu'ils sont petits donc les électeurs ne veulent pas voter pour eux (de peur que leur voix soit essentiellement « perdue »), donc ils déclarent aux sondeurs ne pas vouloir voter pour eux, et le cercle vicieux se boucle.

Et je suis le premier à dire que ces effets boule de neige existent et jouent un rôle gigantesque dans notre société (d'autant plus qu'elle est « connectée ») et dans le fait que toute forme de succès soit auto-entretenu. Donc dénoncer ce problème me semble légitime. Mais le mettre sur le dos des sondages ? C'est oublier qu'il y a toutes sortes d'autres manières dont les opinions des uns se répercutent positivement sur les opinions des autres : des conversations entre amis aux messages viraux sur les réseaux sociaux en passant par la caisse amplificatrice du tri des journalistes, et aussi, les élections elles-mêmes (lors de l'élection N+1, on prendra d'autant plus au sérieux un parti ou un candidat qui a fait un score honorable à l'élection N). Les sondages sont un engrenage dans cette boucle de rétroaction positive, mais ils n'en sont qu'un parmi d'autres.

Il y a un autre problème qu'il me semble tout à fait légitime de critiquer (mais qui n'est pas vraiment mon propos ici), c'est quand on oublie que l'opinion publique n'existe pas tant qu'on ne la mesure pas : c'est une sorte de phénomène quantique, en ce sens que sur l'immense majorité des questions, l'immense majorité des gens n'a aucun avis simplement parce qu'ils ne se sont pas posé la question. Or faire une mesure — poser une question — c'est créer une opinion, et ce n'est en rien une opération neutre. D'autant que la manière dont la question est tournée a une influence gigantesque sur la réponse que les gens donneront, et que le résultat entrera dans la boucle de rétroaction de la société dans son ensemble. Ce qui doit nous intéresser ultimement est l'avis que donnerait la société après un débat et une réflexion sereins (voir ce que je racontais sur les referenda), ce qui n'est certainement pas ce que mesure un sondage. Mais bon, je me limite ici aux sondages sur un vote à venir, ce qui assure au moins que (1) le sondage ne crée pas la question ou le débat, et (2) on peut penser que la question est formulée de façon raisonnablement neutre (comment comptez-vous voter à l'élection du <tant> ?).

Bref, quand j'entends des gens les décrier, j'ai l'impression d'avoir affaire à quelqu'un qui a consulté son thermomètre avant de sortir pour choisir comment s'habiller, sans tenir compte du fait que le thermomètre était peut-être en plein soleil, ou qu'il y avait plein de vent, ou que la nuit allait tomber, ou je ne sais quoi du genre, et qui a trop chaud ou trop froid, et qui passe sa mauvaise humeur sur ce satané instrument de mesure et en vient presque à dire que la thermodynamique est une affaire de charlatans. Mon bon Monsieur, une mesure est une mesure : votre interprétation de cette mesure en est une autre ! Et si vous vous fiez aveuglément à cette interprétation, c'est peut-être ça votre problème, sans qu'il soit pertinent de vous plaindre de la mesure elle-même.

Le problème principal, c'est que souvent une lecture correcte des sondages devrait être on ne peut rien conclure, tout est trop incertain. Mais les gens veulent quand même une prévision, n'importe quelle prévision, ils lisent ce qu'ils peuvent, ou ce qu'ils veulent, en dépit du bon sens, et ils s'énervent contre les sondages quand cette lecture est idiote.

Le plus évident, c'est quand on dit que Machin monte ou que Bidule baisse dans les sondages, quand Machin gagne un point ou que Bidule en perd un. C'est vraiment ne rien comprendre au concept d'une mesure bruitée : à chaque fois qu'on va refaire le sondage, il y a une nouvelle erreur de mesure (et, pour compliquer les choses, il y a à la fois une erreur aléatoire qui diffère à chaque mesure et une erreur systématique qui reste grosso modo la même d'une fois sur l'autre), et cette erreur est sans doute très largement supérieure à la variation de l'opinion « réelle » dans le temps. Donc lire une hausse ou une baisse dans le résultat de quelques sondages successifs est une inanité : c'est pourtant ce que font joyeusement les journalistes. Tout aussi évidente comme erreur est le fait de conclure que Machin a de l'avance ou que Bidule a du retard sur la base de quelques sondages qui montrent pourtant un écart très faible.

Prenons quelques exemples. La récente élection présidentielle américaine, d'abord : les sondages donnaient grosso modo une courte avance à Hillary Clinton sur Donald Trump (quelques points de pourcentage). Lecture complètement crétine des sondages : donc Clinton va gagner. Et ensuite de se lamenter de l'erreur des sondages parce que Clinton ne gagne pas. Non, non, non : l'erreur est dans votre lecture complètement naïve des sondages. Il est vrai que le fait que Clinton ait eu tout au long de la campagne une avance sur Trump dans les sondages nationaux avait sans doute une signification — mais cette signification s'est manifestée dans les faits, puisqu'elle a obtenu plus de votes que Trump (elle a gagné le vote populaire), et par une avance assez importante, d'ailleurs. Si on voulait prédire le gagnant de l'élection (et pas celui du « vote populaire »), il fallait regarder les sondages état par état, faire des modèles complexes à partir de ça, et ces modèles correctement faits, comme celui de fivethirtyeight, donnaient une probabilité de victoire de Trump de l'ordre de 30% (sur tout le cours de la campagne, ça a varié entre 10% et 50%). Si quelqu'un joue à la roulette russe avec deux balles dans le barillet et qu'il meurt, personne ne va trouver ça extraordinaire ou incroyable. Mais là, les gens qui veulent absolument une prévision, n'importe quelle prévision retiennent juste le message Clinton est devant Trump, donc Trump ne va pas gagner, et quand Trump gagne ils crient au mensonge (soit qu'on les a trompés en leur faisant croire qu'il n'y avait pas de risque, soit, quand c'est l'autre camp, qu'on a voulu les réduire au silence en faisant croire qu'ils allaient perdre). Je suis désolé, mais la connerie n'est pas dans les sondages, elle est dans la tête de ceux qui les lisent. Ce n'est pas pour dire que les sondages n'ont pas fait des erreurs systématiques (mais elles ne sont probablement pas ce qu'on imagine facilement), mais ces erreurs étaient détectables déjà au cours de la campagne par une grosse incertitude dans les probabilités calculées — une lecture raisonnable (et c'était la mienne d'où mon inquiétude) était quelque chose comme Clinton a de l'avance mais rien n'est joué et les chances que Trump gagne ne sont pas du tout faibles, il est vraiment difficile de prétendre que cette lecture était une erreur.

Prenons un autre exemple, le Brexit. Tout au long de la campagne, les courbes de résultats du Remain et du Leave n'ont pas arrêté de se croiser, et qui plus est, les sondages selon des méthodologies différentes (sondages téléphoniques versus sondages par Internet notamment) montraient des écarts systématiques révélateurs d'erreurs profondes. Et il est bien connu qu'il est très difficile de sonder sur un referendum (car contrairement à des élections où les mêmes partis se représentent régulièrement, on ne peut pas corriger le résultat du sondage par des interrogations sur les élections passées). Une lecture raisonnable des sondages était donc : il est vraiment impossible de conclure quoi que ce soit sur la base des sondages. Je n'arrive donc pas à comprendre pourquoi tant de gens ont été surpris du résultat de ce qu'on aurait dû traiter quasiment comme un jet de pile ou face. (Mon pronostic personnel était que le Leave l'emporterait, mais je ne peux pas en tirer de gloire, il était, comme ma crainte de la victoire de Trump, plus basé sur une foi inébranlable en la connerie humaine et un pessimisme général que sur des considérations réellement scientifiques.)

Troisième exemple, la primaire « de la droite et du centre » française dont le premier tour a eu lieu la semaine dernière. Bon, là, si les instituts de sondage ont publié des chiffres, c'est sans doute malhonnête de leur part, j'ose espérer qu'ils mettent des barres d'erreur gigantesques, parce que tout le monde sait bien que faire des sondages sur une consultation qui aura une participation très faible (par rapport à l'ensemble de la population, ou même des listes électorales) revient à jeter des fléchettes à l'aveugle au cours d'une tempête. Enfin, tout le monde devrait savoir ça, ou trouver ça complètement évident ; ce qui m'inquiète est que ce ne soit pas le cas : mais ce n'est, de nouveau, pas la faute des sondages, c'est la faute des gens qui n'arrivent pas à comprendre le concept d'une barre d'erreur.

Et pour conclure sur un exemple générique (qui recouvre partiellement le précédent), un sondage, même parfait, ne renseignera que sur l'état de l'opinion au temps t où il est fait. Or l'opinion change, et peut changer même dans les derniers jours ou les dernières heures avant le vote. Faut-il conclure à une erreur dans ce cas ? Je ne le pense pas : il faut juste savoir lire le sondage comme une mesure à un temps donné, et qu'on ne peut extrapoler qu'avec la plus grande prudence — ceux qui le font sans aucune vergogne ne peuvent s'en prendre qu'à eux-mêmes.

Bref, la moindre des choses serait d'arriver à savoir lire quand les sondages disent qu'ils ne peuvent rien dire.

Maintenant, si je me fais l'avocat du diable, je vais dire : mais si une « lecture correcte » des sondages consiste à comprendre qu'il n'y a rien à en tirer dès que le match est un peu serré, quel est leur intérêt ? quand le match n'est pas serré du tout, les sondages ne font que confirmer l'évidence (par exemple, que Jill Stein n'allait pas remporter l'élection présidentielle américaine). Le problème quand on dit ça, c'est qu'on fait preuve de cécité rétroactive : il y a toutes sortes de choses qui nous paraissent évidentes parce qu'on a vu les sondages, et qui ne l'auraient pas été sans eux, et du coup toutes ces situations où les sondages ont apporté une mesure utile et pertinente sur l'état de l'opinion sont facilement oubliées parce qu'elles paraissent « évidentes » avec le recul.

C'est profondément injuste de nier l'utilité de sonder l'opinion publique. Le fait qu'hommes politiques et journalistes y soient totalement accros est certainement un problème, mais la vision idéalisée d'un homme politique qui gouverne uniquement selon son for intérieur et se présente aux élections pour ce qu'il croit Juste, faisant face à des électeurs qui votent eux-mêmes chacun pour le projet qui a sa préférence sans tenir compte des autres, cette vision est, justement, complètement idéalisée — et je n'aime pas l'idéalisation de la démocratie. (Je ne crois pas, par exemple, que les droits des homosexuels auraient fait tant de progrès s'il n'y avait pas des sondages pour montrer que l'opinion publique évolue.)

Et en tout état de cause, si on ne veut pas de sondages, on ne peut pas ignorer le problème réel des votes perdus : si je suis face à trois candidats, A, B et C, que j'ai une très légère préférence pour A sur B, les deux étant très très loin devant C dans mon ordre de préférence, et si le mode de scrutin ne me permet d'exprimer qu'un seul choix, il m'est réellement utile de savoir si A a des chances sérieuses de l'emporter ou s'il vaut mieux que je vote « utile » pour B. Donc à moins qu'on adopte un mode de scrutin vérifiant au moins le critère de Condorcet (or je ne sais pas s'il y a un seul pays au monde qui fait ça !), il faut bien que les électeurs disposent d'un minimum d'information pour faire leur choix de voter « utile » ou non. Ceci est légitime, et seuls les sondages le permettent.

(Bon, dans un monde idéal, on pourrait imaginer faire des élections en continu, où chacun peut, à tout moment, changer sa voix, et dont les résultats sont connus en permanence, et deviennent officiels à partir du moment où tous les électeurs s'estiment satisfaits et n'ont pas envie de changer leur vote compte tenu des résultats — en espérant que ça converge. Les sondages n'auraient alors aucun intérêt puisque l'élection serait un sondage à l'échelle de tout l'électorat. Mais nous ne sommes pas dans un monde idéal !)

(dimanche)

La forme élégante du plan projectif complexe

Je ressors ici de mes cartons une vieille entrée commencée il y a très longtemps, et plusieurs fois reprises, abandonnée, re-reprise, re-abandonnée, etc. Il s'agit d'essayer d'expliquer ce que c'est, et dans une certaine mesure comment visualiser, le plan projectif complexe[#] et sa géométrie. (Sauf qu'à cause de l'histoire compliquée de la rédaction de ce texte, qui s'étale sur des années, j'ai changé plusieurs fois d'avis sur ce que je voulais raconter, et il ne faut pas s'attendre à une grande cohérence. Mais j'espère au moins que les différents bouts seront intéressants.)

Le plan projectif complexe est intéressant parce qu'il appartient à la liste des espaces homogènes et isotropes (ou : deux points homogènes), ce que j'avais évoqué dans mon entrée sur les octonions (plus précisément, ici ; je voulais en parler depuis longtemps), et il est le plus simple/petit parmi eux qui ne soit pas maximalement symétrique, c'est-à-dire, qui ne soit pas un espace euclidien, une sphère (ou espace projectif réel) ou un espace hyperbolique : si on veut essayer d'imaginer ce que la notion d'espace homogène et isotrope signifie, et pourquoi ce n'est pas pareil que maximalement symétrique, il est donc bon de commencer par là ; d'autant plus qu'il n'est que de dimension (réelle) 4, ce qui n'est pas totalement hors de portée de l'imagination, et de toute façon tous ceux qui sont plus compliqués vont le contenir (ou bien contenir son dual, le plan hyperbolique complexe).

Mais il y a une raison supplémentaire d'en parler, c'est que le plan projectif complexe est une sorte d'amalgame entre le plan projectif réel (qui n'est autre que la sphère ordinaire, après identification des points antipodaux) et la droite projective complexe (a.k.a., sphère de Riemann, qui est elle aussi la sphère ordinaire, cette fois sans identification des antipodes, mais qu'il sera pertinent d'imaginer de rayon deux fois plus petit) : ces deux espaces-là sont faciles à comprendre, et sont aussi l'occasion de parler de deux projections particulières de la sphère, à savoir la projection gnomonique et la projection stéréographique. Car le plan projectif réel est fortement lié à la projection gnomonique de la sphère, et la droite projective complexe à la projection stéréographique. • Toutes les deux fonctionnent en projetant la sphère sur un plan tangent à elle et en projetant depuis un point appelé centre de projection (c'est-à-dire que pour projeter un point de la sphère, on trace la droite ou demi-droite partant de ce centre de projetant et reliant le point à projeter, et son intersection avec le plan choisi définit la projection) : la différence est que dans le cas de la projection gnomonique on projette depuis le centre de la sphère tandis que dans le cas de la stéréographique on projette depuis le point antipodal du point de tangence du plan choisi. La projection gnomonique préserve l'alignement (i.e., envoie les grands cercles sur des droites) et c'est d'ailleurs la seule à le faire, tandis que la stéréographique préserve les angles. (Voir aussi mes explications sur les projections de la sphère et l'application au cas de la Terre, ou encore le texte que j'avais écrit il y a bien longtemps sur le sujet de la cartographie.)

[#] Plus exactement : le plan projectif complexe muni de sa métrique/distance de Fubini-Study, qui est alors une variété riemannienne de dimension 4 ; peut-être que je devrais dire plan elliptique complexe (ou plan projectif hermitien ?) — la terminologie n'est pas totalement claire.

Table des matières

Définition rapide et résumé pour les gens pressés

Pour les lecteurs qui veulent tout de suite une définition, le plan projectif complexe est l'ensemble des triplets (u,v,w) de nombres complexes non tous les trois nuls, dans lesquels on identifie (u′,v′,w′) avec (u,v,w) lorsqu'il existe λ complexe non nul tel que (u′,v′,w′) = λ·(u,v,w) (et pour marquer cette identification, on note (u:v:w) la classe de (u,v,w), c'est-à-dire l'ensemble {(λu,λv,λw) | λ∈ℂ×}). Autrement dit, on identifie (u,v,w) et (u′,v′,w′) lorsque les trois rapports u/u′, v/v′ et w/w′ sont tous les trois égaux (plus exactement, les coordonnées nulles doivent être les mêmes d'un côté et de l'autre, et les rapports entre coordonnées non nulles de part et d'autres doivent être les mêmes). On dit que u, v, w sont les coordonnées homogènes du point (définies à un facteur multiplicatif λ commun, donc). Souvent on les prendra normalisées, c'est-à-dire que |u|²+|v|²+|w|²=1 (mais ceci ne définit toujours pas les coordonnées uniquement, car on peut encore multiplier par un complexe λ de module 1).

Pour définir le plan projectif réel, on imposera bien sûr à u,v,w d'être réels (non tous nuls) ; et pour la droite projective réelle, on imposera à w d'être nul (i.e., on n'utilise que deux coordonnées). On pourrait bien sûr définir l'espace projectif de dimension n quelconque en utilisant n+1 coordonnées homogènes. Et on peut faire la même définition avec les quaternions qu'avec les réels ou les complexes (il faut juste faire attention dans ce cas à bien fixer le sens de la multiplication : disons qu'on identifie (u,v,w) avec (λu,λv,λw) pour λ un quaternion non nul : cela revient à identifier (u,v,w) et (u′,v′,w′) lorsque u·u−1, v·v−1 et w·w−1 sont égaux ou, ce qui revient au même, que u−1·v=u−1·v′ et v−1·w=v−1·w′ et w−1·u=w−1·u′, avec les conventions évidentes lorsque des coordonnées sont nulles). Pour les octonions, en revanche, on ne peut fabriquer que la droite et le plan projectifs, et les définitions sont plus délicates.

Mais ce dont je veux surtout parler, ce n'est pas juste le plan projectif complexe, c'est aussi la distance qu'on met dessus (et que je vais motiver en commençant par le cas du plan projectif réel et de la droite projective complexe), qu'on appelle la métrique de Fubini-Study, et qui vaut dist((u:v:w), (u′:v′:w′)) = Arccos(|u·u*+v·v*+w·w*| / √((|u|²+|v|²+|w|²)·(|u′|²+|v′|²+|w′|²))) où z* désigne le conjugué complexe de z ; donc, pour des coordonnées normalisées, c'est dist((u:v:w), (u′:v′:w′)) = Arccos(|u·u*+v·v*+w·w*|), autrement dit l'arc-cosinus du module du produit scalaire hermitien entre les coordonnées normalisées. Il est facile de vérifier que cette distance ne dépend pas des coordonnées homogènes choisies.

Cette distance fait du plan projectif réel une sphère de dimension 2 et rayon 1 où les points antipodaux sont identifiés (l'identification étant par la projection gnomonique), et de la droite projective complexe une sphère de dimension 2 et rayon ½ (l'identification étant par la projection stéréographique) dite « sphère de Riemann ». Quant au plan projectif complexe, de dimension 4, il a une forme où ces deux sortes de sphères jouent un rôle important, et que j'ai tendance à décrire intuitivement comme un « tissu de sphères » (les sphères en question sont les droites projectives complexes du plan projectif complexe : il en passe exactement une par deux points distincts quelconques, et deux d'entre elles se coupent toujours en un point unique). Ce plan projectif complexe, par ailleurs, possède énormément de symétrie, puisqu'elle est homogène et isotrope (« tous les points sont interchangeables, ainsi que toutes les directions à partir d'un point »).

Je dirai encore un mot sur les plans projectifs réels contenus dans le plan projectif complexe, sur les symétries de ce dernier, et sur différentes sortes d'angles qu'on peut définir (car si tous les points se valent et que toutes les distances égales se valent, en revanche, la situation des angles est plus compliquée).

(mercredi)

Ma banque met fin aux e-cartes bleues

J'ai souvent raconté sur ce blog que je fais énormément d'achats en ligne — et les différentes sortes de first world problems que je rencontre. Il y a une chose qui m'a toujours donné confiance, c'est que je fais mes achats avec des numéros de carte bancaire à usage unique : quand je veux acheter quelque chose sur un site marchand, genre www.bigfatdildos.tld ou www.enhanceyourpenis.gov (sites de vente de matériel informatique que je consulte souvent), je ne donne jamais le vrai numéro de ma carte bancaire au site en question ; à la place, je me connecte à un site de ma banque (enfin, techniquement, géré par le GIE Cartes Bancaires) au moyen d'identifiants spécifiques, j'indique combien je veux payer, ce site me génère un numéro de carte bancaire (avec date d'expiration et code de sécurité) valable uniquement pour ce montant et pour un unique commerçant, et c'est ce numéro que je communique au site marchand. Ce système e-carte bleue est rassurant parce que cela limite mes pertes : même si le site marchand est une pure escroquerie, au pire, je perds l'argent de la commande et je ne reçois pas ce que j'ai commandé, ce qui, vu le profil typique de mes commandes (nombreuses mais de faible valeur), ne sera pas un désastre. Le site ne peut pas prélever plus que ce que j'ai autorisé, et mon vrai numéro de carte bancaire n'est ni communiqué en ligne ni stocké chez le marchand.

Avantage supplémentaire, ce système permet de donner un numéro à usage unique à des sites qui proposent des abonnements à tacite reconduction (ce qui devrait être illégal, soit dit en passant) où la désinscription est compliquée : ils ne pourront pas prélever plus qu'une fois, et devront bien annuler le service.

Et il y a très peu d'inconvénients. C'est un tout petit peu plus long, et certains sites sont pénibles parce qu'ils tiennent à mémoriser les numéros de carte qui, du coup, s'accumulent ; parfois il y a le problème que le montant final à payer, compte tenu des frais de port, n'est donné qu'après que le numéro de carte bancaire a été saisi : pour ça, je génère un numéro complètement pipo qui n'a que la somme de contrôle de bon, et je reviens en arrière une fois que je connais le montant correct. Les sites Web les plus embêtants sont ceux qui utilisent PayPal, parce que PayPal (en lequel j'ai exactement zéro confiance, peut-être encore moins que www.bigfatdildos.tld) veut absolument que je me connecte avec mon « compte PayPal », et ils limitent le nombre de cartes bancaires qui peuvent être « liées » à ce compte : je dois donc faire l'exercie fastidieux de dé-lier un numéro de carte déjà périmé avant d'entamer un nouveau paiement. Il y a aussi le cas particulier des sites comme Voyages SNCF, ou certains hôtels, qui ne livrent rien mais demanderont la carte bancaire physique utilisée pour le paiement : dans ce cas, il ne faut évidemment pas utiliser un numéro jetable — là, ma solution est de faire faire ce genre d'achats par mon poussinet qui a toute une panoplie de cartes bancaires, et qui par ailleurs travaille chez Capitaine Train Trainline donc il ne va évidemment pas utiliser Voyages SNCF.

Bref, je suis très content de ce système, ou plutôt, je l'étais, parce que je viens d'apprendre avec effarement que LCL y met un terme. Comme d'habitude avec les banques, il n'y a aucune information précise, le message d'annonce est aussi vague qu'une promesse de Donald Trump :

LCL arrête le service e-Carte Bleue à partir du 31 décembre 2016 et travaille sur d'autres solutions pour renforcer la sécurité des paiements sur Internet.

Que va-t-il se passer à partir du 01 janvier 2017 ?

Pour vos paiements sur Internet, vous pouvez utiliser directement les données de votre carte bancaire après avoir pris connaissance des règles de prudence disponibles dans la fiche sécurité de votre carte sur www.LCL.fr

Ceci ne dit absolument rien. Quand on m'écrit vous pouvez utiliser directement les données de votre carte bancaire, moi je comprends ça comme vous pouvez aller vous faire voir, nous fermons le service et nous ne proposons rien à la place, et les autres solutions sont une pure promesse en l'air. (Accessoirement, je n'ai même pas réussi à trouver la fiche sécurité à laquelle il est fait référence : la personne qui a rédigé ce message n'était apparemment pas au courant que le HTML permet de faire un lien vers une page précise pour éviter de devoir naviguer à la recherche de la page en question à partir d'un titre approximatif.) J'ai écrit pour demander des précisions, mais je n'ai pour l'instant pas obtenu de réponse.

Ajout : à peu près le même message se trouve ici, avec un lien un peu plus précis sur la fiche sécurité ; il reste néanmoins qu'elle ne dit que des banalités et absolument rien d'utile sur ce qui se passera à partir de 2017.

Alors bien sûr, il existe d'autres solutions que les numéros de carte bancaire à usage unique : le plus populaire, par exemple, consiste à ce que chaque achat par numéro de carte donne lieu à l'envoi d'un SMS au numéro du client (préenregistré par la banque), SMS qui demande de confirmer l'achat, ou bien qui fournit un code à quatre chiffres qui doit être saisi sur le site Visa / 3-D Secure. J'ai aussi entendu parler d'un projet bizarre où le code de sécurité au dos de la carte serait dynamique (il y aurait un petit écran LC qui affiche un numéro qui change régulièrement), mais je n'ai pas de détails et je ne comprends pas comment ça peut fonctionner. Toutes ces solutions, cependant, sont inférieures en tout point à celle des numéros à usage unique, car elles passent par la communication du vrai numéro de carte bancaire.

Le problème principal est que, même si les sites marchands sécurisés se répandent (qui vont passer, donc, par l'envoi d'un SMS ou une solution du genre évoqué ci-dessus), les paiements par numéro de carte seule restent possibles. Aucune banque ne permet — à ma connaissance — de refuser systématiquement tout paiement qui n'aurait pas été authentifié par un mécanisme sûr. Il y a donc un danger réel pour le client si son numéro de carte bancaire fuite sur Internet. Même si, en principe, il est facile pour le client de contester un paiement ainsi effectué de manière non sécurisée avec le seul numéro de carte bancaire et sans aucun mécanisme de protection supplémentaire, et d'obtenir un remboursement en cas de fraude, cela représente néanmoins un risque, au moins du désagrément de devoir faire la démarche de contestation ou de se retrouver avec un compte vidé au mauvais moment ; et au pire qu'elle n'aboutisse pas si on remarque la fraude trop tard ou si la banque est mal lunée. Et du coup, si la seule manière de payer impose de fournir le (vrai) numéro de carte bancaire, même s'il y a un code de vérification après, on s'expose à ce que ce numéro soit volé au passage et qu'il puisse resservir lors d'un paiement non sécurisé, qui sera pénible et fastidieux à contester. Aucune solution de paiement qui utilise le vrai numéro de carte bancaire n'est donc raisonnablement sécurisée, sauf si la banque fournit aussi (or comme je l'ai dit ce n'est jamais le cas) un moyen de refuser tout paiement passant par le seul numéro.

Souvent, par le passé, quand j'ai évoqué ces problèmes et ma satisfaction de la solution « e-carte bleue », on m'a répondu ceci : c'est une solution qui protège, en fait, la banque, car c'est la banque qui est tenue de rembourser tout paiement frauduleux, donc ça ne devrait pas être le problème du client. Voilà bien une réponse complètement déconnectée de la réalité : quiconque a déjà affronté les emmerdements consistant à obtenir un remboursement de la part de sa banque sur un achat frauduleux le sait[#]. Pour ceux qui persistent à croire que ce n'est pas un problème, je propose l'exercice suivant : pour la modique somme de 0€ je vous adresserai mes plus vives félicitations ; si cet achat vous intéresse, postez votre numéro de carte bancaire, avec date d'expiration et code de sécurité, sur un site public comme Reddit ou 4chan, et envoyez-moi un lien vers le post, et je vous adresserai mes plus vives félicitations dans les plus brefs délais. Si vous avez vraiment confiance en la possibilité de contester un paiement frauduleux, ceci devrait le prouver. Si vous n'êtes pas prêts à le faire, vous comprenez maintenant pourquoi je n'ai pas envie de fournir mon vrai numéro de carte bancaire (même s'il y a un SMS derrière) à un site marchand de réputation aussi douteuse que www.enhanceyourpenis.gov ou PayPal.

Bref, je ne comprends décidément pas pourquoi les banques imaginent des solutions tordues et qui fonctionnent mal alors que le système des numéros à usage unique est simple, efficace, et largement plus sûr que tout le reste.

Toujours est-il que je suis pris complètement au dépourvu par la terminaison de ce service, et maintenant il faut que je me mette en quête, au plus vite, d'une banque chez laquelle ouvrir un nouveau compte. Mon poussinet m'apprend que Fortuneo fournit un service équivalent de cartes bancaires à usage unique, et qu'ils ne prennent pas de frais. Mais si je choisis cette solution, il reste l'emmerdement à faire la démarche pour ouvrir le compte, à avoir une carte bancaire supplémentaire à transporter (et un code secret supplémentaire à mémoriser), un compte supplémentaire à gérer dans ma comptabilité et à alimenter, bref des tracas dont je me passerais bien. Et l'anecdote racontée dans la note qui suit ne me prédispose pas à faire confiance à cette banque.

[#] À titre d'exemple, je peux raconter l'anecdote suivante. Quand mon poussinet et moi sommes allés à New York il y a deux ans, une des transactions par carte qu'il a faites (très exactement, le , dans ce Deli's, au croisement de Broadway et de la 52e rue, que je déconseille donc vivement) a été fraudée par le commerçant. Ce dernier a ajouté un « tip » que mon poussinet ne voulait pas lui verser (au motif qu'il n'y a pas à verser un pourboire s'il n'y a pas de service à table — c'était un repas à emporter). Mon poussinet avait bien sûr l'exemplaire client du ticket, sur lequel il était clair qu'il n'avait pas mis de tip : la fraude était donc manifeste, et prouvable. Qui plus est, elle rentre parfaitement dans une des cases prévues par le réseau gérant la carte (MasterCard). Mais mon poussinet n'a jamais pu obtenir de Fortuneo (la banque émettrice) que la fraude soit corrigée ou dénoncée au réseau : chaque mail qu'il envoyait était apparemment traité par une personne différente, qui n'avait apparemment aucune mémoire des échanges précédents, et on lui a fait quantités de réponses fausses, absurdes ou contradictoires (par exemple, on a essayé de lui dire qu'il s'agissait de frais de change, ce qui est faux ; on lui a fait remplir un formulaire qui a ensuite disparu dans la nature ; on lui a prétendu qu'on ne « pouvait rien faire » ; etc.). Finalement, il a renoncé à se battre pour le principe, parce que la somme était vraiment dérisoire (quelques dollars). Mais cela donne une idée de combien cette banque prend au sérieux la défense de ses clients face à la fraude.

PS : Personnellement, si je devais inventer un système de paiement, ça ressemblerait beaucoup au système des cartes bancaires à usage unique : on se connecterait sur le site de la banque avec des identifiants personnels, on demanderait à payer une certaine somme et on remplirait quelques cases supplémentaires pour des questions comme comme accepte-t-on que le paiement soit renouvelé (avec avec quelle fréquence maximale), accepte-t-on que le montant soit partagé par plusieurs tireurs, combien de temps veut-on qu'il reste valable, etc. ; pour un gros montant, il y aurait une authentification en plusieurs étapes (au minimum, l'envoi d'un SMS) ; la banque fournirait alors un numéro unique de 256 bits qui permet le prélèvement de la somme autorisée sur le compte, et on communiquerait ce numéro au marchand. Ceci marcherait aussi entre particuliers (si je veux donner de l'argent à un copain, j'irais sur le site de ma banque, j'obtiendrais un tel numéro que je transmettrais à mon copain, par exemple par QR-code, il l'entrerait sur le site de sa banque avec le montant à transférer, au maximum celui que j'ai autorisé, et le virement aurait lieu). Ceci remplacerait à la fois l'usage des cartes bancaires en ligne, et aussi des virements par numéro de compte, qui sont une calamité au niveau sécurité (avec SEPA, n'importe qui peut tirer sur n'importe quel compte en Europe avec juste le numéro de compte, et c'est au fraudé de s'en rendre compte et de protester — c'est quand même d'une stupidité affolante). C'est quand même dire beaucoup du niveau de compétence du système bancaire que, en cinq minutes et sans réfléchir j'arrive à concevoir un système beaucoup plus sûr, beaucoup plus simple et beaucoup plus efficace que tout ce qui existe actuellement !

(dimanche)

Introspection, et « marcellisme »

Je me suis livré à quelques séances d'introspection pour essayer de comprendre pour quelle raison la victoire de Donald Trump à la présidentielle américaine m'affectait tant. Je ne vais pas revenir sur la politique, mais parler un peu au niveau émotionnel.

Il est vrai que cette nouvelle tombe à un moment où j'ai l'impression d'être harcelé par toutes sortes de tracas et d'inquiétudes. Rien de grave !, mais une accumulation de mille et un petits embêtements ou causes de contrariété qui, à force, finissent par me peser. Comme tracas momentanés, il y a par exemple ce souci mathématique qui m'a donné un certain chagrin, ma tentative pour m'inscrire au permis de conduire qui est toujours dans les limbes, il a une fuite d'eau au sous-sol de notre immeuble juste ne-dessous de notre appartement et dont on ne trouve pas la source, il y a mon nouvel ordinateur dont je ne suis décidément pas content ; comme causes de fatigue passagère il y a notamment des travaux (plus un rhume qui finit tout juste), et il y a le temps pourri de ce début de novembre, les journées qui raccourcissent et le passage à l'heure d'hiver qui me dépriment un peu chaque année ; j'ai aussi des inquiétudes à plus long terme (concernant, par exemple, l'évolution de l'établissement où j'enseigne — je ne vais pas en parler ici parce qu'il est, paraît-il, mal vu de dire publiquement du mal de sa hiérarchie), mais je ne vais pas m'étaler à ce sujet. Ce ne sont que quelques exemples, qui montrent que je me fatigue facilement de plein de petits riens : mais peut-être finalement que ce qui me pèse est que je n'arrive pas vraiment à me rappeler à quand remonte la dernière fois que j'ai reçu une vraie bonne nouvelle ou simplement ce que j'avais appelé autrefois une potentitialité (heureuse). (Le mieux qui me vienne à l'esprit est que quand j'ai vu mon dentiste récemment, il m'a dit que je n'avais pas de nouvelle carie, et c'est peut-être bien la première fois que ça se produit au cours des quelques dernières années.)

Mais il y a autre chose dont je me suis rendu compte en repensant à la manière dont j'avais ressenti la campagne électorale américaine, c'est l'importance d'un sentiment un peu confus mais que je ressens en général de façon très forte. Je ne sais pas quel nom donner à ce sentiment qui mériterait certainement une entrée dans le Dictionary of Obscure Sorrows, mais si je dois le définir en une phrase, ce serait quelque chose comme ceci :

Une fois que le match est joué, les points gagnés ou perdus pendant le jeu perdent toute signification.

Ce n'est pas très clair ? Je vais essayer d'expliciter. Il s'agit d'une forme d'espoir déçu, mais c'est un peu plus spécifique que ça : la sensation d'amertume provoquée par le souvenir de succès initiaux rendus vains ou caducs par un échec final. Imaginez que vous jouez à un jeu dans lequel vous espérez la victoire (ou celle de votre équipe, ou celle d'une équipe dont vous êtes le supporter) : des éléments de progrès dans le jeu, par exemple un point marqué par vous ou votre équipe, ou la réussite d'un but intermédiaire, la victoire à une bataille, l'avancement de votre personnage, ce genre de choses, vous causent une certaine satisfaction. Soit parce qu'ils font espérer en une victoire finale qu'ils montrent plus probable, soit parce qu'ils sont des victoires partielles. Mais voilà que survient une défaite définitive, irréversible et irrécupérable : tous les espoirs soulevés par ces réussites intermédiaires sont déçus, les victoires elles-mêmes sont rendues caduques et perdent toute valeur. Et leur souvenir devient alors d'autant plus amer qu'ils avaient nourri des espoirs ou une satisfaction maintenant douchés.

Ce sentiment existe dans toutes sortes de circonstances, et à toutes sortes de degrés. C'est le sentiment de l'empereur Auguste et de sa sœur Octavia quand ils repensent à la carrière prometteuse de Marcellus (le fils d'Octavia, donc le neveu d'Auguste) interrompue brutalement par sa mort — sentiment traduit par Virgile dans une célèbre phrase du livre VI de l'Énéide, Heu, miserande puer, si qua fata aspera rumpas, / Tu Marcellus eris ! (Hélas, malheureux enfant, si tu peux rompre ton destin cruel, / Tu seras Marcellus !). Ingres en a même tiré un tableau où on voit Octavie s'évanouir sous l'effet de ce sentiment, que je pourrais donc appeler marcellisme.

C'est le sentiment, par exemple, de l'entrepreneur dont l'entreprise connaît des succès initiaux dont il se réjouit, mais finit par faire faillite pour une raison stupide. Et celui d'un candidat à une élection qui, après avoir perdue celle-ci, repense avec amertume à la satisfaction que lui donnaient des sondages initiaux favorables. C'est le sentiment d'un « libéral » américain qui aurait été heureux d'apprendre la mort du juge Antonin Scalia (ce n'est sans doute pas bien de se réjouir de la mort de quelqu'un, mais parfois c'est vraiment difficile de ne pas le faire) et qui y repenserait maintenant.

Une variante de ce sentiment, beaucoup plus forte (mais sans doute proche de celle qu'aurait pu ressentir la sœur d'Auguste) se rapporte à la mort d'un être cher lorsqu'un repense à quelque chose qu'on prévoyait de faire avec lui. Je pense par exemple à une scène, sans doute un mélange de fictions que j'ai lues ou vues et peut-être de témoignages que j'ai entendus, où une personne attend l'arrivée d'un être cher pour lui faire une surprise, peut-être le demander en mariage ou souhaiter son anniversaire, et plutôt que l'être attendu, ce qui arrive est l'annonce qu'il vient de décéder. Il s'agit là de la forme la plus perçante du « marcellisme ». (La simple idée de cette scène, même ainsi rendue générique et dépouillée de tout détail, me fend le cœur.)

Bien sûr, le sentiment peut avoir un pendant heureux, et qui a certains points communs avec la forme malheureuse dont je parle ci-dessus : le soulagement de se rendre compte que toutes sortes de défaites intermédiaires ou de pronostics funestes sont, finalement, annulés. Il doit aussi exister une forme neutre lorsque quelque chose tourne de manière totalement différente de ce que les signes préliminaires laissaient penser, sans que ce soit classable sur une échelle de bien en mal (mais je ne sais pas si cela provoque vraiment un sentiment particulier à part la surprise).

(mercredi)

Exercice : chercher le silver lining

Je n'ai pas beaucoup dormi parce que j'ai passé la fin de la nuit, depuis 5:30 du matin (heure de Paris =UTC+0100) à alternativement sangloter, crier j'ai peur de façon incohérente, et chercher le réconfort des bras de mon poussinet (qui aurait sans doute préféré dormir), donc je ne vais pas essayer d'écrire quelque chose de cohérent.

À la place, je vais laisser cet exercice à mes lecteurs en leur proposant ce défi : on dit que every cloud has its silver lining, personnellement je n'arrive pas à le voir, donc votre but est de me convaincre qu'il y en a quand même un, ou au moins, que ce n'est pas la fin du monde (le 20 janvier 2017). On se concentrera sur les conséquences en-dehors des États-Unis, parce que c'est ce qui concerne principalement mes lecteurs et aussi parce que c'est là où l'action du président n'a aucune sorte de contrôle ou contre-pouvoir.

(Et pour éviter qu'on me ressorte les mêmes âneries que lors de mes précédentes discussions sur le sujet, parler de programme politique ou d'isolationisme ou de de choses comme ça est hors sujet : la question est celle de la gravité d'avoir un psychopathe incontrôlable à la Maison-Blanche — ce que le fou a dit qu'il ferait peut juste servir comme indication de certaines de ses lubies, mais certainement pas comme prévision de ce qu'il fera.)

(dimanche)

Quelques réflexions électorales

Méta : Je suis complètement crevé en ce moment pour les raisons que j'ai déjà expliquées, et en plus j'ai attrapé le rhume de mon poussinet, donc ne vous attendez pas à ce que ce qui suit soit d'une grande cohérence. 😐

Je regarde monter et descendre les courbes de probabilité de fin du monde sur les différents agrégateurs et méta-agrégateurs de sondages relatifs à l'élection américaine, et je me pose la question épistémologique suivante (à laquelle je n'ai pas de réponse satisfaisante) : qu'est-ce que ça veut dire, au juste, une probabilité, pour un événement qui ne se produit qu'une seule fois. Par exemple, au moment où j'écris, FiveThirtyEight donne 35% de chances à Monsieur T d'être élu président, Princeton Elections lui donne moins de 1% de chances, le New York Times le place entre les deux à 16%, et les forces du marché à 12% (comme je l'ai mentionné en commentaire de l'entrée précédemment liée, certaines des raisons pour ces différentes sont expliquées ici et ) ; mais au final, qu'il soit élu ou pas, il sera impossible de dire qu'un quelconque de ces prédic(a)teurs avait raison, ou qu'il avait tort, ni d'ailleurs de donner tort au Splendide Talent Universel Prédicteur Indépendant de David qui prédit des chances égales à chaque candidat dans n'importe quelle élection. Si on échappe à la fin du monde pour l'instant, il sera impossible de dire si on a eu chaud ou si on s'est inquiété pour rien. Tout au plus peut-on dire qu'une méthodologie de prévision, ou un oracle probabiliste, A, est globalement meilleure qu'un autre B sur le même jeu d'événements, lorsque [correction  : j'avais oublié les logs] la somme des logs des probabilités prédites par A sur les événements qui se produisent au final est supérieur à la somme des logs des probabilités prédites par B. Ce n'est pas comme un jet de dé où tout le monde peut être à peu près d'accord sur ce que signifie le mot probabilité.

Mais je voulais parler d'autre chose : de deux idées de modifications (indépendantes l'une de l'autre) qu'on pourrait apporter au mode de scrutin (de l'élections présidentielles américaine ou française, ou en fait de quasiment n'importe quelle sorte d'élection). Il ne s'agit pas de réformes profondes : je ne veux pas parler ici des modes de scrutins plus ou moins idéaux (voir par exemple celui-ci que j'avais « redécouvert » indépendant et mentionné plusieurs fois sur ce blog sous le nom de scrutin de « Condorcet-Nash » ; voir notamment cette entrée et les notes au point (5)), et de toute façon, s'agissant du mode de scrutin pour l'élection présidentielle américaine, la première chose à faire serait de tout jeter à la poubelle, à commencer par les grands électeurs, et reprendre à zéro. Mais il s'agit, là, d'idées extrêmement simples sur lesquelles il est au moins intéressant de méditer.

Idée numéro 1 : faire qu'au lieu lieu de voter pour un candidat à l'élection on puisse si on préfère voter contre un candidat. (La modalité pratique, dans un système à base d'enveloppes dans une urne comme en France, serait simplement qu'on mettrait un bulletin spécial, tout rouge avec le mot CONTRE écrit en énorme dessus, en plus du bulletin du candidat contre lequel on veut voter ; ou peut-être qu'il y aurait deux fois plus de bulletins que de candidats, je ne sais pas ce qui se prête le moins à la fraude.) Voter contre un candidat soustrait une voix à ce candidat : autrement dit, son nombre de voix est égal à son nombre de voix pour (upvotes) moins son nombre de voix contre (downvotes) ; et ce score net peut tout à fait tomber en-dessous de zéro s'il y a plus de contre que de pour ; ça n'empêche qu'on élit le candidat qui a le score net le plus élevé, ou on fait un second tour entre les candidats qui ont le score net le plus élevé, selon les modalités normales pour l'élection dont on parle (ma proposition n'est qu'une modification sur un mode de scrutin déjà existant, pas un mode de scrutin en elle-même). Je ne sais pas comment on afficherait les résultats (un pourcentage des suffrages exprimés ne voudrait plus dire grand-chose), mais en tout cas la modification est claire, et compréhensible par tout le monde, rien de comparable à des modes de scrutin mathématiquement complexes.

Il appartiendrait à chaque électeur de décider en son for intérieur s'il veut utiliser son unique voix pour voter pour tel ou tel candidat ou contre tel ou tel candidat. (Bien sûr, on pourrait imaginer des choses plus complexes, notamment ce que je proposais dans la note #2 de cette entrée, mais on perd alors la simplicité qui permet au mode de scrutin d'être compris par tout le monde.)

Il n'aura échappé à personne que s'il y a exactement deux candidats, X et Y, cela ne fait aucune différence de voter pour X ou contre Y, ou vice versa, puisque seule compte, au final, la différence entre leurs scores nets. Mais, et c'est un point très important avec les élections, les électeurs ne sont pas rationnels, leur impression, le « message » qu'ils veulent pouvoir envoyer, a une importance (on peut le regretter, trouver que les gens sont cons, et c'est sans doute vrai, mais tout le monde ne peut pas être mathématicien ☺). Donc en pratique cela ferait une différence, parce que cela ferait une différence sur la manière dont les gens ressentent l'élection (et, soyons honnêtes, sur les chiffres proclamés : si un candidat est élu avec −5338357 voix contre −7244326, il va sans doute moins faire le malin dans sa comm ultérieure). Lorsque la gauche française sera amenée à voter au second tour de l'élection présidentielle de 2022 pour choisir entre l'extrême-droite de Marine Le Pen et l'extrêmement-plus-droite de Marion-Maréchal Le Pen, elle sera plus encline à venir se déplacer pour faire barrage à la seconde si elle a au moins la satisfaction de pouvoir mettre un bulletin contre dans l'urne. Et, bien sûr, dans une situation où il y a strictement plus que deux candidats (même s'il y a des « petits candidats » qui n'ont de chance d'être élus que si les « grands » tombent en-dessous de zéro), cela fait une différence. Je pense notamment que cette idée aurait plu à un certain nombre d'électeurs américains pas du tout contents de devoir choisir de soutenir Monsieur T ou Madame C.

L'idée numéro 2 n'a rien à voir et est complètement indépendante de la précédente. Elle s'applique à n'importe quel type de scrutin où on élit une personne, par exemple n'importe quelle élection présidentielle. Et le changement consisterait simplement à ce qu'au lieu d'élire une personne on élise une liste de, disons, cinq personnes. Une fois la liste élue, on tire au hasard une personne dans la liste, et c'est elle qui est élue. (Les autres de la liste peuvent recevoir des lots de consolation, des hochets décoratifs comme un poste de vice-président, mais ce n'est pas l'important.) Autrement dit, les électeurs n'ont pas tout à fait le choix de leur président : ils ont le choix jusqu'à une incertitude de log₂(5) bits, si j'ose dire.

Pourquoi diable voudrait-on faire ça ? Tout simplement, pour dépersonnaliser les élections. Pour obliger les campagnes et les électeurs à se concentrer moins sur les personnes et plus sur les programmes : la liste de cinq devra évidemment proposer un programme unique (et donc se mettre d'accord sur son contenu), et il sera impossible de faire campagne sur la personnalité d'un candidat, car chacun n'aura au final qu'au mieux une chance sur cinq d'accéder à la fonction visée.

Bon, peut-être que ces idées sont totalement idiotes et ne fonctionneraient pas du tout comme attendu, je n'en sais rien, je suis trop enrhumé et fatigué pour décider, mais je pense qu'elles méritent au moins qu'on y médite un petit moment.

(lundi)

Comment convaincre le cerveau d'ignorer un bruit ?

L'immeuble jouxtant le mien est en travaux, depuis un mois, et pour encore au moins trois mois. D'après le permis, ils refont la façade sur la rue et rajoutent un étage : ce ne sont pas des travaux légers, même si pour l'instant je ne comprends pas à quoi ils jouent. On entend essentiellement des coups de marteau et surtout des sons qui ressemblent à une perceuse. Si nos immeubles ne partagent pas de mur, ils se touchent : la position de mon appartement, donnant sur cour et non immédiatement contigu à l'immeuble en travaux, me protège un peu des bruits, mais ils sont tout de même assez forts. Plus exactement, il y a d'occasionnels bruits forts et beaucoup de bruits très atténués, probablement parce que parfois ils attaquent le mur touchant notre immeuble et parfois non. Par ailleurs, je ne peux pas trop mettre des bouchons dans les oreilles (disons que ça doit rester exceptionnel), parce que j'ai le conduit auditif facilement irrité et le cérumen qui s'accumule très vite.

Les bruits commencent aléatoirement entre 8h et 9h30, et durent jusque vers 11h : je ne sais pas si c'est parce qu'ils font une longue pause déjeuner, ou parce qu'ils passent ensuite à quelque chose d'autre que je n'entends pas. Peut-être qu'il y a aussi des bruits dans l'après-midi, mais je ne suis pas là pour vérifier et en tout cas il n'y en a plus quand je rentre chez moi (même quand je rentre tôt). Et c'est, bien sûr, tous les jours du lundi au vendredi (y compris le pont du 1er novembre).

Ce n'est pas tellement problématique d'être réveillé à 8h : ce qui l'est, c'est que l'idée que je serai forcément réveillé entre 8h et 9h30 m'empêche de bien dormir (j'avais essayé d'expliquer ça ici, ainsi que dans le 6º et sans doute quantité d'autres fois sur ce blog). C'est-à-dire que dès que je suis réveillé pour n'importe quelle raison pendant la nuit, je commence à me dire il ne faut surtout pas que je fasse de l'insomnie maintenant, parce que ces foutus travaux vont me réveiller de toute façon que j'aie dormi ou non, et du coup ça me stresse et je fais effectivement de l'insomnie, et c'est un cercle vicieux.

Ce qui se passe donc typiquement en ce moment est que je me couche tôt (entre 22h et 23h), je fais une grosse insomnie pendant la nuit (typiquement vers 3h du matin) en stressant parce que les bruits de travaux vont me réveiller et que je n'aurai pas assez dormi, les bruits de travaux me réveillent effectivement vers 8h30 (disons), je reste quand même au lit parce que je suis complètement crevé, mais je n'arrive pas à dormir, je somnole juste, et quand les bruits cessent enfin vers 11h, je me dis qu'il est quand même trop tard pour me rendormir, et je me lève enfin. Ayant perdu quelque chose comme douze heures au lit mais n'ayant dormi que six ou sept heures de ce temps, je suis crevé toute la journée. Et du coup je me couche tôt, et le cycle recommence. Ce n'est pas systématiquement comme ça, mais c'est tout de même très fréquent. Cela n'aide pas qu'en ce moment mon poussinet ait un rhume, ce qui a pour effet qu'il dort mal lui aussi, et fait du bruit pendant la nuit. Le passage à l'heure d'hiver pourrait aider, mais en fait il me perturbe plus qu'autre chose, et me stresse encore plus, ne serait-ce que parce que le passage à l'heure d'hiver me déprime toujours.

Et il n'y a pas que le sommeil qui pose problème : même si je suis levé, j'aime rester le matin chez moi (quand je n'ai pas de cours à donner) pour lire des articles de maths ou réfléchir à des problèmes dans une ambiance différente de celle de mon bureau. Il va de soi qu'avoir des bruits de perceuse toutes les minutes n'aide pas vraiment à la concentration.

Je me dis que ce qu'il faut que j'arrive à faire, c'est convaincre mon cerveau… Bon, c'est un peu bizarre d'écrire convaincre mon cerveau, parce que je ne sais pas ce que c'est que moi à part mon cerveau, mais disons, convaincre la partie de mon cerveau qui est responsable d'endormir et de réveiller le tout, si tant est qu'une telle partie existe, et/ou la partie responsable de l'audition. Convaince mon cerveau, donc, d'ignorer ces bruits. Qui ne sont pas si forts que ça, finalement : je conçois qu'il y ait des sons qui soient impossibles à ignorer, mais ceux qui me réveillent actuellement n'en font probablement pas partie.

Après tout, il y a bien des bruits que j'ai réussi à apprendre à ignorer. Il y a deux-trois ans, par exemple, mon poussinet et moi avions commencé à être gênés par nos voisins d'à côté, quand ils prennent leur petit-déjeuner dans leur cuisine, qui est immédiatement adjacente à notre chambre : nous n'avons pas bien compris ce qui s'était passé, mais il semble qu'ils n'avaient rien changé à leurs habitudes, nous avions simplement cessé, sans qu'on sache au juste pourquoi, d'ignorer un bruit que nous ignorions depuis longtemps (au point de ne même plus nous rendre compte de son existence), et depuis, nous avons réappris à ignorer ce bruit et il ne nous dérange plus du tout. D'ailleurs, ces mêmes voisins ont plus tard acheté un mixeur à smoothie (ou quelque chose comme ça) qui fait un bruit proche d'une perceuse et dont ils se servent pendant leur petit-déjeuner, au début il nous réveillait, et nous avons fini par réussir à l'oublier lui aussi : à part si je suis réveillé pile au moment où ils s'en servent, je ne l'entends plus du tout. Les bruits de travaux actuels sont un peu plus forts et beaucoup plus persistants que le bruit de ce mixeur, mais je n'exclus pas que je puisse réussir à les faire disparaître mentalement.

Seulement, c'est un peu comme le défi : essayez de passer cinq minutes sans penser au pape en maillot de bain — essayer de se convaincre de ne pas penser à quelque chose, de faire comme si ce quelque chose n'existait pas, c'est très difficile.

J'ai quand même une idée. J'ai écrit ci-dessus que lorsque les bruits de travaux commencent, je reste au lit à somnoler parce que je suis trop fatigué pour me lever : ce n'est pas la seule raison. En fait, je reste aussi au lit à somnoler et à repenser à mes rêves dans le but d'essayer de persuader mon cerveau d'associer les bruits de travaux à l'idée « je peux rester au lit à somnoler » et surtout pas « je dois me lever maintenant ». Peut-être que si je continue comme ça assez longtemps, mon cerveau finira par capter le message et à ne plus considérer ces bruits comme une agression extérieure mais comme un son presque relaxant, ou en tout cas, comme pas spécialement stressant. Je pense que c'est comme ça que j'ai réussi à m'habituer au mixeur des voisins.

Je ne sais pas si cette stratégie fonctionnera, mais ce qui est sûr, c'est qu'en ce moment, je n'arrive pas à faire grand-chose de mes journées, je suis tout le temps fatigué, et du coup, les mails auxquels je dois répondre, les tâches administratives que je dois remplir, les calculs que je dois faire, les courses ou les tâches ménagères, tout cela a tendance à s'accumuler, et je ne sais pas ce que ça donnera au bout de quatre mois de travaux ou plus.

(mercredi)

Sur les règles convaincantes dans les œuvres de fiction

Ces derniers jours, mon poussinet et moi avons (re?)vu deux des films de la série Harry Potter (ils sont tous projetés ces jours-ci au cinéma à côté de chez nous qui se spécialise dans ce genre de rétrospectives). Je ne sais pas exactement quel sous-ensemble des sept-huit parties j'ai vues ou lues, ou simplement lues en résumé sur Wikipédia, mais je crois quand même en connaître assez pour me faire un avis sur l'ensemble : c'est amusant et plutôt mignon si on ne le prend pas trop au sérieux, mais c'est tout de même assez mal construit, et Rowling a vraiment trop tendance à inventer les règles au fur et à mesure qu'elle écrit, et à piocher trop librement dans son grand chapeau selon ce qui l'arrange pour faire rebondir l'intrigue dans la direction où elle veut. En fait, cette saga est presque le cas d'école de ce que je racontais ici sur la (non !) reproductibilité du succès : ces livres sont bons, mais sans plus, c'est-à-dire du même niveau que quantité d'autres œuvres qui sortent chaque année, et il n'y a rien de particulièrement explicable au fait que Harry Potter tout particulièrement ait eu un succès incroyable, c'est juste la boule de neige qui est devenue une avalanche alors que celle d'à côté ne l'est pas devenue. Mais je ne veux pas parler de Harry Potter en particulier (pour des reproches précis contre les films, dont certains valent aussi contre les romans, voir par exemple les vidéos de CinemaSins telle que celle-ci, je trouve qu'ils sont globalement très pertinents ; pour des problèmes plus généraux, voir aussi ces dessins de Boulet qui illustrent très bien le genre de choses qui m'agacent).

Je veux plutôt raconter des banalités mal structurées sur les « règles » dans les œuvres de fiction (et notamment celles de science-fiction, heroic fantasy ou ce genre de choses), et comment les rendre convaincantes, ou au contraire comment m'agacer en n'y arrivant pas. Il est difficile de définir au juste ce que j'entends par règles, parce que ça peut être des choses assez différentes, mais globalement, ce sont les règles du jeu du monde fictionnel décrit par l'œuvre : les choses sur lesquelles le lecteur (ou le spectateur) peut compter comme cadre solide[#] dans lequel évolue l'action. (Bien entendu, l'auteur reste libre d'enfreindre, de modifier ou de casser ses propres règles : généralement en introduisant une nouvelle règle encore plus forte que celle qu'on veut contourner, et qui conduit à l'effet désiré. Mais si c'est fait de manière trop arbitraire, si on sort trop facilement de son chapeau une nouvelle règle quand c'est commode, il est probable que cela engendre chez le lecteur une sensation de rejet devant une forme de tricherie.)

[#] L'importance des règles dépend bien entendu du registre sur lequel on se place. Dans une œuvre humoristique, ou poétique / métaphorique / allégorique / symbolique, on pardonnera beaucoup plus facilement des choses qu'on ne pardonnerait pas autrement. Mon avis personnel est que Harry Potter n'est pas simplement sur le registre « pastiche du monde traditionnel des sorciers avec leur baguettes et leurs sorts en latin de cuisine » (il y a quand même une vraie histoire qui se veut grave à côté de cette caricature) pour qu'on lui permettre n'importe quoi.

Très sommairement, on pourrait catégoriser les règles dans une œuvre de fiction en lois de la nature et lois humaines : les unes seraient des postulats matériels du monde dans lequel l'action évolue (par exemple : la magie s'opère en agitant une baguette en même temps qu'on prononce des mots en latin de cuisine), les autres des principes de droit qui ont été, probablement, décidées par quelqu'un (par exemple : un magicien ne doit pas permettre à un non-magicien d'être témoin de magie). En fait, la frontière n'est pas parfaitement nette, et entre les deux il y a des conventions non écrites, des règles psychologiques ou comportementales frappant un personnage ou un groupe de personnages, etc. De façon un peu orthogonale, les règles peuvent être individuelles (par exemple : Superman est capable de faire toutes sortes de choses extraordinaires comme voler, soulever des poids énormes ou résister à à peu près n'importe quoi) ou générales. Il n'y a pas non plus de distinction claire entre un fait (concernant l'Univers de fiction dont on parle) et une règle, à part très grossièrement que la règle est plus universelle et n'est pas censée évoluer dans le temps. Mais restons sur la distinction entre lois de la nature et lois humaines.

S'agissant d'une règle de construction humaine (ou ce qui y tient lieu dans le monde de fiction), pour que j'y adhère en tant que lecteur, pour que je consente à suspendre mon incrédulité, il faut un minimum de justification. Idéalement, une règle de ce genre doit avoir une logique, une origine, une histoire, une raison d'être, une autorité qui l'a édictée, et une forme de police qui la maintient. Tout ceci n'a pas forcément besoin d'être explicité, et parfois le lecteur peut remplir lui-même les pointillés ; mais si trop d'éléments manquent, la règle paraîtra parachutée par l'auteur pour les besoins de son intrigue ou de sa démiurgie. (Tout ça est vrai, bien sûr, pour n'importe quel fait humain dans le monde de fiction, mais c'est d'autant plus vrai s'il s'agit d'une règle générale qui structure l'intrigue.)

Par exemple, et c'est le genre de choses qui se produit assez souvent dans les œuvres décrivant des mondes fantastiques, s'il y a une structure de gouvernement (au pif, quelque chose comme un ministère de la magie), je vais vouloir en savoir un peu plus sur l'origine de cette structure de gouvernement : comment elle a été mise en place, pour quelle raison (historique et/ou rationnelle) on a choisi cette organisation précise, ce genre de choses. Ou dans certaines œuvres, tout bonnement : pourquoi les gens ne se révoltent-ils pas ? À chaque fois qu'on présente quelqu'un dans une position de pouvoir, il faut se demander : qui l'a mis à cette position (c'est une question intéressante à se poser aussi dans le monde réel, d'ailleurs, et j'aime bien le slogan many are called, but few are chosen — and fewer still get to do the choosing). Même quand l'œuvre présente un grand méchant dont on comprend qu'il a acquis le pouvoir par la force, il y a encore des questions à se poser qui font que toute description de ce genre n'est pas automatiquement crédible, mais j'en parlerai sans doute une autre fois (ce qui est surtout peu crédible, en fait, c'est le postulat que font tant d'histoires héroïques, à savoir qu'en éliminant celui qui est au sommet de la pyramide du pouvoir, tout le système s'effondre avec lui).

Je comprends que parfois on peut ne pas vouloir expliciter tout ce que je viens de dire, soit pour garder le mystère soit pour ne pas perdre trop de temps à digresser sur le monde en général. Mais il y a une façon simple et qui peut être efficace pour un auteur d'envoyer au lecteur un message à ce sujet, même si elle s'apparente à ce que les tropophiles(?) appellent le lampshading, cela consiste à ce que des personnages discutent la règle et évoquent le fait qu'ils ne la comprennent pas, ou que son origine est mystérieuse, ou quelque chose du genre ; selon la manière dont c'est fait, cela peut suggérer ou non que le mystère sera levé plus tard ; et bien sûr, selon la manière dont c'est fait, cela peut paraître plus ou moins artificiel, mais ce sera presque toujours un progrès par rapport à simplement sortir la règle d'un grand chapeau (surtout pour un changement de règle). Il suffit souvent qu'il y ait un personnage qui combatte, ou simplement peste contre, l'absurdité d'une règle, pour que tout de suite je suis plus enclin à pardonner à l'auteur de l'avoir introduite sans justification.

Mais parlons des autres types de règles que sont les lois de la nature dans le monde fictif. On pourrait se dire qu'elles ont moins à répondre de leur existence : elles n'ont pas à avoir une histoire ni une justification, encore moins une police, par exemple (il n'y a pas d'amende pour ne pas avoir respecté les lois de la physique). Pourtant, je pense que l'auteur doit encore plus se méfier des lois de la nature qu'il introduit dans son monde fictif, parce que la suspension de l'incrédulité sera encore plus facilement rompue, et encore plus gravement et durablement, lorsqu'il y a un abus à ce sujet. La cohérence interne est une condition assez contraignante.

Les lois de la nature, par exemple, ne doivent normalement pas changer d'un moment à l'autre ou d'un endroit à l'autre, et elles doivent être les mêmes pour tout le monde. (De nouveau, il peut y avoir des justifications à ce que ce ne soit pas le cas, mais elles sont assez difficiles à faire passer.) Si quelque chose est possible à un moment dans l'œuvre, ce quelque chose doit encore être possible plus tôt et plus tard, et il ne faut donc pas qu'on ait à se demander pourquoi tel ou tel personnage n'a pas exploité cette possibilité, ou il faut avoir une réponse satisfaisante à cette question. Il n'y a rien de plus insupportable, pour un lecteur comme moi, que des lois à géométrie variable qui s'appliquent exactement quand l'auteur a envie qu'elles s'appliquent, qui apparaissent mystérieusement quand ça l'arrange ou sont oubliées aussi facilement. Si on veut décrire un monde où il y a de la magie, on a intérêt à décider assez clairement à l'avance ce que la magie permet ou ne permet pas de faire (et ce n'est pas tout de le décider, mais il faut aider le lecteur à s'en faire une idée, si on ne veut pas qu'il cesse complètement de s'intéresser à l'action en se disant que de toute façon il n'a aucun moyen de savoir ce qui est possible ou non) ; et honnêtement, c'est là où Rowling échoue complètement à mes yeux.

Le fait que les lois de l'Univers soient les mêmes pour tout le monde est un point sur lequel j'ai du mal à transiger. Quand je vois Superman, je n'arrive pas à ne pas me dire : au lieu de faire le kéké à sauver des gens, ce Monsieur ferait mieux de permettre qu'on étudie les moyens par lesquels il est capable de faire le kéké (ne serait-ce que la source inépuisable d'énergie qu'il a l'air de posséder) pour les reproduire, si ce n'est chez tout le monde, au moins dans des machines : visiblement il y a plein de nouvelle physique à étudier et à exploiter. La magie pose aussi un problème particulier, parce qu'il faut expliquer pourquoi tout le monde n'est pas magicien (ou alors concevoir un monde où tout le monde l'est, mais ce n'est plus vraiment de la magie dans ce cas) : est-ce que le fait d'être magicien est biologique ? (hériditaire, peut-être génétique ? mais dans ce cas, est-ce qu'on pourrait au moins faire des machines à faire de la magie ?) est-ce que ça nécessite des capacités intellectuelles[#2] particulières ? est-ce qu'il y a une contrepartie qui fait que tout le monde n'aurait pas envie d'apprendre ? Des réponses à ces questions peuvent être apportées (ou esquissées, ou explicitement refusées, ou lampshadées…), mais si on les traite avec trop de désinvolture, bien des lecteurs s'agaceront de tant d'arbitraire.

[#] Une solution classique (je ne sais pas à qui elle remonte), peut-être même banale, mais que j'avoue bien aimer, consiste à dire que la capacité à faire de la magie est de l'ordre de l'imagination et/ou de la confiance en soi (arriver à visualiser ce qu'on veut faire, à croire en ses propres capacités). Mais encore faut-il arriver à rester cohérent avec cette idée, ce qui n'est pas facile.

Un exemple intéressant, quoique un peu une digression par rapport à ce que j'évoque plus haut, est le cas des prophéties, dont les œuvres de heroic fantasy font un usage peut-être excessif. D'un côté, la règle « la prophétie va forcément se réaliser » soulève énormément de questions. À commencer par : d'où sortent ces prophéties, qui sont les gens qui les font, de quoi vivent-ils, et comment se fait-il que leur pouvoir de lire l'avenir s'exerce sur un terrain aussi ridiculement étroit ? (De façon liée, cela soulève souvent des tensions avec le libre-arbitre des personnages, même si ces tensions, bien exploitées, peuvent être très intéressantes.) D'un autre côté, il s'agit d'un moyen pour un auteur de faire une promesse au lecteur, la promesse d'une écriture sous contrainte (respecter la fin prophétisée). Évidemment, il n'est pas tenu de respecter cette promesse, c'est juste une loi du genre : l'auteur peut aussi très bien, après tout, arrêter son livre après la moitié des pages prévues, et remplir toute la fin de caractères aléatoires — il peut, mais le lecteur aura aussi une certaine justification à se sentir fâché, comme il pourra l'être si une prophétie annoncée n'est pas remplie (et qu'il n'y avait pas de raison particulière de s'y attendre). En revanche, la prophétie peut être remplie de façon inattendue (généralement en coup de théâtre), ou être complètement invalidée avec une justification sérieuse : c'est la différence parfois subtile entre ignorer arbitrairement une règle et jouer astucieusement avec. Dans le début de ce fragment, par exemple, j'imagine (et je ne suis certainement pas le premier à avoir cette idée) qu'un personnage s'est arrangé pour qu'il existe une fausse prophétie à son sujet, de sorte que son adversaire concentre tous ses efforts sur la réalisation de celle-ci et néglige donc des façons plus raisonnables de le battre — je pense qu'on conviendra que c'est une raison légitime d'invalider une prophétie, même si certains auraient peut-être été chagrinés de voir le Seigneur des Anneaux se conclure par Sauron qui rigole qu'on ait dépensé tant d'énergie pour détruire un anneau qui n'aurait en réalité pas d'importance.

(dimanche)

Je n'ai toujours pas réussi à voir un kilogramme

Mon poussinet et moi sommes allé cet après-midi au musée du Conservatoire national des Arts et Métiers (c'était d'ailleurs gratuit à l'occasion de la « fête de la science »). Je savais qu'ils ont un des trois ou quatre kilogrammes étalons originaux en platine fabriqués dans les années 1790 par Nicolas Fortin et dont j'ai parlé dans une entrée récente (les autres sont aux Archives et à l'Observatoire), ainsi que des mètres étalons de la même époque, donc j'ai voulu voir ça. Une photo en est déjà ici sur Wikimédia commons (j'en ai pris une moi-même, mais elle est moins bonne, en tout cas il n'y a aucun doute que c'est le même objet). La plaque explicative à laquelle se rapporte le numéro en vitrine (12) porte la mention suivante :

12 Kilogramme en platine dit « du Conservatoire », 1799
Fabriqué par Nicolas Fortin
Inv. 3297

Sauf qu'ensuite j'ai écouté un petit exposé grand public sur les poids et mesures (toujours pour la fête de la science), et le conférencier, en présentant cette vitrine, a avoué que le mètre et le kilogramme en platine qui y sont exposés sont, en fait, des copies (donc des copies de copies, puisque les pièces du Conservatoire sont déjà des copies par Fortin des étalons des Archives), parce que le platine coûte trop cher pour mettre derrière une vitrine qui ne soit pas blindée.

Je dois dire que je suis un peu agacé. Je comprends qu'on expose une copie, mais quand même : (1) la plaque explicative pourrait mentionner honnêtement ce fait, et (2) ils pourraient prendre une photographie de haute résolution de l'objet d'origine, et la mettre sur leur site Web et/ou sur Wikimédia commons, et (en version imprimée de bonne qualité) à côté de la vitrine où se trouve la copie. Ne faire ni l'un ni l'autre me paraît un chouïa malhonnête. Franchement, si le Louvre avouait que le tableau exposé à côté de la légende annonçant la Joconde de De Vinci est en fait une copie, ça ferait un scandale énorme.

Sans doute quelqu'un de moins profondément ignare que moi en métallurgie aurait immédiatement reconnu que l'objet exposé ne pouvait pas être en platine (je suis tenté de dire que la similarité de poli entre le mètre censément en platine et celle pas du tout en platine exposée juste à côté m'a étonnée), et d'ailleurs, que les traits concentriques de l'usinage sur la face supérieure ne sont peut-être pas non plus compatibles avec le travail du platine à la fin du 18e siècle. Mais voilà, je suis ignare, donc si je n'étais pas tombé par hasard pile le jour de la fête de la science où il y a quelqu'un pour dire que c'est une copie, j'aurais cru à un original.

Bon, cela devrait certainement amener à une discussion un peu brumeuse sur la valeur des originaux : si je suis assez ignare pour regarder un kilogramme en acier et penser qu'il est en platine, si on peut faire croire à des gens qu'une copie de la Joconde est l'original, finalement, où est le mal ? Cf. aussi ce que j'évoquais dans cette entrée passée au sujet du Vermeer de Göring, dont il était si fier, et de sa réaction quand il a appris que c'était en fait un faux.

Je ne sais pas, mais toujours est-il que je n'ai toujours pas vu un « vrai » kilogramme[#], ni en personne, ni dans une photo de bonne qualité. La personne du BIPM à qui j'avais écrit pour demander s'il existait des bonnes photos du prototype international du kilogramme m'a répondu que non, mais que l'image de synthèse qui est sur Wikimédia est bien plus jolie que l'original. C'est peut-être vrai, mais comme Göring, je me sens quand même floué.

J'aurai au moins vu la pile de Charlemagne. Celle-là, paraît-il, est l'original et pas une fausse. Paraît-il.

[#] Bon, je ne sais pas ce que « vrai » veut dire dans cette phrase. Le prototype international du kilogramme et ses témoins sont certainement « vrais », et le kilogramme des Archives aussi, ainsi probablement que tous les prototypes nationaux. A contrario, un machin comme ça, que je pourrais me payer si j'étais assez fou pour le faire, ne compte pas pour « vrai ».

(jeudi)

Mon serveur Web se fait massivement spammer

Un des trucs vraiment affligeants avec Internet, c'est qu'on peut être absolument certain que, quoi qu'on y mette, appareil, application, site Web, il y a des petits cons ou des gros mafieux qui vont tenter de s'en servir, soit comme cible, soit comme arme, pour leurs attaques sur ce bien collectif qu'est Internet. Cela a d'ailleurs donné lieu à une discussion à propos de l'Internet des Objets dans les commentaires sur une entrée récente, discussion un peu hors-sujet par rapport à l'entrée principale. ((L'Internet des Objets, ou : comment le fait que tout le monde veuille avoir une télé ou une théière connectée, sans même parler de combien c'est merdique, va conduire à des attaques DDoS massives qui finiront par casser complètement Internet — et avec lui tous les services qui en dépendent, c'est-à-dire le téléphone, la télévision, le réseau de distribution de l'électricité, et avec lui les hôpitaux, les feux de circulation, le réseau de distribution de l'eau, et finalement la civilisation. Bon, sérieusement, je suis un peu moins pessimiste maintenant que je l'ai été à ce sujet, mais je trouve quand même ces questions très préoccupantes, notamment par le fait qu'en-dehors des informaticiens personne ne semble en avoir la moindre conscience. Accessoirement, immédiatement après que j'avais exprimé ce souci, on a constaté deux des plus grosses attaques DDoS jamais enregistrées, toutes deux liées à l'Internet des Objets, et ce n'est pas près de finir. Fin de la digression.)) Je ne suis généralement pas du genre violent, mais j'avoue que j'aimerais énormément avoir le super pouvoir de défoncer la gueule de tous les sales petits connards qui mènent ou participent volontairement à ce genre d'attaques, ça me donnerait un plaisir assez jouissif.

Bref. Quand on écrit des protocoles réseau ou des sites Web ou ce genre de choses, c'est qu'il ne faut pas seulement penser à la sécurité de ce qu'on écrit, il faut aussi penser à la sécurité des autres, et se méfier par exemple des attaques de type rebond/amplification, cross-site scripting, et toute une collection de tracas du même genre. Et même quand on n'a pas à faire à des attaques proprement dites, on aura au moins affaire à du spam, qui ne concerne bien sûr pas que le mail. Le spam, c'est-à-dire par exemple des robots qui postent automatiquement des commentaires superficiellement crédibles sur des entrées de blogs aléatoires dans l'espoir d'attirer des visiteurs à suivre des liens. (Je reçois un certain nombre de tentatives de ce genre, mais le fait que mon système de blog et de commentaires soient faits maison me protège au moins contre les robots ciblant les moteurs les plus standards, et j'ai mis une petite protection contre les robots génériques. Il reste un petit nombre de commentaires spammesques, probablement postés avec des coprocesseurs indiens, que je filtre à la main.)

Pourquoi je raconte tout ça, déjà ? Ah oui. Quand j'avais ouvert le système de commentaires de ce blog il y a longtemps, j'avais explicitement prévu qu'il permette de commenter non seulement les entrées de mon blog, mais n'importe quelle page de mon site et, en fait, n'importe quelle page Web (ou à vrai dire, n'importe quelle URL valable) ; je pensais même initialement mettre en place un serveur d'annotations Web, mais bon, ça s'est rapidement révélé trop pénible. Toujours est-il que cette fonctionnalité existait volontairement, même si certains ont cru y voir un trou de sécurité. Comme les commentaires sont de toute façon modérés, ce n'est pas vraiment problématique en soi, tant que je ne recevais pas des masses de commentaires bidon. (De toute façon, ce système de commentaire est un vieux bouzin dont je voudrais me débarrasser, mais que je n'ai toujours pas trouvé le temps de refaire.)

Reste quand même qu'on pouvait interroger les commentaires sur une URL quelconque : il suffisait de l'entrer dans le champ Show comments on en bas de chaque page de commentaires (vous ne le verrez pas, je l'ai retiré, de toute façon il ne marchait essentiellement plus) : si on tapait, disons, http://www.buyviagranow.spam dans ce champ, cela conduisait à une page avec une URL comme http://www.madore.org/cgi-bin/comment.pl/showcomments?href=http%3a%2f%2fwww.buyviagranow.spam (ne suivez pas ce lien !), contenant essentiellement juste un titre, Comments on http://www.buyviagranow.spam, ce dernier étant un lien vers l'adresse en question. Apparemment c'est une mauvaise idée, pas tellement en soi, mais parce que c'est quelque chose que les spammeurs recherchent (des pages Web dynamiques permettant de lier vers n'importe quelle page Web ; ou peut-être juste n'importe quelle script prenant un paramètre href qui accepte n'importe quoi ?).

Je ne sais pas exactement pourquoi. Est-ce qu'ils cherchent à les soumettre à un moteur de recherche pour faire croire qu'il y a plein de liens qui pointent vers eux ? À les envoyer à des humains un peu naïfs ? À espérer que les liens ressortent d'une analyse des logs, peut-être faite automatiquement ? Ou que ces logs soient mis en ligne directement ? Je ne sais pas précisément.

Toujours est-il que je suis inondé, depuis je ne sais combien de temps, par des requêtes (automatisées) vers des adresses comme je viens de dire ci-dessus. Les requêtes, plus exactement, ressemblent à ceci (dans le format des logs d'Apache) :

203.0.113.42 - - [13/Oct/2016:14:28:57 +0200] "GET /cgi-bin/comment.pl/showcomments?href=http://buyviagranow.spam HTTP/1.1" 200 7717 "http://www.youtube.com/redirect?q=www.madore.org/cgi-bin/comment.pl/showcomments?href=http://buyviagranow.spam" "Mozilla/5.0 (Windows NT 6.3; WOW64; rv:45.0) Gecko/20100101 Firefox/45.0"

Il y en a (ou il y en avait, avant que je prenne des mesures) environ 3 par seconde, ce qui représente quatre ou cinq fois plus que toutes les autres requêtes à mon serveur Web réunies. Je m'en suis rendu compte parce qu'à un moment ces requêtes ont saturé les accès à ma base de données (il fallait une connexion pour extraire la liste des commentaires sur chaque URL demandée — toujours vide, bien sûr). Connards.

Toutes ces requêtes ont exactement le même User-Agent annoncé, Mozilla/5.0 (Windows NT 6.3; WOW64; rv:45.0) Gecko/20100101 Firefox/45.0. Ceci fait référence à une version de Firefox qui a six mois (distribuée en mars 2016), donc je suppose qu'un petit malin a écrit et distribué un script, ou constitué un mini botnet, à ce moment-là. En tout cas, ce ne sont pas des requêtes faites légitimement par des humains utilisant vraiment un navigateur Web.

L'adresse demandée est toujours de la forme /cgi-bin/comment.pl/showcomments?href=urlurl est une URL « spammesque », et l'immense majorité des IP en question n'ont fait aucune autre sorte de requête sur mon site Web (en tout cas dans la même journée). L'adresse annoncée comme Referer est une adresse de redirection d'un site Web public bien connu, typiquement YouTube (http://www.youtube.com/redirect?q=url2) ou un moteur de recherche (http://notbig.ru/engine/redirect.php?url=url2) ou des choses de ce genre (http://bookmarks.yahoo.co.jp/url/url2). J'écris url2 ici, parce que cette URL est la totalité de celle qui est demandée (i.e., url2 = http://www.madore.org/cgi-bin/comment.pl/showcomments?href=urlurl est elle-même l'URL « spammesque »). Quant à cette URL spammesque, elle peut être très diverse : je ne vais pas donner d'exemple complet (et je n'en ai suivi aucun pour voir ce qu'il y a au bout), mais c'est généralement un peu long, presque jamais un simple domaine aussi évident que buyviagranow.spam : parfois ce sont visiblement des liens vers des profils de forums en-ligne qui ont dû être pourris de spam, parfois des requêtes vers des moteurs de recherche qui vont sans doute retourner du spam, parfois directement des pages de pub (bon, je donne juste un exemple : how-to-buy-manforce-without-prescription dans le domaine trusmiles.in).

Les adresses IP qui les émettent sont variées : sur une journée (24h) où j'ai reçu 268228 telles requêtes, elles provenaient de 15180 adresses distinctes, dont 9840 ayant émis une seule requête du genre, 2214 en ayant émis exactement deux, 602 trois, 310 quatre, 195 cinq, 552 entre six et neuf, 1062 entre dix inclus et cent exclu, 365 entre cent inclus et mille exclu, et 40 plus de mille requêtes chacune (avec la palme de 9677 requêtes pour la seule IP 46.149.95.102, située en Ukraine). Cette distribution n'est pas poissonnienne : il y a plus d'IP récurrentes qu'on en attendrait d'un processus de Poisson (je ne sais pas si cette surreprésentation des requêtes multiples vient surtout de ce qu'il y a des IP qui agrègent beaucoup de clients ou de ce que le processus est véritablement non-poissonien au niveau des sources), mais si on fait l'hypothèse qu'il l'est au moins grossièrement, on peut estimer qu'il y a quelque part entre 20000 et 60000 machines impliquées dans le spam en question.

Il y avait, incluses dans le tas de 15180 adresses, 81 adresses IPv6 distinctes (avec la palme de 87 requêtes pour l'IP 2a03:4a80:3:43d:43d:d518:4783:593f ; comme les IPv6 ne sont pas NATées et que celle-ci est visiblement tirée au hasard, c'est une machine unique, ça veut bien dire qu'il y a des sources qui insistent plus souvent que d'autres) ; j'ai quelques IPv6 non-anonymes, genre 2001:4c08:200d:0:221:5eff:fe6f:2150 (trente-huit requêtes ; c'est une machine en Allemagne, sans doute en Bavière, ayant une carte réseau IBM d'adresse MAC 00:21:5e:6f:21:50), mais je ne crois pas pouvoir en faire grand-chose.

Maintenant, je ne sais pas quel est le but de tout ça. Il va de soi que ce n'est pas une attaque au sens propre (mon serveur Web ne résisterait absolument pas à un DDoS même très modéré), mais c'est quand même agaçant, fût-ce par la pollution que ça entraîne dans mes logs HTTP.

Je ne sais pas non plus si les propriétaires des ordinateurs d'où les requêtes émanent les font volontairement ou pas (i.e., est-ce qu'ils font tourner un script dans le but de spammer, ou est-ce qu'ils font involontairement partie d'une sorte de petit botnet).

Quelques uns des liens vers mes pseudo pages de commentaires vides ont été postés en ligne, comme une recherche Google le démontre où il y a bien une certaine quantité de pages de spam ; mais l'écrasante majorité des requêtes que je reçois, comme je l'ai dit, ne vient pas d'humains qui suivaient des liens vers des pages de commentaires sur des URL spammesques, mais simplement de robots, et sans doute d'un unique script.

À défaut de comprendre, j'ai pris deux mesures. D'abord, ce qui était évident, interdire (renvoyer un 403) toute page de commentaire qui ne soit pas sur mon domaine : je ne sais pas si le script qui me spamme consulte même le code de retour, mais au moins la réponse est très courte et se fait sans consulter la base de données sur mon serveur, donc ça évitera toujours ça. D'autre part, bannir complètement, au niveau IP, toute IP qui fait plus que deux requêtes de ce type (avec le Referer que j'ai identifié comme celui du script) : ça c'est un peu plus discutable, parce que des utilisateurs légitimes peuvent être agrégés (NATés) avec les spammeurs dont je veux me débarrasser, mais bon, je ne bannis chaque IP que pour une semaine.

De façon générale, l'Internet me fait penser à un système biologique, où le parasitisme prend toute la place qu'il peut (et parfois déborde sur des hôtes que le parasite ne peut pas utiliser pour se reproduire, mais qu'il arrive quand même à incommoder, voire à tuer). Même sans compter l'« attaque » dont je parle ci-dessus, la proportion des requêtes sur mon serveur Web qui sont vraiment « intéressantes » (émanant de vrais humains qui veulent vraiment lire quelque chose que j'ai écrit) est très faible ; il en va de même de mon serveur de mails : l'écrasante majorité des connexions SMTP qui lui parviennent sont des tentatives de recherches de relais ouverts (même pas du spam pour moi : du spam pour d'autres personnes qu'on essaie de faire transiter par chez moi). Cela me fait penser un peu au fait que, si on regarde l'ensemble des cellules dans un être humain, la proportion qui sont des vraies cellules humaines est très petite (la majorité étant des cellules bactériennes — parasites, commensales ou symbiotes). Je parle là de proportion en nombre de cellules, parce que, en masse, heureusement, les cellules humaines sont quand même majoritaires. Comme il est possible que les « vrais » transferts de données légitimes soient encore majoritaires dans la bande passante de mon serveur ; c'est loin d'être certain, cependant.

(mardi)

Sur la redéfinition des unités SI : 2. le prototype international du kilogramme

Je continue l'histoire que j'ai commencée dans l'histoire précédente et qui m'avait laissé à la création du kilogramme des Archives, que les savants de la fin du 18e siècle (notamment Lefèvre-Gineau, Fabbroni et Fortin) avaient tenté de rendre aussi précisément que possible égal à la masse d'un décimètre cube d'eau pure à son maximum de densité (tandis que le mètre tentait lui-même d'être la dix millionième partie de la longueur d'un quart de méridien terrestre). Il faut maintenant que je raconte l'histoire de l'actuel prototype international du kilogramme : les raisons qui ont mené à ce qu'on voulût changer d'étalon, et la manière dont il a été fabriqué et choisi.

L'usage du système métrique ne s'est développé que graduellement, même en France. En 1812, face à la réticence quant à l'usage des unités nouvelles, Napoléon et son ministre de l'Intérieur (Montalivet) prirent des mesures réglementaires autorisant l'usage de certains multiples ou sous-multiples des unités métriques sous des noms identiques à des mesures anciennes : il s'agit des mesures usuelles ou « napoléoniennes ». Par exemple, pour la vente en détail de toutes substances dont le prix et le poids se règlent au poids, les marchands pourront employer les poids usuels suivans, savoir : la livre, égale au demi-kilogramme ou cinq cents grammes, laquelle se divisera en seize onces ; l'once, seizième de la livre, qui se divisera en huit gros ; […] (article 8 de l'arrêté du 28 mars 1812) ; le système métrique restait seul enseigné dans les écoles. Pendant le quart de siècle qui suivit, ces unités napoléoniennes causèrent une certaine confusion, en superposant aux unités anciennes qui n'avaient pas disparu des unités nouvelles de même nom mais néanmoins différentes, et elles furent accusées d'attenter à la pureté du système métrique. (Les habitudes, d'ailleurs, ont la vie dure : plus de deux siècles après, on continue encore à dire une livre sur les marchés français pour parler d'un demi-kilo !) Néanmoins, l'habitude du système métrique se répandit peu à peu, au moins dans certains domaines. Une loi promulguée le 4 juillet 1837 (après des discussions sur l'étendue des concessions qu'il fallait éventuellement maintenir) abrogea le décret napoléonien et régla qu'à partir du 1er janvier 1840 seuls les poids et mesures du système métrique étaient autorisés en France, qu'il s'agît des instruments de mesure eux-mêmes dans tout usage commercial ou des dénominations portées dans les actes publics ou privés.

La vérification des poids et mesures était effectuée par le Bureau des Prototypes, qui fut ensuite transféré (d'abord géographiquement, puis administrativement) au Conservatoire National des Arts et Métiers : à cet fin, il avait reçu une copie du mètre et du kilogramme déposés aux Archives.

En même temps, surtout à partir du milieu du 19e siècle, différents pays commencèrent à adopter à différents degrés le système métrique, au moins pour certains usages ou en parallèle avec leurs mesures traditionnelles. À titre d'exemple, l'Espagne adopta le système métrique dès 1849, l'Italie dès son unification (et le royaume de Piémont-Sardaigne déjà en 1845), le futur empire Allemand en 1868, et le Royaume-Uni autorisa l'utilisation des mesures métriques en 1864 ; il faut dire qu'une des motivations pour adopter les mesures métriques était souvent les différences incompréhensibles des unités traditionnelles entre régions d'un même pays (qu'il s'agisse des régions espagnoles ou des états s'unifiant pour former l'Italie et l'Allemagne). Les poids et mesures métriques, et les instruments pour réaliser les comparaisons, étaient aussi exposés lors des expositions universelles, notamment à Londres en 1851, et à Paris en 1855 et surtout en 1867 où des savants de différents pays réunis en un comité ad hoc recommandèrent l'adoption universelle du système métrique.

C'est ainsi que commença à se manifester une difficulté liée au statut particulier de la France, dépositaire des étalons primaires du mètre et du kilogramme : les gouvernements étrangers qui souhaitaient utiliser le système métrique devaient faire établir ou comparer leurs étalons nationaux à Paris, aux Arts et Métiers (contre les mètre et kilogramme du Conservatoire, censés refléter ceux des Archives). Ces étalons nationaux étaient réalisés de façons différentes, dans des matériaux différents, comparés dans des conditions différentes, et on pouvait craindre que, au moins pour des mesures de grande précision, il apparaisse des différences et, finalement, un kilogramme de Berlin et un kilogramme de Rome différents du kilogramme de Paris comme il avait eu existé une livre de Troyes différente de la livre de Paris. (Il existait aussi des soucis particuliers liés au mètre, notamment le fait que le mètre des Archives et sa copie du Conservatoire étaient des règles à bouts, qui peuvent s'user, plutôt qu'à traits, plus précises, ou encore la forme de sa section, les circonstances de mesure des équations de dilatation, etc. Mais comme je me concentre sur le kilogramme, je ne détaille pas.) C'est ainsi que l'idée fit son chemin d'établir un standard international basé sur des étalons réalisés et comparés de façon uniforme, et dans lequel la France n'aurait plus un rôle privilégié. C'est dans cette optique qu'on convoqua différentes commissions préparatoires et réunions internationales pour décider des conditions précises dans lesquelles on établirait des prototypes internationaux du mètre et du kilogramme : les opérations furent un peu retardées par la guerre franco-prussienne, mais la Commission Internationale du Mètre se réunit en 1872 pour trancher les questions techniques autour de la réalisation des nouveaux étalons.

Une première question à résoudre était de savoir quelle était la bonne longueur à donner au mètre et la bonne masse au kilogramme : les révolutionnaires avaient voulu que le mètre fût la dix millionième partie de la longueur d'un quart de méridien terrestre et le kilogramme la masse d'un décimètre cube d'eau pure à son maximum de densité : fallait-il recommencer ces mesures un siècle plus tard, ou reproduire aussi fidèlement que possible le mètre et le kilogramme des Archives ? C'est le problème d'avoir pris pour « définition » des unités des grandeurs physiques qu'on ne sait pas mesurer aussi précisément que les étalons qu'on fabrique : si on ne sait mesurer la masse d'un décimètre cube d'eau qu'avec une précision de 1 partie sur 105 (disons), soit on admet que le kilogramme n'est défini (ou en tout cas, réalisable) qu'avec cette précision-là, soit on fabrique des kilogrammes étalons plus précis, mais dans ce cas le kilogramme changera à chaque nouvelle mesure plus précise de la masse d'un décimètre cube d'eau ; soit on admet tout simplement que le décimètre cube d'eau n'était que le point de départ, et que le kilogramme est défini par l'étalon plus précis, fût-il arbitraire dans sa masse exacte ; et il en va de même du mètre.

On sait maintenant que la longueur du mètre aurait dû être plus longue d'environ 0.20 mm (la longueur d'un quart de méridien sur l'ellipsoïde WGS84, certes un peu arbitraire, vaut 10 001 965.7293 m) et, je l'ai dit la dernière fois, que le kilogramme aurait dû être plus léger d'environ 25 mg. En 1870, le consensus fut immédiatement unanime sur le fait de garder le mètre des Archives pour servir de base au nouveau prototype du mètre, mais il fut un peu plus délicat pour le kilogramme, sur lequel certains soupçonnaient une erreur de l'ordre de 200 mg ou plus par rapport au décimètre cube d'eau. (Je pense que les membres de la Commission, qui étaient plus physiciens que géographes, se sentaient plus concernés par la masse volumique de l'eau que par la taille de la Terre, et tenaient donc plus à refléter l'une que l'autre dans le système d'unités.) Néanmoins, l'importance de la continuité du système de poids et mesures, c'est-à-dire, quand on redéfinit une unité, de s'arranger pour que la nouvelle définition soit aussi identique que possible de l'ancienne, l'emporta, et donc d'utiliser le kilogramme des Archives comme base du nouvel étalon du kilogramme.

Parmi les décisions qui furent prises en 1872, on peut citer, concernant le prototype international du kilogramme et les prototypes nationaux :

Les difficultés pratiques furent importantes. Pour commencer, la chimie de l'iridium était assez balbutiante vers 1875, il fallait réussir à purifier ce métal. Par ailleurs, à cause de la décision de tout réaliser dans une unique coulée, les volumes à manipuler étaient considérables : un peu moins que 250kg pour l'alliage final. (Pour donner une idée de ce que cela représente, 200kg de platine, au cours actuel, coutent dans les 7M€.) Les travaux préparatoires, réalisés à l'École normale supérieure (dans le laboratoire de Deville, qui se chargea de la purification de l'iridium) et aux Arts et Métiers, attièrent l'attention même en-dehors des cercles scientifiques, et reçurent plusieurs fois la visite du Président de la République ou de ministres. Le platine provenait en partie du gouvernement russe et de la compagnie anglaise Johnson&Matthey. Mais le premier alliage, fondu en 1874, contenait trop d'impuretés (essentiellement 1.4% de ruthénium et 0.6% de fer d'après les analyses de Deville) et était de densité trop faible (21.15 kg/dm³), si bien qu'après des discussions houleuses (parce que des mètres avaient déjà commencé à être fabriqués dans cet alliage) on convint de commander à Johnson&Matthey un nouvel alliage avec des tolérances plus strictes, à savoir (10±0.25)% d'iridium, et au plus 0.15% de rhodium, 0.05% de ruthénium et 0.10% de fer ; cet alliage fut livré courant 1879. Les deux alliages furent comparés et le nouveau comparé aux tolérances demandées (avec succès) : c'est dans celui de 1879 (le plus pur, de masse volumique 21.55 kg/dm³) qu'ont été réalisés les prototypes internationaux. Quant aux prototypes nationaux, leur alliage a été livré par Johnson&Matthey en 1884. (Je ne sais pas ce que sont devenus les 250kg de l'alliage de 1874.)

Je ne m'étends pas sur la Conférence du Mètre, conférence diplomatique qui se réunit à Paris à partir du 1er mars 1875, réunissant 20 pays, et qui aboutit à la signature de la Convention du Mètre du 20 mai 1875, établissant trois organes principaux : (1) la Conférence générale des Poids et Mesures (GCPM), présidée par le président de l'Académie des Sciences de Paris, qui réunit périodiquement les délégués des pays signataires pour acter les décisions de plus haut niveau concernant le système métrique (devenu, à partir de 1960, le Système International d'unités), (2) le Comité International des Poids et Mesures (CIPM), de 12 membres (devenus ensuite 18), placé sous l'autorité de la CGPM et nommé par lui (initialement formé des membres de la Commission Internationale du Mètre), comité permanent qui prépare le travail de la CGPM, exécute ses décisions, et surveille le fonctionnement du BIPM ainsi que la conservation des prototypes et étalons, et enfin (3) le Bureau International des Poids et Mesures (BIPM), chargé des comparaisons et vérifications des étalons nationaux, de la conservation des prototypes internationaux, ainsi que de tout le travail scientifique et métrologique destiné à aider à l'établissement des standards d'unités. (Mentionnons juste au passage qu'on n'accède pas facilement au coffre-fort où sont stockés les prototypes : je disais la dernière fois qu'il fallait trois clés, mais en outre il faut le vote d'une résolution du CIPM, et la présence de deux de ses membres en sus du directeur du BIPM : tout ça est explicitement prévu dans le traité international, donc il ne faut pas rêver supplier quelqu'un pour obtenir le droit de prendre des photos.) La langue officielle des trois institutions citées est le français.

En 1875 aussi, on fixa le lieu affecté au BIPM : le gouvernement français offrit à cet effet le Pavillon de Breteuil, ancien Trianon du château de Saint-Cloud (le château lui-même ayant été détruit pendant la guerre de 1870 ; le pavillon était encore debout, au moins pour ce qui est des murs — le toit avait également été gravement abîmé par les bombardements), où Napoléon III avait précédemment voulu faire établir un observatoire. Le Pavillon lui-même fut remis à neuf de 1875 à 1884, pour servir à l'administration du Bureau, tandis que les instruments scientifiques eux-mêmes étaient placés dans l'observatoire, le bâtiment en face (côté ouest, c'est-à-dire en s'éloignant de la Seine) du Pavillon, et c'est que se trouve actuellement, pour autant que je puisse le déterminer avec fiabilité, le prototype international du kilogramme.

Puisque j'en suis à essayer de déterminer les choses avec la plus grande précision, il y a une question qui me préoccupe aussi, c'est de savoir avec certitude si le pavillon de Breteuil et ses dépendances sont sur la commune de Sèvres ou de Saint-Cloud. L'adresse postale où le BIPM reçoit son courrier est sans aucune ambiguïté à Sèvres, et la commune de Sèvres elle-même semble penser que le Pavillon est à Sèvres, ainsi que l'Assemblée nationale. Ce qui est quand même embarrassant vu que j'ai vérifié les limites des communes françaises telles que distribuées par le gouvernement (insérées dans une base de données PostGIS), et il n'y a aucun doute que SELECT gid , insee_com , nom_com FROM commune WHERE ST_Contains(geom, ST_Transform(ST_GeomFromText('POINT(2.21967 48.82928)',4326), 2154)) ; renvoie 15209 | 92064 | SAINT-CLOUD (les numéros 4326 et 2154 sont les systèmes de coordonnées longitude+latitude/WGS84, et Lambert-93, ce dernier étant utilisé par l'IGN dans ses données) ; les limites de communes sur OpenStreetMap sont les mêmes que celles évoquées ci-dessus et placent bien le BIPM à Saint-Cloud. Je pense que la réponse Saint-Cloud est la bonne, malgré toutes les sources qui disent Sèvres, mais en tout état de cause, il est extraordinaire qu'il puisse y avoir, en 2016, le moindre doute sur la commune à laquelle appartient un bâtiment en Île-de-France !

Je reviens au kilogramme. Une commission mixte, formée de savants français (dont l'amiral Mouchez, directeur de l'Observatoire de Paris, qui a une rue à son nom juste à côté de chez moi, et dont je ne savais même pas qu'il était physicien) et étrangers désignés par le CIPM, était chargée de réaliser une copie du kilogramme des Archives. Elle reçut au printemps de 1879 trois cylindres de l'alliage platine-iridium « pur » (cf. ci-dessus), qu'on baptisa KI, KII et KIII. Dans un premier temps, les membres de la commission effectuèrent (à l'ENS) une analyse de l'alliage et de sa densité (amenée à son maximum par une frappe vigoureuse), et un ajustage approximatif des cylindres à une masse légèrement supérieure à 1kg, en se basant sur une comparaison avec le kilogramme de l'Observatoire (qui avait lui-même été fabriqué vers 1799 par Fortin en même temps que celui des Archives, puis réajusté sur la masse de ce dernier en 1844). Puis (toujours à l'ENS) une première comparaison fut faite avec le kilogramme des Archives, permettant un premier ajustage plus précis de KI, KII et KIII. Les pesées étaient effectuées au moyen d'une balance de la maison E. & A. Collot construite exprès pour l'opération ; c'est d'ailleurs A. Collot lui-même qui effectuait le maniement de la balance et l'ajustement des cylindres. La suite des opérations eut lieu à l'Observatoire de Paris (dans la partie sud de la grande salle de la méridienne) à l'été à l'automne 1880. On y effectua un second ajustage sur le seul KIII, ainsi toutes sortes de pesées mettant en jeu les masses suivantes : KI, KII, KIII (tous les trois dans le même platine iridié), le kilogramme des Archives (en platine, désigné A), cepui de l'Observatoire (en platine, désigné O), celui du Conservatoire des Arts et Métiers (en platine, désigné C′, parce qu'il y avait un C au BIPM) avant ou après lavage, et l'étalon national belge (en platine, désigné Bl, qui devait servir de témoin de la bonne conservation des autres) ; les pesées étaient faites par double pesée (méthode « de Borda »), c'est-à-dire qu'on pèse les deux poids à comparer contre une même tare, de façon à maximiser la précision de la balance dont les bras ne sont pas rigoureusement égaux (dans un premier temps, la tare était un cylindre temporaire en platine, désigné KTD ; dans un second temps, c'était KII qui servit de tare dans les pesées finales entre KI, KIII, A et Bl).

La conclusion de toutes les mesures était une série de différences entre les masses de ces différents kilogrammes, d'où il résultait notamment que, avec une précision de l'ordre de ±15µg, la masse de KIII était la même que celle du kilogramme des Archives A, et qu'on ne pouvait pas espérer faire mieux. Les autres masses mesurées étaient : m(KI)=m(KIII)+146µg, m(KII)=m(KIII)+330µg, m(O)=m(KIII)−94µg, m(C′)=m(KIII)+1190µg après lavage (+1710µg avant), et m(Bl)=m(KIII)−3035µg, avec des incertitudes variables à cause des différences de pesées et de volumes, que je ne reproduis pas ici. (Le rapport détaillé de la commission est ici, pour ceux qui veulent absolument tous les détails.) La commission recommanda donc d'adopter KIII comme prototype international du kilogramme, ce qui fut sanctionné par le CIPM le 3 octobre 1883, puis par les 1re et 3e CGPM en 1889 et 1901. À partir de ce moment, le prototype en question (l'ancien KIII, donc) fut désigné 𝔎 (un K gothique). Quant à KI, il fut marqué d'un I au brunissoir, porté au BIPM où il est encore (dans le même coffre que 𝔎) pour servir de témoin, maintenant plutôt appelé K1 ; et KII fut marqué d'un II au brunissoir, réajusté en 1887, et donné à la section française de la Commision Internationale du Mètre, mais je n'ai pas réussi à savoir ce qu'il est devenu ensuite.

On ignore la manière exacte dont les ajustements étaient effectués par Collot, mais c'était probablement au papier émeri (la fabrication moderne de tels étalons utilise de la poudre de diamant). Ces opérations étaient donc très délicates à réaliser. Il est, d'ailleurs, un peu ironique qu'on ait déployé tant d'efforts à donner à 𝔎 exactement la même masse que le kilogramme des Archives A, étant donné que des analyses ultérieures, je l'ai mentionné la dernière fois, ont démontré que la masse de A n'était pas stable et perdait de l'ordre de 7µg/an (au moins comparé à 𝔎, qui est certainement beaucoup plus stable, mais on peut et on doit bien sûr se demander à combien il l'est).

Pour qu'il n'y ait pas le moindre doute, quand on dit que deux objets ont la même masse, cela signifie, concrètement, qu'ils ont le même poids dans le vide. Or toutes les pesées se font dans l'air : quand il existe des différences de densité entre les objets pesés (et d'autant plus qu'elles sont importantes), il faut donc ajuster les pesées pour tenir compte de la différence de poussée d'Archimède entre les objets, et pour cela, connaître leur volume. (Heureusement, comme le platine iridié est 2×104 fois plus dense que l'air, il suffit de connaître le volume avec une précision d'une part sur 104, et de même sur la masse volumique de l'air, pour arriver à une précision d'une part sur 108 sur le poids effectif, et c'est encore mieux si les masses comparées sont de densité très proches.) Les volumes des différents kilogrammes furent mesurés par pesée hydrostatique (c'est-à-dire, pesée dans l'eau, pour mesurer la poussée d'Archimède exercée par l'eau) : pour ce qui est de KI et KII, avant ajustage ; pour ce qui est de KIII (celui qui est devenu le prototype international), malgré le risque, il a été pesé de nouveau dans l'eau après ajustage, et il a été vérifié qu'une fois nettoyé sa masse n'avait pas changé par rapport à avant le passage dans l'eau. Le volume de KIII=𝔎 est de 46.40 cm³ à 0°C. Pour ce qui est du kilogramme des Archives (A), on ne voulut pas prendre le risque de le placer dans l'eau, de peur que la dissolution d'impuretés n'altère sa masse. Son volume avait été calculé en 1856 par le britannique W. H. Miller (au cours de ses travaux pour réaliser le nouvel étalon de la livre anglaise) : il s'y était pris par comparaison, au moyen d'un pycnomètre à gaz (ou ce qui y revient), avec un cylindre de référence temporaire, lui-même mesuré par pesée hydrostatique ; une fois corrigée une erreur de calcul de sa part, la section française de la Commission internationale du mètre était arrivée à un volume de 48.68 cm³ à 0°C (rapport détaillé ici).

[Le coffre-fort contenant le prototype international du kilogramme et ses six copies officielles]

Comme il n'en existe quasiment pas de photos à part celle que je remets ici (cf. mon entrée précédente), voici ce que j'ai pu trouver en matière de description du prototype international du kilogramme : il s'agit d'un cylindre d'environ 39mm de diamètre et autant de hauteur (c'est vraiment petit ! il est étonnant de se rappeler à quel point le platine est dense) ; contrairement aux témoins et prototypes nationaux, il ne porte aucun numéro inscrit ; un procès-verbal de 1888 fait les observations suivantes sur son état général :

Le kilogramme a des arêtes assez vives et un poli moins parfait que celui des prototypes nationaux. Sur le plan supérieur, il y a, à 2mm environ du bord, des stries à bords mal définis, formant des parties de courbes concentriques, et qui proviennent évidemment d'un défaut de poli. Sur la surface cylindrique, il y a des stries verticales près du bord supérieur, et une piqûre à 1cm environ du bord inférieur, juste au-dessous de la strie la plus accentuée. Le plan inférieur présente des parties polies ou rayées qui paraissent provenir d'un glissement du kilogramme sur son support et auxquels correspondaient des raies analogues sur la lame de platine de son support.

Je n'ai pas trouvé de description plus récente.

Comme tous les étalons de masse de très grande précision, il est manipulé avec des pinces spéciales en velours ou peau de chamois. Il est stocké posé sur une plaque de quartz elle-même posée sur une base de cuivre, et cerclée d'un anneau d'argent (servant à limiter les mouvements latéraux accidentels du prototype, qui risqueraient d'abîmer la surface inférieure, comme en témoigne la dernière phrase du paragraphe cité ci-dessus). Le tout est surmonté de deux cloches de verre (la seconde étant maintenue en place par des butées sur le support), et, dans le cas spécial du prototype international, d'une troisième cloche (posée sur une plaque de verre rodé) munie d'une valve permettant de faire et de maintenir un vide partiel (mais de nos jours, cette valve est conservée ouverte).

Pour éviter de l'altérer, le prototype international n'est sorti de du coffre où il a été rangé en 1889 que de façon exceptionnelle, pour être comparé à ses témoins et aux prototypes nationaux : après les pesées initiales des prototypes nationaux en 1889, il y a eu une comparaison commencée en 1939, interrompue par la guerre, et complétée en 1946, et une troisième en 1989–1992 ; enfin, en 2014, une calibration extraordinaire préalable à la redéfinition du kilogramme (dont je parlerai dans une suite de cette entrée).

À part le prototype international 𝔎 (ex-KIII) et ses copie KI et KII fabriqués en 1880 comme je l'ai expliqué plus haut, 40 nouveaux cylindres furent livrés à l'octobre 1884 et travaillés (au BIPM) pour les ajuster sur le prototype international et devenir des prototypes nationaux ou copies officielles du prototype international. Ce travail d'ajustage était excessivement long et pénible, initialement on s'était donné pour objectif de donner à chaque copie une masse comprise entre 1kg et 1kg+0.2mg (i.e., 1.0000002 kg), mais à cause de la difficulté, la tolérance fut réduite à ±0.2mg en 1885, puis ±1.1mg en 1888. Ils portent les numéros 1 à 40 ou 41 (le numéro 8 a été sauté par erreur, et le kilogramme frappé du numéro 41 est utilisé avec les accessoires prévus pour le 8 et est désigné comme 8(41) ; mais comme des gens n'ont pas compris que les entiers naturels ne sont pas une ressource rare, il y a quand même eu un vrai kilogramme 41 fabriqué ultérieurement). Finalement, chacun des 42 kilogrammes (KI, KII et 1 à 40 en passant par 8(41)) reçut un certificat indiquant sa masse (comparée à 𝔎, et mesurée à environ 3µg près) et son volume à 0°C. Puis, à part les kilogrammes KI et 1 réservés à servir de témoins au prototype international et enfermés avec lui dans le coffre en 1889, les autres ont, pour la plupart, été distribués au hasard entre les pays participant à la 1re CGPM pour servir d'étalons nationaux (ou d'étalons secondaires ou de témoins nationaux), ou bien au BIPM lui-même pour servir dans ses calibrations. D'autres kilogrammes ont été fabriqués depuis, mais je parlerai des pesées et des calibrations dans une suite de cette entrée.

Sources principales : elles sont plus abondantes que pour l'entrée précédente, puisque les documents de la fin du 19e siècle sont assez largement disponibles en ligne (et notamment sur Gallica) ; j'ai déjà donné des liens vers les principaux rapports ; la description de l'aspect de 𝔎 est citée dans un rapport de Thiesen de 1898 ; j'ai continué à utiliser le livre de Bigourdan (Le système métrique des poids et mesures), notamment les chapitres XXI et XXXI, et toujours les deux articles de la revue Metrologia (Richard Avis, The SI unit of mass, 40 (2003), et Richard Davis, Pauline Barat & Michael Stock, A brief history of the unit of mass: continuity of successive definitions of the kilogram, 53 (2016)) cités la dernière fois, puis quelques autres qui y sont cités directement ou indirectement ; et j'ai également fait usage du chapitre II du livre édité par Chester Page & Paul Vigoureux, The International Bureau of Weights and Measures 1875–1975 (publié à l'occasion du centenaire de la Convention du Mètre), qui est une traduction anglaise d'un original français auquel je n'ai pas accès, mais la traduction est téléchargeable ici.

(jeudi)

Sur la redéfinition des unités SI : 1. l'histoire du kilogramme des Archives

Le Système International d'unités, en abrégé SI, et parfois appelé (inexactement) système métrique ou MKS (mètre-kilogramme-seconde), est le système d'unités utilisé par essentiellement tous les pays du monde à l'exception des États-Unis d'Amérique ; et même le système américain traditionnel est défini par rapport à lui (le pouce, par exemple, mesure exactement 0.0254 m, la livre exactement 0.45359237 kg, etc.). Quasiment toute mesure scientifique utilise, directement ou indirectement, ces unités, et il est évidemment inutile de dire qu'elles ont aussi une grande importance dans la vie courante. Et je ne suis pas trop du genre à faire du chauvinisme, mais s'il y a une chose dont la France peut être fière, c'est d'avoir donné au monde le mètre et le kilogramme (l'ampère, pour sa part, est dès le début la création d'une collaboration internationale). Il est donc intéressant de regarder de plus près la définition des unités du SI. En fait, il y a un petit nombre d'unités dites fondamentales — la seconde, le mètre, le kilogramme, l'ampère, la mole, le kelvin et la candela — à partir desquelles les autres unités SI sont dérivées (par exemple, le watt, ou kilogramme · mètre carré par seconde au cube, est la puissance déployée par une force qui accélère de 1 m/s² une masse de 1 kg se déplaçant à 1 m/s). Discuter le SI, c'est donc essentiellement discuter ces sept unités fondamentales.

Je vais laisser de côté la seconde : j'ai déjà raconté son histoire, la seconde a été définie successivement comme (empiriquement) une proportion du jour solaire moyen, puis comme une proportion de l'année tropique pour J1900, et enfin (la définition actuelle) comme 9 192 631 770 périodes de transitions hyperfines de l'état fondamental de l'atome de césium-133 (au repos et au zéro absolu). Cette définition donne actuellement satisfaction, et est réalisée en laboratoire avec une précision assez impressionnante (quelques parties sur 1016, c'est-à-dire une poignée de secondes par milliard d'années). On peut peut-être faire encore mieux, peut-être qu'il vaudrait mieux utiliser le rubidium-87 que le césium-133 ou des horloges optiques, ou je ne sais quoi, mais toujours est-il que la mise en pratique de la seconde est considérablement plus précise que celle des autres unités SI, donc dans la discussion de celles-ci on peut considérer que le temps est connu exactement.

Je vais aussi laisser le mètre de côté. Son histoire est très intéressante (après une première proposition qui en faisait la longueur du pendule qui bat la seconde, raison pour laquelle l'accélération de la pesanteur est de l'ordre de grandeur π²≈9.9 en mètres par seconde carrée, mais qui a été abandonnée parce que trop variable d'un endroit à l'autre, l'Académie des sciences a décidé en 1795 d'en faire la dix millionième partie de la distance de l'arc de méridien entre le pôle et l'équateur, arc de méridien qu'il a fallu mesurer, ce que firent Delambre et Méchain, et ce fut une aventure qui mérite un livre à elle seule). Mais après une définition par un premier étalon (le mètre des Archives, déposé en 1799) et un second en platine iridié réalisé à la fin du 19e siècle (officiel à partir de 1889, et dont l'histoire recoupe beaucoup celle du kilogramme), puis brièvement (de 1960 à 1983) par la longueur d'onde d'un certain rayonnement du krypton-86, le mètre est maintenant défini comme la distance parcourue par la lumière dans le vide en une certaine fraction de seconde (de façon à fixer la vitesse de la lumière à exactement 299 792 458 m/s), et mise en pratique par des interféromètres laser dont on a mesuré la fréquence avec une grande précision. Il est difficile de dire exactement quelle précision est atteignable dans la mesure des distances, parce que cela dépend de si elle est effectuée dans l'air ou dans le vide, et sur quelle échelle : je crois qu'on ne peut guère dépasser quelque chose comme 1 partie sur 108 dans l'air, mais qu'on gagne facilement trois ou quatre ordres de grandeur de précision dans le vide.

Je ne vais pas m'attarder sur la candela (l'unité d'intensité lumineuse, autrefois appelée bougie nouvelle), dont j'ai du mal à considérer qu'elle mesure une vraie grandeur physique, et qui n'a pas grand-chose à faire dans le SI. Je ne sais même pas vraiment ce que cela signifierait de mesurer une intensité lumineuse avec une très grande précision, puisque l'intensité lumineuse dépend de toute façon de la courbe de réponse choisie pour modéliser l'œil humain. En tout état de cause, on ne fait pas beaucoup mieux que quelques parties par 103.

Restent quatre unités fondamentales, le kilogramme, l'ampère, la mole et le kelvin. Actuellement, ces unités sont définies ainsi :

[Le coffre-fort contenant le prototype international du kilogramme et ses six copies officielles]
Le kilogramme
comme la masse du prototype international du kilogramme, un cylindre d'un alliage de 90% platine et 10% iridium conservé dans un coffre-fort (photo ci-contre) dans le caveau du bâtiment dit « de l'observatoire » du Bureau International des Poids et Mesures au pavillon de Breteuil à Saint-Cloud.
L'ampère
en fixant la perméabilité du vide (μ₀), une grandeur fondamentale de l'électromagnétisme, à 4π×10−7 N/A², à travers une définition assez abstraite (l'ampère est l'intensité d'un courant constant qui, maintenu dans deux conducteurs parallèles, rectilignes, de longueur infinie, de section circulaire négligeable et placés à une distance de 1 mètre l'un de l'autre dans le vide, produirait entre ces conducteurs une force égale à 2×10−7 newton par mètre de longueur) et qui n'est pas du tout utilisée dans la mise en pratique de cette unité.
La mole
comme la quantité de matière correspondant à 12 grammes de carbone-12 (autrement dit, le nombre d'Avogadro est défini comme le nombre d'atomes de carbone-12 dans 12 g de cette substance).
Le kelvin
en fixant la température du point triple de l'eau à 237.16 K (c'est-à-dire 0.01°C, puisque la température en degrés Celsius est défini comme la température en kelvins moins 273.15).

Ces quatre définitions posent problème, et vont être amenées à changer. À part le kelvin, qui va être redéfini en fixant la constante de Boltzmann, les changements des trois autres définitions sont plus ou moins liés.

Tout procède d'une volonté de se « débarrasser » du prototype international du kilogramme, qui est le dernier étalon matériel encore en usage pour définir une unité du SI.

Sur la photo ci-dessus à droite (récupérée sur une ancienne version du site Web du BIPM), le prototype international du kilogramme est celui qui est sur l'étagère du milieu, conservé sous trois cloches, portant l'étiquette 𝔎 ; la photo est mauvaise, mais ça semble être essentiellement la seule publiquement disponible qui montre cet artefact : et comme ce coffre-fort (situé dans les sous-sols du pavillon de Breteuil) est ouvert une fois tous les trente ans en moyenne (il faut trois clés pour y accéder, l'une est détenue par le directeur du BIPM, l'une par le président du CIPM, et la troisième est déposée aux Archives Nationales), ce n'est pas évident de faire de nouvelles images. (J'ai écrit à quelqu'un du BIPM pour demander si des photos ont été prises lors du dernier accès au prototype, en 2014 pour des « calibrations extraordinaires » : s'il me répond et qu'il y en a, j'essaierai de les mettre sur Wikipédia et/ou ici. Mise à jour : Non, apparemment, il n'y a pas de meilleure photo que celle-ci.)

Méta : Je voudrais donc raconter un peu l'histoire du kilogramme : ses origines, la réalisation du prototype international, les pesées successives, et les efforts actuels pour mettre ce prototype à la retraite (et comment on passe de la constante de Planck à la réalisation d'un kilogramme), et la concurrence entre la balance de Kibble et le projet Avogadro ; sans oublier la redéfinition de l'ampère, qui me semble aussi très importante et dont on ne parle pas (sans doute parce qu'il s'agit plutôt d'entériner une pratique de fait) et de la mole (avec la question de ce que devient l'unité de masse atomique). Mon intention initiale était de tout raconter en une seule fois, mais si je fais ça, je sais que cette entrée ne sera jamais finie et jamais publiée — surtout que je commence à me noyer dans les recherches Google pour savoir, par exemple, ce qu'on savait faire avec du platine en 1795. On m'a souvent conseillé, dans ces conditions, de publier là où j'en suis, quitte à compléter plus tard. Alors je fais ça, et je déclare que ceci est une première partie d'une entrée qui sera peut-être complétée ultérieurement, peut-être pas : l'histoire du kilogramme des Archives.

Remontons l'histoire. Le kilogramme, comme le mètre, a son origine à la Révolution française. La première tentative de définir une unité de masse (qu'on appelait alors poids) s'appelait le grave, et il est d'ailleurs dommage qu'on n'ait pas gardé ce nom qui aurait éviter l'embarras d'avoir une unité fondamentale portant un préfixe (l'unité fondamentale du système SI est bien le kilogramme, pas le gramme, mais son nom porte le préfixe kilo, ce qui est assez pénible parce que tout est décalé : un miligramme mètre par seconde carrée est un micronewton, par exemple), mais je digresse. Le grave était défini en 1793 comme la masse d'un décimètre cube d'eau pure, à sa température de fusion, le décimètre étant alors déduit du mètre provisoire puisque la mesure du méridien n'avait pas encore été effectuée (cf. ci-dessus au sujet du mètre) : Lavoisier and Haüy mesurèrent cette masse, ce qui fut notamment rendu compliqué par l'extraordinaire confusion autour du système des masses de l'ancien régime (basé sur la pile de Charlemagne, un artefact du 15e siècle, et qui avait le défaut que la partie censée représenter 1/50 du tout ne représentait pas exactement 1/50 du tout). L'unité fut renommée kilogramme à la suite de l'introduction du système systématique de préfixes (de nouveau, il est dommage qu'elle n'ait pas gardé le nom de grave, mais je suppose qu'on considérait qu'il était plus utile d'avoir des unités de masses du milligramme au myriagramme que du milligrave=gramme au myriagrave=10⁴kg). Et comme Lavoisier était mort (pas tout à fait accidentellement !) en 1794, ce furent deux autres savants, Lefèvre-Gineau et Fabbroni qui eurent la tâche de réaliser le kilogramme, basé cette fois sur le mètre définitif de Delambre et Méchain. Entre temps, la définition avait un peu changé, l'eau étant prise à son maximum de densité (vers 4°C) de manière à ce que les petites différences de température aient le moins d'impact possible.

La manière dont Lefèvre-Gineau et Fabbroni s'y sont pris pour réaliser cette définition de l'unité fait l'objet d'un rapport détaillé de Trallès dans le traité de Delambre et Méchain consacré essentiellement au mètre. Pour résumer, ils ont fait faire un cylindre en laiton, creux mais soutenu par une armature intérieure afin qu'il se déforme le moins possible, dont ils ont mesuré le volume extérieur aussi précisément que possible (en tenant compte des inexactitudes de cylindricité, de la dilatation du cuivre entre la température de mesure et la température de pesée, etc.), et ils l'ont pesé dans l'eau puis dans l'air, de façon à en déduire la poussée d'Archimède, c'est-à-dire le poids du volume d'eau déplacé. Le citoyen Nicolas Fortin, qui avait fabriqué le cylindre et les instruments avec lesquels le mesurer très exactement, a aussi conçu et fabriqué la balance, dont la précision est d'environ 2 parties par 106 (c'est-à-dire 2mg sur 1kg). Je ne rentre pas dans les détails, mais la lecture du rapport montre bien le soin avec lequel on a réalisé les opérations et tâché de corriger toutes les sources d'erreurs.

Il s'est ensuite agi de transférer cette masse mesurée pour le décimètre cube d'eau pour réaliser un étalon, dans un métal dont on commençait à comprendre l'intérêt, et en l'occurrence choisi pour sa résistance à la corrosion : le platine. Ce n'était pas une mince affaire : la technologie de la fin du 18e siècle n'était pas capable de faire fondre du platine à l'état pur (ou en tout cas pas à l'échelle souhaitée : Lavoisier avait tout juste réussi à atteindre le point de fusion). Mais le joaillier Marc-Étienne Janetti (ou Janety) (ancien joaillier du roi ; on le rappela à Paris, qu'il avait fui sous la Terreur pour s'installer à Marseille) disposait de la technologie dite de l'arsenic, qui consistait à faire fondre le platine, et à le purifier en même temps, en le mélangeant à du trioxyde d'arsenic (qu'il fallait ensuite faire partir, quitte à forger le platine à chaud mais non liquide) : c'était difficile et dangereux. Ce fut lui qui réalisa quatre cylindres de platine qui furent confiés à Fortin (le même que ci-dessus) pour les travailler de façon à y reproduire la masse que Lefèvre-Gineau et Fabbroni avaient mesurée (à l'aide de poids temporaires en laiton). La manière dont il s'y est pris pour finir ce travail n'est pas bien connue, mais l'un de ces cylindres a été déposé aux Archives en juin 1799, et sous le nom de kilogramme des Archives, il a servi d'étalon de masse du système métrique entre 1799 et 1889. Il y est encore, même s'il y a bizarrement peu de photos de cet artefact en ligne (il y en a peut-être une sur cette page, mais ce n'est pas totalement clair que ce soit celui des Archives).

(Quant aux trois autres cylindres livrés par Janetti, l'un fut déposé à l'agence des Poids et Mesures et il est maintenant visible [précision : en fait c'est une copie, voir ici] au Conservatoire national des Arts et Métiers ; deux autres furent gardés quelques années par Fortin, l'un étant volontairement plus léger de 88mg, soit la différence de la poussée d'Archimède de l'air entre 1kg de platine et 1kg de laiton, ce qui permettait d'étalonner plus facilement des kilogrammes de laiton.) Ceux qui veulent plus de détail sur la réalisation de ces étalons en platine peuvent consulter ce livre (Bigourdan, Le système métrique des poids et mesures, son établissement et sa propagation graduelle, avec l'histoire des opérations qui ont servi à déterminer le mètre et le kilogramme, notamment le chapitre XI sur la détermination de l'unité de poids) et le premier mémoire de ce volume (Wolf, Recherches historiques sur les étalons de l'Observatoire, notamment la troisième partie consacrée aux étalons de poids).

Que peut-on dire rétrospectivement du kilogramme des Archives et de la masse d'un décimètre cube d'eau ? La mesure de la masse d'un décimètre cube d'eau pure à son maximum de densité n'était pas parfaite, mais elle était excellente : avec la technologie moderne, on peut mesurer que la masse volumique de l'eau (dans sa composition isotopique standard) est environ 0.999 974 kg/dm³ à son maximum à 3.98°C, avec une incertitude d'environ 1 mg/dm³. Cela signifie (1) que Lefèvre-Gineau et Fabbroni ne se sont trompés que de 25 mg environ, ce qui est vraiment bon, et (2) qu'en tout état de cause, la définition comme la masse d'un volume d'eau, bien qu'agréablement universelle, ne peut pas servir comme définition suffisamment précise du kilogramme, puisque même avec les moyens modernes et une définition isotopique précise de l'eau, on ne parvient pas à faire mieux que 1mg (1 part sur 106), ce qui est certes ~25 fois mieux qu'à la Révolution, mais pas assez bon pour une unité qu'on veut pouvoir réaliser encore vingt ou cinquante fois plus précisément.

Je dois noter qu'il y a eu entre 1901 et 1964 une confusion sur la définition du litre : avant 1901 et depuis 1964, le litre est rigoureusement synonyme du décimètre cube (qu'on peut préférer de toute façon pour éviter tout doute à ce sujet). Entre 1901 et 1964, cependant, le litre était défini comme le volume d'un kilogramme d'eau pure à son maximum de densité (c'est-à-dire qu'on prenait la définition originale du kilogramme et qu'on la mettait à l'envers : au lieu de définir le kilogramme comme la masse d'un litre d'eau, ce qui est faux d'environ 25 parties par million, on faisait le contraire et on définissait le litre comme le volume d'un kilogramme d'eau). Cette définition a causé beaucoup de confusion et a ainsi fait du tort au SI même si on est revenu dessus (l'idée subsiste malheureusement encore parfois que le litre et le décimètre cube ne sont pas identiques). J'ai donc évité d'utiliser le litre dans tout ce qui précède.

Par ailleurs, un autre fait à signaler est que le kilogramme des archives n'a pas une masse rigoureusement constante : si en 1880 on s'est arrangé pour donner au (futur) prototype international du kilogramme une masse égale (avec une précision d'une quinzaine de microgrammes) au kilogramme des archives, on s'est aperçu en 1939 qu'il avait perdu environ 430µg (comparé au prototype international) par rapport à sa masse en 1880 ; l'explication est probablement à chercher dans la technique de réalisation du platine utilisée par Janetti ; le fait est que la masse volumique du kilogramme des Archives (20.54 kg/dm³ à 0°C) est d'environ 4% inférieure à celle du platine pur (21.46 kg/dm³). Toujours est-il que ceci amène à se demander dans quelle mesure on est sûr que la masse d'un objet matériel, et notamment de l'étalon du kilogramme, est vraiment constante — mais j'en parlerai dans la suite, si ou quand elle vient.

Sources principales : à part celles déjà citées (notamment le livre de Bigourdan et le rapport de Trallès), je me suis beaucoup appuyé sur deux articles de la revue Metrologia : Richard Avis, The SI unit of mass, 40 (2003), et surtout Richard Davis, Pauline Barat & Michael Stock, A brief history of the unit of mass: continuity of successive definitions of the kilogram, 53 (2016) ; j'ai aussi jeté un coup d'œil au livre A History of Platinum and its Allied Metals de McDonald & Hunt dans la mesure où Google books me permettait d'y avoir accès.

Suite : partie 2.

(jeudi)

Donald Trump me terrifie vraiment

Je ne nie pas que je suis chaque élection présidentielle américaine avec un certain intérêt, mais cette fois-ci, ce n'est pas juste de l'intérêt : la possibilité bien réelle que Donald Trump devienne le prochain président des États-Unis me terrifie complètement. C'est loin d'être une certitude, bien sûr, malgré les gaffes, les scandales et les doutes sur la santé de sa principale adversaire (je vais y revenir) ; peut-être que Trump a moins de 50% de chances d'être élu, peut-être même seulement 40% (ou 30% si on est carrément optimiste), mais cette perspective est tellement épouvantable que, fût-elle pondérée par 30%, elle reste alarmante : si je dois jouer à la roulette russe avec seulement deux balles dans le chargeur, je vais peut-être être content de savoir qu'il n'y en a pas trois, quatre ou cinq (ou six !), mais je préférerais ne pas jouer du tout. Et rien ne dit que la probabilité soit aussi faible (sans entrer dans la question philosophique oiseuse de ce qu'une probabilité signifie au juste) : elle se base sur une lecture éduquée de sondages, mais même pour des statisticiens avertis (voir par exemple ici et , et si on croit aux forces du marché, ), manipuler tant d'inconnues est délicat, et Trump a déjà donné tort aux experts[#] qui ne lui donnaient aucune chance lors de la primaire.

[#] Il est vrai que, à ce niveau, les sondages avaient justement raison contre les experts qui disaient les sondages se trompent forcément, Trump ne peut pas être aussi haut. Maintenant, les experts se méfient. Mais les sondages peuvent quand même se tromper énormément, surtout face à quelqu'un d'aussi imprévisible et dans une campagne aussi bizarre.

Ce n'est pas seulement que je croie que les idées de Trump soient mauvaises et dangereuses : ce serait déjà beaucoup s'il avait un programme, si on savait à quoi s'attendre. Mais ce qu'on a vu pour l'instant, dans cette campagne, montre simplement que Trump est totalement impulsif et instable, capable de dire tout et son contraire et de faire n'importe quoi, et que personne, ni ses alliés ni ses ennemis, ne peut prévoir ses réactions ; tout suggère qu'il a le contrôle de soi et la tempérance d'un enfant de cinq ans caractériel ; que ses capacités d'attention ou de prévoyance sont nulles, et que les quelques facultés mentales qu'il a sont tout entières tournées vers la satisfaction de sa mégalomanie égocentrique. D'autres personnes cherchent à se faire élire à une fonction publique pour réaliser un programme plus ou moins bon, mais Trump semble n'avoir tout simplement pas d'idées politiques : la fonction présidentielle est simplement une médaille dorée qu'il veut ajouter à sa collection.

Je pourrais tenter de faire une liste de quelques unes des pires ignominies qu'il a vomies, que ce soit en matière de racisme, de misogynie, ou simplement de haine aveugle. Je pourrais étayer le fait qu'il n'est pas seulement menteur, mais ostensiblement fier de ce que la vérité n'ait qu'une connexion extrêmement ténue à ses discours (à ce stade-là, ce n'est même plus la peine). Je pourrais citer certaines de ses contradictions si nombreuses qu'on ne peut plus lui attribuer la moindre position (admettons que cet échantillon est amusant à regarder). Je pourrais évoquer la copieuse panoplie de scandales, de fraudes et de malversations qui l'entourent (je vais me contenter de renvoyer au dernier épisode de Last Week Tonight [épisode 3:23 du 2016-09-25]). Et je pourrais mentionner quelques uns des indices qui font craindre quant à sa santé mentale ou en tout cas ses facultés émotionnelles et intellectuelles (voir par exemple ceci ou cela pour une discussion). Je pourrais remarquer que même comme homme d'affaire, quand on regarde de près, on trouve surtout des signes de son incompétence. Mais toutes ces démonstrations n'auraient qu'un intérêt assez médiocre : quiconque a suivi, même de loin, cette campagne, ne peut pas accorder encore le moindre bénéfice du doute à Donald Trump sauf à être d'une mauvaise foi telle qu'aucun argument ou aucune preuve ne le convaincra jamais : pour penser du bien de cet homme, il faut s'être entouré d'une armure impénétrable de fausseté [← je ne trouve pas de mot français pour delusion], et je pense que ce n'est pas le cas de mes lecteurs.

En fait, le problème, ce ne sont pas tant les irrécupérables qui soutiennent Donald Trump que ceux qui pensent que les maux de son adversaire (et incontestablement, il y en a) sont comparables. Ou qui par principe refusent de se boucher le nez et de choisir le moindre mal : et qui, du coup, ne vont pas voter, ou vont voter pour Gary Johnson ou Jill Stein, lesquels n'ont aucune chance[#2][#3] d'être élus. Or comme le dit une citation célèbre (dont personne ne connaît l'origine exacte, d'ailleurs), tout ce qu'il faut pour que le Mal triomphe est que les gens de Bien ne fassent rien. Même Noam Chomsky, qui n'est certainement pas du genre à appeler à voter utile en toute circonstance ou à soutenir les démocrates en général (il qualifie Barack Obama, par exemple, de criminel de guerre à cause des exécutions à distance par drones), a écrit un texte appelant à faire barrage à Trump à cette élection-ci.

[#2] Pour qu'on ne me fasse pas dire ce que je n'ai pas dit : il n'y a rien de scandaleux en soi à voter pour quelqu'un qui n'a aucune chance d'être élu (surtout que ce concept de n'avoir aucune chance doit être pris avec des pincettes, sous peine de devenir une prophétie auto-réalisatrice). Ce qui est scandaleux à mes yeux, c'est de le faire par principe et sans tenir compte des autres circonstances (notamment, la différence de programme entre les candidats qui ont une chance, et à quel point l'écart est serré entre eux). Je renvoie au texte de Chomsky pour une argumentation un peu plus précise des facteurs à prendre en compte. Je ne me prononce pas au sujet du vote pour des candidats de tiers partis sur l'une des nombreuses autres élections qui ont lieu en même temps que la présidentielle américaine et qui peuvent avoir beaucoup d'importance aussi (et de fait, des candidats indépendants sont effectivement élus, y compris jusqu'au Sénat).

[#3] En plus de quoi, Gary Johnson semble à peu près aussi ignorant et incompétent que Donald Trump, donc ce n'est pas comme si c'était tellement mieux de voter pour celui-là que pour celui-ci, quand bien même il aurait une chance sérieuse.

Il y a, en fait, énormément d'électeurs qui estiment qu'il leur est impensable de voter pour Trump comme pour Clinton, tant l'impopularité de cette dernière est énorme. Cette impopularité est assez difficile à comprendre : les scandales qui l'affectent (cf. l'extrait de Last Week Tonight lié ci-dessus), l'opacité autour de son état de santé[#4], tout cela devrait paraître assez insignifiant par rapport aux abjections que l'autre étale fièrement chaque jour. Le nombre de déçus de Bernie Sanders (et fâchés de l'opacité du système des primaires démocrates) ne suffit pas non plus à expliquer que Clinton et Trump soient presque à égalité dans les sondages ; pas plus que l'impression d'insincérité ou d'appartenance dynastique que peut dégager celle qui a été première dame, sénatrice et secrétaire d'État. Même une personne totalement dégoûtée de la politique ou repoussée par les programmes des deux grands partis[#5] devrait au moins admettre qu'il vaut globalement mieux avoir un président compétent, intelligent et sain d'esprit (et personne ne conteste que Clinton soit tout ceci) que le contraire. En vérité, le fait même qu'il puisse y avoir une chance que Trump soit élu, et a fortiori le fait qu'elle soit aussi énorme, suffit à me faire désespérer de l'humanité.

[#4] Difficile de faire la part de l'inquiétude légitime et de la théorie du complot. Mais ce genre de préoccupation souligne surtout l'absurdité du système présidentiel, qui fait que la santé d'une seule personne devient un enjeu aussi considérable.

[#5] En fait, le programme des Démocrates a assez peu d'importance vu qu'ils ne disposeront pas de majorité à la Chambre des Représentants pour faire quoi que ce soit. Les Républicains, eux, risquent d'avoir effectivement le pouvoir de faire des choses.

Je crois qu'un phénomène important qui explique que ce soit aussi serré est la fausse équivalence sous laquelle les médias américains présentent les deux candidats : par peur de paraître trop biaisés, ils tendent donc à accorder autant de temps ou d'importance aux reproches faits à un candidat et à l'autre, ce qui accentue l'effet « Trump est certes horrible, mais Clinton aussi », bref, l'impopularité de son adversaire déteint sur elle (et même les médias qui ne font pas ça provoquent quand même cet effet, parce qu'on s'attend à ce que les médias cherchent cette sorte d'équilibre artificiel, et du coup, ceux qui ne le font pas passent pour biaisés en faveur de Clinton).

La notion même de vérité semble d'ailleurs avoir totalement disparu de la campagne, ce qui, indépendamment de la figure de Trump, est effrayant : ce qui compte n'est plus ce qui est vrai, plus personne n'en a cure (et Mme Clinton se fatigue pour rien à dire globalement la vérité aux électeurs), ce qui compte est ce que les gens ressentent. (J'ai le souvenir, par exemple, sur la question de l'insécurité, à je ne sais quel journaliste qui signalait qu'elle était plutôt en baisse, qu'un ténor du parti Républicain a rétorqué que ça n'avait pas d'importance parce que les électeurs ne le sentaient pas comme ça.) La blague que truth has a liberal bias n'a jamais sonné plus juste. (Voir aussi ici ; et voir ce que je disais dans une entrée précédente.)

Il y a peut-être un effet cyclique dans l'électorat qui fait que si Donald Trump dépasse Hillary Clinton dans les sondages, les gens se réveillent en se rendant compte qu'il a des vraies chances de devenir président, et reconsidèrent leur décision de ne pas voter, ou de voter pour un tiers parti ; mais dès que Clinton remonte, ils reviennent sur cette décision, comme si les sondages étaient quelque chose de fiable et que l'avance de epsilon pour cent qu'elle a sur lui signifiait que le danger était écarté. Et au moment où j'écris, on est peut-être bien bloqué dans un état où Clinton a, effectivement, une avance epsilonesque sur son adversaire, suffisante pour que beaucoup de gens se disent qu'elle va le battre et que ce n'est donc pas la peine de se mobiliser, mais insuffisante pour écarter vraiment le danger.

Mais j'en reviens à moi-même.

Je ne suis pas Américain. La décision ne dépend donc pas de moi. Mais suis-je pour autant concerné ? Certainement. Quand Rodrigo Duterte (qui a beaucoup de points en commun avec Trump) a été élu à la présidence des Philippines, j'étais affligé pour les Philippines, mais je ne me sentais pas moi-même directement menacé ; la perspective que Trump soit élu président des États-Unis, en revanche, menace le monde entier.

J'ai tendance à penser des dirigeants qu'ils sont souvent dans la position où il est quasiment impossible pour eux de faire du bien, mais extrêmement facile de faire du mal. Lorsqu'il s'agit du président des États-Unis, ce mal s'exerce sur la planète tout entière. Et quand il s'agit d'un fou qui n'a aucune notion du bien ou du mal ou de capacité intellectuelle à juger les conséquences de actions, le risque est immense. Je ne mentionnerai que trois points.

D'abord, il y a le changement climatique. L'accord de Paris sur la limitation des gaz à effet de serre est faible et insuffisant, mais je faisais partie de ceux qui pensaient que rien n'allait sortir de cette conférence et j'ai été très agréablement surpris qu'elle accouche d'un accord, fût-il minimal, laissant espérer qu'on ait peut-être une chance de réussir à infléchir la trajectoire dans laquelle nous sommes partis. D'un autre côté, cette chance est unique : si elle échoue, cela confortera l'idée qu'il est impossible de parvenir à un accord, et plus personne ne voudra réessayer. Or si Donald Trump est élu président des États-Unis, l'accord de Paris est mort : il a clairement dit qu'il s'en retirerait (il a peut-être aussi dit le contraire, vu qu'il dit tout et son contraire, mais sur ce point-là, on sait à quoi s'en tenir avec lui), et de surcroît, il nommera certainement quelqu'un à la Cour Suprême qui complètera une majorité conservatrice certainement encline à frapper cet accord quand bien même un président ultérieur voudrait le réinstaurer (surtout s'il passe par voie exécutive et sans confirmation par le Sénat). Ce point à lui tout seul suffit à me faire craindre, si Trump est élu, pour l'avenir de l'humanité.

Ensuite, il y a la géopolitique, et les risques d'une guerre mondiale, ou atomique, ou les deux. Je ne vais pas prétendre que ça me semble hautement probable, même si Trump est élu, mais le risque est tellement colossal que même en regard d'une probabilité faible, il demeure terrifiant. Je ne pense pas que Trump enverra une bombe atomique en Europe pour le simple plaisir d'appuyer sur le bouton rouge ou de montrer son pouvoir, mais je n'en suis pas certain non plus, tant il semble dépourvu de la moindre graine de conscience (et je ne crois pas qu'il existe un quelconque garde-fou pour l'en empêcher s'il lui en prend l'envie) ; et de toute façon, il n'est pas nécessaire qu'il rase Paris pour que cela m'affecte directement : on a tendance à l'oublier, mais l'équilibre de la terreur demeure hautement précaire, et avoir un fou à la Maison Blanche est un danger imminent pour l'humanité.

Enfin, il y a l'économie. En mettant de côté toutes les critiques de fond qu'on peut faire au capitalisme libre-échangiste mondialisé, il y a une chose qui me frappe particulièrement, c'est à quel point il est instable, et à quel point les boucles de rétroaction toujours plus complexes et plus rapides qui se mettent en place au fur et à mesure que les services s'intègrent les uns aux autres au niveau mondial, tendent à devenir autant de facteurs d'instabilité et de propagation des crises. Les uns diront que c'est une caractéristique intrinsèque de l'économie de marché (un peu comme elle l'est de l'écologie des populations), les autres diront que c'est un effet des tentatives pour contrarier le libre-échange qui empêchent les effets stabilisateurs de s'exercier correctement, toujours est-il que l'économie mondiale semble une construction tout aussi instable que la relative paix sur le plan géopolitique. Si Donald Trump fait ce qu'il sait faire, c'est-à-dire n'importe quoi, c'est exactement le genre d'instabilité qui peut faire plonger l'économie bien plus bas que la crisounette de 2008. (Même The Economist, qui n'est pas vraiment suspect de critique systématique contre le capitalisme, avertit de ces risques. Certes, leur analyse diffère de la mienne, parce qu'ils craignent avant tout son hostilité contre le libre-échange, mais sur point central nous sommes d'accord : il peut faire n'importe quoi et il est totalement imprévisible.)

Ce ne sont que des exemples de ce pourquoi Trump me fait peur, et de nouveau, en ignorant totalement son racisme, sa misogynie et le reste de son programme répugnant qui peut faire tant de mal aux États-Unis, et en me concentrant simplement sur sa personnalité et ce qui peut faire du mal au monde entier. Même si je n'avais pas ces peurs précises en tête, le fait que quelqu'un d'instable reçoive des pouvoirs immenses est terrifiant. Quand je dis que Trump me fait peur, évidemment, c'est une forme d'imprécision : ce n'est pas Trump lui-même qui me fait peur, c'est la possibilité qu'il devienne président ; je n'ai pas peur non plus d'un enfant de cinq ans, mais si on me dit que cet enfant de cinq ans va recevoir le pouvoir d'envoyer des bombes atomiques n'importe où sur la planète quand il en a envie, alors là je pisse dans mon froc.

Le plus ironique, c'est que Trump lui-même n'a probablement pas envie de devenir président, ou en tout cas, il n'a probablement pas envie de gouverner. Ce qu'il voulait en se lançant dans la campagne, c'était attirer l'attention, être un gagnant et gratifier son ego, mais l'idée de gouverner le fait chier ; il semble qu'il ait proposé à John Kasich (un de ses rivaux malheureux lors de la primaire républicaine, le plus sensé d'entre eux d'ailleurs) d'être son vice-président et de s'occuper de tout à sa place (la phrase exacte était in charge of domestic and foreign policy, ce à quoi l'aide de Kasich a logiquement demandé ce qui restait et la campagne de Trump a répondu making America great again) : cette histoire est peut-être déformée mais elle colle prafaitement avec la manière dont on perçoit la personnalité du bonhomme. (Je vais aussi devoir de nouveau faire une référence à Last Week Tonight : voir ici pour son message à Trump [extrait de l'épisode 3:22 du 2016-08-21 ; il ne semble pas qu'il y ait de vidéo officielle de ce segment sur YouTube, ce qui est bien dommage].)

Un autre point ironique, c'est qu'un des arguments que Trump utilise pour essayer de se faire élire est la peur du terrorisme. Mais il faut être vraiment déconnecté de la réalité pour se sentir plus menacé par des terroristes qui font à tout casser quelques morts par an et par million d'habitant dans les pays occidentaux, probablement même moins que 1 par an et par million aux États-Unis, que par Donald Trump dont on pourrait s'estimer très réconforté si on avait la garantie que ses politiques ne causaient que quelques centaines de morts.

Toujours est-il qu'en ce moment, dès que je me lève, je regarde si Clinton a fait une gaffe (ou a eu une quinte de toux) qui pourrait lui coûter l'élection. (Trump, lui, ne peut pas faire de gaffe, bien sûr : tout ce qu'il dit est du niveau de ce qui serait considéré inadmissible pour n'importe quel autre candidat.) Le lendemain de chaque débat est un moment d'anxiété particulière (a-t-elle dit un mot de travers ? s'est-elle trouvée mal ? va-t-on tous mourir à cause de ça ?), et le jour de l'élection je suppose que je ne dormirai pas de la nuit.

(jeudi)

Le problème des gadgets électroniques qu'on peut bricker (briquer ? pétrifier ?)

Il faut d'abord que je commente le mot bricker dans le titre de cette entrée. C'est un anglicisme (l'anglais est to brick, c'est-à-dire que le nom commun brick a été sauvagement verbé), mais je ne crois pas qu'il existe de mot français : on peut écrire bricker en important le mot anglais, ou bien briquer en reproduisant la même construction qu'en anglais (ce verbe existe déjà en français avec un sens différent — frotter pour faire briller — mais je ne trouve pas que la confusion soit problématique, et à la limite ça peut marcher de façon humoristique). Quelqu'un m'a proposé pétrifier, ce qui est effectivement astucieux pour rendre le sens de ce dont je veux parler ici, et du coup je vais l'utiliser dans la suite.

De quoi s'agit-il ? Je définirais ce mot de la manière suivante : rentre, généralement par accident, un appareil électronique inutilisable (aussi utile qu'une brique, donc), en abîmant non pas le matériel lui-même, mais le logiciel qui sert à démarrer.

Expliquons un peu, pour ceux qui ont besoin de plus de précisions. De nos jours, énormément de gadgets électroniques (en gros, tout ce qui est plus complexe qu'une télécommande) sont, en fait, de petits ordinateurs dédiés, dits aussi « embarqué ». Autrefois, un téléviseur (par exemple), c'était de l'électronique spécialisée, maintenant c'est un ordinateur embarqué qui sait décoder la TNT et parle à l'écran LCD ; il en va de même, par exemple, des voitures (et d'ailleurs ça me fait très peur vu le niveau général catastrophique de la sécurité informatique et vu que les constructeurs n'auront aucune obligation à maintenir ad vitam æternam le logiciel). Énormément d'entre ces gadgets, soit dit en passant, tournent sous Linux (tous les téléphones ou tablettes Android, bien sûr, mais aussi les MachinBox qui servent de modem-routeur ADSL ou fibre, et je soupçonne, beaucoup de télévisions, de magnétoscopes, etc.), vu que Linux est très commode pour avoir rapidement un système standardisé sur un matériel à peu près quelconque. Je pense que Madame Michu serait très étonnée de savoir combien de systèmes Linux elle a chez elle.

Certains appareils (montres, frigos, fours, machines à laver) sont encore dans une phase où coexistent plusieurs versions sur le marché : purement électroniques, les véritables ordinateurs embarqués, et quelque chose d'intermédiaire comme un microcontrôleur. Mais avec l'Internet of Things (également appelé, la catastrophe de sécurité informatique qui va nous fondre dessus), les frigos, fours et machines à laver seront aussi de plus en plus souvent de véritables ordinateurs, capables de parler au réseau (et de se faire attaquer par lui). Ironiquement, maintenant, même les périphérique des ordinateurs sont souvent des ordinateurs eux-mêmes : les disques durs modernes, par exemple, ont un véritable ordinateur à l'intérieur (typiquement un processeur ARM), pour pouvoir mener toutes les choses complexes qu'un disque dur est censé faire (positionner les tête, contrôler les sommes de contrôle sur les données lues, analyser sa propre santé et la rapporter à l'ordinateur hôte, etc.).

L'avantage des ordinateurs par rapport à l'électronique pure (par électronique, je veux dire qu'il n'y a pas de puce généraliste, microprocesseur ou microcontrôleur, même si évidemment les frontières ne sont pas parfaitement bien définies), c'est qu'ils permettent de faire des choses beaucoup plus complexes de façon plus simple, et globalement ils sont plus flexibles. L'inconvénient, le pendant du généralisme, c'est qu'un microprocesseur seul ne sait rien faire : il lui faut un logiciel, un programme, également appelé du « code », pour faire quoi que ce soit, et notamment quoi que ce soit d'utile. Dans le cadre d'un ordinateur embarqué ou de périphériques d'un ordinateur, ce logiciel s'appelle souvent firmware (intermédiaire entre hardware, le matériel, et software, le logiciel sous-entendu de plus haut niveau).

On peut imaginer que ce firmware soit fixé une fois pour toutes : stocké en ROM (mémoire en lecture seule), gravé dans le marbre pour toute la vie de l'appareil. On se rapproche de l'électronique (une fois que l'électronique est câblée, plus moyen de changer). Mais cela signifie qu'en cas de problème, il sera impossible de corriger le bug ou le trou de sécurité. Du coup, ces appareils prévoient souvent un moyen de mettre à jour leur firmware : on utilise souvent le terme de flasher le firmware, parce qu'il est typiquement contenu dans une mémoire persistante appelée mémoire flash. Et c'est là que les ennuis commencent : parce que la mise à jour du firmware est à la fois une réponse à toutes sortes de problèmes (comme des trous de sécurité) et la cause de toutes sortes de problèmes (comme des trous de sécurité ! car si un attaquant modifie le firmware, il prend durablement contrôle de l'appareil, c'est plus grave que si le firmware n'était pas modifiable).

La modification du firmware est elle-même une opération qui nécessite l'éxcution de code, ce faisant partie du firmware, et c'est là qu'on comprend que les ennuis commencent vraiment. Parce que si l'opération échoue pour une raison ou une autre (bug, fausse manip', coupure de courant au mauvais moment) et qu'on se retrouve avec du firmware qui ne marche plus, on n'a plus de moyen de remettre en état le firmware : on se retrouve avec une brique : l'appareil ne marche plus, faute de firmware, et il n'y a pas de moyen, ou en tout cas pas de moyen simple, de remettre le firmware en état.

On peut bien sûr imaginer toutes sortes de façons de régler quand même le problème, et de rendre une machine impossible à pétrifier. Discutons un peu ces différentes approches.

La façon la plus évidente, comme je l'ai dit, c'est que le firmware ne soit pas du tout modifiable. Sur certains appareils (mais ce n'est pas courant), il faut actionner un interrupteur mécanique, ou décaler un jumper, ou quelque chose comme ça, avant de pouvoir flasher le firmware (si on ne le fait pas, la mémoire n'est pas modifiable) : ceci évite au moins les modifications malencontreuses dues à un bug ou une attaque, mais ça n'empêche pas qu'on puisse pétrifier la machine en cas de problème lors d'une mise à jour légitime (l'interrupteur étant donc actionné). Une autre solution consiste à avoir deux versions du firmware sur l'appareil, l'une dans une mémoire flash qu'on peut mettre à jour, l'autre dans une ROM inaltérable (en fait, probablement, une mémoire flash dont les pattes servant à réécrire le contenu n'ont pas été câblées) : un petit interrupteur permet de choisir — au niveau purement électronique — la version utilisée, on choisira normalement la première, mais en cas de problème on pourra démarrer sur la seconde, qui est capable de reflasher la première. Ceci permet bien d'avoir un appareil « impétrifiable » dont le firmware peut cependant être mis à jour. Astucieux. Je crois que ma carte mère a quelque chose du genre (un firmware/BIOS alternatif, non modifiable, du moins j'espère, accessible en appuyant sur un bouton, et qui est simplement capable d'aller lire un fichier sur une clé USB qui doit être branchée sur un port précis, et de reflasher le firmware/BIOS principal avec son contenu), mais les explications du manuel ne sont pas un modèle de clarté donc je ne suis pas sûr.

On peut imaginer d'autres moyens de rendre un appareil impétrifiable. Par exemple, si le firmware est flashable depuis un autre ordinateur, on pourra ranimer la brique tant qu'on dispose d'un ordinateur fonctionnel. Une idée serait d'avoir un firmware contenu dans une simple clé USB : pour le flasher, il suffirait de mettre un fichier différent sur cette clé USB. Malheureusement, la simple opération de lire une clé USB nécessite elle-même du code, donc un firmware, et on a un problème de bootstrap si on veut mettre le firmware sur clé USB (bootstrap fait référence à un épisode où le baron de Münchhausen se sort de l'eau en tirant sur les languettes de ses bottes). Mais on peut contourner ce problème de différentes façons. Par exemple, avoir un firmware zéro qui sait simplement lire un firmware sur clé USB, puis l'exécuter et décider que ce firmware zéro sera gravé en ROM donc impossible à modifier (c'est une solution raisonnable, et elle se rapproche de ce que je raconte ci-dessus à propos de ma carte mère). À défaut de clé USB, le firmware peut être contenu dans une puce détachable et on peut vendre un gadget (USB par exemple) permettant d'en modifier le contenu depuis un autre ordinateur. Ou encore, il peut y avoir un tel gadget intégré dans l'appareil lui-même : si on branche une connexion USB et qu'on allume l'appareil d'une certaine manière (peut-être en appuyant sur un bouton), on pourra flasher le firmware depuis un autre ordinateur, par pure électronique.

Les petits systèmes embarqués que j'utilise comme routeurs chez moi et chez mes parents, des DreamPlugs (ce sont des ordinateurs ARM), ont une petite mémoire flash (NOR) de 2Mo qui suffit à stocker un code de démarrage (bootloader, en l'occurrence U-Boot) capable de charger autre chose par Ethernet, USB ou eSATA, en ce qui me concerne un noyau Linux. On peut reflasher la mémoire NOR en passant par Linux ou depuis le bootloader U-Boot lui-même ; mais si l'opération échoue pour une raison ou une autre et que le DreamPlug est pétrifié ? Alors il faut utiliser une autre approche, qui consiste à prendre le contrôle du processeur et de la mémoire du DreamPlug depuis un autre ordinateur, en passant par une interface JTAG côté DreamPlug (et reliée de l'autre côté à un petit boîtier lui-même relié par USB à l'ordinateur qui contrôle) : de cette manière, on peut utiliser le programme OpenOCD pour mettre un U-Boot frais quelque part dans la mémoire du DreamPlug, démarrer dessus, et s'en servir pour reflasher la mémoire NOR. En théorie, c'est très bien. En pratique, il y a quantité de problèmes : la connexion JTAG n'est pas très stable, parfois elle ne marche pas du tout, parfois il faut réessayer plusieurs fois avant qu'elle marche ; en plus, OpenOCD version ≥0.8.0 ne fonctionne plus avec mon boîtier de contrôle JTAG, bref, ce n'est pas la joie. Mais au moins sur le principe, mes DreamPlugs sont « impétrifiables ». On ne peut pas en dire autant de la plupart des téléphones mobiles.

Beaucoup de fabricants de gadgets électroniques ont essayé l'approche suivante, qui ne sert pas seulement à éviter que le gadget soit pétrifié, mais aussi à ce que le le fabricant garde un contrôle sur le code qui tourne dessus : avant que le firmware accepte de flasher un nouveau firmware, il vérifie que celui-ci est acceptable, généralement au sens où il a été signé (par une signature électronique) par le fabricant. Malheureusement, cette approche est condamnée à l'échec pour toutes sortes de raisons, elle n'empêche pas la pétrification et elle pose toutes sortes de problèmes, ce qui n'empêche pas les fabricants de l'aimer. Une raison pour laquelle cette approche n'empêche pas la pétrification, c'est qu'il n'y a rien de magique dans le firmware de démarrage : s'il est capable de flasher la mémoire persistante, un autre bout de code en est aussi capable, donc dès que l'appareil présente un trou de sécurité quelque part (i.e., toujours), l'attaquant risque de pouvoir s'en servir pour reflasher le firmware, et l'approche choisie rend alors quasiment impossible de remettre les choses en état. (The major difference between a thing that might go wrong and a thing that cannot possibly go wrong is that when a thing that cannot possibly go wrong goes wrong it usually turns out to be impossible to get at or repair. — Douglas Adams, Mostly Harmless) Une autre raison qui fait que l'approche ne marche pas, c'est que la crypto est souvent mauvaise, par exemple au lieu d'utiliser une signature à clé publique, ce qui est possiblement lourd sur un appareil embarqué, on va parfois utiliser un MAC, dont la clé (symétrique) est alors forcément contenue dans le firmware, et qui va donc forcément fuiter. Encore une autre raison est qu'il y a un intervalle de temps entre le moment où le firmware vérifie la signature et le moment où il se reflashe, et il est parfois possible d'exploiter astucieusement cet intervalle pour changer le contenu sous ses pieds (on lui fait croire que la signature est bonne en vérifiant un « bon » nouveau firmware, mais au moment où il flashe la mémoire, c'est autre chose qui se présente). Toutes ces attaques sont menées soit par des attaquants malicieux qui veulent prendre le contrôle de l'appareil à l'insu de son propriétaire, soit par les propriétaires eux-mêmes qui veulent prendre le contrôle de leur propre gadget dont le fabricant essaie de limiter l'usage. Dans les deux cas, la pétrification est un résultat accidentel, mais qui se produit néanmoins dans une certaine proportion des cas.

Pourquoi les fabricants ont-ils si souvent recours à la méthode « vérification du firmware avant de le flasher » (dont je viens de parler) si elle ne marche pas vraiment ? Parce que cette méthode leur garantit — dans la mesure où elle marche, tant qu'elle marche — un certain contrôle sur l'appareil, à l'encontre de son propriétaire/utilisateur. On pourra l'empêcher d'utiliser cet appareil pour autre chose que ce pour quoi il a été prévu, et ce peut être le départ d'une chaîne de sécurité qui interdit certaines choses à l'utilisateur (qui, même s'il est censé être propriétaire de l'appareil, ne l'est alors jamais vraiment), par exemple de copier certaines données dans un sens ou dans l'autre. A contrario, certains des dispositifs qui empêchent la pétrification empêchent le fabricant de se réserver ce contrôle sur l'appareil.

Toujours est-il qu'il existe bien des moyens pour rendre un appareil impétrifiable. Je trouve que cela devrait être une obligation du fabricant de s'assurer qu'un de ces moyens existe (par exemple : si l'appareil est pétrifié, le fabricant aurait l'obligation légale de le rembourser au prix du neuf — une telle mesure augmenterait énormément la motivation à mettre en place des moyens pour éviter cet écueil). Un autre problème est qu'il n'est pas toujours évident de savoir ce qu'il en est, avant d'acheter l'appareil, ou même une fois qu'on l'a. Est-ce que mon téléphone Nexus 5 est pétrifiable, par exemple ? Je ne sais pas vraiment, je pense que oui, mais je n'ai pas franchement envie d'essayer pour vérifier ma sécurité de ce point de vue-là.

Je raconte tout ça parce que j'ai récemment mis à jour le noyau sur mes routeurs DreamPlugs (j'étais coincé depuis une éternité sur la branche 3.2.x du noyau Linux, avec toute une série de patchs, et pour la quitter j'ai dû mettre à jour U-Boot pour pouvoir passer au noyau un device tree, et avant de faire tout ça j'ai dû réapprendre la manière de réparer les choses en cas de pétrification accidentelle — dont je ne pouvais pas négliger les risques, même si au final tout s'est bien passé ; ceux qui veulent en savoir plus peuvent consulter cette page, récemment mise à jour, où je raconte les détails). J'envisage d'acheter d'autres gadgets pour remplacer ces DreamPlugs, par exemple ce truc-là, et une des choses que je cherche systématiquement à savoir c'est qu'elle garantie d'impétrificabilité(?) j'aurai (sur le produit précis que je viens de mentionner, il semble que ce soit bon, mais c'est rarement parfaitement clair).

(lundi)

Un mot pour dire du bien de la multiprise EnerGenie EG-PMS2

Comme je consacre l'essentiel de mes entrées de blog parlant de matériel informatique à dire à quel point tout est mal fait et pourri et impossible à trouver et cher et nul, bref, à me plaindre, je vais raconter pour une fois que je suis content.

Comme je l'ai raconté récemment, j'ai un problème avec le watchdog matériel de ma nouvelle carte mère (ou plutôt avec le BIOS), le composant qui est censé redémarrer l'ordinateur automatiquement en cas de plantage : le support technique d'Asus est prévenu, on verra s'il en ressort quelque chose, mais en attendant, ou à défaut, histoire de pouvoir redémarrer l'ordinateur à distance en cas de besoin, j'ai acheté une multiprise commandable par USB, la EnerGenie EG-PMS2. J'avais entendu dire qu'elle était utilisable sous Linux, et je peux confirmer que c'est le cas, et le programme qui le fait (sispmctl) est plutôt commode. Je n'ai pas encore mis la multiprise en place (dans la position où elle servira), mais je peux confirmer qu'elle fonctionne.

C'est une multiprise à 6 prises (numérotées de 0 à 5), protégée contre les surtensions (ce qui n'est pas plus mal), et donc quatre des six prises (les 1 à 4) sont programmables, et peuvent être allumées ou éteintes par la connexion USB. (Il y a aussi un bouton mécanique qui permet de tout couper, et une fois que tout est coupé, de tout réinitialiser sur la position marche.) L'allumage ou l'extinction des prises semble fonctionner par un relai électromécanique — enfin, je n'y connais rien, mais il y a un « clic » audible quand une prise passe de l'état allumé à l'état éteint ou vice versa.

Ce qui est particulièrement agréable, c'est que la multiprise a un petit programmateur : on peut lui envoyer des commandes comme éteindre la prise 3 dans 1 minute, et la rallumer 2 minutes après (sispmctl -A 3 --Aafter 1 --Ado off --Aafter 2 --Ado on ; la granularité, au moins au niveau du programme sispmctl, semble être la minute). Une fois que le programmateur a reçu les commandes, celles-ci ne nécessitent ensuite plus d'intervention de l'ordinateur contrôleur, ni que la connexion USB subsiste.

Ajout : Si on a un ordinateur non-Intel (par exemple mes DreamPlugs ARM), il faudra prendre garde au fait que la version de sispmctl packagée par Debian comporte un bug causant un comportement bizarre (au moins dans l'affichage de la date, peut-être plus) sur à peu près toute architecture non-Intel. Voir ce bug-report où je fournis un patch.

Du coup, même sans l'aide d'un autre ordinateur, cette multiprise peut servir de watchdog primitif : il suffit qu'un programme s'exécute toutes les minutes et envoie à la prise les commandes annuler toutes les commandes précédentes, et, dans cinq minutes, éteindre la prise numéro tant, puis la rallumer une minute après : tant que l'ordinateur ne plante pas, la commande sera sans cesse annulée et reportée d'une minute, mais s'il plante, la commande s'exécutera cinq minutes plus tard, et éteindra l'ordinateur pour une minute. (Les cinq minutes de délai servent à ce que, si l'ordinateur redémarre inopinément, indépendamment de l'action de la prise, il ait le temps de redémarrer complètement et de relancer le programme qui annulera la commande d'extinction. Ce n'est pas parfait, mais c'est raisonnable.) Ceci fournit donc bien la fonctionnalité d'un watchdog, et fonctionnera sur essentiellement n'importe quel ordinateur (sans batterie autonome, bien sûr : sur un portable, ça ne marchera pas, mais bon, un watchdog est rarement utile sur un portable). Je ne sais pas si je procéderai de la sorte, mais c'est agréable, au moins, de savoir que c'est possible.

Plus généralement, je suis sûr que ce genre de gadget peut trouver une grande utilité en domotique, donc je pense que ça peut intéresser des gens.

La prise existe aussi en version Ethernet : le protocole a l'air assez simple, ça a l'avantage de permettre de contrôler la prise depuis plusieurs ordinateurs plutôt qu'un seul, mais je n'aime pas trop l'idée qu'il y ait un serveur HTTP dans ma multiprise (j'aurais préféré une interface à bien plus bas niveau, où on doit envoyer un paquet à une certaine adresse MAC, sans empiler IP, TCP et HTTP dessus). Enfin, il y a une version wifi, mais là je trouve que ça devient vraiment n'importe quoi.

(lundi)

À la recherche d'une trackball à molette avec fil

J'aime bien avoir à disposition de ma main droite, quand j'utilise mon ordinateur, à la fois une souris et une trackball. (S'il y a des gens qui ignorent ce que c'est, une trackball est une souris en quelque sorte inversée : on tourne avec les doigts une grosse boule pour déplacer le curseur.) C'est que ma dextérité n'est pas tout à fait la même avec les deux, et je les utilise alternativement, selon mes besoins. (Les deux commandent le même curseur sur l'écran : il est aussi possible de configurer X11 pour afficher deux curseurs différents, mais je trouve ça plus confusant qu'autre chose.) Le principal avantage de la trackball, c'est qu'une fois posée quelque part, elle ne bouge pas, et la mémoire gestuelle arrive beaucoup mieux à la retrouver qu'une souris qui, par définition, change tout le temps d'endroit.

Malheureusement, ma trackball vient de casser. Ou plutôt, la molette de défilement qui était dessus vient de cesser de fonctionner, mais du coup je me retrouvais sans arrêt à essayer de défiler avec la trackball, à me rendre compte que ça ne marche pas, et à passer à la souris, ce qui est encore pire que de ne pas avoir de trackball du tout.

Du coup, je voudrais la remplacer. Mais ce n'est pas si facile. Idéalement, j'aimerais exactement le même produit : c'était une Logitech Trackman Wheel Optical (couleur silver, mais ça je n'y tiens pas des masses). Ce produit n'est plus vendu par Logitech (j'ai déjà dû râler plusieurs fois contre les produits qui cessent d'être disponibles et dont on ne sait jamais pourquoi ni s'ils reviendront un jour). On le trouve certes sur Amazon.fr, mais au prix totalement délirant de 530€ (ou 120€ pour un exemplaire d'occasion), ce qui est quand même hallucinant — et le signe que Logitech devrait peut-être reconsidérer sa décision de ne plus le produire.

À défaut, qu'est-ce que je peux acheter ? Logitech a un produit appelé TrackMan Marble, mais il a l'air de ne pas avoir de molette, et l'utilité de remplacer une trackball dont la molette est cassée par une trackball qui n'a pas de molette est un peu incertain. (Ceci dit, elle a un certain nombre de boutons, et je peux évidemment configurer deux des boutons latéraux pour faire un défilement ; mais je ne sais pas si c'est une bonne idée.) Sinon, il y a la Wireless Trackball M570 dont le design est quasi identique à ma trackball qui s'est cassée, mais elle souffre d'un énorme défaut : elle est sans fil.

Je n'ai jamais compris la manie de la technologie sans fil. Avoir un clavier ou une souris sans fil, ça veut dire qu'il doit avoir ses propres batteries, qu'il va falloir changer régulièrement, et ça veut dire aussi qu'on va avoir des problèmes de connexion initiale (convaincre le truc sans fil de commencer à parler à son récepteur), de perte de connexion, d'interférences (si plusieurs personnes utilisent le même modèle dans la même pièce) ; et évidemment, si on est modérément parano, on se dit que ça signifie aussi que tous les voisins savent exactement[#] ce qu'on fait avec le clavier ou la souris (franchement, taper un mot de passe, ou cliquer sur un code secret, avec un périphérique sans fil, c'est très con), ou, pire, peuvent en prendre contrôle à volonté. À la limite, une souris sans fil, je conçois un peu l'intérêt, vu qu'une souris ça bouge beaucoup. Un clavier, en faisant un effort, j'imagine aussi (on peut le mettre sur les genoux, c'est peut-être pratique). Mais une trackball ??? Tout l'intérêt de la trackball, c'est de la garder au même endroit !

[#] (Ajout) Bien sûr, il est possible que les choses soient bien faites et qu'il y ait de la crypto correcte. En l'occurrence, le mieux serait que chaque couple clavier-ou-souris + dongle récepteur vienne avec une clé symétrique — par exemple AES — préinstallée et impossible à changer, et qu'ils communiquent avec cette clé. Ceci impliquerait aussi, du coup, que si le dongle casse, il n'y a plus qu'à jeter l'autre partie puisque rien ne pourrait communiquer avec. Mais connaissant la tendance impressionnante de l'industrie à mal faire sa crypto, je crains le pire. Le document qu'on trouve ici ne dit rien de clair, et ne suggère rien de bon (manifestement, la clé commune n'est pas préenregistrée dans les deux moitiés ; dans le meilleur des cas, on peut espérer qu'elle soit négociée par Diffie-Hellman, ce qui ne présenterait « que » un risque d'attaque man-in-the-middle lors de l'association : mais je soupçonne que la vérité est encore plus pourrie que ça, et que l'association est passivement espionnable). De toute façon, le fait que Logitech ne documente pas clairement son protocole oblige, selon les standards en vigueur en cryptographie, à considérer qu'il est troué.

Bon, alors rien ne m'oblige à rester chez Logitech. J'aime bien le design de leurs produits, mais je n'y suis pas sentimentalement attaché. Mais en cherchant chez d'autres fabricants, je ne trouve pas vraiment mieux. Keningston fait plusieurs trackballs, dont certaines avec fil, mais soit elles n'ont pas de molette, soit elles remplacent la molette par une « roulette » de défilement, en couronne autour de la trackball, et cette idée me laisse assez perplexe. En plus de ça, j'ai besoin d'une trackball trois boutons (ou à molette cliquable), vu que j'utilise énormément le bouton du milieu pour le copier-coller. Le plus proche de ce que je veux semble être la Kensington Expert Mouse Optical, qui a strictement plus que de boutons et qui a une roulette de défilemnt, mais la disposition des boutons me semble malheureuse (il n'y a pas de bouton « du milieu »), il doit être difficile de défiler sans cliquer par accident, et le prix est quand même élevé.

Finalement, je vais peut-être prendre ce produit par Sanwa (expédié depuis le Japon !), même si ça a l'air d'être de la camelote : le problème, là, est que je n'ai pas de certitude que la molette soit cliquable (pour pouvoir servir de bouton du milieu).

Je raconte tout ça un peu parce que dès que je parle de problèmes informatiques j'ai droit à un florilège de commentaires me racontant que c'est parce que je m'y prends mal (je devrais ne pas utiliser Linux, je devrais commander un ordinateur pré-assemblé, je devrais ceci, je devrais cela), j'ai déjà expliqué le problème avec ce genre de choses. Du coup, je me demande un peu ce qu'on va me dire cette fois-ci : quelqu'un va-t-il dénicher une trackball filaire avec molette et trois boutons (ou deux boutons + molette clickable), ou bien va-t-on m'expliquer que j'ai tort de vouloir quelque chose comme ça ?

(samedi)

Comment perdre beaucoup de temps à monter un ordinateur

Une tragédie en cinq actes (qui respecte l'unité de lieu — l'appartement de Ruxor et du pousinet — et d'action — beaucoup d'énervement —, mais certainement pas de temps) :

Acte I. Présentation du nouvel ordinateur

(Scène 1.) Lundi 29 août, j'ai reçu les trois quarts des pièces de mon nouvel ordinateur (la carte mère, la mémoire, et l'alimentation).

(Scène 2.) Mardi 30, j'ai reçu le quatrième quart (le processeur). J'ai ressorti de ma cave un ordinateur qui y traînait, pour en récupérer le boîtier, et j'ai commencé à monter le tout. Mais les difficultés qu'on rencontre ne sont pas toujours celles qu'on croit : j'ai perdu beaucoup de temps, par exemple, parce que je n'avais que six des neuf vis (je ne sais pas comment appeler ça au juste : ce sont des choses qui sont une vis d'un côté et un écrou — enfin trou à vis — de l'autre) qui servent à relier la carte mère à la plaque arrière du boîtier, et il me fallait donc trouver une solution. Finalement, mon poussinet m'a trouvé les trois vis manquantes.

(Scène 3.) Ensuite, j'ai dû comprendre pourquoi la machine ne bootait pas : elle émettait une série de bips (et montrait un code sur son petit panneau lumineux interne) signifiant qu'elle ne trouvait pas de carte graphique. De fait, je n'avais pas mis de carte graphique, mais je pensais que cette carte mère avait un chipset graphique basique[#] intégré puisqu'elle avait des sorties VGA, DVI et HDMI : la vérité est simplement que cette carte mère est prévue pour accepter les processeurs ayant un coprocesseur graphique intégré (ce qui n'est pas le cas du Xeon E3-1230v5 que j'ai acheté). (Scène 4.) Ce malentendu dissipé (ce qui m'a pris un certain temps, quand même), la machine démarre correctement sur une Ubuntu live.

[#] Ce qui ferait sens pour une carte mère destinée à un serveur (lequel a rarement besoin de quelque chose de très performant en la matière, et un chipset graphique intégré sur la carte mère conviendra donc).

Acte II. De petites complications apparaissent

Mon projet était le suivant : monter une configuration minimale, dans le boîtier que j'ai sorti de ma cave, avec ma nouvelle carte mère (plus processeur et mémoire), et un disque dur de récupération, le temps de vérifier que tout fonctionne, et de préparer une configuration de noyau Linux qui marche bien sur ce matériel, et seulement ensuite déplacer les disques (que je garde) vers ce boîtier. Mon poussinet me dit que mon idée était idiote, que j'aurais dû monter directement la nouvelle carte mère dans le boîtier que j'utilisais déjà (et qui contenait les disques, donc), et régler les problèmes au fur et à mesure qu'ils apparaissaient. Mais je savais que ça pouvait être long, et je préférais ne pas me passer d'ordinateur pendant ce temps.

Bref, mardi 30 au soir, j'avais cette configuration minimale qui marchait : comme expliqué à l'acte I, j'avais dû y mettre une carte graphique elle aussi de récupération. Pour afficher la sortie sur ma télé (faute d'autre écran d'ordinateur qui marche), j'avais aussi dû acheter un adaptateur DVIHDMI. (Scène 1.) Seulement, mercredi 31, je me suis rendu compte que le ventilateur de cette carte graphique de récupération ne tournait pas, et qu'elle surchauffait : j'ai dû acheter une carte graphique premier prix (30€ environ). Heureusement, ce n'est pas encore complètement impossible d'acheter du matériel informatique à Paris, mais j'ai quand même perdu un peu de temps avec ça (et mon adpatateur DVIHDMI ne me servait finalement à rien, vu que la carte graphique en question a une sortie HDMI contrairement à celle qui traînait dans ma cave).

(Scènes 2 et 3.) Jeudi 1er septembre et samedi 3 (vendredi, j'avais vraiment autre chose à faire), je me suis occupé de préparer mes disques durs à pouvoir démarrer en mode UEFI (parce que la nouvelle carte mère n'a pas de BIOS traditionnel) ; ceci implique de changer le type de table des partitions (vers GPT). J'ai surtout passé mon temps à comprendre ce que tout ceci signifie, et à mettre au point un plan[#2] pour avoir un système qui peut démarrer, indifféremment, sur n'importe quel disque, que ce soit en mode BIOS traditionnel ou en mode UEFI.

Mais là aussi, les difficultés ne sont pas toujours celles qu'on prévoit : j'ai passé un temps fou à comprendre, par exemple, pourquoi la Ubuntu live, que j'utilisais sur mon (ancien) ordinateur pour faire les manipulations, ne voyait[#3] pas mon disque externe (non concerné par les manipulations, mais sur lequel j'avais stocké des données destinées à les aider).

(Scène 4.) En parallèle de tout ça, je peaufine une configuration de noyau Linux prête à tourner proprement sur la nouvelle machine (et qui continue aussi à tourner sur l'ancienne).

[#2] Pour ceux qui veulent plus de détails : j'ai à la fois un Grub dans le MBR et une partition de type 21686148-6449-6e6f-744e-656564454649 (qui sert à démarrer en mode traditionnel), et un autre dans une partition EFI que j'ai créée après être passage en GPT. Une difficulté était que j'utilisais un vieux Grub, qui ne comprend pas les partitions GPT, donc j'ai dû changer sa version en même temps (et comprendre comment le nouveau fonctionne). Par ailleurs, il est heureux que j'aie l'habitude de laisser plein de place inoccupé entre mes partitions, et au début et à la fin du disque, parce que la création de la table des partitions GPT, et aussi de la partition spéciale pour Grub, ont utilisé une partie de cet espace. J'ai donc évité d'avoir à faire des déplacements sur quelques téra-octets de donnés.

[#3] La solution consistait à ajouter modprobe.blacklist=pata_marvell ahci.marvell_enable=1 dans la ligne de commande du noyau Linux, le genre de choses qui font que les non-linuxiens se moquent des linuxiens et de leurs incantations arcanes. J'avais dû trouver ça autrefois quand j'avais commencé à faire fonctionner cette carte mère, mais j'avais complètement oublié depuis, et la réponse était cachée dans la configuration de mon noyau. Non franchement, je me demande pourquoi le module ahci a une option marvell_enable dont le défaut est à 0 : il faut lui dire explicitement de faire fonctionner ce chipset particulier, c'est un peu absurde (il est vrai que ce chipset a cette bizarrerie qu'il peut gérer soit un port SATA soit un port PATA, mais pas les deux à la fois, donc si on active le SATA, ça désactive le PATA et vice versa ; dans mon cas, cependant, le port PATA n'existe même pas, tout ceci est un reliquat d'une époque un peu ancienne).

Acte III. Le coup de tonnerre

(Scène 1.) Nous arrivons donc le dimanche 4 : je vérifie que tout est prêt au niveau logiciel (je supprime, par exemple, dans la configuration du routeur tout ce qui fixe l'adresse MAC de mon PC) ; je vais profiter d'une absence du poussinet (donc d'une possibilité d'étaler mon matériel informatique dans tout le salon) pour déplacer les disques durs.

(Scène 2.) Je sors les disques de l'ancienne machine. L'opération est un peu longue et compliquée (environ une heure), parce qu'il y en a quatre, et surtout parce qu'il y en a un qui est dans un berceau (pour le mettre sur un emplacement 5″¼ et ainsi gagner de l'espace), et pour le faire sortir du boîtier sans taper dans quelque chose, il faut démonter les barrettes de RAM, déconnecter l'alimentation, et jouer à chercher le chemin qui passe sans taper dans quelque chose d'important.

(Scène 3.) Je refais l'opération à l'envers pour monter les disques dans le nouveau boîtier. De nouveau environ une heure passe.

(Scène 4.) Enfin, tout est prêt. J'appuie sur le bouton d'alimentation.

Rien ne se passe.

Je me dis que j'ai dû défaire les connexions entre le bouton et la carte mère en montant les disques. Je vérifie. Pas d'amélioration. Bon, la carte mère a un bouton d'alimentation directement sur la carte (c'est une excellent idée, soit dit en passant, et je félicite Asus de l'avoir eue). J'appuie dessus. Pas mieux.

(Scène 5.) Je commence à paniquer.

C'est peut-être l'alimentation qui est morte : après tout, il ne se passe rien, pas un ventilo qui tourne, même pas celui de l'alim elle-même. (Il y a des LEDs sur la carte mère qui s'allument quand on branche l'alim, mais rien ne change quand on appuie sur le bouton d'alimentation.) Je vérifie avec l'ancienne carte mère et l'ancienne alim : la nouvelle alim parvient à démarrer l'ancienne carte mère, mais l'ancienne alim ne parvient pas non plus à démarrer la nouvelle carte mère. C'est donc bien la carte mère qui est morte.

La carte mère que j'ai reçu il y a moins d'une semaine est donc morte !

(Scène 6.) Dépité, je mets l'ancienne carte mère dans le boîtier où j'ai transféré les disques. Heureusement, elle n'a pas été abîmée par toutes ces opérations. Il n'y a que la pile CMOS qui est morte, rien de grave. (Bilan de la journée : j'ai simplement déplacé tout le contenu de mon ordinateur d'un boîtier à un autre, pour rien.)

Entracte

Qu'est-ce qui a bien pu se passer pour que cette carte mère meure ? Je n'en sais rien. Je sais à ce stade que c'est forcément la carte mère (si c'était le processeur, les ventilateurs au moins démarreraient ; si c'était la mémoire, il y aurait une série de bips ; pour que rien ne se passe, c'est forcément la carte mère qui est morte — peut-être un condensateur défectueux ou abîmé).

Une possibilité : cette carte mère était défectueuse, elle n'aura tenu que deux ou trois allumages (après tout, je ne l'ai que très peu allumée et éteinte, un défaut peut ne pas se manifester tout de suite). Une autre : je l'ai cassée sans m'en rendre compte en montant les disques. Ça pourrait venir d'un choc électrostatique ou d'un choc mécanique. Mais je ne me suis aperçu de rien, mes observations attentives ne m'ont pas permis de trouver le moindre composant d'apparence suspecte, et un choc électrostatique aurait eu plus de chances d'endommager la mémoire (or je sais qu'elle ne l'a pas été).

Acte IV. Vers un dénouement ?

(Scène 1.) Je commande une nouvelle nouvelle carte mère, identique, et je prépare le retour de celle qui est cassée (vus les délais, il semble que les conditions d'Amazon me permettent d'obtenir un remboursement, et je n'ai certainement pas envie d'attendre un retour). Cette fois avec livraison express.

(Scène 2.) Nous sommes maintenant mercredi 7 septembre. Je reçois la (nouvelle nouvelle) carte mère. Je déplace le processeur dessus. Doute : que faut-il faire pour la pâte thermique ? Pour l'installation initiale, le radiateur fourni par Intel venait avec de la pâte thermique préappliquée. Forcément, cette pâte thermique a été chauffée et s'est dispersée. Quand je retire le radiateur pour déplacer le processeur, avant de le remettre en place, est-ce que je dois réappliquer de la pâte thermique ? réétaler celle qui est déjà là ? J'ai choisi d'en rajouter un petit peu, et j'ai passé un temps fou à essayer de faire un niveau bien plat et mince, mais je crois que j'ai quand même un moins bon contact thermique maintenant que lors de la première installation.

(Scène 3.) Je sors l'ancienne carte mère du boîtier, je mets la nouvelle (nouvelle) à la place. Moralité : mon poussinet avait sans doute raison, c'est plus facile et moins risqué de changer une carte mère que de changer quatre disques.

(Scène 4.) Mercredi soir, l'ordinateur démarre correctement sur une Ubuntu live (comme à la fin de l'acte I, quoi…), mais toujours pas sur mes anciens disques, malgré le noyau spécialement prévu pour. Ou plus exactement, elle démarre, mais je n'ai ni clavier, ni souris, ni réseau. J'ai fini par comprendre qu'il fallait charger le module xhci-pci (ceci expliquait que l'USB ne fonctionnait pas), et que j'avais branché le câble Ethernet dans la mauvaise prise réseau. Rien de compliqué à résoudre, mais trouver le problème exact n'a pas été facile (quand on a un ordinateur qui démarre sans périphérique d'entrée et qu'on ne peut débugguer qu'en modifiant les scripts de démarrage, ça prend forcément un certain temps).

(Scène 5.) Enfin, tout semble marcher. La fin de l'histoire ?

Roulement de tambour…

Acte V. Happy end ou pas ?

(Scène 1.) Mon nouvel ordinateur marche, au moins dans les grandes lignes. (Et avoir 32Go de mémoire au lieu de 8Go rend certaines choses beaucoup plus confortables, c'est incontestable.)

Il est maintenant temps de vérifier un peu plus dans les détails, et notamment les choses pour lesquelles j'ai tenu à acheter une carte mère de serveur.

(Scène 2.) La mémoire ECC semble fonctionner. (Elle fonctionne, bien sûr, mais la question est de savoir si elle fonctionne bien en tant que mémoire ECC.) Évidemment, c'est difficile à tester, parce que les erreurs mémoires sont quand même très (très) rares. Je devrais peut-être monter une attaque rowhammer pour tester. Mais au moins, j'ai un utilitaire Linux (edac-util, couplé au module ie31200-edac) qui prétend lire le nombre d'erreurs par barrette, et qui me signale 0 erreurs sur chaque barrette : j'imagine (j'espère) que si la mémoire n'était pas ECC, il renverrait une erreur. Mais j'avoue que j'aimerais voir dans les réglages du BIOS une indication quelconque du fait que la mémoire est en mode ECC, ce qu'il n'y a pas (ou alors, je ne l'ai pas trouvée).

(Scène 3.) Je crois que je suis censé avoir sur cette carte mère une technologie Intel qui, selon la phase de la Lune et l'humeur d'Intel, s'appelle Active Management Technology (AMT) ou Management Engine (ME), ou encore vPro. (En gros, il y a un second processeur sur la carte mère, qui écoute sur le réseau, et sait répondre à des commantes du genre, allumer ou éteindre la machine, la redémarrer, simuler un clavier et un écran par réseau, et quelques choses de ce genre.)

Cette technologie est certainement un trou de sécurité monstrueux, et un cauchemar pour les paranoïaques (genre, il est certain que grâce à elle, la NSA a un back door complet vers ma machine), mais elle présente aussi des fonctions qui pourraient m'intéresser, notamment le fait de redémarrer à distance. Mais je n'ai absolument rien compris à la façon de m'en servir. On doit sans doute pouvoir l'activer depuis le BIOS, mais je n'ai rien trouvé de la sorte. Linux détecte bien un truc (il crée un device /dev/mei quand on charge le module mei-me, et il a l'air de détecter plein de choses), mais je n'ai rien compris à la manière de m'en servir. Il y a du vieux code fourni avec le noyau, qui ne marche pas (il me renvoie ENOTTY, en fait parce qu'il essaie de passer des commandes avec un UUID qui n'est pas bon). Il y a plein de doc chez Intel, mais elles se contredisent, datent de plein d'époques différentes, et finalement je n'y comprends rien.

Je me demande si je ne suis pas censé payer à Intel une licence pour avoir le droit d'administrer ma machine, ce qui est quand même un peu fort de café. Mais bon, je n'ai rien compris. En tout cas, pas compris comment faire quoi que ce soit d'utile de cette technologie (ni même comment l'activer, ou au contraire comment être sûr qu'elle est désactivée).

(Scène 4.) Je veux vérifier que mon watchdog matériel marche bien (je répète, pour ceux qui n'ont pas suivi, que le watchdog est un composant matériel qui sert à redémarrer la machine automatiquement en cas de plantage : une fois qu'on l'a activé, il doit recevoir un signal à intervalles réguliers, faute de quoi il provoque un reset). Cette scène se déroule elle-même en plusieurs saynettes.

(Scène 4a.) D'abord, j'ai eu peur, parce que Linux ne semblait pas le détecter du tout (le chargement du module iTCO-wdt n'avait aucun effet). J'ai fouillé dans les docs d'Intel, j'ai eu la confirmation que ce watchdog devait bien être présent dans le chipset C236 que j'ai. Je me suis dit que peut-être le noyau ne connaissait pas cette variante et qu'il fallait ajouter un identifiant PCI ou quelque chose de ce genre. Après des heures passées à éplucher des sources illisibles, j'ai fini par avoir une illumination : il faut charger le module i2c-smbus (en plus de i2c-i801), parce que le watchdog est sur un bus dit SMBus, une variante de I²C (je ne comprends pas du tout pourquoi il est nécessaire de savoir ça, alors que ces bus sont essentiellement des détails matériels, en quoi le logiciel arrive à les « voir », mais bon, c'est un fait). Avec ça, le watchdog est détecté.

(Scène 4b.) Maintenant que mon watchdog matériel est reconnu par Linux, je m'apprête à tester qu'il fonctionne bien. J'active le watchdog et je cesse de lui parler, au bout de quelques minutes le système doit redémarrer.

Mais il ne redémarre pas : il plante complètement.

Plus de réaction. Plus de clavier, plus d'écran, plus rien. J'appuie sur le bouton reset : pas d'effet. J'appuie sur le bouton d'alimentation, la machine s'éteint, je réappuie, ja machine se rallume…

…mais ne redémarre pas.

Sueur froide. Est-ce que j'aurais cassé une deuxième carte mère en à peine dix jours ?

(Scène 5.) Non : en éteignant au niveau de l'alimentation et en attendant assez longtemps pour que la carte mère soit totalement hors tension, si je rallume, la machine redémarre bien. Ouf !

Mais l'effet est reproductible : j'ai un watchdog qui, au lieu de redémarrer l'ordinateur, sert à le planter complètement, au point qu'il faut couper l'alimentation complètement pour qu'il remarche. Voilà qui est merveilleusement utile !

Vu que j'ai acheté cette carte mère précise essentiellement pour deux fonctions cruciales, la mémoire ECC et le watchdog, je suis quand même vert de rage.

Rideau.

Épilogue (ou teaser pour la suite ?)

Je suis absolument furieux de cette histoire de watchdog. J'hésite à acheter une nouvelle nouvelle nouvelle(!) carte mère, mais encore faudrait-il être absolument certain qu'elle a un watchdog qui marche.

Sinon, deux possibilités :

(1) Comprendre l'origine du problème et peut-être le résoudre. En fait, j'ai une petite idée de l'origine : ce n'est pas que le watchdog ne provoque pas de reset, c'est que ce reset échoue. Asus a eu la bonne idée de mettre un petit afficheur LCD sur la carte mère qui, lors du démarrage, montre différents codes correspondant aux différentes étapes de l'initialisation. Lorsque le watchdog s'active, cet afficheur passe par la même suite de nombres que lors d'un démarrage « normal » (19, 41, 50(?), 4c, 28, 31, 4b, 34, 3e, 3a, 46, 32, 35, 45, 36, 37, 3b, 3c, 38, 39, 3f, 5c, 55, 69(?), 3b, 32, 35, 60, 61, 9a, 62, 72 — tout ça en un tout petit peu plus que 11 secondes) ; mais ensuite, alors que l'initialisation normale continue (79, 96, b2, 9c, 64, 99, b2, a2, 99, ad), le reboot par watchdog revient au code 62 et y reste bloqué. La signification de ces codes est donnée dans le manuel de la carte mère, le code 62 se traduit par Initialization of the PCH Runtime Services (je sais que PCH signifie Platform Controller Hub, c'est essentiellement synonyme de chipset, en l'occurrence le Intel C236 ; mais je ne sais pas ce que sont ces runtime services).

Ceci ressemble à un bug du BIOS[#4] : j'imagine que le reset provoqué par le watchdog laisse je ne sais quel composant ou périphérique dans un état tel que le BIOS ne sait pas l'initialiser, et qu'il plante. (Peut-être la carte graphique ? Quand on cherche Initialization of the PCH Runtime Services dans Google, les gens se font souvent diriger vers un problème de carte graphique. Je ne sais pas. Peut-être que le BIOS n'a été testé complètement qu'avec des processeurs ayant un coprocesseur graphique intégré.)

Mais bon, la magie du logiciel propriétaire et opaque, c'est que s'il y a un bug dans mon BIOS, je ne peux pas le corriger, quand bien même j'en serais capable. J'ai écrit au support technique d'Asus. J'ai reçu une réponse qui n'était pas terrible (ils me demandent de faire toutes sortes de tests basiques comme vérifier que le processeur et les barrettes mémoires ne sont pas défectueux, dont certains tests que je ne peux pas vraiment faire), on va voir si je peux accéder à un niveau supérieur.

J'ai aussi lancé différents appels à l'aide (ici et ) pour savoir si des gens ayant des cartes mères semblables (ou pas, justement) peuvent reproduire le problème. Je n'ai reçu jusqu'à présent essentiellement qu'une réponse. ☹ Mais quelqu'un me dit avoir le même problème sur une carte mère d'Asrock (qui a un chipset Intel différent mais qui, comme la mienne, a un BIOS écrit par AMI), ce qui suggérerait que le problème peut venir de là.

Évidemment, mes chances d'arriver à faire remonter l'information jusqu'aux programmeurs qui ont écrit le BIOS, et à plus forte raison de leur faire corriger le problème, sont très minces. Je n'ai pas de carnet d'adresses, et je ne peux vraiment pas faire passer le message (pourtant hautement précis) il y a un problème dans le code d'initialisation des services runtime des PCH des chipsets Intel récents lorsqu'ils sont provoqués suite à un reboot initiié par le watchdog TCO à la bonne personne. C'est rageant. D'ailleurs, je n'arrive même pas à trouver plus qu'une personne prête à faire l'expérience que je demande, alors qu'il y a des milliers de fois plus de gens qui pourraient (des gens ayant une carte mère récente avec chipset Intel, ce n'est pas super rare).

Mise à jour () : J'ai écrit des instructions pour tester le problème à partir d'une Ubuntu live (donc sans avoir à installer Linux) ici. Si des gens veulent tester sur différentes cartes mères à chipset Intel, je suis intéressé par les résultats. (Par exemple, Simon, dans les commentaires, m'apprend que le problème se produit aussi avec une carte mère Gigabyte Gaming 7 de chipset Z170, ce qui, en plus de l'exemple sur une carte mère Asrock H110M-HDS de chipset H110, porte encore plus les soupçons sur les BIOS AMI.) • Par ailleurs, le support technique d'ASUS, à qui j'ai transmis le lien précédent, m'a affirmé avoir remonté le problème à leur cellule d'expertise, on verra s'il en ressort quelque chose.

[#4] Enfin, du firmware : il paraît qu'en UEFI il ne faut plus dire BIOS — mais comme les auteurs du firmware eux-mêmes le disent, je vais le dire aussi.

(2) Trouver une autre solution pour redémarrer la machine quand elle plante. La technologie AMT mentionnée ci-dessus devrait être une solution, mais je n'arrive décidément pas à savoir si ma carte mère la gère, ou, dans ce cas, comment l'activer (ou vérifier si elle est active) ou comment en faire quoi que ce soit (ou comment parler au /dev/mei que Linux peut faire apparaître sur mon système).

Reste la solution bricolée (mais je déteste le principe) : une prise électrique commandée par USB : je brancherais la commande sur mon routeur (qui lui, a un watchdog qui fonctionne), et je me servirais du routeur comme watchdog pour le PC (mais ce serait très malcommode, donc peut-être simplement que je garderais la possibilité de me connecter au routeur pour éteindre et allumer le PC). Même comme ça, trouver une prise électrique commandée par USB et qui fonctionne sous Linux, ce n'est pas franchement gagné. Je suis tombé sur essentiellement deux produits :

Si je dois acheter un de ces produits, je préférerais que ce soit à des gens qui ont fait l'effort, sinon d'écrire un driver libre, au moins de publier les spécifications techniques (qui doivent être franchement assez triviales s'agissant d'une bête prise qu'on peut allumer ou éteindre)[#5]. Pour le premier, ce n'est clairement pas le cas ; pour le second, je ne sais pas bien. Il y a peut-être des produits plus ouverts.

[#5] J'ai toujours du mal à comprendre comment on peut être un connard au point de vendre un produit qui est une simple prise commandée par USB et de refuser d'en publier les spécifications techniques qui permettraient d'écrire un pilote pour un pilote pour un autre système d'exploitation que Windows. J'aimerais pouvoir avoir une conversation en face à face avec un décideur de ce genre, et arriver à comprendre ce qui lui passe par la tête.

(mercredi)

De la difficulté d'acheter un PC correct en 2016

Un moment que je craignais depuis longtemps est arrivé : le PC qui est chez moi est mort. Enfin, il n'est pas complètement mort puisque je m'en sers encore pour écrire ces lignes, mais il ne tient apparemment guère plus que 48h sans planter : je suppose qu'un condensateur dans la carte mère s'est usé, ou quelque chose comme ça, et il y a à parier que d'ici quelques jours il ne marchera plus du tout (et même s'il continue au même rythme, 48h sans planter est bien trop court pour les usages que j'ai). Cette carte mère (Asus P5W64 WS Pro) date de 2007 : il est peut-être de toute façon temps d'en changer.

Voici donc mon first world problem du moment : en 2016 il est devenu vraiment difficile d'acheter un PC correct, en tout cas selon ma définition de « correct ». Précisons d'emblée que ce qui m'intéresse surtout est la fiabilité, pas la performance. Or, pour qu'un produit soit trouvable, il faut qu'il y ait des gens (autres que moi) qu'il intéresse.

Je ne sais pas bien qui achète des PC fixes ni pourquoi. Beaucoup de gens qui autrefois eurent acheté des PC sont passés à ces sales merdes qu'on appelle des tablettes : cette évolution a fait chuter le marché des PC. Même parmi les gens qui ont besoin d'un vrai clavier (parce que, quand même, pour taper beaucoup sur une tablette, il faut être motivé), la plupart achètent des portables, ou des transportables (par transportable, je veux dire un truc qui se présente comme un portable mais qui pèse quand même très lourd). Restent les gamers (ceux parmi eux qui utilisent un PC normal et pas un de ces PC propriétaires spéciaux qu'on appelle consoles) ; mais les gamers recherchent des choses complètement différentes de ce qui m'intéresse : uniquement la performance, ils se foutent de la fiabilité tant que la machine n'en est pas à planter plus vite que leur personnage virtuel ne se fait tuer.

Jusqu'à il y a quelques années, je me disais que je pouvais compter sur une autre catégorie d'acheteurs : les gens (ou en fait, typiquement les TPE/PME) qui veulent un « serveur ». Et de fait, même si je déteste profondément la classification des PC en « machines de bureau » et « serveurs », car je parle bien d'acheter un truc pour mettre sur mon bureau, ce que je veux colle bien avec la catégorie « serveur » : fiabilité avant tout, pas mal de mémoire, fiabilité, pas mal de disque dur, fiabilité, peu importe le chipset graphique, et est-ce que j'ai parlé de la fiabilité. Ou du moins, cela collait bien, parce que je ne sais pas si si cette catégorie existe encore en 2016 : maintenant, si on veut un serveur, ce n'est pas pour mettre chez soi — quand on veut un serveur, on prend une machine hébergée en colocation, ou un serveur virtuel sur le nuage à-ma-zone. Et là ça ne colle plus avec mes besoins, parce que je veux quand même un PC physique à mettre chez moi, qui m'appartienne et sur lequel je puisse stocker mes données (les serveurs en colocation, j'en loue déjà quatre, c'est bon, je n'en veux pas d'un cinquième). Bien sûr, ces serveurs en colocation, ou virtuels dans le nuage, ils doivent bien avoir une existence physique quelque part, mais elle peut être hautement spécialisée, peut-être sous une forme qui ne s'achète que par lots de 1024, ou qui impérativement ont besoin d'être rackée dans un datacenter avec une alimentation groupée, que sais-je encore.

Et du coup, je me demande si on ne s'achemine pas vers un monde où seuls Google, Facebook, Amazon et semblables peuvent acheter des vrais ordinateurs, tous les autres devant leur louer de ces ressources.

J'en viens à une petite description de ce que j'entends par fiabilité, et ce en quoi elle affecte le matériel. Il y a deux points cruciaux à la fiabilité : le taux d'erreur le plus bas possible dans le traitement, la reproduction et le stockage de l'information (car l'information est sacrée), et un fonctionnement 24 heures sur 24 avec le moins de downtime possible (i.e., que l'ordinateur soit tout le temps accessible, et avec lui, l'information qu'il stocke).

Concrètement, au niveau stockage de l'information, l'impératif de fiabilité signifie que j'utilise des disques en RAID ; mais ceci ne concerne pas vraiment le matériel (à part la nécessité d'avoir, disons, quatre disques durs identiques). En revanche, au niveau de la mémoire vive (RAM), cela impose d'avoir de la mémoire ECC (j'ai déjà ranté à ce sujet à de nombreuses reprises, par exemple ici), c'est-à-dire avec correction d'erreurs (pouvant corriger 1 bit erroné quelconque sur un mot de 64 bits, et en détecter 2) : c'est le genre de choses qui n'intéresse pas du tout les gamers parce que c'est forcément plus lent, et parce qu'ils n'ont pas de données importantes à protéger, mais pour moi c'est une condition sine qua non de fiabilité.

Pour avoir de la RAM ECC, il faut non seulement des barrettes ECC (avec 9/8 fois plus de bits dessus), mais il faut aussi que la carte mère supporte l'ECC (c'est-à-dire, que le chipset la supporte, que le câblage le supporte, et que le BIOS le supporte) et aussi que le processeur le supporte. Chez Intel, ça veut dire que le processeur doit être un Xeon. Chez AMD, je n'ai pas compris (ça a l'air un peu plus largement disponible au niveau processeurs — au niveau cartes mères c'est autre chose — mais je suis complètement paumé dans les références). Les informations sont très difficiles à trouver en ligne, parce que très peu de gens veulent de la RAM ECC.

Un autre composant matériel que je souhaite avoir, c'est un watchdog matériel dans la carte mère, c'est-à-dire un composant qui redémarre automatiquement la machine si elle est plantée (concrètement, dès qu'on l'active, il faut lui envoyer régulièrement un signal montrant que tout se passe bien, et s'il ne le reçoit pas au bout de quelques minutes, il provoque un reboot). J'ai ça sur mon PC actuel (celui qui est mourant ; et grâce au watchdog, il reboote quand il plante, au lieu de rester bêtement inutilisable). Le problème de trouver des informations est encore pire concernant les watchdogs que concernant la RAM ECC : c'est quasiment impossible de savoir à l'avance quelles cartes mères ont un watchdog (même si on a les références d'une carte mère précise et de son chipset, parfois même quand on a accès au produit lui-même, c'est vraiment difficile de le savoir). Peut-être même que ce genre de système a été complètement remplacé par des gadgets plus sophistiquées comme l'IPMI ou autres choses dont j'ignore jusqu'au nom. Toujours est-il que je voudrais bien un système qui m'assure que si mon PC plante pendant que je ne suis pas chez moi pour le redémarrer, il y aura quelque chose à faire. Je ne considère pas ça comme aussi absolument indispensable que la mémoire ECC, mais si je peux avoir un watchdog, c'est mieux.

À part ça, laissant de côté les questions de fiabilité, j'ai aussi besoin d'au moins 6 ports SATA (j'ai quatre disques durs à brancher plus deux lecteurs/graveurs optiques) plus un eSATA, et de 2 ports Ethernet gigabit ; tout cela peut s'ajouter par cartes d'extensions, donc ce n'est pas rigoureusement indispensable, mais ce serait pratique. Idéalement j'aimerais plusieurs connecteurs internes PCIe disponibles et aussi un PCI (pour y mettre une vieille carte son que j'aime bien). Et je voudrais avoir au moins 16Go de RAM.

Bon, j'ai fini par me décider à opter pour une carte mère Asus P10S-WS (basée sur un chipset Intel C236, supportant la RAM ECC, et dont je suis presque sûr qu'elle a un watchdog), un processeur Intel Xeon E3-1230v5 (je ne comprends rien, mais alors rigoureusement rien, à la nomenclature et à la numérotation des processeurs Intel, et je ne suis d'ailleurs pas le seul, mais je sais au moins que les Xeon supportent la RAM ECC, et je crois que maintenant la réciproque est plus ou moins vraie), et 2×16Go de RAM Kingston (ECC, donc). J'ai aussi pris une nouvelle alimentation, parce que les alimentations sont une source fréquente de problèmes des PC (il n'est même pas exclu que le problème de mon PC actuel, celui que je qualifie de mourant, soit seulement un problème d'alim, mais je n'ai pas vraiment le temps de tester pour voir : il faut que j'envisage qu'il est en train de mourir).

Mais j'en viens à la suite de mes first world problems de 2016 : ce n'est pas tout de décider quel matériel on veut acheter, encore faut-il l'acheter. Autrefois (il y a 5 ou 10 ans), cela signifiait de passer rue Montgallet. Maintenant, il semble qu'il n'y ait plus rien rue Montgallet à part des vendeurs de tablettes et de mobiles : le matériel informatique qui ne soit pas complètement basique, on l'achète en ligne.

Le problème n'est pas juste que je déteste Amazon (mais je déteste Amazon).

Un problème est que les délais de livraison sont très mauvais (la carte mère et le processeur doivent m'être expédiés d'Allemagne, et apparemment l'Allemagne est un pays très lointain parce que la livraison m'est annoncée pour le 7 septembre(!)), tandis qu'à l'époque où un Parisien pouvait acheter des choses rue Montgallet, on avait ce qu'on voulait dans la journée. D'ici le 7 septembre, mon PC actuel a bien le temps de finir son agonie.

Un autre problème est que la réception d'un colis est une entreprise notoirement périlleuse : ici, j'ai opté pour me faire livrer au bureau, ce qui diminue sans doute un peu les problèmes (et en tout cas, les modifie), mais il ne faudrait pas imaginer que tout est réglé pour autant.

Et aussi, je suis quasiment certain que parmi les quatre-cinq articles que j'ai commandés (la carte mère, le processeur, les deux barrettes de RAM et l'alim), au moins l'un d'entre eux va m'être livré remplacé par autre chose — ou défectueux. Je soupçonne vaguement la RAM, dont la page de description ne mentionne quasiment pas qu'elle est ECC (il faut lire attentivement le numéro de modèle Kingston). Le système de recherche d'Amazon est d'ailleurs épouvantablement pourri : on ne peut pas chercher de la RAM ECC parce que tous les descriptifs disent soit ECC soit (le plus souvent) non ECC, et du coup la recherche de ECC renvoie les deux (ils sont au courant qu'un produit peut se décrire et se rechercher de façon plus fine qu'une chaîne de caractères, chez Amazon ?).

Tout ceci étant dit, j'ai commandé les parties d'un nouveau PC. Qui peut-être me seront livrées un jour, et je pourrai alors exprimer mon exaspération sur d'autres sujets (le fait que l'UEFI qui a remplacé le BIOS traditionnel est une sale merde, le fait que c'est affreusement difficile de reconfigurer Linux pour une nouvelle machine, le fait que je ne sais pas appliquer de la pâte thermique, que sais-je encore).

Only the 20 most recent entries were included above. Continue to older entries.

Seules les 20 plus récentes entrées ont été incluses ici. Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003