Vous êtes sur le blog de David Madore, qui, comme le
reste de ce site web, parle de tout et
de n'importe quoi (surtout de n'importe quoi, en fait),
des maths à
la moto et ma vie quotidienne, en passant
par les langues,
la politique,
la philo de comptoir, la géographie, et
beaucoup de râleries sur le fait que les ordinateurs ne marchent pas,
ainsi que d'occasionnels rappels du fait que
je préfère les garçons, et des
petites fictions volontairement fragmentaires que je publie sous le
nom collectif de fragments littéraires
gratuits. • Ce blog eut été bilingue à ses débuts (certaines
entrées étaient en anglais, d'autres en français, et quelques unes
traduites dans les deux langues) ; il est
maintenant presque exclusivement en
français, mais je ne m'interdis pas d'écrire en anglais à
l'occasion. • Pour naviguer, sachez que les entrées sont listées par
ordre chronologique inverse (i.e., celle écrite en dernier est en
haut). Cette page-ci rassemble les dernières
20 entrées (avec un lien, à la fin,
pour les plus anciennes) : il y a aussi un tableau par mois à la fin
de cette page, et un index de toutes
les entrées. Certaines de mes entrées sont rangées dans une ou
plusieurs « catégories » (indiqués à la fin de l'entrée elle-même),
mais ce système de rangement n'est pas très cohérent. Le permalien de
chaque entrée est dans la date, et il est aussi rappelé avant et après
le texte de l'entrée elle-même.
You are on David Madore's blog which, like the rest of this web
site, is about everything and
anything (mostly anything, really),
from math
to motorcycling and my daily life, but
also languages, politics,
amateur(ish) philosophy, geography, lots of
ranting about the fact that computers don't work, occasional reminders
of the fact that I prefer men, and
some voluntarily fragmentary fictions that I publish under the
collective name of gratuitous literary
fragments. • This blog used to be bilingual at its beginning
(some entries were in English, others in French, and a few translated
in both languages); it is now almost
exclusively in French, but I'm not ruling out writing English blog
entries in the future. • To navigate, note that the entries are listed
in reverse chronological order (i.e., the latest written is on top).
This page lists the 20 latest (with a
link, at the end, to older entries): there is also a table of months
at the end of this page, and
an index of all entries. Some
entries are classified into one or more “categories” (indicated at the
end of the entry itself), but this organization isn't very coherent.
The permalink of each entry is in its date, and it is also reproduced
before and after the text of the entry itself.
Une devinette et des méditations sur les « degrés de co-Turing »
Devinette mathématique (pas très difficile !) :
Vous avez accès à un oracle omniscient auquel vous pouvez poser (de
façon illimitée) des questions à réponse oui/non. Mais évidemment il
y a une arnaque : au lieu de répondre oui ou non,
l'oracle code sa réponse. Plus exactement, pour chaque question, il
va vous donner la réponse sous forme d'une machine de Turing. Pour
dire oui, il va vous présenter une machine de Turing qui
s'arrête ; et pour non, il va vous présenter une machine de
Turing qui ne s'arrête pas. Vous êtes limité par la thèse de
Church-Turing, donc n'avez pas de moyen pour savoir en
général si une
machine de Turing s'arrête ou pas. (L'oracle, lui, peut
évidemment répondre à cette question, puisqu'il est omniscient ; mais
comme il vous donnera la réponse de façon codée, vous n'êtes pas plus
avancé.) L'oracle cherche à vous embêter : il veut vous empêcher de
récupérer des informations utiles de ses réponses. Problème :
pouvez-vous forcer l'oracle à vous révéler des choses utiles, ou
peut-il s'arranger pour rendre ses réponses complètement
inutiles ?
(Si vous trouvez que c'est mathématiquement trop vague parce que je
parle d'oracle omniscient sans définir ce terme, je vais
présenter des versions beaucoup plus précises plus bas. Mais celle-ci
me semble quand même raisonnablement claire et assez parlante pour
attirer la curiosité et expliquer de quoi il est question.)
Cette devinette n'est pas trop difficile, et j'encourage à y
réfléchir, ne serait-ce que pour comprendre pourquoi la suite
m'intéresse. En tout cas, il ne suffit pas de dire il n'y a pas
moyen calculable de résoudre le problème de l'arrêt (ce qui est,
certes, vrai) pour avoir répondu au problème. Voici la réponse
(cliquez
ici pour la faire apparaître) :
Réponse (à la devinette
facile) : Je peux forcer l'oracle à répondre à n'importe quelle question
oui/non de la manière suivante. Si je veux savoir la réponse à une
question Q, je vais poser à l'oracle d'abord la
question Q elle-même, puis la question ¬Q
(c'est-à-dire la réponse à la question Q
code-t-elle non ? — ou, si on préfère, la réponse que tu
viens de me donner est-elle non ? — de manière à échanger
les réponses oui et non). J'ai donc maintenant deux
machines de Turing (celle fournie par l'oracle en réponse à la
question Q et celle fournie par l'oracle en réponse à la
question ¬Q) et la certitude qu'exactement une des deux
s'arrête. Je peux lancer leur exécution en parallèle, jusqu'à ce que
l'une termine (ce qui arrivera forcément en temps fini). Si la
première s'arrête, je sais que la réponse à Q
est oui, et si la seconde s'arrête, je sais que la réponse
à Q est non. J'ai donc obtenu la réponse à ma
question.
Maintenant, modifions la devinette pour la rendre plus difficile en
empêchant la stratégie utilisée dans la réponse ci-dessus :
Devinette mathématique (beaucoup plus
difficile !) : Comme précédemment, vous avez accès à un oracle
omniscient auquel vous pouvez poser (de façon illimitée) des questions
à réponse oui/non. Et comme précédemment, au lieu de
répondre oui ou non, l'oracle code sa réponse. Mais
cette fois, pour chaque question, il va vous donner la réponse sous
forme de deux machines de Turing. Pour dire oui, il
va vous donner deux machines de Turing dont l'une s'arrête et l'autre
pas ; et pour non, il va vous donner deux machines de Turing
qui soit s'arrêtent toutes les deux soit aucune ne s'arrête. Tout le
reste est comme dans a devinette précédente : vous êtes limité par la
thèse de Church-Turing, et l'oracle cherche à vous embêter.
Problème : pouvez-vous forcer l'oracle à vous révéler des choses
utiles, ou peut-il s'arranger pour rendre ses réponses complètement
inutiles ?
Je n'ai pas la solution à cette devinette, et elle m'obsède un peu
(je tourne autour de plein de variations autour d'elle, mais je n'ai
vraiment aucune idée de comment l'attaquer). Donc j'essaie de la
balancer dans la nature (i.e., sur le Web) dans l'espoir que quelqu'un
ait une idée intelligente. (Comme je vais le dire plus bas, c'est une
variation sur cette énigme que j'ai
posée ici
et là
sur MathOverflow.)
Le but de la suite de ce billet est de tourner autour du pot de
cette devinette : comme le font les mathématiciens qui ne savent pas
répondre à une question, ils la formalisent, donc je vais expliquer
comment on peut imaginer définir une notion en quelque sorte « duale »
de la notion (habituelle)
des degrés de
Turing, les degrés de co-Turing (ou
de coTuring ? Coturing ? coturne ?), et que la
devinette ci-dessus s'inscrirait dans le cadre de cette notion. Mais
je ne sais malheureusement à peu près rien dire à son sujet, donc
c'est un peu du formalisme pour formaliser, mais j'espère au moins
convaincre que la question est bien définie (elle a un sens
mathématique précis) et au moins raisonnablement naturelle.
[Je précise que ce qui précède a été pour
l'essentiel écrit avant ce qui suit, ce qui peut expliquer la
présentation un peu étrange.]
⁂
Le but de ce billet, donc, est pour moi de réfléchir tout haut à
une définition qui m'a traversé l'esprit : ce n'est pas vraiment de
faire de la vulgarisation. Si vous ne connaissez pas un peu la
théorie de la calculabilité, passez votre chemin (lisez
plutôt ceci, ou bien, si vous
voulez quelque chose de plus
costaud, ça
ou ça).
Bref. Je me suis rendu compte qu'il y a une notion en quelque
sorte « duale » de la réduction de Turing, qui ne semble pas du tout
avoir été étudiée. Je vais essayer de donner la définition de
plusieurs manières différentes, de dire quelques propriétés évidentes,
et de poser des questions auxquelles je ne sais pas répondre.
☞ Définition informelle de la « réduction de co-Turing »
Je commence par rappeler :
Si A,B⊆ℕ, on dit que A
est Turing-réductible à B lorsqu'on peut
répondre à la question est-ce que m∈A ?
en posant librement des questions est-ce
que n∈B ?, par un processus calculable.
Ceci est dit de façon informelle, mais je pense que c'est assez
parlant. Mais formulons les choses un peu différemment en
introduisant une terminologie un peu idiote : si A⊆ℕ, je
vais dire qu'un m∈ℕ est
un A-codage de oui
lorsque m∈A, et que c'est un A-codage
de non lorsque m∉A (autrement dit,
un A-codage d'un booléen c est un m
tel que c = 1A(m),
en notant 1A la fonction indicatrice
de A). Avec cette terminologie, on peut dire (toujours
informellement) :
On dit que A est Turing-réductible à B
lorsqu'on peut, par un processus calculable. A-décoder un
booléen, à condition d'être librement capable de B-décoder
des booléens.
En encore plus court : A est Turing-réductible
à B lorsque la capacité de B-décoder les
booléens permet (calculablement !) de A-décoder les
booléens. I.e., je postule la capacité de B-décoder et
j'obtiens la capacité de A-décoder.
De façon symétrique, je propose la définition suivante (dite de
façon informelle, et que je vais rendre précise ensuite) :
Si A,B⊆ℕ, on dira que A
est co-Turing-réductible à B lorsqu'on
peut, par un processus calculable, répondre à n'importe quelle
question booléenne de façon B-encodée, à condition
d'être librement capable d'obtenir la réponse à n'importe quelle
question booléenne de façon A-encodée.
En encore plus court : A est co-Turing-réductible
à B lorsque la capacité de A-encoder des
booléens cachés permet (calculablement !) de B-encoder des
booléens cachés. (Attention ! il s'agit de booléens cachés,
cf. ci-dessous pour plus d'explications.) I.e., je postule la
capacité de A-encoder et j'obtiens la capacité
de B-encoder.
Dit comme ça, j'espère que c'est clair pourquoi la notion que je
propose est en quelque sorte duale de la notion de réduction de
Turing : d'où le terme de réduction de co-Turing.
Entendons-nous bien : quand je parle d'encoder un booléen, il
s'agit de booléens cachés. Encoder un booléen connu c'est
toujours évident : une fois qu'on a un m₀∉A et
un m₁∈A, il suffit de renvoyer l'un ou l'autre,
et ceci est toujours calculable. (On peut objecter oui mais si je
ne connais pas de tels m₀ et m₁ ? mais ce
n'est pas ce dont je veux parler ici : ma partie étant fixée, et ni
vide ni pleine, ces m₀ et m₁ existent et des
algorithmes écrits avec eux existent aussi ; d'ailleurs, peut-être que
je devrais postuler une fois pour toutes que 0∉A et que
1∈A.)
Mon problème, donc, c'est que quelqu'un (qu'on va appeler Merlin
plus bas) a choisi un booléen et ne me l'a pas dit, et moi j'ai le
droit de lui poser n'importe quelle question (portant sur son booléen
caché ou sur « n'importe quoi ») mais il me répond de
façon A-codée ; et mon but c'est de produire
un B-codage du booléen choisi.
Note : Je
dois signaler que j'ai « inversé » la réduction par rapport à ce qu'on
pourrait peut-être imaginer, de manière à ce que les ensembles les
plus « difficiles » soient toujours réductibles aux ensembles les plus
« faciles », ce qui rend la comparaison avec d'autres réductions tout
de même plus naturelle, mais du coup ça peut sembler à l'envers
(A est co-Turing-réductible à B lorsque la
capacité de A-encoder des booléens cachés permet
calculablement de B-encoder des booléens cachés).
Évidemment, cette « inversion » va se sentir dans toutes les autres
versions de la définition.
☞ Définition avec des jeux à trois joueurs
Pour rendre la définition précise, le mieux est d'introduire des
jeux à trois joueurs. J'ai évoqué ce type de jeux
dans ce billet passé (qui est une
tentative de semi-vulgarisation
de cet
article), mais je vais redire le nécessaire. Les
règles générales (toujours valables) de ce type de jeu sont
les suivantes :
Il y a trois joueurs, Arthur, Nimué et Merlin.
Arthur et Nimué font équipe contre Merlin. Ils jouent dans l'ordre
suivant : Merlin, Arthur, Nimué, Merlin, Arthur, Nimué, etc., jusqu'à
ce qu'Arthur mette fin à la partie. Nimué et Merlin voient tous les
coups précédemment joués par tous les joueurs ; Arthur ne voit que les
coups explicitement déclarés visibles d'Arthur. De plus,
Arthur devra jouer selon une stratégie calculable (alors que les deux
autres joueurs n'ont pas de telle limitation). Le jeu continue
jusqu'à ce qu'Arthur y mette fin en faisant une « annonce » : si cette
annonce est correcte (selon les modalités spécifiques du jeu), Arthur
et Nimué gagnent ; s'il fait une annonce incorrecte, ou qu'il n'en
fait jamais (y compris si sa stratégie censée être calculable ne
renvoie pas de coup à jouer, par exemple parce qu'elle ne termine
pas), alors Arthur et Nimué ont perdu ; et bien sûr, si un joueur ne
respecte pas les contraintes du coup, alors il perd immédiatement.
En gros, il faut imaginer ça comme un jeu de communication : Nimué
essaie de passer de l'information à Arthur, mais elle ne peut pas
communiquer directement avec Arthur, elle ne peut le faire qu'à
travers Merlin, qui essaie de leur mettre des bâtons dans les roues.
La question qu'on va se poser, c'est si Arthur et Nimué ont moyen
d'avoir une stratégie commune pour gagner contre Merlin.
J'ai récemment vu passer la dernière vague de
l'enquête
d'opinion Fractures françaises (menée par l'institut
de sondage Ipsos), laquelle contient toutes sortes d'enseignements
plus terrifiants les uns sur les autres sur les opinions et l'état
d'esprit des Français
(voici un
fil Bluesky [visible sans compte Bluesky] qui résume les
principales conclusions de l'enquête). Alors, certes, je suis le
premier à rappeler que l'opinion publique est un phénomène quantique
façonné autant par le sondage qui prétend la mesurer que par les gens
qui la constituent, et qu'avec suffisamment d'astuce on
peut faire dire n'importe quoi aux sondages, surtout que les
barres d'erreur ne sont jamais données et le détail des réponses
permises parfois pas clair. Mais si les résultats de ces questions
sont à prendre avec des pincettes, il serait tout aussi fallacieux de
prétendre qu'elles n'ont rien à nous apprendre.
Parmi les réponses il y en a une qui me semble particulièrement
terrifiante : on demande aux répondants de se prononcer sur
l'affirmation on a besoin d'un vrai chef en France pour remettre de
l'ordre (pages 50–51 du PDF) : plus de 85% se
déclarent d'accord avec cette affirmation (un chiffre massif qui n'est
pas vraiment nouveau puisque de 2013 à maintenant il a oscillé entre
79% et 85%), et cette adhésion est majoritaire chez les sympathisants
de tous les partis politiques (minimum chez les
écolos[#] avec 57%,
particulièrement paradoxale chez les prétendus insoumis avec
67%, et évidemment maximum chez le RN avec… 99%), et
massive chez toutes les couches socio-professionnelles sondées.
[#] Il y a un certain
nombre de choses que je n'aime pas chez les écolos
(genre ça, dans une certaine
mesure ça, et leur porosité avec
des mouvements carrément crackpot genre antivax ou biodynamique).
Mais quand même une chose que j'aime bien chez eux, c'est qu'au moins
en interne ils n'ont pas l'air de vouloir à tout prix avoir un guide
suprême.
Je ne crois pas avoir grand-chose d'intelligent à dire pour
commenter (et oui, je suis bien conscient que les 85% de répondants
qui approuvent cette affirmation n'ont certainement pas la même idée
de ce qu'est un vrai chef ni de ce que signifie remettre de
l'ordre, et qu'ils sont encore moins d'accord sur qui ce chef
devrait être), et je ne prétends certainement pas raconter quoi que ce
soit d'original ; mais je ne vais quand même pas me priver de signaler
combien cette opinion, il nous faut un vrai chef (dont je
n'affirme absolument pas qu'elle soit spécifiquement française), me
semble à la fois glaçante et répugnante.
Le fantasme du chef[#2] et
toutes ses déclinaisons (l'idée qu'il faut concentrer les pouvoirs
entre les mains d'une seule personne pour l'efficacité, le mythe de
l'homme providentiel qui va sauver l'État, l'utopie du dictateur
bienveillant, le rêve d'une communion entre le leader et son peuple,
l'illusion que le guide a toujours raison, le confort du commandant
qui pense à notre place, le culte de Jupiter…) sont le lit de tous les
despotismes et une des causes principales de
l'érosion de l'état de droit. Car
si le chef a toujours raison, s'il incarne la Nation, alors tout
contre-pouvoir qui se mettrait en son chemin, par exemple un juge qui
lui chercherait des noises ou une opposition parlementaire qui
voudrait susciter le débat, est presque automatiquement un ennemi de
la Nation : dans ces conditions, la séparation des pouvoirs n'a pas de
sens, les poids et contrepoids n'existent pas. Au mieux, le chef
(s'il est populaire) est le vecteur de la tyrannie de la majorité, au
pire (s'il tient son pouvoir de la force) c'est un tyran, et la
frontière entre les deux est d'ailleurs particulièrement poreuse (s'il
n'y a pas de contre-pouvoir fort, qui va donc révoquer le chef si sa
popularité cesse ? qui va l'empêcher de manipuler l'opinion et de
truquer les élections pour se maintenir au pouvoir).
[#2] Je parle ici et
dans le reste du billet de chef pour un pays entier. Mais on peut
aussi s'interroger sur l'opportunité d'avoir un chef unique dans une
structure différente, par exemple une entreprise ou une association ou
une religion ou un groupe de travail ou que sais-je encore. Les
entreprises aiment bien avoir un chef unique, parce qu'elles sont
persuadées que ça apporte plus d'efficacité. Elles ont tort et elles
sont connes. Pour une petite association, en revanche, ça peut avoir
un sens. En fait, la règle générale (qui n'est pas parfaite et
souffre certainement d'exceptions, mais s'avère néanmoins assez utile
comme règle générale) pour savoir s'il est pertinent de donner à une
structure un chef unique ayant quasiment tous les pouvoirs est la
suivante : si c'est une corvée, s'il faut aller persuader les gens de
se porter volontaires de le faire, alors il est probable qu'avoir un
seul chef est une bonne idée (les gens qu'on va recruter sont des gens
vraiment dévoués) ; si, en revanche, les candidats sont nombreux parce
qu'il y a un vrai pouvoir associé à la fonction qui peut attirer les
gens avides de pouvoir, alors ces candidats sont exactement les gens
qu'il faut repousser, et ce que je dis plus bas pour un pays
s'applique.
L'origine de ce fantasme[#3]
est que nous avons envie de croire au chef qui n'a en tête que le bien
collectif, peut-être un Cincinnatus à la vertu exemplaire, qui sauvera
la République sans penser à son intérêt personnel (et qui retournera
cultiver son jardin une fois son devoir accompli). Et bien sûr, que
ce chef s'avère avoir la même idée que nous sur ce qu'est le bien
collectif.
[#3] Enfin, une origine
de ce fantasme. Il y en a bien sûr beaucoup. On pourrait aussi
évoquer
la théorie du
grand homme (parce que oui, bizarrement, ce sont toujours des
hommes) en
Histoire. Même en fiction, nous avons du mal à
envisager comme protagonistes autre chose que des individus (des
courants, des idées, des classes sociales, des évolutions de la
société en masse). Les historiens ont fini par dépasser cette vision
de l'Histoire comme un catalogue des rois et de leurs faits d'armes
(ou plus généralement, de grands personnages qui font des choses
individuelles), mais cette présentation du récit continue à polluer
notre imaginaire collectif. Même
dans l'adaptation
de Fondation d'Asimov, l'œuvre de science-fiction par
excellence qui défend l'idée que ce qui importe dans l'histoire ce
sont les masses et pas les individus (contre-théorie certes
également simpliste, mais ce n'est pas le point), l'industrie du
divertissement trouve le
moyen de trahir absolument
toutes ses idées et d'en faire une histoire d'héroïsme et
d'individus qui font des trucs.
Mais dès qu'on se rend compte que tous ces groupes de gens qui
veulent un chef veulent, en fait, autant de chefs différents (et que
ce qu'ils veulent surtout, c'est ne pas avoir à discuter avec les
autres groupes, à compromettre leurs idées avec d'autres, parce que le
chef, leur chef, serait le chef de tout le monde), alors
l'illusion s'effondre. Les 99% de sympathisants du RN
qui réclament un vrai chef en France pour remettre de l'ordre
ne seront sans doute plus trop d'accord avec cette affirmation s'ils
commencent à imaginer le chef en question (et l'ordre en question)
comme un autre que celui qu'ils fantasment.
L'idée abstraite d'un chef est souvent présentée comme quelque
chose qui unifie la Nation, et le chiffre de 85% semble donner raison
à cet a priori, mais dès qu'on met un nom précis, on se rend compte
que c'est, au contraire, quelque chose qui divise. Dans la vraie vie,
entre adultes responsables, pour guérir les divisions, il faut
chercher les discussions et les compromis déplaisants, bref, tout le
contraire de ce qu'un chef apporte. Au mieux le chef aliène ceux qui
ne l'ont pas soutenu, au pire il déçoit même ses supporters (auxquels
il a probablement fait des promesses intenables) et finit par se
retrouver seul.
Et de fait, le désir des Français d'avoir un chef est
particulièrement ironique et particulièrement stupide quand on voit la
détestation qu'ils portent[#4]
à leurs présidents de la République (l'actuel est autour de 20%
d'opinions favorables, mais son prédécesseur avait fini à à peu près
ce chiffre-là, et son prédécesseur à lui pas beaucoup plus haut non
plus ; je ne retrouve plus de graphes synthétiques mais l'idée est
là). Quand les gens veulent un chef mais que n'importe quel chef
qu'on leur donne est détesté, c'est juste une sorte de caprice de
gamin, en fait.
[#4] J'ai déjà dû
l'écrire quelque part, mais l'érosion de la popularité de chacun est
le signe que les Français ont un comportement profondément irrationnel
et/ou n'ont aucun sens de la psychologie : qu'on aime ou qu'on n'aime
pas tel ou tel président, je comprends, mais chacun d'entre eux a
fait grosso modo ce qui était prévisible de lui au moment où
il est arrivé au pouvoir, donc il n'y a aucune raison valable de
changer d'opinion à son sujet au cours du temps. Par exemple, s'il y
a des gens qui avaient plus de sympathie pour Emmanuel Macron au
moment de son élection que maintenant, j'ai vraiment envie de de
demander comment ils arrivaient à imaginer autre chose que ce qu'il a
mené comme politique pendant ce temps (à part, certes, pour la
pandémie, qui n'était pas prévisible, mais face à laquelle il a réagi
de manière éminemment prévisible pour quelqu'un de son tempérament).
Oui, bien sûr, les politiques font des promesses mensongères, mais
tout le monde le sait et tout le monde le dit, et ce n'est quand même
pas compliqué de voir au travers et de deviner ce qu'ils vont vraiment
faire (ou en tout cas, si l'erreur est toujours dans le même sens,
celui d'être déçu par rapport à ses attentes, ben il faut réajuster
son mécanisme mental d'évaluation des attentes).
Le fantasme du chef n'est pas exclusivement français, c'est
certain, et d'ailleurs il est très clair dans les soutiens de l'actuel
président des États-Unis. Mais la France a une relation d'amour-haine
très particulière à ses chefs, et le désir-de-chef est au moins en
bonne partie un renvoi à des époques où la France (dans l'idée que
s'en font les gens qui ont ce fantasme malsain) était grande et
puissante (autre fantasme malsain) : Louis XIV et Napoléon en
particulier, évidemment. Au sujet du second, je recommande d'ailleurs
très vivement le bref livre de Lionel Jospin, Le Mal
napoléonien : n'est pas tant un livre sur le personnage
historique de Napoléon (même s'il en prend pour son grade !) que sur
la bizarre fascination que les Français continuent à avoir pour ce
type. Ceci dit, le modèle de chef qui est actuellement dans les têtes
est sans doute plutôt proche de celui utilisé par Napoléon III (qui,
comme le rappelle Marx dans un passage célèbre
de son
pamphlet consacré au personnage, était à son oncle ce que la farce
est à la tragédie) : plus vraiment le souverain absolu qui fait la
guerre à toute l'Europe et trouve sa légitimité dans Dieu ou ses
victoires militaires, mais plutôt l'autocrate paternaliste, en
apparence presque débonnaire, populiste qui s'appuie sur la confiance
témoignée lors de plébiscites, et n'en profite pas moins pour écraser
toute opposition et dont les proches s'en mettent plein les
poches.
Mais l'autre côté de cette relation d'amour-haine, c'est que la
France est aussi célèbre pour avoir guillotiné un roi et en avoir
chassé au moins deux autres. Parce que le chef a aussi cette
fonction, c'est de devenir le bouc émissaire si les choses vont mal :
ça évite au pays de se poser des questions sur les responsabilités
plus profondes, y compris la sienne : c'est tellement commode de
donner tous les pouvoirs à une personne, pour pouvoir ensuite tout
mettre sur le dos d'une seule personne. On ne guillotine plus les
gens, mais cette conception complètement pathologique de la relation
au chef continue avec Charles de Gaulle, qui fait écrire au pays en
1958 une constitution de merde pour
pouvoir être chef dans une sorte d'union mystique avec le pays
(appuyée sur nombreux referenda conçus comme des plébiscites), et qui
se fait lourdement contester dix ans plus tard (à tel point qu'il a
brièvement fui en Allemagne) : le chef comme figure expiatoire est le
revers de la médaille du chef en communion avec le peuple qu'il guide.
L'impopularité des présidents français peut s'interpréter de cette
façon : ils servent à être le point focal de la détestation de tous
les espoirs irrationnels qu'ils ont suscités et ensuite déçus.
Bon alors juste quand je décide
d'essayer d'écrire plus de billets sur des petites conneries sans
intérêt, l'actualité politique française vient m'emmerder avec
des Sujets
Graves. Rassurez-vous, on ne
m'a pas nommé Premier ministre
(même si au rythme où vont les choses, je ne saurais être parfaitement
rassuré…
mais j'ai
calculé qu'Emmanuel Macron pourrait nommer chaque électeur
français Premier ministre pendant environ une seconde jusqu'à la fin
de son mandat, et je suis peut-être ouvert à l'idée de faire le boulot
pendant une seconde).
☞ Critique récurrente du parlementarisme
Mais plus sérieusement, je vois beaucoup circuler l'idée
que voilà, l'instabilité des gouvernements, c'est l'effet du
parlementarisme. (Idée utilisée comme critique du
parlementarisme, sans doute avec en filigrane l'idée qu'un régime
présidentiel avec un Chef
Fort[#], c'est beaucoup mieux…
cf. un certain grand pays outre-Alantique où les choses se passent
merveilleusement bien dans une harmonie politique dont les deux
maîtres mots sont tempérance et compétence.) On montre du doigt la
IVe République française comme exemple pour illustrer la valse des
ministères ; ou bien on montre du doigt la Belgique pour montrer que
former des coalitions parlementaires est compliqué et peut prendre un
temps considérable. N'est-ce pas le signe que le parlementarisme, ça
ne marche pas ?
[#] Le fantasme du Chef
est l'idée la plus détestable et dangereuse de toute la politique,
mais elle est particulièrement étrange dans la France de ces dernières
décennies quand on voit la manière dont les Français aiment détester
les présidents qu'ils élisent : qui peut penser une seule seconde que
ce serait une bonne idée de mettre plein de pouvoirs entre les mains
d'une personne quand on voit les scores de popularité qu'ont toutes
les personnes qui sont passées par cette fonction ? C'est
fascinant.
☞ Difficile majorité absolue
Indiscutablement, dans un pays dont l'électorat est divisé en en
gros trois tendances politiques grosso modo égales et en
désaccord[#2] sur tout,
imaginer un régime à la fois démocratique et stable
est intrinsèquement compliqué, parce que c'est un fait
indéniable qu'il serait difficile d'écrire un programme de
gouvernement qu'au moins 50% des Français seraient prêts à soutenir.
Le remède généralement admis à ce mal est d'utiliser un mode de
scrutin qui, au moins à un certain niveau, n'exige pas une majorité
absolue mais seulement relative pour gouverner. (Par exemple, on peut
imaginer élire un Grand Chef et lui donner en gros tous les pouvoirs
pendant une mandature. Je suis évidemment extrêmement hostile à ça,
mais c'est pour illustrer l'idée.) Mon propos dans ce billet est
d'expliquer qu'on peut très bien faire quelque chose de ce genre dans
le cadre d'un régime parlementaire, et, surtout, qu'il n'y a aucune
fatalité à ce que le régime parlementaire ait pour corollaire
l'instabilité gouvernementale ou la difficulté à construire des
coalitions.
[#2] J'ai déjà dû le
dire, mais je suis toujours fasciné par la tendance de chacune de ces
trois tendances à prétendre que les deux autres sont alliées et/ou à
peu près interchangeables (la gauche prétend régulièrement que la
droite libérale et l'extrême-droite se soutiennent mutuellement si
bien que l'extrême-droite est en fait déjà au pouvoir ; la droite
libérale prétend que les extrêmes se rejoignent ; et
l'extrême-droite parle encore d'UMPS ou formules de ce genre
pour tout ce qui n'est pas l'extrême-droite). Ce qui revient à ce que
chacune revendique ne représenter qu'environ un tiers de l'électorat
contre un bloc d'environ deux tiers… donc n'avoir guère de légitimité
à gouverner. Pour scier la branche sur laquelle ils sont assis, tous
ces gens sont très forts.
C'est même assez facile, en fait. Je voudrais pouvoir prétendre
que je vais démontrer mon talent
de rédacteur de constitutions, mais
il n'y a même pas besoin de talent particulier, parce que la solution
est déjà connue. L'idée essentielle (que je vais quand même détailler
un peu) est déjà utilisée dans divers régimes parlementaires, c'est
celle de la motion de censure constructive : on ne
peut renverser un gouvernement qu'en proposant un autre gouvernement
pour prendre sa place. (Et s'il n'y a pas de gouvernement du tout, ou
qu'il démissionne ? Je vais discuter cette situation aussi.)
☞ Régimes parlementaires et présidentiels
Mais revenons un cran en arrière. J'ai déjà dit (dans
le billet que je viens de lier) que
les rédacteurs de constitutions font preuve de fort peu
d'originalité[#3] : en gros,
quasiment tous les régimes politiques démocratiques du monde
s'organisent en deux types. Le type présidentiel
(modèles : les États-Unis d'Amérique et divers pays d'Amérique du Sud
qui ont plus ou moins copié leur exemple), où le pouvoir exécutif est
confié à un chef d'État élu (qui va déléguer une partie de ses
pouvoirs à un gouvernement), le pouvoir législatif à un parlement élu,
et aucun des deux ni le pouvoir judiciaire n'a vraiment de suprématie
sur l'autre, ils sont censés agir chacun comme poids et contrepoids
(checks and balances) les uns contre les autres.
L'autre est le type parlementaire (modèles : le
Royaume-Uni, l'Allemagne et en fait la majorité des pays d'Europe),
qui conçoit l'exécutif comme émanant du législatif (lequel a
donc une forme de prééminence), c'est-à-dire que le gouvernement est
responsable devant le parlement et révocable par lui ; quant au chef
d'État, il est souvent largement symbolique et sans pouvoir fort (le
monarque du Royaume-Uni, le président allemand), typiquement limité à
des pouvoirs de représentation ou peut-être de facilitation de la
recherche d'une majorité parlementaire ou encore d'arbitre des
institutions.
[#3] Si vous voulez un
exemple d'originalité et que vous n'aimez pas les constitutions
françaises du Directoire et du Consulat (ce que je peux comprendre !),
regardez du côté des constitutions d'Athènes, de Sparte, de Rome, ou,
pour sortir des poncifs du genre, de
la confédération
iroquoise : c'est très intéressant. Je ne dis pas que ce
soit bien, mais c'est intéressant, et ça montre que plein
d'idées sur les modèles politiques peuvent être revues.
La France de la Ve République est un peu à cheval entre ces deux
types : le gouvernement est responsable devant le parlement, mais en
même temps il y a un chef d'État qui a des vrais pouvoirs, parce que
Charles de Gaulle ne voulait pas se limiter à jouer la partition des
présidents de Jules Grévy à René Coty. La France a, au cours de
ses N constitutions (N grand), joué avec toutes
sortes de combinaisons possibles entre l'exécutif et le législatif :
je ne vous refais pas le résumé
du billet déjà lié. Mais la
Ve République est parfois qualifiée de semi-présidentielle pour
cette raison. Si le président a une majorité à l'Assemblée nationale,
cette dernière joue le rôle de chambre d'enregistrement et le régime
fonctionne en pratique comme un régime présidentiel car le
gouvernement émane des décisions du président ; s'il a une
majorité contre lui, on est en cohabitation, le
Premier ministre est le personnage fort, et le régime fonctionne en
pratique comme un régime parlementaire car le gouvernement émane de la
majorité du parlement ; et s'il n'y a pas de majorité du tout… ben ça
fonctionne mal parce que cette Constitution de merde n'est pas du tout
prévue pour ce cas de figure. (Et parce que des grocervos avaient cru
trouver un mode de scrutin qui assurerait toujours une
majorité[#4] à l'Assemblée.)
D'où des reproches variés sur le fait qu'elle est trop présidentielle
(et qu'il faudrait la parlementariser) ou au contraire qu'elle est
trop parlementaire (et qu'il faudrait la présidentialiser).
[#4] Et en fait, parce
que les partis politiques français n'ont aucune culture de la
formation de coalitions, ils ne savent même pas essayer. Justement
parce qu'ils pensaient être à l'abri de cette éventualité.
☞ Discussion du cas parlementaire
Les lecteurs habitués de mon blog savent que j'ai une répulsion
particulière pour le pouvoir et ceux qui veulent l'exercer, et
notamment pour tout régime qui prétendrait mettre plein de pouvoirs
entre les mains d'une seule personne. (Maintenant, je conviens aussi
que la Constitution du Directoire, qui se donnait précisément comme
objectif d'éviter ça, n'a pas été un franc
succès[#5], et a conduit
d'ailleurs exactement au régime qu'elle voulait empêcher.) J'ai donc
tendance à préférer les régimes parlementaires en ce qu'il me semble
moins dangereux de confier plein de pouvoirs à un groupe qu'à une
seule personne : je ne prétends certainement pas que ce soit une
solution magique au problème de la personnalisation du pouvoir (et si
j'avais une solution magique, je m'empresserais de l'écrire ici).
Mais on peut au moins réfuter certaines idées fausses à leur
sujet.
[#5] On peut quand même
la défendre en disant que l'idée d'un chef d'état polycéphale, dont
le primus inter pares tourne fréquemment, ne
marche pas si mal en Suisse, dont la Constitution actuelle est en
bonne partie héritière de celle de la France du Directoire. Ceci
étant, je m'écarte un peu du sujet, parce que ni la Suisse actuelle ni
la France du Directoire ne sont facilement classifiables
en parlementaire ou présidentiel.
Je définis le régime parlementaire comme signifiant que l'exécutif
émane du parlement et est responsable devant lui. Mais dire
ça ne sigifie pas forcément que le gouvernement dispose à tout
moment d'une majorité absolue et tombe dès que ce n'est plus le
cas : c'est sûr que si on va imposer cette contrainte, les
gouvernements seront difficiles à constituer et forcément
instables.
Mais cette contrainte est totalement idiote : si on se
donne comme idéal (certainement souhaitable) que le parlement
représente l'ensemble des électeurs et agisse en son nom, c'est une
contrainte incroyablement forte (et certainement irréalisable en
France à l'heure actuelle) que d'imaginer que le gouvernement dispose
à tout moment d'une majorité absolue de l'électorat le soutenant. Ce
qu'on peut demander de façon plus réaliste, c'est qu'il n'existe pas
une majorité absolue qui préfère autre chose. Vérifier cette
contrainte sur l'ensemble de l'électorat est un peu
compliqué[#6], mais au
parlement c'est déjà plus réaliste.
[#6] On peut
certainement imaginer dans un régime politique d'avoir referendums
révocatoires constructifs : la possibilité pour l'électorat de
révoquer tel ou tel chef avant la fin de son mandat à condition qu'une
majorité absolue sorte des urnes non seulement pour mettre fin au
mandat du chef mais aussi pour le nom de la personne qui lui
succédera. Honnêtement, si on disait aux Français vous pouvez
mettre fin au mandat d'Emmanuel Macron, mais seulement en trouvant une
majorité absolue pour un nom pour le remplacer, je doute qu'il ait
beaucoup d'inquiétude à se faire sur son maintien à son poste.
☞ Une proposition
Ce que je propose[#7], donc,
c'est d'abandonner l'idée qu'un gouvernement soit forcément
majoritaire, et soutenu par une coalition majoritaire. D'abandonner
aussi les petits tripatouillages dans le système électoral censés
garantir l'existence d'une majorité au parlement (et qui marchent
assez mal) : donc, pensez plutôt un scrutin de type
proportionnel[#8]. Et en
contrepartie, de faciliter la stabilité des gouvernements
minoritaires, selon le principe : le gouvernement reste en fonction
tant que le parlement ne constitue pas une majorité absolue pour un
gouvernement différent (et même si cette majorité est éphémère, le
gouvernement restera en place jusqu'à ce qu'une majorité absolue se
dégage en faveur d'un autre gouvernement).
[#7] Le
verbe proposer doit se comprendre ici comme une proposition
intellectuelle. Ce n'est pas comme si on avait la moindre chance en
pratique de modifier cette Constitution de merde, et si ça devait se
faire on ne demanderait pas mon avis. (Je veux juste signaler que
j'en suis conscient : le verbe proposer ne doit pas être
compris comme suggérant le contraire.)
[#8] Je ne dis pas
qu'il doit forcément être strictement proportionnel (déjà, il
y a plein de variations autour de
ce mode de scrutin). À titre d'exemple, si on trouve qu'avoir trop de
partis rend le parlement inefficace on peut imaginer soustraire,
disons, 5% aux scores de toutes les listes avant de faire la
répartition à la proportionnelle (donc une liste qui fait moins de 5%
n'a pas de sièges, mais si quatre partis font 10%, 20%, 30% et 40%,
ils obtiennent respectivement 5/80 ≈ 6%, 15/80 ≈ 19%, 25/80 ≈ 31% et
35/80 ≈ 44% des sièges), ce qui revient en quelque sorte à donner une
prime de 5% à la fusion. On peut aussi inventer toutes sortes de
systèmes d'attribution des sièges au sein des listes pour assurer que
les élus aient quand même une sorte de « circonscription » même dans
un scrutin proportionnel. (Le système allemand fait ça, mais a ses
propres défauts. Mais cf. par
exemple ici
pour une idée simple.) Je ne développe pas parce que ce n'est pas
l'idée. Je veux juste dire que je préconise un scrutin au moins
grosso modo proportionnel, pas du tout ce qu'on a en France.
(Enfin, en ce moment, l'Assemblée nationale française
correspond à peu près à ce que donnerait uns scrutin proportionnel, et
il faut s'en réjouir au lieu de s'en lamenter.)
Deux situations, donc :
le cas normal : si un gouvernement existe déjà depuis le début de
la législature, le parlement ne peut le renverser que par le
vote d'une motion de censure constructive, c'est-à-dire en
choisissant un nouveau gouvernement (ou au moins, un nouveau chef de
gouvernement, qui nommera ensuite le reste du gouvernement) ;
en début de législature, ou si le gouvernement a démissionné, ou
si le chef du gouvernement est décédé : le
parlement élit le nouveau chef du gouvernement, selon un mode
de scrutin qui garantit un résultat en temps borné (et il
nomme ensuite les autres ministres).
Méta : Les billets de mon blog ont tendance à
devenir vraiment trop longs parce que je parle
de sujets graves et que j'ai
tendance à dumper mon cerveau dessus… or c'est un peu usant (mes
billets se finissent généralement au point où le sujet me sort par les
trous de nez), et ça me pousse à écrire de moins en moins de billets
ici, pendant que j'écris toutes sortes de petites conneries sans
intérêt sur Bluesky. Pour essayer de renverser un peu la tendance, je
vais m'efforcer d'écrire quelques petites conneries ici aussi.
Parlons donc d'un truc absolument sans intérêt, et sur lequel je
n'ai pas de compétence particulière : les noms des éléments chimiques.
Comme ça ça ne devrait pas être trop long. (Voix du
narrateur : …s'imaginait-il naïvement.)
Un truc que j'ai appris récemment
(via cette
vidéo[#]), c'est qu'en
chinois, chaque élément chimique (chaque élément de la table
périodique) a un nom qui consiste en un unique
idéogramme[#2], et (par
conséquent) une unique
syllabe[#3] (généralement une
approximation de la première syllabe du nom anglais).
[#] En fait,
rétrospectivement je me rappelle qu'un copain sinisant me l'avait déjà
dit en passant il y a très longtemps, mais ça m'avait semblé tellement
incroyable que j'avais dû penser ce n'est pas possible, j'ai mal
compris, et puis ça m'était sorti de la tête.
[#2] Comme il y a toujours un grocervo pour me
signaler qu'on « doit »(?) dire sinogramme, je reproduis un
argument que j'ai déjà exposé :
il n'y a pas plus d'inventer le terme de sinogrammes qu'on n'a
besoin de qualifier les hieroglyphes égyptiens d'égyptogrammes
ou les lettres de l'alphabet grec d'hellénogrammes. L'argument
vraiment complètement con donné par la Wikipédia en français est le
suivant : Les caractères chinois ne sont pas tous des
idéogrammes, contrairement à ce que suppose la désignation populaire.
Tous ne visent pas nécessairement à évoquer une idée. Il existe aussi
des pictogrammes, qui représentent directement un objet ou une scène,
et des idéophonogrammes, où le choix de la composition inclut la
phonétique. Passant sur le style tellement
Wikipédia-en-français-esque de désignation populaire, c'est
vraiment une vision ridiculement étriquée de ce qu'est une idée
que de prétendre qu'un objet n'est pas une idée (et c'est ouvrir la
porte à un ergotage complètement stupide sur la différence entre
représenter une pipe
ou représenter
l'idée d'une pipe), ou bien prétendre qu'on perd la notion d'idée
quand on y introduit une composante phonétique. Mais en l'occurrence,
de toute façon, le débat n'a pas lieu : les caractères chinois
représentant les éléments chimiques sont assez incontestablement des
idéogrammes.
[#3] Pour la complétude de ce billet, voici la liste des 103
(premiers, i.e., jusqu'au lawrencium), avec pour chacun l'idéogramme
et la prononciation utilisés en Chine continentale en mandarin
standard (dans sa transcription en pīnyīn) et le nom anglais de
l'élément :
氢 (qīng): hydrogen
氦 (hài): helium
锂 (lǐ): lithium
铍 (pí): beryllium
硼 (péng): boron
碳 (tàn): carbon
氮 (dàn): nitrogen
氧 (yǎng): oxygen
氟 (fú): fluorine
氖 (nǎi): neon
钠 (nà): sodium
镁 (měi): magnesium
铝 (lǚ): aluminum
硅 (guī): silicon
磷 (lín): phosphorus
硫 (liú): sulfur
氯 (lǜ): chlorine
氩 (yà): argon
钾 (jiǎ): potassium
钙 (gài): calcium
钪 (kàng): scandium
钛 (tài): titanium
钒 (fán): vanadium
铬 (gè): chromium
锰 (měng): manganese
铁 (tiě): iron
钴 (gǔ): cobalt
镍 (niè): nickel
铜 (tóng): copper
锌 (xīn): zinc
镓 (jiā): gallium
锗 (zhě): germanium
砷 (shēn): arsenic
硒 (xī): selenium
溴 (xiù): bromine
氪 (kè): krypton
铷 (rú): rubidium
锶 (sī): strontium
钇 (yǐ): yttrium
锆 (gào): zirconium
铌 (ní): niobium
钼 (mù): molybdenum
锝 (dé): technetium
钌 (liǎo): ruthenium
铑 (lǎo): rhodium
钯 (bǎ): palladium
银 (yín): silver
镉 (gé): cadmium
铟 (yīn): indium
锡 (xí): tin
锑 (tī): antimony
碲 (dì): tellurium
碘 (diǎn): iodine
氙 (xiān): xenon
铯 (sè): cesium
钡 (bèi): barium
镧 (lán): lanthanum
铈 (shì): cerium
镨 (pǔ): praseodymium
钕 (nǚ): neodymium
钷 (pǒ): promethium
钐 (shān): samarium
铕 (yǒu): europium
钆 (gá): gadolinium
铽 (tè): terbium
镝 (dī): dysprosium
钬 (huǒ): holmium
铒 (ěr): erbium
铥 (diū): thulium
镱 (yì): ytterbium
镥 (lǔ): lutetium
铪 (hā): hafnium
钽 (tǎn): tantalum
钨 (wū): tungsten
铼 (lái): rhenium
锇 (é): osmium
铱 (yī): iridium
铂 (bó): platinum
金 (jīn): gold
汞 (gǒng): mercury
铊 (tā): thallium
铅 (qiān): lead
铋 (bì): bismuth
钋 (pō): polonium
砹 (ài): astatine
氡 (dōng): radon
钫 (fāng): francium
镭 (léi): radium
锕 (ā): actinium
钍 (tǔ): thorium
镤 (pú): protoactinium
铀 (yóu): uranium
镎 (ná): neptunium
钚 (bù): plutonium
镅 (méi): americium
锔 (jú): curium
锫 (péi): berkelium
锎 (kāi): californium
锿 (āi): einsteinium
镄 (fèi): fermium
钔 (mén): mendelevium
锘 (nuò): nobelium
铹 (láo): lawrencium
C'est complètement dingue quand on pense que plein de mots chinois
extrêmement courants sont formés de deux caractères. La notion
de mot en chinois est fort épineuse
(voyez cette autre vidéo pour des explications) ; mais de façon
hyper simplifiée (et sous réserve que j'aie bien compris), comme les
évolutions phonétiques du chinois ont créé un nombre assez important
d'homonymes[#4], le chinois
tend à préférer les mots dissyllabiques, quitte même à ajouter un
caractère final qui ne veut pas dire grand-chose
(comme 子
(zǐ) : historiquement enfant mais ça semble assez vide
de sens maintenant) pour lever l'ambiguïté. Donc même un mot aussi
courant que 房子 (fángzi), maison, fait
deux syllabes, ce qui rend d'autant plus hallucinant d'avoir une seule
syllabe[#5] pour désigner
chacun du prométhéum, holmium, thulium et lutécium. C'est un peu
contraire au principe général
(cf. les codes
de Huffman) qui demande que les noms courants tendant à être plus
courts que les noms rares.
[#4] Le nombre de
syllabes en chinois mandarin standard n'est pas énorme, pas tellement
parce que le nombre de phonèmes est petit, mais parce que la
phonotactique est extrêmement contraignante. Je renvoie
à cette vidéo (plus
éventuellement sa suite
sur le dénombrement des phonèmes) et
aussi celle-ci plus détaillée sur le dénombrement et la
combinatoire des syllabes chinoises.
[#5] Avec évidemment
plein d'homonymes. Au sein même de la chimie, la
syllabe lǔ qui nomme le lutécium peut aussi lire
le caractère 卤, qui désigne, si je comprends
bien, un sel ou un halogène. Super.
Il serait fort logique d'ajouter un caractère
comme 素
(sù) (en gros, simple, élément) après chacun des
caractères des éléments chimiques pour former un mot dissyllabique qui
risquerait moins de causer ambiguïté, mais apparemment ce n'est pas ce
qui se fait. Comme je ne parle pas chinois, je ne sais pas comment
les gens s'en sortent en pratique, mais je soupçonne que les cours de
chimie doivent être assez difficiles à
suivre[#6].
[#6] Vous pouvez me
rétorquer qu'en français, en chimie, les éléments sont souvent
désignés par leur sigle standardisé à deux lettres (non seulement à
l'écrit, mais même à l'oral) : NaCl
(prononcé ène-a-cé-èle) plutôt que chlorure de sodium,
parce que c'est plus court à dire. N'empêche que ça fait quand même
typiquement deux syllabes par éléments.
Évidemment ceci soulève toutes sortes d'autres questions que je
n'ai pas eu le temps de fouiller (j'ai dit que je cherchais à faire un
billet pas trop long, hein !) : comment ça se passe dans d'autres
variétés de chinois, à quelle époque ces noms et caractère ont été
inventés, comment et par qui. Et aussi, comment fonctionne la
nomenclature chimique en chinois de façon plus
générale[#7]. Et s'il y a
d'autres langues[#8] qui, comme
le chinois, ont décidé de créer des noms locaux pour tous les
éléments chimiques, même les plus rares.
[#7] Pour la chimie
organique, la réponse est plus ou
moins ici :
manifestement, toute la terminologie
systématique IUPAC (utilisée dans toutes(?) les
autres langues du monde) a été calquée en chinois, mais avec des
caractères chinois ad hoc. Par exemple, le nom systématique de
l'acide citrique, soit acide 3-carboxy-3-hydroxypentanedioïque,
s'écrit en chinois 3-羧基-3-羟基戊二酸 et se
prononce, je crois, sān wèi suōjī sān wèi qiǎngjī wù
èr suān : les différentes parties calquent les parties du nom
international, dans le même ordre (sauf qu'acide est à la fin,
évidemment, comme en anglais), mais tout est fabriqué à partir de
termes chinois. ❧ Mais maintenant je me demande ce que le chinois fait
pour les noms des médicaments : je vois par exemple sur Wikipédia que
l'érythromycine se dit en chinois 红霉素
(hóngméisù) (ah ben là ils ont bien voulu
utiliser 素, tiens), les caractères signifiant
quelque chose comme rouge-bactérie-élément, le rouge correspondant
clairement au préfixe d'origine grecque erythro-. Mais ils
invent un nom chinois pour absolument chaque nouveau médicament qu'on
met sur le marché ? Ah ben non, le lanréotide
s'appelle 兰瑞肽 (lánruìtài), et cette fois-ci
les deux premiers caractères, qui signifient quelque chose comme
orchidée-propice, sont juste une transcription du début de la
dénomination commune internationale, et le troisième semble être la
manière dont le chinois rend les noms en -tide. J'arrête
d'investiguer avant de tomber dans un labyrinthe de questions dont je
resterai à jamais prisonnier.
[#8] Adapter le nom
international semble le plus évident, mais… que fait-on dans les
langues des signes ? Comment signe-t-on le lutécium en langue des
signes française, par exemple ? D'ailleurs, comment signe-t-on
l'acide 3-carboxy-3-hydroxypentanedioïque ? Que de questions !
⁂
Bon, mais en fait, mon but n'était pas de parler du chinois.
Parce que vous voyez, cette idée à la con de donner des noms aux
éléments chimiques même ultra rares et qui ne servent à rien, il n'y a
pas que le chinois qui l'ait.
Vous avez entendu parler
du tennesse[#9] et de
l'oganesson ? Vous avez déjà entendu ces mots ? Probablement
pas. Ce sont les noms des éléments chimiques de numéros atomiques 117
et 118 : ils n'existent pas dans la nature, on a juste réussi à en
synthétiser un ou deux isotopes en laboratoire (le tennesse-293, le
tennesse-294 et l'oganesson-294), et ils se désintègrent en quelques
dizaines de millisecondes pour le tennesse-293 et -294, en une
fraction de milliseconde pour l'oganesson-294. (Il est plausible
qu'il y ait des isotopes à durée de vie plus longues de l'un ou
l'autre avec plus de neutrons, je vais y revenir, mais en tout cas ça
a peu de chances d'être bien long.) Quoi qu'il en soit, il n'en
existe probablement pas un seul atome dans tout le système solaire au
moment où je suis en train d'écrire ceci.
[#9] Moi si on me parle
du tennesse, je comprends tennis, donc c'est sans doute
le même genre d'ambiguïté à la con qu'en chinois.
Tout ça est complètement ridicule.
Pas ridicule de synthétiser ces trucs, entendons-nous bien. Ça
c'est une expérience scientifique qui a peut-être de la valeur, je ne
peux pas juger. En tout cas je ne la critique pas. Mais de leur
donner un nom comme un élément chimique : un nom arbitraire, qui n'a
aucune histoire et aucune connexion avec les propriétés de l'élément,
et qui constitue un truc gratuitement pénible à mémoriser si on décide
de s'en servir.
C'est ridicule en chinois : on a créé en 2017 deux
idéogrammes, 鿬 et 鿫, prononcés
respectivement tián et ào
(et comme évidemment personne ne connaît ces idéogrammes, puisque ce
sont des néographismes, Wikipédia doit indiquer leur prononciation en
pīnyīn au-dessus — que personne ne doit comprendre non plus, parce que
ce n'est pas plus fréquent de parler te tennesse et d'oganesson en
chinois qu'en français). Mais c'est exactement aussi ridicule en
français, en anglais, ou en papou. Ces machins ne méritent pas de
nom. On peut très bien les appeler l'élément 117
et l'élément 118, parce que c'est ce qu'ils sont, et c'est
exactement ce qu'on veut savoir d'eux, le nombre de protons (enfin,
plutôt, on veut le nombre de nucléons, mais je vais y revenir).
Les théoriciens des particules avaient, il y a longtemps, la
fantaisie de donner un nouveau nom à chaque fois qu'ils trouvaient un
nouveau baryon. Enrico Fermi s'en serait plaint : si j'étais
capable de retenir les noms de toutes ces particules, je serais devenu
botaniste (la citation
est possiblement
apocryphe). Maintenant, quand on trouve une nouvelle résonance
mésonique, on lui donne un code systématique
comme f₀(2470)
(le numéro est pour dire qu'elle se situe autour de 2470MeV), on ne
lui donne pas un petit nom douillet comme globilobutulon, qui
embêterait le pauvre Monsieur Fermi à retenir.
Il serait de même temps d'arrêter ce délire de donner des noms aux
« éléments » chimiques qui, en vrai, n'existent pas chimiquement (je
vais donner plus bas des critères précisant ce que
j'appelle exister chimiquement).
Il y a un système qui n'est pas trop mal si on veut vraiment donner
des noms, c'est de fabriquer le
nom de
façon systématique à partir du numéro atomique : le tennesse
est ununseptium parce que c'est l'élément 117 et l'oganesson
est ununoctium parce que c'est le 118. Des noms parfaitement
sensés, mais je ne sais pas quelles andouilles ont décidé qu'ils ne
pouvaient servir que comme noms temporaires et qu'une fois que
l'élément est confirmé il doit recevoir un nom trivial (c'est-à-dire
celui qui est complètement arbitraire, ridicule et impossible à
retenir).
Je veux dire, ce n'est pas comme la botanique (pour revenir à la
citation peut-être-de-Fermi) : en biologie, il n'y a pas de moyen
systématique de nommer les espèces, donc on est obligé
d'inventer des noms quand on découvre des espèces ; et quand on le
fait, on peut au mois essayer que le nom évoque un peu les propriétés
de l'espèce. En chimie, c'est le
contraire[#10] : il y a un nom
systématique évident, c'est le numéro atomique (éventuellement
converti en un mot comme ununoctium), et il n'y a aucune
propriété sur laquelle on pourrait baser un nom, parce que ces
éléments existent tellement peu qu'on ne peut pas observer quoi que ce
soit à leur sujet, en tout cas rien sur le plan chimique, donc le nom
est juste complètement arbitraire et sert simplement à faire plaisir à
l'ego de l'équipe[#11] qui l'a
découvert.
[#10] Il y a un autre
cas que je pourrais évoquer, c'est l'astronomie. On a heureusement
arrêté de donner des noms aux étoiles et galaxies : on les nomme juste
par un numéro de catalogue. Par contre, je crois qu'on continue à en
donner (en épuisant tous les panthéons mythologiques possibles) à
n'importe quel caillou de merde qu'on trouve en train de tourner dans
le système solaire. Pourtant, le caillou, il n'a aucune propriété à
part d'être un caillou de merde en train de tourner autour d'une
planète ou du soleil. Il serait temps de comprendre que les noms
mémorables sont une ressource rare contrairement aux entiers
naturels qui n'en sont pas et de donner aux cailloux de merde des
noms systématiques, c'est-à-dire juste des numéros. Arrêtez de
prétendre qu'on a trouvé une 1729e lune à Jupiter : ce ne sont pas des
lunes, ce sont des cailloux de merde, on sait que Jupiter a un nombre
essentiellement infini de cailloux de merde qui tournent autour
puisqu'il a des anneaux, alors donnez-leur juste des numéros.
Franchement, Thelxinoé et Valétudo, c'est d'un
grotesque ! (Oui, oui, ce sont vraiment des noms de cailloux de merde
qui tournent autour de Jupiter.)
[#11] Et/ou de la
personne en l'honneur de qui il est nommé. Là j'ai un autre problème,
en fait : il ne faut pas nommer des choses après des gens.
Ne serait-ce que parce que c'est ouvrir le risque de découvrir
d'horribles choses sur cette personne et d'être super embarrassés de
devoir renommer le truc (ou de ne pas pouvoir, comme cette pauvre
bestiole qui
a reçu le
nom d'Anophthalmus hitleri en l'honneur de vous-voyez-qui).
Il n'y a pas de criminel de guerre honoré dans la table périodique,
que je sache, mais il y a au
moins le type
qui a poussé Staline sur la course à l'arme nucléaire (c'est lui qui a
fait cette observation célèbre que les Américains avaient soudainement
cessé de publier sur la physique nucléaire et a déduit de ce silence —
comme dans
une histoire
de Sherlock Holmes où le fait qu'un chien n'aboie pas est
significatif — qu'un programme secret avait sans doute été lancé),
qu'on peut sans doute trouver contestable.
Mon problème essentiel avec ces noms, ce n'est pas juste qu'ils
sont impossibles à retenir : c'est aussi que ces éléments n'ont pas de
propriétés chimiques puisqu'il n'en existe pas assez, ou pas assez
longtemps, pour faire de la chimie.
Voici quelques critères que je propose pour pouvoir dire qu'un
élément existe vraiment, chimiquement :
Le strict minimum : au moins un isotope connu doit avoir une
demi-vie supérieure à 15min. Pourquoi 15min ? Parce que c'est la
demi-vie du neutron (qui est, si on veut, un isotope radioactif
du nilium, l'élément chimique de numéro atomique 0). Le
neutron est la particule ayant la demi-vie la plus longue (finie, ou
en tout cas plus courte que celle éventuelle du proton), et on ne lui
donne pas de nom chimique, donc il marque la séparation entre la
physique nucléaire ou des particules et la chimie.
On doit avoir réussi à en rassembler (i.e., à en synthétiser) au
moins 22µg. Pourquoi 22µg précisément ? Parce que c'est la masse de
Planck, qui marque la séparation entre la physique microscopique et la
physique macroscopique. (Oui, c'est une limite un peu arbitraire,
mais elle est quand même raisonnable.)
On doit avoir réussi à mesurer expérimentalement son point de
fusion ou d'ébullition à pression ambiante, ou bien à en fabriquer au
moins 22µg d'un composé chimique. Ces critères sont le strict minimum
pour considérer qu'on commence à faire de la physique ou de la chimie
sur cet élément.
Je ne sais pas quel est le dernier élément qui passe ces trois
tests (ni, d'ailleurs, quel est le premier qui ne les passe pas), mais
je suis sûr que l'oganesson ne vérifie aucun des trois. Je ne
prétends pas que mes critères soient parfaits (le second doit
certainement impliquer le premier dans la pratique), mais on voit un
peu le genre de choses qui me fait dire que l'uranium est un vrai
élément chimique et que le tennesse n'en est pas un.
Ajout () : Un des petits
elfes magiques qui lit ce blog
a fait
le boulot (voyez le lien que je viens de donner ainsi que le
commentaire sur ce billet signé Autre touriste et
daté ) et la conclusion
implacable est que les éléments dont Z<100 sont de
VRAIS éléments vérifiés par de vrais patriotes américium, et ceux
dont Z≥100 sont des arnaques manigancées par Big Cyclotron
pour vendre plus de tableaux périodiques. Merci pour ce
travail !
Mais mon problème n'est pas juste là. C'est qu'en fait ces trucs,
s'ils n'existent pas chimiquement, existent du point de vue de la
physique nucléaire (enfin, leurs noyaux, quoi), et on doit les
considérer de ce point de vue-là.
Or du point de vue de la physique nucléaire, la quantité la plus
importante, ce n'est pas le nombre de protons dans le noyau, c'est le
nombre total de nucléons (protons+neutrons) : pour les interactions
fortes (dans le noyau), le proton et le neutron sont en gros deux
états (deux isospins) d'une même particule, le nucléon. Donc
il faut changer le point de vue : on n'a pas des isotopes de tel ou
tel élément (nombre de protons fixé, nombre de neutrons variable),
mais on a des formes d'isospin d'un noyau de tel ou tel nombre de
nucléons (nombre de nucléons fixé, répartition entre protons et
neutrons variable, sachant qu'il y en aura en gros une qui sera
optimalement stable pour la désintégration β⁺/β⁻). En gros il faut
regarder les tables
de cette
page et surtout les antidiagonales sur ces tables. Déjà sur des
éléments qui « existent vraiment » chimiquement, c'est abusif de
parler des chaînes
de désintégration du thorium, du neptunium, de l'uranium et de
l'actinium — ce sont les chaînes des nucléides 232, 237, 238 et 235
(et en fait, 4n, 4n+1, 4n+2 et
4n+3 puisque le nombre de nucléons change par un multiple
de 4 lors des désintégrations α). Mais pour les éléments qui n'ont
aucune chimie, le nombre de protons est une distraction.
Donc cette histoire de donner des noms aux éléments en fonction du
nombre Z de protons induit une sorte de distortion
scientifique (au moins potentielle) : il y a une course à fabriquer
les nucléides avec le Z le plus élevé possible, puisque
c'est ça qui vous donne une place dans le tableau périodique et un nom
qui va avec, donc la célébrité, alors que ce qui compte surtout dans
ce domaine est le nombre A=Z+N total
de nucléons (ou peut-même surtout le nombre N de neutrons).
La course à Z diminue l'incitation à fabriquer des noyaux
avec plus de neutrons. Or
de ce que
je comprends, les éléments hyper-lourds synthétisés manquent de
neutrons par rapport à l'optimum de stabilité pour la
désintégration β⁺/β⁻ : ça semble bien plus intéressant (et aussi plus
difficile…) d'arriver à synthétiser du flérovium-298 (114 protons, 184
neutrons), qui pourraient probablement passer le premier de mes trois
critères, que des noyaux à Z très élevé, qui ne le passent
certainement pas. C'est ainsi que cette manie idiote de donner des
noms aux éléments qui ne devraient pas en avoir est peut-être bien en
train de fausser un peu un enjeu scientifique en encourageant la
course aux protons plutôt que la course aux neutrons.
Merde, même quand je choisis un sujet
complètement sans intérêt et sur lequel je n'ai absolument rien à
dire, j'arrive quand même à en écrire des pages. Je me fatigue.
Personne ne sait ce que c'est que la liberté d'expression
Il y a peu de termes susceptibles de causer autant de confusion
dans un débat politico-philosophique que liberté d'expression.
Ce n'est évidemment pas le seul dont la définition soit sujette à de
larges variations, mais la difficulté additionnelle est qu'ici
elle semble être claire et simple : quelque chose comme la
liberté d'expression est le principe qui dit qu'un individu doit
pouvoir exprimer et communiquer ses idées, convictions et opinions
librement, sans censure, sans crainte de représailles et sans encourir
de sanction. Voilà le genre de définition qui semble claire et
qui ne veut, en fait, absolument rien dire tellement chaque mot qui la
constitue est sujet à mille et une interprétations.
(Pour dévoiler à l'avance mes intentions, mon propos dans ce billet
n'est certainement pas de nier l'importance de la liberté
d'expression : si je devais établir un classement des droits
fondamentaux elle serait certainement vers le haut de la liste. Mon
but n'est pas non plus de faire de reproches aux gens qui tentent de
tirer son acception dans telle ou telle direction : j'ai moi-même
une interprétation que je crois plutôt large du terme — mais comme je
vais le dire, il y a toutes sortes de directions différentes où on
peut chercher à en élargir les limites. Mais je pense que tout débat
sur ces questions ne peut que tourner au dialogue de sourds, voire au
sophisme calculé, si on vit dans l'illusion que liberté
d'expression désigne un concept à peu près clair au lieu d'être
tout un territoire dans lequel il faut bien marquer, quelque part, ce
qui est légitime et ce qui ne l'est pas, et qu'on ne peut le faire que
sur le fond et pas en prétendant que ça tombe sous l'évidence suggérée
par une formule avec laquelle tout le monde est censé être d'accord.
Je précise aussi que je ne prétends pas parler ici au sens juridique —
ou du moins pas exclusivement dans ce sens — mais de l'usage de
l'expression dans tous les cadres où on peut l'utiliser : certainement
pas juste quand on parle de ce que la liberté d'expression est,
selon la loi mais aussi et surtout de ce qu'elle devrait être
idéalement ; i.e., la question n'est pas tant juridique qu'elle
est politique, éthique, sociologique, etc.)
Si on se tourne vers la Déclaration des droits de l'homme et du
citoyen de 1789 (article 11), on n'est pas bien éclairé : La libre
communication des pensées et des opinions est un des droits les plus
précieux de l'homme : tout citoyen peut donc parler, écrire, imprimer
librement, sauf à répondre de l'abus de cette liberté dans les cas
déterminés par la loi. OK, donc on a le doit de
faire des choses sauf quand on n'a pas le droit de les faire, c'est
très utile ça, merci beaucoup. (Bon, je suis un peu de mauvaise foi,
ça nous dit au moins que les limites doivent être tracées à l'avance
par la loi. Mais ça laisse à cette fameuse loi le soin de décider ce
qui est un abus, donc, finalement, de définir le concept.)
C'est à peine plus clair dans la Déclaration universelle des droits
de l'homme (article 19) : Tout individu a droit à la liberté
d'opinion et d'expression, ce qui implique le droit de ne pas être
inquiété pour ses opinions et celui de chercher, de recevoir et de
répandre, sans considérations de frontières, les informations et les
idées par quelque moyen d'expression que ce soit. Vous avez ce
droit, mais on ne dit pas exactement en quoi consiste ce droit. On
vous en donne cependant un corollaire, ce qui est déjà bien, mais le
mot inquiété est un chouïa vague. Bon, ce texte ne prétend pas
avoir une portée normative mais aussi être un idéal commun à
atteindre par tous les peuples et toutes les nations, donc il est
peut-être normal qu'il soit plus vague.
L'article 10 de la Convention européenne des droits de l'homme
tente d'être plus précis, mais il est un peu bizarre : il commence par
un énoncé vague (mais un peu moins vague que les
précédents) : Toute personne a droit à la liberté d'expression. Ce
droit comprend la liberté d'opinion et la liberté de recevoir ou de
communiquer des informations ou des idées sans qu'il puisse y avoir
ingérence d'autorités publiques et sans considération de frontière
(le mot publiques ici apporte une restriction énorme, et je
vais y revenir) ; après ça, on a plein de restrictions un peu ad hoc
(permettant d'imposer certaines formalités, conditions,
restrictions ou sanctions prévues par la loi, qui constituent des
mesures nécessaires, dans une société démocratique, à la sécurité
nationale, à l'intégrité territoriale ou à la sûreté publique, à la
défense de l'ordre et à la prévention du crime, à la protection de la
santé ou de la morale, à la protection de la réputation ou des droits
d'autrui, pour empêcher la divulgation d'informations confidentielles
ou pour garantir l'autorité et l'impartialité du pouvoir
judiciaire). Certaines de ces restrictions à la liberté
d'expression sont étroites (il peut y avoir un régime d'autorisations
pour la télévision, soit, c'est juste un peu technique), d'autres
dangereusement vagues (la morale ‽). Mais au moins on sent une
tentative d'être plus clair.
Je pourrais encore citer la Constitution de l'Afrique du Sud (c'est
une référence parce que c'est une constitution moderne et que son
énonciation des droits fondamentaux est une des plus développée du
monde), article 16 : 1. Everyone has the right to
freedom of expression, which includes: a. freedom of the press and
other media; b. freedom to receive or impart information or ideas;
c. freedom of artistic creativity; and d. academic freedom and freedom
of scientific research. 2. The right in subsection (1) does not
extend to: a. propaganda for war; b. incitement of imminent violence;
or c. advocacy of hatred that is based on race, ethnicity, gender or
religion, and that constitutes incitement to cause harm. Là
aussi, il y a une tentative intéressante pour mettre certaines
limites, positives dans l'alinéa (1) (la liberté d'expression inclut
certaines choses), négatives dans le (2) (elle n'inclut pas ces autres
choses), mais ce sont plutôt des exemples qu'une vraie définition, et
dans toutes sortes d'autres directions on reste dans le vague.
Bon, on va me dire, c'est à tort que je me tourne vers des textes
énonçant des droits fondamentaux pour trouver leur définition : ça a
toujours été le rôle des cours de justice de tracer les contours
précis d'un concept qu'il est difficile de définir en peu de mots. Je
conviens que si on dit quelque chose comme la liberté d'expression
telle qu'elle résulte de la jurisprudence de la Cour européenne des
droits de l'homme, alors c'est un concept raisonnablement bien
défini. C'est évidemment à ça qu'il faut se référer si on parle de ce
que le droit est (remplacer cette cour par telle ou telle
autre selon la juridiction dont on parle) ; mais si la discussion
porte sur ce que le droit devrait être
(coucou,
Monsieur Hume), on ne peut pas se référer à la jurisprudence de
telle ou telle cour. À moins qu'on ait envie de laisser les juges
créer le droit de toutes pièces, il serait bien d'avoir un minimum de
compréhension du concept.
La version la plus étroite de la liberté d'expression est quelque
chose comme ceci : si je dis ou écris ce que je pense de tel ou tel
sujet (sans y mettre d'insulte ou d'attaque personnelle ni de propos
haineux ou injurieux, sans révéler d'information confidentielle, et
en-dehors de toutes sortes de limites de ce genre), alors les pouvoirs
publics ne peuvent pas me condamner, ou me m'infliger de sanction
pénale (p.ex., me mettre en prison) à ce titre.
Le problème avec cette version étroite, c'est qu'elle est tellement
minimale que même des régimes franchement dictatoriaux doivent pouvoir
s'arranger pour la vérifier formellement. D'abord il y a les
limitations sur le contenu (la poussière que j'ai glissée sous le
tapis en écrivant toutes sortes de limites de ce genre : il
suffit de mettre des choses comme la morale ou la sécurité
nationale pour pouvoir interdire en gros n'importe quoi). Mais il
y a aussi, et c'est ce qu'on a tendance à oublier alors que je pense
que c'est plus important, les limitations sur le type de
répercussion : pas de condamnation ou de sanction pénale.
Ceci laisse par exemple au moins la possibilité d'une action civile
(on peut faire taire beaucoup de gens avec des actions en
diffamation[#]). Mais aussi de
conséquences non juridiques ou non directement justiciables : vous
avez critiqué le régime ? vous n'irez certes pas en prison, mais votre
journal cessera d'être autorisé, vos compte sur les réseaux sociaux
seront suspendus, vos pages Web seront déréférencées, vous perdrez
votre emploi. On peut aussi vous soumettre à toutes sortes de
tracasseries qui n'ont en principe rien à voir avec ce que vous avez
écrit, et tout d'un coup découvrir que vous aviez mal déclaré vos
revenus ou payé vos impôts.
[#] Oui, en France et
dans divers autres pays, la diffamation est une
infraction pénale, ce qui me semble proprement indéfendable ;
mais même dans des pays où elle est de l'ordre du droit civil, elle
est un outil fantastique pour faire taire toutes sortes de critiques
contre les puissants.
L'époque où on mettait les gens en prison pour ce qu'ils écrivaient
n'est pas complètement finie, mais les forces autoritaires ont
découvert toutes sortes d'autres moyens plus subtils, et tout aussi
efficaces, pour faire taire les critiques. Si bien que la définition
minimale que je propose ci-dessus est tellement limitée qu'elle n'a
quasiment aucun intérêt.
Et une grosse tache aveugle de la définition de la liberté
d'expression est aussi, bien sûr, celle de de qui elle cherche à
limiter le pouvoir et l'arbitraire.
À l'époque des Lumières, on pensait essentiellement au roi, à
l'État. Mais ce n'est pas le seul censeur possible. Dès que
quelqu'un a du pouvoir sur un autre (donc la possibilité d'exercer des
représailles), ou un contrôle technique sur ce qu'il écrit, il peut
devenir censeur.
Concrètement : est-ce que la liberté d'expression protège le droit
d'un employé de critiquer (à titre personnel) son employeur ? (Je
prends l'exemple du rapport employeur-employé parce que c'est le plus
évident dans lequel il y a un rapport de pouvoir, mais on peut
imaginer toutes sortes d'autres situations entre acteurs privés,
individuels ou collectifs, où il y a, au moins parfois, un tel
rapport : un étudiant est-il protégé dans son droit de critiquer ses
enseignants ? un client est-il protégé dans son droit de critiquer
ses fournisseurs, ou vice versa ? un auteur est-il protégé dans son
droit de critiquer son éditeur ? un locataire est-il protégé dans son
droit de critiquer son bailleur ? et ainsi de suite.)
Il n'y a pas grand intérêt à défendre un grand principe de liberté
d'expression contre l'État si on ne défend pas ce même grand principe
contre tous ceux qui, en pratique, pourraient limiter la
possibilité concrète de s'exprimer. Si je peux sans crainte dire que
le président du pays est un nul mais que je ne peux pas le dire du
président de la boîte qui m'emploie, ce n'est pas très utile, en fait,
comme notion.
Je reviens récemment de dix jours de vacances à
Toronto avec mon poussinet. Comme je suis de ceux qui voyagent
extrêmement peu[#1] tant je
n'aime pas ne pas être chez moi, et
je ne prends quasiment jamais de
vacances[#2], c'est, en soi,
assez remarquable pour être signalé. Mais Toronto n'est pas pour moi
juste une ville nord-américaine quelconque, c'est une ville à laquelle
j'ai un certain attachement (disons au moins que c'est la seule du
continent que je puisse prétendre connaître un petit peu), et j'ai de
la famille dans le coin.
[#] La précédente fois
que j'avais pris un vol long courrier,
c'était en 2014 pour aller à
New York.
[#2] Pas juste parce
que je n'aime pas voyager, mais aussi parce que les « vacances » sont
un peu une arnaque : la pile de choses pénibles que je dois faire
continue à grandir exactement au même rythme que j'aie posé des jours
de congés ou pas, donc espérer que prendre des vacances puisse être
relaxant, dans ces conditions, est illusoire.
Méta : Ce billet est, comme à mon habitude, fort
long, puisque je rassemble un peu tout ce qui me passe par la tête.
Si vous voulez juste un compte-rendu avec quelques photos,
sautez plus bas. ❧ Par ailleurs,
je fais des liens vers OpenStreetMap pour désigner certains endroits
dont je parle, et j'essaie d'utiliser autant que possible le même
centrage de la carte (ou un petit nombre de centrages différents) pour
aider à comparer les endroits, mais comme je ne connais pas la taille
de votre navigateur, si votre fenêtre est petite il faudra parfois
dézoomer un peu pour trouver le marqueur qui signale l'endroit dont je
parle.
☞ Mes précédentes visites à Toronto
Je suis déjà allé à Toronto, donc, mais ça remonte à longtemps, et
on ne peut pas non plus dire que j'y suis sois allé souvent. J'y ai
vécu un an, entre l'été 1984 et l'été 1985 (j'avais 8 ans, et j'y
ai été à l'école, en 3e année d'école primaire donc). Puis j'y suis
retourné à l'été 1988 (environ un mois, mais je ne sais plus
exactement). Puis de nouveau à l'été 1995 (je crois que j'y ai passé
une semaine, suivie d'une autre semaine à
Ottawa[#3]). Et la dernière
fois avant celle-ci, c'était en
avril 2007[#4] où j'y étais
allé dix jours pour voir mon poussinet (qui faisait, lui, un stage de
cinq mois à l'Université de Toronto). Ceci étant, comme je l'avais
écrit dans mon billet sur le passage du
temps (note #3),
l'impression que j'ai dans ma tête est que ces passages à Toronto se
rapprochent dans le temps alors qu'en réalité ils s'éloignent : et
j'ai du mal à me rendre compte que ça faisait plus de 18 ans que je
n'y avais pas mis les pieds.
[#3] Pro-tip : ne
passez pas une semaine à Ottawa. Autant une semaine à Toronto c'est
facile à meubler, autant une semaine à Ottawa c'est signer pour un
ennui profond.
[#4] On voit que
j'évite soigneusement de passer l'hiver à Toronto. (Et le seul hiver
que j'y ai passé, celui de 1984–1985, a je crois été plutôt doux,
alors qu'en
France il
a été très froid, donc on va dire que j'ai quand
même de la chance.) Mais même en
avril 2007 j'ai trouvé qu'il faisait insupportablement froid, et j'ai
dû m'acheter une paire de gants sur place. Cette fois-ci nous avons
eu beaucoup de chance avec le temps, parce que peu avant notre arrivée
il faisait très désagréablement chaud (et humide), mais nous avons eu
un temps extrêmement plaisant (à part une seule matinée pluvieuse) :
ensoleillé et ni trop chaud ni trop froid. La période de fin août et
début septembre est sans doute le meilleur moment pour visiter cette
ville (au moins pour ce qui est de la météo, et si, comme moi, on
n'aime ni le chaud ni le froid).
☞ À la recherche des changements
Mais peut-être justement qu'on comprend mieux un
endroit si on n'y vient que rarement, parce que c'est l'occasion de
remarquer des changements que les locaux, qui vivent le changement
graduel et donc ne le voient pas forcément. Indéniablement, Toronto a
beaucoup changé en 18 ans, surtout parce qu'il s'est construit
beaucoup de nouveaux gratte-ciel, surtout à proximité du lac Ontario.
Pour illustrer ce point, j'ai d'ailleurs essayé de couper, ci-contre,
une de mes photos prises ce mois-ci dans les mêmes proportions que
celle avec laquelle j'avais
illustré mon billet
de 2007[#5].
[#5] Le point de vue
n'est cependant pas exactement le même, comme on l'aura remarqué (la
photo de 2025 est prise
depuis ici ;
celle de 2007 a dû être prise depuis
environ là,
même si je n'avais pas de GPS à l'époque pour noter
précisément l'emplacement). Donc la comparaison n'est pas parfaite.
Mais ça donne quand même une bonne idée du changement.
Évidemment, ce n'est pas évident de savoir, quand je ne
reconnaissais pas un endroit, si c'était parce que l'endroit avait
changé en 18 ans (voire 30, parce que parfois mon dernier passage à
tel endroit remontait à ma visite de 1995) ou si c'était parce que ma
mémoire[#6] avait déformé les
choses. Je crois que ma façon de visiter, qui tournait parfois au
pèlerinage sur des lieux vus précédemment mais pas forcément
intrinsèquement intéressants, a parfois agacé mon poussinet, mais il a
accepté de supporter les radotage de son copain sur le bon vieux temps
(alors tu vois, c'est à cet endroit qu'en 1988, <anecdote
absolument sans intérêt pour qui ne l'a pas vécue>). Lui-même
n'était même pas tellement intéressé à revoir la maison où il avait
séjourné quelques mois en 2007, et c'est moi qui ai insisté.
[#6] C'est toujours
traître, la mémoire : je peux garder un souvenir incroyablement précis
d'un détail mineur, et inventer complètement toutes sortes de choses
autour. S'agissant de la géographie, cependant, l'effet typique est
de comprimer les distances : je vais me rappeler précisément deux
endroits A et B, et pas tout l'espace entre eux,
donc dans ma tête ils seront côte à côte, et que je revois les lieux
dans la réalité, je suis tout surpris de constater l'existence d'un
écartement que j'avais mentalement complètement occulté. (Or il est
certain que si Toronto a changé, l'espacement entre deux endroits
donnés n'a pas dû bouger, la constante de Hubble n'est pas si
importante que ça.)
Un exemple parfaitement sans intérêt pour donner une idée de ma
façon de traquer le passé. Il y avait dans un parc du côté de
l'Université de Toronto (je peux maintenant dire que
c'était ici,
dans le parc de Hart House Circle) quatre sculptures un peu
mystérieuses (sculpture n'est pas terrible, mais je ne sais pas
quel mot utiliser : marqueurs, peut-être ?) : trois en forme de
pyramides creuses, et une en forme d'obélisque ; ces quatre trucs
étaient alignés, du plus petit (l'obélisque) au nord au plus grand au
sud. Je les avais remarqués quand j'étais petit, et je m'étais
demandé à quoi ils servaient ou s'ils avaient un sens particulier.
Puis j'avais fini par comprendre : ils étaient positionnés de sorte
que les sommets des quatre fussent précisément alignés avec le sommet
de
la tour CN
(haute de 553m, restée très longtemps la plus tour du monde, et qui
domine et caractérise le paysage torontois), de sorte que si on
plaçait son œil au bon endroit on voyait un alignement très
satisfaisant.
(Voyez ici
et là
les photos que j'en ai prises en 2007.) En 1995 j'étais tout content
de montrer cette petite curiosité de la ville à l'ami avec qui je
voyageais (j'ai eu un petit peu de mal à la retrouver), et en 2007 je
l'ai montrée à mon poussinet. Cette fois-ci, pas moyen de les
retrouver. (Pour le coup, je ne pouvais avoir aucun doute de leur
existence, mais je n'étais plus sûr de l'endroit.) Après
investigation, j'ai eu confirmation du fait que je cherchais bien au
bon endroit, mais les marqueurs ont disparu : ils existaient encore en
2019 (on
peut les
voir sur Google Street View, mais
on m'a
dit qu'ils n'étaient plus là en 2022).
J'ai tendance à être un peu obsédé, comme ça, à retrouver les
choses du passé, à comprendre exactement ce qui a changé et comment, à
enquêter sur quand et pourquoi.
Déjà en 2007 j'avais traîné mon poussinet dans une balade que mon
papa et moi faisions régulièrement en 1984–1985, pour tâcher de
retrouver par où nous passions (dans une des ravines que compte
Toronto et qui reste un petit coin de verdure bizarrement isolé au
milieu de la ville : en gros
de là
à là,
même si je n'ai pas réussi à retrouver exactement quel était
l'itinéraire[#7]), et
maintenant j'ai de nouveau traîné mon poussinet pour retrouver à la
fois l'itinéraire d'origine et aussi l'itinéraire que nous avions
suivi en 2007 pour retrouver celui
d'origine[#8].
[#7] Nous descendions
dans la ravine
de Yellow
Creek (Avoca Ravine) typiquement au niveau de St. Clair Ave, et
ensuite nous suivions le ruisseau vers l'aval. Mais en gros au niveau
de son confluent avec le Don
(celui-ci,
évidemment,
pas celui-là),
on arrive dans un dédale très difficile à naviguer entre les rivières,
plusieurs routes compliquées à traverser reliées entre elles par des
gros échangeurs, une voie de chemin de fer, une autre voie de chemin
de fer abandonnée, et une ancienne briqueterie
(ici),
maintenant abandonnée (qui en 2007 était franchement un peu glauque,
mais depuis a été convertie en
un lieu extrêmement
bobo). Je ne sais plus du tout ce que mon papa et moi faisions
quand nous arrivions là, ni par où nous sortions de la ravine. Vous
vous en foutez complètement, mais moi ça me démange depuis 2007.
[#8] Normalement,
l'itération de l'enquête devrait s'arrêter là : cette fois j'ai une
trace GPS précise, enregistrée par le téléphone, du
chemin que nous avons suivi chaque jour, et j'ai noté plein de détails
de façon obsessionnelle dans mon
journal (que je tenais déjà en 2007, mais pas aussi
précisément).
Une chose importante à mes yeux qui a disparu du Toronto de 2025
alors qu'il existait encore (fût-ce sous une forme déjà diminuée) en
2007, c'est
le Centre
des sciences de l'Ontario, un musée des sciences qui a (avec le
Palais de la Découverte à Paris) beaucoup fait pour mon éveil
scientifique (j'en parlais dans ce
billet). En 1995 je l'avais revisité avec énormément de plaisir.
En 2007 j'avais été très déçu qu'une grande partie avait été réservée
aux enfants (et l'ensemble du musée était nettement plus orienté dans
le sens d'amuser les enfants maintenant que j'étais adulte que quand
je l'appréciais en étant moi-même enfant). Maintenant il a
complètement fermé (à cause de problèmes dans le bâtiment qui est
d'ailleurs architecturalement intéressant en lui-même). Dans le même
ordre d'idées, il y avait une boutique de jouets scientifiques
(Science City, dans le Holt Renfrew Centre), que
j'adorais en 1984–1985, que j'avais été incroyablement heureux de
trouver encore ouverte en 2007 (du coup, nous y avons acheté un
Rubik's cube), et qui a fermé depuis. Et encore une fermeture à
signaler :
le World's
Biggest Bookstore où j'ai passé plein de temps n'existe
plus.
Mais bon, je ne veux pas ennuyer excessivement mes lecteurs en
racontant les choses que j'ai essayé de retrouver (ou, au niveau méta,
en racontant la manière dont j'ai ennuyé mon poussinet en essayant de
les retrouver) ou les minutiæ des changements que j'ai remarqués.
Beaucoup des choses que j'ai racontées dans
mon billet de 2007 restent quand
même parfaitement
valables[#9].
[#9] Allez, encore un
autre pour la route : en 2007, j'écrivais que l'équivalent canadien
de Starbucks était Second Cup (mon poussinet
adorait les Second Cup, et quand je lui ai rendu visite
en 2007, nous avons passé la moitié de notre temps à Toronto à
simplement traîner dans ces cafés). Maintenant, Second
Cup existe encore, mais il y en a beaucoup moins (plusieurs de
ceux que nous fréquentions en 2007 avaient fermé) : la réponse
canadienne à Starbucks est maintenant plutôt Tim
Hortons et il y en a partout… mais
vraiment partout.
☞ Location et conduite d'une voiture
Une différence avec 2007 qui n'est en rien un changement de la
ville, c'est que cette fois-ci mon poussinet et moi avons loué une
voiture.
Je dis que nous avons loué une voiture, mais en fait
c'est moi qui ai loué une
voiture[#10], parce que ce
gros malin a trouvé le moyen de laisser son permis de conduire en
France[#11], du coup c'est moi
qui ai dû conduire[#12],
situation un peu absurde vu que je n'aime pas conduire une voiture
alors que le poussinet aime beaucoup ça, et que j'étais quand même
assez terrifié vu que c'était la première fois que je conduisais en
Amérique du Nord (ou en fait, ailleurs qu'en France).
[#10] Nous avons
d'ailleurs rencontré la complication suivante : mes cartes de crédit
sont techniquement des cartes de débit (elles sont à débit immédiat,
je préfère parce que c'est beaucoup plus simple pour faire mes
comptes). La différence n'a aucun sens, aucun intérêt et aucune
importance en France, mais comme Visa et MasterCard tiennent à la
maintenir parce qu'en Amérique du Nord c'est important, ben c'est
écrit debit au
dos. Or apparemment les loueurs de voiture Nord-Américains, et pas
seulement Nord-Américains, n'aiment pas du tout les cartes de débit
(la raison n'est pas claire, et est certainement stupide parce qu'il
est faux de prétendre qu'on ne peut pas bloquer des fonds sur une
carte de débit). Donc nous avons essuyé plusieurs refus (et perdu
deux heures) avant que Hertz accepte de me faire la location.
[#11] Apparemment il
s'est dit bon, de toute façon, les Canadiens ne reconnaissent pas
le permis de conduire français comme pièce d'identité, donc ça ne sert
à rien de le prendre, et il l'a retiré de son portefeuille pour le
poser sur son bureau. Et il ne s'en est rendu compte que quand nous
sommes arrivés à l'hôtel et que l'hôtelier a listé le permis de
conduire comme pièce d'identité possible.
[#12] J'ai eu une
Toyota Corolla hybride (immatriculée, je ne sais pas pourquoi, en
Nouvelle-Écosse). Plutôt agréable à conduire, même si j'ai trouvé
bizarre la manière dont le moteur thermique se mettait parfois à
rugir.
Bon, à vrai dire, la conduite n'a pas spécialement posé problème.
Il y a quelques différences à
savoir[#13] : les feux sont de
l'autre côté des intersections (bon ça c'est facile à comprendre, et
finalement pas si surprenant), on a le droit en Ontario de tourner à
droite à un feu rouge s'il n'y a pas de panneau l'interdisant, il y a
parfois des flèches vertes spéciales permettant de tourner à gauche en
donnant le feu rouge en face, et sinon les limites de vitesse sont
indiquées explicitement et semblent ne suivre aucune logique. Les
voies de sortie sur autoroute sont assez confusantes parce qu'on ne
sait jamais bien si la voie de droite va obliger à sortir où si on
peut rester dessus (j'ai fini par apprendre à repérer le truc, mais du
nombre de rabattements en urgence que j'ai vus, les locaux se font
eux-même souvent surprendre). Mais rien de franchement
renversant.
[#13] Je ne comprends
pas pourquoi les loueurs de voiture ne se mettent pas ensemble pour
éditer une brochure quelques règles à savoir sur la conduite dans
<tel pays> à destination des étrangers. Ce serait quand
même fortement dans leur intérêt d'éviter des accidents, et leurs
clients apprécieraient.
La conduite des Ontariens ne m'a pas impressionné. Mon père
m'avait toujours seriné que les Français conduisaient très mal (sur ce
point je suis assez d'accord) tandis que les Canadiens étaient selon
lui profondément civilisés sur la route. Bon, peut-être que les
choses ont changé, et c'est vrai que ce n'est pas pareil,
mais je n'ai pas trouvé que c'était franchement mieux. Il suffit
qu'on roule un tout petit peu lentement parce qu'on hésite sur la
direction à prendre (ou qu'on ne sait pas si la voie sort ou pas) et
on vous klaxonne derrière, ou on vous double à toute vitesse par la
droite (ce qui est, pour autant que je sache, aussi interdit en
Ontario qu'en France, et encore plus con vu qu'il y a généralement
plein de voies libres à gauche). Les gens ne tiennent pas bien leurs
distances et ne savent pas anticiper les changements de file. Il y a
certes peut-être un peu moins d'agressivité qu'en Île-de-France, et
moins d'excès de vitesse. Mais sinon, j'ai aussi été étonné du nombre
de voitures de sport au moteur très bruyant qui s'amusaient à
accélérer très fort dans les rues de Toronto (je ne parle pas ici des
autoroutes). Et évidemment, le nombre de pickups
énormes[#14] est incomparable
avec ce qu'on a en France.
[#14] Ce que j'ai peu
vu, en revanche, c'est des motos : pas beaucoup en ville (et encore
moins de scooters si on exclut les livreurs), et très peu sur les
autoroutes. Une partie de l'explication, je suppose, est que le
climat canadien ne doit permettre, en pratique, de faire de la moto
que quatre ou cinq mois dans l'année, donc ce n'est pas très tentant
d'en acheter. Il n'y a pas non plus beaucoup de camions : là la
raison est certainement qu'en Amérique du Nord le rail sert surtout au
fret alors qu'en Europe il sert au transport de passagers.
C'est surtout chiant.
L'autoroute
401 de l'Ontario (autoroute est-ouest qui passe à travers
Toronto), apparemment la plus fréquentée de toute l'Amérique du Nord,
est, au moins en certains endroits, une
4×4 voies[#15] (c'est-à-dire
qu'il y a, dans chaque sens, un jeu de 4 voies express et un
jeu de 4 voies collectrices, avec des entrées-sorties entre
l'extérieur et la partie collectrice, et des entrées-sorties entre la
partie express et la partie collectrice). La circulation ne semble
pas suivre le même genre de variations temporelles et spatiales qu'en
région parisienne : c'est nettement moins bouché qu'autour de Paris
aux heures de pointe[#16],
mais il n'y a pas non plus vraiment l'air d'avoir de creux
significatif. Nous sommes allés jusqu'à Niagara (pas par cette
autoroute précise, mais par d'autres du même genre) : c'est
interminable, c'est tout droit et tout plat à travers des paysages
moches et il ne se passe rien. Je ne suis pas prêt à traverser le
continent a mari usque ad mare par la route.
[#15] De façon
générale, je rigole en pensant aux gens qui disent que Paris c'est
le tout-voiture. Et encore, Toronto a un vrai métro, des
vraies trams et des vraies lignes de bus, et il y a des vrais trains
(pas rapides, mais qui fonctionnent) qui permettent d'aller ailleurs,
et même des semblants de pistes cyclables : ce n'est pas Houston ; en
2007 nous avions pu faire plein de choses uniquement avec les
transports en commun, donc même Toronto n'est pas
le tout-voiture. Mais quand on voit Toronto (qui trouve quand
même le moyen d'avoir des passages piétons avec un signe disant aux
piétons qu'ils ne sont pas prioritaires là !), on se demande dans quel
monde vivent les gens qui pensent que le Paris de 2025, ou même le
Paris de 2005, ou même de 1985, ou même de 1965, serait
le tout-voiture. Revenez un peu sur Terre, les gens qui
utilisent cette expression !
[#16] En revanche, en
revenant de chez mon cousin, nous avons été pris dans un énorme
bouchon — en gros 45min de perdues — sur la partie « express » de la
401, qui était
réduite en
un point à une seule voie à cause de travaux, parce que nous
n'avions pas bien lu ce que nous disait Google (rester sur la partie
« collectrice » qui, elle, circulait très bien).
☞ L'impression d'étalement urbain
Laissant de côté la conduite automobile, c'est quelque chose qui me
frappe, à quel point Toronto me paraît grand (je veux dire, étalé dans
l'espace), notamment comparé à Paris.
Je ne suis pas sûr de savoir mettre précisément le doigt sur ce qui
donne cette impression. Factuellement on peut dire que Toronto fait
631 km² de surface
(limites
ici) alors que Paris ne fait que 105 km² : oui, c'est plus grand.
Mais en fait ces chiffres sont des limites administratives
arbitraires : en 1998, Toronto a
été fusionné
(par le gouvernement de l'Ontario, et contrairement à la volonté des
habitants) avec les municipalité voisines de York, East York, North
York, Etobicoque et Scarborough ; surface
du Toronto d'avant
1998 était de 97 km²
(limites
ici), donc tout à fait comparable à Paris, et inversement, la
« petite couronne » autour de Paris (en comptant Paris) fait 762 km²,
tout à fait comparable à Toronto. (Les populations sont plus
différentes : 2.8M d'habitants à Toronto contre 6.5M pour Paris et sa
petite couronne. Donc Paris est nettement plus dense. Mais je ne
sais pas si ça explique grand-chose à mon impression.)
Je pense qu'une partie de l'explication de mon impression est liée
à la monotonie : Toronto a un centre-ville avec des grands immeubles,
puis s'étale progressivement et très uniformément à partir de ce
centre, presque sans centres secondaires, dans une banlieue
interminable, aux paysages très peu
variés[#17], et rendue encore
plus monotone par le plan en
grille[#18] des rues de la
ville. Tandis que la banlieue parisienne comporte encore des centres
secondaires historiques très nets et une plus grande diversité de
paysages. Le fait que Toronto ne puisse grandir que dans trois
directions (le sud étant bloqué par le lac Ontario) explique aussi que
les distances soient plus grandes, à surface égale, qu'à Paris. Mais
ce ne sont là que des impressions, et je serais heureux d'avoir
quelque chose de plus objectif à mettre derrière mon impression.
[#17] Dans le quartier
« financier » il y a plein de gratte-ciels de bureaux et, pas loin,
d'habitations. Mais dès qu'on s'écarte un peu, en fait, Toronto est
plutôt fait de bâtiments bas : soit des maisons, typiquement
mitoyennes, dans les quartiers résidentiels
(comme celle
où j'ai habité en '84–'85), soit des immeubles bas avec souvent un
commerce au rez-de-chaussée
(vue
typique ici).
[#18] Toronto suit,
depuis sa fondation, ce plan en grille typique des villes
nord-américaines. Mais il ne pousse pas la logique comme le fait
Manhattan jusqu'à donner aux voies de simples numéros : il faut donc
connaître le nom des principales si on veut se repérer. (Il n'y a
même pas la convention que les rues vont dans un sens et les avenues
dans un autre.)
☞ Le PATH
Parlant d'organisation de l'espace, il y a autre chose que je dois
évoquer à propos de Toronto parce que c'est une particularité de la
ville et même une possible attraction touristique :
le PATH.
Il
s'agit d'un réseau de centres commerciaux, généralement souterrains,
interconnectés les uns aux autres. Toronto a un grand centre
commercial,
le Eaton
Centre
(ici),
mais beaucoup des gratte-ciel de bureaux dans le centre-ville ont leur
propre centre commercial au sous-sol (plus petit que le Eaton Centre,
mais pas forcément si petit que ça), avec à la fois des commerces qui
peuvent être utiles aux gens qui travaillent dans l'immeuble ou à
proximité (notamment souvent un food court
rassemblant plein de restaurants rapides), ou d'autres d'intérêt
général. Et ces différents centres commerciaux, ou du moins ceux
situés en gros entre le Eaton Centre et le lac, ont été connectés les
uns aux autres, ainsi qu'à plusieurs stations de métro, par toutes
sortes de passages souterrains, formant un immense complexe
commercial. Il y a d'autres villes qui ont ça, notamment parce que
c'est assez apprécié au Canada de ne pas avoir à sortir quand il fait
froid, mais celui de Toronto est particulièrement grand. (D'après
Wikipédia, il y aurait plus de 30 km de galeries et plus de 1200
boutiques, et ce serait un record mondial ; et ces chiffres semblent
dater de 2014 environ.) La photo à gauche du poussinet quelque
part[#19] dans le PATH montre
à quoi ça peut ressembler.
[#19] Elle a été prise
alors que nous allions entre la Exchange Tower et le Richmond Adelaide
Centre. Comme le GPS ne marche pas en souterrain, je
n'ai pas l'emplacement exact.
Et ce qui est intéressant aussi, c'est que même quand les commerces
ferment[#20], le réseau reste
accessible (peut-être pas en totalité, mais au moins en large partie),
comme une voie publique. L'ambiance y est alors un peu surréaliste,
parce qu'on traverse ces
espaces très
propres mais déserts dans des couloirs interminables et un peu
labyrinthiques : cela peut titiller l'inquiétude associée
aux espaces
liminaux[#21].
[#20] À part pour les
centres commerciaux vraiment prévus comme tels (le Eaton Centre
notamment), les commercent du PATH semblent surtout ouverts aux heures
de bureau, donc du lundi au vendredi, et fermant assez tôt. Même le
vendredi est très calme, parce qu'apparemment depuis la pandémie les
Torontois ont pris l'habitude de télétravailler ce jour-là.
Encore un peu de métaphysique : deux analogies sur la conscience
☞ Hofstadter et les boucles étranges
J'ai déjà raconté (notamment
dans ce bout
de ce billet, et ultérieurement
dans ce
bout de celui-là) que la
lecture des livres Gödel, Escher, Bach de Douglas
Hofstadter (publié en 1979) et The Emperor's New
Mind de Roger Penrose (publié en 1989, et qui est quelque sorte
une réponse à Hofstadter, mais que j'ai lu avant) avait eu une
influence énorme sur ma façon de penser le monde. Ces deux livres
s'inscrivent dans un débat remontant au moins à Turing (et
possiblement à Ada Lovelace) sur la question de savoir si une machine
peut penser comme un humain et/ou être « consciente » comme un humain.
(Disons plutôt qu'il y a plusieurs débats apparentés mais néanmoins
distincts, quoique pas toujours présentés de manière très claire,
d'autant moins que la méta-question de savoir si ces questions sont
vraiment différentes fait elle-même débat.) Pour résumer de
façon très sommaire, Hofstadter tient la position qu'il n'y a
rien que le cerveau humain puisse faire (ou puisse être, comme par
exemple conscient) qu'on ne puisse pas simuler par un
ordinateur, tandis que Penrose tient la position contraire. Bien sûr,
ceci est une simplification extrême de la position de l'un comme de
l'autre, et même la question n'est pas très clairement posée (savoir
si un ordinateur peut penser n'est pas la même chose que
savoir s'il peut être conscient, deux termes qui sont chacun
insupportablement vagues, et même définir ce qu'est
un ordinateur n'est pas clair —
cf. ce billet pour des
considérations théoriques). Mais en tout cas on peut se demander si
les progrès (ou disons,
les ❝progrès❞) faits par
l'IA depuis quelques années apporte un éclairage nouveau
à ce sujet ou doivent nous obliger à y reréfléchir.
Ce qui m'amène à en reparler, c'est que j'ai récemment lu un autre
livre de Hofstadter (qui n'est pas tout récent, mais tout de même
beaucoup plus récent que Gödel, Escher, Bach), qui
s'appelle I Am a Strange Loop (2007). Il
faut expliquer que, de ce que je comprends, Hofstadter était (et est
toujours) un peu agacé par cette œuvre de jeunesse qu'est Gödel,
Escher, Bach, par la manière dont elle a été reçue et par la
célébrité (voire le fan-club) qu'elle lui a apportée : c'est peu dire
que Gödel, Escher, Bach se disperse — c'est un livre qui
parle de tout (comme le titre peut le laisser comprendre !),
y compris de lui-même. Donc d'un côté c'est très amusant et on
apprend plein de choses, de l'autre on peut en ressortir avec une idée
assez confuse de ce que l'auteur essayait de dire au juste.
Hofstadter a donc voulu se reconcentrer sur sa thèse centrale, qui est
en quelque sorte que la pensée humaine est constituée d'une multitude
de boucles auto-référentes, et que c'est de cette autoréférence que
naît la conscience comme phénomène émergent. De
fait, I Am a Strange Loop m'a semblé
beaucoup plus clair et plus structuré que Gödel, Escher,
Bach… mais du même coup il est aussi beaucoup moins rigolo à
lire, il n'a pas cette fraîcheur de jeunesse du jeune scientifique qui
s'intéresse à tout[#]. Je
partage largement le point de vue de Hofstadter sur la conscience
(enfin, il serait peut-être plus correct de dire que je lui dois mon
point de vue), mais peut-être avec plus d'incertitude. J'ai quand
même trouvé qu'il n'a pas soulevé quelques points qui me semblent
importants, et que je veux faire sous la forme de
comparaisons[#2] ou expériences
de pensée.
[#] Non, vous ne gagnez
pas de points si vous avez deviné que je me reconnais en quelque sorte
en Hofstadter ici. Et merci de ne pas signaler en commentaire que mon
blog a perdu sa fraîcheur de jeunesse pour devenir très chiant
quoique possiblement plus clair et plus structuré.
[#2] Je ne suis pas
assez compétent en histoire de la philosophie, mais il me semble que
l'usage la comparaison, de l'exemple et de l'expérience de pensée est
quelque chose qui varie de façon étonnante d'un philosophe à l'autre.
Hofstadter lui-même en fait un grand usage (peut-être trop, même), et
à l'inverse il y a certains « grands » philosophes dont je me dis
qu'ils auraient dû prendre des cours de pédagogie pour apprendre que
pour s'exprimer de façon compréhensible il est souvent utile de donner
des exemples et des comparaisons.
☞ Attention ! Je vais parler de métaphysique
Le but de ce billet est donc d'exposer quelques réflexions, pas
forcément cohérentes entre elles (ni même avec elles-mêmes) ni très
structurées sur la nature de la conscience et sur la « question
vertigineuse » de pourquoi je ressens ce que je ressens. Je sais que
je dis très souvent que mes billets de blog ne sont pas très
structurées (malgré un plan en parties et sous-parties ponctuées par
des intertitres), mais pour une fois ce n'est pas une excuse,
c'est assumé : je n'essaie pas de prouver quelque chose,
j'essaie juste de susciter des interrogations. Néanmoins, comme je
sais d'expérience que ce genre d'interrogations peut provoquer un
sentiment de rejet (tu n'as pas le bon point de vue !
ou tes comparaisons sont du grand n'importe quoi !
voire tout ça n'a aucun sens ! — je vais y revenir et je
conviens que c'est une possibilité tout à fait plausible), je dois
ajouter cet :
⚠︎ Avertissement : La suite de ce
billet contient des morceaux de métaphysique. Il a été observé que la
métaphysique pouvait provoquer des réactions allergiques chez
certaines personnes. Il est donc recommandé de consommer avec
modération.
(J'avais déjà fait un long billet
sur la métaphysique sur ce blog. Je pense que l'intersection avec
celui qui suit est, finalement, assez faible, mais ça vaut quand même
la peine de le lier. En tout cas, les deux peuvent être lus de façon
indépendante. Et peut-être qu'ils se contredisent, mais comme je ne
suis pas un système de logique formelle j'ai le droit de me
contredire.)
Définitions et présentation (qu'est-ce que la conscience ?)
☞ Différentes sortes de « conscience »
Avant d'en dire plus, il faut que j'essaie de préciser un peu les
termes de la discussion. Le problème c'est que, justement, ce n'est
pas très clair ce que signifie le mot conscience. D'abord, en
français il existe un seul mot pour désigner ce qui se dit en
anglais conscience (conscience éthique, sens du
bien et du mal) et consciousness (conscience de
soi, état alerte, connaissance de notre propre existence). Je parle
ici du second. Même au sein de celui-ci, il y a encore plusieurs sens
qui ne sont pas, ou peut-être pas,
identiques[#3] : l'état de
veille (par opposition à un état de sommeil ou
état inconscient) est un phénomène médical qui n'est
qu'imparfaitement identifiable à l'expérience
(awareness) que nous avons de notre existence et
de la réalité[#4]. C'est de ce
dernier que je parle.
[#3] Encore une
question qui vient se rattacher à toute cette problématique est la
question éthique : est-ce que c'est le fait qu'une créature
soit consciente qui pose un interdit moral à la tuer ?
(Manifestement il ne suffit pas d'être vivant, parce que
quasiment tout le monde convient que tuer une plante peut ne
pas poser de problème éthique — pafois
il y en a, par exemple si cette plante est rare ou que des gens y
sont attachés, mais en général ce n'est pas comparable à tuer un
animal, et certainement pas à tuer un humain. Et ce n'est
probablement pas une question d'intelligence non plus, parce que tuer
un humain n'est normalement pas considéré comme d'autant plus grave
que cet humain est intelligent. Donc on a tendance à se rabattre sur
la conscience. C'est par exemple ce que Hofstadter postule, sans
vraiment le justifier clairement, dans I Am a
Strange Loop. Ou peut-être sur la capacité à ressentir — au
sens des qualia dont je parle ci-dessous — la peur de la mort,
la douleur, ou quelque chose de ce genre. Certains utilisent le terme
de sentience ici, qui est je crois quelque chose comme
la capacité à ressentir des qualia, mais le rapport avec la conscience
est pour le moins confus.) Mais même s'il n'y
a pas de raison que ce soit du
tout-ou-rien, et d'ailleurs ce ne l'est certainement pas, c'est un
peu embêtant de faire dépendre un postulat moral assez fondamental
— Tu Ne Tueras Point — d'une notion qu'on ne sait ni tester ni
même définir proprement.
[#4] Certains sont
aussi parfois tentés d'identifier cette notion à la notion chrétienne
d'âme (surtout s'il s'agit d'en donner une explication qui
sorte du cadre des lois de la physique). Je ne sais pas si ce n'est
pas un contresens complet (ou peut-être que c'est un contresens
historique mais que la théologie a évolué sur ce point) : en tout cas,
il faut se méfier de ce terme et je ne me prononcerai pas dessus.
☞ Conscience « objective » et « subjective »
Et même au sein de ce phénomène de conscience de notre propre
existence et de la réalité, on peut encore faire des distinctions.
Notamment je veux faire celle entre une question « facile » que je
pourrais qualifier d'objective (ou physique
ou externe) et la question
« difficile »
de l'expérience subjective (ou métaphysique
ou interne) de la conscience (y compris la question de savoir
si cette dernière a même un sens).
Pour expliquer cette distinction, je veux dire que, par exemple, on
peut imaginer une explication scientifique qui résolve plus ou moins
la question « facile » / « objective ». Du style : la sélection
naturelle a favorisé l'émergence d'une capacité d'introspection chez
les humains parce que ça leur permet de mieux prévoir les réactions de
leurs congénères (et donc de les comprendre ou de communiquer ou
d'empathiser, ce qui est utile en groupe) ; ce phénomène fonctionne
par tel ou tel mécanisme de rétroaction entre tel et tel groupe de
neurones qui assurent un mécanisme de veille et surveillent les
activités des autres partie du cerveau. (Je brode en inventant
quelque chose de vaguement plausible, mais on voit le genre
d'explication qu'on peut dresser ici, à la fois causale et
fonctionnelle.)
Ceci peut théoriquement fournir une explication (scientifique,
donc) plus ou moins complète de pourquoi les humains vont déclarer
ressentir ce qu'on peut qualifier de conscience : le fait qu'un humain
typique soit prêt à dire je suis conscient, j'ai un ressenti
intérieur, j'ai la sensation d'être moi, etc., ce sont des
faits objectifs (je veux dire, le fait qu'il le dise est un
fait objectif) et susceptible d'une explication scientifique comme je
viens de le proposer. Mais si ceci peut régler le sort de la question
« facile » / « objective » a-t-on pour autant réglé la question
subjective de pourquoi je la ressens ? Cette question
a-t-elle même un sens ? C'est ça la question « difficile » /
« subjective ».
Comme je vais le développer plus bas dans la seconde de mes
comparaisons, la différence entre la question facile/objective et la
question difficile/subjective peut être comparée à celle entre
expliquer le monde réel par des équations de la physique et se
demander pourquoi ces lois de la physique s'appliquent dans la réalité
que nous observons.
☞ Qualia
Le terme
de qualia
a été utilisé pour donner un nom à la notion d'expérience
subjective immédiate que nous avons de la réalité. C'est
différent d'une connaissance académique de la réalité. (Par exemple,
c'est quelque chose de différent de savoir ce que c'est que la couleur
rouge — quelque chose comme l'effet sur l'œil humain d'une longueur
d'onde comprise entre environ 600nm et 700nm — et
de ressentir la couleur rouge, et c'est cette dernière qu'on
qualifie de qualia[#5].
Une personne aveugle de naissance — ou incapable de voir la couleur —
peut avoir une connaissance académique parfaite des couleurs, on peut
dire qu'elle n'a pourtant pas connaissance des qualia associés, et
c'est un argument utilisé pour défendre l'existence des qualia que
d'argumenter que si une telle personne recouvrait une vue normale,
elle reconnaîtrait sans doute avoir découvert quelque chose, ce que
ça fait de voir les couleurs. Mais ceci conduit aussi à toutes
sortes de débats assez oiseux pour savoir si les qualia ressentis par
Alice en voyant la couleur rouge sont les mêmes que ceux ressentis par
Bob ; ou de
savoir quel
effet ça fait d'être une chauve-souris.) Avec cette terminologie,
on peut dire que la question de l'expérience subjective de la
conscience est celle des qualia apportés par le phénomène
objectif.
[#5] Le singulier
est quale, mais personne ne l'utilise.
Ce n'est pas clair si les qualia sont autre chose que la conscience
elle-même ; à vrai dire, rien n'est clair dans l'histoire et tout le
monde semble avoir sa façon différente de formuler les choses, sans
qu'aucune définition ne soit satisfaisante.
☞ L'expérience de pensée du téléporteur
Une expérience
de pensée célèbre pour distinguer la version « objective » et la
version « subjective » de la conscience et celle du téléporteur qui
fonctionne en créant une copie parfaite, atome par atome, de la
personne à téléporter, mais à un endroit différent, et détruit
l'original[#6]. Je prends un
tel téléporteur pour aller sur Mars, mais par malheur l'opération ne
fonctionne pas correctement et le David Madore original n'est pas
détruit si bien qu'il y en a maintenant deux exemplaires, un sur Mars
(qui a l'impression que la téléportation s'est très bien passée, une
seconde avant il était sur Terre et maintenant il est sur Mars) et un
resté sur Terre (qui a l'impression qu'il ne s'est rien passé du
tout). Du point de vue objectif, il n'y a rien de mystérieux ni rien
à expliquer. Mais il est difficile de s'empêcher entièrement de se
demander[#7] mais
si moi je rentrais dans le téléporteur, comment savoir si je
serais celui qui reste sur
Terre[#8] ou celui qui apparaît
sur Mars ? et est-ce que j'accepterais le principe d'un tel
téléporteur si la copie sur Terre est détruite dans l'opération ?
détruite avec quelques secondes de délai ?
[#6] L'idée est par
exemple évoquée dans
la toute première
planche du webcomic Existential Comics
(qui se pose ensuite la question évidente sur le rapport entre la mort
et le sommeil, et finit par une réflexion assez semblable
à mes Qriqrx). L'histoire de cette
expérience de pensée est assez confuse : Derek Parfit semble être
devenu célèbre pour l'avoir introduite en 1984 en parlant de
téléportation vers mars, mais comme Hofstadter fait remarquer
dans I Am a Strange Loop, après avoir
reproduit la version de Parfit, exactement la même expérience de
pensée apparaît dans l'introduction écrite par Dan Dennett du
livre The Mind's I qu'ils [Hofstadter &
Dennett] ont écrit ensemble et qui a été publié pour la première fois
en 1981.
(J'ai édité
Wikipédia en conséquence, mais peut-être pas dans le bon style.)
Quoi qu'il en soit, Wikipédia fait remarquer que Stalisław Lem a
discuté ces questions bien avant, et ce n'est probablement pas le
premier non plus.
[#7] Évidemment, tout
ça est parfaitement compatible avec l'explication « objective » : nous
avons évolué pour ressentir une identification avec notre « moi »
passé et futur, et, placés dans une circonstance où cette
identification n'est pas évidente, nous sommes dans l'embarras parce
que cette identification est une construction mentale (le point de vue
que je développe dans ce billet
auquel je fais souvent référence).
[#8] Nous avons
certainement spontanément plus tendance à nous identifier à la copie
restée sur Terre, puisque c'est censé être l'original. (Si on
me dit je vais faire une copie parfaite de toi sur Mars et la tuer
une heure plus tard, ça me remue moins que si on me dit je vais
faire une copie parfaite de toi sur Mars, et te tuer une heure plus
tard.) Mais si on croit que le monde est réduit à sa réalité
physique, la copie identique sur Mars doit être exactement aussi
consciente que celle sur Terre. Ni l'idée que ce serait un « zombie
philosophique » ni celle d'apparition d'une
conscience ex nihilo ne sont très
satisfaisantes.
☞ « Tout ça n'a pas de sens » (la position physicaliste)
Bien sûr, le point de vue le plus simple, et peut-être le seul qui
tienne vraiment scientifiquement, consiste à dire que tout ça n'a
aucun sens parce que ce n'est ni testable ni mesurable.
(J'avais déjà raconté que mon père
admirait Carnap pour avoir d'un seul coup résolu tous les problèmes de
la métaphysique en les qualifiant de pseudo-problèmes.) Selon ce
point de vue, la question « subjective » de la conscience n'a tout
simplement pas des sens, la notion de qualia est au mieux mal
définie et au pire totalement inexistante (ou est une façon confuse de
décrire l'état mental provoqué par un stimulus — mais la question
du ressenti de cet état mental est quelque chose qui ne veut
rien dire). Il s'agit d'une illusion essentiellement soutenue par le
mot que nous utilisons pour décrire nos processus mentaux. On peut
imaginer une explication scientifique satisfaisante (j'ai proposé
ci-dessus ce à quoi ça pourrait ressembler) du problème « facile » /
« objectif » de pourquoi les humains disent ressentir cette
sensation, mais la question du « ressenti interne » n'a pas de sens
selon ce point de vue qu'on peut qualifier de physicaliste
pur.
J'en ai marre des gens qui veulent censurer Internet
Il y a un dessin de John Jonik (reproduit ci-contre), paru je
ne sais pas où[#] autour de
l'an 2000, et qui, 25 ans après, est toujours parfaitement
d'actualité : régulièrement, des gens ont envie de censurer, contrôler
ou policer Internet, et les deux prétextes qui servent le plus
facilement à ça sont la lutte contre le terrorisme (à la rigueur ça
peut être des petites variations comme le narcotrafic) ou la
protection des pitits zenfants (soit sous l'angle de la lutte contre
la pédocriminalité soit sous l'angle de la protection de leurs chastes
petits yeux).
[#] Je l'avais déjà
utilisé l'an dernier dans ce
billet, en avouant ne pas savoir d'où il sort exactement. Depuis,
mes petits lutins sur Internet m'ont apporté une preuve qu'il
date au plus tard de l'été 2001,
puisqu'il
apparaît dans le numéro de l'été 2001 de
l'Alternative Press Review
(cette
page prétend même qu'elle serait même déjà aussi dans le numéro de
l'automne 2000 de la même revue, mais je ne sais pas si c'est très
fiable). Mais ce n'est probablement pas le lieu de publication
originale.
J'ai écrit
un mail aux bibliothécaires de l'Université de Pennsylvanie qui
semblent avoir
dans leurs collections une importante collection de dessins de cet
auteur pour leur demander s'ils peuvent me trouver la source précise.
J'annoncerai le résultat si ma petite enquête aboutit pour trouver
l'origine du dessin et le contexte dans lequel il a été fait.
Ces deux prétextes marchent si bien, évidemment, parce qu'ils
combinent toutes sortes de sophismes (l'appel à l'indignation, la
fausse dichotomie, l'homme de paille, la culpabilité par association,
la vertu ostentatoire) pour produire l'effet suivant : si vous vous
opposez aux censeurs, on vous accusera d'être du côté des terroristes
ou des pédophiles ou quelque chose comme ça. Les électeurs tombent
dans le panneau[#2] avec une
constance absolument affligeante : à défaut d'adhérer, au moins ils
font confiance au discours des sécuritaristes. C'est ainsi qu'on se
retrouve avec toutes sortes de lois d'exceptions sur l'apologie du
terrorisme, qu'on veut nous imposer des back doors dans les
communications chiffrées ou des IA qui vérifieraient
automatiquement s'il y a des images pédophiles dans nos fichiers
(what could possibly go wrong?), et autres
variations sur le même thème. Et à aucun moment les gens ne
rassemblent deux millions de
signatures[#3] pour protester.
Bref, ce dessin de Jonik n'a pas pris une ride en 25 ans, et il n'a
pas l'air parti pour en prendre.
[#2] Je l'ai
déjà signalé et je le répète : le terrorisme, en Europe
actuellement, est, sinon un non-problème, en tout cas un problème qui
ne justifie absolument pas le délire de mesures qu'on consacre à cet
enjeu. Mesures qui sont au mieux de la comédie sécuritaire pour
pouvoir dire qu'on fait quelque chose (p.ex., le plan Vigipirate en
France), et au pire une tactique délibérée pour éroder les droits
fondamentaux sous le prétexte de la protection. Et c'est exactement
ce dernier point qu'illustre le dessin de Jonik. La réalité c'est que
les sécuritaristes ne sont pas les ennemis des terroristes,
ce sont leurs alliés objectifs, des symbiotes : les
terroristes fournissent aux sécuritaristes les prétextes pour
grignoter plus de pouvoir, et les sécuritaristes fournissent aux
terroristes l'attention que ceux-ci cherchent à obtenir par leurs
actions. (Si on se contentait de traiter les terroristes avec
l'attention proportionnée aux morts et blessés qu'ils causent
vraiment, on s'en préoccuperait fort peu, en tout cas quelque chose
comme 200 fois moins que les accidents de la route. Et du coup il y
aurait aussi encore moins de terroristes.) Mais voilà, la stratégie
marche, donc les terroriste continuent de terroriser, et les
sécuritaristes de grignoter nos droits fondamentaux.
[#3] Bon, je suis
d'assez mauvaise foi, là : j'ai suffisamment répété
que le succès et largement un phénomène
aléatoire pour ne pas trop lire dans le fait que les Français se
soient tout d'un coup découvert un niveau d'expertise élevé au sujet
d'un pesticide[#4] alors qu'en
général tout ce qui est technique, par exemple tout ce qui concerne
Internet, les laisse totalement indifférents. C'est juste que parfois
les mouvements de protestation deviennent viraux et parfois non. Mais
ce serait quand même bien si, de temps en temps, il y avait un vrai
mouvement populaire qui marche pour protéger Internet : ce n'est pas
comme si c'était un truc dont personne ne se sert.
[#4] Pour les gens qui
liraient ce billet dans l'avenir, il s'agit de l'acétamipride. (Et si
vous voulez en savoir plus sur le
fond, ce
fil semble être une bonne synthèse.)
Entendons-nous bien : je ne prétends pas que l'Internet ne doit
obéir à aucune loi, et je ne me prétends pas me poser comme
un absolutiste de la liberté d'expression, ne serait-ce que
parce que les gens qui affirment l'être sont généralement des petits
flocons fragiles dès qu'on les
attaque[#5], et aussi parce que
je sais que, même à mon échelle
microscopique, la modération de
contenus est une prise de tête sans fin. Les libertés des uns ont
forcément des limites posées par les droits des autres.
[Ajout : voir ce
billet ultérieur.] Disons que
j'ai tendance à trouver que la liberté d'expression doit bénéficier
d'une acceptation très large. Mais ce n'est pas vraiment le point :
le point est que ces lois sont à la fois indignes d'une démocratie,
complètement connes, et profondément hypocrites.
[#5] Elon Musk, qui
aime bien se décrire par cette phrase, est pour la liberté
d'expression absolue… des gens qui sont d'accord avec lui. Sans même
parler de la manière dont il plie devant n'importe quel régime (Inde,
Turquie) qui lui demande de censurer des choses qu'il n'a pas
spécialement envie de défendre, il montre lui-même à tour de bras sa
volonté de tout censurer :
des chercheurs
aux journalistes
en passant par tous ceux qui utilisent le mot cis[genre] (qui
serait, selon Musk, une insulte(‽))
et votre
humble serviteur quand je documente les anomalies de Grok.
Parlons du porno. Pourquoi le porno ? Parce
que le
porno est le canari dans la mine : quand on va attaquer les
libertés fondamentales, il est commode de commencer par quelque chose
que peu de gens vont se lever pour défendre parce que c'est
embarrassant de le faire. Censurer le porno, c'est commode, parce que
les gens qui s'indigneraient avoueraient ipso facto regarder du
porno[#6][#7],
peu de gens sont prêts à le faire, donc quasi personne ne va défendre
le porno, et ça permet aux censeurs de se faire la main.
[#6] Ou en tout cas ils
seront soumis au même embarras que s'ils l'avouaient : ils peuvent
toujours dire moi je n'en regarde pas, mais sur le principe…,
on ne les croira pas.
[#7] Je suis un peu
embêté, là, moi, parce qu'en fait je n'en regarde quasiment pas, je
trouve ça juste chiant. Je trouve les images suggestives soft bien
plus intéressantes à regarder. Mais si je dis ça, on va penser que
j'essaie justement de me réfugier dans la posture oh, moi, je ne
regarde pas de porno. Or j'aimerais bien dire fièrement que je
regarde régulièrement du porno, mais ce serait un mensonge. Du coup,
à défaut, plutôt que référencer ce que je regarde, je vais plutôt
évoquer ce que j'ai écrit et
mis en ligne.
Voilà précisément pourquoi il faut défendre le porno, et rappeler
que ce n'est ni illégal ni honteux ni problématique de regarder du
porno[#8]. Et porter une
attention particulière aux tentatives pour le censurer.
[#8] Bien sûr, ça peut
tomber dans l'une de ces catégories sous certaines conditions, mais il
n'y a aucune action qui ne puisse devenir illégale, honteuse ou
problématique si on ajoute des circonstances imaginées exprès
pour.
Pourquoi je parle du porno maintenant ? Parce que la France et le
Royaume-Uni ont passé des lois à peu près similaires pour censurer le
porno sur Internet (je vais expliquer plus bas pourquoi je parle de
censure alors qu'ostensiblement il s'agit juste de protéger les
chastes yeux des pitits zenfants).
La loi française est
la loi
nº2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace
numérique[#9] ; la loi
britannique est
la Online
Safety Act 2023. Les deux affichent un objectif à peu près
semblable : empêcher les mineurs de voir de la pornographie en ligne
(la loi britannique semble être plus large dans sa portée et ne se
limite pas à la pornographie, mais parlons surtout de ça). Et les
deux prévoient des mécanismes de
contrôle[#10] de l'âge des
internautes, et une obligation d'implémenter ce contrôle pour les
sites diffusant des contenus pornographiques. Les deux sont déjà en
vigueur, mais on commence seulement maintenant à en voir vraiment les
effets (notamment à cause de périodes transitoires prévues pour
l'implémentation).
[#9] Toutes autres
choses mises à de côté, cette manière de donner aux lois des titres
performatifs bien-pensants est absolument insupportable. Le titre est
l'injure qui s'ajoute à la blessure du contenu de cette loi.
[#10] On peut défendre
la loi française en ce qu'elle a prévu des contraintes sur le
mécanisme de contrôle de l'âge qui tentent un peu sérieusement de
respecter la vie privée des Internautes, en imposant une contrainte de
double anonymat (le site qui fait la vérification ne doit pas savoir
pour quel site il le fait, et le site qu'on consulte ne doit pas
connaître l'identité de la personne qui demande la vérification ; le
texte technique
est ici).
Ceci est louable. Malheureusement, pour l'instant, tout ça est du
pur vaporware : il n'y a aucun standard derrière,
aucun protocole en place, aucune communication ni coordination avec
les autorités légitimes pour créer des normes sur Internet (comme
l'IETF ou le W3 Consortium) : la France a imaginé son
petit truc dans son coin en se croyant propriétaire d'Internet, et
évidemment, ça ne peut pas marcher. Le Royaume-Uni, plus pragmatique,
n'impose pas grand-chose, et évidemment c'est un désastre (et tout le
monde cherche toutes sortes de moyens
pour contourner les
mesures).
Et surtout, ces deux lois sont révoltantes, complètement connes, et
profondément hypocrites.
Ce serait vraiment bien s'il pouvait y avoir des adultes au
parlement pour empêcher ces insupportables gamins de
députés[#11] de tout le temps
essayer de casser Internet. Sérieusement, retirez-leur ce jouet ! Ou
donnez-leur en un autre, je ne sais pas. Mais qu'ils foutent la paix
à Internet.
[#11] Comme j'écris ce
billet à l'arrache, je n'ai pas eu le temps de rechercher comment
avaient voté les différents groupes parlementaires dans cette
histoire, pour savoir qui doit avoir honte. Mais sur ce genre de
sujets, d'habitude, ils sont tous aussi déplorables les uns que les
autres.
Je ne dis pas que l'objectif affiché soit fondamentalement
stupide : je peux comprendre qu'on veuille éviter que les mineurs
aient trop facilement accès à du contenu pornographique sur
Internet.
Mais je voudrais faire une première remarque à ce sujet : c'est que
la pornographie est très loin d'être le pire de ce qu'on peut
trouver sur Internet. Si on pense protéger les mineurs sur
Internet et que la première idée qu'on a à l'esprit est qu'ils
risquent de voir du porno, on a un sérieux problème de priorités.
Et de toute façon, aucune sorte de mesure par un code d'accès ne va
pouvoir fonctionner, parce que les accès pourront toujours être
partagés d'une manière ou d'une autre. Interdire un site aux mineurs,
c'est juste… techniquement impossible parce que ça ne veut rien
dire.
Maintenant, si on veut vraiment accomplir un objectif un peu sensé
dans ce genre d'idée, je pense que le plus raisonnable est de mettre
les bons outils techniques dans les mains des parents. Par exemple,
comme tous les abonnements Internet fixes en France viennent avec une
« box », on peut inciter les fournisseurs d'accès à fournir des proxys
filtrants sur leur box qui permettraient de filter l'accès de certains
appareils de la maison à certains sites selon des listes prédéfinies
ou personnalisables. De même, les opérateurs mobiles pourraient
fournir des abonnements avec de tels filtres parentaux. Mettre les
outils dans les mains des
parents[#12] permet de faire
prendre les décisions de quoi accepter ou pas par quelqu'un qui a plus
de chances de pouvoir la prendre intelligemment que le législateur.
Il faut juste leur proposer les bons outils, et là, je peux imaginer
que les autorités agissent pour standardiser ces outils ou s'assurer
qu'ils soient largement disponibles. On peut éventuellement demander
un certain concours des sites Web eux-mêmes par exemple en
standardisant (mais en passant par les autorités compétentes, comme le
W3 Consortium) des en-têtes pour déclarer le contenu potentiellement
pornographique ou inadapté aux mineurs (qui serait alors bloqué au
niveau du proxy de la box, ou du navigateur, ou équivalent).
[#12] Je ne dis pas
que les parents sont forcément parfaits, mais qu'on ne peut de toute
façon pas faire sans leur concours. Si des parents décident que leurs
enfants peuvent voir du porno, ce sera juste impossible de les en
empêcher.
Une partie de tout ça existe déjà, en fait. Pourquoi, du coup,
a-t-on besoin d'une nouvelle loi ?
Je veux avancer l'idée que le but de ce genre de lois n'est pas, en
fait, de protéger les mineurs (je viens d'expliquer comment il aurait
fallu s'y prendre pour ça), mais de développer des nouveaux moyens de
pouvoir censurer Internet, et que les mineurs ne sont que le prétexte.
(Encore une fois, cf. le dessin de Jonik.)
Méta : le billet qui suit a été
commencé il y a plusieurs semaines, et depuis j'ai été assommé par
toutes sortes de tracas (dont
récemment ceci).
J'essaie de le publier rapidement (et avant qu'il enfle au-delà de
toute mesure, comme mes billets ont tendance à le faire) parce que sa
présence sur ma TODO-list m'empêche un peu de
passer à autre chose. Mais je fais ça sans vraiment relire le début,
donc il est possible que mon flux de pensée (interrompu à peu près à
l'endroit où j'ai mis un symbole ‘♠’) ne parle plus de la même chose
au début et à la fin, et je me rends compte que je redis certains
points… tant pis.
Une de mes particularités que beaucoup de gens ont du mal à
comprendre est que je n'aime pas du tout voyager. En fait, ce n'est
pas tellement que je n'aime pas le voyage au sens du
déplacement stricto
sensu[#], c'est surtout que
j'ai un attachement extrêmement fort à mon chez moi.
Notamment, je n'aime pas du tout dormir ailleurs que chez moi, surtout
pour une durée un peu longue. J'y ai repensé la semaine dernière
alors que mon poussinet et moi nous étions réfugiés à Orsay chez ma
mère pendant une période de canicule (parce qu'elle a une clim qui
marche, contrairement à la
nôtre[#2]) : c'est
l'endroit où j'ai passé quelque chose comme 15 ans de ma vie (en gros
toute mon adolescence), et pourtant je ne m'y sens plus
vraiment chez moi. Mais qu'est-ce qui a changé ?
[#] Je n'ai certainement
pas un grand amour des longs trajets, qu'ils soient en train, en
voiture ou, pire, en avion (d'ailleurs, ça fait huit ans que je n'ai
pas pris l'avion, et ça me va très bien). Mais ce que je veux dire,
c'est que ce n'est pas vraiment le point que je veux signaler quand je
dis que je n'aime pas voyager.
[#2] Maintenant, le
compresseur de la nôtre a été changé, et elle remarche peut-être. Ou
peut-être pas. Il faudra attendre la prochaine canicule pour être
sûrs : cf. les différentes mises à jours à la
fin du billet en question.
Ce n'est pas une question de confort, ou en tout cas, ce n'est pas
une question de confort au sens où on le pense spontanément. Et c'est
quelque chose qui me pose particulièrement problème quand quelqu'un me
propose de passer quelques jours chez lui : je ne veux pas laisser
penser que je ne me sentirais pas confortable chez lui, c'est juste
que ce n'est pas chez moi au sens où j'ai passé des années à
ajuster très précisément mon chez moi pour m'y sentir bien et
que ce ne sera pas pareil ailleurs.
L'aspect le plus évident de cet ajustement est l'acquisition de
toutes sortes de choses matérielles dont il me semble utile de
disposer ou de pouvoir éventuellement disposer.
Disons que j'ai une approche maximaliste complètement opposée au
minimalisme à la Marie Kondō : sans être
syllogomane[#3], je suis plutôt
du genre à aimer être équipé pour être paré à toute éventualité.
[#3] Les limites sont
évidemment floues, mais disons que
je n'ai pas de problème pour jeter des choses qui ne servent jamais,
surtout si je n'ai pas un bon argument pour dire que ça pourrait
servir ou que ce serait difficile de le retrouver. Je n'accumule
certainement pas les vieux journaux, par exemple, ni les aliments
périmés, et je jette tout ce qui ne marche plus parce que je déteste
tomber sur un truc qui n'est pas fonctionnel.
Il y a des choses qu'on aurait vraiment mauvaise foi à considérer
comme frivoles : par exemple, comme les moustiques m'aiment avec une
passion[#4] qui n'a d'égale la
haine que j'ai pour eux, j'ai vraiment besoin d'un anti-moustique avec
moi. Il m'est arrivé d'oublier ou de négliger de le prendre pour
partir en voyage (par exemple, je ne pensais pas en avoir
besoin en décembre à Florence), et
me voilà obligé de mener la chasse nocturne à ces salles bêtes et de
me jurer d'ajouter l'anti-moustique dans la liste des objets
absolument indispensables pour tout déplacement même en hiver. De
même, comme le moindre son de conversation ou de
musique[#5] m'empêche de
dormir, je dois prévoir des bouchons d'oreille (je déteste m'en
servir, mais c'est mieux que de ne pas dormir du tout) : j'en ai
rarement besoin, mais si je tombe sur la situation qui les rend
nécessaires et que je ne les ai pas avec moi, je peux passer une nuit
épouvantable.
[#4] Disons que s'il y
a un moustique dans le mégaparsec cube qui m'entoure, il va
infailliblement me trouver (et, à l'inverse, les gens qui dorment avec
moi sont largement protégés d'eux). Et comme je fais une réaction
assez forte (quoique heureusement de courte durée) à leurs piqûres, je
ne peux pas juste les considérer comme un désagrément léger.
[#5] Je ne sais pas
pourquoi, les bruits naturels ne me gênent que très peu, les bruits
mécaniques ne me dérangent que modérément, mais le moindre bruit de
voix ou de musique, dès qu'il dépasse le seuil de mon audition,
m'empêche absolument de dormir. (C'est embêtant, parce que s'il est
socialement bien admis de demander à des gens de parler moins fort,
leur demander de ne plus parler du tout est délicat.)
Et puis, bon, tout est une question de savoir où on met le curseur.
Même les gens qui aiment voyager léger doivent bien prendre quelques
vêtements et une brosse à dents avec eux, je pense.
Quand je suis chez moi, donc, j'ai à ma disposition tout un arsenal
de choses qui remplissent un besoin régulier ou occasionnel ou me
protègent contre une éventualité pénible, et je n'ai pas trop besoin
d'y repenser sauf à renouveler les choses qui périment.
Quand je voyage[#6], au
contraire, je dois choisir, pour chacune de ces choses, entre la
prendre avec moi (donc devoir me la trimballer), la laisser de côté en
espérant ne pas en avoir besoin, compter sur le fait que mon hôte
pourra me la fournir (or je ne sais pas forcément si mon hôte à la
même évaluation des choses
utiles[#7]), ou prévoir
d'acheter au besoin : toutes ces stratégies ont leurs inconvénients.
J'ai préparé d'assez longues listes, régulièrement renégociées, de
choses à envisager de prendre en voyage (avec des critères d'aide à la
décision), mais je me retrouve presque toujours à avoir besoin de
quelque chose qui a inexplicablement réussi à ne pas se retrouver sur
la liste (ou bien qui y figurait mais que j'ai quand même omis de
prendre). D'ailleurs, rien que le fait de rassembler les objets de la
liste au moment de partir[#8]
est quelque chose que je trouve long, pénible et assez stressant.
[#6] Techniquement,
c'est vrai même pour les voyages qui durent moins d'une journée (les
moustiques, ils ne m'attaquent pas que de nuit, par exemple). Mais
pour ça, j'ai effectivement des sacs « tout prêts » avec ce qu'il me
faut pour, par exemple, aller me balader en forêt, j'ai dans mon
sac ce gadget miraculeux
pour soulager les piqûres de moustiques (en détruisant l'histamine par
la chaleur), et je n'ai pas besoin de penser à le prendre.
[#7] Il y a des gens à
qui on peut demander une paire de ciseaux et qui vous regardent comme
si on avait demandé un compteur Geiger, et d'autres, c'est le
contraire, vous leur demandez un coupe-ongles et ils ont cinq modèles
différents à vous proposer. Disons que j'aime mieux dormir chez les
seconds, mais c'est difficile de savoir à l'avance dans quelle
catégorie une personne se place (et ça dépend sans doute du type
d'objet qu'on peut demander à emprunter). Ceci étant, même chez les
second, réveiller quelqu'un à 3h du matin pour quémander un
anti-moustiques parce qu'on a oublié de le prendre chez soi ou de le
demander la veille au soir, c'est un peu délicat.
[#8] Une autre option,
pour certaines choses, est d'avoir une trousse de voyage avec plein de
choses utiles (en double de ce qu'on a chez soi, donc) toute prête à
partir. Mon poussinet fait plus ou moins ça. Mais quand on voyage
peu, comme moi, c'est un peu idiot, et de toute façon ça marche assez
mal pour les choses qui peuvent périmer.
Il est difficile de définir, de lister ou même de catégoriser les
objets que je considère comme faisant partie de mon « équipement »
chez moi. Il y a les choses les plus banales que j'utilise
effectivement quasi-quotidiennement, qu'il s'agisse de choses que je
vais prendre avec moi en voyage (brosse à dents, peigne, fil
dentaire…) ou que je ne vais pas prendre avec moi en voyage (mon
ordinateur parce qu'il est trop encombrant, ou ma collection de
peluches parce que je ne veux pas les perdre ou les abîmer). Il y a
des choses que [♠] j'aime avoir
comme une sorte de sécurité (l'anti-moustique en est un exemple), et
là aussi, si je pars en voyage je dois prendre une décision d'où
placer la limite entre ce que je prends par sécurité et ce que je ne
prends pas parce que ça ferait trop de bagage. Et il y a des choses
que je ne vais certainement pas prendre en voyage mais qui font partie
des petits conforts que j'aime avoir chez moi (ça peut aller
de stylos de couleurs à tel ou tel
snack que j'apprécie avoir sous la main pour grignoter, les tisanes
que j'aime boire quand je suis stressé, ce genre de trucs).
[♠] Méta : Ce qui précède
ce signe a en gros été écrit avant le , et ce
qui suit a été écrit le .
Mon chez moi a un petit côté « bunker de prepper », sauf que je ne
ne me prépare pas du tout contre la fin du
monde[#9]. Mais je suis du
genre à avoir quatre-cinq poivres différents sur ma table à manger
(poivre noir, poivre blanc, poivre vert et voatsiperifery, plus des
baies du Sichuan mais je ne considère pas ça comme un poivre) ; et à
avoir dans mes placards toutes sortes de choses que j'aime bien
grignoter avant ou après le repas proprement dit : ce n'est
certainement pas indispensable (je ne vais pas prendre mon poivre en
voyage !), mais ça fait partie des nombreuses petites choses qui font
que j'aime bien être chez moi, aucune n'étant indispensable mais dont
le cumul finit par avoir de l'importance.
[#9] À ce sujet,
j'ai déjà écrit que si la
civilisation s'effondre je certainement n'ai pas envie de faire partie
des survivants : je n'ai pas tenu deux mois de confinement sans péter
complètement les plombs, je ne serais absolument pas capable de tenir
dans un monde post-apocalyptique, certainement pas s'il faut se terrer
dans un bunker, même si j'avais prévu de mettre dans le bunker tous
les stylos de couleur et les peluches du monde.
Prenons l'exemple de ma pharmacie domestique : on y trouve
notamment : paracétamol, ibuprofène, aspirine, doxylamine [Donormyl],
cétirizine, Maalox, Gaviscon, oméprazole, métopimazine [Vogalib],
diosmectite [Smecta], macrogol, Pyralvex, Pansoral, Cetavlon
[cétrimide], Biseptine [chlorhexidine], solution de Dakin, Fazol
[isoconazole], Onctose [lidocaïne + hydrocortisone + méfénidramium],
Antarène [gel à l'ibuprofène], crème hydratante [Dexeryl], sérum
physiologique, Actisoufre, spray Prorhinel, Vismed, Cérulyse,
mélatonine, Euphytose… la liste est incomplète. (Et je ne compte pas
les choses comme le dentifrice, la crème solaire ou les vitamines.)
Toutes ces choses me sont occasionnellement utiles, certaines plus que
d'autres évidemment (et certaines de façon plus imprévisible que
d'autres). Aucune n'est strictement indispensable, mais c'est un
élément de confort de savoir que j'ai tout ça sous la main.
Si on voyage, on peut toujours se dire je ne prends rien et
j'achèterai sur place au besoin, mais la pharmacie la plus proche
n'est pas forcément à côté, la pharmacie de garde encore moins, et si
on voyage à l'étranger on ne connaît pas forcément les noms des
produits équivalents (pour les vrais médicaments il y a
une DCI, mais
certaines combinaisons ne sont pas forcément disponibles, et
d'ailleurs certains produits ne sont pas forcément en vente libre
partout[#10]). Si je suis
hébergé chez quelqu'un, je pourrai certainement emprunter des choses à
sa propre armoire à pharmacie, mais elle n'a pas forcément les mêmes
jugements que moi sur ce qu'il est utile d'avoir chez soi (il y a des
gens qui, quand on leur demande s'ils ont du paracétamol, vous
regardent comme si on leur avait demandé du plutonium, et d'autres à
qui on peut demander du macrogol et qui vont vous demander si vous
préférez du 4000 ou du 8000). J'ai peur qu'il ne soit pas considéré
comme très poli d'envoyer une checklist de pharmacie avant d'aller
chez quelqu'un (tu peux me dire ce que tu as dans cette liste ? je
prendrai le reste). Donc je prends un sous-ensemble estimé comme
je peux, et il y a toujours plein de trucs qui ne me servent pas et
des trucs que je regrette de ne pas avoir pris.
[#10] Mon poussinet a
découvert en ayant une terrible gastro au Portugal que la France est
quasiment le seul pays où la métopimazine existe en vente libre. Pour
le (léger) émétophobe que je suis, c'est une information
importante.
Mais les choses qui peuvent me manquer quand je ne suis pas chez
moi ne sont pas forcément des choses matérielles consommables
évidentes comme des médicaments. Ça peut aussi être quelque chose
d'un peu plus abstrait, appelons ça la disposition ou le « réglage »,
le « paramétrage » de mon chez moi.
Par exemple, je me lève généralement au moins une fois pendant la
nuit pour aller aux toilettes (et parfois beaucoup plus qu'une fois).
Chez moi je sais exactement où sont les choses, j'arrive très souvent
à glisser hors du lit, à rejoindre les toilettes, à faire pipi, à
boire un peu, à me laver les mains, et à revenir au lit, sans
réveiller le poussinet, et sans avoir à allumer de lumière, parce que
je sais très bien où je suis et aussi parce que j'ai disposé les
lumières dans l'appartement que je laisse allumées la nuit juste pour
pouvoir aller aux toilettes sans avoir à allumer de lumière
supplémentaire et sans m'éblouir. Et c'est un calibrage un peu
subtil, en fait, qui a mis beaucoup de temps à se faire : trop de
lumière et je me rendors plus difficilement, trop peu et je n'y vois
pas assez. Quand je ne suis pas chez moi, d'une part je ne connais
pas les lieux[#11], d'autre
part la lumière est généralement insuffisante pour me diriger même si
je connaissais bien les lieux, donc je dois en allumer une (ou
utiliser mon smartphone), et ça
m'éblouit[#12] et j'ai du mal
à me rendormir après, et/ou je réveille le poussinet en cherchant mon
chemin ou en trébuchant (ou, justement, en allumant la lumière).
C'est particulièrement le cas à l'hôtel où les toilettes ouvrent
typiquement directement sur la chambre et où on n'a
généralement[#13] pas
d'équivalent d'une petite lumière douce de couloir. Mais même les
quelques jours que nous avons passé chez ma mère, je n'ai pas trouvé
comment me lever la nuit sans réveiller le poussinet.
[#11] Parfois,
d'ailleurs, je me réveille seulement à moitié (ou alors je fais une
forme de somnambulisme, ce n'est pas très clair), je ne
sais plus bien où je suis, je
cherche la sortie au mauvais endroit, et ça peut tourner à la panique
(avec la conséquence que je vais réveiller tout le monde et/ou avoir
beaucoup de mal à me rendormir après).
[#12] S'agissant du
smartphone, je ne comprends vraiment pas que la puissance du mode
lampe de poche ne soit pas réglable. (Du coup, parfois j'utilise
juste la lumière de l'écran, qui est moins forte, mais ça demande de
trouver un endroit où le poser pendant qu'on fait pipi, ce qui n'est
pas forcément si évident.) Et, pour ce qui est des luminaires fixes,
il y a le problème fréquent que je n'ai pas forcément bien retenu quel
bouton allumait quelle lumière : ça peut causer une belle surprise
quand on pensait allumer une petite lampe douce et qu'on allume en
fait un spot qui éclaire comme en plein jour.
[#13] J'ai vu une
seule fois un hôtel (je ne sais plus si c'était à Berlin ou Rotterdam)
qui avait intelligemment prévu une lumière très douce et au ras du sol
qu'on pouvait allumer spécialement pour aller aux toilettes la nuit.
Très bien ! Mais je me demande pourquoi ce n'est pas plus
répandu.
Et ce n'est là qu'un exemple. Le même genre de problèmes se pose
lors de plein de petits rituels de la
vie quotidienne : pour prendre ma douche (chez moi il y a toute
une petite danse d'objets que je prends et repose à des endroits bien
précis que je dois réinventer quand je ne suis pas chez moi pour, par
exemple, éviter de marcher sur un sol pas forcément très propre avec
des pieds mouillés et propres), pour m'habiller ou me déshabiller
(c'est généralement le moment où, en voyage, je me rends compte que
j'ai oublié d'emporter un sac pour le linge sale, ou que l'hôtel ne
fournit pas une petite table basse qui me serait bien pratique pour
poser mes affaires), etc.
Je ne vais pas multiplier les exemples parce que ce n'est pas très
intéressant : aucune de ces choses n'a une grande importance toute
seule (enfin, l'absence d'anti-moustiques au mauvais moment
pendant la nuit, peut-être que si, quand même), mais la combinaison de
toutes explique que je n'aime pas du tout ne pas me sentir chez moi,
et que je n'arrive à me sentir chez moi que, justement, chez moi. (Et
après un déménagement il m'a fallu
beaucoup de temps pour arriver à me sentir chez moi dans notre nouvel
appartement, c'est-à-dire pour le
« paramétrer »[#14] à mon
goût.)
[#14] J'utilise un
terme du monde informatique, mais il y a bien quelque chose comme ça.
Si je reçois un nouvel ordinateur, je passe pas mal de temps à
arranger les choses comme j'aime (installer tous les packages qui me
servent occasionnellement, configurer plein de programmes comme j'aime
qu'ils fonctionnent, notamment plein de raccourcis clavier ou de
paramètres d'interface), avant que je me sente « chez moi » dessus.
Et l'irritation que je ressens à être sur un ordinateur qui ne se
comporte pas comme je veux (mais comment je réduis une fenêtre sur
cette interface ?) est assez proche de celle que je ressens quand
je loge ailleurs que chez moi.
Ce qui m'étonne toujours un peu c'est que quand je parle de tout ça
à d'autres gens j'ai l'impression que ça leur est très souvent
totalement étranger. Bon, je comprends qu'on aime voyager et
qu'on passe outre les inconforts de ne pas être chez soi, ou
qu'on les considère comme assez mineurs, mais j'ai parlé à pas mal de
gens qui ne semblaient même pas comprendre le concept d'aimer se
sentir chez soi (ou en fait, l'idée que chez soi représente
plus que simplement l'endroit où on se trouve vivre à un moment
donné). Est-ce vraiment si bizarre et inhabituel de se sentir mieux
chez soi que n'importe où ailleurs ?
En ce moment il fait chaud à Paris (et en plus notre
clim est en panne), alors je suis
allé récupérer des jeux de données météo, dont
je m'étais plaint précédemment
qu'elles n'était pas librement disponible, et qui le sont maintenant,
pour faire joujou avec. En l'espèce, je suis allé
récupérer[#] les températures
relevées à Paris depuis 1873, spécifiquement celles à la station du
parc Montsouris
(ici).
[#] La source
est ici
(j'ai utilisé les
fichiers Q_75_1816-1949_RR-T-Vent.csv.gz, Q_75_previous-1950-2023_RR-T-Vent.csv.gz
et Q_75_latest-2024-2025_RR-T-Vent.csv.gz) ; je précise
ça parce que c'est un vrai labyrinthe d'aller entre le site
des données
publiques de Météo France et l'endroit où sont vraiment les
fichiers dont je parle, ça continue à ressembler à la blague avec les
chaussures au Goum que j'avais raconté
dans ce billet, sauf que maintenant
il y a vraiment des chaussures au bout, mais elles sont introuvables
depuis l'entrée. (En fait, j'avais bookmarké le lien, et je ne sais
honnêtement pas comment j'ai réussi à naviguer jusque là.)
C'est un jeu de données intéressant, parce que, quand même,
152 ans d'observations continues, ce n'est pas mal du
tout[#2] : il y a bien quelques
jours qui manquent ou sont
incomplets[#3] ou douteux (725
jours au total depuis 1873, le plus récent en 1936), et je suppose
qu'il faut interpréter ces anciennes observations avec une certaine
prudence, mais ça doit néanmoins être une source très précieuse pour
les historiens, et en tout cas c'est très rigolo pour faire joujou
avec. Faire joujou est exactement ce que je me propose de
faire dans ce billet.
[#2] Ce n'est pas le
plus ancien relevé que Météo France ait dans son jeu : il y a des
températures mesurées à l'Observatoire de Paris qui remontent à 1816
(par exemple, on y apprend que les températures relevées pour
le
étaient de 20.5°C pour la minimale et 31.0°C pour la maximale, et que
c'était la journée la plus chaude de ce mois-là). Mais le jeu pour
Paris Montsouris a l'air d'être le plus complet qui soit.
[#3] Dans certains
raisonnements mathématiques que je vais tenir ci-dessous, je vais
faire comme s'il n'y avait pas ces lacunes. Il faut donc les prendre
avec des pincettes (enfin, les raisonnements sont corrects, mais leur
applicabilité est parfois sujette à caution). J'essaierai quand même
de le resignaler de temps en temps.
☞ J'aime faire joujou avec des jeux de données
J'ai déjà dû écrire quelque part (et peut-être qu'un jour je ferai
un billet entièrement sur le sujet) que j'aime beaucoup jouer avec des
jeux de données : faire des stats dessus, tracer des graphes, chercher
des corrélations, regarder les extrêmes, les moyennes, les
écarts-types, ce genre de choses. Beaucoup de gens feraient ça avec
un tableur, d'autres avec Python, moi personnellement je préfère Perl
et Gnuplot[#4], mais peu
importe.
[#4] J'aime bien Perl
parce qu'il est vraiment efficace pour écrire du code qui lit des
fichiers textes, et il a l'avantage important à mes yeux sur Python
que je peux écrire directement en ligne de commande
un one-liner comme perl -F';' -ane 'if ($F[0] eq
"75114001" && $F[8] ne "" && $F[12] ne "" &&
$F[9]==1 && $F[13]==1 && $F[5] ge "18730101") { $med =
($F[16] ne "" && $F[17]==1) ? $F[16] : ($F[8]+$F[12])/2; print
"$F[5]\t$F[8]\t$med\t$F[12]\n"; }' Q_75_1816-1949_RR-T-Vent.csv
Q_75_previous-1950-2023_RR-T-Vent.csv
Q_75_latest-2024-2025_RR-T-Vent.csv > paris-temps.dat
sans avoir besoin d'ouvrir un script, de lui trouver un nom,
d'indenter chaque ligne précisément comme Python le veut. Et
l'avantage de mettre ça directement en ligne de commande c'est que
souvent je mélange avec d'autres outils Unix
(egrep, sort, awk, cut, tail,
etc.) en enfilant les pipes. Par rapport à un tableur, l'avantage est
surtout que n'ai pas besoin de refaire plein de manips répétitives à
la souris. Pour ce qui est de Gnuplot, en revanche, je ne le
recommanderais pas du tout, c'est assez merdique (l'édition de ligne
de commande est complètement cassée, donc en fait je me
retrouve à faire des echo machin |
gnuplot complètement stupides) et c'est plutôt l'inertie
qui me fait continuer à m'en servir.
J'avais fait en 2023 quelque chose
d'un peu sérieux pour l'analyse des températures moyennées sur
toutes la France depuis 1950 (telles qu'extraites de la
réanalyse ERA5). Mais le but de ce billet est
moins de parler des températures elles-mêmes (c'est plutôt un
prétexte) que de parler de la notion de maximum et de minimum, qui est
un des concepts mathématiques les plus simples qui soient, mais qui
peuvent déjà servir d'illustration de comment un mathématicien pense
le monde (cf. ce que
j'écrivais dans ce billet). Et
je vais en profiter pour (sans doute mal) vulgariser le théorème du
minimax de von Neumann. Mais l'idée est surtout de m'amuser avec tout
ça (i.e., comme le titre l'indique, ce billet n'a aucun intérêt si ce
n'est de me distraire).
❦
☞ Maximales, minimales et moyennes
Bon, la température maximale ou minimale sur une journée, ou sur
une année, ou sur une longue période, je pense que tout le monde
comprend ce que ça veut dire.
La température moyenne, c'est déjà un petit peu plus compliqué.
Historiquement, la température moyenne sur la journée est estimée
comme la moyenne entre le maximum et le minimum (je veux dire,
½·(maximum+minimum)), parce que ce n'est pas évident d'avoir un
instrument qui mesure ou calcule la moyenne. Mais plus récemment
(depuis 1950, on dirait ?), on s'est mis à enregistrer dans les
relevés météos une vraie moyenne calculée, je crois, heure par heure
(c'est encore une approximation de ce que serait une moyenne calculée
de façon continue, mais c'est déjà beaucoup mieux). Il y a une
parfois certaine confusion dans les jeux de données entre les deux ;
et c'est déjà un premier signe d'un esprit mathématique que de
comprendre la différence entre les deux et d'imaginer immédiatement à
quoi ressemble une situation où elles vont différer significativement
(par exemple, un pic de chaleur bref mais intense dans la journée va
augmenter significativement la maximale mais beaucoup moins la vraie
moyenne, donc la demi-somme ½·(maximum+minimum) sera plus élevée que
la moyenne). Sur une plus longue période, la différence est moins
importante.
Je précise donc que dans ce que j'utilise ci-dessous
comme moyenne, c'est la moyenne rapportée par Météo France s'il
y en a une, et, sinon, faute de mieux, c'est juste la demi-somme
½·(maximum+minimum) (et donc, en gros, ça semble changer en 1950).
Bref, si je dis quelque chose comme le maximum jamais enregistré
à Paris Montsouris est de 42.6°C le (vers
14h30), le minimum jamais enregistré y est de −23.9°C au matin
du ou la moyenne sur toute la période
allant du au est de
11.5°C, je pense que tout le monde comprend bien.
☞ Maxima de minima et minima de maxima
Ça devient déjà plus compliqué si je parle de maximum du minimum ou
de minimum du maximum. Par exemple : la plus haute minimale
quotidienne enregistrée à Paris Montsouris est de 25.5°C
le (vers 5h10), la plus basse maximale est de
−10.5°C le . Il s'agit là d'un maximum
(sur la période) des minima (sur la journée), et d'un minimum (sur la
période) des maxima (sur la journée). Concrètement, les gens
penseront au maximum des minima comme la nuit la plus chaude,
mais entendons-nous bien, il ne s'agit pas d'une moyenne sur la nuit,
il s'agit du point le plus froid de la journée (qui se trouve être au
petit matin), et ensuite on cherche dans la période considérée la
journée où ce minimum est le plus élevé.
L'idée est donc de parler ici de ce qui se passe quand on combine
des minima, des moyennes et des maxima, de « toutes les manières
possibles », et mon jeu de températures est juste un prétexte pour
faire ça.
On peut y penser comme un tableau à deux entrées : une entrée
(disons, la colonne) est l'heure du jour, et l'autre (disons, la ligne
du tableau) est le jour dans la période. On cherche alors le minimum
ou le maximum, ou d'ailleurs la moyenne, de chaque ligne et ensuite le
maximum, le minimum, ou d'ailleurs la moyenne, de ces nouvelles
valeurs. Ça nous fait neuf valeurs différentes.
Mais comme la météo a deux cycles naturels, le jour et l'année, il
est en fait plus logique de considérer trois paramètres : l'année, le
jour de l'année, et l'heure du jour. Et comme sur chaque paramètre on
peut considérer le maximum, le minimum, ou la moyenne, ça fait 3×3×3 =
27 valeurs distinctes. Pour être bien clair, pour l'instant, je parle
de prendre le maximum ou minimum ou la moyenne de la température sur
la journée (i.e., sur les heures de la journée), puis de
prendre le maximum ou minimum ou la moyenne de ces valeurs sur l'année
(i.e., sur les jours de l'année), puis de prendre le maximum
ou minimum ou la moyenne de ces valeurs-là sur l'ensemble de la
période (i.e., sur les années de la période). Je parlerai après de ce
qui se passe si on change l'ordre des opérations.
Bon, là il y a un petit point qu'il faut que j'évoque, c'est
comment on découpe les jours et les années. Les jours, on les découpe
de minuit à minuit, c'est assez naturel. C'est aussi raisonnable pour
faire de la météo, parce que ni le minimum ni le maximum ne vont
typiquement se produire près de minuit (enfin, c'est rare, même si ça
peut arriver quand une nuit fraîche suit une nuit très chaude, si bien
que le minimum sur 24h serait au début de la nuit suivante).
[Correction () :
on me
fait remarquer que ce n'est pas vraiment ça : le minimum et le
maximum sont calculés sur des intervalles décalés, le minimum entre
18h la veille et 18h le jour nommé, et le maximum entre 6h le jour
nommé et 6h le lendemain :
cf. ce
document.]
Pour l'année, en revanche, commencer au premier janvier est une
mauvaise idée, parce que le minimum sur un hiver peut facilement se
produire soit en décembre soit début janvier, et il sera alors
artificiellement rattaché soit à l'année N−1 soit à
l'année N. (Les saisons météorologiques commencent
par convention en mars, juin, septembre et décembre.) J'ai choisi de
découper au premier septembre, comme ça ça colle à la fois à des
saisons météorologiques mais aussi plus ou moins au calendrier
universitaire ; le choix du premier décembre se serait sans doute
aussi justifié. Bref, mes années vont du premier septembre au
31 août, et je rattache, par exemple,
le (plus basse
température maximale observée à Paris, cf. ci-dessus) à l'année
1938–1939 (celle qui va du
au inclus). Dans tout ce qui suit, sauf
précision du contraire, quand je parle d'années, ce sont ces années de
septembre à août.
☞ 27 combinaisons
Ceci étant dit, voici les 27 combinaisons possibles de minima,
moyennes et maxima (je vais commenter cette table après) :
#
Formule
Valeur
Année
Date
0
mina(minj(minh))
−23.9
1879–1880
1
mina(minj(moyh))
−15.1
1879–1880
2
mina(minj(maxh))
−10.5
1938–1939
3
mina(moyj(minh))
4.5
1890–1891
4
mina(moyj(moyh))
8.8
1890–1891
5
mina(moyj(maxh))
13.0
1890–1891
6
mina(maxj(minh))
15.8
1874–1875
7
mina(maxj(moyh))
22.2
1909–1910
8
mina(maxj(maxh))
29.0
1976–1977
9
moya(minj(minh))
−7.5
10
moya(minj(moyh))
−4.6
11
moya(minj(maxh))
−2.6
12
moya(moyj(minh))
7.7
13
moya(moyj(moyh))
11.5
14
moya(moyj(maxh))
15.6
15
moya(maxj(minh))
20.2
16
moya(maxj(moyh))
26.4
17
moya(maxj(maxh))
34.2
18
maxa(minj(minh))
−1.0
1974–1975
19
maxa(minj(moyh))
1.1
2013–2014
20
maxa(minj(maxh))
4.1
2013–2014
21
maxa(moyj(minh))
10.6
2023–2024
22
maxa(moyj(moyh))
13.9
2023–2024
23
maxa(moyj(maxh))
18.2
2021–2022
24
maxa(maxj(minh))
25.5
2002–2003
25
maxa(maxj(moyh))
34.0
2018–2019
26
maxa(maxj(maxh))
42.6
2018–2019
(Si vous préférez une version texte
brut, elle
est ici. Quant aux records individuels par
année,
ils sont là.)
Pour des raisons évidentes c'est toujours quand on a le plus besoin
de quelque chose qu'on se rend compte qu'elle ne marche pas. Les
seuls travaux que le poussinet et moi ayons fait avant
de déménager de deux étages en
2020, c'était de faire poser une pompe à chaleur multi-split
(Mitsubishi MXZ-3F54VF, avec trois unités intérieures) pour nous
servir de chauffage en hiver et de climatisation en été. (Je renvoie
à ce billet passé pour des
remarques surtout d'ordre général sur la clim, sur lesquelles je ne
veux pas revenir.) Mais ça faisait un moment que nous soupçonnions
qu'il y avait un problème avec (au moins en mode clim) et c'est
maintenant devenu complètement évident.
☞ La version courte du problème : maintenant,
quand on démarre notre clim à fond, elle tourne au début correctement,
puis sa puissance décroît progressivement, fonctionnant à peu près
normalement pendant une période d'environ 1h, jusqu'à retomber,
environ 1h30 après le démarrage, sur une sorte de puissance minimale
merdique qui suffit à peine à rafraîchir une seule pièce. Mais ce qui
est curieux, c'est qu'il suffit de l'arrêter une minute et de la
relancer et on peut repartir sur une nouvelle heure de climatisation à
peu près correcte.
Je vous la refais en plus long, et ensuite j'essaie de discuter de
ce qui peut être la cause du problème.
L'histoire jusqu'à présent : Cette clim
fonctionnait parfaitement bien jusqu'à l'été 2022 (notamment pendant
des journées très chaudes à Paris en juillet 2022 où la température a
dépassé 40°C à Paris), modulo un problème de charge de fluide au tout
début dont je vais reparler. À partir de l'été 2023 nous avons
commencé à soupçonner que ça ne marchait plus si bien, mais comme il
n'a pas fait très chaud cet été-là (juste un peu début septembre), ce
n'était pas super clair. C'est devenu net à l'été 2024 : alors que,
deux ans avant, elle était capable de rendre l'appartement aussi froid
que nous voulions, elle n'arrivait alors plus qu'à le refroidir
médiocrement. Ceci étant, faute de test précis, c'est difficile de
dire si le problème est apparu soudainement ou s'il empire
progressivement.
Je précise que ceci concerne uniquement le mode clim : la fonction
chauffage semble fonctionner correctement. Maintenant il est vrai
qu'elle a un comportement qui semble parfois erratique (par exemple,
elle se met à tourner très fort pendant un moment, puis s'arrête
brutalement), mais si j'en juge par le résultat, il n'y a pas de doute
qu'elle arrive à chauffer correctement notre appartement en hiver.
Mais en mode clim, pendant les nuits chaudes, nous avons par
exemple constaté à l'été 2024 que, pour avoir une fraîcheur correcte,
il était nécessaire de ne laisser tourner qu'une seule unité
intérieure (celle de la chambre).
Nous avons fait venir l'installateur qui avait posé cette clim,
mais comme il était toujours débordé (il nous a posé quelque chose
comme quatre lapins avant de finir par venir vraiment), il n'est venu
qu'en octobre 2024, quand il ne faisait plus chaud du tout. Il a fait
quelques tests et a conclu que tout allait bien : je vais dire plus
bas pourquoi le poussinet pense que ses tests n'étaient pas bien
menés, mais le point essentiel est qu'il a redémarré la clim et que
nous avons bien été obligé de constater que ça faisait du froid
correctement quand on la mettait au maximum. (Nous étions donc un peu
agacés d'avoir eu autant de mal à le faire venir pour qu'il nous
dise tout va bien, rien à signaler alors qu'il nous semblait
que non, mais nous n'avons rien de vraiment tangible pour lui
expliquer la nature du problème.)
Comportement actuel, et quelques expériences :
Maintenant qu'il se remet à faire chaud, après une nuit où j'ai trouvé
que je n'en pouvais plus de cette clim qui marchait mal, j'ai tenté
des expériences un peu systématiques. J'ai donc passé plein de temps,
dans diverses conditions d'utilisation, à relever régulièrement la
consommation électrique de la clim (que nous mesurons grâce à un
sous-compteur dans notre tableau électrique, branché sur le circuit de
la clim, et qui a une LED qui clignote à chaque W·h
consommé et aussi un totaliseur indiquant le nombre de kW·h consommés
depuis je ne sais quand) ; mais aussi la température de la pièce,
celle à laquelle l'air sort des unités intérieures et à laquelle il
sort du compresseur.
Et notre principale conclusion, c'est ce que j'ai écrit plus haut :
il suffit d'arrêter le compresseur et le redémarrer (ne serait-ce
qu'une minute d'arrêt suffit ; de toute façon, quand on le lance, il
ne redémarre pas avant un temps réfractaire quelques minutes, et
encore, il le fait progressivement et n'atteint la pleine puissance
qu'après 8 minutes environ) pour qu'il marche pendant un certain
temps. Quand on fait ça, il part à pleine puissance, consommant
quelque chose comme 2200W électrique (ce qui suggère qu'il doit
produire plus de 6000W de froid), et à ce moment-là, effectivement,
l'air qui sort des unités extérieures est bien froid ; mais
progressivement, sa puissance décline (apparemment par paliers) : elle
reste raisonnablement élevée (en gros ≥1200W consommés) pendant
environ 1h, puis tombe à environ 500W consommés, et l'air est alors
juste un peu rafraîchi (ça peut suffire à maintenir une chambre un peu
fraîche pendant la nuit, mais même ça, c'est limite).
Voici un exemple d'un compte-rendu détaillé que je me suis écrit si
vous voulez voir à quoi ça ressemble (il faut scroller parce que c'est
assez long), pour une expérience (demandée par l'installateur), menée
aujourd'hui, où j'ai lancé les trois unités intérieures à fond :
15:55 disjoncté (après avoir tout éteint) pour nouvelle expérience
relevé 14805.06kW·h
16:00 remis courant
16:00 [16:00:30] allumé 3 unités intérieures
toutes les 3 consigne 16°C, ventilateur à fond
16:09 relevé 14805.14kW·h
conso vient de monter
conso instantanée 2500W
16:11 maximum de température 24.6°C d'après le capteur de CO2
16:15 air sort à 12°C dans le salon (13°C bureau, 13°C chambre), 52°C dehors
16:35 relevé 14806.23kW·h
conso instantanée 2300W
16:37 air sort à 10°C dans le salon (11°C bureau, 12°C chambre), 51°C dehors
16:50 relevé 14806.84kW·h
conso instantanée 2500W
16:53 air sort à 11°C dans le salon (11°C bureau, 12°C chambre), 56°C dehors
T. int 23.5°C [24.1°C au capteur CO2], T. ext 31.4°C selon station météo
17:00 relevé 14807.26kW·h
conso instantanée 2200W
17:03 air sort à 11°C dans le salon (11°C bureau, 11°C chambre), 51°C dehors
T. int 23.4°C [24.1°C au capteur CO2], T. ext 31.4°C selon station météo
17:15 relevé 14807.77kW·h
conso instantanée retombée à 1500W
17:18 air sort à 12°C dans le salon (11°C bureau, 12°C chambre), 48°C dehors
T. int 23.4°C [24.1°C au capteur CO2], T. ext 31.6°C selon station météo
17:30 minimum de température 24.0°C d'après le capteur de CO2
17:30 relevé 14808.12kW·h
conso instantanée retombée à 1200W
17:33 air sort à 15°C dans le salon (13°C bureau, 13°C chambre), 44°C dehors
T. int 23.4°C [24.0°C au capteur CO2], T. ext 31.6°C selon station météo
18:00 relevé 14808.57kW·h
conso instantanée retombée à 700W
18:03 air sort à 17°C dans le salon (16°C bureau, 16°C chambre), 44°C dehors
T. int 23.4°C [24.2°C au capteur CO2], T. ext 31.6°C selon station météo
18:05 code d'erreur relevé
* jaune + 8 blinks rouge = "converter error"
18:15 relevé 14808.74kW·h
conso instantanée 750W
18:18 air sort à 16°C dans le salon (15°C bureau, 16°C chambre), 47°C dehors
T. int 23.5°C [24.3°C au capteur CO2], T. ext 31.6°C selon station météo
18:27 relevé 14808.904kW·h
conso instantanée 400W
18:29 je mets fin à l'expérience
éteint unités intérieures (mises en mode ventilation)
18:30 ventilateur extérieur éteint
Le temps que dure le fonctionnement « normal » de la clim après un
redémarrage est d'environ 1h, et je peux refaire ça plusieurs fois
d'affilée, ça ne change pas. Mais ce n'est pas clair de quoi il
dépend. Si on allume deux ou trois unités intérieures, c'est pareil.
Mais si on en allume une seule, il se passe des choses encore plus
bizarres, la puissance semble fluctuer de façon complètement
incompréhensible. Et ce matin, quand nous nous sommes levés et que
nous avons relancé la clim, elle n'a fonctionné « normalement » que
pendant environ 30min. Mais la fois d'après et les suivantes, elle a
bien tenu une bonne heure.
Je mets des guillemets autour de normal, parce que ce n'est
pas si normal que ça, même avant que la puissance décline fortement.
Il me semble qu'autrefois en lançant les unités intérieures à fond
l'air qui sort pouvait descendre à 4°C ; maintenant nous n'avons pas
réussi à faire moins que 8°C, et encore, pas longtemps. Et même en
relançant la clim toutes les 1h30 environ, elle empêche certes
l'appartement de devenir désagréablement chaud, mais on a l'impression
que c'est vraiment le plus qu'on pourra en tirer. (Autrefois je
pouvais rafraîchir à 21°C si je voulais, maintenant on ne descend que
très péniblement en-dessous de 24°C ; ce qui, certes, me convient au
moins dans la journée, mais montre quand même qu'il y a un problème
même en redémarrant régulièrement.)
Ce qui rend incontestable le fait qu'il y a un souci, cependant,
c'est que le contrôleur de la clim montre un code d'erreur : il y a un
capot qu'on peut ouvrir sur le compresseur qui affiche des codes
d'erreur à travers trois LEDs de couleur, dont la
signification est donnée par le manuel d'entretien dont mon poussinet
a réussi à dénicher le PDF. En l'occurrence, nous avons
observé deux codes d'erreur : l'un (lumière jaune + 2 clignotements de
la rouge) signifie soit defrost in cooling
soit high pressure protection (c'est vachement
malin, ça, d'avoir mis le même code pour deux choses différentes ;
mais de fait, il y avait un peu de givre autour des tuyaux de sortie
du compresseur), et l'autre (lumière jaune + 8 clignotements de la
rouge) signifie converter error, dont nous
n'avons aucune idée de ce qu'il signifie
[correction : en fait, ce n'est pas ce code-là,
cf. l'ajout plus bas].
Bon, alors, qu'est-ce qui se passe ?
L'hypothèse d'une perte de fluide : Je rappelle
que le principe d'une clim split comme la nôtre, c'est qu'il y
a une unité extérieure, le compresseur, qui fait le boulot
thermodynamique (déplacer la chaleur vers l'air extérieur en été, ou
la prendre de l'air extérieur en hiver, quitte à travailler pour ça),
et des unités intérieures, les échangeurs, qui reçoivent pour
ainsi dire le chaud ou le froid de la part du compresseur par
un fluide caloporteur, ou juste le fluide (dans notre
cas, il s'agit
du difluorométhane,
ou R-32). On peut aussi parler de gaz, parce qu'il est
justement choisi pour avoir une transition d'état liquide vers gaz sur
le domaine de fonctionnement de la clim (en clair, en mode clim, le
compresseur envoie du liquide vers les unités intérieures, qui
absorbent de la chaleur en l'évaporant, et le compresseur le remet à
l'état liquide ; en mode chauffage, c'est le contraire).
Le fluide sert donc à échanger la chaleur entre le compresseur (et
donc, l'extérieur) et les unités intérieures. S'il n'y a pas assez de
fluide, la clim fonctionne mal ou pas du tout : le compresseur va
manquer de gaz pour produire du froid, donc il va se limiter en
puissance. Ça ressemble pas mal à ce que nous observons comme
symptômes : une puissance faible, une clim un peu anémique, et si on
arrête la clim le temps que le gaz se répartisse correctement, ça
refonctionne un peu.
De fait, quand nous avons fait poser la clim fin 2019,
l'installateur a juste laissé la charge de fluide qui venait avec, à
savoir 1400g. Mais le manuel d'entretien (que mon poussinet avait lu)
disait qu'il fallait ajouter 500g de fluide quand on branche trois
unités intérieures simultanément (c'est notre cas). Et au début, nous
avons eu des symptômes un peu semblables à ceux que nous
rencontrons maintenant, mais sans expérience super claire pour en
avoir le cœur net. Mon poussinet a fini par convaincre
l'installateur, en juin 2020, d'ajouter un peu de fluide, mais il n'a
mis que 300g supplémentaires (donc 1700g au total) et pas les 500g
préconisés par Mitsubishi, en prétendant que ça suffirait. Il faut
reconnaître que ça a suffi, puisque la clim marchait très bien
ensuite.
Seulement, en décembre 2021, nous avons dû faire déposer le
compresseur de la clim parce que la façade de notre immeuble devait
être ravalée. Elle est restée quelques mois stockée dans notre
appartement, et a été reposée en mars 2022. Comme elle marchait
parfaitement bien à l'été 2022, il faut croire qu'il n'y a pas eu de
problème pendant cette opération, mais il est possible qu'en
raccordant les tuyaux ils aient été mal serrés et qu'une toute petite
fuite soit apparue à ce moment-là, dont du gaz se serait échappé
progressivement pendant les années suivantes, ce qui pourrait
expliquer que la clim ne fonctionne plus bien.
Cette hypothèse de manque de gaz a plusieurs arguments pour
convaincre, et mon poussinet a l'air assez certain que c'est ça la
cause de notre problème. Le fait que les symptômes actuels soient
semblables à ceux que nous avions avant que l'installateur rajoute
300g de fluide est un argument, et de toute façon ce sont les
symptômes typiques d'une clim n'ayant pas assez de fluide : le
compresseur fait du froid, mais il n'y a pas assez de fluide pour le
transporter à l'intérieur, donc il doit se limiter en puissance. Et
notamment, nous avons observé du givre en sortie du compresseur, ce
qui est un signe possible de cette situation. Et si une petite fuite
est apparue à l'occasion de la repose de la clim en mars 2022, ça
expliquerait qu'elle fonctionnait parfaitement à l'été 2022, à peine
moins bien à l'été 2023, de façon très douteuse à l'été 2024, et mal à
l'été 2025.
Mais bon, un problème qui empire, ça peut être dû à plein de
choses.
Le débat : manque de gaz ou pas manque de gaz ?
Vous allez dire, si on soupçonne un manque de gaz, ne suffit-il pas de
faire venir l'installateur pour vérifier ?
C'est exactement ce que nous avons fait en octobre 2024 (quand il a
fini par bien vouloir venir) : il a mesuré la pression et nous a
assuré que c'était bon.
Mais là aussi, mon poussinet (qui a quand même fait un master de
physique spécialité climatisation — avant de faire un autre master et
une thèse en info — donc il sait un peu de quoi il parle) avait lu le
manuel : pour mesurer la pression de gaz, il faut préalablement mettre
la clim en mode nominal, et ce n'est pas vraiment ce qu'a fait
l'installateur : il l'a juste mise à fond, et il est possible que ça
ne fasse pas le même effet, au moins si le déficit de gaz est faible,
parce que le compresseur va ajuster sa puissance de façon compliquée,
et pourrait effectivement compenser la charge insuffisante.
L'installateur nous a aussi dit une autre chose : c'est qu'en cas
de manque de gaz, l'effet serait d'autant plus visible en mode
chauffage. Or, pour autant qu'on puisse en juger, en mode chauffage
notre pompe à chaleur pompachale très bien. Mais le poussinet n'est
pas convaincu par cet argument, parce que c'est vrai qu'elle a un
comportement bizarre en mode chauffage, elle s'arrête parfois
brutalement pour redémarrer juste après… exactement le comportement
qui semble la faire refonctionner quand elle est en mode clim (i.e.,
peut-être que c'est quelque chose qui se produit automatiquement en
mode chauffage, mais pas en mode clim).
Pour essayer de diagnostiquer une éventuelle fuite, nous avons
acheté un gadget qui est censé détecter le gaz en question, même en
toutes petites quantités, dans l'atmosphère. Ce gadget n'a rien
détecté du tout. Mais bon, comment savoir si le détecteur détectait
bien ? Et si la fuite est petite (si elle dure depuis des années et
que ça continue quand même à marchouiller, ce n'est pas une grosse
fuite), peut-être que c'est en-dessous des capacités de détection du
bidule.
L'autre argument qui fait que je suis un peu sceptique quant à
l'hypothèse d'une fuite de gaz, c'est qu'il suffit de couper et
relancer le compresseur pour que « ça remarche », et que ça marche
pendant une bonne heure. Si le fluide est en quantité insuffisante,
d'abord je vois mal comment ça pourrait prendre une heure pour qu'il
en manque au niveau du compresseur (surtout si quelques minutes
d'arrêt suffisent à régler le problème). Et même si ça se produit, il
me semble qu'il devrait baisser progressivement sa puissance jusqu'à
se stabiliser sur une valeur certes en-dessous de la puissance
nominale mais néanmoins compatible avec une opération continue, et
comparable à la puissance moyenne qu'on pourrait obtenir en cyclant
l'appareil de façon répétée.
En clair : s'il nous manque beaucoup de fluide il me semble qu'on
ne devrait pas pouvoir faire marcher la clim pendant une heure de
façon à peu près normale (et refroidir quand même raisonnablement
l'appartement en ce faisant) ; et s'il n'en manque qu'un tout petit
peu, c'est incompréhensible que la puissance baisse graduellement de
2200W à 400W sans se stabiliser entre les deux (à un point où le
compresseur produirait autant de froid que le fluide peut le
transporter vers l'intérieur).
Néanmoins, je dois reconnaître que beaucoup de symptômes que nous
observons (comme le dépôt de givre au niveau du compresseur qui
contraste avec un manque de froid au niveau des unités intérieures)
semblent très typiques d'un manque de transport de chaleur (enfin, de
froid) entre le compresseur et les unités intérieures, ce qui crie en
faveur d'un manque de gaz.
Il y a un autre élément que je dois peut-être
écrire quelque part, mais je ne sais pas bien où (je ne sais pas s'il
peut être important pour l'enquête) : quand la clim a été reposée en
mars 2022 après le ravalement de façade, deux des tuyaux connectant le
compresseur aux unités intérieures (celle de la chambre et celle du
bureau) ont été échangés. Enfin, le problème n'est pas là (les
sorties sont interchangeables), mais c'est que les connexions
électroniques, elles, étaient restées telles quelles. Donc le
compresseur envoyait du froid vers l'unité de la chambre à la demande
de celle du bureau, et vice versa. Nous nous en sommes rendu compte
(deux mois après, en mai 2022, c'est-à-dire à peu près au moment où
nous avons commencé à nous servir de la clim) parce qu'il faisait
glacial sous une unité éteinte alors que celle qui était censée
tourner ne faisait essentiellement pas de froid. Nous avons réglé le
souci en échangeant nous-mêmes les connexions électroniques. Mais
peut-être est-il possible que quelque chose ait été endommagé dans la
clim à cette occasion ? Un capteur, par exemple ?
Bref, il est temps de faire venir un technicien.
Oui mais comment faire venir quelqu'un ?
L'installateur qui a posé la clim nous a initialement fait une bonne
impression, et il n'est certainement pas grossièrement incompétent,
mais mon poussinet a ses réserves (sur le fait qu'il n'ait pas voulu
mettre les 500g de fluide supplémentaire, sur le fait qu'il n'ait pas
correctement mené les tests), et indépendamment de ça, le fait qu'il
soit si difficile à faire venir chez nous (il n'arrête pas de nous
donner un rendez-vous pour l'annuler le jour même) est embêtant.
Mais on ne veut pas faire appel à n'importe qui non plus. D'abord
parce que beaucoup de gens sont probablement au moins aussi
incompétents, et ensuite parce qu'il faut quelqu'un de capable
d'intervenir sur du Mitsubishi (même si c'est assez standard, tous les
installateurs de clim ne gèrent pas toutes les marques).
Mon poussinet est persuadé que c'est devenu de plus en plus
difficile, limite impossible, de faire intervenir un artisan à Paris,
quelle que soit sa profession (notamment parce que la circulation dans
Paris est de plus en plus abominable, que le stationnement est
impossible, etc.). Je pense qu'il en rajoute, mais c'est certain que
les artisans préfèrent venir pour des gros travaux (donc, la pose
initiale d'une clim) que pour des petits (comme diagnostiquer une
panne, ajouter du gaz, ou rechercher une fuite).
Et évidemment, quand il fait chaud, les gens font plus appel à des
installateurs ou dépanneurs de clims (et quand il ne fait plus chaud,
les problèmes ne se manifestent plus nécessairement).
Toujours est-il que ce qui nous tracasse n'est pas le défaut de
clim dans l'immédiat (certes elle est fortement sous-optimale, on peut
dire que nous avons en ce moment un ventilation légèrement réfrigérée
plutôt qu'une vraie clim, mais ça reste quand même beaucoup mieux que
pas de rafraîchissement du tout, et ça devrait suffire à rendre à peu
près supportables les jours, et surtout les nuits, vraiment pénibles
que la météo nous promet prochainement à Paris). Mais de ne pas
savoir quel est le problème, ni si on pourra faire venir quelqu'un
pour le diagnostiquer, ni s'il sera facilement corrigeable, ou, s'il
s'agit d'une fuite de gaz, si on pourra la trouver, tout ça est quand
même assez stressant.
(Combiné au fait que mon serveur de mails a rendu l'âme mardi et
que j'ai dû me précipiter pour lui configurer un remplacement, tout ça
m'a aussi fait perdre énormément de temps que j'aurais préféré
employer à autre chose.)
Mise à jour
() : Bon, un technicien est passé
et il a trouvé la fuite. Manque de chance pour
nous, la
fuite est irréparable, donc l'unité est fichue.
Nouvelle mise à jour
() :
Le compresseur a été changé (€€€), mais il s'avère que la fuite
n'était peut-être pas, ou pas totalement, responsable de notre
problème. (C'est difficile de juger à ce stade parce qu'il ne fait
plus très chaud, donc il n'y a de toute façon pas de problème à
maintenir l'appartement frais, mais l'air qui sort dans la chambre ne
semble pas aussi frais qu'il pourrait l'être.) On soupçonne
maintenant (aussi ?) un capteur de température défectueux dans une des
unités intérieures, qui peut-être penserait à tort que l'air qui en
sort est trop froid et donc limiterait la quantité de froid produite
par le compresseur.
En fait, le code d'erreur (lumière jaune + 8 clignotements de la
rouge) que nous avions vu était mal lu (il y a plein de sous-cas qui
utilisent les mêmes codes, système est extrêmement mal foutu), quand
on trouve la bonne ligne dans le manuel d'entretien, il signifie
plutôt : During cooling operation, the temperature of
indoor heat exchanger becomes 7°C–11°C or less within 1 hour after the
compressor starts running, or it becomes 9°C–17°C or less later than
that. [It depends on the indoor unit type/model or the difference
between the set temperature and the room temperature.] La
référence à 1 heure dans ce descriptif semble coller à ce que nous
observons et suggère que c'est une protection qui se met en place.
Si c'est ça la raison de notre problème, on est face à quelque
chose qui ressemble à
un problème de
Gettier : le poussinet a conclu a une fuite parce que les
symptômes ressemblaient à ceux d'une fuite, et il en a trouvé une, il
y avait bien une fuite, mais elle n'était en fait peut-être pas la
cause des symptômes. Doit-on dire qu'il savait qu'il y avait
une fuite ?
Je me retrouve une fois de plus
le dernier jour du mois sans rien avoir écrit dans ce blog et du coup
je vais faire un billet de remplissage, ce qui est la solution de
facilité. Enfin, peut-être que la solution de facilité serait juste
de faire le micro-changement dans ce moteur de blog pour qu'il ne
fasse pas le micro-bug[#] qui se
produirait si je laisse passer un mois sans rien écrire, je ne sais
pas.
[#] Je pense que ça
génère un lien cassé dans le calendrier des mois (mais à vrai dire je
n'ai même pas pris la peine de relire le code pour vérifier).
Peut-être aussi que j'aurais pu être facétieux et écrire un billet
demain et le dater du 32 mai, après tout j'ai
bien déjà fait ça, et soit dit en
passant je ne recommande vraiment pas de mettre des dates
comme 2007-03-32 quelque part dans un contenu pérenne
comme un blog parce qu'ensuite vous allez passer les N
années suivantes à perpétuellement devoir faire attention à ce que ça
ne casse rien (par exemple, dans la base de données
PostgreSQL qu'utilise le moteur de blog, un des champs
date est obligé d'être de type text à cause de cet unique
foutu billet).
Bref, je vais juste taper ce qui me vient à l'esprit jusqu'à ce que
j'en aie marre, et m'arrêter là.
Peut-être que c'est comme ça que je devrais en général rédiger mes
billets de blog, en fait.
La manière dont je les écris vraiment, c'est quelque chose comme
ceci. De temps en temps, j'ai des idées qui me viennent à l'esprit,
parfois avec plein de choses à dire dessus. C'est souvent le cas
pendant mes insomnies nocturnes, d'ailleurs : la nuit, enfin, la
période insomniaque de la nuit, est propice aux idées légèrement
obsessionnelles, parfois c'est une mélodie qui me trotte dans la tête
de façon obsédante, parfois c'est une angoisse quelconque, parfois
c'est une question de maths, et parfois c'est un sujet de billet de
blog — que je ne peux pas m'empêcher de préparer dans ma tête. Bref,
quand une idée me vient, je la rentre dans un fichier
TOBLOG[#2], et comme
toutes les
listes[#3] dont le nom
commence par TO, il s'agit d'une structure informatique
appelée FIPNO pour First In
Probably Never Out.
[#2] Bon, il ne
s'appelle pas TOBLOG mais memepool.txt
parce que je l'ai commencé à l'époque où le
mot mème
n'avait pas encore été préempté par les communautés de réseaux sociaux
pour signifier image plus ou moins drôle utilisée comme modèle pour
faire passer un message sur Internet.
[#3] Quoi, il n'y a pas
d'article dans la Wikipedia en anglais pour to-do
list ‽ → TOWRITE !
De temps en temps, je suis devant mon ordinateur, j'estime que j'ai
du temps à perdre (ou j'en ai marre de faire de l'insomnie en pensant
à tel sujet), et je sors une idée de mon fichier TOBLOG et je me mets
à taper le billet en question. Généralement je commence avec un
certain enthousiasme, et plus le temps avance plus cet enthousiasme
décroît, jusqu'à ce que l'écriture du billet devienne un véritable
pensum.
Il y a deux principales raisons à ça. La première c'est que mon
intérêt est probablement passé à autre chose. La seconde, c'est que
j'ai probablement commencé à taper les choses les plus faciles et qui
me viennent le plus naturellement à l'esprit, donc que plus j'avance,
plus il faut travailler, surtout qu'il faut probablement relire ce que
j'ai déjà écrit pour garder un certain semblant de cohérence du
billet.
Quoi qu'il en soit, le progrès tend à être logarithmique. Dès
lors, plusieurs issues sont possibles. Soit j'arrive quand même à
pousser le billet au moins jusqu'à un point où je peux raisonnablement
conclure. Soit je me dis, tant pis, je publie ce que j'ai écrit, et
je pourrai toujours me dire que je fais une suite plus tard. (Voix
du narrateur :en fait, il n'y
aura pas de suite.) Soit j'envoie mon billet partiellement
écrit dans le cimetière des billets partiellement écrits. D'où il est
théoriquement possible qu'il ressorte un jour (après tout, ça m'est
arrivé de publier des choses écrites longtemps avant et légèrement
remaniées), mais généralement c'est un autre FIPNO.
Vous allez me dire, je n'ai qu'à écrire des billets plus courts.
Mais ce n'est pas si facile de de forcer à écrire court. Ni ma
verbosité naturelle qui tend à faire des phrases à la Proust,
l'élégance en moins, ni l'anxiété qui me pousse à devancer chaque
objection que je peux imaginer, ne sont facilement domptées. Mais il
y a aussi qu'à force de publier des billets-fleuves, j'ai des
scrupules à écrire sur un sujet que je ne n'ai pas recherché avec une
certaine profondeur.
L'avantage des plate-formes de microblogging, c'est que non
seulement ça m'oblige à maintenir ma la capacité mentale à exprimer
une idée en ≤280 caractères (bon, maintenant c'est plutôt 300), mais aussi
que tout le monde comprend la contrainte donc que si je ne donne pas
tous les arguments ou tous les détails sur quelque chose, on
comprendra que c'est pour cette raison. Sur mon blog, c'est plus
difficile de me défendre si j'écris, par exemple, que Wayland c'est de
la merde, que je n'ai pas le temps d'expliquer que Wayland c'est de la
merde. (D'ailleurs, Wayland c'est de la merde, et je n'ai pas le
temps d'expliquer.) Ici, si je veux expliquer pourquoi je ne mets pas
un point à la fin des formules
mathématiques, il faut au moins que je cite le premier article de
la DUDH en hindi (et du coup que je le trouve), ce qui
prend du temps.
Parlant de temps, l'autre problème c'est que j'ai une gestion
absolument désastreuse du temps. Que ça soit dans ma vie personnelle
ou professionnelle, je ne sais absolument pas faire passer les choses
prioritaires en premier, ni même (ce qui serait au moins quelque
chose) les choses les plus rapides à faire ou les plus agréables pour
moi.
Par exemple, j'ai
récemment écrit
un fil[#5] de 92 posts sur
la classification des groupes simples finis. Ce qui était
effectivement quelque chose dont je voulais parler depuis un moment,
sauf que ce n'était vraiment ni le lieu ni le moment. Pas le lieu,
parce que pas grand-monde ne lit ce genre de longs fils (qui aurait eu
plus sa place sur mon blog… surtout qu'il y avait déjà un
billet là-dessus dans le cimetière-des-inachevés), et pas le moment
parce que j'avais plein d'autres choses plus importantes, plus
urgentes et même plus agréables (pas forcément les trois à la fois,
certes) à faire.
[#5] Le fil Bluesky ne
nécessite pas de compte pour être lu. Si néanmoins vous préférez
Twitter, c'est
ici (à des micro-différences près, c'est censé être pareil ; mais
la version Twitter a quand même le mérite que je n'ai pas oublié de
copier-coller les premiers 85 caractères, Probably
one of the most monumental achievements of human mathematics is the
Classifi, dont l'absence donne à la version Bluesky une impression
de commencer in media res un peu
surréaliste).
(Bon, peut-être quand même que je reprendrai ce fil, une fois
reformaté et traduit, et peut-être complété avec des bouts du billet
zombie qui traîne dans le cimetière, pour le reposter sur ce blog. Ou
peut-être pas.)
Il y a quand même un aspect de ma gestion du temps qui n'est pas
trop con et peut expliquer que j'écris moins en une certaine période
de l'année, c'est quand il fait beau et pas trop chaud et que les
jours sont longs, quand j'ai du temps libre, je vais plutôt préférer
sortir faire une balade dehors. En hiver, ça a un certain charme de
se blottir chez soi à 18h avec une tasse de thé blanc bien chaud entre
les mains, devant l'ordinateur, pour se plaindre très longuement
qu'il fait froid dehors. Entre
mars et juin[#6], j'ai tendance
à
préférer profiter
des fleurs.
[#6] En mai, en plus,
il y a plein de jours fériés et de ponts. Paradoxalement, ça me fait
moins de temps pour blogguer, parce que pendant ces jours fériés je
vais sans doute sortir me balader avec le poussinet (par exemple, pour
le jeudi de l'Ascension, nous nous sommes promenés
aux fins
fons de l'Essonne, entre Saclas, la vallée de la Juine, et celle
de la Marette), et le reste du temps, j'ai autant de choses à faire
mais moins de temps pour les faire.
(Pour éviter tout malentendu, je ne me cherche pas des excuses,
parce que je ne dois de billets de blog à personne. Je suis juste en
train de m'auto-analyser.)
Bon, bref, ce ne sont pas les sujets de billets de blog qui me
manquent. J'en ai plein dans mon fichier TOBLOG, y compris des
récents. Il y en a même un qui est passé tout récemment au cimetière
des billets partiellement écrits : je ne sais vraiment pas pourquoi je
me suis dit que ce serait une bonne idée d'écrire au sujet de
la TVA dans
l'UE[#7], mais ça
m'a vite fait chier donc je l'ai expédié dans les limbes.
[#7] Je vous la fais en
court (pour montrer que je sais quand même faire court). J'ai
récemment appris que quand on veut vendre en ligne depuis un pays de
l'UE vers un autre pays de l'UE, au-delà
d'un montant cumulé ridiculement faible (du genre 35k€),
la TVA est due au pays importateur (c'est-à-dire
le pays de l'acheteur) et au taux fixé par celui-ci. Ce qui veut dire
que c'est beaucoup beaucoup plus compliqué de vendre des
choses en ligne vers un autre pays de l'UE quand on est
soi-même dans l'UE (il faut connaître les taux qui
s'appliquent, ce qui est extraordinairement difficile parce que ça
nécessite de connaître le droit interne du pays vers lequel on vend,
et, pour commencer, d'en connaître la langue) que depuis un pays
hors UE et/ou vers un pays hors UE. C'est
l'explication que je cherchais depuis si longtemps du fait que plein
de sites européens de vente en ligne refusent de vendre dans plus
qu'une toute petite poignée de pays. (Et du coup, c'est aussi une des
raisons de l'hégémonie d'Amazon, qui peut se permettre ce genre de
complexité.)
Quelques unes des choses qui sont récemment entrées (ou remontées)
dans mon fichier TOBLOG, et dont certaines donneront peut-être un
billet un jour, mais ne comptez quand même pas trop dessus. (Vous
avez le droit de donner un avis sur ce qui vous intéresse, je promets
de l'ignorer consciencieusement.) Comme d'habitude, c'est un
peu éclectique.
(Bon, ça ce n'est pas
franchement récent, ça fait au moins trois mois que j'ai fini de le
lire.)
Je me dis que je devrais écrire un billet sur mon ressenti de
l'extension de l'espace comme pendant de celui que j'ai écrit
sur le passage du temps.
C'est peut-être un sujet un peu trivial, mais il est
extrêmement difficile de trouver un endroit où uriner en espace urbain
(même à Paris où il est censé y avoir des sanisettes partout, quelque
chose comme 2/3 d'entre elles sont HS à un moment
donné).
J'ai des problèmes de prostate/vessie et je peux en
profiter pour en parler, mais indépendamment de ça, si la société
impose une règle qu'on ne fait pas pipi n'importe où, c'est vraiment
un problème s'il n'y a pas de solution disponible. (C'est aussi une
raison de préférer se balader en forêt.)
Je pourrais écrire un billet pour discuter un peu des
représentations des mathématiciens dans la fiction.
(J'ai
récemment regardé la
mini-série Prime
Target, que je ne recommande pas franchement, mais c'est un
bon prétexte pour parler d'un certain nombre de clichés à ce
propos.)
Parlant de fictions, je ne sais plus quand j'ai commencé à
faire attention à ça, mais il y a une sorte d'obsession dans la
fiction pour la lignée du sang qui fait passer le message tout à fait
malsain que les parents adoptifs ne sont pas de vrais parents. Ça
vaut la peine d'en parler un peu.
Ce que je viens d'écrire est
sans doute incompréhensible, alors je donne juste un exemple : il y a
un film célèbre dans la pop-culture où un protagoniste dit au
héros : Je suis ton père ! La réponse que le héros aurait
dû faire à ce point est la suivante : Pas du tout. Mon père,
mon véritable père, s'appelle Owen Lars, parce que c'est lui qui m'a
élevé, c'est lui qui m'a vu grandir, c'est lui qui m'a protégé.
Obi-Wan a dit parfaitement vrai : vous avez tué mon père et je l'ai
enterré sur Tatooine. Le fait qu'il ne fasse pas cette réplique
et que personne, apparemment, ne se dise ça en voyant cette scène, est
le signe du tropisme dont je veux parler en faveur de la filiation par
le sang.
Il faut vraiment que je fasse un billet sur la notion de
liberté d'expression (en droit et en politique), parce que, peut-être
plus que n'importe quel autre concept en politique, celui-ci est
l'objet des malentendus, peut-être entendus exprès, sur ce que ça
signifie et recouvre, et donc des débats les plus stériles parce que
les gens ne définissent pas le sens qu'ils donnent aux termes.
[Fait :2025-09-30#2830]
Plus j'y pense,
plus je
me dis que ce serait bien pour la santé des démocraties de
rétablir une forme d'ostracisme. Je pourrais évoquer la manière dont
je l'imaginerais.
[Fait :d.2025-10-24#2833
(à la fin)]
Pour faire le parallèle de mon billet
sur l'espoir perdu dans le progrès,
j'ai envie d'en faire un sur le progrès en informatique (je veux dire,
la tech
informatique).
Il
fut un temps où j'attendais la sortie d'une nouvelle version de
tel ou tel logiciel ou de la distrib Linux tout entière, parce que ça
apporterait de nouvelles features intéressantes. Maintenant tout ce
que je pense quand une nouvelle version sort, c'est qu'est-ce
qu'ils auront encore cassé ? et me demander quelles emmerdes ça va
m'apporter. Y a-t-il encore des progrès ? Est-ce moi qui ai vieilli
ou est-ce que tout s'est profondément enshittifié ?
(Ah, et
puis je pourrais en profiter pour me plaindre du fait qu'on veut nous
imposer
cette merde de Wayland.)
Il faut aussi que je fasse un billet pour me plaindre de la
manie d'Intel et compagnie de nous imposer des niveaux de sécurité −1,
−2, −3, etc., sur les ordinateurs (je pense notamment
au Management Engine d'Intel), avec des firmwares
énormes, opaques et non documentés qui sont au mieux nuisibles et
inutiles, certainement d'énormes trous de sécurité, et au pire des
backdoors géantes.
(Je connaissais l'existence du Management
Engine, mais j'ai récemment appris que celui-ci tourne maintenant sur
un cœur séparé — et complètement inaccessible à l'utilisateur — des
processeurs Intel, et qu'il fait d'ailleurs tourner une version de
Minix. Donc il y a non seulement sur mon ordi mais même sur le
processeur principal de mon ordi un OS sur lequel je n'ai
aucun choix ni aucun contrôle, décidé par Intel, et qui non seulement
ne sert à rien de bénéfique pour moi, mais est probablement activement
nuisible. C'est quand même un peu plus qu'un peu préoccupant. Ce
n'est bien sûr pas franchement mieux chez AMD.)
Je me redis régulièrement que je dois écrire un billet sur les
langages de programmation, et pourquoi je n'ai pas vraiment de langage
de programmation préféré mais que je pense que c'est important d'en
apprendre plusieurs (et aussi variés que possibles).
(Et aussi
pour me plaindre que les gens qui ont un langage de programmation
préféré et veulent le faire savoir à tout le monde sont
particulièrement pénibles, et teintent d'ailleurs l'opinion que je
peux avoir de ce langage. N'est-ce pas, Python ?)
Il faut que je reparle de la question de l'activation
éventuelle du HTTPS sur ce site, pour évoquer les
manières dont je pourrais l'envisager et réfléchir tout haut à s'il y
en a qui me semblent acceptables.
(À propos
de ce billet récent, j'ai fini
par envoyer
une lettre papier à l'Archive, et
ils m'ont
répondu : We have identified an issue and are
working on a fix. Bon, en attendant, ça ne marche toujours pas,
mais au moins il semble que quelqu'un soit maintenant au courant de
l'existence du problème.)
Le théorème
de Kreisel-Lacombe-Shoenfield
continue à me sembler complètement magique et mystérieux (alors même
que j'ai regardé sa démonstration en détails pour en
faire un
problème d'examen de mon cours de logique et fondements de
l'informatique). Peut-être que faire un billet de blog dessus
m'aiderait à mieux le comprendre.
Et, comme je le dis plus haut, je pourrais finir et publier le
billet que j'avais commencé sur la classification des groupes simples
finis (en le combinant
avec ce
fil).
Bon, rien que pour parler des choses dont je pourrais
éventuellement peut-être parler ça me prend plein de temps, donc il
est peut-être temps d'arrêter. Quisque eu dapibus enim. In felis
magna, sagittis ac nisl eget, eleifend eleifend lacus. Maecenas
egestas turpis fringilla scelerisque ultricies. Sed sed commodo est.
Pellentesque blandit dignissim congue. In commodo ultrices felis, nec
luctus purus hendrerit non. Sed sed nibh enim. Nulla ullamcorper mi
id tortor elementum, eu porttitor ante aliquet. Etiam in ex non eros
tincidunt fringilla in quis sapien. Aenean ut sodales odio, vel
tincidunt sem. Nulla rhoncus mattis commodo. Maecenas vitae
venenatis ante, consequat rutrum mauris. Sed pellentesque euismod
ante, ac fermentum nunc. Pellentesque non vestibulum lacus, at
scelerisque ex.
Quelques nouvelles réflexions sur les IA et leur utilisation
Il y a deux ans j'avais écrit ce
billet au sujet de ChatGPT dont la fièvre venait
d'emparer le monde en tant que première IA
conversationnelle disponible au grand public, et j'étais parti dans
des réflexions assez décousues portant à la fois sur l'histoire de la
recherche en IA, la question philosophique de si les
machines peuvent penser et des menaces que cela représente, et aussi
les limitations de l'état (alors) actuel de ChatGPT.
Mais j'avais notamment écrit : au moins à court terme […] je suis
beaucoup plus inquiet de ce que nous ferons des IA que de
ce que les IA feront de nous. Deux ans après, le
soufflé des IA étant, je l'espère, un peu retombé (au
moins par rapport à certaines illusions qu'on pouvait avoir formées),
je voudrais tenter de nouvelles réflexions, tout aussi
décousues[#], mais portant
peut-être un peu plus sur l'usage que nous faisons des IA
que sur les IA elles-mêmes.
[#] Décousues parce que
(un peu comme j'explique plus bas que les IA fonctionnent
elles-mêmes) je n'ai décidé à l'avance ni de plan ni de fil directeur
à ce billet, j'ai juste écrit les idées qui me venaient à l'esprit sur
le thème général des IA. Aussi parce que (comme ça
m'arrive souvent) son écriture s'est enlisée quand je me suis mis à en
avoir marre.
Je précise que je ne parle ici essentiellement, sauf brève allusion
occasionnelle, que des IA textuelles, et pas des autres
sortes (notamment celles qui produisent ou manipulent des images, mais
il y a évidemment encore d'autres usages des réseaux de neurones).
Et encore une fois, il faut que je préface tout ce qui suit en
disant que je ne suis pas particulièrement expert. J'ai quelques
idées sur la manière dont les IA, au moins celles
génératrices de texte, fonctionnent (disons que je saurais, en
principe, en écrire une simple), j'ai lu une poignée d'articles de
recherche[#2] sur des questions
diverses autour de leur fonctionnement, je suis assurément capable de
les comprendre (ce n'est pas comme si c'était compliqué), j'ai discuté
avec des gens qui sont vraiment experts du sujet (et/ou qui
l'enseignent), mais je ne peux pas me dire plus compétent que ça.
[#2] Assez pour
remarquer une très nette tendance à la dégradation scientifique suite
au hype autour du thème IA :
comme la covid l'avait déjà
montrée, quand tout le monde veut publier sur le même sujet, ça
donne de la bouillie scientifique, et il n'y a pas besoin d'être
expert du domaine pour remarquer qu'il y a plein de publis qui sont de
la merde produite par des gens qui veulent mettre de l'IA
partout.
Je ne compte donc pas expliquer comment, mathématiquement ou
informatiquement, les IA actuelles fonctionnent. Si vous
voulez des explications à ce sujet, pour faire le service minimal je
peux me contenter de recopier ici un ajout que j'avais fait au billet
d'il y a deux ans, avec quelques liens intéressants :
Pour ceux qui veulent en savoir plus sur le fonctionnement interne
des transformeurs (et des réseaux neuronaux, pour commencer) du point
de vue mathématique, je recommande cette série de vidéos par
l'excellent vulgarisateur 3Blue1Brown sur le
sujet : 1, 2, 3, 4, 5, 6, 7
et résumé (les 1–4 sont sur les réseaux de neurones en
général, les 5–7 sur les transformeurs en particulier, et on peut tout
à fait commencer par la 5 ; la dernière vidéo est un résumé de
l'ensemble, et on peut aussi commencer par elle). ❧ Je peux aussi
signaler
l'article Formal
Algorithms for Transformers de Phuong et Hutter qui a le
mérite de donner du pseudo-code précis qu'il n'est pas évident de
trouver ailleurs.
Ajout
() : Ce
billet du blog de Matoo, qui fait lui-même des liens vers divers
autres textes intéressants, apporte son propre éclairage sur des
questions autour des IA, et je le recommande aussi.
❦
☞ L'IA servie à toutes les sauces vs. le Jihad butlérien
Je dis plus haut que le soufflé est un peu retombé, ou en tout cas,
je voudrais le croire. Comme d'habitude, quand une technologie semble
trop belle pour être vraie, c'est que c'est le cas. On commence à y
voir un peu plus clair dans les choses pour lesquelles
l'IA (dans son état actuel) peut être utile, et
finalement elles ne sont pas si nombreuses que ça : le caractère
extrêmement impressionnant de ChatGPT en 2023 s'est avéré
être surtout un tour de prestidigitation, et si je n'irais pas jusqu'à
dire que ça ne sert à rien, ça ne sert pas à grand-chose. La
meilleure preuve est l'insistance avec laquelle on essaie de nous
vendre de l'IA dans tout, à nous les enfoncer dans la
gorge : si elles étaient vraiment utiles, il n'y aurait pas tellement
besoin de nous supplier d'utiliser un produit gratuit. (Elon Musk,
par exemple, a mis des boutons Grok partout dans Twitter, parce
qu'il a vraiment envie qu'on s'en serve. Et s'il a tellement envie
qu'on s'en serve, c'est que c'est surtout lui que ça
sert[#3].)
[#3] Comme le dit un
adage célèbre au sujet du capitalisme : quand c'est gratuit, c'est que
c'est vous qui êtes le produit.
Mais a contrario, les
luddites naturolâtres qui essaient
de mener contre tout usage de l'IA une sorte de croisade
rappelant
le « Jihad
butlérien » de Dune sont à peu près aussi pénibles
que les techbros qui veulent en mettre partout. Même s'il y a
indiscutablement un débat sérieux à avoir sur, par exemple, la
consommation énergétique des IA ou l'impact sur les
métiers artistiques des IA génératrices d'images, les
deux camps[#4] pèchent par une
importance exagérée donnée à une technologie qui est, finalement, dans
son état actuel, surtout assez médiocre et limitée.
[#4] Comme j'aime bien
rappeler, souvent dans un débat enflammé entre deux « camps »
opposés, en fait les deux camps sont des alliés objectifs
parce que même s'ils ont des positions opposées (ou qui prétendent
l'être…) sur le fond d'une question, ils ont la même position sur la
méta-question de savoir si cette question est importante pour la
société, et chaque camp nourrit l'autre en insistant sur cette
importance. L'exemple le plus frappant, c'est que les sécuritaristes
qui veulent imposer de la surveillance policière partout au prétexte
de notre sécurité sont les alliés des terroristes qui leur fournissent
le prétexte dont ils tirent leur pouvoir. Mais il y a plein d'autres
exemples : on peut appliquer cette analyse à beaucoup de guerres
civiles (où les deux camps vivent surtout de leur capacité à… diviser
la population en deux camps), pendant la pandémie de covid les cinglés
du zéro covid étaient les alliés des cinglés complotistes antivax, et
ainsi de suite. Je pense que dans beaucoup de cas s'agissant d'une
technologie émergente et d'importance largement surfaite, notamment
pour ce qui est des IA, le conflit de façade entre les
technosolutionnistes qui veulent mettre cette technologie partout et
les luddistes qui veulent la voir disparaître de la face de la Terre,
est en réalité une alliance dans l'intérêt exagéré porté à cette
question.
☞ A-t-on fait des progrès en IA depuis 1950 ?
Je n'irais pas tout à fait jusqu'à dire qu'il n'y a eu aucun
progrès en intelligence artificielle depuis
le texte fondateur de Turing en 1950, ou même depuis
2006 quand j'ai écrit ce vieux
billet, voire depuis 2023. On a maintenant, disons, des trucs qui
font bien illusion. Mais je ne sais pas si ces
progrès techniques aient été accompagnés du moindre
progrès théorique. Je dirais que le principal progrès que
nous ayons fait c'est que nous nous sommes rendu compte que
nous n'avions aucune p🤔tain d'idée de ce que la discipline
cherche à faire, de ce que c'est que l'intelligence, et encore moins
de comment elle fonctionne.
☞ En fait, le test de Turing est une mauvaise définition de l'intelligence
Turing avait
proposé un test
(qui porte maintenant son nom) pour détecter de façon pragmatique si
une machine pense : en gros, est-ce qu'elle arrive à se faire passer
pour un humain dans un jeu d'imitation. Le but de ce critère était de
s'affranchir de considérations philosophiques vaseuses sur ce
que penser veut dire ; à la place, on a un but concret :
réussir ce test. (Pour être bien clair, j'étais moi-même persuadé,
jusque vers 2023, que le fait de réussir le test de Turing était une
définition satisfaisante de l'intelligence.) Je ne sais pas dans
quelle mesure on y arrive maintenant (il y a toutes sortes de
variations[#5] dans ce que
signifie administrer le test de Turing), mais clairement on
peut dire qu'il y a eu un progrès dans cette direction.
Malheureusement, je suis maintenant aussi persuadé que le test n'était
finalement pas une bonne définition de l'intelligence : c'est juste
une cheap
plastic imitation de l'intelligence, et ça ne nous avance ni
de façon théorique ni de façon pratique pour comprendre ce que c'est
que l'intelligence ou comment elle fonctionne.
[#5] Notamment : est-ce
que l'examinateur est un expert en intelligence artificielle ou est-ce
que c'est l'homme de la rue ? Et comment a été choisi le candidat
humain ?
En fait, quand on y pense, ç'aurait dû être évident que c'était de
l'anthropomorphisme assez naïf d'identifier « intelligence » à des
compétences en matière de langage. Il est évident que des animaux
sont au moins modérément intelligents sans forcément avoir de grandes
capacités de communication, et certainement de communication en
langage humain. Il y a d'ailleurs aussi des humains qui, pour toutes
sortes de raisons (p.ex., parce qu'ils sont neuroatypiques) ne
réussiraient pas un test de Turing, et ne sont pas forcément moins
intelligents que vous ou moi (enfin, vous je ne sais pas, mais moi
certainement). C'est d'ailleurs sans doute une preuve non seulement
d'anthropomorphisme mais d'une culture humaine particulière qui
identifie le fait de bien penser au fait de bien écrire ou de bien
parler. (Mes lecteurs habitués à déceler la vacuité de ma pensée sous
mes tournures ampoulées ne se laisseront pas avoir par un subterfuge
aussi grossier. )
Alors oui, on peut m'accuser de faire
un sophisme du
vrai Écossais : maintenant que nous avons des machines qui passent
plus ou moins le test de Turing, je prétends que, finalement, ce
n'était pas une bonne définition de l'intelligence. Mais le test de
Turing n'était pas censé être une définition de l'intelligence, juste
un critère proche et plus facile à tester. (Turing
écrit : Instead of attempting such a definition I
shall replace the question by another, which is closely related to it
and is expressed in relatively unambiguous words.) Ce n'est pas
spécialement inhabituel, quand on est face à un concept qu'on ne sait
pas définir proprement[#6], de
tenter des définitions empiriques ou approximatives, quitte à les
rejeter ou les améliorer plus tard. Or clairement,
les IA actuelles ne sont pas intelligentes en un sens
raisonnable du terme[#7], et je
ne suis même pas persuadé qu'elles aient fait le moindre progrès dans
cette direction, en tout cas pas vers une intelligence
« générale ».
[#6] Un autre exemple
serait celui de la vie. Pour ma part, j'aime bien la définition
avancée par Jacques Monod dans le Le Hasard et la
Nécessité, qui propose les trois propriétés suivantes pour
définir la vie : la téléonomie — c'est-à-dire l'organisation
suivant l'apparence d'un projet ou d'un but comme caractéristique
émergente —, la morphogenèse autonome que constitue la
création de structures internes, et l'invariance reproductive
sur laquelle peut se construire le mécanisme darwinien d'évolution par
mutations aléatoires et sélection des plus aptes. Mais je n'exclus
nullement que la découverte d'une forme de vie extra-terrestre qui ne
répondrait pas aux critères qu'on aurait adoptés et qui serait quand
même « évidemment vivante », ou au contraire, d'une forme de non-vie
qui répondrait aux critères, obligerait à repenser la définition.
Même en mathématiques, il peut arriver qu'on découvre qu'une
définition est « fausse » (quand elle est vérifiée par quelque chose
qu'on ne voulait « évidemment pas » mettre sous la définition, ou
inversement).
[#7] Un indice dans ce
sens est qu'on a tenté de les rendre intelligentes en leur ajoutant la
capacité de produire une sorte de flux de tokens interne (au lieu que
l'IA réponde directement à la question, elle produit une
sorte de « réflexion interne » qu'elle utilise pour générer sa
réponse ; c'est ce que fait ChatGPT quand on active le
mode Reason, ou bien Grok avec le
mode Think, et je suppose qu'ils sont plein à
avoir ça ; Grok laisse d'ailleurs visualiser ce flux de réflexion
interne, et il faut reconnaître que c'est rigolo à voir). C'est une
piste raisonnable vu qu'il est évidemment absurde de suggérer qu'on
peut répondre intelligemment à n'importe quelle question en utilisant
un temps de calcul constant par mot, comme le fait le modèle
de base. Sauf qu'en fait l'amélioration apportée par ce gadget est
vraiment marginale : si on n'est pas intelligent en générant un mot,
on ne le devient pas magiquement en en générant
plein in imo capite.
☞ Peut-être que le mot d'intelligence n'a pas de sens
Maintenant il faut surtout reconnaître qu'on n'a aucune idée de ce
qu'est l'intelligence (ou l'intelligence « générale »), et on en a
encore moins idée maintenant qu'en 1950 (enfin, on se rend mieux
compte qu'on n'en a aucune idée). Peut-être simplement qu'il
faut accepter que c'est un mot qui ne veut juste rien dire :
il essaie de regrouper sous un même chapeau la capacité à résoudre des
problèmes qui n'ont aucun rapport les uns avec les autres, capacité de
résolution qui s'avère être un peu corrélée chez les humains, mais
c'est peut-être une spécificité du développement du cerveau humain,
voire une spécificité de notre
culture[#8], sans que ces
choses aient rien à voir entre elles. L'idée qu'il y ait une sorte
d'Heuristique Ultime (l'intelligence générale) qui résout n'importe
quelle sorte de problèmes est peut-être fondamentalement naïve, une
illusion basée sur nos propres capacités. Je ne sais pas. Mais en
tout cas, maintenant qu'on a des trucs inintelligents qui imitent
assez bien l'intelligence, on sait que c'est plus compliqué que ce
qu'on croyait.
[#8] Ça peut être aussi
bête que : les gens qui ont du temps à perdre à s'entraîner à résoudre
le problème X ont aussi du temps à perdre à s'entraîner à
résoudre le problème Y. Manifestement ça ne dit pas
grand-chose sur une corrélation profonde entre la résolution de ces
deux problèmes.
C'est un peu con, de se rendre compte qu'on est en train d'essayer
de faire un truc (atteindre l'intelligence générale) qui n'a
peut-être même pas de sens. L'intelligence artificielle, c'est un peu
comme si on avait toute une branche de la science qui prétendait
essayer de donner une âme aux ordinateurs parce que personne ne
s'était vraiment préoccupé de savoir ce que ça signifie, au juste,
une âme, ni si ça existe vraiment.
☞ On n'a aucune idée de pourquoi et comment nos IA fonctionnent
Mais l'autre déception, c'est que même dans la mesure où on admet
que les IA actuelles sont quand même intelligentes, et
dans la mesure où on admet qu'elles servent à quelque chose, on ne
comprend pas pour autant comment elles fonctionnent ! Ce sont juste
des gigantesques tableaux de nombres (les poids), fabriqués par
un processus d'entraînement à partir de quantités énormes de texte, le
processus d'entraînement tendant à faire évoluer les poids de manière
à favoriser la reproduction du texte d'entraînement,
mais in fine on n'a aucune idée de pourquoi ça
fonctionne. L'intelligence (ou la part
d'intelligence qu'ont nos IA) est un phénomène
émergent, mais même en le voyant se produire nous ne comprenons pas
pour autant comment il se produit.
La grave question de la ponctuation après les formules mathématiques
Il y a toutes sortes de sujets frivoles dans ma TOBLOG-list qui
attendent que je trouve le temps de les traiter, mais en voici un de
la plus grave importance parce qu'il est question de typographie et de
logique, et dont je dois donc m'emparer sur-le-champ :
Que faut-il faire de la ponctuation après les formules
mathématiques centrées ?
Par exemple, si j'écris :
On a ainsi démontré l'égalité fondamentale :
— et que ceci finit une section du texte, est-ce que je devrais
mettre un point final après le 4 (pour finir la phrase
commencée par on a ainsi démontré) ? Et si oui, à quel
endroit ?
C'est, un peu comme la question de savoir si 0 est un entier
naturel, un des points de désaccord importants entre mathématiciens,
susceptibles de dégénérer en flamewar. (Comme
l'écrit un
commentaire sur MathOverflow, it turns out that
one can start an internet flamewar merely by mentioning that one can
start an internet flamewar by asking whether zero is a natural
number, et
je suis
en train de constater qu'il en va de même pour la ponctuation en
fin de formule.)
Parmi les options possibles pour cette ponctuation, on peut
envisager de : la supprimer purement et simplement, la mettre après la
fin de la formule (quitte à ergoter sur le centrage, par exemple
peut-être qu'on centrera la formule hors ponctuation et qu'on ajoutera
la ponctuation derrière, éventuellement séparée par plus ou moins
d'espace), voire à la fin de la ligne où se trouve la formule, ou on
peut encore la reporter au début de la ligne suivante.
Divulgâchons : la convention la plus habituelle dans les documents
mathématiques semble être de mettre la ponctuation à la fin de la
formule (donc, dans l'exemple ci-dessus, il y aurait un point à la
droite du 4). Je n'aime pas cette façon de faire (même si, en
matière de typographie et de conventions éditoriales, le plus
important est d'être cohérent), et je voudrais longuement expliquer
pourquoi.
❦
En résumé, ma position est la suivante :
① que le plus logique (et préférable dans l'absolu) serait de
reporter la ponctuation à ligne suivante, mais ② que, comme il est
disgracieux d'avoir un signe de ponctuation en début de ligne et que
beaucoup de gens trouvent ça vraiment insupportable, le mieux,
comme compromis, est de supprimer purement et simplement la
ponctuation.
En tout état de cause, ce qui me semble le plus important est de
traiter une formule exactement de la même manière qu'on traiterait une
image ou une citation centrée : c'est-à-dire que si on va mettre une
ponctuation après quelque chose comme
On doit à Euler la magnifique formule suivante :
— alors on traitera exactement de la même manière
On doit à Vinci le magnifique tableau suivant :
— ou encore
On doit à Montaigne la magnifique interrogation suivante :
Que sais-je ?
Autrement dit, si on décide qu'il faut mettre un point final à la
droite de la formule, alors la même logique exactement commande d'en
mettre un à droite de l'image et à droite du point d'interrogation de
la citation (je vais revenir ci-dessous sur l'interaction entre
ponctuation « interne » et ponctuation « externe »). Réciproquement,
si on considère qu'il n'est pas opportun d'ajouter un point final à
mes deux derniers exemples, par exemple au motif qu'ils interrompent
le cours de la phrase ou que l'œuvre citée centrée est un tout complet
auquel il ne faut rien ajouter, alors la même logique s'applique au
premier cas.
❦
Mais revenons en arrière d'un cran. Avant de parler des formules
et citations centrées, parlons des guillemets. Quand on cite un bout
de texte entre guillemets, il y a deux sortes de ponctuations qui
peuvent exister (au moins conceptuellement) : la
ponctuation externe, c'est-à-dire celle qui appartient à la
phrase citante, et la ponctuation interne, c'est-à-dire celle
qui appartient à la phrase citée.
La chose la plus logique à faire serait de
conserver les deux dans tous les cas. Par exemple :
― Il a dit Je viens..
― Tu es sûre qu'il a dit Je viens. ? Il n'aurait pas plutôt
demandé Je viens ? ?
― Tu as raison, quand j'y repense, il a plutôt demandé Je
viens ?.
Les deux points[#] de la
première réplique sont justifiés ainsi : le premier, à l'intérieur des
guillemets, sert à marquer la fin de la phrase citée (et à montrer
qu'il s'agit d'une affirmation et pas d'une interrogation), et je
l'appelle ponctuation interne, tandis que le second,
à l'extérieur des guillemets, sert à marquer la fin de la phrase
citante (et, là aussi, à montrer qu'il s'agit d'une affirmation), et
je l'appelle ponctuation externe. Mon petit dialogue
montre que chacune des quatre combinaisons entre les deux ponctuations
‘.’ (point) et ‘?’ (point d'interrogation) pour la ponctuation interne
et externe est possible.
[#] Comme je vais dans
ce billet parler parfois de deux points (‘.’) qui se suivent et aussi
du signe ‘:’, je vais suivre la convention de nommer le second un
deux-points. Un deux-points est donc un signe de ponctuation
unique, analogue à un point-virgule mais formé de deux points
superposés verticalement (alors que le point-virgule est formé d'un
point sur une virgule). Au contraire, si je parle de deux points, ce
sont normalement deux points qui se suivent horizontalement.
La distinction entre ponctuation externe et interne sera peut-être
plus claire si je cite une langue qui s'écrit de la droite vers la
gauche (je ne sais pas s'il est idiomatique, en arabe, de dire
juste انا قادم؟ pour demander je
viens ? ou s'il faut écrire هل انا
قادم؟, ni même si انا قادم est la
bonne/meilleure façon de dire je viens, mais peu importe, pour
les besoins de l'illustration, on va faire avec) :
― Il a dit انا قادم..
― Tu es sûre qu'il a dit انا قادم. ?
Il n'aurait pas plutôt demandé انا
قادم؟ ?
― Tu as raison, quand j'y repense, il a plutôt
demandé انا قادم؟.
Sur cet exemple, la ponctuation interne fait partie du texte arabe
et suit donc les conventions de l'arabe, notamment pour le sens
d'écriture, ce qui commande donc de la mettre à gauche des mots
arabes, alors que la ponctuation externe fait partie du texte français
et suit donc les conventions du français, ce qui commande donc de la
mettre à droite des mots arabes.
Mais oublions l'arabe et revenons au cas général. Si on suit la
logique, donc, on a une double ponctuation : interne et externe. Si
les deux langues vont dans la même direction, elles se suivent, une à
l'intérieur des guillemets et l'autre à l'extérieur.
❦
Je n'ai aucun problème à écrire ça sur le plan de la logique, mais
c'est vrai que c'est un peu lourd et moche d'avoir régulièrement deux
points qui se suivent, l'un à l'intérieur des guillemets et l'autre à
l'extérieur des guillemets (ce qui est quand même le cas le plus
fréquent).
Pour éviter cette mocheté, il y a une convention qui s'est créée et
qui vise à éviter la double ponctuation en supprimant l'une des deux
(c'est-à-dire qu'on évite ce que je viens d'écrire et qui est,
pourtant, logique).
Cette convention n'est pas super bien formalisée. Le
passage guillemets et ponctuation de l'entrée citations
du Lexique des règles typographiques en usage à l'Imprimerie
nationale est, comme d'habitude, incohérent et mal expliqué (ce
bouquin est épouvantablement mal écrit, je ne cesse de le dire), mais
l'idée générale, avec laquelle je suis à peu près d'accord, semble
être grosso modo la suivante.
On va éviter la double ponctuation en utilisant l'une ou l'autre
des conventions suivantes :
lorsque le passage cité constitue une phrase complète (et de
préférence introduit par un deux-points), on peut supprimer la
ponctuation externe à condition que ce soit un simple point
(ou une virgule ?) ; et
à défaut, on peut supprimer la ponctuation interne en
faisant cesser la citation juste avant elle, à condition que cette
ponctuation interne ne soit pas indispensable à la compréhension.
Appelons ces deux conventions la convention de suppression
de ponctuation externe (celle qui permet de supprimer la
ponctuation de la phrase citante sous certaines conditions) et
la convention de suppression de la ponctuation
interne (celle qui permet de supprimer la ponctuation de la
phrase citée, ou, plus exactement, de terminer la citation un peu
avant).
L'Internet Archive n'arrive plus à archiver ce site Web
L'Internet Archive, j'en ai déjà parlé dans le billet lié
ci-dessus, c'est le bibliothécaire d'Internet : c'est à la fois une
collection immense de livres et d'autres documents numérisés (certains
dans le domaine public et librement téléchargeables, certains
« empruntables » à diverses collections), mais aussi et surtout
la Wayback
Machine, un outil librement disponible pour faire des
sauvegardes de pages Web publiquement accessibles
(la Wayback Machine sauvegarde certaines pages
Web de sa propre initiative, mais on peut aussi lui demander
explicitement de faire une sauvegarde de telle ou telle page).
Si vous voulez vous en servir pour sauver une page,
c'est ici que ça se passe
(par défaut on a juste l'option de sauvegarder une page, mais si on
crée un compte et qu'on se connecte, il y a quelques options
supplémentaires qui apparaissent, comme celle de suivre les liens ou
de capturer une image). Et si vous voulez sauvegarder tout un tas de
pages, ou vérifier la présence de tout un tas de pages sur l'Archive,
il y a ce
service qui vous permet de mettre les liens dans un tableau Google
Sheets et traiter les choses en bloc.
Je me sers régulièrement de l'Archive pour faire des « copies de
sauvegarde » des billets de ce blog (et autres pages de ce site) : non
seulement je demande à la Wayback Machine
d'archiver (y compris en suivant les liens) chaque nouveau billet que
j'écris dans ce blog, mais en plus, quand je fais un changement
non-trivial sur le billet, je refais une sauvegarde. Et pour être sûr
que je n'ai rien oublié, tous les quelques mois, j'utilise le service
automatisé pour récupérer la date de la dernière archive de chaque
billet de mon blog, comparer à la date de dernière modification, et si
cette dernière est plus récente, refaire un archivage.
Enfin, ça c'est en temps normal, parce qu'en ce moment, ça ne
marche plus sur mon site. En ce moment, ça veut dire depuis
environ deux semaines, vu qu'une sauvegarde de
l'avant-dernier billet a
été enregistrée
le , mais que
le je
n'arrivais plus à rien sauvegarder. Enfin, tout ça n'est
peut-être pas 100% reproductible (il y a quand
même une
sauvegarde datée
du dernier billet qui est apparue
sur l'Archive, mais je pense que ce n'est pas moi qui l'ai faite,
parce qu'à chaque fois que j'ai essayé, ça a échoué), mais globalement
ça ne marche plus bien, voire plus du tout.
Ce qui se passe est que j'entre l'URL à sauvegarder
dans le formulaire Web de l'Archive, ça mouline pendant environ une
minute (ça c'est plus ou moins « normal », ça le fait tout le temps)
et au final j'ai le message d'erreur : Save Page Now
could not capture this URL because it was
unreachable. (Vous pouvez tester en tentant de de demander une
sauvegarde de votre billet préféré sur ce blog, d'ailleurs je vous
encourage à le faire de temps en temps, des fois que ça marcherait
quand même.) Si on réessaie, le message d'erreur apparaît presque
instantanément, ce qui suggère que l'échec est gardé dans une sorte de
cache.
J'ai essayé de contacter quelqu'un chez l'Internet Archive, mais je
ne sais pas comment faire. J'ai écrit
à infoarchiveorg,
mais je pense que ça tombe juste à la poubelle, en tout cas, personne
ne m'a répondu (je pense qu'ils sont complètement débordés). J'ai
essayé de les contacter via les réseaux sociaux, sans plus de
succès.
J'avais déjà rencontré ce problème en novembre dernier : j'avais
écrit les détails
sur une
question posée sur le StackExchange Webmasters, mais je
n'ai pas vraiment eu de réponse ni de suggestion utile, et c'est
retombé en marche tout seul quelques semaines plus tard (je ne sais
plus exactement quand). Comme à l'époque, l'Internet Archive venait
d'être victime d'une cyberattaque importante, j'avais attribué le
problème à cette attaque, ou à la réponse à cette attaque, et comme de
toute façon ça s'est remis à marcher, je n'ai pas cherché plus
loin.
Pour ce qui est de diagnostiquer le problème, je signale d'abord
que ce n'est pas un problème de robots.txt (je
dis ça parce que c'est la première réaction quand je parle du
problème, et c'est assez normal). Je le sais pour plein de raisons :
mon robots.txt n'a pas changé récemment, il n'interdit de
toute façon pas les pages en question, mais par ailleurs
la Wayback Machine ne consulte pas
le robots.txt (au moins si on fait une requête explicite
de sauvegarde) ; et de toute façon, je sais par mes logs que la
requête est envoyée, c'est la réponse qui n'est pas (bien) reçue.
Ça semble être un problème de timeout : quand je demande à
la Wayback Machine d'archiver une de mes pages,
mon serveur reçoit bien la requête, il commence à envoyer les données,
l'autre côté en ACKe une partie, et puis, brutalement, ferme la
connexion (mon serveur reçoit un RST au
niveau TCP). S'il y a des gens qui connaissent encore
l'art de lire des tcpdump, ça ressemble à ceci
(où 163.172.24.223 est mon serveur
et 207.241.235.134 est celui de l'Archive ; scrollez pour
voir l'ensemble de la trace, qui a 35 lignes) :
En plus clair, l'Archive ouvre une connexion
à 16:07:37.274134, envoie une requête
à 16:07:37.406667, accuse réception des 13841 premiers
octets reçus (16:07:37.541548), et tout d'un coup,
à 16:07:37.541901, déclare brutalement la connexion
fermée (donc 268ms après avoir ouvert la connexion, 135ms après avoir
envoyé la requête, et même pas 1ms après avoir le dernier accusé de
réception qu'elle a envoyé).
Mais si c'est un timeout, il est hyper court : personne ne
s'attend sérieusement à ce qu'un site Web typique puisse envoyer
complètement une page un peu volumineuse à peine 135ms après la
réception de la requête (après tout, 135ms c'est à peine le temps
qu'il faut à la lumière pour faire le tour de la Terre).
Et je ne comprends pas non plus pourquoi ça n'affecterait que mon
site. Peut-être que c'est parce qu'il est accessible uniquement
en HTTP (pour les raisons
qu'on sait), ce qui devient de plus en plus rare à une époque où
tout le monde veut mettre du HTTPS partout, même sur des
sites complètement publics et sans aucun élément confidentiel :
peut-être que l'Archive a un timeout différent en HTTP et
en HTTPS et que celui en HTTP a été
(provisoirement ? accidentellement ? comme effet de bord d'autre
chose ?) placé à une valeur très basse, et que personne ne s'en est
rendu compte parce qu'il n'y a que très peu de sites
en HTTP (et qu'en plus, s'ils sont situés à une distance
faible de l'Archive, c'est-à-dire de la Californie, ça peut quand même
passer avec un timeout court).
Bref, si des gens ont des éléments de réponse, ou des conjectures,
à proposer, je suis preneur. (Peut-être que je peux jouer avec les
paramètres TCP pour envoyer plus rapidement toute la
page, mais je ne sais pas si je veux vraiment jouer avec ça.)
Même si je cédais et que je rendais mon site accessible
en HTTPS (ce que je vais certainement finir par faire un
jour ou un autre quand cette merde sera devenue vraiment inévitable),
ça ne réglerait vraiment rien : d'abord, je ne suis pas certain que ce
soit vraiment le problème (c'est quand même super compliqué à tester
vu combien HTTPS est une abomination à configurer, et je
ne peux pas prendre le risque de le faire sur ce serveur-là des fois
que Google découvrirait le port 443 ouvert et commencerait à la
visiter) ; et même si c'est le cas, il faut quand même que l'Archive
puisse archiver la version HTTP des pages, parce que rien
ne garantit la manière dont les gens les chercheraient (il y a des
permaliens en HTTP qui ont été publiés, donc ils doivent
rester valables indéfiniment, au minimum sous forme de redirection,
donc si je passe en HTTPS ça m'oblige à refaire tout
l'archivage en double, en fait).
*
Bon, en attendant, il y a un autre service d'archive que je peux
utiliser, c'est celui
de archive.today (je ne comprends
pas bien qui l'héberge, mais
cf. la page
Wikipédia à son sujet pour plus d'explication). J'ai veillé à ce
que « beaucoup » de mes billets de blog « importants » soient archivés
dessus (par exemple, le dernier est
ici), mais il ne semble pas y avoir de mécanisme pour automatiser
le processus, et je n'ai pas envie de lancer manuellement 2820
requêtes d'archivage. En plus de ça, archive.today a un défaut (qui
est peut-être un avantage dans certaines circonstances, mais
certainement un défaut sur mon blog), c'est que comme il est prévu
pour archiver des pages avec du JavaScript compliqué (ce que mon blog
n'a pas !) il considère qu'une adresse en #fragment n'est
pas la même que l'adresse sans le #fragment
(voyez ce
passage de ce billet pour des
explications sur la signification de ces identificateurs de fragment).
Or sur mon blog, les permaliens ressemblent indifféremment
à http://www.madore.org/~david/weblog/d.2025-03-28.2820.archive-youtube-woes.html#d.2025-03-28.2820
ou juste
à http://www.madore.org/~david/weblog/d.2025-03-28.2820.archive-youtube-woes.html
ça ne change rien, le fragment sert juste à se positionner en tête du
billet plutôt qu'en tête de la page, mais archive.today considère
quand même que ce sont deux pages distinctes : bref, certains de mes
billets sont archivés avec le fragment, d'autres sans, et c'est un peu
la merde.
❦
Passons à autre chose, qui n'a rien à voir.
YouTube efface mon historique au bout de 46 jours
Je regarde beaucoup de vidéos sur YouTube. Mon poussinet et moi
avons même un ordi dans le salon (où nous mangeons) qui nous sert en
gros spécialement à regarder des vidéos pendant que nous dînons —
parfois des films ou des documentaires (par exemple téléchargés via le
site Web d'Arte ou
de France.tv) mais juste YouTube.
(L'ordi en question est connecté à la télé, et à un écran et une
souris sans fil. La télé ne nous sert quasiment plus à regarder la
télé, même si, pour autant que je sache, elle marche encore : la seule
chaîne que nous aimions regarder régulièrement était France 24, qui
est la seule chaîne d'info potable en France, mais elle n'est plus
disponible sur la TNT alors même si on la regarde ce sera
via l'ordi.)
Je ne sais pas par quel miracle, je continue à
échapper aux pubs sur YouTube :
j'utilise juste Firefox avec uBlock Origin, et pour l'instant je n'ai
jamais vu une seule pub sur YouTube. (Peut-être qu'un jour ça cessera
de marcher, et alors j'arrêterai de regarder YouTube parce que, de ce
que je comprends, leurs pubs sont atrocement envahissantes et
insupportables, mais tant que ça marche, eh bien j'en profite.)
Je regarde pas mal de choses (forcément
très éclectiques, vous me
connaissez si vous lisez ce blog) : globalement, il y a plein de
mini-documentaires très bien faits sur énormément de
sujets[#] sur YouTube.
[#] Je peux en profiter
pour recommander quelques chaînes que je regarde assez souvent et que
je trouve intéressantes (dans un ordre assez aléatoire) :
‣ Garrett Ryan (Told
in Stone) pour des choses sur l'antiquité gréco-romaine
souvent sous l'angle de la vie courante,
‣ Tribunate pour
l'antiquité romaine sous un angle plus politique et parfois avec un
regard vers le présent,
‣ History Matters
pour des petites questions d'histoire présentées de façon super
rigolote, ‣ Look
Back History qui est un peu semblable mais en moins drôle,
‣ The Cold War sur
(l'histoire de) la guerre froide spécifiquement,
‣ Patrick Kelly
qui raconte des choses extrêmement intéressantes sur l'histoire de la
médecine,
‣ Chemistorian pour
l'histoire de la chimie,
‣ Kathy Loves
Physics pour l'histoire de la physique (présentée par une dame
super enthousiaste),
‣ Legal Eagle pour
toutes sortes d'explications sur le droit américain (qui sont en ce
moment surtout des analyses de toutes les illégalités commises par
l'administration Trump),
‣ William Spaniel
(Lines on Maps) pour une analyse de la géopolitique sous
l'angle de la théorie des jeux (il a sans doute le défaut de
surestimer la rationalité des acteurs, mais c'est néanmoins très
intéressant, et sa façon de présenter est rigolote),
‣ Spectacles qui
fait des analyses très intéressantes sur l'histoire d'événements
politiques du monde entier,
‣ PolyMatter qui
analyse plutôt des tendances économiques ou géopolitiques,
‣ Imperial qui est un
peu dans le même genre que les deux précédentes,
‣ Into Europe qui
analyse des questions économiques ou politiques en rapport avec
l'Europe ou l'Union européenne,
‣ Kraut the
Parrot qui parle d'histoire de la politique ou de la construction
des États et qui illustre ça avec des dessins style Polandball,
‣ Politics with
Paint qui parle de sujets entre la géographie et la géopolitique,
aussi dans le style Polandball,
‣ Versed, dont je
ne suis pas sûr de comprendre la ligne éditoriale mais en tout cas
c'est intéressant,
‣ fern, pareil, ils
parlent de toutes sortes de choses mais c'est plutôt bien,
‣ Let's Talk
Religion qui parle d'histoire ou de pratique des religions
(souvent je trouve que c'est un peu longuet mais en général c'est
quand même très instructif),
‣ Vox pour des explications
sur des sujets de société (généralement américains),
‣ Kurzgesagt pour de
la vulgarisation scientifique de toutes sortes de sujets avec des
dessins tellement mignons que c'est la peine de la regarder juste pour
les dessins (et pour la voix melliflue du narrateur),
‣ Sabine
Hossenfelder qui est devenue une star de la vulgarisation
scientifique (mais je pense que maintenant elle en fait trop et la
qualité se dégrade),
‣ PBS
Space Time pour des explications de divers sujets de physique
fondamentale,
‣ PBS Eons sur
la paléontologie et l'histoire de la vie sur Terre,
‣ History of the
Earth qui raconte l'histoire géologique et biologique de la Terre
à travers une série de documentaires très bien faits,
‣ Minute Earth pour
des vidéos de vulgarisation scientifiques super courtes, aussi avec
des dessins super mignons, sur des sujets autour de la biologie ou de
l'écologie, ‣ Minute
Physics pour le truc analogue pour la physique,
‣ 3Blue1Brown pour
de la (semi-)vulgarisation mathématique incroyablement bien
illustrée, ‣ JuLingo qui
présente toutes sortes de langues (mortes ou vivantes) les unes à la
suite des autres,
‣ Dr. Geoff
Lindsey, un phonéticien anglais qui explique des choses
fascinantes et souvent très rigolotes sur la prononciation de
l'anglais, ‣ K Klein qui
est un linguiste assez geek qui fait des vidéos rigolotes sur plein de
sujets, ‣ KhAnubis qui
parle un peu de tout et de n'importe quoi mais surtout de langues et
de géographie,
‣ J. J. McCullough
qui est un vloggueur canadien homo qui parle souvent de politique mais
pas seulement, ‣ Tom
Nicholas qui est un anglais qui fait des documentaires assez
intéressants souvent en rapport avec la politique mais pas seulement,
‣ The Tim
Traveller qui va visiter des endroits rigolos et fait des vidéos
très mignonnes pour raconter ce qu'il a vu,
‣ Le Nouveau
Programme qui parle d'architecture et d'urbanisme,
‣ The B1M qui parle de
construction et d'ingénierie,
‣ Now You See It qui
analyse le cinéma et toutes sortes de techniques au cinéma,
‣ Just Write qui
analyse le scénario de films et de séries télés. Ouf ! En commençant
cette liste je ne pensais pas qu'il y en aurait autant, et je suis
loin d'avoir tout listé. On voit en tout cas que ce n'est pas trop
difficile de trouver des choses intéressantes à regarder quasiment
chaque jour le temps d'un repas. (Peut-être que cette note aurait dû
être un billet de blog à elle toute seule, en fait. Tant pis.)
Et l'algorithme de recommandation de YouTube est devenu assez bon,
en fait : autrefois (il y a peut-être 5 ou 10 ans ?) il ne proposait
que des merdes ou juste d'autres vidéos de chaînes que j'ai déjà
regardées (quand ce n'est pas simplement les mêmes vidéos que j'ai
déjà regardées), mais maintenant il est assez bon pour proposer des
vidéos qui m'intéressent et qui soient un peu différentes.
Mais pour que l'algorithme de recommandation fonctionne, il faut
qu'il ait du feedback sur ce que je regarde et ce que j'aime. Ça
c'est quelque chose que je suis prêt à donner à Google en échange des
heures que je passe à regarder YouTube : des infos sur ce que j'aime
regarder. Le deal me semble honnête (tant que j'ai le droit de
contrôler ce qu'il stocke, et pour ça, il faut admettre que Google est
sérieux, on peut consulter ce
qu'ils enregistrent sur nous).
Seulement voilà, depuis quelques mois (je ne sais pas exactement
combien, parce que j'ai mis du temps à me rendre compte du phénomène,
par le fait que YouTube me reproposait des vidéos que j'étais sûr
d'avoir déjà vues), un phénomène curieux se produit : mon historique
YouTube s'efface automatiquement au bout de 46 jours.
Plus exactement, il retient les vidéos que j'ai vues
jusqu'au (et ce, depuis 2010 environ, donc
14 ans de vidéos), mais, pour ce qui est des plus récentes, il ne
retient que les 46 derniers jours. Donc au moment où j'écris, ça
s'arrête le ; et entre les deux, il y a un
gros gap, et ce gap grandit d'un jour chaque jour.
C'est assez hallucinant, comme bug. Un truc qui s'efface tout seul
au bout d'un certain temps (et toujours le même temps), c'est vraiment
difficile à faire par accident. Et de fait, Google a une option pour
automatiquement effacer l'historique YouTube, mais j'ai bien vérifié
qu'elle est désactivée (j'ai aussi essayé de la re-désactiver pour
être bien sûr), et de toute manière elle ne propose que les valeurs de
3 mois, 18 mois ou 36 mois, pas 46 jours (ce qui ressemble
suspicieusement à 1½ mois, d'ailleurs). Et j'imagine que si on
l'active, ça efface les trucs carrément vieux aussi (alors que, comme
je viens de le dire, mon historique remonte à 2010).
Donc je ne sais pas quoi penser de cette histoire.
Et le plus marrant, c'est que même YouTube ne comprend pas : je me
suis plaint
du problème sur Twitter, et de façon très surprenante, l'équipe
officielle de YouTube sur Twitter m'a répondu (comme quoi Twitter peut
encore servir un peu quand on arrive à naviguer entre les cacas de
nazis qui empestent les couloirs), ils m'ont demandé de faire
deux-trois essais et j'ai l'impression d'avoir interagi avec des
humains, pas des IA (bon, peut-être que je me suis fait
avoir, qui sait).
Toujours est-il qu'on ne sait pas ce qui se passe. J'ai essayé de
déconnecter de Twitter tous les navigateurs qui l'utilisent et me
reconnecter, j'ai essayer de faire une pause dans l'historique et la
relancer, mais le problème persiste, les vidéos que j'ai vues il y a
46 jours s'effacent imperturbablement de mon historique.
Ce n'est pas que pour les recommandations que ça me chagrine, c'est
aussi pour l'archivage : c'est quand même bien pratique de pouvoir
rechercher dans l'historique de ce que j'ai regardé sur YouTube quand
je me rappelle ah oui, j'ai vu une vidéo intéressante sur tel
sujet et que je veux la recommander à quelqu'un d'autre (c'est
plus simple de rechercher dans mon historique que dans tout
YouTube). Bon, maintenant que je suis au courant du problème, je
vais prendre l'habitude
de télécharger mon
historique YouTube tous les <46 jours et le sauvegarder chez moi,
mais ça restera forcément moins commode à rechercher dedans que si
c'est chez Google. Et en tout état de cause il y a environ un an de
vidéos que j'ai regardées dont il n'y a plus de trace nulle part.
Méta : Contrairement
au précédent qui prétendait être de
la vulgarisation (avec quel succès je ne sais pas), le présent billet
s'adresse aux personnes qui ont déjà une certaine familiarité avec la
calculabilité. (En gros, les prérequis sont les mêmes que
dans ce billet
ou celui-ci
ou celui-là, qui sont sur des
sujets proches : je suppose que les notions, disons, de machine
universelle ou de codage de Gödel sont connues, et c'est préférable si
la notion de machine avec oracle est aussi familière, même si je vais
la redéfinir ci-dessous. Les billets que je viens de citer et
celui-ci peuvent se lire indépendamment et dans n'importe quel ordre,
mais ils devraient s'éclairer mutuellement puisque tout ceci tourne
autour des mêmes questions.)
Désolé, donc, pour les gens qui espéraient un billet non technique
et qui voient de nouveau de la calculabilité (surtout que j'ai mis
beaucoup de temps à le publier parce que j'avais plein de choses à
faire), mais j'ai compris quelque chose, là, et il est très utile pour
moi de le coucher par écrit pour m'en souvenir ultérieurement.
(On peut sauter cette section ainsi que la
suivante si on veut entrer
dans le vif du
sujet.)
La motivation de ce billet est pour moi d'essayer de comprendre le
sens d'un théorème et ce que nous apprend sa démonstration, et
pourquoi je pense qu'il est intéressant et important. Le théorème en
question n'est pas de moi : il est de Martin
Hyland[#], mais je ne suis pas
sûr que ça ait vraiment été remarqué qu'on pouvait le formuler de la
manière que je vais expliquer, donc disons que le théorème est dû à
Hyland mais la formulation est (peut-être) originale. Le théorème tel
qu'écrit par Hyland parle de choses un peu sophistiquées (des
« topologies de Lawvere-Tierney sur le topos effectif »), mais ce qui
m'intéresse ici est qu'on peut le reformuler, ainsi que sa
démonstration, de façon un peu plus élémentaire et peut-être plus
« informatique ». Ce qui ne veut pas dire que la démonstration soit
forcément facile à suivre pour autant ! En tout cas, je ne m'attends
pas que le lecteur sache ce qu'est qu'une topologie de Lawvere-Tierney
ni ce qu'est le topos effectif. Si vous voulez en savoir un peu plus
sur ce que ces mots veulent dire (enfin, au moins les deux derniers),
je renvoie aux autres entrées de ce blog liées ci-dessus, mais, je
répète, ce n'est normalement pas nécessaire de les lire pour
comprendre ce qui suit.
[#] L'article original
de Hyland où se trouve ce théorème a pour titre The
Effective Topos, et il est paru p. 165–216 dans les
actes The L.E.J. Brouwer Centenary
Symposium édité par Troelstra & van Dalen (1982) : en
voici une
version retypographiée
et le scan de
la version d'origine (disponible sur Sci Hub si vous n'y avez pas
accès par ce lien). Le théorème en question est essentiellement une
reformulation du théorème 17.2 de l'article en question (ou, disons,
de l'ensemble de §17, parce que le lemme qui précède est également
important dans ce que je raconte).
C'est, en fait, une tâche assez fréquente dans
le travail d'un mathématicien
d'essayer de « décoder » une démonstration (pas juste la vérifier,
mais arriver à voir ce qu'elle devient dans un cas particulier, ou
dans un cadre un peu différent, ou quand on l'applique dans tel ou tel
contexte, ou quand on la traduit dans des termes plus élémentaires, ou
quelque chose comme ça). Et ce qui suit est le résultat d'un tel
travail de ma part, qui m'a pris, à vrai dire, un temps extrêmement
embarrassant à mener[#2]
(quelque chose comme trois mois, même si je n'ai évidemment pas
consacré toute mon activité à ça), à cause du nombre de fois que je me
suis embrouillé dans les notations et les programmes qui appellent un
programme qui appelle un autre programme.
[#2] En fait, c'est
même plus embarrassant que ça, parce que je n'ai pas réussi à vraiment
décoder la démonstration donnée par Hyland : j'ai fini par laisser
tomber et par trouver la mienne, et c'est celle-ci que je présente
ci-dessous. Elle est problablement équivalente à celle de
Hyland, parce que je l'ai trouvée en essayant de mettre ensemble les
idées et l'inspiration que j'ai retenues de l'article de Hyland. Mais
je n'en suis pas complètement certain non plus.
Mon but est donc d'enregistrer mon cheminement
mental[#3], mais aussi
d'essayer d'amener le lecteur à comprendre quelque chose que j'ai eu
beaucoup de mal à comprendre, et, forcément, ceci présente un certain
défi pédagogique, que je ne sais pas si je vais réussir à mener.
(Peut-être que ce n'est pas possible d'expliquer certaines choses,
qu'il faut forcément s'embrouiller soi-même avant de pouvoir se
désembrouiller.) Je suis encore moins persuadé d'arriver à expliquer
pourquoi je pense que c'est un théorème intéressant et important, mais
je vais au moins essayer un peu. En revanche, je vais devoir demander
à mon lecteur une certaine concentration, au moins pour la preuve du
théorème, que je continue à trouver un peu cryptique à ce stade.
[#3] Les billets de mon
blog sont souvent (cf. ici)
principalement destinés à permettre à mon moi futur de retrouver le
fil de mes pensées, donc j'explique un peu de façon à expliquer les
choses à moi-même dans un avenir où j'aurais oublié comment tout ça
fonctionne.
L'idée du théorème, donc, c'est qu'il nous donne une propriété
équivalente à A est Turing-réductible à B
(pour A,B⊆ℕ ; je vais rappeler ci-dessous ce que
ça signifie, mais très rapidement ça signifie qu'on peut décider
algorithmiquement si un entier appartient à A en ayant le
droit de poser des questions sur l'appartenance de divers entiers
à B). La propriété équivalente est celle de l'existence
d'un convertisseur universel de B vers A
(ce n'est pas un concept standard, et je vais le définir ci-dessous),
qui est une sorte de méta-programme qui transforme un répondeur
pour B en un répondeur pour A,
eux-mêmes des concepts que je vais aussi définir et tenter d'expliquer
(en gros ce sont des programmes qui répondent à la question de savoir
si un élément appartient à B, resp. à A, mais
ils y répondent de façon un peu tarabiscotée).
La notion de réduction de Turing est cruciale et centrale dans
l'étude de la calculabilité, donc il est certainement bon de
l'examiner avec attention. La propriété équivalente proposée par le
théorème (cette notion de convertisseur universel) peut sembler
compliquée et artificielle, mais je vais essayer d'argumenter qu'elle
ne l'est pas tant que ça. Ce qui est intéressant avec cette
propriété, c'est que même si elle est peut-être plus difficile à
comprendre que la définition originale de la réduction de Turing, elle
est aussi plus « pure » : on a besoin de savoir moins de choses pour
l'écrire, et ces choses ne dépendent que très peu des détails de la
théorie de la calculabilité.
Donc, d'abord, l'intérêt est de fournir une définition de la
réduction de Turing qui ne fasse pas intervenir la notion d'« oracle »
normalement utilisée pour la définir : savoir qu'on peut définir la
réduction de Turing sans parler d'oracle (ou sans la déguiser de façon
vraiment transparente) me semble, en soi, assez intéressant. Bon, je
ne sais pas dans quelle mesure cette définition est vraiment
utilisable comme définition (peut-être que pour montrer n'importe quoi
dessus on va de toute façon devoir ressortir toute la théorie des
oracles), mais c'est en soi surprenant qu'on puisse trouver un tel
équivalent.
Mais l'intérêt est aussi que cette propriété équivalente se prête
plus facilement à la généralisation : c'est peut-être plus compliqué,
certes, mais on est essentiellement dans le domaine de la pure
logique[#4], donc les notions
ont un sens dans un contexte beaucoup plus large, et on peut se
demander ce que ça donne dans un tel contexte.
[#4] En quelque sorte,
tout le thème du billet (mais que je vais laisser caché en
arrière-plan, et je n'en parle qu'en petits caractères, pour ne pas
supposer de connaissances de logique intuitionniste) est de comprendre
le sens de la formule logique ∀P:Ω.
(((∃n:ℕ.(n∈B∨¬n∈B
⇒ P)) ⇒ P) ⇒
((∃m:ℕ.(m∈A∨¬m∈A
⇒ P)) ⇒ P)) (ici, Ω est l'ensemble des
valeurs de vérité) : l'équivalent dont je parle, c'est que cette
formule est vérifiée [i.e., réalisable], dans le topos
effectif, si et seulement siA est
Turing-réductible à B. Et le sens de la remarque, c'est
que cette formule (ainsi que des généralisations évidentes de
celles-ci, notamment si on remplace A,B⊆ℕ par
des sous-objets de n'importe quel objet,
voire n∈B∨¬n∈B
et m∈A∨¬m∈A par des
prédicats quelconques sur n'importe quel objet) a un sens dans
n'importe quel topos. (Son sens
est la plus
petite topologie de Lawvere-Tierney qui rend B
décidable rend aussi A décidable, mais ce que montre ce
billet, c'est qu'il est parfaitement possible que ceci se déchiffre de
manière qui ne fasse pas appel à la notion de topologie de
Lawvere-Tierney.)
Enfin, je trouve intéressant que cette approche fasse assez
naturellement intervenir des notions fondamentales en informatique :
le continuation-passing-style dans un sens (et,
en fait, on peut dire que toute cette histoire est juste une
réécriture des oracles en CPS ; sauf que la conversion
dans l'autre sens n'est pas aussi facile que cette remarque le
suggère), et, dans l'autre sens, la notion de monade. Je ne suis pas
sûr d'avoir encore bien compris le sens profond de cette apparition,
mais j'espère que le fait d'écrire ce billet m'aidera au moins à y
voir plus clair.
Quelques notations et conventions
Cette section est là uniquement pour référence (et
je l'ai écrite après le reste). Toutes les notations seront
introduites au fur et à mesure de leur utilisation, ou bien sont assez
standard ou évidentes, donc on
peut sauter cette section
(et peut-être qu'il vaut mieux le faire), mais c'est sans doute une
bonne idée de les rassembler en un seul endroit pour référence.
D'abord, pour qu'elles soient plus commodes à retrouver, je
divulgâche ici les trois définitions fondamentales et le théorème qui
seront expliquées et commentées
dans la suite :
✱ Définition : Si A,P⊆ℕ,
un P-questionneur pour A est un
couple ⟨m,e⟩ où m∈ℕ et,
si u=1A(m) est la
valeur de la fonction indicatrice de A en m,
alors le programme e appelé sur l'entrée u,
termine et renvoie un élément de P.
✱ Définition : Si A,P⊆ℕ,
un P-répondeur pour A est un
programme qui, quand on lui passe un P-questionneur
pour A, termine et renvoie un élément de P.
✱ Définition : Si A,B,P⊆ℕ,
un P-convertisseur de B
vers A est un programme qui, quand on lui passe
un P-répondeur pour B, termine et renvoie
un P-répondeur pour A. Et
un convertisseur universel de B
vers A est un même programme h
qui est un P-convertisseur de B
vers A pour n'importe quelP⊆ℕ.
✱ Théorème : Pour A,B⊆ℕ, un
convertisseur universel de B vers A
existe si et seulement siA est Turing-réductible
à B.
Une tentative pour vulgariser les bases de la calculabilité
Méta : J'étais initialement parti pour écrire un
billet sur la calculabilité d'ordre supérieur (il aurait eu pour
titre calculabilité d'ordre supérieur : comment un programme
peut-il interroger un autre programme ?). Mais en commençant à
écrire l'introduction pour la rendre aussi compréhensible que
possible, je me suis dit que, tant qu'à faire, ce serait plus
intéressant d'essayer de faire un billet autonome sur les bases de la
calculabilité, en cherchant à le rendre à peu près accessible au grand
public[#]. Après tout, ce sont
des notions que j'enseigne à
Télécom Paris, ça peut être intéressant d'essayer d'isoler, de façon
moins mathématique, les messages principaux que j'essaie de
communiquer aux étudiants.
[#] La notion
de grand public est, évidemment, assez mal définie. Par
exemple,
on m'a
affirmé que si je fais une phrase avec une subordonnée, l'immense
majorité des gens ne savent plus lire. Bon, c'est peut-être vrai,
mais je pense que de toute façon cette immense majorité ne sera en
aucun cas intéressé par faire l'effort de concentration minimal pour
comprendre une tentative de vulgarisation d'un sujet scientifique,
même si cette vulgarisation est optimalement faite ; et de toute
façon, elle ne lira jamais mon blog vu que, même sur un sujet qui n'a
rien de technique, j'ai tendance à faire des phrases à la Proust.
Donc disons que je parle à des gens capables de lire une phrase de
plus que quelques mots sans perdre le fil de leurs pensées, et qui
acceptent de faire un peu d'efforts de concentration. En revanche,
j'essaie de ne présupposer du lecteur aucune connaissance préalable en
maths ni en informatique. (Ce n'est pas toujours évident, parce que
parfois on utilise un terme technique sans s'en rendre compte, et ça a
évidemment pu m'échapper.)
La théorie de la calculabilité, c'est l'étude
mathématique de ce que peut, en théorie, faire un ordinateur ou un
programme informatique, ou plus exactement, de ce que peut faire un
algorithme en l'absence de toute considération
d'efficacité.
Avant toute chose, il faut donc que j'explique un peu ce qu'est
un algorithme.
Si je dois tenter une définition
d'algorithme ce sera quelque chose comme
ceci : un plan précis d'exécution d'étapes simples et
mécaniques de calcul ou de traitement de données, pouvant être réalisé
sans aucune réflexion pour aboutir à un résultat bien défini,
et qui est donc, en particulier, réalisable par un ordinateur (ou, en
principe, par un humain suffisamment patient).
Première difficulté de la vulgarisation, ici, que mon ami David
Monniaux
a souvent
montrée du doigt : à cause de la manière dont beaucoup de
journalistes ont
utilisé le mot, de manière volontiers péjorative, comme une
boîte noire dont on ne comprend pas pas le fonctionnement, et/ou dont
le résultat n'est pas bien spécifié, le grand public a en tête une
notion de ce qu'est un algorithme possiblement très différente
de son sens technique. La définition que je propose de plan précis
d'exécution d'étapes simples et mécaniques de calcul ou de traitement
de données, pouvant être réalisé sans aucune réflexion pour aboutir à
un résultat bien défini, et qui est donc, en particulier, réalisable
par un ordinateur (ou, en principe, par un humain suffisamment
patient) est peut-être trop longue pour être vraiment parlante
(cf. ce
fil Bluesky pour une discussion).
D'autres gens proposent de dire des choses plus courtes pour
définir algorithme, par exemple une recette de cuisine
ou ensemble d'étapes permettant de réaliser une action : c'est
peut-être plus clair mais néanmoins exagérément vague pour essayer
d'en parler ensuite de façon précise. (Le problème avec recette de
cuisine ou plan pour réaliser une action c'est que ① ça ne
limite pas le domaine au traitement de l'information, or je ne dirais
pas que, disons, un plan pour faire un coup d'état est
un algorithme, et ② une recette de cuisine, normalement,
n'implique pas de boucles — même si ça peut impliquer d'attendre que
quelque chose se produise —, encore moins de
récursion[#2].) Donc c'est un
peu réducteur. Un algorithme au sens utilisé ici est constitué
d'étapes extrêmement simples et très précisément définies, mais au
final on peut être amené à faire des choses immensément compliquées
avec, parce qu'on peut les combiner de façon très complexe.
[#2] On ne va jamais
être amené à se demander est-ce que cette recette de cuisine
termine ? alors que c'est, justement, une des questions cruciales
qu'on peut être amené à se poser (et à ne pas savoir répondre) pour un
algorithme.
☞ La calculabilité n'est pas l'étude des ordinateurs
Néanmoins, il me semble important de souligner qu'un
algorithme n'est pas forcément quelque chose qui va être exécuté par
un ordinateur. Il s'agit juste d'exécuter mécaniquement des
étapes très simples, sans jamais se tromper, en suivant les
instructions fournies (celles qui constituent l'algorithme). En
principe, donc, n'importe quel algorithme peut être suivi par un
humain comme il peut l'être par un ordinateur (et tout ce que peut
faire un ordinateur peut aussi être fait par un humain) : il s'agira
« juste » de disposer d'une patience infinie, d'un temps illimité, et
d'une quantité illimitée de papier, et d'une capacité incroyable à ne
jamais se tromper, chose pour laquelle les ordinateurs sont
extrêmement bons et les
humains extrêmement mauvais, mais
je veux vraiment souligner que les ordinateurs ne peuvent
rien faire qui ne soit pas, en principe, aussi faisable par un
humain dans ces conditions (patience infinie, etc.).
Ce que je dis là n'est pas purement théorique : il y a vraiment des
algorithmes utilisables par des humains, et
d'ailleurs utilisés par des
humains[#3]. J'espère qu'on
apprend encore à l'école à poser une multiplication : c'est bien
un algorithme qui est enseigné, et on devrait être convaincu
qu'il permet, en principe, à un humain assez motivé, sans
calculatrice, de savoir combien vaut 96 889 010 407 × 94 143 178 827,
même si ça va être long et fastidieux (et si on pose la question à
l'ordinateur, il va utiliser un algorithme qui n'est pas
substantiellement différent, au moins pour des nombres de cette
taille, de celui qu'on a appris à l'école).
[#3] Ou du moins, qui
l'ont été : le nombre de situations où des humains calculent des
multiplications de grands nombres à la main doit maintenant être
minuscule ; mais historiquement, il y avait des gens dont c'était le
métier. Par exemple, quand Urbain Le Verrier (connu pour sa
découverte de la planète Neptune) prend la tête de l'Observatoire de
Paris en 1853, puis l'amiral Mouchez en 1887, les tâches ingrates de
calcul numérique sont déléguées à des « calculatrices » (ce sont
essentiellement des femmes, mal rémunérées et très peu considérées).
Toutes les tables de logarithmes publiées avant le 20e siècle ont
aussi, bien sûr, été calculées par des humains appliquant des
algorithmes longs et fastidieux (qui prennent maintenant une fraction
de seconde à un ordinateur). Dans la nouvelle The
Feeling of Power (1957)
(disponible
en ligne ici), Asimov imagine un monde dans lequel plus personne
ne sait faire de calculs autrement que sur un ordinateur, et quelqu'un
redécouvre qu'on peut les faire à la main.
La calculabilité n'a donc pas vraiment à voir avec les
ordinateurs, ou comme le dit un adage (attribué sans doute à
tort à E. W. Dijkstra), l'informatique n'est pas plus l'étude des
ordinateurs que l'astronomie n'est l'étude des télescopes.
☞ Entrées, sorties, programme et extension
Un algorithme, donc, prend quelque chose en entrée
(on peut aussi parler des arguments passés à l'algorithme), par
exemple deux nombres à multiplier, et renvoie un certain résultat
en sortie, par exemple le résultat de la
multiplication. (Les entrées et les sorties seront toutes des
« données finies », terme sur lequel je vais revenir ci-dessous.) Ce
qu'on a fait, c'est calculer une certaine fonction au
sens mathématique.
La différence entre la fonction mathématique et l'algorithme qui la
calcule, c'est qu'il peut y avoir toutes sortes de façons de calculer
la même fonction (par exemple, différentes façons de poser une
multiplication, qui aboutissent au même résultat) : la fonction, c'est
l'opération abstraite qui associe un résultat à des arguments, alors
que l'algorithme, c'est le plan d'exécution par lequel on est arrivé à
ce résultat. Il y a des fonctions mathématiques qui sont plus ou
moins difficiles à calculer par un algorithme, et certaines qui sont
même impossibles à calculer algorithmiquement (elles sont
non-calculables), mais qui n'en ont pas moins un sens
mathématique.
On peut aussi utiliser les termes d'extension et
d'intention (ou intension ?
cf. ce billet au sujet de ce mot) :
l'extension, c'est la fonction mathématique qu'on calcule, tandis que
l'intenſion (quelle que soit la manière dont on l'écrit), c'est
l'algorithme, c'est-à-dire la manière dont on calcule cette
fonction.
Autre difficulté : est-ce qu'algorithme est synonyme
de programme ? En calculabilité, les deux mots sont utilisés
de façon essentiellement interchangeables. Mais il y a au moins des
différences d'usage, au moins dans le contexte de l'informatique plus
large[#4]. Le terme
d'algorithme est plus abstrait et fait souvent référence au
plan de fonctionnement débarrassé de ses détails relatifs à l'usage,
par exemple, d'un langage de programmation particulier (on parle
d'implémentation pour l'écriture concrète d'un algorithme dans
un système informatique particulier), mais la limite entre
l'algorithme et son implémentation est un peu floue. On parle plus
volontiers d'algorithme, par exemple, quand on ne s'intéresse
qu'à la partie proprement calculatoire ; alors qu'un programme
peut faire intervenir une interface utilisateur, des lectures et
écritures sur écran, clavier ou disque, ce genre de choses. En outre,
on peut considérer (ou pas…) qu'un algorithme doit répondre à un
problème bien posé[#5] alors
qu'un programme est simplement une suite d'instruction données à un
ordinateur. (Et évidemment, programme sous-entend un contexte
informatique alors qu'un algorithme est, comme je le souligne
ci-dessus, théoriquement applicable par un humain.) Convenons,
néanmoins, d'ignorer ces subtilités et que, dans ce qui suit, puisque
je veux parler de calculabilité, et même si ce n'est pas vraiment
l'usage habituel, programme signifie la même chose
qu'algorithme, et que j'utiliserai ci-dessous ces termes de
façon essentiellement
interchangeable[#6].
[#4] J'aurais du mal à
dire, par exemple, qu'un navigateur comme Firefox est
un algorithme. C'est un programme. Ce programme utilise
toutes sortes d'algorithmes à différents endroits (par exemple, pour
organiser les marque-page il y a certainement des algorithmes de tri),
mais il n'est pas un algorithme dans l'usage normal du mot (ne
serait-ce que parce qu'il n'arrête pas d'avoir des nouvelles versions,
alors qu'un algorithme est quelque chose de plus abstrait). A
contrario, la manière dont on fait une multiplication à l'école
primaire est un algorithme, je ne qualifierais pas ça de programme (ne
serait-ce que parce qu'il n'y a pas d'ordinateur en vue).
[#5] Ce que je veux
dire, c'est que, selon cette distinction terminologique (avec laquelle
je ne suis pas forcément d'accord), un algorithme doit avoir
une spécification : il prend en entrée certaines données et produit un
certain résultat qui doit répondre à un certain problème
mathématiquement bien défini (la spécification de
l'algorithme) ; et on est censé prouver mathématiquement que
l'algorithme correspond bien à sa spécification. Dans ce sens,
ChatGPT n'est pas un algorithme (même s'il y a des
algorithmes utilisés pour, par exemple, calculer ses paramètres à
partir d'un corpus d'entraînement, ou pour produire la sortie à partir
de ses poids), parce qu'on ne peut pas dire qu'il réponde à une
quelconque spécification. En quelque sorte, cette distinction
terminologique cherche à refléter la distinction entre les méthodes
formelles/rigoureuses et heuristiques en informatique, en réservant le
terme d'algorithme pour les premières.
[#6] Dans la mesure où
je fais une différence (et elle ne sera pas forcément systématique),
c'est que quand un programme prend en entrée un autre programme
(situation qui va jouer un rôle important dans la suite), j'ai du mal
à appeler le deuxième un algorithme (en effet, il doit être
écrit dans un cadre bien précis, avec des instructions bien précises,
et il ne vient pas avec une sorte de spécification ou de mode
d'emploi, et justement on va voir que c'est difficile de l'analyser,
donc toutes ces raisons suggèrent que le terme de programme est
plus approprié).
Encore une autre difficulté est de savoir si un algorithme a le
droit de faire appel au hasard. En calculabilité, la réponse est
implicitement non (le hasard n'est pas calculable, il s'oppose
même au calculable[#7] en un
sens bien précis), mais dans d'autres branches de l'informatique, la
notion d'algorithme faisant intervenir le hasard (algorithme
« randomisé ») est légitime.
[#7] Ce qui ne veut pas
dire qu'il n'y ait pas toutes sortes de questions fascinantes de
calculabilité à se poser sur ce qu'on peut faire si on dispose d'une
source de hasard (peut-on faire avec le hasard des choses qu'on ne
peut pas faire sans hasard ? essentiellement non, mais ça dépend de
l'interprétation précise de la question que je viens de dire de façon
trop vague ; pour une référence précise, voir
le fact ①
sous cette
question).
Bref, le domaine de la calculabilité a pour but d'étudier ce que,
de façon théorique, un algorithme peut ou ne peut pas faire, et donc,
pour commencer, de proposer une définition mathématiquement acceptable
de ce qu'un algorithme signifie.
☞ Sans préoccupations de ressources !
Mais une autre précision importante est que la calculabilité ne
s'intéresse pas aux « ressources » consommées par l'algorithme lors de
son exécution, c'est-à-dire : le temps qu'il met, la mémoire qu'il
utilise, ou toute autre ressource (l'énergie consommée sur un
ordinateur réel). On suppose qu'il dispose de ressources (temps,
mémoire, etc.) « finies à chaque instant, mais illimitées a
priori », et c'est ce qui rend le sujet assez théorique.
(Certains des algorithmes considérés par la calculabilité sont tout à
fait inapplicables sur un ordinateur réel, en ce qu'ils prendraient
bien plus que la durée de vie de l'Univers à s'exécuter sur une entrée
modeste : pour autant, on dira bien que le résultat est calculable en
fonction de l'entrée.) En cela, la calculabilité s'oppose à d'autres
domaines de l'informatique, tels que :
l'algorithmique, qui est l'art d'écrire des
algorithmes (de préférence, efficaces) pour résoudre des problèmes
bien posés,
la complexité, qui est l'étude mathématique des
ressources (principalement : temps, mémoire) consommées par un
algorithme lors de son exécution, et de ce que peut faire un
algorithme disposant de telles ressources limitées.
La complexité est une discipline beaucoup plus soigneuse que la
calculabilité : elle ne cherche pas juste à savoir si des choses sont
« en principe possible, avec assez de temps et de mémoire », mais
combien ça va effectivement[#8]
coûter en temps et en mémoire. La calculabilité se moque de ces
questions d'efficacité, elle ne cherche à faire dans la
dentelle[#9], donc c'est une
discipline assez théorique.
[#8] Bon, effectivement avec des
pincettes, quand même, parce que c'est généralement une
complexité asymptotique, c'est-à-dire « à l'infini », donc ça
reste assez théorique.
[#9] Par exemple, sur
la question de savoir décider si un nombre n est premier,
la calculabilité peut très bien dire oui, c'est une question
décidable [=calculable], parce qu'on peut tester tous les
produits i×j pour 2≤i≤n et
2≤j≤n, et voir si l'un d'entre eux est égal
à n : c'est une façon ridiculement inefficace de savoir
si un nombre est premier, mais pour la calculabilité, c'est un
algorithme qui marche, c'est tout ce qui compte.
Par exemple, on pourra dire en calculabilité que les décimales du
nombre π sont calculables (il existe un programme qui, quand on lui
donne n, renvoie les n premières décimales — ou
juste la n-ième, pour la calculabilité ça ne change rien),
mais évidemment, si vous voulez les calculer vraiment, il vaut mieux
regarder un peu plus finement quel algorithme utiliser pour que ce
soit efficace. (Et, dans le monde réel, il est peu vraisemblable
qu'on arrive jamais à calculer la 101000000-ième décimale
de π, alors que pour ce qui est de la calculabilité, il n'y a pas de
problème particulier.)
À cause de ces ressources illimitées données aux algorithmes, les
résultats positifs de la calculabilité (telle ou telle chose est
calculable) sont plus faibles que ceux de la complexité (telle
ou telle chose est calculable en temps ceci-cela ou en mémoire
ceci-cela) ; mais symétriquement, les résultats négatifs
de la calculabilité sont d'autant plus forts : quand on
montre que quelque chose n'est pas calculable au sens de la
calculabilité, c'est que ce n'est pas possible d'y arriver (de manière
systématique), même si on n'a aucune contrainte sur le temps
ou la mémoire. Et c'est sans doute pour cette raison qu'on
s'intéresse beaucoup, en calculabilité, aux résultats négatifs (je
vais notamment démontrer, ci-dessous, l'indécidabilité du problème de
l'arrêt, qui est l'exemple fondamental dans ce sens).
☞ La « thèse » de Church-Turing
Mais la première chose avant d'étudier les algorithmes, c'est
d'essayer de définir précisément ce qu'est un algorithme, pour pouvoir
espérer raisonner[#10]
mathématiquement dessus.
[#10] L'algorithmique
n'a pas vraiment besoin de définir exactement ce qu'est un algorithme,
puisqu'elle cherche juste à en construire : on peut se contenter de
savoir, en pratique, reconnaître qu'on a bien construit des
algorithmes. Mais pour espérer prouver des
résultats négatifs du type aucun algorithme ne peut faire
ceci-cela, il faut forcément une définition mathématiquement
robuste.
Une des constatations importantes de la théorie de la calculabilité
est la thèse de Church-Turing, qui affirme,
grosso modo, que toute approche raisonnable pour définir la notion
calculabilité algorithmique (déterministe, finitiste) aboutit à la
même notion. Expliquons un peu ce que ça veut dire.
Comme je l'avais évoqué
récemment, je voudrais parler un peu de la théorie mathématique du
marchandage coopératif (selon Nash).
Je me suis senti motivé, donc, une fois n'est pas coutume j'ai fait
des dessins[#]
(en SVG, produits
avec TikZ) pour illustrer le billet,
j'espère qu'ils aideront à comprendre ce que je raconte.
[#] Désolé si les
étiquettes sont en anglais : à l'origine j'ai fait ça pour
un petit
fil BlueSky (dont ce billet est en quelque sorte la version
étendue), et je n'ai pas voulu changer ensuite. Mais accessoirement,
je n'ai pas trouvé de traduction française satisfaisante pour le
mot settlement : j'ai écrit des choses comme accord
négocié (ou point négocié) dans le corps du texte, et c'est
long et lourd.
En contrepartie, il faut que je reconnaisse que, comme souvent mais
peut-être encore plus que d'habitude, ce billet bordélique souffre du
défaut que je ne sais pas bien à quel niveau mathématique je veux me
placer : il y a des passages qui ne supposent aucune connaissance
mathématique, d'autres où je suppose le lecteur familier avec des
notions comme celle de partie convexe, de différentielle, ce genre de
choses, et je passe de l'un à l'autre de façon pas super cohérente ;
il y a des passages où j'essaie de parler de façon purement
géométrique et sans aucun symbole, d'autres où je me suis trouvé
obligé à écrire des formules, ce qui gâche un peu l'effort fait pour
ne pas en mettre ; parfois je redis la même chose de plein de façons
différentes et tout ça est mal séparé. (En plus de ça, j'avais
commencé par écrire quelque chose de complètement
faux[#2] : j'ai rectifié comme
j'ai pu, ce qui a donné naissance à la quatrième partie du billet,
mais du coup j'ai dû faire pas mal de repentirs, ce qui a certainement
cassé des choses, au moins le fil de mes pensées.) Et puis, comme
souvent, il y a plein de notes en bas de paragraphe qui sont destinées
à apporter des éclaircissements sur tel ou tel point mais qui,
peut-être, rendent la lecture d'autant plus compliquée.
[#2] À savoir que la
rentabilité de la défense, que je vais définir ci-dessous, vaut
toujours exactement ½, ce qui est manifestement absurde.
Bref, j'espère que c'est quand même assez compréhensible. Les
lecteurs non mathématiciens peuvent sans doute sauter les passages où
il y a des calculs ou des démonstrations, on doit pouvoir tirer
quelque chose du reste. (La question de savoir si ce quelque chose
est vraiment intéressant, en revanche, est laissé en exercice au
lecteur.)
Pour ceux qui veulent une description mathématiquement plus précise
que cette sorte de vulgarisation bâtarde, je renvoie principalement
à l'article de Nash de
1953 Two-Person Cooperative Games
(qu'on pourra
aussi trouver
ici), ainsi qu'à un plus
ancien, The
Bargaining Problem, mais aussi, par exemple, le livre de
Damme, Stability and Perfection of Nash Equilibria
(Springer 1991), chapitre 7 ; ce sont là mes sources essentielles pour
ce que je raconte.
La situation qu'on cherche à modéliser mathématiquement ici
est la suivante : on a deux joueurs (appelons-les Alice et Bob),
parfaitement égoïstes, parfaitement rationnels[#2b] et parfaitement bien
informés, qui cherchent à négocier quelque chose, typiquement le
partage d'une ressource ou n'importe quelle forme
d'accord[#3]. L'idée est la
suivante : Alice et Bob vont négocier un accord, et s'ils y
parviennent (l'accord doit être accepté par les deux parties), tant
mieux, sinon, ils se feront la guerre. Quand j'écris ils se feront
la guerre, ce n'est pas forcément à prendre au sens littéral, mais
c'est une situation défavorable qui résulte de l'absence d'accord (par
exemple, ça peut simplement être le fait que la ressource à partager
est perdue pour les deux joueurs). La négociation se fait donc sous
la menace[#4] de cette
situation par défaut (la guerre). Comme j'ai supposé mes joueurs
parfaitement bien informés, cela suppose notamment qu'ils connaissent
l'issue espérée[#5] de la
guerre pour chacun des deux. Cette issue de la guerre est supposée
défavorable pour les deux joueurs (si l'un des deux joueurs a plus à
gagner à faire la guerre qu'à négocier, évidemment il ne va pas
négocier).
Quand j'expose cette théorie, on réagit parfois en me
disant mais en vrai les gens ne sont pas du tout rationnels !
<U+1F602 FACE WITH TEARS OF JOY
répétée trois fois>. Certes, je ne le nie pas (et par exemple,
je pense que surestimer la rationalité des acteurs est la principale
erreur que commet cette chaîne YouTube
pourtant intéressante par ailleurs, qui parle de géopolitique sous
l'angle de la théorie des jeux). Mais la démarche scientifique, et
c'est étonnant combien beaucoup ont l'air d'avoir du mal à comprendre
cette idée, consiste à utiliser des modèles extrêmement simplifiés de
la réalité, non pas comme modèles de la réalité, mais comme points de
départ pour comprendre les comportements possibles de la réalité et
chercher ensuite comment la réalité peut différer de ces modèles
(c'est-à-dire le degré suivant de l'approximation). On pourra par
exemple se référer à l'épidémiologie dont j'ai
exposé différentes facettes
mathématiques pendant la pandémie tout en ne manquant pas de
pointer du doigt les biais
systématiques auxquels l'utilisation de tels modèles pouvait
conduire : cette démarche n'a rien de contradictoire. Donc, oui, je
pense tout à fait qu'un modèle de la négociation entre acteurs
parfaitement rationnels et parfaitement informés a énormément à nous
apprendre sur la négociation dans le monde réel, même si elle n'en est
pas du tout un modèle.
Sérieusement, je ne comprends pas pourquoi tout le monde éprouve
tout le temps le besoin de faire cette remarque les vrais gens ne
sont pas rationnels, comme si ce n'était pas une évidence. À
chaque fois qu'un prof de physique enseigne la mécanique classique sur
des boules de billiard je ne pense pas que tous les étudiants
protestent que ça ne sert à rien d'étudier ça parce que dans la vraie
vie il y a des frottements, etc., donc que cette mécanique classique
ne servira à rien. Pourquoi donc est-ce que tout le monde semble
penser qu'il faut dire ça ne servira à rien ! les gens ne sont pas
rationnels dès qu'on évoque l'étude de ce que les maths ont à dire
sur la négociation entre agents rationnels ? (Déjà, ça peut servir à
mesurer comment et par combien ils sont irrationnels, ou pensent que
la partie adverse l'est, ou ce genre de choses. Quand on modélise la
réalité, il est généralement pertinent de commencer par comprendre le
plus simple avant d'essayer de compliquer.)
[#3] Exemple de
situation qu'on peut analyser sous l'angle de la théorie évoquée dans
ce billet, et qui aidera peut-être à comprendre de quoi ça cause :
deux forces politiques envisagent de s'allier pour former un
gouvernement (ou pour voter un budget, ou pour se présenter de façon
commune à une élection). La négociation porte sur le programme
commun : l'espace des programmes politiques possibles est,
évidemment, extrêmement vaste, mais
on ne reflète ici que sa projection sur le plan de l'utilité des deux
forces en question. La « guerre » dont il est question est, alors, le
fait que le pays n'ait pas de gouvernement, ou de budget, ou que
d'autres partis en forment, ou encore de perdre les élections.
[#4] Les termes
de menace et de guerre sont donc essentiellement
interchangeables dans la suite, à ceci près que la menace est la
potentialité de la guerre tandis que la guerre est sa réalisation.
Mais mathématiquement, c'est juste un point sur le diagramme
(représenté en rouge), et qui est crucial pour déterminer l'issue de
la négociation (représenté en bleu).
[#5] Notons que la
guerre n'a pas forcément une issue déterministe, mais ce n'est pas
important pour ce que je raconte : si l'issue de la guerre est
probabiliste, on la remplace par l'espérance de cette distribution de
probabilités, ce qui est de toute façon ce qui compte pour les joueurs
rationnels : donc si la guerre conduit, par exemple, à ce que les
joueurs aient les gains (−2,−2) avec probabilité ½ et (0,−6) avec
probabilité ½, on remplace ça par (−1,−4). (La définition d'une
fonction d'utilité affine,
cf. la note #6, est justement
celle qui assure que le joueur rationnel est indifférent au choix
entre un gain de x avec probabilité p et
de y avec probabilité 1−p ou un gain
certain de p·x +
(1−p)·y, et sous des hypothèses faibles on
doit toujours pouvoir reparamétrer l'utilité de façon à assurer cette
propriété.)
Une autre hypothèse essentielle de la théorie est que si la
négociation échoue, la guerre est inévitable. Encore une
fois, guerre est un terme un peu fourre-tout qui peut recouvrir
plein de choses, éventuellement probabilistes comme le signale
la note #5 ci-dessus, mais si
les joueurs ont fait des menaces l'un envers l'autre,
ils doivent mettre leur menace à exécution. Cette hypothèse
est indispensable pour que l'autre joueur la prenne au sérieux lors de
la négociation. Donc il faut que les joueurs aient la possibilité de
prendre un engagement irrévocable d'accomplir leur menace : sans cette
possibilité de se lier les mains, l'autre joueur pourra toujours leur
proposer n'importe quel accord qui soit meilleur que la guerre, et ce
serait rationnel d'accepter.
La bonne nouvelle — façon de parler —, c'est que la théorie du
marchandage exposée ci-dessous conclut qu'il existe effectivement un
accord (bien défini par la situation, c'est-à-dire à la fois par
l'issue connue de la guerre et par le domaine des accords réalisables)
auquel les deux joueurs devraient arriver, évitant donc la guerre. La
menace de guerre est indispensable et cruciale pour définir la
solution négociée (je vais y revenir, et toute la discussion va
consister à voir comment l'une détermine l'autre), mais au
final, la guerre n'a pas lieu (sous les hypothèses que j'ai
dites…).
Venons-en au dessin ci-dessus. Les deux axes représentent la
fonction d'utilité[#6] des deux
joueurs, c'est-à-dire qu'Alice cherche à maximiser la coordonnée
horizontale (elle cherche à trouver un accord autant que possible à
droite) et que Bob cherche à maximiser la coordonnée verticale (il
cherche à se placer aussi haut que possible). Chaque point représente
donc une issue possible pour les deux joueurs : plus on est à droite,
plus Alice est contente, plus on est haut, plus Bob est content.
[#6] Il y aurait sans
doute beaucoup à dire sur cette notion d'utilité (et
l'axiomatique qui la sous-tend). Dire que chaque joueur cherche à
maximiser son utilité est ce que j'ai qualifié d'hypothèse
d'égoïsme, mais, en fait, ce n'est pas forcément un terme très
correct : ça ne signifie pas qu'Alice est indifférente à ce qui arrive
à Bob, c'est juste la définition de l'utilité d'Alice (si
Alice est intéressée par quelque chose qui arrive à Bob, il faut juste
refléter ce fait dans la fonction d'utilité d'Alice) : par définition,
les situations qui ont une plus grande utilité pour Alice sont celles
qu'Alice préfère, et symétriquement pour Bob. Mais il y a une autre
hypothèse que je fais implicitement, qui est que la fonction d'utilité
est affine, c'est-à-dire qu'avoir une situation
d'utilité x avec probabilité p et une situation
d'utilité y avec probabilité 1−p équivaut
à une utilité de p·x +
(1−p)·y : là aussi, cela peut sembler
hautement contestable (par exemple, il ne m'est peut-être pas
indifférent de recevoir 1000€ de façon certaine ou 2000€ avec
probabilité ½), mais en fait des hypothèses très faibles doivent
assurer la possibilité de reparamétrer l'utilité sous cette forme
(rien ne dit que ce soit directement lié à l'argent : par exemple, si
je préfère recevoir 1000€ de façon certaine que 2000€ avec
probabilité ½, ça signifie juste que mon utilité à recevoir 1000€ est
plus que la moitié de celle de recevoir 2000€).
Évidemment, il y
a des contraintes (imposées par « la nature » ou l'environnement) sur
les partages autorisés : sinon les deux joueurs choisiraient tous les
deux une solution optimale pour eux et il n'y aurait aucune tension de
négociation (c'est en gros ce qui est montré par le diagramme
ci-contre à gauche, représentant une situation « sans conflit » où, en
gros, les joueurs ne se marchent pas sur les pieds l'un de l'autre,
donc chacun peut choisir sa valeur idéale). Cette région
« réalisable » est grisée dans mon dessin : on ne peut négocier qu'une
solution qui soit dedans. Les deux joueurs sont au courant des
contours exact de cette région (hypothèse qu'ils sont parfaitement
informés[#7]).
[#7] Concrètement, cela
signifie, donc, que non seulement ils sont capables d'envisager tous
les accords concevables, mais qu'ils savent exactement lesquels sont
réalisables, et ce qu'ils en pensent (c'est-à-dire l'utilité de
l'accord pour leur part) et aussi ce qu'en pense l'autre joueur.
Une remarque technique mais importante est qu'on peut supposer que
cette région « réalisable » est convexe. En effet, si elle
ne l'était pas, on pourrait toujours l'étendre pour qu'elle le soit :
il suffit pour cela que les joueurs acceptent des solutions
probabilistes : si par exemple le problème dont il s'agit est de se
partager un zorglub précieux qu'il n'est pas matériellement possible
de partager[#8], les joueurs
peuvent convenir qu'Alice recevra le zorglub avec
probabilité p et que Bob le recevra avec probabilité
1−p, ce qui réalise le segment, dans l'espace des
possibles, entre les deux extrêmes Alice reçoit le zorglub
et Bob reçoit le zorglub. Ceci suppose, bien sûr, que les
joueurs aient accès à une source de hasard commune (ça ce n'est pas
une hypothèse difficile :
voir ce
fil pour quoi faire si chacun dispose d'un dé mais ne fait pas
confiance au dé de l'autre, par exemple), et soient prêts à accepter
les solutions probabilistes (comme signalé dans
la note #6 ci-dessus, ça fait
partie de l'hypothèse d'une fonction d'utilité affine).
[#8] Dans la version
mathématique du jugement de Salomon, au lieu de proposer de couper le
bébé en deux, le roi Salomon propose de tirer au hasard qui le
recevra, et l'utilité est supérieur pour chacune des deux mères au
fait de couper le bébé en deux. Mais du coup, la vraie mère ne se
révèle pas.
On peut aussi supposer (cette fois c'est juste pour simplifier les
figures, ça n'a de toute façon aucune conséquence sur le jeu) que la
région réalisable est stable par diminution de l'une ou l'autre de ses
coordonnées (i.e., tout point situé à gauche et/ou en bas d'un point
réalisable est lui-même réalisable) : c'est dire que les joueurs
peuvent toujours, si ça les amuse, négocier un accord qui soit pire
pour l'un, ou pour l'autre, ou pour les deux, qu'un accord qui est
possible (i.e., ils peuvent toujours brûler gratuitement de
l'utilité). Ceci explique la forme de mes régions, et aussi pourquoi
le seul bord qui existe (qui est de toute manière le seul bord qui va
m'intéresser) est le bord supérieur droit. Encore une fois, ça n'a
pas vraiment d'importance, c'est juste pour ne pas s'embarrasser avec
une partie du bord qui n'aurait de toute façon pas d'intérêt.
Il reste donc une partie convexe du plan dont le bord est constitué
de l'ensemble des points « Pareto-optimaux », c'est-à-dire tels qu'il
n'y ait aucun point réalisable qui soit
strictement[#9] préférable pour
les deux joueurs (i.e. situé à droite et/ou au-dessus et qui soit
encore dans la région réalisable). Les joueurs vont évidemment
négocier un accord qui soit sur ce bord, vu qu'il n'y a aucune
raison[#10] de choisir un
accord si on peut faire mieux pour les deux joueurs. Ce bord est
représenté sur mes figures par un trait plein noir, et le but de la
théorie est de déterminer quel point du bord au juste
constitue le point d'accord rationnel naturel (en bleu).
[#9] On peut ergoter
pour savoir si le terme Pareto-optimal fait référence à
l'impossibilité de faire strictement mieux pour les deux joueurs, ou
mieux pour l'un des deux et strictement mieux pour l'autre. Ce n'est
pas important ici. Si vous êtes gênés par l'affirmation que les
demi-droites horizontale et verticale constituant le bord de la région
réalisable sont Pareto-optimales, imaginez qu'elles sont très très
très légèrement penchées, tellement peu que vous ne puissiez pas le
voir.
[#10] Rappelons que,
dans les négociations, la seule chose qui intéresse Alice est
d'optimiser sa fonction d'utilité (hypothèse d'égoïsme) : elle ne
cherche pas à punir Bob, donc elle n'a aucune objection à améliorer
l'utilité de Bob si ça ne change pas la sienne. Ceci est différent de
la menace de guerre, par laquelle elle cherche effectivement à punir
Bob en cas d'échec des négociations (c'est bien pour ça que j'ai dû
faire l'hypothèse qu'en cas de guerre les joueurs doivent
mettre leur menace à exécution : ce ne serait pas rationnel pour Alice
de chercher à punir Bob si ça ne faisait pas partie d'une menace à
laquelle elle s'est engagée).
Là-dedans, on a un « point de guerre » ou point de menace, en rouge
sur mes figures, qui représente l'utilité pour les deux joueurs de la
guerre en cas d'échec des négociations. Ce point est dans la région
réalisable, et, vraisemblablement, profondément dedans, ce qui
représente le fait que la guerre n'est pas du tout souhaitable, ni par
un joueur ni par l'autre (et tout le but de la théorie est d'éviter la
guerre, et de savoir comment on négocie rationnellement un accord qui
l'évite ; mais la menace[#11]
de guerre, et son inévitabilité en cas d'échec des
négociations, est essentielle pour faire fonctionner la théorie). Les
joueurs négocient, donc, sous et selon la menace que si la négociation
échoue il leur en coûtera à tous les deux.
[#11] Comme je l'ai
dit, c'est une devise bien connue des joueurs
d'échecs, souvent
attribuée (peut-être à tort) à Aron Nimzowitsch qu'une menace
est plus forte que son exécution, et la théorie de Nash vise à
donner à cet adage un fondement théorique. (Bon, j'exagère peut-être
en disant ça, vu que les échecs sont un jeu à somme nulle, et que la
théorie ici développée n'a pas de sens dans le cadre d'un jeu à somme
nulle, donc peut-être que ce n'est quand même pas la même chose.)
Il va de soi que les seuls accords intéressants à considérés sont
ceux qui non seulement sont situés sur le bord (Pareto-optimal) de la
région réalisable, mais aussi à droite et/ou au-dessus du point de
guerre. (En effet, un point situé, disons, à gauche du point de
guerre, correspond à un accord pire que la guerre du point de vue
d'Alice, donc Alice n'acceptera jamais un tel accord : elle préférera
faire la guerre.) D'où les lignes horizontale et verticale en
pointillé qui émanent du point de guerre sur mes figures : les accord
réellement envisageables sont ceux situés dans la région grisée un peu
plus sombre, au-dessus à droite du point de guerre, et, en fait, sur
le bord Pareto-optimal de cette partie. Mais où exactement ?
Approche axiomatique
Là je n'ai fait que poser le problème. Nash y répond de la façon
suivante :
✱ Théorème (Nash, 1950, 1953) : L'issue
rationnelle de la négociation (présentée ci-dessous, et avec une
caractérisation à définir ci-dessous) est l'unique point du
bord de la région réalisable dont la tangente soit de pente opposée à
la droite qui le relie au point de guerre.
Je vais essayer d'expliquer pourquoi c'est le cas (et ce que ça
veut dire au juste), mais pour ce qui est des illustrations, le point
négocié dont je parle est représenté en bleu sur mes figures, la
tangente[#12] est aussi
représentée en bleu, et j'ai essayé de montrer (par des secteurs
angulaires illustrant des angles égaux) que la pente est opposée à
celle de la droite qui relie le point de guerre au point négocié.
[#12] Il y a un petit
point à noter quand je dis la tangente : le terme est un peu
abusif parce que le bord d'un convexe n'a pas forcément une unique
tangente (il a deux demi-tangentes, mais il peut être anguleux comme
sur ma deuxième figure) : il s'agit donc, en fait, de l'unique point
du bord tel qu'il existe une droite entre les deux demi-tangentes au
point en question (ou, si on préfère, une droite passant par ce point
qui soit le bord d'un demi-plan contenant le convexe). Si on préfère,
on peut ajouter l'hypothèse que le bord du convexe est lisse, comme ça
la tangente existe : on peut de toute façon l'approcher par un convexe
lisse.
Je dois dire que je trouve assez magique qu'il y ait une solution
aussi simple et géométrique au problème de la négociation !
Bon, d'accord, mais pourquoi est-ce le cas ? Et comment
caractériser cette issue rationnelle ?
Je vais faire des efforts démesurés pour écrire quelque chose de
pas trop interminable, parce que ça fait quelque chose comme cinq
billets de blog que j'essaye d'écrire ce mois-ci, qui gonflent un peu
hors de proportion, et qui (me) gonflent, si bien que je les mets de
côté sans rien publier[#]. Mais
j'ai quand même divers trucs à raconter. Imaginez donc ce billet
comme autant de petits billets à peu près indépendants mis bout à
bout.
[#] Je recopie quand
même ci-dessous quelques passages initialement écrits pour ces
billets, ce qui peut expliquer quelques incohérences (par exemple
entre une prétérition où je dis ne pas vouloir parler de quelque chose
et une note où j'en parle).
(À toutes fins utiles, chaque symbole ‘❡’ ci-dessous est d'ailleurs
un permalien vers le bout de billet qui suit.)
La principale info que je voulais mettre ici, c'est que
j'ai un
compte sur Bluesky. (Ce n'est pas exactement nouveau, je
l'ai
créé en
octobre 2023, mais disons que j'ai sérieusement commencé à écrire
des choses dessus et à avoir des vrais échanges sur ce réseau.) J'ai
aussi ajouté récemment à ce site
une page d'archive de mes skeets
(:= posts sur Bluesky) comme il y avait déjà (et continue à y avoir)
une page d'archive de mes
tweets : la possibilité pour moi de créer et
maintenir[#2] une telle archive
est une condition que je considère comme très importante à
l'utilisation d'un réseau social.
[#2] En l'occurrence je
la (les) mets à jour de façon semi-automatisée entre 1 et 3 fois par
semaine environ. Pour Bluesky ce serait facile de rendre le processus
totalement automatique, mais je préfère faire des petites
vérifications avant de publier la mise à jour. Pour Twitter, c'est
devenu beaucoup plus pénible depuis que Musk a coupé toutes
les API publiques : je m'en sors quand même en
recherchant mes propres tweets dans le navigateur, en faisant
sauvegarder les données reçues par Firefox, et en passant ça dans
un script Perl très
moche que j'ai écrit. Si le processus devient encore plus
pénible, alors j'arrêterai complètement d'écrire sur Twitter parce
qu'il ne faut pas trop tirer sur ma motivation à prêcher en enfer.
Si vous ne savez pas ce que c'est que ce Bluesky, disons qu'on peut
le définir rapidement
(Wikipédia vous en dira
plus) comme Twitter sans Elon Musk. Et il est devenu une
destination assez standard pour les gens (y compris un bon nombre de
comptes « institutionnels ») qui souhaitent quitter Twitter
(enfin, 𝕏 comme absolument personne ne dit à part son
propriétaire), soit par rejet dudit milliardaire, soit parce qu'ils
estiment que l'ambiance y devient irrespirable, soit les deux, mais
qui veulent quand même garder une interface très semblable à ce qui
était celle de Twitter (au moins du Twitter d'avant que Musk en
récupère le contrôle). D'ailleurs, si vous venez de Twitter et que
vous créez un compte sur Bluesky vous ne serez pas du tout dépaysé
tellement les deux se
ressemblent[#3]. (Cette
ressemblance de surface cache néanmoins des différences profondes, par
exemple le fait que Bluesky
est open source et
construit sur un protocole ouvert,
cherchant à éviter la centralisation ; mais ça, la plupart des
utilisateurs n'en ont rien à faire. Une autre différence concrète,
c'est que je peux faire des liens vers des fils que j'ai écrits sur
Bluesky, et tout le monde pourra les lire même sans compte Bluesky,
alors que sur Twitter ce n'est plus le cas depuis que Musk a décidé de
tout casser.)
[#3] J'avais commencé à
écrire une liste des petites différences entre Bluesky et Twitter (qui
pourrait servir d'aide à la migration), mais c'est quand même un peu
fastidieux.
Signalons quand
même celle-ci qui est potentiellement importante : contrairement à
Twitter, sur Bluesky les likes n'ont essentiellement aucun
effet sur la visibilité d'un post — si vous voulez le partager avec
d'autres, il faut le reposter. (C'est
d'ailleurs possiblement
un problème.)
Ajout () : J'aurais dû
ajouter que la ressemblance entre Bluesky et Twitter, ou du moins le
Twitter pré-Musk, n'est pas que dans l'interface, mais aussi dans la
population et le contenu des discussions. Certains craignent ou
espèrent trouver des différences importantes à ce niveau, par exemple
dans l'orientation politique, mais je pense que c'est à la fois faux
et naïf (cf. ce que je dis plus bas dans la comparaison avec
le Masque de la mort rouge).
Du coup, si vous voulez lire les petites conneries que j'écris et
qui sont trop courtes pour former un billet de blog, je vous encourage
à me suivre sur Bluesky (plutôt que sur Twitter, donc).
❖
Le problème avec ce genre d'annonce, c'est que c'est difficile de
la faire sans fournir quelques explications complémentaires, et si je
commence à entrer dedans, forcément le billet de blog gonfle en
taille.
Par exemple, il y a deux ans
j'avais parlé de Mastodon (enfin, le Fediverse), qui peut aussi servir
de destination aux gens qui veulent quitter Twitter, soit parce qu'ils
n'aiment pas Elon Musk soit parce qu'ils n'aiment pas la
centralisation de Twitter. Et de fait, je m'étais ouvert
un compte de
test sur Mastodon. Comme il y aura forcément des gens pour me le
rappeler — et pas forcément de façon aimable je devine — ceci appelle
naturellement une discussion sur le rapport entre les deux. (Quelle
est la différence entre Bluesky et Mastodon ? Et pourquoi parlé-je de
mon compte sur l'un et pas sur l'autre ?) Et le problème avec une
telle discussion c'est que, comme souvent en informatique quand il y a
deux solutions concurrentes pour un même problème, elle peut
vite devenir
acrimonieuse, chaque « camp » reprochant à l'autre (avec une
certaine justesse) de ne pas remplir tel ou tel critère jugé essentiel
— ici, pour constituer un vrai réseau social de microblogging
distribué. Or j'ai d'autant moins envie de me laisser engluer dans
une telle discussion que j'ai un avis assez mitigé sur les deux, mais
qui est, forcément, assez long à expliquer.
Disons de façon très résumée que Mastodon et Bluesky
cherchent tous les deux à résoudre des problèmes de centralisation de
Twitter, mais pas tout à fait les mêmes (Mastodon partage
le réseau, alors que Bluesky partage les rôles), et
chacun a des avantages très sérieux (sur l'autre, et certainement sur
Twitter) mais aussi des inconvénients, et que donc votre préférence
dépendra de votre fonction
d'utilité[#4]. Mais
heureusement, il n'y a pas de raison que l'un ou l'autre puisse
évoluer pour régler leurs inconvénients, ou qu'on ne puisse pas les
rendre interopérables pour avoir tous les
avantages[#5]. Pour une
version un tout petit peu plus longue de ces explications, vous pouvez
lire ce
fil que j'ai écrit sur Bluesky à ce sujet (et/ou
regarder cette vidéo
très bien faite, que j'y mentionne à la fin, sur la comparaison
entre les deux protocoles). Pour les non-informaticiens, disons aussi
et surtout que si Bluesky ressemble presque comme deux gouttes d'eau à
Twitter au niveau de l'interface, ce n'est pas du tout le cas de
Mastodon (et le manque de certaines fonctionnalités en freine
certainement beaucoup l'adoption).
[#4] Ce qui n'empêchera
pas certains de pontifier que l'un est objectivement meilleur que
l'autre, et ils auront tort, exactement comme les gens qui essayent de
vous convaincre d'utiliser leur langage de programmation préféré sont
des pénibles.
[#5] Il y a quelques
idées intéressantes ici. Une démarche apparentée
mais différente est celle de
l'initiative Free
Our Feeds visant à créer un écosystème vraiment décentralisé
autour du protocole AT utilisé par Bluesky, sans
pour autant tomber dans les erreurs de conception de ActivityPub (qui
lie inextricablement les utilisateurs et les messages à un
serveur).
‣ Concrètement, je n'exclus pas de chercher à
bricoler un moyen de publier sur Mastodon aussi (ou de faire un pont
entre mon compte Bluesky et Mastodon), mais ce qui est sûr c'est que
je me suis convaincu que la seule façon acceptable à mes yeux serait
de lancer mon propre serveur Mastodon ; or pour l'instant je n'ai pas
le temps d'y mettre (surtout si mes
machines n'arrêtent pas de mourir et que ça fait encore du boulot
à remettre en place à chaque fois que ça se produit !). Le
compte @gro_tsen_test@mastodon.sdf.org
que j'ai créé pour tester est essentiellement inutilisable : en même
pas deux ans, le serveur a déjà perdu des messages que j'ai postés,
sans que je les aie effacés, et je ne sais pas pourquoi (par
exemple, il
y avait ici un message, en réponse
à celui-ci,
qui, fort ironiquement, disait qu'on pouvait considérer comme très
important qu'un espace d'échanges garde quand même une mémoire pérenne
des échanges passés). Mais je suis en train de digresser, et je me
suis promis de ne pas le faire, donc j'arrête de parler de Mastodon,
ce n'est pas le sujet ici.
Une autre question sur laquelle on risque de m'interpeler, c'est de
savoir pourquoi je n'ai pas fermé mon compte Twitter, et pourquoi je
continue même à poster dessus (a priori essentiellement les
mêmes choses que sur Bluesky). Là aussi, ceci amène à une discussion
assez compliquée, mais je ne sais pas si j'ai la patience ou le temps
de l'avoir. Disons que je ne vais certainement pas fermer mon compte
parce que je déteste profondément
l'idée de casser des liens ou d'effacer du
contenu[#6] du Web. Mais
décider de continuer à poster dessus est un calcul plus compliqué
notamment pour savoir quelle est la meilleure façon de rendre visible
le message venez voir ailleurs, et si l'opposition est plus
efficace de l'intérieur ou de l'extérieur. Je ne m'interdis
certainement pas de changer d'avis ultérieurement, et je ne l'exclus
pas du tout. Je note cependant au moins avec une certaine
satisfaction que quasiment tous les gens que je suivais sur Twitter en
sont partis (beaucoup sur Bluesky, certains sur Mastodon, certains
nulle part), ce qui m'évite de perdre trop de temps dessus.
[#6] Il faut, par
ailleurs, être bien naïf pour s'imaginer qu'en fermant le compte ou en
effaçant ses messages on les effacerait vraiment des disques durs de
Twitter, ou qu'on empêcherait, disons, l'entraînement
d'IA avec le texte de ces messages (même si c'est
illégal, Musk n'est certainement pas du genre à s'arrêter à ça).
Ajout () : Comme
visiblement certains ne comprennent que la question puisse même se
poser, je donne quand même un élément d'explication : je pense qu'il
faut se défaire de l'idée que Musk est propriétaire de Twitter. Il
est (par la logique du capitalisme) propriétaire des serveurs, et de
la marque, et il a beaucoup de pouvoirs, mais il n'est pas
propriétaire de la communauté qui lui préexistait, pas plus que Donald
Trump n'est propriétaire des États-Unis malgré les pouvoirs quasi
dictatoriaux qu'il y a maintenant. Pour autant, je comprends
parfaitement les gens qui font le choix de fuir (et même, dans une
certaine mesure, je les encourage, et c'est un peu le sens de la
présence de les y encourager).
Où je commence à en avoir marre des Dedibox qui meurent
Ce blog, et le site Web auquel il se rattache, est normalement
hébergé sur un serveur dédié de la gamme Dedibox de chez
Scaleway (ou Online ? je ne sais pas pourquoi ils ont besoin
d'avoir trente-six noms différents). Je
l'appelle betelgeuse (j'ai d'autres serveurs dédiés : par
exemple je préfère héberger mon mail sur une machine différente de mon
site Web, c'est aussi une Dedibox mais elle est différente).
Or cette betelgeuse n'arrête pas de mourir. À chaque
fois elle est remplacée par une machine différente, à laquelle je
donne le même nom, donc selon votre vision de
la théorie des Qriqrx vous pouvez
dire que ce sont des machines différentes ou des incarnations
différentes de la même machine, mais en tout cas c'est le même modèle
Start-2-M-SATA de la même gamme Dedibox de chez Scaleway auquel je
donne le même nom.
J'ai une machine appelée betelgeuse depuis
le . Elle est morte une première fois
le (apparemment c'est l'alimentation qui ne
marchait plus). Scaleway m'en a fourni un remplacement le lendemain
(c'est à partir de ce moment que c'est une Start-2-M-SATA). Cette
nouvelle machine est morte le (donc moins de
deux ans plus tard ; et c'était de nouveau la faute de
l'alimentation). Scaleway m'en a fourni un remplacement (toujours une
Start-2-M-SATA) le lendemain. Cette troisième machine est morte
le (donc à peine plus que deux ans plus tard).
Encore une fois, Scaleway m'en a fourni un remplacement.
Aujourd'hui , donc deux mois à peine
après la précédente, cette machine
est morte
à son tour. J'attends que Scaleway me fournisse la cinquième
incarnation de betelgeuse.
Si vous arrivez quand même à lire ces mots à cette date (ou peu de
jours après), c'est parce que j'ai une autre machine
(spica, chez OVH elle, parce qu'il ne faut
pas mettre tous ses œufs dans le même panier) qui est prête à assurer
l'interim au pied levé pour les services les plus essentiels ou les
plus simples (mais il y a certainement pas mal de choses cassées sur
mon site). Cette machine est sous-dimensionnée, donc ce n'est pas une
solution pérenne. (Par ailleurs, le basculement se fait par
changement du DNS, donc pendant quelques heures on peut
tomber aléatoirement sur l'ancien serveur qui ne répond plus ou son
remplaçant temporaire qui répond, ce qui explique que ce site soit
aléatoirement visible pendant une certaine période.)
Mise à jour
() : J'ai rebasculé le serveur sur
la cinquième incarnation
de betelgeuse. Normalement tout devrait marcher
comme avant. Mais je suis certain qu'il y aura au moins une
merdouille quelque part que je n'aurai pas vue.
Je ne perds aucune donnée quand betelgeuse meurt (j'ai
des sauvegardes de tout ce que j'ai fait), mais à chaque fois que ça
se produit je perds quand même pas mal de temps à tout réinstaller, à
tout remettre en place, à tout reconfigurer, à me rappeler comment les
choses sont structurées, etc. Ça fait des heures, voire des jours,
foutus en l'air à chaque fois.
Et là, quand même, quatre machines qui sont mortes en moins de cinq
ans, je trouve que c'est vraiment anormal. J'ai connu d'autres
ordinateurs qui sont morts, évidemment, mais une telle fréquence est
tout simplement inouïe. Même les autres machines de la gamme Dedibox
ne me posent pas ce problème : comme j'ai du mal à croire que ce soit
le fait d'héberger le site Web de David Madore qui use les ordinateurs
de façon prématurée, ni le fait de s'appeler betelgeuse
qui leur donne envie de faire une supernova, il faut croire que ce
sont les Start-2-M-SATA qui ont un sérieux défaut (peut-être un souci
de dimensionnement de l'alim ?). Manque de chance pour moi, c'est de
ça que j'ai besoin.
Il est évidemment impossible de communiquer avec qui que ce soit
chez Scaleway. La seule chose qu'ils savent faire c'est dire la
machine est morte ? pas de problème, on vous en fournit une autre (et
on espère pour vous que vous avez des sauvegardes). Changer juste
l'alim, qui est probablement la seule partie qui pose vraiment
problème, est apparemment hors de leur portée.
Il est peut-être temps que je cherche un autre hébergeur, mais
évidemment ça implique une autre forme de perte de temps (par exemple
pour comprendre la manière — forcément différente — dont ils
administrent leur réseau, et pour refaire la configuration). La
solution de facilité est quand même de rester sur le même modèle, même
si je me dis de plus en plus que c'est le mauvais choix.
En plus de ça, à chaque fois que je raconte ce genre de malheurs,
j'ai droit à des pénibles qui m'expliquent que j'aurais dû faire ceci
ou cela[#] ou qu'ils n'ont pas
de problème parce que ceci ou cela, et qui réussissent ainsi à rendre
l'expérience encore plus agaçante.
[#] Par exemple, les
gens qui tiennent à vous expliquer que les serveurs dédiés c'est du
passé et qu'il faut utiliser des serveurs virtuels à la place.
Quoi qu'il en soit, si vous voyez des choses cassées sur ce site,
c'est probablement à cause de ça. Et ça cassera de nouveau dans
quelques jours quand je m'occuperai de mettre en service la
cinquième betelgeuse. Et peut-être quelques mois plus
tard si elle a le même défaut que les trois précédentes.