David Madore's WebLog

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., celle écrite en dernier est en haut). Cette page-ci rassemble les dernières 20 entrées (avec un lien, à la fin, pour les plus anciennes) : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the latest written is on top). This page lists the 20 latest (with a link, at the end, to older entries): there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Latest entries / Dernières entrées publiées:

↓Entry #2662 [older| permalink|newer] / ↓Entrée #2662 [précédente| permalien|suivante] ↓

(mercredi)

Quelques réflexions sur le confinement

Quelques nouvelles en guise d'entrée en matière : Cela fait une éternité que je n'ai rien écrit dans ce blog. Le covid et la sensation de découragement ne sont pas les seules raisons : commençons par quelques nouvelles anecdotiques.

J'ai perdu un temps absolument colossal à cause d'ordinateurs : à changer les disques durs de mon PC et à me battre avec du matériel défectueux et des logiciels mal conçus (cf. ce fil Twitter) ; puis à repayer une partie de ma dette technique abyssale en migrant ledit PC d'une distribution Linux datant du carbonifère (Debian 9 « Stretch ») à une datant seulement du jurassique (Debian 10 « Buster ») ; puis à migrer en catastrophe le serveur hébergeant mon site Web (dont ce blog) parce que l'alimentation de la machine était morte et que l'hébergeur (Scaleway Dedibox, pour ne pas le nommer) m'a dit pas question de vous la changer ni de vous donner accès aux disques durs, tout ce que vous pouvez faire c'est louer une nouvelle machine (en perdant toutes vos données) et on vous remboursera le mois entamé, donc j'ai dû refaire toute l'installation, deux fois parce que j'ai basculé d'abord sur une machine temporaire le temps de me retourner un peu ; puis à installer un système fonctionnel (Ubuntu 20.04 « Focal ») sur un PC portable que j'ai hérité de mon père pour pouvoir enseigner en « hybride » (c'est-à-dire devant une classe dont la moitié est présente physiquement et l'autre moitié se connecte par une sale merde propriétaire appelée Zoom), parce que mon employeur n'a pas réussi à me faire parvenir le portable dont j'avais besoin (apparemment le demander le 9 septembre ne suffit pas pour qu'il arrive le 19 octobre), et il faudra que je refasse encore ça quand le portable arrivera.

J'ai eu aussi des tracasseries administratives (mon employeur ayant oublié de transmettre à mon ministère la demande de détachement que j'ai faite pour travailler chez eux, j'étais dans l'irrégularité) : les problèmes se sont résolus, mais m'ont fait passer énormément de temps à envoyer des mails paniqués à tout le monde pour essayer de comprendre qui devait faire quoi et le convaincre de le faire. Et bien sûr, en toile de fond, il y a toujours un appartement que j'essaie de vendre (si vous êtes intéressés ou connaissez des gens qui le sont, il est toujours disponible ; voir ici pour quelques photos), qui ne se vend pas, et qui me cause non seulement beaucoup d'anxiété mais aussi de temps perdu.

Mais évidemment, le plus préoccupant reste la crise sanitaire. Ou, en fait, pas la crise sanitaire elle-même, mais ses effets, à commencer par les réactions prises ou qui pourraient encore être prises par les autorités françaises. C'est donc surtout de ça que je veux parler ici. Ou plutôt, c'est surtout de ça que je ne voudrais pas du tout parler, mais je vois mal comment faire pour ignorer l'éléphant au milieu de la pièce.

J'avais décrit ici, sur le vif, les conséquences psychologiques qu'avaient eues sur moi le confinement de la France entière (qui a duré du au , soit 55 jours), mais je voudrais, comme préliminaire indispensable à la discussion qui va suivre, recopier ici une autre description, que j'ai écrite le dans un forum d'anciens normaliens ; j'ai beaucoup hésité à la rendre publique (et il faudrait peut-être l'accompagner de TW), mais je pense que c'est nécessaire pour faire comprendre ma position : le but de ce qui suit est surtout d'expliquer (ce que me dit mon introspection sur) le mécanisme par lequel le confinement m'a fait tellement de mal, et aussi, ma réaction face aux gens qui me disent va voir un psy. C'est le deuxième paragraphe qui est le plus important :

Je pense que j'ai vécu le confinement comme une sorte de viol. Je ne veux pas parler de l'intensité du traumatisme psychologique : pour ça, je n'en sais rien, je n'ai pas été violé, et je ne sais pas si ça a un sens de comparer les douleurs d'une personne à une autre. À ce niveau, je peux juste dire que je n'avais jamais sérieusement pensé au suicide jusque là (même si j'ai écrit à ce sujet, je n'avais jamais envisagé de passer à l'acte) et que dès l'instant où nous avons de nouveau été libres l'idée m'a quitté l'esprit, jusqu'à ce que la menace se reprécise. Avant le confinement j'avais peur de l'épidémie, du nombre de morts qu'elle ferait, de la possibilité de perdre un proche ou d'agoniser moi-même sur un lit d'hôpital complètement saturé, mais ces peurs étaient sans commune mesure avec le traumatisme du confinement. Mais bon, ça ce sont des comparaisons de moi à moi, qui ne veulent donc rien dire.

Mais je fais cette comparaison pour parler de la nature du traumatisme et de ses mécanismes. Primo, il y a une destruction de l'espace personnel. Ce que je pensais être un havre d'intimité et de douceur de vie, mon foyer, s'est transformé en source de blessure, mon chez-moi est devenu ma prison. Je crois comprendre (mais bon, je ne suis pas psy et je n'ai pas personnellement vécu ça) que c'est un type de mécanisme traumatique lors du viol : les organes sexuels, qui sont censés être très intimes et donneurs de plaisir, se transforment en source de blessure. Secundo, l'humiliation devant la force irrésistible. L'agresseur (ici, la puissance publique) te fait comprendre que tu es complètement en son pouvoir, et que plus tu te débats plus il te fera mal. Les rapports de violences policières entourant l'application du confinement m'ont fait beaucoup d'effet à cet égard. Tertio, le discours culpabilisateur. Le tu l'as bien cherché, asséné à la population : on a essayé de ne pas t'infliger ça, hein, mais bon, tu n'as pas bien obéi, donc on n'avait pas d'autre choix. Quarto, la notion de consentement : j'étais tout à fait prêt à me confiner moi-même, c'est même exactement ce que j'envisageais de faire, mais c'est le fait que ça me soit imposé de force qui a été atroce. Quinto, la sensation de quelque chose d'irréversible, une perte irréparable : en l'occurrence, la perte rétroactive de la liberté de circulation. Sexto, l'incapacité à se faire comprendre face à des gens qui minimisent le traumatisme ou qui cherchent à l'imputer à un problème chez la victime.

Je comprends bien qu'il y a des gens qui n'ont pas souffert du confinement, et il y en a même qui l'ont trouvé agréable. Je ne leur en veux pas du tout de penser ça. Mais la manière dont ce fait a été étalé en public était vraiment insupportable. Je ne trouve pas de meilleure comparaison que de se faire violer et de s'entendre dire il baise bien, hein ? moi j'adore la manière dont il me prend (ça peut être tout à fait vrai qu'il baise bien et que certains aiment ça). Ou, pour ceux qui trouvent que c'est un inconvénient léger : close your eyes, and think of England : une petite pensée au passage pour toutes ces femmes anglaises à qui on a réussi à faire croire que c'était leur devoir de se faire pénétrer, qu'il fallait absolument ça pour le pays.

Et donc j'en viens à l'injonction d'aller voir un psy. Ce qui me dérange vraiment, et j'ai mis un certain temps à le comprendre, c'est la suggestion que le problème vient de moi, et pas du confinement. C'est subtil, et ça m'a échappé d'abord, mais ce n'est pas du tout pareil de conseiller à quelqu'un qui a été violé de chercher de l'aide pour se reconstruire que de conseiller à quelqu'un qui a été violé une fois et qui va sans doute se faire violer une deuxième fois d'aller chercher de l'aide parce que ce n'est pas normal d'en souffrir. (Et en tout état de cause, le fait qu'il y ait des psys pour aider les victimes de viol ou de n'importe quelle autre forme de traumatisme psychologique ne dispense absolument pas de faire preuve de tact quand on leur parle ou de leur dire va voir un psy !, limite ta gueule !, dès qu'ils essaient d'évoquer leur expérience.)

Qu'il n'y ait qu'un petit nombre de gens qui souffrent de quelque chose, ce n'est pas pour autant une preuve que c'est un problème psychologique à corriger chez eux. Pas plus que le fait qu'il y ait ~5% de la population qui n'a pas du tout envie d'un rapport hétérosexuel quel que soit le partenaire, et qui ressentiront ça comme un viol si on le leur impose, n'indique que ces ~5% de la population ont un problème, et ce serait, disons, de mauvais goût d'essayer de les « corriger » préemptivement.

Encore une fois, je ne nie pas du tout le fait que (a) peut-être que le confinement était le meilleur choix du point de vue utilitariste selon plein de fonctions d'utilité raisonnables, et (b) même si ce n'était pas le cas, ça pouvait être raisonnable de le penser en mars. Par contre, ce que je trouve juste hallucinant, c'est qu'il n'y ait pas un mot, pas un geste, pas une étude, pour les traumatisés du confinement, alors qu'il y en a des tonnes pour les victimes de la Covid ; et que quand on parle du confinement, c'est soit pour dire que ce n'étaient que de petits désagréments, soit pour ne parler que de ses effets économiques (ou les conséquences indirectes de ces effets).

Avant le confinement, je pensais que c'était surtout le fait de ne pas pouvoir me promener en forêt qui me ferait souffrir. Indiscutablement ç'a été le cas (avec l'absurdité d'une situation où on a fermé les forêts, les pouvoirs publics ont littéralement fait poser du rubalis sur les chemins d'accès aux espaces forestiers d'Île-de-France pour en interdire l'accès, pour lutter contre une épidémie dont les contaminations se font dans les espaces densément peuplés) ; mais en fait, les quelques fois où j'ai fait le « confinement buissonnier » en ignorant les interdictions et en allant me promener malgré tout ne m'aidaient pas du tout à me sentir mieux, parce que je me sentais comme un animal traqué : c'est surtout la perte de liberté qui m'a été douloureuse, à travers les mécanismes que je décris ci-dessus. Et je le mesure de nouveau avec la mise en place (depuis ) d'un nouveau confinement, euphémistiquement rebaptisé couvre-feu à Paris à partir de 21h : je suis rarement dehors la nuit, je ne mange au restaurant quasiment que pour le déjeuner, je ne vais jamais en bar ou en boîte, la gêne pratique se limite à ce que je dois maintenant affronter un supermarché bondé vers 19h pour faire mes courses au lieu de pouvoir les faire tranquillement à 21h comme j'en avais l'habitude. Mais il n'est pas nécessaire que la chose qu'on m'interdise soit quelque chose que j'avais effectivement besoin ou envie de faire pour que je ressente l'interdiction comme une blessure. (Bon, le temps que je rédige cette entrée, il y a déjà des rumeurs selon lesquelles le début du couvre-feu serait avancé de 21h à 19h, toujours selon le principe shadok que plus une mesure ne marche pas, plus on s'obstine à réessayer.)

En tout cas, le fait est que, soit que je le sente comme une privation de liberté soit que je la craigne comme une étape de plus vers un reconfinement, je vois réapparaître dans ce couvre-feu les démons qui m'ont hantés en avril-mai. Je ne sais absolument pas si, ni comment, je pourrai y survivre.

Mais prenons un peu de recul

J'avais écrit début mars qu'il y avait deux approches fondamentales pour gérer une épidémie : la contenir ou la gérer, Charybde ou Scylla, c'est-à-dire ① tout faire pour empêcher les infections, sachant que ces efforts devront alors être maintenus indéfiniment ou jusqu'à ce qu'une solution plus durable (probablement un vaccin) soit disponible, ou bien ② limiter les dégâts comme on peut, aplatir la courbe, mais finalement ne faire qu'accompagner l'endémisation du virus. Même si j'aurais éventuellement des précisions ou des modifications de vocabulaire à apporter (mon billet de blog a été écrit avant que le concept d'immunité grégaire ne devienne hautement politique ; et avant que je découvre que mes remarques sur la structuration des contacts humains étaient connues sous l'étiquette d'hétérogénéité), ce que j'ai écrit en mars reste tout à fait d'actualité. Et je n'ai pas l'impression que la société ait bien pris conscience de ce dilemme qui pourtant était, comme je l'ai écrit, évident dès le début.

(Ceci n'est pas pour dire qu'il n'existe pas des moyens termes : c'est peut-être le plus gros problème de ma présentation que de suggérer qu'il n'est pas possible, par exemple, de stabiliser l'épidémie en comptant, par exemple, moitié sur l'immunité d'une partie de la population et pour l'autre moitié sur des mesures de type distanciation sociale. De même, on peut s'imaginer avoir recours à des confinements de durée extrêmement limitée pour éviter une surcharge locale des services hospitaliers devant une progression anormalement rapide de l'épidémie. C'est bien sûr possible, mais je crois que personne à part peut-être MM. Bolsonaro et Lukashenko ne défend l'idée de ne rien faire du tout pour éviter ou même ralentir les contaminations : le dilemme n'est pas là, il est dans la question de savoir si on laisse délibérément jouer à l'immunité du groupe un rôle non-négligeable, et si on cherche à ne prendre que des mesures sociales qui soient tenables dans la durée. L'immunité grégaire a été abusivement — et dédaigneusement — décrite comme une stratégie, mais l'immunité grégaire n'est pas plus une stratégie, ni même un but, que la gravitation ou l'évolution, c'est un phénomène naturel : une stratégie peut dépendre du fait que ce phénomène joue un rôle, mais ce n'est pas, en soi, une stratégie. La question de stratégie, c'est de savoir si, disons dans l'hypothèse où un vaccin ne serait jamais possible, on vise à arriver à un état final où le virus est indéfiniment contenu ou bien un état où il est endémique.)

Certains pays ont très nettement suivi l'approche ①, celle de contenir l'épidémie, celle que j'ai appelé Charybde : c'est le cas de la Chine, mais aussi de la Nouvelle-Zélande (dont je ne cacherai pas qu'elle ressemble de plus en plus à une dystopie et qui a par exemple fermé ses frontières à tous les non-résidents). Certains pays, le plus notable étant le Brésil, ont suivi une absence de stratégie (i.e., ne rien faire) qui ressemble superficiellement à la seconde. Il n'y a à peu près que la Suède qui ait plus ou moins suivi ce que j'appellerais l'approche ②, et il est difficile de généraliser à partir de ce seul exemple. La plupart des autres pays européens ont suivi, à différents degrés, la technique consistant à naviguer à vue, sans jamais vraiment choisir de cap, sans même reconnaître qu'il faut en choisir un, en tendant quand même plutôt à aller dans le sens ① mais sans le reconnaître, sans s'en donner les moyens, et risquent de finir par obtenir le même résultat que ② mais avec tous les coûts cumulés des deux approches, c'est-à-dire, tous les inconvénients sans les avantages.

Mais le plus scandaleux, à mes yeux, est surtout que le choix n'ait jamais été présenté, explicité, débattu publiquement. Ni à l'avance, ni dans le moment, ni après coup. Il y a eu des débats incommensurablement stupides autour de la question de savoir s'il y aurait ou non une seconde vague (et avant ça, la première), mais rien de sérieux autour de la question : admettons que l'épidémie soit là, que doit-on faire, et surtout, dans quel but final ?

Actuellement, les gouvernements européens prennent mesure après mesure (porter des masques, porter encore plus de masques, porter encore beaucoup plus de masques, et puisque ça ne suffit toujours pas, mettre tout le monde au lit à 21h, voire 20h, voire 19h ; et en France ça va toujours dans le sens de plus de répression et plus d'amendes à 135€, éventuellement assorties de prison en cas de récidive) sans qu'on ait de signe clair que ces mesures aient un effet, et sans que personne ne se demande sérieusement s'il ne faudrait pas radicalement changer d'approche. Cela ressemble à une devise shadok : Ce n'est qu'en essayant continuellement que l'on finit par réussir. Autrement dit : plus ça rate, plus on a de chances que ça marche. Et de fait : si on prend deux nouvelles mesures par semaine comme le fait actuellement le gouvernement français, comme la courbe des contaminations finira forcément par se tasser, le gouvernement pourra toujours dire que c'est la dernière mesure en date qui a eu de l'effet ; c'est une sorte de martingale de l'absurdité où on augmente la mise jusqu'à gagner, je ne trouve pas que ce soit une façon sérieuse de gouverner.

Encore plus basiquement, toutes sortes de mesures sont discutées pour réduire les contaminations, mais jamais personne ne pose sérieusement la question : au fait, faut-il vraiment les réduire ? est-ce une bonne approche ?

Voilà ce que je trouve absolument odieux : qu'on présente le confinement (celui qui a eu lieu, ou celui qui aura peut-être de nouveau lieu) comme si le gouvernement n'avait pas le choix. J'ai vu ces mots un nombre incalculable de fois, dans la presse, sur Twitter, dans la bouche de personnes autour de moi : pas de choix que de confiner. (Pas le choix ! Les urgences allaient saturer ! Pas le choix !)

Ce pas de choix est une insulte à notre intelligence collective. C'est une façon d'escamoter un dilemme grave et douloureux en faisant disparaître une des branches de l'alternative. C'est une façon de se dispenser ainsi de tout débat, de toute étude de coût, de toute analyse rétrospective.

L'Humanité a dû faire des choix bien plus douloureux, des gouvernements divers à des moments divers de son histoire ont dû les faire (entrer ou non dans la seconde guerre mondiale, par exemple !). Forcément, tout le monde ne sera pas d'accord avec la décision prise quelle qu'elle soit, sinon ce n'est pas un dilemme, mais on doit avoir au moins l'honnêteté de ne pas cacher le choix, et la liberté qu'on a de le faire. C'est justement dans l'adversité que les choix sont importants et significatifs. (Mumble Sartre jamais aussi libres que sous l'occupation allemande mumble.)

Bien sûr qu'il y avait un choix lors du confinement, et il y en aura toujours un : l'autre possibilité était de ne pas confiner, ce n'est pas exactement compliqué.

Oui, ce choix aurait impliqué des morts en plus. Peut-être beaucoup de morts. Peut-être énormément de morts. Mais ce n'est pas pour autant évident qu'il est pire que le choix qui a effectivement été fait, et dont le coût est monstrueux.

L'astuce qui a été trouvée pour escamoter le choix c'est ce slogan inimaginablement fallacieux : il faut sauver des vies, pas l'économie. C'est déjà un progrès par rapport à pas de choix, au moins il y a une tentative pour justifier la décision prise, mais cela reste une double arnaque rhétorique, celle de transformer le choix en un autre (les vies ou l'économie) et celle de suggérer que la réponse à celui-là serait évidente. Je ne sais pas comment est apparu ce slogan fallacieux, je ne sais pas qui l'a imaginé, et je ne sais pas comment il a eu autant de succès par rapport à d'autres slogans fallacieux qui auraient pu surgir (j'ai suggéré d'y opposer le confinement consiste à sacrifier les pauvres pour sauver les vieux, qui n'est ni plus ni moins crétin que sauver les vies, pas l'économie, juste pour montrer l'absurdité de ramener des questions complexes et demandant de la nuance à des slogans simplistes de ce genre).

Cette arme rhétorique est puissante : si on commence à défendre l'idée que le coût économique du confinement est astronomique, on est accusé de ne pas vouloir sauver des vies (comme si les crises économiques n'avaient pas un coût humain ; comme si la pandémie n'avait pas un coût économique indépendant du confinement), et si on y renonce, ce slogan suggère qu'on a évacué la seule objection au confinement.

Toute l'ingéniosité de ce pas de choix ou de ce sauver les vies, pas l'économie consiste à faire oublier le coût humain direct du confinement.

Maintenir 67 millions de personnes emprisonnées pendant 55 jours (j'utilise délibérément le terme d'emprisonnement, car l'essence de l'emprisonnement est la privation de liberté, pas les brimades et humiliations supplémentaires qu'on y ajoute dans le système carcéral indigne qu'a un pays comme la France), cela représente dix millions de personnes-années d'emprisonnement. Voilà le chiffre qui est sur la table. Voilà le coût direct et immédiat de cette mesure, nonobstant des coûts supplémentaires (émotionnel et psychologique, médical, économique, culturel, etc.). À ceux qui prétendent que le coût humain du non-confinement aurait été tellement monstrueux qu'on ne peut même pas en parler, je demande s'ils mesurent bien à quoi ils se comparent. C'est bien l'horreur du dilemme auquel nous sommes, ou nous aurions dû, être confrontés : les deux choix sont horribles, c'est bien pour ça que j'en ai perdu le sommeil en mars, c'est bien pour ça que nous devons nous confronter à ce choix avec honnêteté, sans nier qu'il s'agit d'un choix, comme je le disais, entre Charybde et Scylla, et arrêter de gesticuler en disant regardez Scylla, il est vraiment trop horrible, nous n'avons pas de choix que d'aller par là !

Je pense en outre que la charge de la preuve incombe à ceux qui veulent prendre une mesure : la charge de la preuve, c'est-à-dire, la charge de produire une argumentation cherchant honnêtement à défendre cette mesure, en évaluant son coût et son bénéfice. Admettons que dans l'urgence c'était peut-être difficile (c'est déjà admettre beaucoup car j'expliquais fin février comment estimer le coût de la pandémie, mais passons) : il était au moins possible de faire cette évaluation a posteriori. J'attends toujours.

Le problème, bien sûr, c'est que personne ne sait combien le confinement a sauvé de vies (ni s'il en a sauvé tout court, d'ailleurs : peut-être bien que la mesure a été prise trop tard pour jouer vraiment sur l'épidémie, peut-être que les gens se seraient distanciés d'eux-mêmes, peut-être qu'il y a eu beaucoup plus d'immunité qu'on l'a pensé, peut-être que les contaminations n'ont été qu'un peu repoussées… tout reste incertain). Il y a beaucoup de choses qu'on ne comprend pas avec cette pandémie, et toutes les tentatives pour faire des prédictions ont été des échecs (à commencer par celle de M. Ferguson qui avait prédit la fin du monde en Suède avec des centaines de milliers de morts, fin du monde qui continue à ne pas se matérialiser).

Ce qu'on peut quantifier, en revanche, c'est le coût que nous avons réellement payé en France jusqu'à présent : pour ce qui est du coût direct, 10 000 000 personnes-années d'emprisonnement, donc, d'une part, et pour ce qui est des décès causés par le covid, de l'ordre de 33 000 morts à ce jour, dont j'estime (en prenant la répartition par âge de la mortalité hospitalière trouvée sur Géodes et en l'intégrant contre l'espérance de vie trouvée ici et ) qu'elle représente au maximum 350 000 personnes-années de vie perdue (probablement moins, parce que les personnes décédées sont sans doute plutôt plus vulnérables que la moyenne, et parce que dans chaque tranche d'âge j'ai pris l'espérance de vie de la borne basse de l'intervalle, donc 350 000 ans est un majorant).

Voilà donc le coût humain direct pour la France à ce jour : 10 000 000 personnes-années d'emprisonnement à cause du confinement et 350 000 personnes-années de vie perdue à cause de la covid.

J'aurais aimé voir ces chiffres dans le débat public. Il n'est pas normal qu'aucun journaliste n'ait fait ces calculs, par exemple, qu'ils n'aient pas été discutés et commentés. Ils ne disent en aucune manière que le confinement était un mauvais calcul, mais ils suggèrent au moins très fortement que parmi les coûts que la France a effectivement subis, le confinement était bien plus lourd que le covid. (Il y a la question délicate de savoir comment on doit comparer un personne-jour de confinement versus un personne-jour de vie perdue : dans mon cas les 55j de confinement étaient bien pires que 55j de vie perdue, je comprends que pour beaucoup de gens ça a été le contraire, mais dans l'ignorance des proportions je pense qu'on doit estimer à 1 le rapport de conversion ; en tout état de cause, il faut des arguments très sérieux pour le placer autour de 1/30. Et encore, je n'ai parlé que des coûts humains directs, pour ne rien dire du tout de l'économie et des coûts humains indirects causés par les conséquences économiques.)

Une autre façon de présenter les choses est qu'il meurt chaque jour environ 1700 personnes en France : si 20 jours disparaissaient dans un trou de l'espace-temps dont ne resteraient que les morts, cela représenterait 34 000 morts ; c'est-à-dire que le nombre de morts de covid (même en supposant qu'ils suivent la distribution habituelle de la mortalité par âge et ne soient pas spécialement biaisés) représente l'équivalent de 20 jours disparus dans la vie de tout le monde. Le confinement, lui, nous en a volé 55 (et, de fait, pour 94 000 personnes, non mortes de covid, la confinement a représenté toute la fin de leur vie).

Ceci est notamment pertinent pour les comparaisons entre pays : je n'en peux plus de voir l'argument la Suède a eu plus de morts par habitant que la France ! échec complet de la stratégie suédoise ! Déjà que l'argument était faible il y a quelques mois, il se rétrécit à vue d'œil en ce moment vu que la Suède a deux ou trois morts de covid chaque jour alors que la France en a plutôt une grosse centaine, mais ce n'est pas le point, la comparaison entre pays est bien plus complexe que de diviser le nombre de morts par le nombre d'habitants : mon point, c'est que si on ne compte comme coût à minimiser que le nombre de morts de covid en considérant que d'avoir obligé des dizaines de millions de personnes à rester chez eux pendant des mois a un coût rigoureusement nul, évidemment, on arrive plus facilement à la conclusion que le confinement était un bon calcul, c'est un peu normal en lui attribuant un coût nul !

De nouveau, tout ceci ne dit pas, et ne prétend pas dire, que le confinement n'a pas été un bon calcul, et même s'il ne l'a pas été, ça ne dit pas qu'il était raisonnable de le penser avec les données de l'époque, ou dans l'urgence. Mais ceux qui le défendent encore maintenant, ou pour l'avenir, devraient au moins avoir à tenter d'argumenter leur position par autre chose que des inepties comme pas le choix ou sauver les vies, pas l'économie : ils devraient au moins trouver quelque chose à mettre en regard de ces coûts, au moins proposer un semblant de modèle ou de comparaison entre pays qui justifient qu'ils pensent qu'il y avait un bénéfice positif à confiner. (Un début d'argument pourrait être que la Suède a eu cinq fois plus de morts par habitants que le Danemark : on pourrait donc éventuellement discuter sur la base de 150 000 morts évités en France, soit sans doute 1 700 000 personnes-années de vie sauvée, ce à quoi il y aurait encore des contre-arguments à apporter, mais ce serait au moins un début de discussion.) Évidemment, ceux qui s'opposent au confinement auraient aussi à répondre par des contre-propositions, l'idée n'étant pas juste de ne rien faire (mais plutôt, par exemple, de trouver des façons de protéger les personnes âgées ou autrement vulnérables).

Bien sûr, la grande difficulté dans la défense du confinement, c'est que non seulement le nombre de vies sauvées n'est pas clair, mais il est encore moins claires que les morts soient vraiment évitées et pas juste retardées un petit peu. Si le virus va de toute façon réussir à toucher une proportion donnée de la population quoi qu'on fasse, le fait de chercher à protéger tout le monde pourrait considérablement augmenter la mortalité par rapport à protéger spécifiquement les plus vulnérables ; et un argument analogue vaut avec la saisonnalité : le fait d'avoir repoussé les contaminations qui auraient pu avoir lieu en mai-juin peut les avoir décalées à un moment où (par exemple à cause du froid, ou du manque de vitamine D ou pour n'importe quelle raison de ce genre) elles seraient plus souvent mortelles. Confinements, couvre-feu et autres techniques de ce genre seraient alors non seulement inefficaces mais même possiblement néfastes au niveau de la mortalité globale.

Le problème, aussi, c'est que les partisans de la stratégie de contenir l'épidémie ne sont pas capables de proposer de piste de sortie de crise (i.e., à quel moment arrête-t-on de multiplier les mesures d'endiguement) à part l'arrivée d'un vaccin. Or l'attente du vaccin salvateur comme la panacée qui permettra le retour à la normale est sans doute très largement exagérée (cf. par exemple cette opinion de David Salisbury dans The Guardian) : il est vraisemblable que ni l'efficacité du vaccin (ni pour protéger des formes graves ni pour éviter l'infectiosité) ni la proportion de la population qui sera vaccinée ne seront bonnes au début, et il n'est pas dit qu'elles s'améliorent tant que ça avec le temps. Symétriquement, bien sûr, ceux qui proposent de laisser l'épidémie courir son cours ne doivent pas prétendre comme une évidence que l'immunité naturelle sera forcément bonne ou durable : il est possible qu'on aille vers une situation où tout le monde attrape la covid de temps en temps (et c'est donc à comparer avec une situation, qui me semble plutôt pire, où les confinements et autres couvre-feu récurrents deviennent la nouvelle normalité).

Le débat est de toute façon terriblement compliqué. Au niveau des seules conséquences médicales, la covid a entraîné des refus ou retards de soin, mais le confinement aussi, certains services médicaux n'ont pas du tout été débordés et ont même été plutôt vides parce que les patients ne voulaient pas ou ne pouvaient pas consulter leur médecin ou programmer une intervention. Le débat est compliqué, mais ce n'est pas une raison pour ne pas l'avoir, et surtout, ce n'est pas une raison pour l'escamoter avec des slogans simplistes.

Certains trouveront certainement que les calculs utilitaristes exposés dans les quelques derniers paragraphes ont quelque chose de sordide. J'ai trois choses à répondre aux gens qui montent sur leurs grands chevaux en tenant un discours du style la vie humaine n'a pas de prix (exemples typiques ici ou sur Twitter).

Premièrement : c'est souvent hypocrite. Juste avec le coût économique qu'on va subir pour le covid, qui doit facilement dépasser 20M€ par victime, on aurait pu sauver d'autres gens. (Beaucoup de morts sont évitables : je ne sais pas exactement combien, mais je suis sûr que si on me confie un budget de 20M€, ou, mieux, si on confie un tel budget à quelqu'un de compétent ce qui n'est pas mon cas, on arrivera à sauver au moins une vie, et je soupçonne beaucoup plus.) Et pourtant, on ne le fait pas. Donc si l'objection vient de gens qui se plaignent régulièrement que la société ne sauve pas tous ceux qu'elle pourrait sauver, ça passe, mais s'il s'agit de gens qui ont découvert seulement maintenant combien de personnes meurent qu'on pourrait sauver, cela a un indéniable parfum d'hypocrisie. Ça peut sembler beau de dédaigner l'économie parce que la vie est plus importante, mais dans les faits ce n'est pas le calcul que nous faisons, et cela n'a aucun sens de prétendre le faire quand, en réalité, on pourrait justement sauver plus de vies. Le refus de l'utilitarisme est souvent un cache-misère pour ne pas voir l'absurdité des choix que l'on fait (il est vrai que cette absurdité touche tout le monde).

Deuxièmement : le grand principe selon lequel la vie est sacrée peut éventuellement servir à justifier que dans un dilemme du tramway on refuse d'actionner l'aiguillage qui dérouterait le tramway vers une voie où il ferait probablement moins de victimes sous prétexte qu'il y en a quand même quelques unes — mais là, c'est justement ce qu'on a fait avec le confinement : on a sacrifié des gens pour en sauver d'autres en espérant qu'il y ait plus de vies sauvées que perdues : c'est par essence un calcul utilitariste. Il suffit qu'il y ait une seule personne qui se soit suicidé à cause du confinement, et j'ai des témoignages de plusieurs cas de ce type, pour qu'on puisse dire que le confinement a consisté à actionner un aiguillage vers une voie où des gens sont morts. Peut-être moins. Probablement moins, même, si on ne compte que les morts directes et pas les années de vie perdues ou gâchées. Mais la seule chose qui pourra sauver cette approche est un raisonnement utilitariste, pas de monter sur ses grands chevaux à base de caractère sacré de la vie humaine, parce que des vies humaines ont indiscutablement été sacrifiées par ce choix de confiner.

(Entre l'utilitarisme strict et la position consistant à dire qu'on ne doit pas actionner l'aiguillage du tramway s'il y a ne serait-ce qu'une personne qui serait tuée par cette action, il y a aussi, d'ailleurs, la place pour un utilitarisme tempéré, qui voudrait qu'on accepte de faire mal à Bob pour soulager Alice mais seulement si le rapport est nettement favorable : selon cette mesure aussi, il y a du travail pour justifier comment les dix millions de personnes-années d'emprisonnement sont un gain très net et clair par rapport au nombre de personnes-années de vie qui auraient été perdues par la maladie.)

Troisièmement : si vous voulez monter sur les chevaux de grands principes, je peux moi aussi jouer à ça. Jouons donc. Le principe d'un droit inaliénable, c'est qu'on ne peut pas vous l'enlever, même quand quelqu'un a décidé (et a fortiori sur la base d'un calcul qu'il n'est même pas capable de justifier) que cela permettrait de sauver une vie. Des gens se sont battus pour mettre la Liberté au rang de ces droits inaliénables et, s'agissant de la France, en tête de la devise de la République, et certains sont même morts pour ça (il y a même un célèbre tableau de Jean-Baptiste Regnault qui exalte l'idée de mourir pour la défense de la Liberté).

Alors on aura beau jeu de se moquer de l'appel à la Liberté comme une valeur sacrée en le réduisant au droit de quelques jeunes à faire la fête le soir : les grands principes ont toujours l'air un peu futiles quand on les réduit à telle ou telle instance triviale — mais ce n'est pas à moi de juger ce que les gens font de leur liberté, comme ce n'est pas à moi de juger ce qu'ils font de leur vie qu'on essaie à tout prix de sauver. (Ils ne regardent pas si les gens qu'ils cherchent à sauver avaient une vie productive et riche avant de chercher à la sauver, qu'on me permette de ne pas regarder s'ils faisaient quelque chose d'utile de leur liberté avant de la défendre.)

Les prisonniers de la Bastille n'étaient pas trop maltraités, je crois, et ont peut-être été tout surpris d'être érigés en icônes de la liberté : c'est que le principe dépasse un peu leur cause précise. Toute personne qui n'a pas de la bouillie dans la tête doit pouvoir distinguer la question de savoir s'il est une bonne chose que les individus se confinent chez eux pendant une pandémie et le fait qu'on les oblige à le faire : la question qui est en jeu, c'est de savoir si l'État doit avoir constitutionnellement le droit de forcer les gens à rester chez eux, que ce soit pour les meilleures ou les pires raisons du monde, si l'exécutif peut mettre tout le monde en résidence surveillée, et surtout, ce qu'il fera de ce droit à l'avenir maintenant qu'il l'a obtenu. Et aussi de savoir ce qu'on doit accepter de sacrifier à l'hygiénisme.

Il y a une certaine aporie, soit dit en passant, dans le fait de prétendre simultanément, comme j'ai vu des gens le faire, d'un côté que les personnes véritablement gênées par le confinement (ou le couvre-feu ou ce genre de choses) ne sont qu'une toute petite minorité de râleurs, et, d'autre part, qu'il faut absolument rendre la mesure obligatoire et la faire respecter par la police sinon personne ne s'y tiendra ; de même, on ne peut pas à la fois souligner que la mesure est plébiscitée par 99.99% des Français (ou autre score stalinien de ce genre) et qu'il faut absolument mettre un flic derrière tout le monde sinon si peu de gens la respecteront qu'elle ne servira à rien. Les tentatives de minimisation des attaques contre la Liberté en les réduisant au besoin de fête d'une poignée de jeunes se heurtent donc au propre discours de ceux qui veulent y voir une mesure épidémiologique indispensable.

De nouveau, ce n'est pas moi qui propose en premier d'invoquer les grands principes : je ne fais que les examiner parce que certains refusent l'utilitarisme et veulent absolument qu'il y ait des valeurs auxquelles on sacrifierait tout.

La vie vaut plus que tout ? Les pères fondateurs des États-Unis avaient une certaine sagesse quand ils ont énuméré trois de ces fameux droits inaliénables : la vie, certes, mais aussi la liberté et la recherche du bonheur. La liberté et la recherche du bonheur sont peut-être impossibles sans la vie, mais la vie n'a pas de sens sans raison d'être vécue, et qu'on regarde les choses sous l'angle de l'utilitarisme ou des grands principes, je pense que c'est un marché de dupes que de vouloir tout sacrifier pour sauver un maximum de vies, jusqu'à s'interdire de se justifier ou de considérer un chemin différent, comme si la finalité de l'humanité était de maximiser le nombre d'êtres humains vivants.

Oui, rétorquent certains, mais les circonstances sont exceptionnelles, et il est normal dans des circonstances exceptionnelles de déroger aux principes généraux qu'on a mis en place : de suspendre certains droits et certaines libertés. J'ai une double objections à cet argument.

La première, c'est que les circonstances ne sont pas si exceptionnelles que ça : il y a eu une pandémie bien plus grave (sans doute environ trente fois plus grave) il y a à peine un siècle, en 1918, et deux de gravité comparable en 1957 et 1968. La principale différence entre ces deux dernières pandémies et l'actuelle, c'est l'ampleur de la réaction : je n'ai toujours pas d'explication claire à la raison de cette différence (personne ne m'a donné de justification morale au fait qu'en 1957 ou n'a pas voulu confiner la France et qu'en 2020 on l'a voulu), mais j'ai peur qu'elle soit liée à un tropisme de plus en plus prononcé de la médecine de tout faire pour préserver la vie en oubliant la qualité de la vie.

Ma deuxième objection, c'est que justement, l'idée d'ériger des valeurs telles que la liberté (et notamment la liberté de circuler) au rang de droits fondamentaux et inaliénables est le fruit d'une longue réflexion historique, traversée par crises et des périodes plus calmes, et que c'est précisément pour qu'elles soient protégées dans les crises qu'on a donné à certains droits un statut particulier. Ce n'est pas pour qu'on jette toutes ces idées et toutes ces réflexions à la poubelle à la première pandémie venue en disant c'est exceptionnel. (Et ce n'est même pas comme si ces gens n'avaient pas du tout prévu la question : le droit constitutionnel espagnol, par exemple, attribue explicitement le concept d'état d'alerte, estado de alarma, à une crise sanitaire comme une épidémie ou des situations de contaminations graves, et ne permet de limiter la liberté de circulation qu'à des horaires et à des lieux déterminés ; cf. ce texte.)

L'idée que le droit doive passer à la fenêtre en raison de circonstances exceptionnelles me paraît détestable, et si je peux citer la Cour suprême des États-Unis (Boumediene v. Bush, 2008) :

The laws and Constitution are designed to survive, and remain in force, in extraordinary times. Liberty and security can be reconciled; and in our system they are reconciled within the framework of the law.

La citation ci-dessus a été écrite dans le contexte de la « guerre » contre le terrorisme, et je pense qu'il y a beaucoup de similarité entre cette dernière et celle contre la covid-19. Dans les deux cas, la question se pose à nous de savoir quelles restrictions de nos libertés nous acceptons au nom de la sécurité, ou, au contraire, quels risques nous acceptons de courir pour préserver ces libertés : dans quelle mesure peut-on abolir ou limiter la liberté de circulation au nom de la sécurité contre la maladie ? dans quelle mesure peut-on abolir ou limiter la liberté d'expression au nom de la sécurité contre le terrorisme ? Il y a un fameux adage de Benjamin Franklin sur la liberté et la sécurité (auquel Anthony Kennedy fait implicitement référence dans le passage ci-dessus), dont le sens actuel, ou au moins dont le contexte, n'est pas celui dans lequel Franklin se plaçait, je renvoie à ce fil Twitter [lien Twitter direct] pour quelques commentaires sur son histoire et son évolution, qui proclame que celui qui sacrifierait une liberté essentielle à une sécurité temporaire ne mérite ni la liberté ni la sécurité.

Il se trouve que la France est, en ce moment même, aussi engagée dans un débat (périodiquement récurrent) sur le terrorisme : je m'étonne de voir que beaucoup ne remarquent pas le parallèle (même quand on leur montre du doigt, par exemple ici), ou alors invoquent des non sequitur du genre le virus se moque de nos libertés (ceci justifie peut-être qu'on ne fasse pas de démonstrations symboliques contre le virus, qui indiscutablement s'en fout, mais je ne vois pas ce que ça change au dilemme). Je ne m'étonne pas de voir les mêmes, que je considère comme les plus détestables de la classe politique française (je pense à Éric Ciotti ou Christian Estrosi) appeler à des mesures fortes, c'est-à-dire répressives, sonner l'alarme, demander qu'on modifie la Constitution si nécessaire, je ne sais même plus de quoi ils parlent tant leur discours est interchangeable sur les deux terrains : je déteste ces gens mais je salue au moins leur cohérence. Je comprends moins, en revanche, ceux qui font un grand écart idéologique entre ces deux sujets : je ne prétends évidemment pas qu'on doit avoir exactement le même avis concernant la lutte contre le terrorisme et contre une pandémie !, mais un minimum de cohérence dans les arguments utilisés sur les deux sujets, surtout si on va invoquer des grands principes concernant les droits fondamentaux, ou si on va faire un calcul bénéfice-risque. (À titre d'exemple, si on refuse le calcul d'assigner à résidence quelques centaines de personnes pendant des mois dans l'idée de sauver peut-être une poignée de victimes, il me semble qu'on doit aussi refuser l'idée d'assigner à résidence quelques dizaines de millions de personnes pendant des mois dans l'idée d'en sauver peut-être des centaines de milliers. Ou au minimum prendre le soin d'expliquer quelle différence on voit entre ces deux situations.)

Ce qui me fait mal, c'est que les quelques voix qui s'élèvent pour remettre en question le dogme confinementiste viennent surtout d'une coalition de pourris qui mêle une certaine extrême-droite (Donald Trump et Jair Bolsonaro en tête, mais il y a aussi des antennes en Europe), les tabloïds anglais, les complotistes anti-masque et anti-vax (ou les anticommunistes ?), voire les négationnistes du virus, ou encore des gens qui font de Didier Raoult leur gourou et de l'hydroxychloroquine un remède miracle. Je me désole de voir ces gens occuper le terrain, et je me désole de voir mon poussinet (qui est, comme moi, et comme nous tous, émotionnellement épuisé) retweeter des propos qui tiennent parfois du conspirationisme le plus cinglé.

Ceci conduit à de la condamnation par association, où on ne juge plus le contenu des propos mais les personnes qui les tiennent. À titre d'exemple, une tribune globalement raisonnable et mesurée dans son contenu, mais signée par un certain nombre de personnes sulfureuses, s'attire des commentaires de ce genre (voir aussi les réactions sous le tweet cité).

Il devient, du coup, difficile de porter un message nuancé, tel que : le port du masque dans les lieux fermés est une précaution raisonnable, car même si les preuves scientifiques de son efficacité sont assez faibles, le coût l'est aussi ; son obligation se défend encore, à la rigueur, même si on peut regretter le recours systématique à la répression plutôt qu'à la pédagogie ; le port du masque à l'extérieur est, quant à lui, profondément ridicule et possiblement contre-productif (par exemple s'il se fait mouiller par la pluie), mais probablement pas très grave ; en revanche, quand on en arrive à interdire aux gens de sortir de chez eux, on a un pas de trop dans l'obsession du contrôle : car la coalition de pourris que j'évoque ci-dessus a tendance à nier complètement la gravité de l'épidémie et refuser même des précautions raisonnables.

Quelques scientifiques arrivent à porter un message un peu nuancé sans être trop associés à l'extrême-droite, mais même ainsi, l'exercice reste périlleux et incertain (et il n'est pas clair que ce soit le rôle d'un scientifique de prendre position sur ce que les politiques devraient faire plutôt que seulement sur ce qui se passera s'ils font ceci ou cela). Trois médecins (l'épidémiologiste Sunetra Gupta, le spécialiste d'économie de la santé Jay Bhattacharya, et le biostatisticien Martin Kulldorff) ont récemment lancé une pétition appelée la déclaration de Great Barrington protestant contre la politique confinementiste et l'idée de contrôler le virus à tout prix : je ne suis pas forcément d'accord avec le contenu de cette déclaration, mais elle a le mérite d'exister ; malheureusement, ils l'ont fait en s'associant à un think-tank droitiste libertarien (l'American Institute for Economic Research), ce qui continue à nourrir l'association néfaste entre idées économico-politiques et stratégies de santé publique (la section sponsor de l'article Wikipédia sur la déclaration est, au moins au moment où j'écris, un modèle magnifique d'attaque des idées par association, en rappelant tout le mal qu'il peut sur ce think-tank).

La partie de la gauche qui défend habituellement les libertés publiques et dénonce l'arbitraire et la répression policières a été bien molle à réagir, peut-être justement embarrassée par le risque de dire sur certains points la même chose que Donald Trump (embarras que je peux comprendre, mais qui ne devrait pas empêcher de s'exprimer). Il y avait pourtant moyen de parler différemment : de dénoncer l'injustice sociale du confinement qui frappe avant tout les mal-logés et criminalise les SDF, de souligner la primauté donnée au travail sur la vie privée (conduisant à ce que le droit de sortir de chez soi soit conditionné à la décision du patron !), de s'indigner qu'on ait pris des décisions aussi radicales que de confiner tout le monde sans envisager d'en prendre d'autres comme de réquisitionner les chambres d'hôtel pour y loger les personnes vulnérables qui le souhaitent, de protester contre la culpabilisation des jeunes et des « quartiers sensibles » accusés d'amplifier l'épidémie, et bien sûr l'arbitraire policier qui va avec. Cette gauche s'est peut-être un peu réveillée, par exemple au Royaume-Uni avec l'instauration d'une nouvelle série de confinements (locaux) qui ont fait réagir, ou en France quand elle s'est rendu compte que le couvre-feu décidé par le gouvernement passait de sauver les vies, pas l'économie à sauver l'économie, pas tout le reste de la vie. Néanmoins, la critique reste bien molle et je ne suis pas sûr qu'un nouveau confinement soit rejeté avec force et clarté. L'opinion publique a un peu tourné depuis mars, mais elle reste largement réceptive aux idées de la stratégie « Charybde ».

Ce que je regrette aussi, c'est que les voix qui remettent en question l'idée de contrôler le virus le font généralement sur le mode en fait ce virus n'est pas si dangereux que ça (certes, il est vrai qu'il est nettement moins létal qu'on l'a cru initialement, et du coup nettement moins dangereux que certains continuent de se l'imaginer, mais il reste beaucoup plus grave qu'une grippette ; le négationnisme est aussi détestable que le catastrophisme dans cette histoire) ou il n'y a[ura] pas de véritable seconde vague (indéniablement il y en a une en Europe, et indéniablement elle est très préoccupante) au lieu de tenir l'opinion véritablement courageuse, c'est-à-dire oui, ce virus est dangereux, oui, il fera beaucoup de morts, probablement encore des dizaines de milliers dans un pays comme la France, possiblement même des centaines de milliers, oui, les services de réanimation satureront probablement, oui, ce sera un désastre sanitaire comparable et peut-être pire que celui que nous avons vécu en 1957, mais il n'est ni clair qu'un confinement soit moins grave que ça, ni démontré qu'il améliore sensiblement les choses à long terme.

Quand je (ou un autre) explique qu'il me semble plausible qu'il soit un moindre mal d'accepter que des gens meurent que détruire les libertés publiques en cherchant vainement à l'éviter par des méthodes qui ont encore et encore montré leur inefficacité, il y a des gens qui, sans doute aveuglés par la colère, expriment le souhait que je ne trouve pas de soins médicaux au moment où j'en aurais besoin (exemple ici ou , même si ce n'est pas à moi que ça s'adresse). Je me demande si ces gens souhaitent aussi que tous ceux qui s'opposaient à la baisse de la limitation de vitesse sur les routes de 90km/h à 80km/h meurent dans un accident de la route (et je précise que je suis favorable à cette baisse). Est-ce là qu'on en est arrivé ? Ayant un choix entre Charybde et Scylla, ceux qui jugent que Charybde est le moindre mal pourront accuser les autres de tous les maux de Scylla et ceux qui jugent que Scylla est le moindre mal pourront accuser les premiers de tous les maux de Charybde ! Ai-je ainsi moralement le droit de souhaiter à tous ceux qui plaident pour plus de restrictions qu'un de leur proche se suicide parce qu'il ne supportait plus les rigueurs du confinement ?

Avez-vous une idée de l'effet que ça fait d'entendre des gens discuter cavalièrement de la perspective d'un nouveau confinement, voire l'appeler de leurs vœux (exemple ici) quand on a soi-même perdu toute volonté de vivre lors du premier ?

Encore une fois, je n'ai pas d'animosité envers ceux qui défendent le confinement (en général, ou celui qui a été adopté en France en mars), il est possible que ç'ait été la bonne décision à prendre, et il est encore plus possible que ç'ait pu paraître la bonne décision dans l'urgence : ce que je trouve inacceptable, c'est de refuser d'en faire une analyse quantitative, c'est de prétendre qu'il n'y avait pas de choix parce qu'il y a des morts d'un côté de la balance comme s'il n'y avait pas des choses également horribles de l'autre côté, c'est de recourir à des slogans ineptes et fallacieux comme sauvons les vies, pas l'économie, c'est d'attaquer des positions sur leurs associations politiques, et c'est de refuser la charge de la preuve alors qu'on propose une répression publique extraordinaire.

Si je suis attaché à des rails de tramway et que quelqu'un le dévie dans ma direction, je peux peut-être accepter qu'il me sacrifie parce qu'il y avait plus de monde attaché sur la trajectoire initiale, mais je ne peux pas accepter qu'il se contente de dire je n'avais pas le choix ! il y avait des gens sur la voie ! sans avoir fait un effort pour compter s'il y en avait effectivement moins sur la nouvelle voie vers laquelle il redirige le tramway.

Nous sommes collectivement face à un choix horrible (et rendu encore plus horrible par l'incertitude qui pèse sur toutes les routes s'offrant à nous), je n'arrête pas d'attirer l'attention sur ce choix depuis mars, tout ce que je demande c'est que les différentes options soient discutées courageusement et avec un esprit ouvert, sans dogmatisme ni animosité.

↑Entry #2662 [older| permalink|newer] / ↑Entrée #2662 [précédente| permalien|suivante] ↑

↓Entry #2661 [older| permalink|newer] / ↓Entrée #2661 [précédente| permalien|suivante] ↓

(jeudi)

Où en est-on avec la covid et cette seconde vague ?

Il y a quelques mois, alors que la première vague de covid-19 était en cours en France et pour l'essentiel en Europe (voire dans le monde), j'avais tenté quelques spéculations sur ce qui arriverait par la suite. Maintenant qu'une seconde vague épidémique est en train de se produire, il est temps de revisiter ces spéculations.

(Petite note typographique et linguistique : on m'a convaincu de retirer la majuscule à covid, qui effectivement n'en mérite pas plus que la grippe ou le rhume. Pour ce qui est du genre grammatical de ce mot en français, j'ai décidé d'écrire de façon plus ou moins aléatoire le ou la, et même pas de manière cohérente au sein d'un texte, juste pour provoquer les gens qui ont un avis très tranché sur cette question, c'est-à-dire, ceux qui n'arrivent pas à comprendre le concept de l'un ou l'autre se dit ou se disent en matière de langage.)

Les choses sur lesquelles j'ai eu raison, ou je pense avoir eu raison, dans ce texte (mais bon, elles n'étaient pas bien difficiles à voir et j'étais loin d'être le seul à les dire) est qu'il y aurait environ 30 000 morts lors de la première vague, que les mécanismes de suivi des contacts seraient un échec complet (mais je n'ai pas été clair : je pensais au suivi par smartphone, pas au traçage manuel), que le nombre et la disponibilité des tests serait amélioré mais resterait insuffisant, que ce qui marcherait le mieux est la distanciation sociale causée par la peur, et, qu'au bout d'un moment, il y aurait une seconde vague, mais progressant plus lentement que la première et avec une létalité moindre[#0]. Il y a des points qui restent encore tout à fait incertains ou discutables. J'écrivais qu'on en saurait de plus en plus de choses sur les modes réels de contamination, ce qui est partiellement vrai, mais ça reste décevant : il semble que les peurs de contamination par les surfaces (qui ont conduit à mettre du gel hydro-alcoolique partout) étaient exagérées (se laver les mains régulièrement est bien, mais il n'est pas utile de désinfecter ses courses en rentrant du supermarché), mais concernant la transmission du virus dans l'air ou l'efficacité du port des masques on reste scandaleusement ignorants (cf. aussi ceci). Le principal point sur lequel j'ai eu tort, c'est quand j'écris que la seconde vague commencerait peu après la levée du confinement : il a fallu deux ou trois mois (ce n'est pas très clair quand il faut la faire commencer), je pensais que ça viendrait plus vite. J'ai trouvé ça vraiment mystérieux que l'épidémie s'obstinait à ne pas repartir en juin, puis en juillet, et même encore début août.

[#0] Ajout () : Dans mon texte d'avril, j'écrivais comme les protocoles médicaux seront un peu mieux rodés, les options thérapeutiques un peu mieux connues et les mystères entourant la maladie un peu dissipés, cette seconde vague enregistrera un taux de létalité plus faible. Il y a d'autres raisons à la létalité plus faible (population touchée plus jeune notamment, cf. ci-dessous), mais il semble bien que la meilleure prise en charge joue un rôle important.

Maintenant je pense que mon analyse était substantiellement correcte : l'immunité acquise lors de la première vague n'était pas suffisante pour arrêter durablement l'épidémie ; elle a été suppléée pendant un temps par le fait que les gens ont pris peur (pour eux ou pour leurs proches) et se sont tenus à distance les uns des autres ; mais cette peur s'est largement dissipée et, fatalement, l'épidémie reprend (en commençant par ceux qui ont le moins peur, donc globalement les moins à risque, ce qui est plutôt une bonne chose car en devenant immuns ils protégeront les autres).

Globalement, je ne crois pas du tout, et je l'ai plusieurs fois répété ici, à l'idée qu'on puisse arrêter durablement une épidémie par des mesures comportementales (distanciation sociale, par exemple) : à moins d'éradiquer complètement le pathogène, ce qui n'est plus envisageable s'agissant de SARS-CoV-2 (alors qu'on a apparemment réussi pour SARS-CoV-1), l'épidémie repartira toujours, parce que les mesures comportementales tiennent un petit moment, puis les gens reprennent leurs habitudes. Qu'on cherche à imposer ces changements par la contrainte (le confinement en étant le cas le plus violent) ou par la pédagogie, ce n'est pas tenable dans la durée — ou alors il faut arriver à un changement réel des mentalités voire de la société, mais celui-ci prend plus de temps que l'épidémie n'en laisse. Il me semble donc inévitable que l'épidémie persiste jusqu'à ce qu'il y ait suffisamment d'immunisés pour qu'elle reflue. (Ce nombre est vraiment difficile à calculer pour les raisons que j'ai déjà expliquées. Mais comme de toute façon on continue à n'avoir qu'une très mauvaise idée du nombre d'immunisés, que les tests sérologiques IgG ne détectent que très mal, parce que l'immunité c'est compliqué et que tout le monde ne fait pas des anticorps, connaître ce seuil ne servirait pas tant que ça.)

Bien sûr, on peut espérer qu'un vaccin aide à atteindre ce nombre d'immuns (la vitesse à laquelle le développement se fait est assez impressionnante, il faut bien le dire), mais je pense que c'est surestimer à la fois la vitesse à laquelle on peut les développer + tester + distribuer, l'efficacité qu'auront sans doute les premiers vaccins et surtout la proportion de la population qu'on arrivera à vacciner, que d'espérer que ce soit un game changer spectaculaire.

La manie actuelle, en France et dans un certain nombre d'autres pays, c'est de tout miser sur les masques. C'est tout de même assez ironique vu qu'on nous expliquait il y a quelques mois que les masques ne serviraient à rien pour le grand public bien portant. On est passé d'un extrême à l'autre, et, comme souvent, la vérité est quelque part entre les deux. Le port du masque est certainement une bonne idée en général, mais comme pour les autres mesures comportementales, je pense qu'on ne peut pas compter dessus à long terme : pour aplatir un peu un pic épidémique, cela fait sens, mais imaginer que tout le monde portera un masque en public en permanence jusqu'à ce qu'un vaccin miracle arrive, et peut-être à tout jamais parce que rien ne dit que vaccin arriver vraiment, c'est vraiment avoir perdu contact avec la réalité.

Je suis globalement assez sceptique sur le fait que le port du masque par le grand public change énormément la dynamique de l'épidémie. Néanmoins, à l'intérieur c'est probablement une bonne idée (surtout quand il s'agit de parler à quelqu'un, une condition qu'on ne souligne pas assez). À l'extérieur, en revanche, ça me semble idiot car non seulement inutile mais plausiblement contre-productif : voir ce fil Twitter [lien Twitter direct] pour l'aspect idiot ainsi que celui-ci [lien Twitter direct] pour l'aspect contre-productif. Quand on en vient à l'imposer même à moto sous le casque (où ce n'est pas juste ridicule, c'est dangereux à cause de la buée provoquée), on atteint un niveau d'absurde qui est vraiment impressionnant (je n'arrive pas à savoir si l'imbécile qui a pris cette décision ne s'est simplement pas rendu compte de ce qu'il faisait, ou s'il s'en est rendu compte et qu'il a persisté : toujours est-il que ça n'a pas, à ma connaissance, été corrigé depuis, alors que ça a été à moitié fait pour les vélos).

À la limite, comme je l'explique dans ces fils Twitter, ce qui m'embête n'est pas tant qu'on impose le port du masque dans des conditions absurdes : c'est surtout que les autorités françaises soient tellement en mode panique qu'elles prennent des mesures dénuées de sens. Je ne sais pas si elles font ça parce qu'elles pensent vraiment que ça servira à quelque chose que les Parisiens portent le masque dans la rue, ou si elles le font parce qu'elles veulent montrer à leur électorat qu'elles font quelque chose, mais les deux sont assez terrifiants. Et évidemment, comme elles ne savent faire que ça, que ces mesures soient de nouveau prises à coup d'amendes, de peur du gendarme et de culpabilisation. Ce qui m'embête plus largement, c'est qu'il n'y a aucune prise en compte du fait que les masques sont gênants à porter, et on ne convainc pas quelqu'un de faire quelque chose, surtout pas durablement, si on s'obstine dans le déni quant à ce qui lui pose problème. Et ce qui me terrifie, c'est qu'à force de faire n'importe quoi, et que rien ne marche, on en revienne à confiner (peut-être pas la France, mais possiblement les régions les plus touchées, et notamment l'Île-de-France). Je vais y revenir.

{{{ Digression : S'il y a bien quelque chose que cette crise a exposé à vif, c'est à quel point il nous est difficile de nous rendre compte des souffrances les uns des autres, et, à cause de ça, de nous entendre sur la valeur relative des sacrifices dans les inévitables compromis qu'il faut mener.

C'est peu dire que j'ai mal vécu le confinement, mais ce qui m'a frappé aussi est combien j'ai eu du mal à faire passer cette idée que ma liberté m'est précieuse et que je souffre d'en être privé par la force, alors même que d'autres trouvaient fantastique de pouvoir faire une « pause », une « respiration », et l'occasion de faire plein de pain ou d'apprendre le georgien ; et ce, même auprès de gens qui sont très proches de moi : même des gens qui ne doutaient pas que je souffrisse, qui empathisaient avec moi au sens où mon traumatisme pouvait les émouvoir, ne parvenaient généralement pas pour autant à comprendre cette douleur, c'est-à-dire à se faire une représentation mentale raisonnablement précise de ses causes ou de son mécanisme. Et de façon générale, l'idée que le confinement était aussi un mal (peut-être un moindre mal mais néanmoins un mal), et je ne parle pas de mal économique mais de mal humain, personnel et social, n'avait pas sa place dans le discours national, à cause de l'héroïsation publique du personnel soignant qui voulait que les seules souffrances dignes d'être évoquées étaient celles des malades et de ceux qui les sauvaient, mais aussi à cause de cette dichotomie honteusement fallacieuse qui voulait faire croire qu'on avait un choix entre protéger des vies et protéger l'économie. (J'ai l'intention de revenir sur tout ça dans un autre texte que je veux consacré au confinement, mais comme c'est aussi douloureux de revenir en parler je procrastine.)

Et j'ai été moi-même pris à ce même piège, si j'ose dire, à ne pas arriver à comprendre le ressenti des autres, parce que je considérais comme totalement évident que l'obligation de porter un masque (même quand elle est ridicule, comme en extérieur) était « évidemment » un simple désagrément, un moindre mal que toute forme de confinement, et j'ai pris conscience du fait que, non, il y a des gens pour qui le port du masque est bien plus qu'un désagrément mineur, et qu'on ne doit pas simplement les ignorer.

Le monde s'est divisé avec une terrifiante facilité entre deux camps opposés, avec à un bout des complotistes dont les plus extrêmes nient purement et simplement l'existence du covid et/ou pensent que les vaccins sont une technique de Bill Gates pour contrôler le monde, et à l'autre ceux qui sont persuadés que le virus va tous nous tuer (ou au moins nous laisser d'affreuses séquelles pendant toute notre vie) et que la seule solution est de l'éradiquer complètement, ces deux camps s'accusant mutuellement des pires crimes. Cette polarisation s'est inexplicablement alignée selon un axe politique (aux États-Unis c'est très clair, puisque Donald Trump a joué son complotiste-en-chef, tous ceux qui s'opposent à lui se sont sentis obligés de soutenir n'importe quelle mesure d'endiguement en prétendant que le contraire sacrifiait les vies à l'économie ; mais, a priori, on aurait tout aussi bien pu avancer le discours, tout aussi simpliste et pas plus faux, que le confinement consistait à sacrifier les pauvres pour sauver les vieux[#]). C'est aussi parce que nous avons tellement de mal à nous parler et à entendre le véritable appel, c'est-à-dire souvent la souffrance, qui se cache derrière un alignement politique, que cette polarisation s'est faite aussi facilement. La science, évidemment, a été la première à en pâtir (et j'ai déjà fait remarquer que l'épidémiologie ne s'y attendait sans doute pas, alors que l'économie connaît cette situation depuis longtemps), à commencer par la notion d'immunité grégaire, qui est devenue tellement chargée politiquement qu'il vaut mieux ne plus jamais utiliser ce terme.

[#] Éclaircissement () : Ceci est un slogan, qui porte en lui une part de vérité (on s'est beaucoup préoccupé de sauver les personnes âgées, oubliant les conséquences sur les moins favorisés), mais qui, comme tout slogan, la déforme en la simplifiant, donc ça dépend surtout comment on l'interprète. Ce qui m'intéresse n'est pas de me positionner dessus : c'est de remarquer que le slogan sauvons les vies, pas l'économie (con comme tout slogan) a marché et pas il ne faut pas sacrifier les pauvres pour sauver les vieux, pour structurer une polarisation gauche-droite.

Finalement, comment arbitrer entre quelqu'un qui a peur de perdre un proche et quelqu'un qui souffre d'être enfermé ? C'est terrible, et je ne sais pas ; ce qui est sûr, cependant, c'est que ce n'est ni en niant une de ces souffrances, ni en traitant l'arbitrage comme évident, ou en le refusant au contraire, qu'on y arrivera. Mais mettons fin à cette digression. }}}

Bref.

Quelle sera l'ampleur de cette seconde vague en France ? C'est évidemment difficile à prédire ! Déjà on ne sait même pas postdire l'ampleur de la première.

Quelques ordres de grandeur pour fixer les idées (et signaler notre ignorance), néanmoins :

Officiellement, la première vague a vu de l'ordre de 150k contaminations, avec un pic à 4500/j. En réalité ces chiffres sont sous-estimés d'un facteur probablement de l'ordre de 50 (estimation vraiment à la louche : comme on n'a jamais fait d'échantillonage aléatoire digne de ce nom et que les enquêtes de séroprévalence ratent énormément d'infections, je l'ai mentionné ci-dessus, on n'en sait pas grand-chose), c'est-à-dire peut-être 10M de contaminations avec un pic à 250k/j. Le taux de croissance (la constante de la croissance exponentielle, i.e., la dérivée logarithmique) du nombre de cas était de l'ordre de 0.29/j la première semaine de mars, descendant à 0.18/j la semaine suivante, puis 0.12/j la suivante, et le pic est arrivé encore une ou deux semaines après. (Quand j'écris 0.29/j, c'est 29 centinépers par jour, mais comme ces chiffres sont assez grossiers on peut faire comme s'il s'agissait d'une augmentation de 29% par jour — en fait 33%.) Cette baisse importante étant antérieure au confinement, il est peu probable que le confinement ait joué un rôle très important dans la dynamique de l'épidémie (en tout cas au moment où on aurait voulu qu'il fût utile). Quant aux morts, elles ont été de l'ordre de 30k au total (là aussi il y a un doute, mais c'est plutôt sur la question de ce que ça signifie que de mourir de covid), avec un pic à un peu moins de 1000/j. Le taux de létalité sur les cas officiellement recensés était autour de 20%, soit en vrai 0.4% si on croit à mon facteur 50 sur les contaminations réelles.

Actuellement, en France, on recense officiellement un nombre de nouvelles contaminations autour de 7500/j (et il y a des gens qui paniquent parce que 7500>4500 : c'est plus que lors du premier pic). Ce nombre est sans doute toujours sous-estimé, mais certainement pas d'un facteur 50 : à la louche j'imagine autour de 2, parce que quasiment tous les symptomatiques doivent se faire tester mais assez peu d'asymptomatiques (évidemment il y a plein de gens qui viennent se faire tester sans raison, et qui sont négatifs, mais ils n'interviennent pas trop). Le taux de croissance était autour de 0.04/j sur la semaine passée, en baisse par rapport à la semaine précédente (0.05/j) et encore avant (0.06/j) : on est déjà dans un régime sous-exponentiel. Le nombre de décès continue à être noyé dans le bruit de fond, autour de 15/j. Le taux de létalité sur les cas officiellement recensés, si on pense qu'il y a autour de 12 jours entre le recensement et le décès, est autour de 0.3%, soit 0.15% si on croit à mon facteur 2 sur les contaminations réelles. La raison pour ce taux de létalité réduit (même en tenant compte de l'énorme augmentation du nombre de tests) est incertaine : population touchée plus jeune, probablement, meilleure prise en charge, et dépistage plus précoce, mais il est aussi possible qu'il y ait un nombre non-négligeable de réinfections qui ne donneraient pas de cas clinique parce que les personnes touchées seraient déjà fonctionnellement immunes mais déclencheraient quand même le test PCR ; et bien sûr, il ne faut pas oublier qu'il y a certainement des gens qui se font tester plusieurs fois et qui comptent plusieurs fois dans les statistiques.

Tout ceci permet-il de prédire l'ampleur de cette seconde vague ? Pas vraiment. Extrapoler à la louche la baisse observée du taux de croissance (de ~0.01/j/semaine) suggère qu'on en aurait pour encore quelques (quatre ?) semaines, et que le nombre de contamination recensés quotidiennement monterait à peut-être 12k/j avant de retomber graduellement (pour un cumul autour de 450k sur cette seconde vague ; et peut-être autour de 1500 décès). C'est une possibilité optimiste, mais je serais surpris qu'un si faible nombre de contaminations puisse vraiment avoir un gros effet auto-stabilisant (même si on compte un facteur 2 comme je le suggérais, ça reste moins d'un million, ce qui est peu dans une population de 67M, évidemment, l'hétérogénéité, en l'occurrence le fait que les contaminations soient concentrées dans quelques grandes villes). On peut aussi se dire que si la première vague a fait décroître le nombre de reproduction de 3 à 1.5 (vraiment à la louche, comme tout ce que je dis), la deuxième n'a qu'à faire le tiers de la taille de la première pour arriver à le baisser de 1.5 à en-dessous de 1 (plus durablement ! cette fois-ci), donc s'attendre à peut-être autour de 3M de contaminations vraies et peut-être 5000 décès supplémentaires. Manifestement, ces deux prédictions ne collent pas, il y a à peu près un facteur 3 entre elles. Mais elles donnent peut-être quand même une petite idée de ce qu'on peut attendre.

On peut aussi comparer différents pays européens, mais l'exercice est hasardeux : tous semblent avoir une forme de seconde vague, sauf la Suède (ce qui me conforte dans l'idée que le confinement, comme n'importe quelle mesure comportementale, n'a fait que repousser à plus tard des contaminations qui restent inévitables), et il y a vaguement une tendance à ce qu'elle soit d'autant plus forte que la première a été supprimée ; mais au-delà de ça, les différences entre pays me semblent assez inexplicables et il faudrait une expertise sociologique et géographique que je n'ai pas (et qu'en fait je pense que personne n'a) pour essayer de leur donner un sens. Ce n'est même pas évident de trouver l'information précise de ce qu'ont été les réactions publiques dans les différents pays (rien que pour la France, j'ai un mal fou à savoir quelle est la règle du jour). Il est cependant un peu rassurant, au moins, de constater que dans certains pays la seconde vague paraît déjà avoir atteint un pic, ou du moins un plateau, sans être montée à une ampleur énorme, et surtout, avec un nombre de décès qui reste partout très faible. (Je pense à la Belgique ou à l'Allemagne ; mais le Portugal est aussi intéressant parce que la courbe des décès, qui ne suit d'ailleurs que très mal celle des contaminations, présente une succession de bosses de plus en plus faibles.)

Bref, je ne me hasarderai pas à faire de prévision plus précise que ça, mais je reste prudemment optimiste sur le fait que la seconde vague n'atteindra pas l'ampleur de la première, ni en nombre de décès, ni en nombre d'hospitalisations, ni même en nombre de contaminations (réel), et que comme en plus sa progression restera plus lente, il n'y a pas à craindre une saturation complète des services d'urgence. Ma prédiction de 70 000 morts (toutes vagues réunes), faite en avril, pourrait bien être encore pessimiste.

Ce sur quoi je suis beaucoup moins serein, c'est de savoir si le gouvernement français, ou les Français en général, ont compris que beaucoup de mesures de type fermeture des écoles, fermeture de tel ou tel type de commerce, ou à plus forte raison emprisonnement de la population à domicile, ne font que mettre l'épidémie en pause temporaire, à un coût absolument exorbitant, et que si cela peut se défendre en cas de saturation du système de soin, elles n'ont aucun sens sinon. (On peut l'excuser par le brouillard de l'incertitude, mais le confinement décrété en mars était à la fois monstrueusement excessif et beaucoup trop long : il n'est pas du tout clair qu'il ait eu un effet si important au moment où on l'espérait, en revanche il a tellement retardé la seconde vague qu'elle survient à un moment où les Français risquent d'avoir moins de vitamine D, et surtout, elle pourrait chevaucher la grippe hivernale si on cherche à retarder encore plus.)

Ce qui est sûr, c'est que le gouvernement français n'a pas compris que c'est nuisible de gesticuler, de changer d'avis sans arrêt, aussi bien sur les grandes lignes (l'épidémie ne touchera sûrement pas la France, nous continuerons d'aller au théâtre — ah, finalement, si ! tous en résidence surveillée !, ou bien les masques ne servent à rien — ah, finalement, si ! on va les rendre obligatoires partout !) que sur les plus petites (masque à l'intérieur ! — non, dans certains quartiers, ce sera aussi à l'extérieur ! — oh, et puis masque dans tout Paris ! — bon, OK, pas pour les cyclistes), sans même attendre de voir l'effet éventuel de la mesure précédente. J'ai l'impression qu'il n'y a que la Suède qui a vraiment su adopter une approche consistant à ne pas changer d'avis et à ne prendre que des mesures qu'on peut tenir dans la durée (j'ai déjà mentionné cette interview qui l'explique bien), et, justement, s'y tenir. Malheureusement, la polarisation du débat évoquée dans la digression ci-dessus fait que la Suède est désormais considérée par beaucoup (surtout depuis que Donald Trump, dans son délire lunatique, l'a montrée en exemple, et une certaine frange de l'extrême-droite européenne après lui) comme le pays paria, le pays qui a juste laissé mourir les gens : comme je le disais, la science a été la première à pâtir de tout ça.

Bref, c'est déjà assez compliqué de prédire ce que fera le virus, mais ce que sera la prochaine lubie du gouvernement, je n'en sais rien, et eux-même le savent sans doute encore moins. Vivre avec cette épée de Dalmoclès au-dessus de la tête ne m'est pas du tout agréable.

Éclaircissement () : Comme j'ai écrit de façon un peu provocatrice qu'il fallait ne rien faire contre la covid (et j'ai été surpris de découvrir que c'est ce que le gouvernement a effectivement choisi…), je devrais préciser qu'il y a quand même quelques types de mesures qui selon moi font sens :

  • celles qu'on pourra tenir indéfiniment (comme arrêter de se faire la bise),
  • celles, limitées dans le temps, visant à provoquer une pause ou un ralentissement temporaires de l'épidémie si les hôpitaux (ou quelque chose du genre) sont en menace de surcharge (surcharge qui augmenterait catastrophiquement la mortalité),
  • celles, limitées dans l'espace au niveau d'un cluster ou plus exactement, dans une zone qui semble représenter une anomalie statistique par rapport à ce qu'on attend comme contaminations,
  • et celles qui visent à protéger de façon différentielle les personnes les plus vulnérables, le temps que le pic épidémique passe.

↑Entry #2661 [older| permalink|newer] / ↑Entrée #2661 [précédente| permalien|suivante] ↑

↓Entry #2660 [older| permalink|newer] / ↓Entrée #2660 [précédente| permalien|suivante] ↓

(dimanche)

John Andrew Madore (1938–2020)

Mon papa est décédé à Bures-sur-Yvette. Il avait 82 ans. Il souffrait depuis longtemps de la maladie de Parkinson.

Je reproduis ici les quelques mots que j'ai prononcés lors des obsèques (rédigés vers 2h du matin la nuit précédente, alors que j'étais sur le point de jeter l'éponge et de me dire que je n'y arriverais pas) :

[John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore] [John Madore]

Comment évoquer la mémoire de mon père dans une cérémonie funèbre ? S'il y a une chose qu'il n'avait pas, c'est le sens de la cérémonie — de la solennité — des conventions. Il était plutôt du genre à raconter des blagues à un enterrement. Je me suis déjà éclipsé avec lui d'une cérémonie de mariage parce que nous la trouvions trop longue. Papa était irrévérencieux, parce qu'il ne comprenait pas l'intérêt de la révérence.

Si je faisais son panégyrique, lui-même ne croirait pas ça sincère. Lui qui aimait sans arrêt citer Shakespeare — je tiens ça de lui — m'a trop appris le rôle de Cordélia pour que je le refuse maintenant. Il ne supportait pas l'hypocrisie.

Ces deux traits de caractère — le refus des conventions arbitraires et celui de s'arranger avec la vérité — ont sans doute été un frein à sa carrière. Dans un milieu académique qui ne récompense pas toujours que le seul mérite, il n'a jamais accepté d'intriguer pour avancer. Tant qu'il a pu travailler, c'est-à-dire, bien après sa retraite du CNRS, jusqu'à ce que sa maladie le rende incapable de communiquer, il ne l'a fait que pour l'intérêt scientifique de ce qu'il cherchait.

Cette passion pour sa recherche, il en a fait son sacerdoce. Sur son lit d'hôpital il voulait encore discuter de pourquoi le graviton n'a pas de masse. Cette passion il a cherché à me la communiquer au cours d'innombrables balades que nous avons faites, ici, lui et moi, dans la vallée de Chevreuse, en débattant des mystères de l'Univers. C'est comme ça que je suis devenu mathématicien, mais lui, il a vu ça comme une sorte de trahison, parce que les mathématiques n'étaient pour lui qu'une espèce de jeu formel.

Je retrace rapidement sa vie. Papa est né le 17 juin 1938, dans le Saskatchewan. Il a eu une sœur morte en bas âge, Jane, puis un frère, Mike, et une sœur, Hazel. Mes grands-parents ont déménagé plus d'une fois d'un bout à l'autre du Canada, mon grand-père a été dans l'armée de l'air, il a vendu des tracteurs, il a été fermier en Ontario, il a tenu un cinéma en Colombie Britannique. Mon père a commencé ses études supérieures à l'université de Toronto avant de partir en Europe. Là il a appris le français et l'allemand. Il a rencontré Lucette Defrise, plus tard Carter, avec qui il est resté très bon ami jusqu'au décès de celle-ci en 2012 ; il a rencontré Achille Papapétrou, sous la direction duquel il a entrepris une thèse de physique sur les ondes gravitationnelles ; et il a rencontré, au cours d'un voyage en Italie, celle qui deviendrait son épouse.

Mes parents se sont mariés en 1970. Après avoir habité rue Mouffetard à Paris, à peu près jusqu'à ma naissance, puis brièvement à Cassis, ils se sont finalement installés à Orsay. Mon père a travaillé toute la fin de sa carrière à la fac d'Orsay : c'est là aussi qu'il a orienté ses recherches vers la géométrie non-commutative, le sujet qu'il n'a ensuite jamais lâché.

Mais quand je dis qu'il travaillait à Orsay, en fait, il travaillait dans toute l'Europe : Munich, Potsdam, Londres, Cambridge, Bologne, Athènes, Corfu, Vienne, Prague, Belgrade… Même, et plus encore, quand il avait officiellement pris sa retraite, j'ai surtout le souvenir qu'il était sans arrêt par monts et par vaux. Il aimait passionnément voyager — quelque chose qu'il ne m'a décidément pas transmis. Le grand coup dur de sa maladie ç'a été quand il n'a plus pu le faire.

Il a lutté pendant vingt ans contre cette maladie. Mais ce n'est pas ce dont je veux me souvenir maintenant.

Je voudrais plutôt finir par quelques vers des Rubáiyát d'Omar Khayyám, dans leur traduction anglaise par Fitzgerald, ces poésies qu'il aimait tellement lire et réciter, et dont l'inspiration à la fois fataliste et hédoniste convient tellement au caractère qu'avait mon père :

Ah, with the Grape my fading Life provide,
And wash the Body whence the life has died,
 And in a Windingsheet of Vineleaf wrapt,
So bury me by some sweet Gardenside.

That ev'n my buried Ashes such a Snare
Of Perfume shall fling up into the Air,
 As not a True Believer passing by
But shall be overtaken unaware.


Je voudrais en écrire un peu plus sur lui, mais je ne sais toujours pas par quel bout commencer. Nous existons chacun dans l'esprit de nos proches, mais c'est particulièrement vrai pour un parent, sous forme de milliers de souvenirs partagés qu'il est difficile de tisser en une forme qu'on puisse raconter. Quand je repense à mon père, je suis comme face à une montagne de cartes postales du passé que je ne sais pas organiser, ou parfois même pas rendre sous forme de mots : comment traduire en paroles le plaisir que j'avais à me promener avec lui, par exemple ? je peux décrire le chemin que nous suivions le plus souvent[#], cela n'évoquera pas grand-chose ; je peux raconter certains des sujets dont nous parlions, mais ça reviendrait à refaire une partie de ce blog qui est largement héritier de ces conversations.

[#] Monter d'Orsay aux Ulis par la rue de la Dimancherie, passer par le parc nord et le viaduc des Fauvettes jusqu'à Gometz-le-Châtel, suivre la route jusqu'à Chevry où il y avait alors un Aqualand, traverser la forêt de Gif et descendre les escaliers jusqu'à la Hacquinière, et rentrer en longeant le RER.

L'ordre chronologique est bien pauvre. Nos vies ne se laissent pas comprendre par le simple fil linéaire du temps : plusieurs voix différentes s'y expriment, plusieurs thèmes s'y entrecroisent, chacun à son rythme. Et même le synopsis simple présente des trous que je regrette : moi qui suis pourtant obsédé par la préservation de l'information, je n'ai pas eu la sagacité de documenter tout ce que je pouvais sur la vie de mon père avant qu'il soit trop tard pour lui poser des questions comme celle de savoir ce qui l'avait poussé à traverser l'Atlantique. Je n'ai que trop peu de photos documentant son séjour sur Terre. Ma tante Hazel a pu me donner quelques clés sur sa vie au Canada, ma mère sur celle qui commence quand ils se sont rencontrés, mais entre les deux il y a des années qui manquent (je sais qu'il est passé par Hambourg, mais je n'en sais pas beaucoup plus), et les personnes que j'aurais pu interroger s'en sont allées. [Mise à jour () : J'ai retrouvé un CV que mon père avait écrit de lui-même, qui me permet de dire qu'il est venu en France à l'été 1962, et qu'il a passé l'année universitaire 1963–1964 à Hambourg avant de revenir à Paris.]

J'ai mentionné deux de ces témoins disparus, non seulement parce que je sais qu'ils ont été importants dans la vie de mon père, et que sans doute cela aide à comprendre la vie d'une personne que d'évoquer d'autres qu'elle a croisés, mais parce qu'ils m'ont marqué moi aussi. Lucette Defrise, d'une part, une mathématicienne belge (relativiste au départ : elle était élève de Robert Debever, sous la direction duquel elle étudié la classification de Petrov à l'Université Libre de Bruxelles ; plus tard, elle est devenue statisticienne), du même âge que mon père, peut-être moins connue que son mari, les deux sont devenus amis de mes parents (et moi de leurs filles), mais c'est par l'amitié de Lucette et de mon père que cela a commencé, je crois qu'ils se sont rencontrés à Hambourg, et je pense qu'elle a joué un rôle dans son orientation vers la relativité, mais je n'en sais pas plus. Je garde d'elle un souvenir très tendre, elle était la source d'une positivité inextinguible[#2]. Achilles Papapetrou, d'autre part, le grand relativiste grec qui a été le directeur de thèse, et un des mentors, de mon père ; je n'ai pas besoin de retracer sa carrière académique, parce que Wikipédia le fait pour moi, mais le souvenir que j'ai, moi, de ce grand Monsieur raffiné et toujours souriant, est que sa femme Koula et lui nous invitions, mes parents et moi, prendre le thé chez eux (ils habitaient un minuscule appartement près du Trocadéro, peut-être rue de Longchamp ou quelque part par là ; et ils se fournissaient en thé et en petit gâteaux chez Angelina) est que, après le thé, Monsieur Papapetrou et mon père parlaient physique (Monsieur Papapetrou était toujours assis dans la même chaise dont il ne pouvait quasiment pas bouger à cause de problèmes de dos), Madame Papapetrou et ma mère parlaient culture, et moi je picorais au hasard dans les très nombreux livres dont leur appartement était plein[#3].

[#2] En 1992, nous avons tous passé nos vacances d'été en Toscane, dans une grande villa que nous avions louée ensemble : moi je m'étais mis tête, je ne sais plus pourquoi, de passer mon temps à apprendre les conjugaisons du grec ancien. Mon père se moquait du fait qu'il n'y avait que moi pour venir en Italie et décider d'étudier le grec, mais Lucette, elle, trouvait ça très bien, et elle m'a offert pour mon anniversaire un exemplaire bilingue (grec-italien) de l'Œdipe-Roi de Sophocle.

[#3] Je me souviens notamment précisément d'avoir trouvé L'Homme qui prenait sa femme pour un chapeau d'Oliver Sacks chez les Papapetrou.

J'évoque ces deux personnes, mais mon père avait pas mal d'amis. Sans doute parce qu'il était franchement extraverti : il aimait parler aux gens, leur raconter des blagues. Avant ma naissance, il avait beaucoup joué au tonton rigolo avec mes cousins et cousines (les neveux de ma mère). Mais il engageait aussi facilement la conversation avec des inconnus (il n'était pas du tout timide comme je le suis). Un jour il est rentré d'un vol en avion et il m'a dit qu'il avait passé tout le trajet à parler à la charmante demoiselle, une certaine Létitia, qui était assise à côté de lui : Létitia avait environ 8 ans d'après lui, mais comme mon père était complètement incapable de juger l'âge des gens, ça peut vouloir dire qu'elle en avait 4 ou qu'elle en avait 16 ; une autre fois c'était un banquier : en tout cas, c'était complètement le caractère de mon père de faire la causette avec n'importe qui d'un petit peu réceptif à son humour. Personnes croisées dans les transports, serveurs dans les restaurants, tout le monde y avait droit. Et à la fin de sa vie, c'était tout le personnel soignant qui y passait.

Si on veut un exemple de son humour tel qu'il n'était pas à son plus tendre, on peut lire par exemple The Life and Times of Altcee, l'unique texte littéraire qu'il ait laissé, et qui est une caricature de moi (par exemple, dans le chapitre 4, pour se moquer de la manière dont je me plaignais d'être incapable de dormir dès qu'il y avait le moindre bruit dehors). Il aimait aussi raconter des blagues sur les physiciens et les mathématiciens ; sa préférée était probablement celle du physicien qui fait des mesures atmosphériques depuis un ballon, le ballon se détache, il dérive pendant longtemps et ne sait plus où il est, finit par voir quelqu'un et lui demande où suis-je ? — la personne interpellée marque une pause et finit par répondre vous êtes dans un ballon : le physicien se dit alors, cette personne devait être un mathématicien, parce que (1) il a réfléchi avant de répondre, (2) il a fait une réponse, claire, précise, et parfaitement correcte, et (3) cette réponse était complètement sans intérêt.

L'humour de mon père n'était pas toujours caustique, cependant. Il aimait bien raconter, aussi, la blague sur Niels Bohr qui aurait eu un fer à cheval porte-bonheur accroché devant son bureau ; un visiteur le remarquant aurait demandé mais, professeur Bohr, vous ne pouvez quand même pas croire à ce genre de superstition !, et Bohr de répondre : non, non, je n'y crois pas, mais il paraît que ça marche même si on n'y croit pas. Mon père disait souvent ça marche même si on n'y croit pas au sujet de toutes sortes de choses. Il avait un excellent sens de l'autodérision. Il aimait aussi dire qu'il aurait dû recevoir le prix Nobel de physique, parce que Henry Kissinger avait reçu celui de la paix et que lui, au moins, il n'avait rien fait contre la physique.

Comme je l'ai écrit ci-dessus, je ne sais pas bien comment se sont déroulées ses études. Il a fait sa licence à l'université de Toronto, entre 1956 et 1962. Il ne m'en a pas beaucoup parlé, je me souviens juste qu'il ait dit qu'il y avait H.S.M. Coxeter (il a dû avoir des cours de lui), et que c'était un peu étrange parce qu'il était déjà très célèbre. Je sais aussi qu'il a participé à des études sur le terrain de la faune en Ontario (ils capturaient des petits animaux pour les recenser).

Il est venu en Europe en 1960 (ou par là), traversant l'Atlantique à bord d'un cargo. Je crois qu'il est allé à Paris, puis à Hambourg, puis qu'il est revenu à Paris pour commencer sa thèse ; il avait peut-être l'intention de continuer à voyager. Ses premières impressions de la France n'étaient pas toutes très bonnes. Je me souviens qu'il m'a raconté avoir été stupéfait de découvrir que les piscines, à Paris, étaient à l'époque fermées en août ; et qu'obtenir une ligne téléphonique était incroyablement long et difficile. Mais il a rencontré ma mère (lors d'un voyage d'un groupe d'étudiants, à Sorente, en Italie), et finalement ils s'y est installé définitivement. Il a demandé la nationalité française à la fin des années '90 (en conservant sa nationalité canadienne ; il a continué à rendre de temps en temps visite à sa sœur et son frère tant qu'il en étatit capable).

Mon père a soutenu sa thèse d'État le (Rayonnement gravitationnel d'une source bornée[#3b], avec une seconde thèse sur la cohomologie de Spencer) ; le jury était constitué, outre d'Achilles Papapetrou dont j'ai déjà parlé, d'André Lichnerowicz, de Marie-Antoinette Tonnelat et d'Yvonne Choquet-Bruhat : jury paritaire, donc, ce qui ne devait pas être souvent le cas à l'époque, mais ce qui est vraiment hallucinant c'est que la fiche officielle de la soutenance les appelle M. Tonnelat et M. Choquet ! Il a travaillé à l'Institut Henri Poincaré à Paris (qui, quand j'étais petit, était encore conservé dans son jus d'origine, rien à voir avec son état actuel), brièvement au campus de Luminy de l'Université de Marseille, puis à l'École Polytechnique, et enfin au Laboratoire de Physique Théorique et des Hautes Énergies de l'Université de Paris-Sud (Orsay). C'est vers 1989, je crois à peu près au moment où il a bougé de Polytechnique vers la fac d'Orsay, qu'il a commencé à travailler sur la géométrie non-commutative (voir par exemple ce petit cours qu'il a donné). Il a écrit de nombreux articles sur le sujet (son dernier en 2015), mais je crois qu'il était surtout fier de son livre, An introduction to noncommutative differential geometry and its physical applications, dont il y a eu deux éditions (1995 et 1999), il travaillait sur une troisième mais n'a jamais pu la finir.

[#3b] [Ajout ] Je suis content que mon père ait vécu (et gardé sa lucidité mentale) assez longtemps pour apprendre la nouvelle que les ondes gravitationnelles avaient été détectées expérimentalement (), et il était effectivement intéressé de l'apprendre. Pour en savoir plus sur cette détection, je recommande le livre Les Ondes gravitationnelles de Nathalie Deruelle et Jean-Pierre Lasota (dont j'ai fait une petite recension dans cette entrée passée). Nathalie Deruelle (dont je recommande également le livre de vulgarisation scientifique De Pythagore à Einstein) était une des premières coauteures de mon père, et elle a continué à le voir régulièrement, jusqu'à ses derniers moments, et a aidé mon père à garder un contact avec le monde scientifique.

[John Madore]S'agit-il de physique ou de maths ? La frontière est évidemment ténue, et beaucoup de physiciens auront tendance à dire qu'il s'agit de maths, mais mon père n'aurait jamais voulu admettre qu'il faisait des maths. Son opinion des maths est bien résumée par la blague du physicien dans le ballon que j'ai citée plus haut, ou par la réflexion de Feynman qui comparait la rigueur mathématique à la rigor mortis. Un échange que nous avions régulièrement concerne, par exemple, le sens du mot paracompact : quand j'étais petit, il m'avait expliqué qu'un espace topologique compact était un espace topologique dans lequel de tout recouvrement par des ouverts on peut extraire un sous-recouvrement fini, et qu'un espace topologique paracompact est la même chose avec fini remplacé par dénombrable ; plus tard, quand j'ai moi-même lu des livres de topologie, je lui ai signalé qu'il s'était trompé et que ce qu'il prenait comme définition de paracompact était en fait un espace de Lindelöf (mon père n'avait jamais entendu ce terme), tandis que la bonne définition de paracompact est un espace dans lequel tout recouvrement par des ouverts admet un raffinement localement fini : il a haussé les épaules et dit que c'était une distinction sans intérêt. Il m'a raconté une anecdote selon laquelle je ne sais plus quel mathématicien (peut-être Godement, ou Dixmier — cela ferait plus de sens avec Godement, je pense, ceci dit, les anecdotes de mon père n'étaient pas toujours d'une exactitude infaillible, donc je ne sais pas s'il faut forcément le croire) donnait un séminaire, et quelqu'un dans l'assistance a demandé s'il ne fallait pas supposer tel ou tel espace paracompact ici, et l'orateur a haussé les épaules et répliqué que tous les espaces étaient paracompacts (si cette anecdote s'est vraiment produite, je suppose qu'il faut en fait comprendre simplement que l'orateur avait fait une fois pour toute l'hypothèse de ne considérer que de tels espaces, mais pour mon père c'était plutôt une déclaration que les espaces qui ne le sont pas n'ont aucune sorte d'intérêt). Bref, à part que ceci est devenu une sorte de running joke entre nous, pour mon père, un mathématicien est quelqu'un qui se soucie de savoir ce qui peut arriver dans un espace non paracompact, ou de la différence entre paracompact et Lindelöf. Dans le même genre, il considérait la géométrie algébrique comme quelque chose de parfaitement ésotérique, et l'algèbre en caractéristique p>0 comme une sorte de perversion (il connaissait ℤ/pℤ, mais quand j'ai voulu lui parler de corps finis ayant un autre nombre d'éléments il ne voulait rien savoir).

Mais bien sûr, c'est à mon père que je dois de m'avoir initié non seulement à la physique mais aussi aux maths. Il n'aimait pas enseigner à un groupe d'élèves, mais en tête à tête il était excellent pédagogue, il savait souligner ce qui était important et passer sous silence ce qui devait l'être. Comme les maths, ou en tout cas la rigueur mathématique, n'étaient pas sa passion, il me les a apprises de façon peu orthodoxe, mais c'est peut-être justement ce manque d'orthodoxie qui a stimulé mon intérêt. Les choses qu'il ne m'a pas directement enseignées, il m'a prêté des livres pour les apprendre ; ou parfois nous avons appris des choses ensemble, en lisant tour à tour le même livre et en discutant de ce que nous y avions lu. La curiosité intellectuelle et scientifique dont j'espère faire preuve dans ce blog, je la dois avant tout à mon père.

Il s'intéressait à beaucoup d'autres choses (je tiens ça de lui). Surtout les sciences (chimie, biologie… même s'il avait tendance à rester dans les cadres qu'on lui avait enseignés à l'Université, et qui commençaient à vraiment dater), mais pas uniquement. Il aimait les langues et la linguistique en amateur, mais il avait tendance à inventer des étymologies complètement fantaisistes ; il avait aussi tendance à se faire des idées sur certains sujets, et ne pas vouloir en démordre : il était persuadé, par exemple, que personne n'avait jamais parlé latin, je veux dire, un latin vaguement semblable au latin classique, et que quand Cicéron faisait un discours personne n'en comprenait quoi que ce soit parce que c'était une langue tellement artificiellement complexe — impossible de lui faire démordre, ou même nuancer, cette idée. Mon père lui-même parlait couramment anglais, français et allemand (il a fait quelques efforts pour apprendre l'arabe avec la méthode Assimil, mais je ne crois pas que ce soit allé très loin[#3c]) ; mais en fait, son anglais s'était un peu rouillé après plus de 50 ans passés en France ou au contact de scientifiques parlant un anglais non-natif, et son français, lui, était resté parsemé d'anglicismes et de genres grammaticaux non conformes aux dictionnaires : c'est vraiment l'allemand qui le passionnait, la seule langue dans laquelle il lisait vraiment de la littérature (Robert Musil, ou le Faust de Goethe qu'il devait savoir quasi par cœur à force de le re-re-re-re-relire).

[#3c] [Ajout ] Une anecdote qu'il aimait bien raconter, au sujet de ses tentatives pour apprendre l'arabe, est qu'un jour dans un café en Algérie il a voulu essayer de commander en arabe deux thés à la menthe sans sucre ; le cafetier lui a fait répéter plusieurs fois, et a fini par revenir avec deux cafés sucrés. (L'histoire ne dit pas si c'est parce que mon père ne demandait pas bien, ne prononçait pas correctement, ou parce que le cafetier ne comprenait pas l'arabe classique.)

Il aimait aussi jardiner. Il aimait bricoler, et fabriquer des choses de ses mains : il n'avait pas en cela un talent particulier, mais il y prenait plaisir. Il a fabriqué le portail devant sa maison, et il se construisait une cabane au fond du jardin, qui lui donnait surtout, je pense, un prétexte pour sortir un peu tant qu'il en était encore capable. Plus tôt, il aimait beaucoup faire du vélo, et partait pour de longues balades autour d'Orsay. Et il a eu des périodes où il aimait le golf, et le tennis, mais elles n'ont pas vraiment duré.

[Ajout ] Mon père aimait les espaces naturels (un goût pour les arbres qu'il m'a au moins partiellement communiqué), mais une chose qu'il aimait particulièrement, et qui lui manquait en Europe, c'étaient les couleurs de l'automne en Amérique du Nord — les couleurs de l'été indien — les couleurs des érables à sucre, des peupliers faux-trembles, des chênes rouges, des bouleaux jaunes, des frênes blancs, et bien sûr des érables rouges, qui font de l'automne une saison si magique en Ontario comme en Nouvelle-Angleterre. Il aimait regarder le film The Trouble with Harry de Hitchcock rien que pour les scènes en extérieur si colorées qui lui rappelaient sa jeunesse.

Scientifiquement, il avait tendance à très facilement considérer comme crackpotesque n'importe quelle idée qui sortait un tout petit peu de sa zone de confort. Je ne sais pas combien de fois il m'a parlé d'un collègue ou ancien collègue à lui comme s'il était devenu un peu fou parce qu'il étudiait je ne sais quelle théorie qui n'entrait pas tout à fait dans le champ de ce que mon père considérait comme orthodoxe. Et pas seulement sur des questions pointues : quand mon grand-père paternel m'a offert le livre Cosmos de Carl Sagan[#4], livre qui a aussi joué un grand rôle dans mon éveil scientifique, j'ai découvert que mon père considérait Carl Sagan comme une sorte de crackpot, et j'ai fini par comprendre que c'est parce que Sagan s'intéressait à la question de la possibilité de l'existence de formes de vie extra-terrestres : pour mon père, ne serait-ce que se poser la question était déjà une forme de déviation scientifique (lui-même était persuadé, je crois, que l'apparition de la vie sur Terre était due à un hasard tel qu'elle était probablement la seule planète de l'Univers à en porter, mais en tout état de cause il trouvait surtout que c'était une question singulièrement dénuée d'intérêt). À plus forte raison, non seulement il ne croyait pas en Dieu[#5], mais il avait le mépris le plus complet pour ce genre de considérations, ou pour toute forme de métaphysique (à peu près la seule fois où je l'ai entendu parler de philosophie, c'était pour approuver Carnap qui, dans le résumé qu'en a fait mon père, aurait dit j'ai résolu tous les problèmes de la métaphysique : c'est qu'ils n'avaient absolument aucun sens).

[#4] Le livre tiré de la série télé du même nom : même si ça a vieilli, je recommande les deux au passage.

[#5] Ma mère non plus ne croit pas en Dieu, mais pour elle c'est une question plus politique, c'est un athéisme qui prend la forme d'une hostilité contre l'Église en tant qu'institution, de la religion en tant qu'instrument d'oppression des peuples, tandis que pour mon père c'était vraiment le mépris de ce qu'il considérait comme des questions non-scientifiques qui l'emportait.

C'est là que je dois parler de ce qui était assurément le plus gros défaut de mon père : son obstination. C'est peu dire qu'il était têtu. Une fois qu'il s'était mis une idée fermement en tête, ni les arguments ni les cajoleries ne pouvaient lui en faire démordre. (Je ne dis pas que toutes ses opinions étaient indémordables : il savait parfaitement reconnaître qu'il avait tort quand il n'avait pas encore transformé son avis en certitudes. Mais une fois que c'était fait, il ne lâchait plus jamais.) Corollaire : il pouvait former des jugements injustes sur des gens, leurs actions ou motivations, et, dans le pire cas, il avait une rancune tenace.

Cette rancune signifie que quand il était fâché, mon père était incapable de parler pour percer l'abcès : il s'emmurait dans le silence. Je ne sais combien de fois il a décidé que j'avais fait quelque chose que je n'aurais pas dû (parfois avec raison, parfois non, et parfois je n'ai même pas su), et plutôt que de me confronter, il me faisait la gueule — il refusait de me parler. Cela pouvait durer des semaines, parfois même des mois. Si je demandais la raison, ou si j'essayais d'en parler, ou si ma mère intervenait pour essayer de concilier les choses, il s'enfermait encore plus, il répondait il sait très bien, et on n'irait pas plus loin.

Le temps, cependant, l'a changé. Ou du moins, je n'ai pas su dans quelle mesure c'était l'effet de la sagesse qui vient avec l'âge[#6], celui de la vieillesse, de la maladie, ou des médicaments traitant sa maladie, mais sa mauvaise humeur est devenue moins fréquente. C'était le seul point positif dans un naufrage inexorable.

[#6] Une des blagues que mon père aimait raconter était quelque chose comme : mon père était un idiot jusqu'à ce que j'aie 18 ans, et ensuite il est devenu plus sage.

On lui a diagnostiqué la maladie de Parkinson vers 2000. (Auparavant, il souffrait déjà depuis une dizaine d'années d'acouphènes qui étaient peut-être un signe avant-coureur, je ne sais pas.) Au début, il nous l'a cachée (à ma mère et à moi) : nous avons eu des soupçons quand des livres sur cette maladie sont apparus dans sa bibliothèque, mais surtout quand, en 2002, il est parti en voyage à Belgrade en oubliant de prendre son ropinirole (Requip®) et qu'il a dû nous demander de lui faire parvenir en urgence (j'ai dû aller à Roissy l'apporter à une amie d'amie travaillant pour Air Serbia qui l'a apporté à mon père). Cette maladie progresse à une vitesse et cause des symptômes extrêmement variables de patient en patient : mon père n'a jamais eu de tremblements, par exemple, et est resté capable de marcher, quoique de plus en plus difficilement, jusque vers 2018 ; bizarrement, il marchait beaucoup plus facilement à l'extérieur qu'à l'intérieur. En revanche, il lui arrivait de plus en plus fréquemment de freezer, c'est-à-dire de rester bloqué à un endroit, sans bouger, sans rien faire, sans même qu'on arrive à savoir s'il voulait avancer et n'y arrivait plus ou s'il ne cherchait même pas (ni si la différence avait vraiment un sens) ; parfois, au contraire, il avait des périodes de grande agitation. Il devenait aussi de plus en plus difficile à comprendre quand il parlait, même si cet effet semblait plus dû aux médicaments (ropinirole, et levodopa+carbidopa+entacapone) qu'à la maladie elle-même ; en tout cas, c'était une tragédie pour lui qui aimait tellement parler avec tout le monde, de constater qu'on ne le comprenait plus. Aussi probablement due aux médicaments était l'apparition de comportements obsessifs parfois aux limites de l'hallucination. Sa mémoire n'a jamais cessé de fonctionner normalement, mais il devenait de moins en moins capable de se concentrer, il radotait de plus en plus. Surtout, son état fluctuait de jour en jour et même d'heure en heure : il pouvait être tout à fait normal avant le déjeuner et devenir presque incapable du moindre mouvement à la fin de celui-ci ; il y a toujours eu des hauts et des bas dans sa maladie, et ce n'est pas tant que les bas sont devenus plus bas, c'est surtout qu'ils sont devenus plus fréquents. Un neurologue a essayé un traitement différent, l'apomorphine (injecté par une pompe, ce qui nécessitait d'avoir un infirmer passant quotidiennement à domicile pour régler la pompe) : cela a représenté un léger progrès au niveau des effets secondaires et une moindre irrégularité de ses symptômes, mais certainement pas de progrès miraculeux. Le plus problématique était surtout que mon père avalait de plus en plus difficilement, faisait des fausses routes, et du coup, multipliait les infections. Lui qui aimait tellement bien manger s'est mis à manger de moins en moins : il a fallu des aides à domicile pour lui faire prendre ses repas, puis quand ce n'était plus possible de le garder à la maison nous l'avons mis en maison de retraite médicalisée, et le coup final est venu quand il s'est cassé le col du fémur début juillet, il a presque complètement cessé de manger après cela, et la fin ne pouvait que venir rapidement.

Le décès de mon père n'a donc aucun rapport avec la covid, mais il est survenu dans un contexte de covid : lui-même écoutait les nouvelles de l'épidémie avec une fascination intellectuelle mais comme si ça ne le concernait absolument pas. Il a fait une assez mauvaise chute juste avant le début du confinement, il n'a pas été facile de le faire emmener aux urgences ; après, quand il s'est cassé le col du fémur, je n'ai pas eu le droit d'aller lui rendre visite après son opération ; et pour ses obsèques (le 19 août, au crématorium des Ulis), nous n'avions droit qu'à être 20 à la cérémonie, l'employé des pompes funèbres a accepté de fermer les yeux sur le fait que nous étions plutôt autour de 25, mais cela colorait encore plus une situation déjà bien difficile à vivre.

Je pense que ce qui résume le mieux la tragédie de la vie, de la vieillesse et de la mort, tient dans les mots jamais plus !. Mon père ne pleurait pas souvent (en fait, je ne crois pas l'avoir jamais vu pleurer) ; mais une chose qui lui a mis les larmes aux yeux c'est, en voyant un documentaire télévisé sur Potsdam où il aimait tellement aller, de se rendre compte que, dans son état, il ne pourrait jamais plus retourner là-bas. Généralement parlant, il se tenait plutôt dans le déni sur son état de santé — ou disons, sur les conséquences de son état de santé : il parlait par exemple régulièrement d'aller au restaurant même après que ce n'était plus envisageable de l'y amener : mais comment aurions-nous pu avoir le cœur à lui dire qu'il n'irait jamais plus au restaurant ? Et moi-même, quand ai-je accepté le fait que je n'irais jamais plus me promener avec mon père autour du viaduc des Fauvettes à discuter de l'infiniment grand ou de l'infiniment petit ? L'ai-je seulement accepté ? Je ne sais pas. Je n'ai pas le courage, en tout cas, de chercher à retrouver la date du dernier voyage de mon père, la dernière fois qu'il a mangé au restaurant, ou la dernière fois que nous nous sommes promenés ensemble.

Mais, je l'écrivais ci-dessus (et cela rejoint ce que je racontais autrefois), nous existons chacun dans l'esprit de nos proches sous forme de milliers de souvenirs partagés. J'ai l'idée que cette évocation de la mémoire de mon père lui permet, à la manière évoquée dans les vers d'Omar Khayyám, d'exister encore un peu, soit en rafraîchissant les souvenirs de ceux qui l'ont croisé, soit en donnant quelque idée de ce qu'il a été auprès de ceux qui ne l'ont pas rencontré.

PS () : L'édition des Rubáiyát que nous avions, et que mon père aimait lire, est très exactement celle-ci (la première édition de la traduction par Edward Fitzgerald, illustrée par les dessins d'Edmund J. Sullivan qui m'ont beaucoup marqué quand j'étais petit).

↑Entry #2660 [older| permalink|newer] / ↑Entrée #2660 [précédente| permalien|suivante] ↑

↓Entry #2659 [older| permalink|newer] / ↓Entrée #2659 [précédente| permalien|suivante] ↓

(vendredi)

À la recherche des belvédères franciliens

Il y a deux ou trois ans, le poussinet et moi avions entrepris de visiter un peu systématiquement les parcs et jardins d'Île-de-France, et notamment (mais pas seulement) ceux bénéficiant du label Jardin remarquable (cf. la liste donnée dans cette entrée). Nous n'avons toujours pas fini (la liste au lien que je viens de donnée continue d'être mise à jour), mais, forcément, les jardins qui nous restent sont en gros les moins intéressants, les plus lointains ou compliqués d'accès (il y en a pour lesquels il faut s'inscrire à une visite guidée, et ceux-là, nous ne les ferons pas). Nous avons élargi nos intérêts des jardins aux forêts (et, entre les deux, aux arboretums) : là, bien sûr, la liste est mal définie et il n'est pas question d'avoir tout vu, mais là aussi, nous commençons à avoir fait le tour des choses les plus évidentes et accessibles. Il est donc temps d'ouvrir une nouvelle catégorie de « sites à voir en Île-de-France ».

J'attaque, donc, les points de vue, ou belvédères.

La définition, évidemment, n'est pas très précise, et il n'y aura pas de liste exhaustive. Il s'agit d'endroits depuis lesquels on dispose d'une vue dégagée sur une grande distance. C'est mieux si la vue est large en plus d'être longue (i.e., si on ne voit pas loin juste dans une seule direction mais dans un grand secteur, voire tout autour). C'est mieux si la vue contient des choses intéressantes (notamment si on peut voir Paris). C'est mieux si on peut s'y arrêter tranquillement (s'il y a un banc, pas juste le rebord d'une route), et peut-être s'il y a une table d'orientation aménagée. Mais rien de tout ça n'est indispensable (par contre, je ne grimpe pas aux arbres, et je n'entre pas dans les bâtiments où l'accès est compliqué). Et comme pour les parcs et jardins, la contrainte en Île-de-France n'est qu'indicative, c'est juste que j'habite Paris et je ne vais pas faire 2000km pour aller voir un paysage (voir quand même ces panoramas-ci).

Peut-être que c'est la privation de liberté ressentie pendant le confinement qui me fait apprécier particulièrement, en ce moment, les points de vue dégagés, mais j'ai toujours aimé ça. Je ne suis pas grand fan des paysages de montagne où, même si on voit loin, on ne voit finalement que jusqu'à une autre montagne du massif : je préfère les vues ouvertes sur une plaine.

Je ne sais pas si je voudrais avoir une vue de ce type depuis ma chambre à coucher. À ce sujet, je suis peut-être d'accord avec l'avis d'Ellison dans Le Domaine d'Arnheim de Poe (ici traduit par Baudelaire), que j'ai déjà cité à propos des jardins alors c'est le moment de recommencer au sujet du panorama :

Ellison, à la recherche du lieu et de la situation désirés, voyagea plusieurs années, et il me fut accordé de l'accompagner. Mille endroits qui me ravissaient furent rejetés par lui sans hésitation, pour des raisons qui me prouvèrent, finalement, qu'il était dans le vrai. Nous trouvâmes, à la longue, un plateau élevé, d'une beauté et d'une fertilité surprenantes, qui donnait une perspective panoramique d'une étendue presque aussi grande que celle qu'on découvre du haut de l'Etna, et dépassant de beaucoup, par tous les vrais éléments du pittoresque, cette vue cependant si renommée, au jugement d'Ellison comme au mien.

Je n'ignore pas, — me dit le voyageur tout en poussant un soupir de volupté profonde, arraché par la contemplation du tableau, et après une heure environ d'extase, — je sais qu'ici, dans les circonstances qui me sont personnelles, les neuf dixièmes des hommes les plus délicats se tiendraient pour satisfaits. Ce panorama est vraiment splendide, et je m'y délecterais, rien que pour l'excès de sa splendeur. Le goût de tous les architectes qu'il m'a été donné de connaître les pousse, pour l'amour du point de vue, à placer leurs bâtiments sur des sommets de montagne. Il y a là une erreur évidente. La grandeur, dans tous ses modes, mais particulièrement dans celui de l'étendue, éveille, excite, il est vrai, — mais ensuite fatigue et accable. Pour un paysage d'occasion, rien de mieux ; — pour une vue constante, rien de pire. Et, dans une vue constante, l'expression la plus répréhensible de grandeur est l'étendue ; la pire forme de l'étendue est l'espace. Cela est en contradiction avec le sentiment et le besoin de réclusion, — sentiment et besoin que nous cherchons à satisfaire en nous retirant à la campagne. Si nous regardons du haut d'une montagne, nous ne pouvons nous empêcher de nous sentir hors du monde, étrangers au monde. Celui qui a la mort dans le cœur évite les perspectives lointaines comme une peste.

Bref, je cherche les points de vue d'Île-de-France pas pour m'y installer mais pour y passer un instant, rêvasser un peu, et repartir.

Ce n'est pas forcément facile de les trouver. On peut chercher les endroits en hauteur, parce que certainement ce n'est pas au fond d'une vallée qu'on va trouver un point de vue portant loin, mais ça ne suffit absolument pas, il y a plein d'endroits en hauteur dont la vue est cachée par la végétation, par des constructions, par un accident du relief, que sais-je encore. On peut chercher à repérer les autres points de vue potentiels depuis un point de vue donné, mais c'est une tâche compliquée, on risque de voir surtout des arbres et de ne pas forcément identifier à quels endroits on peut effectivement se rendre. On peut utiliser les points d'intérêt d'OpenStreetMap, mais la liste est loin d'être exhaustive, et a contrario elle contient beaucoup de points d'intérêt très limité.

[Carte des belvédères d'Île-de-France]Je suis tombé sur une note de l'Institut d'Aménagement et d'Urbanisme d'Île-de-France (maintenant Institut Paris Région), Le paysage d'Île-de-France révélé par ses belvédères (note rapide Territoires nº744, 11 avril 2017) (lien PDF direct), qui contient une carte très intéressante, que je reproduis ci-contre (cliquer pour agrandir) parce que la version qui est dans le PDF n'est pas facilement utilisable vu qu'elle est découpée en deux pages ; même comme ça, c'est assez pénible pour situer les points, parce qu'il n'y a quasiment aucun nom de lien : j'ai fait des versions où je superpose partiellement des cartes d'OpenStreetMap à la même échelle (qui a été pénible à calculer, soit dit en passant), cf. ici sur Twitter, et ça restait encore assez fastidieux ; mais dernièrement, j'ai fini par trouver où ils avaient caché la version open data, et ça devient tout de suite plus facile à explorer (mais je ne suis pas certain que la version en open data coïncide exactement avec celle de la carte ci-contre). Ils ont une typologie bizarre mais néanmoins intéressante (belvédères reconnus quand ils sont aménagés exprès pour, inattendus quand ils ne le sont pas, bâtis quand il faut monter en haut d'un bâtiment, et mobiles quand il s'agit d'un paysage qui se dévoile au hasard d'une route ou d'un viaduc). Cette sélection est sans doute meilleure que celle d'OpenStreetMap (les meilleurs sont de toute façon probablement à l'intersection des deux), mais il y a quand même des points bizarres que je n'ai pas pu identifier, et inversement quelques manques. Il y a aussi un album photo accompagnant qui illustre les vues depuis certains de ces belvédères.

Il n'y a pas non plus de critère clair pour savoir si deux points de vue proches sont « le même » ou pas, même s'il est étonnant de constater à quel point un tout petit déplacement peut parfois changer de façon surprenante ce qu'on voit.

Une chose frustrante avec les points de vue est combien facilement on peut passer à côté : comme je le dis ci-dessus, il arrive qu'à un endroit donné on ait une vue fantastique, mais que cinq mètres plus loin on ne voie rien du tout ; cela n'aide pas, notamment, à les trouver avec quelque chose comme Google Street View (surtout que beaucoup d'endroits sont d'accès uniquement piéton), et ne parlons même pas d'essayer de prévoir leur emplacement avec une carte du relief. Une autre chose frustrante est que, même quand on s'y trouve, il est souvent étonnamment difficile d'identifier ce qu'on voit : j'ai beau avoir une carte sur mon téléphone (et la possibilité de tracer des droites dessus pour m'aider des alignements), même quand il y a une table d'orientation pour aider, je reste souvent perplexe quant à identifier la correspondance entre machin que je vois et truc sur la carte (voire bidule dessiné sur la table d'orientation). C'est quoi cette tour qui dépasse à l'horizon, ou cette butte dans le relief ? Pas évident à savoir ! (On peut bien faire une photo pour essayer de repérer après coup, mais la qualité de l'optique de mon mobile est tellement mauvaise qu'on ne voit quasiment rien.)

Bref. Je tente une petite liste commentée des points de vue que je connais déjà (j'écarte généralement les bâtiments, comme la tour Montparnasse où je viens de déjeuner pour mon anniversaire, la tour Eiffel, la grande arche de la Défense… parce que l'accès à ces endroits est payant et/ou contrôlé, ce qui va à l'encontre de mon idée du belvédère comme un endroit où on arrive librement ; mais je suppose qu'il y a plein de tours qui offrent une vue magnifique depuis leurs étages supérieurs). La liste est ordonnée grosso modo par ordre chronologique de la première fois que je m'y suis rendu (ou peut-être la première fois pour laquelle j'en ai une trace claire) ; je mets à chaque fois un lien vers OpenStreetMap indiqué par le symbole , et parfois un lien vers des photos que j'ai prises ; et je donne une note d'ensemble complètement subjective comme le guide Michelin : ✽ = une belle vue ; ✽✽ = mérite le détour ; ✽✽✽ = mérite le voyage (depuis où, l'histoire ne le dit pas…) :

  • Le parvis de la basilique du Sacré-Cœur de la butte Montmartre, à Paris , ainsi que différents autres endroits de la butte. La vue est globalement vers le sud (donc vers le centre de Paris ; si je me rappelle bien, la tour Eiffel est hors champ) depuis le parvis, mais on peut voir vers d'autres directions depuis d'autres points voisins. C'est un peu la tarte à la crème des points de vue parisiens, et j'ai dû y aller plein de fois depuis que je suis tout petit. Mais il est frustrant, pas seulement parce qu'il est noir de monde (sauf si on y va au milieu de la nuit, ce qui est une option intéressante, après tout, c'est une rue, ça ne ferme jamais), mais aussi parce qu'on a toujours l'impression que le meilleur point de vue sera un tout petit peu plus sur le côté, et finalement on ne le trouve jamais. ✽✽
  • Le belvédère des Buttes-Chaumont à Paris . Je ne le trouve pas si impressionnant (il n'est pas assez haut, en fait), mais c'est aussi un grand classique parisien, donc je le mets dans la liste. Je ne sais même plus bien ce qu'on voit, à part qu'on voit clairement Montmartre. Ajout : Pas loin de là, je devrais sans doute aussi mentionner la butte Bergeyre  (qui est peut-être le seul point de vue de cette liste que je peux assez bien montrer sur Google Street View).
  • Ajout : On me signale que j'avais oublié de lister le belvédère (Willy Ronis) de Belleville , qui est sans doute le meilleur de Paris intra muros (enfin, si mes souvenirs sont bons, parce que ça fait une éternité que je n'y suis pas passé). ✽✽
  • La butte du Chapeau rouge à Paris . La vue n'est pas mal du tout en étendue, mais elle pointe vers le nord(-nord-est), qui n'est pas forcément la direction la plus intéressante dans le coin (sauf si vous aimez la tour hertzienne du fort de Romainville — de laquelle, d'ailleurs, on doit avoir une très belle vue, mais je suppose qu'elle ne se visite pas) ; il ne faut donc pas espérer voir Paris de là, ni la Défense. ✽
  • La corniche du château de la Madeleine à Chevreuse (depuis longtemps, dernièrement ). Vue très bucolique (en direction du sud) sur la vallée de l'Yvette, mais évidemment, c'est surtout des bois, quelques champs, et la ville de Chevreuse elle-même. ✽
  • La balustrade du parc de Saint-Cloud (≤). Vue vers l'est(-nord-est) : on voit Paris et surtout Boulogne-Billancourt ; la tour Eiffel est plein centre, les tours de la défense tout à gauche. La vue est bien longue, mais c'est dommage qu'elle manque peut-être un peu de largeur. ✽✽
  • La Grande Terrasse de Saint-Germain-en-Laye (et tout du long de la terrasse) (). Vue impressionnante, très longue et large, en direction de l'est(-sud-est), sur tout l'ouest parisien : on voit les tours de la Défense plein centre, et le Mont Valérien un peu à droite, la tour Eiffel entre les deux, et sinon, la vue s'étend des hauteurs du Parisis (je crois) tout à gauche jusqu'à celles de Marly tout à droite. Évidemment, à part la tour Eiffel, on ne voit pas grand-chose de Paris même, qui est caché derrière la Défense. ✽✽✽
  • Le belvédère du Grand Lac du parc Georges Valbon à la Courneuve (). J'ai fait un lien vers un endroit précis (la butte dominant le lac), mais il y a plusieurs buttes d'où on a des points de vue intéressants dans ce parc (la photo illustrant l'entrée du lien précédent a été prise , par exemple : le sommet des cascades). Je ne sais plus exactement ce qu'on voit de chacun (voir cependant ce tweet d'un copain) ; mais j'ai tendance à dire que, de toute façon, ce qui est le plus intéressant est le parc lui-même (et la vue sur celui-ci). ✽
  • Les terrasses des jardins de l'Observatoire de Meudon (≤) (il y a d'autres points de vue depuis l'Observatoire lui-même, mais celui que j'indique et ouvert au public). Vue vers l'est-nord-est : on voit Paris au fond, mais surtout Meudon et Issy-les-Moulineaux ; la tour Eiffel tout à gauche si on se place bien, et les hauteurs de la forêt de Meudon à droite. La vue est bien longue, mais c'est dommage qu'elle manque peut-être un peu de largeur. ✽
  • La corniche de la route des crêtes à la Roche-Guyon (nombreux points de vue, tous magnifiques) (, ). Vue vers le sud. Là c'est vraiment impressionnant à quel point on voit loin et large. Évidemment, ce n'est pas vers du bâti : la vue porte sur la Seine (et la Roche-Guyon elle-même en contrebas), on voit surtout des bois et quelques champs, en tout cas c'est bucolique. ✽✽✽ Si on passe dans le coin, on ne manquera pas de visiter l'arboretum de la Roche-Guyon.
  • La butte des Châtaigniers à Sannois () ; et à proximité : la butte d'Orgemont (pas vue), et moulin de Sannois () (les trois faisant partie de l'ensemble dit des buttes du Parisis) ; et ne pas oublier d'en profiter pour jeter un coup d'œil depuis le cimetière de Sannois () pour avoir une vue vers le nord. Celle des Châtaigniers, vers le sud, est vraiment impressionnante : très longue et large, peut-être la meilleure de toute cette liste, en tout cas si on aime les vues sur du bâti : on voit tout le nord-ouest de Paris, la Défense en plein centre, et on voit nettement la tour Eiffel, la tour Montparnasse et la porte Maillot. ✽✽✽ Je n'ai pas pu monter sur la butte d'Orgemont parce qu'elle était fermée le jour où j'y suis passé, mais il est possible qu'elle soit encore meilleure ; elle doit cependant être assez semblable. La vue que j'ai pu avoir depuis le moulin de Sannois était un peu plus décevante parce qu'il y avait toujours quelque chose pour la cacher, mais peut-être que si on accède au moulin lui-même c'est mieux (il y a aussi un restaurant que je compte essayer).
  • Les douze colonnes de l'esplanade de Paris sur l'Axe majeur de Cergy (). Une très belle vue, en direction du sud-est, sur le lac de Cergy (étang de la Folie), avec les tours de la Défense et le Mont Valérien qui dépassent au loin. La mise en scène artistique est assez imposante, aussi. ✽✽
  • Le point de vue des jardins de Cocagne, en bord de la forêt de l'Hautil à, Évecquemont (). Vue vers le sud : pas mal, sans plus. Ce qui me frustre un peu, c'est que la forêt de l'Hautil donne l'impression, vue de loin (i.e., parce qu'on la voit vraiment dominer la vallée) qu'elle doit regorger de points de vue magnifiques, et en fait je n'ai trouvé que ça (bon, je n'ai pas cherché très fort non plus).
  • La terrasse du château d'Écouen (musée national de la Renaissance) (). C'est une vue vers le nord(-nord-est), i.e., vers la plaine de France, pas du tout vers Paris, donc on verra surtout des zones agricoles, et quelques bois au fond, mais c'est très joli (pour commencer, le centre historique d'Écouen, en avant-plan, a l'air assez mignon). ✽✽
  • Le pourtour de la collégiale de Montmorency (). La vue (vers l'ouest(-sud-ouest)) est un peu cachée par de la végétation (la Défense ne fait que dépasser de la cime des arbres, je crois que le lac d'Enghien est complètement caché ; on ne peut pas du tout voir Paris), mais ça reste pittoresque : ce coin de Montmorency est mignon, la vue est beaucoup plus verte que celle depuis Sannois évoquée ci-dessus. ✽
  • Le point culminant du parc paysager de la zone naturelle des Trente Arpents(?), près de la tour hertzienne du fort de Montlignon, à Andilly : (). Celui-ci est vraiment très impressionnant parce qu'on a une vue à 360° : vers le nord-est sur la plaine de France (en gros la même que depuis le château d'Écouen, cf. ci-dessus), vers le sud sur la Défense et tout le grand Paris (malheureusement un peu caché par les arbres, donc pas aussi parfaite que depuis la butte des Châtaigniers évoquée ci-dessus, mais néanmoins très belle), et vers l'ouest sur la forêt de Montmorency. ✽✽✽ La vue depuis la tour hertzienne doit être carrément époustouflante puisqu'on la voit depuis énormément des points de vue de cette liste, mais il n'y a pas grand-monde qui doit pouvoir y accéder. Sinon, tant qu'on est à Andilly, voir aussi le point de vue de la terrasse (pelouse ?) des Châtaigniers(?) , à proximité : la vue est étroite à cause de la végétation, mais elle donne sur la Défense et la tour Eiffel.
  • La colline de la Revanche à Élancourt (), point culminant de l'Île-de-France (mais artificiel, puisque c'est une butte crée par les remblais de construction de Saint-Quentin-en-Yvelines). Autre vue à 360°. On ne voit quasiment pas Paris (on devine juste la tour Eiffel et la tour Montparnasse), surtout Saint-Quentin-en-Yvelines, ce qui n'est pas le plus intéressant, mais comme la vue porte loin et dans toutes les directions (on voit très nettement les tours des Ulis en regardant vers le sud-est, par exemple), c'est quand même intéressant. ✽✽
  • La tour d'Anne de Bretagne à Montfort-l'Amaury (). Vue vers l'est, assez longue, raisonnablement large, et très bucolique (si ce n'est qu'en ce moment il y a une grue de chantier qui gâche un peu tout).
  • La terrasse du Fécheray, sur le contrefort du Mont Valérien, à Suresnes (). Vue vers l'est, donc sur Paris derrière le bois de Boulogne, avec Suresnes en avant-plan, absolument exceptionnelle. Il doit y avoir d'autres points de vue intéressants sur le Mont Valérien, je n'ai pas eu l'occasion d'explorer. ✽✽✽
  • Ajout () : différents belvédères autour du château Gaillard aux Andelys (Eure) : à côté du parking proche de la piste de motocross  mais aussi d'un côté du château  et de l'autre  et le long du chemin du Genévrier  (). Vue vers l'ouest au sens large, et même vers le nord-est : comparable à la Roche-Guyon (cf. ci-dessus ; c'est la boucle adjacente sur la Seine), mais on voit encore plus large puisqu'en plus de la vallée de la Seine à l'ouest on a aussi celle du Gambon vers le nord-est. ✽✽✽ (par contre, si on interprète francilien au sens strict, ce belvédère doit être disqualifié puisqu'il est en Normandie).

J'ajouterai probablement à cette liste les nouveaux points de vue que je trouverai ultérieurement. Parmi les pistes qui m'intéressent a priori, il y a : le parc Jean Moulin-les Guilands à Montreuil , la terrasse de Bellevue à Meudon , les terrasses du parc Henri Sellier au Plessis-Robinson , le belvédère derrière l'église de Saint-Germain-l'Auxerrois à Romainville , le parc forestier du Bois de l'Étoile à Gagny , la tour de Montlhéry  (mais je ne sais pas si elle est actuellement ouverte aux visites), la table d'observation au-dessus d'Andrésy , le monument américain à Meaux , la butte de Doue , un point (qu'on m'a signalé sur Twitter) vers Lainville-en-Vexin , ou encore, en sortant un petit peu de l'Île-de-France, le belvédère des Andelys  [ajouts : la table d'observation du parc du Plateau à Champigny , la table d'observation des terrasses de Chennevières ]… Et même au sein de la liste déjà visités que j'ai dressée ci-dessus il y a lieu de chercher si on peut améliorer le point de vue en bougeant un peu (au Mont Valérien, à Andilly ou à Montmorency). Et bien sûr la note de l'Institut Paris Région a raison de relever qu'il y a de beaux points de vue depuis des belvédères mobiles, c'est-à-dire au hasard d'un détour d'une route, autoroute, voie de chemin de fer… Il y en a par exemple un que je trouve magnifique sur la ligne N du Transilien entre Clamart et Meudon, quand le train passe sur un haut viaduc  (vu d'en bas ça ressemble à ça) au-dessus du val de Meudon : évidemment, pas moyen de s'arrêter !

↑Entry #2659 [older| permalink|newer] / ↑Entrée #2659 [précédente| permalien|suivante] ↑

↓Entry #2658 [older| permalink|newer] / ↓Entrée #2658 [précédente| permalien|suivante] ↓

(lundi)

Sur le nom des gens

Je parlais récemment sur Twitter de Gabrielle Émilie Le Tonnelier de Breteuil, marquise du Châtelet, à qui on doit le principe de la conservation de l'énergie, et en l'honneur de qui je trouve que Paris pourrait bien faire l'effort de rebaptiser la place du Châtelet en place Émilie du Châtelet (1706–1749). Tout, évidemment, est compliqué dans cette histoire, et il est difficile de dire des choses complètement correctes surtout en 280 caractères.

Je ne veux pas parler ici de l'histoire des sciences, même si c'est évidemment passionnant, et il y aurait beaucoup à en dire. De ce que je comprends, il y avait une controverse sur la nature de la force vive d'un corps en mouvement : m·v (ce qu'on appelle de nos jours la quantité de mouvement) ou bien m·v² (ce que, quitte à ajouter un facteur ½ sans grande importance, on appelle maintenant l'énergie cinétique) ? Le concept d'énergie cinétique (sous le nom de force vive, donc), le m·v², est dû à Leibniz autour de 1680, et ce n'est que bien plus tard, avec Mayer et Joule indépendamment, vers 1840, que la conservation de l'énergie sous toutes ses formes y compris la chaleur a été posée comme une base de la thermodynamique (quant au terme d'énergie lui-même, il est dû à Thomas Young en 1802) ; mais (toujours de ce que je comprends) Émilie du Châtelet, en éclairant de façon définitive la controverse entre m·v et m·v² (en observant qu'une balle allant trois fois plus vite avait un impact neuf fois plus important et pas juste trois fois), a été la première, en 1740, à poser les bases d'une quantité conservée dans le cadre mécanique, avec conversion de l'énergie cinétique en énergie potentielle et vice versa. Comme d'habitude, retracer l'histoire d'une idée est compliqué parce que cette idée prend des formes variées à travers les esprits et les époques, et parce que le progrès est souvent incrémental. (Et s'il est intéressant de regarder mécaniquement l'histoire des fréquences d'occurrence d'un terme comme conservation de l'énergie sur Google Ngrams, cela nous apprend des choses sur la popularité de l'expression mais pas sur la genèse du concept.) On peut discuter de combien Émilie du Châtelet doit partager la reconnaissance avec d'autres, mais elle est à tout le moins un des géants sur les épaules desquels d'autres se sont tenus.

Mais la question, beaucoup plus anecdotique mais pas moins passionnante, que je veux évoquer ici, est celle de comment on doit appeler cette dame. On m'a signalé qu'on ne devrait pas (au moins selon une certaine définition de on ne devrait pas) l'appeler Émilie du Châtelet, parce que son nom est Émilie de Breteuil (ou Émilie Le Tonnelier de Breteuil), et son titre est marquise du Châtelet parce que son mari est (enfin, était) le marquis du Châtelet, et qu'il ne faut pas mélanger les deux.

Si je comprends bien l'objection, appeler cette dame Émilie du Châtelet serait comme appeler Anne Hidalgo Anne de Paris en mélangeant son nom (Anne Hidalgo) et son titre (maire de Paris). Je regrette que cette comparaison ne m'ait pas été faite tout de suite, parce que ça m'aurait aidé à comprendre.

De même, on ne devrait pas parler de Germaine de Staël mais de Madame de Staël ou la baronne de Staël-Holstein, son nom étant Germaine Necker (fille de Jacques Necker, connu pour avoir été ministre des finances de Louis XVI au début de la Révolution). Et on ne devrait pas transformer la comtesse de Ségur en Sophie de Ségur, son nom étant Sophie Rostopchine (enfin, Софья Фёдоровна Ростопчина, une tout autre question étant de savoir comment on rend ça en français). Ni Madame de Maintenon (la marquise de Maintenon) en Françoise de Maintenon, son nom étant, au moins à sa naissance, Françoise d'Aubigné (descendante d'Agrippa d'Aubigné, décidément tout le monde descend de quelqu'un dans ce monde-là), et je laisse en suspens de savoir si son nom devient Scarron suite à son mariage avec Paul Scarron. Ni Madame de Pompadour (la marquise de Pompadour) en Jean-Antoinette de Pompadour, son nom étant Jean-Antoinette Poisson. Et de fait, il se trouve que quasiment personne n'écrit Sophie de Ségur, Françoise de Maintenon ou Jean-Antoinette de Pompadour ; mais Germaine de Staël est assez couramment utilisé. Ces exemples sont tous des femmes, parce que ça a de l'importance dans l'argument.

Oui, mais… il y a bien des gens qui portent un titre de noblesse et que l'on nomme d'après leur titre, sans que qui que ce soit objecte. Par exemple, François-René de Chateaubriand, dont le titre est vicomte de Chateaubriand mais dont on ne voit pas quel nom il pourrait avoir à part François-René de Chateaubriand. Ou pour donner d'autres exemples, Anne de Noailles, ou François de La Rochefoucauld. Le propre mari de la dame qu'il ne faudrait pas appeler Émilie du Châtelet était un certain Florent Claude du Châtelet (marquis du Châtelet, donc), et leur fils est Louis Marie Florent du Châtelet (marquis puis duc du Châtelet, donc). D'autres sont moins clairs : Nicolas de Condorcet ? ou Nicolas Caritat de Condorcet ? Nicolas Caritat, marquis de Condorcet ? De ce que je comprends, la réponse est que pour les gens que je viens de citer, leur titre fait aussi partie de leur nom. C'est là que ça devient confus.

La tradition (patriarcale) dans de nombreux pays européens, jusque vers le XXe siècle, est que les gens portent le nom de leur père (il s'agit d'un nom patronymique, donc), nom qu'il a lui-même hérité de son propre père, et ainsi de suite. Les femmes mariées gardent leur nom de naissance (celui de leur père, donc) mais peuvent prendre pour nom d'usage le nom de leur mari, ou la juxtaposition des deux. Les titres de noblesse suivent généralement une règle de succession par séniorité agnatique (cf. ici), c'est-à-dire qu'il passe du père à son fils aîné, ou plus exactement au premier vivant dans l'ordre qui classe les fils, dans leur ordre de naissance, immédiatement après leur père (et ce, récursivement). La règle d'héritage des noms et des titres est donc assez semblable, mais avec la différence importante qu'un titre n'existe qu'en une seule copie et n'est donc porté que par une seule personne à un moment donné, si bien que tant que le mamamouchi de Foobar est vivant, ses fils ne sont pas encore mamamouchi de Foobar, et même quand il meurt, seul son fils aîné hérite du titre — que devient, donc, le fils cadet ?

Si une famille noble est suffisamment ancienne, en gros plus ancienne que ne s'est fermement établie la tradition pour tout le monde d'avoir un nom patronymique, ou si on descend suffisamment loin dans la branche tenant le titre, il est probable qu'elle n'ait pas d'autre nom (patronymique) que son titre. Si c'est le cas, le fils aîné de Florimon mamamouchi de Foobar s'appellera, disons, Fulgence de Foobar, avec le nom mais sans le titre, en attendant d'être lui-même le mamamouchi de Foobar à la mort de Florimon ; et le fils cadet restera, disons, Guibert de Foobar, lui aussi avec le nom mais sans le titre. À ce compte-là, tous les de Foobar sont des héritiers en puissance du titre de mamamouchi de Foobar, mais il n'y a jamais qu'un seul mamamouchi de Foobar (le chef de clan, pourrait-on dire). Le fils aîné, en attendant d'hériter, peut parfois porter un titre de courtoisie (c'est-à-dire, auquel il n'a pas vraiment droit mais qu'on utilise néanmoins par courtoisie) : en France, si je comprends bien, ce genre de titre est généralement obtenu en déclinant à un degré de nobilité inférieur celui du père, peut-être poobah de Foobar (en supposant que poobah soit le titre en-dessous de mamamouchi, je ne suis pas très sûr), tandis qu'en Angleterre le fils utilisera un des titres de noblesse subsidiaires du père si c'est possible. Certains de ces usages peuvent se généraliser aux fils cadets, et par là s'étendre aux branches cadettes. Ou peut-être que la branche cadette, ou une famille pas noble à l'origine, récolte un titre différent (soit qu'il soit nouvellement créé, soit que la famille d'origine se soit éteinte en ligne agnatique). On peut alors avoir des noms comme Eurymédon de Foobar, poobah de Bazqux (ou, si la famille n'était pas noble, Eurymédon Machintruc, poohbaz de Bazqux), et cette fois, le nom serait de Foobar et le titre poobah de Bazqux. A contrario, quand le titre a été détenu de père en fils suffisamment loin, il est probable qu'il (re)devienne partie du nom.

Bref, la distinction entre titre et nom n'est pas si claire, et je doute qu'on puisse la rendre claire.

La question du nom est aussi épineuse pour les familles régnantes qui n'ont même pas de titre (enfin, là aussi, l'usage diffère de pays en pays : les rois de France n'avaient pas de titre de noblesse, les rois d'Espagne en avaient plein, du genre duc de Bourgogne). Les révolutionnaires ont renommé Louis XVI en Louis Capet du surnom de son ancêtre Hugues Capet, parce qu'il fallait bien lui inventer un nom et qu'ils ne voulaient surtout pas le nommer de France ou même de Bourbon (qui est le nom qu'utilise la branche espagnole dont un descendant est actuellement sur le trône d'Espagne) ; des branches cadettes de la maison royale capétienne se sont appelées de Condé (ou de Conti), ou encore d'Orléans, là encore des titres (prince de Condé, duc d'Orléans) qui sont devenus des noms. Ces questions sont idiotes, mais comme le droit actuel demande que les gens aient un nom (et que le droit français reconnaît encore les titres de noblesse — ce qui me paraît d'ailleurs assez scandaleux, et surtout contraire au droit constitutionnel ou européen quand les femmes sont exclues de la succession), il faut bien décider ce qu'il est. Le prétendant « orléaniste » actuel au trône de France s'appelle, si je comprends bien, tout à fait légalement, Jean d'Orléans, comte de Paris (même s'il n'est pas bien clair pourquoi c'est précisément ça son nom), et je crois que son père a été impliqué dans un litige concernant le droit de porter le nom, ou le titre, de France. La reine du Royaume-Uni a décidé que son nom était Windsor et que ses descendants en ligne agnatique non titrés, par exemple la fille du prince Edward, s'appelleraient Mountbatten-Windsor (Mountbatten étant le « nom » du prince Philippe pour une certaine définition de nom, puisque c'est une anglicisation du titre de Battenberg qui lui vient de sa mère) ; mais on pourrait penser qu'elle devrait s'appeler de Saxe-Cobourg et Gotha ou de Wettin, et son mari, euh, de Grèce et du Danemark ? de Schleswig-Holstein-Sonderburg-Glücksburg ? d'Oldenbourg ? Ces gens ne sont pas foutus d'avoir un nom correct, quoi. Quant à l'ex roi de Grèce, Constantin II (de la même famille que le prince Philippe), il n'a pas la nationalité grecque, parce qu'on lui a dit que pour ça il fallait qu'il se choisisse un nom, et il refuse : il refuse de prendre le nom de Glücksburg parce que ce n'est pas un nom (comme on vient de le dire, cette affirmation est un peu douteuse), et son passeport diplomatique danois est apparemment au nom de Constantino de Grecia (Constantin de Grèce, mais je n'ai pas compris pourquoi c'est en espagnol alors que c'est le nom d'un Grec sur un passeport danois, enfin bon, vous voyez le niveau de confusion).

Revenant à Émilie du Châtelet, je vois trois principaux arguments pour ne pas l'appeler comme ça :

1º, ce n'est pas elle qui s'appelle du Châtelet, c'est son mari. Ça c'est un argument si on propose de l'appeler Émilie le Tonnelier de Breteuil (encore que la partie de Breteuil se laisserait discuter puisque ça semble justement être un de ces titres-devenus-noms), mais si on accepte de l'appeler Madame du Châtelet ou la marquise du Châtelet, qui sont quand même des appellations venant de son mari (fussent-elles des « titres » et pas des « noms »), l'argument il ne faut pas l'appeler d'après son mari ne marche pas !

C'est certainement regrettable quand on parle de souligner l'importance des femmes en science de n'utiliser que le nom du mari : c'est par exemple une bonne idée de parler de Marie Skłodowska-Curie (voire Marie Skłodowska) pour rappeler, outre son origine polonaise, que Curie n'est que le nom de son mari (qui a eu moitié moins de prix Nobel) ; ou Yvonne Choquet-Bruhat (celle-ci, non seulement c'est une grande mathématicienne, mais il se trouve qu'à la fois son père Georges Bruhat et son mari Gustave Choquet, étaient aussi des mathématiciens un physicien et un mathématicien importants). Mais cela reste une pratique encore assez courante (la chimiste Angela Merkel est plus connue sous le nom de son ex-mari que comme Angela Kasner). Généralement parlant, en tout cas s'agissant de personnes connues par leurs œuvres (livres, articles scientifiques, œuvres d'art), le mieux est sans doute de se rapprocher autant que possible du nom qu'elles ont utilisé pour les signer, s'il y en a un. En l'occurrence, pour Madame du Châtelet, je ne comprends pas bien ce qui est d'elle ou ce qui est de ses éditeurs, parfois il n'y a pas de nom, parfois c'est Madame la Marquise du Châtelet, mais au moins le fait de l'appeler Émilie du Châtelet semble plutôt ancien, et je ne crois pas comprendre qu'elle ait utilisé son nom patronymique.

2º, c'est un titre et pas un nom. Oui, mais en fait c'est aussi le nom de son mari, qui ne semble pas avoir eu d'autre nom que ce titre, et la distinction entre nom et titre est difficile à faire valoir de façon absolue quand les uns deviennent si facilement des autres (et que de Breteuil a l'air d'avoir été un titre de son père).

Disons que soutenir à la fois que les femmes peuvent prendre un titre de celui de leur mari, et pas son nom, mais en même temps que chez les hommes, titres et noms se mélangent si facilement, je trouve que ça ressemble beaucoup à de la sophistique.

En tout état de cause, il me semble qu'il y a d'autres femmes qui sont couramment désignées par un nom en tout point analogue à Émilie du Châtelet, et personne ne semble objecter : je pense notamment à Ada Lovelace (dont le nom de naissance est Augusta Ada Byron, encore une fille-de, puisqu'il s'agit de la fille de Lord Byron, et qui est comtesse de Lovelace en tant qu'épouse de Lord Lovelace) ou à Nadine de Rothschild, dont le nom à l'état-civil doit être Nadine Nelly Jeannette Lhopitalier, et qui est la veuve du baron Edmond de Rothschild (ainsi que plusieurs autres baronnes de Rothschild, même si ça ne marche pas pour Betty de Rothschild puisque de Rothschild est à la fois son nom patronymique et celui de son mari).

3º, ce n'est pas l'usage. Mais en fait, c'est plutôt que ce n'était pas l'usage, mais ça l'est clairement devenu, et comme je l'ai montré plus haut, ça se trouve bien avant.

Bref, je ne suis pas du tout convaincu qu'il y ait un quelconque problème à l'appeler Émilie du Châtelet.

Mais en s'éloignant de la question assez byzantine de comprendre les règles protocolaires d'appellation des personnes titrées, il est peut-être pertinent de se demander ce qu'est le nom d'une personne et à quoi il sert. En fait, il sert à plusieurs choses, certes apparentées mais néanmoins distinctes (s'adresser à la personne, par oral ou par écrit et dans différents rapports à elle, signer un document par la personne, désigner la personne dans un contexte formel ou légal, voire religieux s'il s'agit d'un (pré)nom de baptême, parler de la personne dans un contexte académique ou informel), et il n'y a pas forcément de raison que le même nom serve dans chaque contexte.

Les pharaons égyptiens avaient environ cinq noms différents, chacun de ces noms ayant lui-même un nom (nom d'Horus, nom des Deux Maîtresses, nom d'Horus d'Or, nom de couronnement, et nom de fils du soleil — c'est vraiment le summum du chic quand vos noms eux-mêmes ont des noms[#]), pas comme ces foutues familles régnantes européennes qui ne sont même pas foutu d'avoir un vrai nom. Je suppose que ces noms avaient des usages variés, pas juste celui de remplir l'obélisque qui est maintenant au centre de la place de la Concorde à Paris avec les noms de Ramsès II. Sans aller jusque là, il y a plein de raisons d'appeler la même personne de différentes manières selon les raisons pour lesquelles et le contexte dans lequel on l'appelle : surnom, pseudonyme, nom de plume ne sont que les plus évidents. Le frère de mon père, dont je suis absolument certain qu'il n'a jamais été pharaon, s'appelle James Garfield Madore pour les autorités canadiennes, mais tout le monde l'a toujours appelé Michael, et la légende familiale prétend que ce n'est qu'en remplissant je ne sais quel formulaire qu'il a appris son « vrai » nom. Mais, n'en déplaise aux cabalistes du dimanche, euh, du samedi, le concept de vrai nom est un concept assez évanescent. Même le nom officiel (légal, bureaucratique) n'est pas parfaitement bien défini : j'ai un collègue qui n'a pas exactement le même nom sur son livret de famille et sur sa carte d'identité, et il est fréquent d'avoir des noms légèrement différents pour les autorités de différents pays, surtout s'il y a eu des transcriptions dans l'histoire.

[#] Ça fait un peu penser à un célèbre passage de Through the Looking-Glass où le cavalier blanc chante une chanson dont le nom s'appelle Haddocks' Eyes mais dont le nom est The Aged Aged Man tandis que la chanson elle-même s'appelle Ways And Means mais elle est A-sitting On A Gate. Quoi qu'il en soit, je ne sais pas quelle était la situation des gens de l'Égypte ancienne qui n'avaient pas la chance d'être pharaons (mais peut-être quand même hauts placés) : combien de noms avaient-ils et leurs noms ont-ils eux-mêmes des noms ?

Pour une personne décédée depuis bien longtemps, le nom « officiel » n'est de toute façon pas très pertinent. Peut-être qu'à l'époque d'Émilie du Châtelet il aurait été choquant de l'appeler Émilie du Châtelet, mais nous ne sommes plus à cette époque, justement. Nous n'appelons plus Ramsès II 𓍹𓇋𓏠𓈖𓈘𓇳𓏤𓄟𓋴𓇓𓍺, fût-ce transcrit mr-ı͗mn-rꜥ-ms-sw (son nom de fils du soleil), sauf peut-être si on est égyptologue, mais Ramsès II ; ni 𓍹𓇳𓄊𓁦𓇳𓍉𓈖𓍺, fût-ce wsr-mꜣꜥt-rꜥ-stp-n-rꜥ (son nom de couronnement), mais éventuellement Ozymandias (encore qu'à part Shelley il n'y a pas grand-monde qui l'appelle comme ça). Un célèbre dictateur romain est appelé Jules César en français, ce qui peut malheureusement laisser penser que son prénom était Jules, et pas Gaius Iulius Cæsar, et un de ses successeurs, portant le même nom « officiel » (avec peut-être des variantes et additions telles que Augustus Germanicus) est de nos jours appelé Caligula.

Et le hiatus entre le nom « officiel » et le nom sous lequel la personne est connue ne vaut pas que pour les monarques de l'antiquité. Un phénomène intéressant est que le choix des prénoms sous lesquels une personne devient célèbre n'obéit à aucune logique particulière, et parfois se réduit à des initiales : l'auteur du Seigneur des anneaux est connu comme Tolkien ou J. R. R. Tolkien, éventuellement par son nom complet John Ronald Reuel Tolkien, mais très rarement juste par son premier prénom : si on dit John Tolkien, ça semble bizarre ; de même que John Kennedy au lieu de ses appellations plus habituelle (John Fitzgerald Kennedy, JFK, le président Kennedy) : pourtant, il y a plein de gens qui ont plusieurs prénoms mais dont on donne régulièrement juste le premier, par exemple, pour prendre le même premier prénom, l'acteur John Gavin Malkovitch que tout le monde appelle simplement John Malkovitch. Si pour Tolkien il est assez connu que J.R.R. signifie John Ronald Reuel, il y a des gens dont les initiales sont assez connues mais les prénoms qui se cachent derrière vraiment moins, parce tout le monde les appelle juste par ces initiales : H. G. Wells (Herbert George, ce n'est pas spécialement original), P. G. Wodehouse (Pelham Grenville, ça l'est un peu plus) ou le mathématicien G. H. Hardy (Godfrey Harold), par exemple, qu'il ne viendrait à l'esprit de quasiment personne d'appeler Herbert Wells, Pelham Wodehouse ou Godfrey Hardy. Et ne parlons pas des gens qui sont plutôt connus par leur second prénom, comme George Orson Welles, ceux qui sont connus par leur seul prénom comme Dante ou Rembrandt, et les très nombreux qui sont connus par un pseudonyme. Il n'y a aucune logique à tout ça, et, aussi déplaisant que ce soit à admettre pour les gens qui, comme moi, aiment systématiser les noms, il faut juste considérer le « nom de célébrité » comme quelque chose qui n'a aucune justification si ce n'est ce que l'usage décrète au cas par cas (même s'il peut y avoir des raisons de dévier de cet usage, par exemple dans une énumération de plusieurs personnes où on peut trouver souhaitable de systématiser un peu l'écriture des noms et prénoms !). Je tends maintenant généralement à me rallier au titre de l'article Wikipédia comme reflétant un consensus sur le « nom de célébrité », même s'il m'arrive de vouloir systématiser (notamment pour ce qui est des transcriptions d'autres systèmes d'écriture) quand la tradition n'est pas totalement implantée.

Pas clair qu'on puisse être systématique même avec soi-même. Je voulais signer systématiquement mes articles David A. Madore, mais il est arrivé qu'un co-auteur ne me demande pas mon avis au bon moment, et que j'oublie de protester, et l'initiale médiane a pu disparaître. Je suis en bonne compagnie : en recherchant comment Grothendieck signait ses articles, un collègue et moi nous sommes rendus compte que c'était parfois Alexander et parfois Alexandre, et du coup nous avons eu du mal à décider ce qui était le mieux (faut-il, d'ailleurs, systématiser le nom d'une même personne qu'on cite plusieurs fois dans une bibliographie ? ou citer chaque œuvre citée avec le nom de l'auteur exactement tel qu'il apparaît dans l'œuvre ?).

À propos d'Alexander, il paraît qu'on a légalement la faculté de se faire appeler par n'importe lequel de ses prénoms : à une certaine époque j'avais aussi décidé que je serais David (ou David A. Madore s'il faut être plus précis) sauf les mois dans lesquels il y a un vendredi 13, auquel cas ce serait Alexander (ou D. Alexander Madore), mais je n'ai qu'un ami qui a respecté la consigne (en s'en souvenant bien mieux que moi).

Bref, tout ça est terriblement compliqué, mais je continuerai à parler sans vergogne d'Émilie du Châtelet.

↑Entry #2658 [older| permalink|newer] / ↑Entrée #2658 [précédente| permalien|suivante] ↑

↓Entry #2657 [older| permalink|newer] / ↓Entrée #2657 [précédente| permalien|suivante] ↓

(mercredi)

Quelques formes du sens de l'orientation

Parmi les différents sous-systèmes du fonctionnement du cerveau humain (j'avais parlé ici de la mémoire), le sens de l'orientation est un de ceux qui m'intéresse le plus. J'ai longtemps été persuadé que le mien était épouvantable, sans doute parce qu'en fait je ne m'intéressais pas trop à mon environnement ni à la géographie et que je me laissais mener sans chercher à savoir où ni comment : en fait, il semble qu'il soit tout à fait correct, au moins en comparaison à celui du poussinet, mais le poussinet peut faire valoir la même excuse puisque c'est souvent moi qui donne les directions (qu'on circule à pied ou en véhicule à moteur). J'ai compris que je pouvais avoir un sens de l'orientation en déménageant à Paris et en commençant à m'y promener seul (à pied et en métro), ce qui m'a obligé à me créer une représentation mentale de Paris ; puis je l'ai fait pour d'autres villes (Londres, Lyon, Bordeaux ; mais aussi Toronto, ce qui n'est pas bien difficile). Quand je me suis mis à circuler en voiture (pas du tout pendant que je préparais le permis, mais juste après, j'en ai parlé ici), j'ai commencé à me faire une représentation mentale de la région Île-de-France ; et en circulant à moto (sans GPS : voir ce bout de cette entrée) j'ai vraiment cherché à l'utiliser. Mais un autre exercice intéressant pour le sens de l'orientation, et peut-être chronologiquement le premier en ce qui me concerne, c'est les jeux sur ordinateur et autres mondes virtuels : je n'ai jamais été grand fan de jeux vidéo, mais les quelques uns qui me branchaient étaient ceux où j'avais l'impression d'avoir un monde à explorer, avec une géographie bien cohérente, notamment les jeux de la série Ultima (surtout les VI, VII, Underworld et Underworld II, qui vont fournir de bons exemples de ce que j'appelle ci-dessous le mode carte et le mode vue) : avant de me créer une représentation mentale d'un endroit réel quelconque (sauf mon environnement vraiment immédiat), c'est celle de lieux virtuels que j'ai cartographiée en premier. Quand j'ai écrit ce petit jeu de labyrinthe, il s'agissait aussi en partie d'une expérience de sens de l'orientation.

La représentation mentale fournie par le sens de l'orientation a, je dirais, grosso modo trois fonctions :

  • permettre de se figurer on se trouve,
  • permettre de savoir dans quelle direction on regarde,
  • permettre d'en déduire vers où aller pour rejoindre la destination qu'on veut atteindre.

Le second est sans doute le plus délicat. J'ai mis longtemps à comprendre l'utilité d'une boussole (à quoi cela peut-il servir de savoir où on regarde si on ne sait pas où on est ?), mais en fait, l'information qu'on perd le plus rapidement est bien celle de la direction et pas de la position. (C'est d'ailleurs peut-être pour ça qu'on parle de sens de l'orientation et pas de sens de l'emplacement.) En ville, il est nettement plus facile de se retrouver quand les rues sont bien droites que quand elles tournent subtilement ou font des angles pas tout à fait droits (cf. l'exemple que je donne plus bas à propos des deux chemins pour aller de l'ENS à chez moi). En rase campagne, je m'oriente nettement mieux quand le soleil me donne, au moins approximativement, un sens des points cardinaux. Et je peste sans cesse contre ces plans de quartier qui vous disent vous êtes ici mais pas et vous regardez dans cette direction. Ou contre ces smartphones qui sont foutus d'avoir une position hyper précise par GPS mais dont il faut sans arrêt « calibrer » la boussole si on veut qu'elle ne pointe pas parfois carrément à l'opposé de la direction qu'elle devrait indiquer[#]. Ou contre ces indications routières qui vous disent que cette route vous mènera à Saint-Machin-des-Bidules ou à Petit-Truc-lès-Chose sans vous donner le moindre sens du nord et du sud.

[#] Je suis d'ailleurs assez perplexe quant à ce en quoi consiste exactement cette opération de calibration. Si la boussole est essentiellement un magnétomètre, elle devrait donner l'orientation sans avoir besoin de calibration (au moins par rapport au nord magnétique, mais l'inclinaison du nord magnétique peut être mémorisée sur d'assez longues périodes, elle n'explique pas qu'on ait besoin de recalibrer si souvent, ni pourquoi faire des sortes de 8 aiderait à connaître l'orientation du nord magnétique). Certains de mes téléphones passés pouvaient indiquer une direction complètement aléatoire (parfois jusqu'à 180°, donc) par rapport à celle dans laquelle je regardais, et devenaient donc complètement inutiles.

J'ai déjà fait la remarque, et je la réitère, que cela aiderait énormément beaucoup de gens de prévoir, surtout dans les endroits un peu labyrinthiques (centres commerciaux, par exemple) un repère visuel permettant de garder, ne serait-ce que subliminalement, le fil de la direction à mesure qu'on tourne : comme un motif sur le sol n'admettant aucune symétrie de rotation, ou des petits signes discrets pointant toujours dans la même direction à chaque panneau routier.

Et je pense que cela contribue énormément à l'aspect labyrinthique et troublant du plan hyperbolique qu'il n'y ait pas de boussole globale possible, parce que si on fait une boucle en croyant pointer toujours dans la même direction, on va sans doute avoir changé de direction en revenant au point de départ (c'est le concept d'holonomie).

Une amie avec qui je discutais du fonctionnement du sens de l'orientation m'a suggéré, et je suis d'accord avec cette analyse, qu'il a deux principaux modes de fonctionnement, ou deux sous-unités : appelons-les le mode carte et le mode vue, qu'on peut comparer à Google Maps et Google Street View. La représentation mentale construite par le mode carte est semblable, justement, à une carte. Une carte simplifiée et approximative, bien entendu, mais néanmoins quelque chose du genre. Généralement, on aura tendance à rectifier mentalement les axes pas tout à fait rectilignes et à transformer en angles droits les angles pas tout à fait droits, ce qui peut causer des erreurs subtiles : ma représentation mentale de Londres, par exemple, ressemble beaucoup à la célèbre carte schématique de l'Underground, qui est topologiquement correcte mais dont le rapport avec la géographie métrique réelle est un peu distante ; néanmoins, c'est ça que j'ai en tête quand je marche à Londres, je vois vaguement où je suis sur ce schéma, j'essaie de garder une direction, et j'ajuste en fonction de ce sur quoi je tombe. Le mode carte sert surtout pour les endroits dont on n'est pas trop familier : le mode vue, lui, sert pour les endroits déjà connus : on reconnaît les endroits par lesquels on est déjà passé (mais peut-être seulement dans un seul sens) et on sait que si on suit tel chemin on aboutira à tel endroit tout simplement parce qu'on l'a déjà fait et mémorisé.

Quand j'ai passé le permis (qu'il s'agisse de la voiture ou de la moto), j'étais évidemment appliqué uniquement à obéir aux consignes de l'inspecteur et à suivre le Code de la Route, je ne faisais aucun effort pour savoir où j'étais, et je n'en avais guère d'idée ; pourtant, quand je suis rentré, j'ai été facilement capable de retrouver le chemin (ici pour le permis B et ici pour le A2) en reregardant les endroits sur Google Street View. Quand j'ai organisé une balade à moto en groupe il y a dix jours (cf. ici), comme je ne voulais pas mener ceux qui me suivraient dans une fausse direction, j'ai révisé plusieurs fois l'itinéraire sur Google Maps et Google Street View, ce qui était un peu long parce qu'il y en avait pour environ 170km, mais ensuite, sur le terrain, je n'ai jamais eu d'hésitation sur la direction à prendre, et je pensais plutôt en mode vue qu'en mode carte.

Ces deux modes sont complémentaires mais ne communiquement pas forcément si bien entre eux. Je disais que mon sens de l'orientation n'était pas trop mauvais : ceci vaut à la fois pour le mode carte (dans un endroit que je ne connais pas bien, tant que j'arrive à ne pas perdre le nord, je vais pouvoir naviguer au moins grossièrement sur la base d'une représentation mentale simplifiée) et pour le mode vue (il ne me faut pas beaucoup de passages pour retenir que j'ai été à tel endroit et ce que j'y ai fait). Mais la communication entre les deux modes, disais-je, peut être imparfaite : si je dois marcher de chez moi à Saint-Michel, par exemple, je sais parfaitement bien par où passer (en « mode vue »), je sais ce que je fais sur un plan de Paris, mais si on m'arrête au milieu des Gobelins et qu'on me demande où est le nord, je pense que j'aurai un peu d'hésitation pour répondre. Je me rappelle aussi m'être fait la réflexion suivante : pour aller de l'ENS à chez moi, j'avais deux principales options à partir du croisement endre les rues Claude Bernard et Berthollet : soit je suis la rue Claude Bernard et ensuite en gros « c'est tout droit » (rue Claude Bernard, avenue des Gobelins, rue Bobillot, et j'arrive place Verlaine), soit je tourne à droite en gros à angle droit, c'est aussi en gros « tout droit » (rue Berthollet, rue de la Glacière, rue Corvisart, escaliers de Corvisart, et j'arrive rue Simonet) ! Comment peut-on arriver au même endroit en prenant deux directions faisant quasiment un angle droit et en allant ensuite « tout droit » ‽ J'ai eu du mal à résoudre ce mystère sans regarder une carte (la réponse est, bien sûr, que les rues s'incurvent, ou que les intersections ne se font pas à angle droit, si bien que les deux chemins tournent finalement vers le même but).

L'autre remarque que je trouve à faire, c'est que, bien que ce soit vaguement contre-intuitif, il semble qu'il y ait peu de rapport entre le sens de l'orientation et le sens tridimensionnel. Ma capacité à « voir dans l'espace » est épouvantablement mauvaise : si on me demande, par exemple, s'il est possible de trouver une section plane d'un cube qui soit un hexagone, je connais la réponse ou je sais la retrouver pour des raisons mathématiques abstraites, mais je n'y « vois » rien du tout ; et pourtant, ça ne m'empêche pas de naviguer à peu près correctement comme je l'ai dit ci-dessus. Je suppose que c'est parce qu'on vit dans un monde généralement plutôt 2D que 3D (les villes ont rarement des rues construites dans des plans vraiment différents), mais il serait intéressant de faire des expériences avec des mondes virtuels pour voir comment des labyrinthes utilisant de plus en plus la troisième dimension évoluent en difficulté selon les personnes. Rien qu'avec la descente du parking de mon immeuble, j'ai du mal : celle-ci fait simplement un quart de cercle, et pourtant j'ai les plus grandes difficultés à me figurer mentalement le parking tel qu'il se situe en-dessous du rez-de-chaussée.

↑Entry #2657 [older| permalink|newer] / ↑Entrée #2657 [précédente| permalien|suivante] ↑

↓Entry #2656 [older| permalink|newer] / ↓Entrée #2656 [précédente| permalien|suivante] ↓

(samedi)

Quelques sujets mathématiques en vrac sous forme de MIGHTDO

Pendant que j'étais occupé à ne pas écrire dans ce blog, les sujets sur lesquels j'aurais pu écrire quelque chose se sont accumulés. Je veux dire, les sujets sur lesquels soit j'ai appris quelque chose et j'aurais pu/dû le braindumper ici pour me simplifier la vie quand j'aurais plus tard oublié et voulu réapprendre, soit je me suis simplement dit que c'était quelque chose de potentiellement intéressant dans quoi je devrais me plonger si j'avais le temps. Bref, voici une liste de quelques choses sur lesquels je n'ai rien écrit, et il n'est pas impossible que j'y revienne, mais il ne faut pas compter dessus non plus. Pas un TODO, mais un MIGHTDO, si on veut.

(Les différentes parties qui suivent n'ont généralement aucun rapport entre elles. C'est bien le problème, si j'ose dire, de trop aimer l'éclectisme. Par ailleurs, elles mélangent des sujets où j'ai quelques trucs à expliquer (mais je ne le fais pas vraiment ici) et d'autres où j'ai simplement des questions à poser, ou encore où je n'ai rien à dire mais que j'utilise simplement comme memento pour me rappeler que c'est quelque chose d'intéressant à visiter ou revisiter un jour. Les explications, ou les absences d'explications, qui suivent, se placent aussi à des niveaux très variés de prérequis mathématiques.)

Liens vers les sous-parties de cette entrée : • Mandelbrot • inégalités de Bell • topologie sans points • axiome de Scott • topos effectif • complexité au-delà du calculable • algèbres de Jordan • problème du secrétaire • mécanique sphérique • surface de Bring • Cayley-Bacharach • le spectre des polynômes à valeurs entières

D'abord, l'ensemble de Mandelbrot. Avant que le Covid-19 ne vienne squatter mon encéphale, j'avais entrepris d'apprendre ou de comprendre un certain nombre de choses (« bien connues ») sur l'ensemble de Mandelbrot : il en est resté un certain nombre de fils Twitter où j'explique deux ou trois trucs à ce sujet : , , , , , , ,  ; ainsi qu'une série de vidéos YouTube avec de jolies animations d'ensembles de Julia.

Une des choses qui me fascine avec l'ensemble de Mandelbrot, au-delà de sa richesse et sa complexité, est qu'en-dessous de la structure « numérique » (l'endroit précis où se trouve tel ou tel bout de l'ensemble), il y a une structure « combinatoire » : c'est-à-dire qu'on peut déterminer énormément de choses sur l'ensemble de Mandelbrot (la manière dont les composantes sont agencées et reliées les unes aux autres) sans faire le moindre calcul numérique, uniquement avec des données discrètes. Par exemple, supposons que nous voulions étiqueter toutes les composantes hyperboliques (une « composante hyperbolique » est un bulbe de l'ensemble de Mandelbrot : soit la cardioïde d'un bébé ensemble de Mandelbrot, soit un bulbe rattaché à une autre composante hyperbolique ; chaque composante a une « période » associée, qui est la période de l'unique cycle attractif pour la dynamique donnée par un paramètre dans cette composante). Une possibilité d'étiquetage serait d'utiliser les coordonnées numériques (parties réelle et imaginaire) du centre, par exemple −0.27210246148893889 +0.84236469029412815·i, ou d'ailleurs d'un point quelconque, de la composante. Mais il y a une autre description possible, l'« adresse interne angulée » qui consiste (très grossièrement parlant) à expliquer comment on arrive à cette composante en partant de la cardioïde principale et en sautant de composante en composante en augmentant la période, par exemple cela pourrait ressembler à 1[1/3] → 3[2/3] → 7 pour la même composante dont je viens de donner les coordonnées du centre, et cela veut dire que partant de la cardioïde principale (l'unique composante de période 1) on passe au bulbe de période 3 attaché à l'angle interne de 1/3 de tours sur cette composante, puis on cherche le bébé ensemble de Mandelbrot dont la cardioïde est de période 7 dans la « limbe » attachée à l'angle interne de 2/3 du bulbe précédent : cette description-là est purement combinatoire, et on peut se poser toutes sortes de questions à son sujet, comme reconnaître les descriptions valides, ou prédire toutes sortes de choses sur la composante sans faire de calculs numériques. Un autre étiquetage « combinatoire » possible, et il se pose la question de convertir une description en l'autre de manière algorithmique, consiste à utiliser les « arguments externes » qui atterrissent à la racine de la composante qu'on veut étiqueter (c'est-à-dire les directions à l'infini des rayons du champ électrostatique qui serait causé par l'ensemble de Mandelbrot s'il était électriquement chargé : il y a bien sûr moyen de dire ça sans faire référence à la physique) : ainsi, la composante que je viens d'évoquer correspond aux angles de 35/127 et 36/127, et un problème algorithmique intéressant consiste à convertir l'un de ces nombres en la description 1[1/3] → 3[2/3] → 7 ou inversement retrouver ces deux nombres à partir de cette description, sans jamais passer par des calculs numériques.

Bref, j'avais commencé à essayer de comprendre un peu tout ça, et la crise du Covid-19 m'a fait complètement perdre le fil de mes pensées, et j'ai oublié à peu près tout ce que j'avais commencé à comprendre (à part le résumé très grossier que je viens de faire dans le paragraphe précédent). J'avais commencé à écrire un petit texte pour blog, mais il ne contient que des définitions très basiques, je ne sais pas si ça a un intérêt que j'en fasse autre chose que l'archiver. [Diagrammes d'algorithmes concernant l'ensemble de Mandelbrot]En revanche, j'ai quand même gardé les références de quelques textes que j'avais commencé à lire (ou à noter que je devrais lire) :

Bref, je n'ai pas eu le temps de me plonger autant que je voudrais dans tout ça, mais ça semble rigolo.

Question au passage : est-ce que la conjecture MLC peut se reformuler comme un problème purement combinatoire ? Ou est-ce qu'elle est indispensable pour justifier la validité numérique de la description combinatoire mais ne peut pas se tester au niveau purement combinatoire ? À défaut : est-ce que MLC peut se reformuler comme un énoncé arithmétique Π₁ ?

Rien à voir avec l'ensemble de Mandelbrot (mais j'ai commencé à y réfléchir en voyant cette vidéo de vulgarisation) : les inégalités de Bell et la mécanique quantique. Voici quelque chose que je me dis depuis longtemps que je dois essayer de comprendre (je me suis approché de ce sujet dans cette entrée passée, par exemple), mais je n'ai jamais vraiment pris le temps. Deux fils Twitter: et (mais ne pas oublier de lire les réponses à ⓐ et à ⓑ).

Je pars de la description suivante : si 0≤p≤1, j'appelle p-gadget (et si p=1, simplement gadget) un appareil qui fonctionne de la manière suivante. Quand on tourne une manivelle, le p-gadget fabrique une paire de bidules (qu'on pourra qualifier de jumeaux). Chaque bidule a trois boutons, étiquetés X, Y et Z. Quand on appuie sur un des boutons, le bidule se met à clignoter, soit en bleu pour dire oui, soit en rouge pour dire non : après ça, il est bon à jeter ; chaque bidule ne peut servir qu'une fois (qu'un seul appui de bouton), donc, mais rappelons que les bidules sont toujours fabriqués par paires. Les règles de fonctionnement des bidules sont les suivantes : ① quand on appuie sur le même bouton sur les deux bidules d'une paire, on obtient (toujours) la même réponse, et ② quand on appuie sur des boutons différents sur les deux bidules d'une paire, on a une probabilité ≥p (pour p=1 : toujours) d'obtenir des réponses différentes (donc une probabilité ≤(1−p) d'obtenir la même réponse). Ce sont les seules contraintes. Par ailleurs, les bidules doivent fonctionner dans absolument n'importe quelle circonstance : même s'ils sont séparés l'un de l'autre par des millions d'années-lumières ou enfermés dans une cage ; en particulier, ils n'ont pas le droit de communiquer entre eux. S'ils pouvaient communiquer, ce serait facile : le premier bidule activé répondrait toujours oui (disons), et le second répondrait oui ou non selon qu'on a appuyé sur le même bouton ou un bouton différent du premier ; mais ce mode de fonctionnement n'est pas possible.

Ajout : j'aurais sans doute dû préciser que les probabilités dont je parle doivent être réalisées contre tout choix d'appui sur les boutons des bidules (imaginez que le choix est adversarial : il faut néanmoins garantir la probabilité annoncée ; je ne sais pas quelle est la manière la plus claire ou élégante de dire ça).

Manifestement, plus p est élevé, plus il est difficile de réaliser un p-gadget. Il s'avère que :

  • La mécanique classique (ou plus exactement, le réalisme local) permet de réaliser un ½-gadget mais pas mieux, i.e., on peut monter jusqu'à une probabilité p=½ de réponses différentes en cas de questions différentes. C'est facile : il suffit que le (½-)gadget tire au hasard la réponse (oui ou non) à chacune des questions X, Y et Z, de façon uniforme, au moment de fabriquer les bidules, et enregistre la réponse dans chaque bidule (la même pour les deux) : si on pose la même question aux deux bidules, on a toujours la même réponse, tandis que si on pose des questions différentes, on a une probabilité ½ d'avoir des réponses différentes. Mais on ne peut pas faire mieux que ½ (sur ce setup, ce n'est pas difficile de s'en convaincre), ça fait partie des inégalités de Bell.
  • La mécanique quantique permet d'arriver jusqu'à p=¾, i.e., de fabriquer un ¾-gadget, mais pas mieux. La manière de procéder (bon, c'est très théorique et très simplifié, hein) est la suivante : quand on active le (¾-)gadget, on réalise un état intriqué, disons de deux particules de spin ½ avec la description (|↑↓⟩−|↓↑⟩)/√2, chaque bidule embarque une des particules de l'état intriqué, et quand on appuie sur le bouton X, Y ou Z, il réalise la lecture selon des axes séparés de 2π/3 l'un de l'autre (et de π par rapport à l'autre bidule, avec la description que j'ai faite, pour compenser le fait que les spins reçus par les deux gadgets sont opposés). On obtient ainsi le ¾ promis ; or apparemment on ne peut pas faire mieux : ceci résulte d'un autre jeu d'inégalités, pour la mécanique quantique cette fois, qui limite aussi les possibilités de celle-ci.
  • Mais il n'y a pas d'objection fondamentale évidente à l'existence d'un 1-gadget, même si ce n'est pas possible avec les lois de la mécanique quantique (ou a fortiori, classique), et un tel gadget ne permettrait pas de communiquer de manière instantanée (il ne violerait pas la causalité), si on en croit un troisième jeu d'inégalités.

Ce qui m'intéresse particulièrement, disons, ce que je voudrais comprendre, c'est les relations entre ces différents jeux d'inégalités : il semble qu'on puisse décrire naturellement trois convexes (dans quoi exactement, je ne sais pas) qui leur corresponde : le domaine accessible au réalisme local, le domaine accessible quantiquement, et le domaine accessible sans permettre de communication, le premier et le troisième étant des polytopes (i.e., définis par un nombre fini d'inégalités linéaires), tandis que le second est un convexe plus général (défini par des inégalité de type semidéfinies).

Par ailleurs, ce type de problème peut être généralisé en un problème de coloriage de graphes : chacun des deux bidules (qu'on pourrait appeler Alice et Bob), toujours sans avoir le droit de communiquer, seront interrogés sur un sommet d'un (même !) graphe fixé à l'avance, et devront faire une réponse parmi un ensemble de n couleurs (prédéfinies) : si on les interroge sur le même sommet ils doivent répondre la même couleur, tandis que si on les interroge sur des sommets adjacents dans le graphe ils doivent, avec probabilité ≥p, faire des réponses différentes : selon le graphe et selon la valeur de p (qui peut éventuellement être considérée comme décorant l'arête), on peut se demander combien de couleurs il faut pour remplir le défi dans chacun des trois cadres que je viens d'évoquer (classique/réalisme-local, quantique, et non-communiquant). La situation que je considérais précédemment est celle du graphe triangle (de sommets X, Y et Z, avec une arête entre chaque paire de sommets distincts) et n=2.

Je n'ai rien à dire sur tout ça, mais je peux braindumper les références que j'ai prévu de lire (et que je n'ai pas pu lire encore, faute d'accès à mon bureau pour les imprimer) :

(ça fait beaucoup à lire, et je ne sais pas dans quel ordre m'y prendre ; par ailleurs, il y a peut-être plus à trouver dans les références, mais malheureusement certaines sont inexploitables à cause de ce style de citation complètement con parfois utilisé en physique qui fait que je ne sais pas trouver en ligne le papier quand je vois quelque chose comme H.-K. Lo and H. F. Chau, Phys. Rev. Lett. 78, 3410 (1997)).

Rien à voir avec ce qui précède : la topologie sans points. Il y a environ un an, j'avais écrit ici une petite synthèse au sujet des fonctions réelles continues et du compactifié de Stone-Čech des espaces topologiques. Je ne suis pas mécontent de cette entrée de blog, mais je me suis rendu compte, quelque temps après, que quasiment tout ce que j'écrivais se généralisait très bien, et prenait même plus de sens, dans le contexte de la topologie sans points. J'ai donc commencé à écrire une entrée sur le sujet qui, comme tant d'autres choses que j'ai commencées, n'a jamais été finie parce que je me suis rendu compte que tout était immensément plus long à raconter que ce que je pensais. Je pourrais peut-être la publier inachevée, même si c'est assez rébarbatif à ce stade parce qu'il s'agit juste de définitions générales sans vraiment rentrer dans le sujet que je voulais évoquer (les fonctions réelles continues dans le cadre de la topologie sans points), mais voici au moins le petit bout où j'expliqu(er)ais très informellement de quoi il s'agit :

Brièvement, de quoi s'agit-il ? On introduit une structure mathématique appelée une locale : il s'agit d'une sorte de généralisation d'un espace topologique (je donne les détails ci-dessous ; ce n'est pas exactement une généralisation, mais c'est au moins une généralisation, disons, des espaces topologiques séparés), qui s'obtient en partant de la structure algébrique des ouverts sur un espace topologique et en jetant l'espace topologique lui-même (i.e., ses points) pour ne garder que la structure abstraite (les cadres), et en « inversant les flèches » (là aussi, j'expliquerai ci-dessous) pour pouvoir faire comme si c'étaient des sortes d'espaces. Quel est l'intérêt de cette « topologie sans points » (en anglais pointfree topology ou, si on est farceur, pointless topology, ce qui suggère de ne pas se poser cette question) ? Cela permet de poser un regard différent sur un certain nombre de notions topologiques et de faire des preuves différemment, parfois plus simplement ou plus clairement ; cela permet de généraliser un certain nombre de théorèmes à ce nouveau contexte (et de nouveau, parfois avec des preuves plus simples, ou plus générales par exemple parce qu'elles se passent de l'axiome du choix ou fonctionnent en logique intuitionniste) ; cela permet d'unifier assez naturellement des constructions sur les espaces topologiques et sur les algèbres de Boole ; et la notion de locale est une sorte d'intermédiaire naturel entre la notion d'espace topologique et celle de topos.

— et pour donner quand même quelques bouts de définitions afin de ne pas parler dans le vide, que j'extrais toujours de ce texte commencé et jamais publié :

Un cadre (frame en anglais) est un ensemble partiellement ordonné dans lequel

  • toute partie S possède une borne supérieure, appelée aussi jointure, notée ⋁S (ou ⋁iI ui si S = {ui : iI} ; et on notera uv pour la jointure de deux éléments) ;
  • il est alors automatiquement le cas que toute partie, et notamment toute partie finie, possède une borne inférieure, appelée aussi rencontre, et notée ⋀S (ou ⋀iI ui si S = {ui : iI} ; et on notera uv pour la rencontre de deux éléments) ;
  • les rencontres finies se distribuent sur les jointures quelconques, c'est-à-dire que v∧(⋁jJ uj) = ⋁jJ (vuj) si v est un élément du cadre et (uj)jJ une famille de tels éléments (et on peut en déduire que, plus généralement, ⋀iI ⋁jJi ui,j = ⋁k∈∏iIJi ⋀iI uk(i) lorsque I est fini).

C'est le cas de l'ensemble 𝒪(X) des ouverts d'un espace topologique partiellement ordonnés par l'inclusion, et c'est l'archétype qu'on gardera à l'esprit, l'idée étant de se demander maintenant ce qu'on peut faire avec uniquement cette structure. Un cadre est une version abstraite des ouverts d'un espace topologique, et les opérations de jointure (quelconque) et de rencontre (finie) sont des versions abstraites des opérations de réunion (quelconque) et d'intersection (finie) des ouverts.

En particulier, un cadre a un plus petit élément, qu'on notera ⊥ (la jointure de la famille vide ; il faut y penser comme la version abstraite de ∅), et un plus grand élément, qu'on notera ⊤ (la rencontre de la famille vide ; il faut y penser comme la version abstraite du plein).

Mais pour qu'une structure ait vraiment un sens, il faut se demander ce que sont ses morphismes. L'archétype qu'on aura en tête est l'image réciproque des ouverts par une application continue : si f:XY est une application continue entre espaces topologiques (rappelons que cela signifie que l'image réciproque d'un ouvert est un ouvert), on a une application Vf−1[V] de l'ensemble 𝒪(Y) des ouverts de Y vers l'ensemble 𝒪(X) des ouverts de X, et cette application préserve à la fois les réunions quelconques et les intersections finies (en fait les intersections quelconques, mais comme celles-ci ne sont pas des ouverts on n'a pas le droit d'en parler ; en revanche, les bornes inférieures quelconques de familles d'ouverts ne sont pas préservées en général). Donc :

On définit un morphisme de cadres comme une application entre cadres qui préserve les jointures quelconques et les rencontres finies.

(C'est vraiment important d'avoir la bonne notion de morphisme : à isomorphisme près, les cadres sont la même chose que les algèbres de Heyting, par exemple — cf. aussi cette entrée — mais les morphismes de cadres ne sont pas les mêmes que les morphismes d'algèbres de Heyting.)

Bon, alors maintenant il y a une étape qui est mathématiquement complètement triviale, mais conceptuellement géniale : celle d'inverser les flèches (ou, ensemblistement, passer à la catégorie opposée). On va définir un nouveau type d'objets, les locales, qui sont exactement la même chose que les cadres, sauf que les morphismes vont dans la direction opposée (pour rétablir, pour ainsi dire, la direction dans laquelle les flèches allaient entre espaces topologiques). Cette idée est triviale mais extrêmement féconde : c'est grâce à ça qu'on va avoir une vraie intuition géométrique.

Bref, je définis une locale comme un objet formellement noté Loc(L) où L est un cadre (cette notation Loc(L) sert uniquement à différencier le même objet quand il est une locale ou quand il est un cadre) ; inversement, si X est une locale, on notera 𝒪(X) le cadre correspondant (c'est-à-dire le même objet mais considéré comme un cadre : dire que L=𝒪(X) revient à dire que X=Loc(L) ; s'il y a des gens qui trouvent perturbant que je note L le cadre et X la locale, la lettre ‘L’ est l'initiale du mot anglais lattice, car les cadres sont, en particulier, des treillis). Comme pour un espace topologique, les éléments du cadre 𝒪(X) correspondant à une locale X seront appelés les ouverts de X (et le cadre lui-même peut donc s'appeler le cadre des ouverts ou l'ensemble des ouverts de la locale) : la différence essentielle avec un espace topologique, je le répète, est que quand X est une locale, les ouverts de X ne sont pas des parties de X (puisque X n'a pas de sens en tant qu'ensemble, ou en tout cas pas en tant qu'ensemble de points), ce sont juste des éléments d'un cadre abstrait.

Enfin, un morphisme XY de locales est simplement défini par un morphisme 𝒪(Y)→𝒪(X) dans le sens contraire des cadres correspondants (i.e., un morphisme ML si X=Loc(L) et Y=Loc(Y)). Quand on aura besoin de nommer les morphismes, si f:XY est un morphisme de locales, on notera f*:𝒪(Y)→𝒪(X) (avec un astérisque en exposant, donc) le morphisme correspondant entre les cadres : on dit parfois que le morphisme de cadres f* est l'image inverse ou image réciproque associée au morphisme de locales f:XY. La composition des morphismes de locales s'obtient en composant (évidemment dans le sens contraire) les morphismes de cadres : c'est-à-dire que si f:XY et g:YZ sont des morphismes de locales (définis par des morphismes de cadres f*:𝒪(Y)→𝒪(X) et g*:𝒪(Z)→𝒪(Y)) alors on définit gf:XZ par le fait que (gf)* = f*g* (morphisme de cadres 𝒪(Z)→𝒪(X)).

L'exemple qui s'impose, et pour lequel on a fait tout ça, c'est que si X est un espace topologique, alors on a une locale Loc(𝒪(X)) définie par l'ensemble 𝒪(X) des ouverts de X vu comme un cadre (ainsi qu'on l'a expliqué ci-dessus) : cette locale sera notée Pointfree(X) (elle est donc définie par le fait qu'elle a le même cadre d'ouverts 𝒪(Pointfree(X)) = 𝒪(X) que X ; il faut y penser comme X mais où j'oublie les points). Parfois, quand ça ne cause pas de confusion, on notera même simplement X pour la locale définie par l'espace topologique X, et on identifiera les deux objets (j'expliquerai plus loin que c'est légitime si X est « sobre » et notamment si X est séparé).

Si f:XY est une application continue entre espaces topologiques, j'ai expliqué que l'application « image réciproque » Vf−1[V] (de l'ensemble 𝒪(Y) des ouverts de Y vers l'ensemble 𝒪(X) des ouverts de X) définissait un morphisme de cadres 𝒪(Y)→𝒪(X), et elle définit donc un morphisme de locales dans le sens inverse, c'est-à-dire Pointfree(X)→Pointfree(Y), qu'on pourra noter Pointfree(f) : formellement, donc, Pointfree(f)* est Vf−1[V]. Parfois, quand ça ne cause pas de confusion, on la notera même simplement f pour Pointfree(f) et on l'identifiera avec l'application de ce nom (j'expliquerai plus loin que c'est légitime si Y est T₀ et notamment s'il est sobre ou, à plus forte raison, séparée).

Une locale de la forme Pointfree(X), où X est un espace topologique, est appelée une locale spatiale. Formellement, on a défini un foncteur (covariant) Pointfree, de la catégorie des espaces topologiques vers la catégorie des locales (laquelle est définie comme la catégorie opposée de la catégorie des cadres) : le fait que Pointfree soit un foncteur (covariant) signifie simplement que si f:XY et g:YZ alors Pointfree(gf) = Pointfree(g)∘Pointfree(f).

Pour l'instant je n'ai pas donné d'exemple de locale qui ne soit pas spatiale, mais je mentionne en passant que si B est une algèbre de Boole complète (c'est-à-dire un cadre dans lequel chaque élément u a un élément ¬u, automatiquement unique, tel que u∧¬u=⊥ et u∨¬u=⊤, et qu'on appelle complémentaire de u), qu'on peut considérer comme un cadre particulier, la locale Loc(B) n'est presque jamais spatiale (elle l'est exactement lorsque B est « atomique », ce qui dans ce contexte revient à dire qu'il s'agit de l'ensemble 𝒫(X) des parties d'un ensemble X, autrement dit, lorsque Loc(B)=Pointfree(X) où X est un ensemble considéré comme espace topologique discret).

Bon, j'en ai encore des pages et des pages, comme ça, de définitions un peu arides avec des foncteurs adjoints dans tous les sens, mais je vous les épargne (pour l'instant). Ce qui m'intéressait est qu'on peut définir la compactification de Stone-Čech (et éventuellement la réelcompatification) pour les locales de façon exactement analogue aux espaces topologiques : si C(X) est l'ensemble des morphismes de locales X→ℝ où ℝ, ou plus exactement Pointfree(ℝ), est la locale définie par le cadre des ouverts de la droite réelle au sens usuel, et C*(X) est l'ensemble de ceux qui sont bornés dans un sens assez évident, ceci permet de définir βX comme l'espace topologique compact, et X→βX comme le morphisme de locales, tels que C*(βX)→C*(X) soit un isomorphisme, c'est-à-dire que βX est l'espace des idéaux maximaux de C*(X). On peut par exemple définir la notion de locale complètement régulière, à savoir celles pour lesquelles la flèche X→βX définit une sous-locale (c'est-à-dire que la flèche sur les cadres 𝒪(βX)→𝒪(X) est surjective), ce qui peut se caractériser de différentes autres manières.

Même si, in fine, on décide qu'on ne s'intéresse qu'aux espaces topologiques, ce point de vue a de l'intérêt : par exemple, il existe une opération de booléanisation X↦𝐁(X) sur les locales (remplacer le cadre correspondant par l'algèbre de Boole de ses éléments réguliers, ceux pour lesquels v = (v⇛⊥)⇛⊥, où l'opération de Heyting ‘⇛’ est définie par (vu) := ⋁{w : (vw)≤u} ; pour un espace topologique, ce sont justement les ouverts réguliers), la booléanisation d'une locale n'est essentiellement jamais un espace topologique (i.e., une locale spatiale), mais si on prend son compactifié de Stone-Čech on revient dans le cadre des espaces topologiques. Et là, il peut être intéressant de comparer le compactifié de Stone-Čech βX d'un espace topologique X et celui β𝐁(X) de sa booléanisation (en tant que locale) : on obtient ainsi un nouveau point de vue sur l'opération X↦β𝐁(X) qui revient à prendre l'espace de Stone (= des idéaux maximaux) de l'algèbre de Boole des ouverts réguliers de X, une construction classique en topologie appelée espace de Gleason de X (cf. aussi cette question sur MathOverflow). Par exemple, si je ne m'abuse, l'espace L(ℝ;ℝ) de l'analyse (fonctions réelles ℝ→ℝ mesurables et essentiellement bornées, modulo égalité presque partout) coïncide avec l'anneau des (vraies !) fonctions réelles continues (automatiquement bornées) sur l'espace de Gleason de la topologie de la densitéd sur ℝ (cf. aussi ce fil Twitter), donc on peut les voir comme des fonctions réelles bornées sur la locale 𝐁(ℝd). Il y aurait aussi des connexions à faire avec le forcing et l'analyse à valeurs booléennes (cf. le livre de Kusraev & Kutateladze, Bolean Valued Analysis, hum, pardon, le livre de Кусраев & Кутателадзе, Булевозначный анализ).

Bref, il s'agit là de choses « bien connues », mais écrites de façon dispersée dans la littérature, sur lesquelles j'aurais des choses à écrire mais ça prend simplement trop de temps, et c'est peut-être un peu technique même pour ce blog. Je note quelques références :

  • Peter T. Johnstone, Stone Spaces (1982), (chapitres I–IV),
  • Jorge Picardo & Aleš Pultr, Frames and Locales: Topology without points (2012),
  • trois articles de Bernard Banaschewski & Christopher J. Mulvey, Stone-Čech Compactification of Locales (I : 1980 ; II : 1984 ; III : 2003),
  • Bernard Banaschewski & Aleš Pultr, Booleanization (1996), ainsi éventuellement que la suite appelée Booleanization of Uniform Frames (1996 toujours),
  • John Isbell, Atomless Parts of Spaces (1972),
  • Richard N. Ball & Joanne Walters-Wayland, C- and C*-quotients in pointfree topology.

(Liste extraite un peu au pif d'une longue liste d'articles que j'ai sauvegardés sur des sujets plus ou moins connexes : je pense qu'ils font partie des plus pertinents par rapport à ce que je viens de dire, mais il y en a certainement d'autres.)

Il y a des questions de recherche attenantes à tout ça. Par exemple, je crois comprendre que plein de questions consistant à caractériser, de façon intrinsèque, les anneaux (ou les anneaux ordonnés, ou quelque autre variation sur la structure) qui sont l'anneau des fonctions rélles continues sur un espace topologique, ou bien sur une locale, sont encore largement ouvertes.

Ajout : j'aurais sans doute dû mentionner le fait qu'un regard intéressant que les locales permettent de poser est que les sous-locales d'un espace topologique sont subtilement différents de ses sous-espaces topologiques, notamment par le fait qu'il existe une plus petite sous-locale dense, justement donnée par l'opération de booléanisation que j'évoque ci-dessus et, en particulier, deux sous-locales denses s'intersectent toujours (si X est un espace topologique et AX est une partie quelconque vue comme sous-espace topologique, on lui associe la sous-locale donnée par la flèche Pointfree(A)→Pointfree(X) définie par le morphisme de cadres 𝒪(X)→𝒪(A) qui est simplement UUA ; mais la notion d'intersection de sous-locales demande un petit peu de doigté : toujours est-il que la plus petite sous-locale dense de Pointfree(X) est justement celle associée au cadre des ouverts réguliers (qui est une algèbre de Boole)). Évidemment c'est un peu surprenant de dire que, par exemple, les rationnels et les irrationnels de ℝ s'intersectent (mais cette intersection n'a, justement, pas de point !), mais comme on me le signale en commentaire, cela ouvre la porte à une façon originale de repenser la mesure de Lebesgue, et de lever le paradoxe de Banach-Tarski (Olivier Leroy, Théorie de la mesure dans les lieux réguliers).

Disons maintenant un mot de l'axiome de Scott ((¬¬pp) ⇒ (p∨¬p)) ⇒ (¬¬p∨¬p). Je me place bien sûr ici dans le cadre de la logique intuitionniste (cf. aussi ce fil Twitter). Il fait partie d'une infinité de choses qui sont des tautologies en logique classique mais qui n'en sont pas en logique intuitionniste, mais qui sont néanmoins moins fortes que de supposer la loi du tiers exclu (p∨¬p ou, ce qui à condition de le postuler pour tout p, revient au même, ¬¬pp), c'est même, en une seule variable propositionnelle, un des postulats les plus simples qu'on puisse formuler après la loi du tiers exclu et la loi faible du tiers exclu (¬¬p∨¬p), cf. le treillis de Rieger-Nishimura. Donné un topos (je n'ai pas envie d'expliquer ce qu'est un topos, mais faites semblant une seconde), on peut se demander s'il vérifie tel ou tel de ces axiomes intermédiaires : par exemple, le topos des ensembles simpliciaux (ou la logique de Medvedev, cf. l'entrée de blog liée ci-dessus) vérifie l'axiome de Scott ou l'axiome de Kreisel-Putnam (¬p⇒(q₁∨q₂)) ⇒ ((¬pq₁) ∨ (¬pq₂)), cf. cette question sur MathOverflow.

L'axiome de Scott peut paraître assez arbitraire, et son sens intuitif n'est pas franchement clair, mais il y a des raisons de s'y intéresser quand même (et pas seulement parce qu'il est vérifié dans un topos particulier, comme je viens de le dire), ne serait-ce que parce que c'est un des plus simples sur lesquels on puisse dire des choses intéressantes. Et de fait, des choses ont été prouvées à son sujet. La logique (intermédiaire entre la logique intuitionniste et la logique classique) obtenue en postulant l'axiome de Scott (pour tout énoncé p) est décidable, ce qui n'est pas du tout évident a priori, et vérifie la proposition de la disjonction (c'est-à-dire que si elle démontre uv alors elle démontre soit u soit v) ; et il en va de même pour l'axiome de Kreisel-Putnam évoqué ci-dessus, ou pour la conjonction de ces deux axiomes. (Je donne les références parce que sinon je ne les retrouverai pas :: pour l'axiome de Scott : J. G. Anderson, Superconstructive propositional calculi with extra axiom schemes containing one variable (1972) ; pour l'axiome de Kreisel-Putnam : Dov M. Gabbay, The decidability of the Kreisel-Putnam system (1970) ; pour la conjonction des deux, Perluigi Minari, On the extension of intuitionistic propositional logic with Kreisel-Putnam and Scott's schemes (1986) ; voir aussi le survey par Alexander Chagrov & Michael Zakharyashchev, The disjunction proprty of intermediate propositional logics (1991)).

Maintenant, un problème qui me semble assez naturel, c'est de se demander ce que cet axiome signifie dans le cadre d'un espace topologique (voire, pour faire le lien avec la partie précédente de cette entrée, une locale) : on dit qu'un espace topologique X vérifie un certain énoncé du calcul propositionnel intuitionniste (comme l'axiome de Scott ((¬¬pp) ⇒ (p∨¬p)) ⇒ (¬¬p∨¬p) ou l'axiome de Kreisel-Putnam (¬p⇒(q₁∨q₂)) ⇒ ((¬pq₁) ∨ (¬pq₂))) lorsque pour toute façon de choisir un ouvert de X pour chacune des variables propositionnelles de l'énoncé en question, la valeur de l'énoncé est l'ouvert plein X, où les opérations ∨, ∧ et ⇒ sur les ouverts sont définies comme respectivement la réunion, l'intersection, et l'opération de Heyting (VU) := ⋃{W : (VW)⊆U} = int(U∪(XV)) (et le pseudocomplément ¬V est défini comme (V⇛∅) c'est-à-dire int(XV) = X∖adh(V), le plus grand ouvert disjoint de V). À titre d'exemple, un espace topologique vérifie la loi du tiers exclu p∨¬p lorsque tous les ouverts sont fermés, ce qui n'est pas très intéressant (mais pour une locale, cela signifie qu'elle est booléenne, ce qui est évidemment plus intéressant dans ce contexte), et il vérifie la loi faible du tiers exclu, ¬¬p∨¬p, lorsqu'il est extrêmement discontinu (c'est-à-dire que l'adhérence d'un ouvert est encore un ouvert ; cf. Gleason, Projective Topological Spaces (1958)). Donc l'axiome de Scott devrait correspondre à une condition un peu moins drastique que ça : on peut le formuler en disant que si U est un ouvert, alors le bord ∂ro(U) de ro(U) := int(adh(U)) (plus petit ouvert régulier contenant U) est inclus dans l'adhérence de l'ensemble des points du bord ∂U de U au voisinage desquels U est régulier (c'est-à-dire ayant un voisinage W tel que UW = ro(U)∩W), i.e., on peut arbitrairement approcher tout point du bord de ro(U) par des points du bord de U au voisinage desquels ro(U) et U coïncident ; c'est un peu moins chinois comme ça, mais ça ne m'aide pas vraiment à trouver des exemples intéressants (voir aussi ce fil Twitter). J'avais déjà posé sur MathOverflow la question analogue pour l'axiome de Kreisel-Putnam, la réponse que j'ai reçue avait été très intéressante (et m'a permis d'apprendre l'existence d'une expansion maximale connexe de la droite réelle), même si je demeure assez perplexe quant à la signification topologique de cet axiome, il faut sans doute y réfléchir plus s'agissant de l'axiome de Scott. On peut aussi s'interroger sur les autres étages du treillis de Rieger-Nishimura.

Bon, je n'ai rien d'intelligent à dire sur tout ça, que des questions à poser, mais sait-on jamais, peut-être que poser ces questions sur ce blog incitera quelqu'un à y réfléchir, je ne pense pas que ce soient des bits perdus.

Dans ma TODO-list, il y a aussi toujours d'écrire quelque chose sur le topos effectif. (Ce qui est bien, c'est qu'il est suffisamment simple à décrire pour qu'on n'ait pas besoin de décrire au préalable ce que c'est qu'un topos en général.) Ou au moins sur la réalisabilité de Kleene (pour la définition de la réalisabilité de Kleene, ce qui n'est pas très difficile, je peux renvoyer au début de cette question ; le topos effectif est une sorte de catégorification de cette notion pour la généraliser de façon assez naturelle). Je n'ai rien à ajouter sur ce sujet à ce moment, à part que j'ai un bout d'entrée déjà écrit et qu'il faudrait me motiver à la finir, mais je le mentionner surtout parce que ça fait une sorte de transition entre ce qui précède (j'avais déjà mentionné que le topos effectif / la réalisabilité de Kleene, ne valide ni l'axiome de Scott ni celui de Kreisel-Putnam, mais qu'il valide des choses pas franchement super intuitives comme (¬(p₁∧p₂) ∧ (¬p₁⇒(q₁∨q₂)) ∧ (¬p₂⇒(q₁∨q₂))) ⇒ ((¬p₁⇒q₁) ∨ (¬p₁⇒q₂) ∨ (¬p₂⇒q₁) ∨ (¬p₂⇒q₂)) ou ((¬¬p₁⇔(¬p₂∧¬p₃)) ∧ (¬¬p₂⇔(¬p₃∧¬p₁)) ∧ (¬¬p₃⇔(¬p₁∧¬p₂)) ∧ ((¬p₁⇒(¬p₁∨¬p₃)) ⇒ (¬p₂∨¬p₃)) ∧ ((¬p₂⇒(¬p₂∨¬p₁)) ⇒ (¬p₃∨¬p₁)) ∧ ((¬p₃⇒(¬p₃∨¬p₂)) ⇒ (¬p₁∨¬p₂))) ⇒ (¬p₁ ∨ ¬p₂ ∨ ¬p₃) ; à ce sujet voir le survey de Valery Plisko, A survey of propositional realizability logic (2009) ; je n'ose pas, cependant, essayer d'imaginer ce que ces formules peuvent signifier sur un espace topologique), mais aussi avec ce qui suit, puisqu'il est question de calculabilité.

Je me plains régulièrement que l'informatique théorique consacre un travail démesuré à l'étude de la complexité (avec le développement de tout un zoo dont je ne suis même pas persuadé qu'on sache prouver qu'il y a une douzaine de classes (non paramétriques) distinctes dans le tas) au détriment de questions plus orientées vers la calculabilité, par exemple, ou ne serait-ce que les hiérarchies sous-récursives : j'avais déjà écrit sur ce blog que personne n'aimait les fonctions primitives récursives, et un symptôme intéressant est que le zoo de complexité que je viens de mentionner ne semble pas recenser une seule classe intermédiaire entre les problèmes primitifs récursifs et les problèmes calculables (= général récursifs), alors que les fonctions ε₀-récursives (= fonctions calculables démontrablement totales dans l'arithmétique de Peano ; cf. P. G. Odifreddi, Classical Recursion Theory (1999), vol. 2, VIII.9) ou plus généralement les niveaux de la hiérarchie de Grzegorczyk étendue (ou de Löb-Wainer) sont des classes de complexité parfaitement légitimes. Mais un autre point que je peux souligner est que toute cette zoologie de la complexité concerne le degré de Turing 0, c'est-à-dire ce qui est calculable par une machine de Turing ordinaire : où est donc la théorie de la complexité pour les autres degrés de Turing et pourquoi personne ne se penche sur ces questions-là ?

Le problème de l'arrêt (c'est-à-dire la fonction H qui à une machine de Turing associe 1 ou 0 selon que son exécution s'arrête en temps fini ou non), la fonction « castor affairé » (disons la fonction qui à un entier n associe le nombre maximal BB(n) d'étapes d'exécution que peut effectuer une machine de Turing ayant n états et qui s'arrête effectivement en temps fini), ou encore le graphe (resp. l'épigraphe) de cette fonction (c'est-à-dire la fonction qui à (n,v), associe 1 ou 0 selon que v=BB(n) ou v≠BB(n), resp. v≥BB(n) ou v<BB(n)), toutes ces fonctions sont dans le même degré de Turing, qu'on appelle 0′, c'est-à-dire que si on donne à une machine de Turing le pouvoir d'interroger un oracle qui lui renvoie la valeur d'une de ces fonctions, elle peut calculer n'importe laquelle des autres. Mais ce calcul peut prendre énormément de temps : l'algorithme évident pour calculer le problème de l'arrêt en disposant du graphe de la fonction BB consiste à exécuter pas à pas la machine de Turing à laquelle on s'intéresse (ayant, disons, n états) et, après chaque étape v, interroger le graphe de la fonction BB pour savoir si v=BB(n), jusqu'à soit voir la machine s'arrêter soit avoir la garantie qu'elle ne s'arrêtera jamais ; cet algorithme a une complexité comparable à la fonction BB elle-même (ce qui n'est pas possible pour une fonction calculable par une machine de Turing sans oracle !).

J'ai posé la question sur le stackexchange d'informatique théorique (pour changer un peu de MathOverflow, même s'il y aurait aussi bien eu sa place) de savoir si (1) on pouvait calculer le problème de l'arrêt en temps polynomial, exponentiel ou primitif récursif avec pour oracle le graphe de la fonction BB (est-ce que H ∈ PΓBB ?), ce qui impliquerait notamment que tout problème calculable le serait aussi (i.e., on aurait RPΓBB parce que RPH), ou (2) si, au contraire, tout problème calculable en temps polynomial avec pour oracle le graphe de la fonction BB et qui est aussi calculable sans oracle (sans contrainte de complexité) est encore calculable en temps polynomial sans oracle (est-ce que PΓBBR = P). Laurent Bienvenu m'a fait une réponse très intéressante expliquant que la réponse est non au deux (ce qui est le plus intéressant !) : ou plus précisément, que le graphe de la fonction BB ne permet pas de calculer le problème de l'arrêt en une complexité qui soit elle-même calculable, mais que, à l'inverse, il doit exister certains problèmes calculables que le graphe de la fonction BB permet de calculer plus que polynomialement plus rapidement que sans elle. (J'apprends au passage le concept de problèmes low for speed, c'est-à-dire d'oracles qui ne font pas gagner une accélération plus que polynomiale de la complexité.)

Il faut encore que je digère cette réponse pour bien comprendre comment elle fonctionne, mais elle suggère au moins qu'il y a possiblement un intérêt réel à étudier la complexité au sein du degré de Turing 0′, et qu'une classe de complexité possiblement intéressante dans ce degré serait les fonctions calculables en temps calculable (je veux dire, calculable par une machine de Turing ordinaire, sans oracle) par une machine disposant du graphe de la fonction BB comme oracle.

Mais la réponse que j'ai reçue suggère aussi quantité d'autres questions. Par exemple, du coup, je ne sais toujours pas quoi penser des problèmes calculables en temps polynomial avec pour oracle le graphe de la fonction BB et qui sont aussi calculables sans oracle (sans contrainte de complexité) : est-ce que ça inclut peut-être tous les problèmes calculables (i.e. a-t-on RPΓBB) ? Il faudrait aussi déconfuser ce qui se passe pour les fonctions primitives récursives, parce que si sans oracle il revient au même de dire qu'une fonction est primitive récursive ou calculable en temps donné par une fonction primitive récursive, en revanche, avec un oracle (tel que ΓBB) il y a deux ou trois notions à bien distinguer.

Bref, je ne sais pas dire grand-chose sur tout ça, là aussi je n'ai que des questions à poser, mais ceci me conforte dans l'idée qu'il y a plein de sujets de recherche potentiels qui ne demandent qu'à être explorés.

Je voulais dire quelque chose sur les algèbres de Jordan, aussi. C'est aussi motivé par une question sur MathOverflow, mais pour une fois c'est moi qui ai répondu à la question (posée par John Baez), ce qui n'est pas un exploit parce que la réponse était, en fait, déjà sur Wikipédia (je l'ai vu après). Mais ceci m'amène à faire une remarque sur quelque chose qui depuis longtemps me semble (et, je crois, semble à tout le monde) assez mystérieux.

Une algèbre associative (sur un corps de caractéristique 0 pour simplifier), rappelons-le, est un espace vectoriel A muni d'une opération bilinéaire (c'est-à-dire linéraire en chaque variable séparément) A×AA, notée (x,y)↦xy, qui est associative (et j'ai peut-être aussi envie de demander l'existence d'un élément neutre, mais peu importe). À partir d'une telle structure, on peut définir deux autres opérations bilinéaires A×AA, à savoir le crochet de Lie [x,y] := xyyx, et le produit de Jordan xy := ½(xy+yx), soit en gros la partie antisymétrique et la partie symétrique du produit de départ (on a [y,x] = −[x,y] tandis que yx = xy). On peut se demander quelle structure définissent ces deux opérations.

S'agissant du crochet de Lie [—,—], c'est clair : c'est une algèbre de Lie, c'est-à-dire que [—,—], outre l'antisymétrie ([y,x] = −[x,y]), vérifie l'identité dite de Jacobi, [x,[y,z]] + [y,[z,x]] + [z,[x,y]] = 0, et c'est tout : toute identité universellement vérifiée par le crochet de Lie [—,—] d'une algèbre associative découle de ces uniques identité. En fait, il y a même mieux : toute algèbre de Lie se plonge dans l'algèbre de Lie définie par le crochet de Lie sur une algèbre associative (c'est une conséquence du théorème de Poincaré-Birkhoff-Witt), ce qui implique évidemment qu'elle doit en vérifier toutes les identités.

S'agissant du produit de Jordan ∙, en revanche, les choses sont plus confuses : outre la symétrie (commutativité : yx = xy), il vérifie l'identité de Jordan (xx)∙(xy) = x∙((xx)∙y), mais ce n'est pas tout : une algèbre vérifiant ces identités est appelée algèbre de Jordan, mais, à la différence du crochet de Lie, il existe des identités, appelées s-identités, vérifiées par le produit de Jordan de toute algèbre associative et qui ne sont pas vérifiées dans toute algèbre de Jordan (i.e., ne découlent pas de la commutativité et l'identité de Jordan), et je crois comprendre qu'on ignore si on peut dresser une liste finie de s-identités d'où elles découleraient toutes. Encore plus bizarrement, les quelques s-identités connues sont longues, compliquées, moches, et impossibles à mémoriser. (Voir par exemple celle-ci. Ou encore celle-ci, due à Armin Thedy : UU[x,y](z)(t) = U[x,y](Uz(U[x,y](t))) où Ua(c) := 2a∙(ac) − (aa)∙c et U[a,b](c) := 4Uab(c) − 2Ua(Ub(c)) − 2Ub(Ua(c)) ; on peut noter que Ua(c) = aca et U[a,b](c) = (abba)c(abba) dans une algèbre associative munie de son produit de Jordan, et que par ailleurs UUx(z)(t) = Ux(Uz(Ux(t))) vaut dans n'importe quelle algèbre de Jordan, i.e., ceci découle de l'identité de Jordan, ce qui rend l'identité de Thedy un petit peu moins mystérieuse. Mais écrite complètement en terme du produit de Jordan, elle reste passablement cryptique.) Et par ailleurs, même une algèbre de Jordan vérifiant toutes les s-identités (parfois appelée i-spéciale) ne se plonge pas forcément dans une algèbre associative munie de son produit de Jordan (une algèbre de Jordan qui se plonge ainsi est dite spéciale).

Toutes ces choses sont bien connues. Mais ce à quoi je n'ai aucune sorte de réponse, et je ne sais pas si quelqu'un en a ou si c'est un mystère pour tout le monde, c'est : pourquoi une telle différence ? Qu'est-ce qui, fondamentalement, fait que du côté des algèbres de Lie les identités se passent très bien, et que du côté de des algèbres de Jordan c'est un épouvantable chaos ? On peut lire des démonstrations, mais je ne trouve pas qu'elles constituent une explication satisfaisante.

Je note par ailleurs, en écrivant tout ça, que le caractère Unicode U+2219 BULLET OPERATOR (‘∙’), que j'ai utilisé pour le produit de Jordan, ressemble quand même furieusement beaucoup à U+22C5 DOT OPERATOR (‘⋅’) voire U+00B7 MIDDLE DOT (‘·’) dans la police que j'ai, alors que je m'attendais à ce qu'il ressemblât à U+2022 BULLET (‘•’).

Le fait de chercher à vendre un appartement (et donc de devoir décider, quand je reçois une offre, si je l'accepte ou pas, sachant que je n'ai qu'une idée très floue de la valeur marché réelle de l'appartement, surtout sur un marché aussi étroit que celui des appartements avec un jardin à Paris) m'a amené à me remémorer le problème du secrétaire, un problème classique de probas. (Résumé : on va recevoir n offres tour à tour pour quelque chose — par exemple pour remplir un emploi de secrétaire — ces offres n'ont pas de valeur numérique, juste un ordre total de la meilleure à la pire, et à chaque fois on ne peut que comparer la valeur de l'offre avec celles précédemment reçues, on ne sait pas ce qui va suivre, et on ne peut qu'accepter l'offre définitivement, ce qui arrête le processus, ou la refuser définitivement et passer à la suivante ; et le but est de maximiser la probabilité d'accepter la meilleure offre. De façon un peu étonnante, la solution — pour n grand — consiste à rejeter les n/e premières offres, puis prendre la prochaine qui soit meilleure que toutes celles rencontrées jusqu'à présent.) Ce problème admet, bien sûr, énormément de variantes.

En voici une : on va recevoir n offres qui sont, cette fois, des variables aléatoires indépendantes distribuées selon une loi normale (disons de moyenne 0 et d'écart-type 1 pour fixer les idées) ; à chaque fois on doit décider si on accepte l'offre, auquel cas on gagne la valeur de celle-ci, ou si on la rejette et qu'on continue le processus. Quelle est l'espérance de gain qu'on peut atteindre, et comment faire ? (C'est deux fois la même question, bien sûr, car la stratégie consiste simplement à accepter une offre si sa valeur dépasse l'espérance de gain du processus pour les offres restantes.) Autrement dit, si (Zn) est une suite de variables aléatoires indépendantes gaussiennes (de moyenne 0 et d'écart-type 1) et qu'on définit simultanément une suite de variables aléatoires (Xn) et une suite de réels (En) par En = 𝔼(Xn) (espérance de Xn) et par X₁ = Z₁ et Xn = (ZnEn−1) ? Zn : Xn−1 (autrement dit, Xn vaut Zn si celle-ci dépasse En−1, et vaut Xn−1 sinon ; notamment, X₂ = (Z₂≥0) ? Z₂ : Z₁), que peut-on dire de la suite (En) des espérances, et comment se compare-t-elle avec la suite plus simple (𝔼(max(Z₁,…,Zn))) de l'espérance du maximum de n variables aléatoires gaussiennes indépendantes dont j'avais dit un mot il y a longtemps.

Mais on peut aussi s'interroger sur la stratégie à suivre si on reçoit toujours des variables aléatoires gaussiennes indépendantes (Zn) mais cette fois on n'a pas la connaissance de la valeur de celles-ci, uniquement de leur ordre total (c'est plus proche du problème classique, et il y a une variante assez proche évoquée sur Wikipédia avec des variables uniformes plutôt que gaussiennes) ; ou encore, si on a connaissance des (Zn) modulo affinités (c'est-à-dire des (ZnZ₁)/(Z₂−Z₁)), ce qui doit revenir (plus ou moins ?) au même que d'ignorer la moyenne et l'écart-type.

Au rayon des amusements, j'avais essayé de distraire mes pensées de la pandémie en programmant une petite animation en JavaScript de points se déplaçant sur une sphère en se repoussant selon une interaction de Coulomb (force en 1/r² dans l'espace euclidien ambiant) : ça donne ceci (source ici — j'en profite au passage pour tester l'utilisation de rawgit.org pour servir un fichier HTML). Sur cette variante il n'y a pas de dissipation de l'énergie, il est facile d'en ajouter, les points finissent alors généralement (toujours ?) par se stabiliser sur les sommets d'un icosaèdre, cf. le problème de Thomson.

Outre que c'est joli à regarder, ça m'a fait prendre conscience d'un fait pourtant simple de mécanique classique auquel je n'avais pas fait attention : la notion de centre de gravité, et surtout, le fait que (quand le système considéré ne subit aucune force extérieure) celui-ci suive la trajectoire d'un point en mouvement uniforme, ou en fait surtout, l'idée qu'on peut effectuer un changement de référentiel en mouvement uniforme sur un système physique, tout ça est spécifique à l'espace euclidien et ne fonctionne plus même sur un espace à courbure uniforme et isotrope. Il est facile mais éclairant de donner des exemples sur la sphère. Pour la notion de centre de gravité, considérons simplement deux points, de même masse, et sans aucune force s'exerçant ni sur l'un ni sur l'autre, l'un au repos (appelons-le A), l'autre (B) en mouvement uniforme sur le grand cercle polaire du point où se trouve le premier point A : autrement dit, B va en ligne droite (suit un grand cercle) à vitesse constante, et A est au repos à distance π/2 de ce grand cercle (= sur son point polaire) ; mais alors le centre de gravité, même si on ne sait pas exactement comment le définir, sera certainement au milieu du segment [AB], or ce milieu parcourt (à vitesse uniforme) un cercle de rayon π/4, ce qui n'est certainement pas une géodésique. Pour la possibilité (ou plutôt, justement, l'impossibilité) de faire un changement de référentiel uniforme, il suffit de se rappeler que sur la sphère, une translation uniforme ou une rotation uniforme, c'est la même chose, et si on considère deux points au repos (de nouveau sans force s'exerçant sur eux) à une distance strictement comprise entre 0 et π, une rotation=translation uniforme les transforme en deux points orbitant l'un autour de l'autre alors qu'ils n'exercent aucune force l'un sur l'autre, ce qui n'est pas physiquement possible.

Bref, sur la sphère ou le plan hyperbolique, contrairement à l'espace euclidien, il y a un référentiel privilégié. Ceci est possiblement pertinent pour l'univers dans lequel nous vivons et qui, s'il n'est pas précisément plat au niveau cosmologique (en l'état actuel des connaissances ce n'est pas bien clair, il faut l'avouer), a un référentiel privilégié à cause de la courbure ; mais bon, j'ai déjà dit ça : en fait, il y a déjà un référentiel privilégié à cause, disons, du rayonnement cosmologique fossile ; ce dont je ne m'étais pas bien rendu compte, c'est que la courbure elle-même en impose un.

Une référence sur ce sujet, mais je l'ai trouvée franchement décevante (beaucoup de calculs pour peu d'intuition à en tirer) : A. V. Shchepetilov, Calculus and Mechanics on Two-Point Homogeneous Riemannian Spaces.

Un petit mot maintenant sur la surface de Bring (qui est un quotient du plan hyperbolique, compatible avec mon pavage préféré par des carrés d'angle 2π/5 à chaque sommet ; on peut la qualifier de courbe ou de surface, parce que c'est une courbe algébrique complexe donc une surface de Riemann, mais ici je veux plutôt la voir comme une courbe). J'avais déjà parlé d'elle sur ce blog, c'est une surface très jolie (au moins aussi intéressante à mes yeux que la probablement plus célèbre quartique de Klein ou la surface de Bolza), et j'aime bien aussi le fait qu'elle puisse se voir en tant que courbe algébrique comme l'intersection d'une quadrique avec la surface de Clebsch, bon, peu importe. Aussi pour chercher des choses jolies à illustrer, j'ai fait cette animation (source ici) cherchant à illustrer la surface en question (il s'agit simplement de douze cercles de couleur qui se déplacent à vitesse constante et en ligne droite sur la surface de Bring). Du coup je suis retombé sur différents articles que j'avais archivés à son sujet en me disant que je devais les lire (et je ne les ai toujours pas vraiment lus, en fait) : notamment : W. L. Edge, Bring's Curve (1978) ; Gonzalo Riera & Rubí E. Rodríguez, The Period Matrix of Bring's Curve (1992) ; et Mattthias Weber, Kepler's Small Stellated Dodecahedron as a Riemann Surface (2005).

Et là-dessus je suis tombé sur cette question sur MathOverflow qui prétend que la surface de Bring s'envoie sur (ou s'identifie avec ? ce n'est pas clair) l'espace des formes possibles de pentagones équilatères dans le plan euclidien. J'aimerais bien comprendre comment et pourquoi, parce que ça semble très joli, et je n'ai jamais entendu ça, mais comme la phrase n'est pas très claire (je ne sais pas exactement de quel espace des formes il est question, c'est-à-dire modulo quoi au juste) et que je n'arrive pas à deviner comment les points remarquables de la surface de Bring (les sommets, milieux des arêtes et centres des faces, du pavage par des carrés d'angle 2π/5 que j'ai évoqué), je reste ignorant.

Un peu de géométrie classique pour finir. Donnés huit points dans le plan, en position suffisamment générale, la famille des courbes cubiques passant par ces huit points passe aussi par un unique neuvième point, et de plus, ce neuvième point peut être construit par une construction à la règle seule à partir des huit premiers. (En gros, la première affirmation résulte d'un comptage de dimensions : les courbes cubiques planes ont 9 paramètres parce qu'un polynôme homogène de degré 3 en 3 variables a 10 coefficients, la condition de passer par chaque point imposer fait tomber de 1 la dimension, si bien qu'il reste une famille à 1 paramètre, or deux cubiques se coupent en 9 points, donc notamment deux de la famille, et alors toute la famille passe par ce neuvième point puisqu'elle est combinaison des deux cubiques choisies ; quant à la deuxième affirmation, elle vient de ce que le neuvième point en question est fonction rationnelle des huit premiers puisque l'argument qu'on vient de donner fonctionne pour des points à coordonnées indéterminées sur un corps de fractions rationnelles.) Tout ça est bien classique. Les méthodes pour construire effectivement ce neuvième point à la règle seule se trouvent, cependant, uniquement dans des textes bien poussiéreux comme un article d'Arthur Cayley, On the construction of the ninth point of intersection of the cubics which pass through eight given points (1862), ou de A. S. Hart, Construction by the Ruler alone to determine the ninth Point of Intersection of two Curves of the third Degree (1851) ; une version plus moderne de cette histoire, et très bien expliquée (mais qui n'explicite pas une construction) se trouve dans l'article de Ren, Richter-Gebert et Sturmfels, Cayley-Bacharach Formulas.

Ce que je viens de dire est très bien connu. Un petit peu moins connu est le fait analogue suivant : donnés sept points dans l'espace, en position suffisamment générale, la famille des quadriques passant par ces sept points passe aussi par un unique huitième point, et de plus, ce huitième point peut être construit par une construction à la règle seule à partir des sept premiers (où à la règle seule, dans l'espace, signifie qu'on peut tracer et intersecter des plans et des droites comme on l'imagine ; l'argument est le même que ci-dessus, mutatis mutandis). Cette construction étant sans doute plus simple, il serait intéressant de l'expliciter à la manière des articles poussiéreux que je viens de citer.

Bon, je ne sais plus très bien pourquoi je parlais de ça, mais cette entrée étant déjà assez longue, je vais l'arrêter là.

Ajout : Allez, pour faire une bonne douzaine, j'ajoute encore un sujet rapide : je suis tombé sur ce tweet qui demande à quoi ressemble le spectre de l'anneau des fonctions polynomiales ℤ→ℤ (c'est-à-dire des polynômes en une variable, automatiquement à coefficients rationnels, i.e., éléments de ℚ[t], qui sont entiers sur les entiers) ; ça semble être un problème rigolo de visualiser ça et de le comparer à Spec(ℤ[t]) : il semble y avoir des réponses dans l'article de Paul-Jean Cahen & Jean-Luc Chabert, What You Should Know About Integer-Valued Polynomials (2016).

↑Entry #2656 [older| permalink|newer] / ↑Entrée #2656 [précédente| permalien|suivante] ↑

↓Entry #2655 [older| permalink|newer] / ↓Entrée #2655 [précédente| permalien|suivante] ↓

(samedi)

Reprise prévue de l'activité de ce blog

Je n'ai pas écrit dans ce blog depuis plus d'un mois. Le temps de raconter un peu pourquoi.

Sans conteste, je vais beaucoup mieux depuis que je ne suis plus prisonnier chez moi. Le traumatisme associé à ce confinement restera sans doute présent longtemps, il faudra certainement que je travaille dessus pour l'exorciser complètement : mais pour l'instant, je n'ai pas du tout envie d'y repenser, j'ai surtout envie de profiter du goût de la liberté retrouvée.

Mon cerveau analytique a toujours eu tendance, et je pense que les lecteurs réguliers de ce blog en ont bien conscience, à fonctionner par lubies passagères : un jour je me passionne pour un sujet (qu'il s'agisse des géodésiques dans les trous noirs de Kerr ou de de la logique du topos effectif), je me jette à fond dedans, j'y pense sans arrêt, éventuellement j'écris une entrée de blog pour consigner et retenir ce que j'ai appris, puis je m'en lasse aussi soudainement que je m'y étais intéressé. (C'est d'ailleurs un certain handicap, voire un handicap certain, pour faire de la recherche, qui demande plus de l'endurance que des efforts intenses et brefs ; ou du moins c'est un handicap contre une conception un peu étroite de la recherche, mais j'en ai déjà parlé.)

Le Covid-19 a suivi ce phénomène, encore plus fortement que mes lubies habituelles : en même temps que l'épidémie déferlait sur la France, puis s'estompait mystérieusement, je n'arrivais plus à penser qu'à l'épidémiologie, et maintenant je n'ai plus du tout envie d'y penser. (Heureusement, comme on le sait, j'ai quand même eu le temps de braindumper des choses sur ce blog : notamment ici et pour celles qui ont le plus de chances de pouvoir avoir un intérêt durable.)

Il y aurait pourtant encore des choses à dire sur le sujet. Ne serait-ce que pour souligner qu'on est toujours dans une très grande ignorance : à part qu'il y a maintenant un peu plus de clarté sur les modes de transmission (les Japonais avaient raison : les conditions vraiment dangereuses sont à la conjonction des trois C : endroits clos mal ventilés, personnes serrées, et conversations à proximité ; il y a très peu de contaminations en extérieur ; et la contamination par les surfaces a aussi l'air assez anecdotique), on est toujours aussi ignorant sur à peu près tout le reste. Notamment, malgré ce que tout le monde pourra vous dire, on ne sait vraiment pas ce qui fait que l'épidémie semble s'être arrêtée en Europe après avoir fait finalement si peu de morts (eu égard à ce qui était initialement prévisible) : pourquoi la situation n'est-elle pas exactement la même après la fin du confinement qu'elle l'était à en mars quand il y avait à peu près le même nombre d'infectés ? (Rappelons que ce genre de phénomènes n'a pas d'inertie : le fait qu'on soit sur une pente croissante ou décroissante n'a pas de raison d'impliquer que cette tendance continue ; mathématiquement, on a affaire à des équations différentielles du premier ordre.) Est-ce le résultat de l'immunité acquise par les contaminations (s'il y a eu beaucoup plus d'asymptomatiques, et peut-être des gens naturellement immuns) ? est-ce à cause des changements de comportement de la population ? est-ce à cause du caractère saisonnier du virus (soit par son mode de transmission soit par l'effet de la vitamine D sur le système immunitaire) ? autre chose ? une combinaison de tout ça ? on ne sait pas — et à cause de ça, on ne peut toujours pas prédire s'il y aura une « seconde vague » ou pas. (Et ceux qui vous disent avec certitude qu'il se passera ceci ou cela ont tort quoi qu'ils disent : ils ont peut-être raison dans ce qu'ils prévoient mais ils ont tort dans leur certitude.) On ne sait même pas si le confinement a réellement servi à quoi que ce soit. (Si le simple fait de porter des masques dans les endroits intérieurs où il y a du monde suffit à avoir un nombre de reproduction <1, c'est un peu bête d'avoir mis le pays en quarantaine pendant deux mois.) Je me suis dit que j'allais écrire une entrée de blog sur ce sujet, pour détailler ce que je viens de dire dans ce paragraphe… mais en fait je n'arrive plus à m'y intéresser et ce serait même douloureux de le faire.

Parce que c'est ça, aussi, le problème de mesures extrêmes comme le confinement : à la fin, les gens n'en peuvent plus. Ce n'est pas juste que je n'ai plus envie de parler d'épidémiologie ou de Covid-19, je n'ai plus envie d'y penser, j'ai d'autant plus envie de retrouver ma vie « normale », quitte à faire semblant que cette maladie n'a jamais existé, que j'en ai été trop privé.

Bon, maintenant, l'autre problème, c'est que toutes les choses que j'ai mis de côté pendant le confinement, soit parce que je n'avais pas la possibilité de les faire, soit parce que j'avais pas la force psychologique de les faire, me sont retombées dessus quand cette possibilité et cette force psychologique me sont revenues. (J'avais complètement arrêté de lire mes mails professionnels, par exemple, et ça a été particulièrement pénible à rattraper. Surtout quand j'ai découvert que ladite boîte mail était envahie d'engueulades, via une mailing-list de chercheurs en crypto et sécurité informatique dont je ne savais même pas que je faisais partie, au sujet de l'application StopCovid. Je ne vais pas parler de celle-ci, mais si ça vous intéresse je vous recommande de suivre Gaëtan Leurent sur Twitter, c'est un ami, par ailleurs connu pour son travail sur la cryptanalyse des fonctions de hachage.)

J'ai dû, par exemple, prévoir des examens pour trois cours que je donnais à Télécom Paris (théorie des langages, courbes algébriques et théorie des jeux), sous forme de QCM individuels parce que c'est la seule forme qui marche plus ou moins si on ne peut pas surveiller, mais ça prend un temps invraisemblable à préparer, ce genre de choses.

Par ailleurs, j'ai toujours un appartement à vendre (il a fallu le vider et le nettoyer un peu ; nous avions fait venir un peintre pour un petit rafraîchissement et tout a été mis en pause pendant le confinement), ce qui prend aussi beaucoup de temps et occasionne beaucoup de stress. J'ai notamment découvert que si on met une annonce immobilière sur Le Bon Coin, on est immédiatement harcelé par les agences qui vous assurent pouvoir vendre votre bien, mais assez peu de particuliers ; et que, par contre, si on confie le bien à une agence, ben elle ne fait plus grand-chose. Bref.

Et le temps qu'il me restait, j'avais surtout envie de profiter de la liberté. Et pour ça, j'ai fait pas mal de balades en forêt avec mon poussinet. Et pas mal de balades à moto de mon côté (un peu plus de 2000km entre le 12 mai et le 21 juin, ce n'est pas énorme, mais vu que j'avais roulé que 3000km depuis que je l'avais achetée jusqu'au confinement, ça représente un certain changement de rythme). Avec d'autant plus de plaisir que, il y a un an, j'avais raté le permis, du coup je n'avais pas pu faire les balades que j'espérais pendant les quelques mois où c'est le plus agréable. Samedi dernier, notamment, je suis allé à la Roche-Guyon (qui était vraiment bondé de motards), et j'ai ensuite suivi la vallée de l'Epte jusque vers le point triple Île-de-France, Normandie, Hauts-de-France ; [Carte d'itinéraire de balade en moto]et dimanche dernier j'ai entraîné un (tout) petit groupe recruté sur motards-idf.fr sur un circuit autour de la forêt de Rambouillet et des plus beaux coins que je connais dans la banlieue sud-ouest (cf. la carte ci-contre : Buc → Versailles → Rennemoulin → Chavenay → Beynes → Mareil-le-Guyon → Montfort-l'Amaury → Grosrouvre → Gambais → Saint-Léger-en-Yvelines → Le Perray-en-Yvelines → Vieille-Église-en-Yvelines → Saint-Benoît → Auffargis → vaux de Cernay → La Celle-les-Bordes → Bullion → Val-Saint-Germain → Saint-Maurice-Montcouronne → Courson-Monteloup → Briis-sous-Forges → les Molières → Choisel → Dampierre-en-Yvelines ; j'avais ensuite prévu → Saint-Lambert-des-Bois → Milon-la-Chapelle → Courcelles-sur-Yvette → Villiers-le-Bâcle → Buc, mais on a un peu changé parce qu'il s'est mis à pleuvoir ; je suis très content de cet itinéraire, et je le recommande).

Bref, tout ceci explique que je n'ai rien écrit sur ce blog pendant tout ce temps. Même s'il me reste encore un certain nombre de choses à faire ou à finir de faire (et que je compte faire encore plein de balades), je pense avoir un peu plus de temps au cours des prochaines semaines, donc je vais reprendre progressivement, probablement pour ne plus parler de Covid-19 sauf si j'arrive à me faire violence pour écrire encore un peu sur le sujet.

↑Entry #2655 [older| permalink|newer] / ↑Entrée #2655 [précédente| permalien|suivante] ↑

↓Entry #2654 [older| permalink|newer] / ↓Entrée #2654 [précédente| permalien|suivante] ↓

(samedi)

Quelques considérations de graphes aléatoires pour l'épidémiologie

Même si mon moral est moins mauvais, je continue à avoir beaucoup de mal à faire autre chose que de l'épidémiologie. Du coup, je vais en parler encore une fois, pour présenter une approche différente du calcul du taux d'attaque, qui permet cette fois-ci d'illustrer (par des considérations théoriques plutôt que des simulations numériques) certains effets d'hétérogénéité. (Il s'agit d'une traduction+développement de ce que j'ai écrit dans ce fil Twitter [lien direct Twitter] ainsi que celui-ci [lien direct Twitter], et secondairement, de ce fil [lien direct Twitter] plus ancien.) Mais je commence par quelques remarques d'ordre méta sur ces effets d'hétérogénéité et les épidémiologistes de fauteuil (si ça ne vous intéresse pas, sautez après).

On (un des auteurs !) a enfin fini par me pointer du doigt un livre (et donc une référence citable !) où étaient traitées les probématiques épidémiologiques qui me préoccupaient : il s'agit de Mathematics of Epidemics on Networks (From Exact to Approximate Models) d'István Z. Kiss, Joel C. Miller et Péter L. Simon (Springer 2017). Non seulement il traite exactement tout ce que je voulais voir traité, mais la présentation est vraiment très agréable pour le mathématicien que je suis : les énoncés sont précis, les approximations sont expliquées avec soin, les notations ne sont pas trop pénibles, bref, je le recommande très vivement. (Quel dommage que toutes les bibliothèques soient fermées… Si seulement il y avait un site web — qui pourrait par exemple porter le nom en anglais d'une bibliothèque et du premier livre de la Bible — où on pourrait trouver les PDF de ce genre de choses. Ah non, zut, ce serait illégal, parce qu'on a des lois à la con qui empêchent la diffusion des connaissances. Mais pardon, je digresse.)

Il y aurait peut-être à analyser la raison pour laquelle j'ai réussi à passer à côté de cet excellent ouvrage jusqu'à tout récemment. (Il est possible qu'on me l'ait déjà suggéré et que je sois quand même passé à côté de la suggestion, parce que le mot networks ne m'inspirait pas : en fait, il s'agit de graphes, il y a apparemment des gens qui, parce qu'ils ont une approche un peu différente, parlent de réseaux pour parler de graphes, et notamment de graphes aléatoires, ce qui est leur droit mais ça ne facilite pas la communication. J'aimerais quand même bien comprendre, par exemple, pourquoi si on recherche Galton-Watson "attack rate" dans Google, les deux premières réponses sont de moi, alors que ça a quand même l'air d'être des termes très naturels à rechercher dans le contexte de la propagation des épidémies, et d'ailleurs le livre que je viens de mentionner devrait être dans les résultats, et beaucoup plus haut qu'un tweet à moi.) Mais je ne vais pas m'étendre là-dessus, en tout cas pas maintenant.

Bref, toujours est-il que j'ai été soulagé de voir que tout un tas de phénomènes que je voulais voir étudiés, et que j'avais au moins en partie redécouverts, comme ce que je vais décrire ci-dessous, étaient effectivement étudiés quelque part, et que j'aurai des références citables à montrer. J'ai l'habitude de redécouvrir des résultats connus, je dirais même que ça fait partie du fonctionnement normal de la science, et quand je l'apprends je suis plutôt content que mon intuition ne soit pas complètement à côté de la plaque.

En revanche, je demeure perplexe quant au fait que ces phénomènes soient bien connus ou non des épidémiologistes. Il y a deux prépublications qui sont sorties récemment, une sur l'arXiv (par des matheux) et une autre sur medRxiv (par des épidémiologistes plus médecins, ça se voit au fait qu'ils déposent sur medRxiv et n'utilisent pas TeX ☺️), qui font tous les deux la même observation, évidemment formulée et argumentée de façon plus précise, que j'écrivais dans cette entrée de blog ou de façon concise dans ce tweet (en mars) : l'épidémie va atteindre, et donc immuniser, les personnes les plus connectées en premier, ce qui fait que l'hétérogénéité des contacts contribue à réduire le seuil d'immunité à partir duquel elle se met à régresser (le premier de ces documents calcule 43%, ce qu'il ne faut pas, à mon avis, prendre comme une prédiction mais comme un ordre de grandeur grossier de l'effet qu'on peut attendre). D'un côté, il semble que ce type d'effet ait été étudié depuis 1980 (au plus tard). Mais de l'autre, un épidémiologiste renommé (Marc Lipsitch) semble considérer que c'est intéressant et vaguement nouveau, et il y en a qui n'ont pas reçu le message (et ce n'est qu'un exemple parmi d'autres où j'ai vu affirmer, y compris de la part de personnes qui sont des épidémiologistes ou qui ont une formation proche, que puisque R₀~3 on doit atteindre ~70% d'immunisés pour que l'épidémie régresse). Donc il y a, au minimum, un problème de communication. Ce n'est pas très grave, maintenant j'ai au moins quelque chose d'un peu plus crédible (un PDF !) à citer pour contester cette idée (et le fait que Marc Lipsitch prenne ça au sérieux est bien puisque c'est lui qui est à l'origine, d'avoir popularisé le chiffre de 70% comme taux d'attaque, même s'il l'a immédiatement nuancé). Mais ça reste un peu pénible d'avoir l'impression d'être le crackpot qui vient contredire les experts qui ont dit que c'était 70%. (Un peu quand comme l'OMS a fait une communication un peu hâtive en affirmant qu'il n'y avait aucun signe que l'infection par le Covid-19 confère une quelconque forme d'immunité, alors que quand même, si, il y a des raisons de le penser : ce n'est vraiment pas une position confortable que de tenir le discours je ne suis pas du tout médecin, mais je vais quand même remettre l'OMS à sa place sur une question de médecine. Bon, je digresse encore.)

PS : D'ailleurs, on me souffle que j'ai peut-être contribué à diffuser ces idées. Tant mieux si c'est le cas.

[Taux d'attaque d'une épidémie avec R₀=2.5 en fonction de l'écart-type du nombre de contacts]J'en viens à ce dont je voulais vraiment parler : un modèle basé sur la percolation dans des graphes aléatoires et permettant de modéliser (de façon simpliste !) la manière dont la variance du nombre de contacts infectieux modifie le taux d'attaque d'une épidémie à nombre de reproduction R₀ donné. C'est ce que représentent les courbes ci-contre, en l'occurrence pour R₀=2.5 (contacts infectieux par individu en moyenne), avec l'écart-type σ du nombre de contacts infectieux en abscisse, et en ordonnée le taux d'attaque prédit (en bleu par un modèle basé sur un graphe orienté, en rouge par un modèle symétrique) : je veux expliquer un peu comment lire ces courbes et comment elles ont été calculées.

L'idée est qu'on va modéliser l'épidémie non plus comme un processus dynamique traduit par une équation différentielle (comme dans le modèle SIR classique ou une équation différentielle à délai comme dans la variante que j'avais étudiée plus tard) mais comme un parcours (un phénomène de percolation) dans un « graphe infectieux ». L'avantage est de pouvoir modéliser des phénomènes un peu plus fins, ici l'hétérogénéité des contacts ; l'inconvénient est qu'on perd complètement la notion du temps, toute la dynamique de l'épidémie, il faut faire l'hypothèse (évidemment irréaliste en vérité — mais forcément pessimiste) que cette dynamique ne change pas au cours du temps (notamment, le nombre de reproduction est une constante), et on ne peut que calculer une seule chose, à savoir le taux d'attaque final, c'est-à-dire la proportion de la population qui se fait infecter (sans qu'on puisse dire quand). Comme j'aime bien le rappeler, quand on a affaire à un phénomène complexe, il faut multiplier les approches, étudier une complexité à la fois, essayer des modèles simples, voire simplistes, qui permettent de bien cerner l'effet de chacune de ces complications, avant d'envisager un modèle plus complexe et réaliste. Donc ici on supprime la complication « dynamique » et on rajoute la complication « hétérogénéité » (mais on va heureusement trouver la même prédiction lorsque les deux complications sont absentes ! à savoir le taux d'attaque final prédit par le modèle SIR au point que j'appelle le point de Poisson dans ce qui suit). Dans tous les cas, on travaille sur des hypothèses simplistes sur le fait que l'immunité acquise est permanente : une fois un individu rétabli, il cesse d'être infectieux et ne pourra plus le redevenir.

Je rappelle, donc, que le modèle SIR classique prédit, pour un nombre de reproduction R₀=κ (j'utiliserai de façon quasi interchangeables les notations R₀ et κ ici), un taux d'attaque (= proportion de la population qui est infectée à la fin de l'épidémie) donné par la formule exacte 1 + W(−κ·exp(−κ))/κ où W est une fonction spéciale (la fonction transcendante W de Lambert, ou logarithme-produit), et approximativement 1 − exp(−κ) pour κ grand (et 2(κ−1) si κ est juste un peu supérieur à 1). Il prédit aussi un pic épidémique avec un taux d'attaque à ce moment (qu'on appelle le seuil d'immunité grégaire) à 1 − 1/κ, mais ce n'est pas celui qui va m'intéresser ici (il va juste recevoir une mention au passage), c'est vraiment le taux d'attaque final que je veux : entre les deux il y a un overshoot, simplement parce que l'épidémie continue à progresser même si elle est en phase de ralentissement.

Ici on va faire complètement autrement : on définit un graphe de contamination (commençons par la variante orientée), dont les sommets sont les individus de la population considérée, et avec la propriété que les personnes infectées par l'épidémie sont toutes celles qui sont atteignables depuis le « patient zéro » x₀, i.e., tous les z pour lesquels il existe un chemin orienté, représentant une chaîne de contamination possible, x₀ → x₁ → ⋯ → z, dans le graphe. La définition exacte de ce que sont les arêtes xy du graphe est un petit peu épineuse : ce ne sont pas juste les contacts potentiels, ni même les contacts réels, ni les contacts réels potentiellement infectieux, mais les contacts potentiellement infectieux pendant une période d'infectiosité de x, je vais y revenir. Le fait est que le nombre moyen d'arêtes xy sortant d'un sommet x, i.e., le degré sortant moyen (moyenné sur l'ensemble des sommets), et qui est aussi le nombre moyen d'arêtes xy aboutissant à un sommet y, i.e., le degré entrant moyen, est ce qu'on appelle le nombre de reproduction κ=R₀, de l'épidémie. L'idée est donc de chercher des moyens de calculer le taux d'attaque, c'est-à-dire la proportion des sommes accessibles depuis x₀, en fonction du degré moyen et d'informations sur la distribution des degrés (entrants et/ou sortants) : pour ça, bien sûr, il faut faire des hypothèses sur la manière dont le graphe est construit, selon un modèle de graphe aléatoire. Sauf qu'en fait, on ne construit pas vraiment le graphe (qui de toute façon est aléatoire, donc pas très intéressant), on utilise des résultats venus des probabilités, de la théorie des graphes aléatoires, qui donnent des informations sur la taille des composantes de graphes aléatoires, et notamment des formules pour calculer (l'espérance de) la taille de la « composante géante », en fonction de la distribution des degrés utilisée en entrée du modèle de graphe aléatoire. Au final, il y a une formule assez simple (que je vais expliquer) permettant de calculer cette taille d'après la fonction génératrice de la distribution de probabilité des degrés ; puis il faut faire une hypothèse sur la distribution utilisée permettant de jouer sur la variance.

Pour résumer, on modélise conceptuellement l'épidémie par un graphe « qui contamine qui », on fait l'hypothèse que ce graphe ressemble à un graphe aléatoire construit selon un certain modèle de graphe aléatoire faisant intervenir une distribution de probabilité sur les degrés (entrants et/ou sortants) des sommets, on a une formule permettant, dans ce cadre, de calculer le nombre attendu de sommets qui seront accessibles depuis x₀, et on applique cette formule à une distribution de probabilités dont on peut ensuite faire bouger la variance.

Une distribution de probabilités qui va jouer un rôle proéminent ici est la distribution de Poisson qui correspond à la variance σ²=κ (sur mes courbes ci-dessus, c'est le point (1.581, 0.893) où les courbes rouge et bleue se croisent : σ=1.581 est la racine carrée de κ=2.5), et dont il va donc falloir que je reparle. Je souligne d'ores et déjà son importance, d'une part parce que c'est le point où on retrouve le taux d'attaque (89.3% pour un nombre de reproduction de 2.5) prédit par le modèle classique SIR, et d'autre part parce que ça a été une source de confusion fréquente quand j'ai parlé de cette histoire, les gens s'imaginent que si tout le monde se comporte de la même manière les degrés ont une variance nulle (et me demandent pourquoi mes courbes donnent 1 en σ=0) alors que la variance « de base », si j'ose dire, c'est celle de la distribution de Poisson (on peut aller en-dessous mais c'est bizarre). Un autre point qui va jouer un rôle, plus secondaire, c'est celui qui correspond à la distribution géométrique, donnant la variance σ²=κ(κ+1) (soit σ = √(κ(κ+1)) ≈ κ, ce qui peut entraîner une confusion avec la distribution de Poisson !), (2.958, 0.600) sur ma courbe bleue, pour l'instant je me contente de le mentionner pour qu'on ne le confonde pas avec l'autre.

Je précise que je vais commettre des approximations mathématiques dans ce qui suit, qui me vaudraient certainement les foudres de Nicolas Bourbaki. À titre d'exemple, comme je considère un graphe avec un nombre très important de sommets (auquel je ne vais même pas me fatiguer à donner un nom), je vais confondre allègrement le degré moyen d'un sommet et l'espérance de la distribution selon laquelle les degrés ont été tirés, ou bien la variance du degré avec la variance de la distribution de probabilités selon laquelle ils sont tirés : cette confusion dans l'exposition est motivée par la loi des grands nombres, mais à la limite ce n'est même pas le problème, ici (de toute façon, ce qui compte est bien l'espérance et la variance de la distribution à partir de laquelle on a tiré les degrés, le graphe lui-même n'est pas intéressant, il n'importe que pour l'intuition) ; et je commettrai des approximations bien plus graves que ça et des « démonstrations » en agitant les mains : je fournirai cependant des pointeurs vers des théorèmes mathématiques plus précis.

Reprenons. On veut ignorer complètement le temps qui passe (mais bien sûr obtenir quand même une description correcte de l'état final !, en faisant l'hypothèse que la dynamique reste constante dans le temps) et modéliser l'épidémie par un graphe de contamination. (Considérer ce graphe suppose qu'on laisse, conceptuellement, l'épidémie se dérouler jusqu'à son terme, et on peut ensuite définir le graphe et calculer des choses dessus.) Quel est ce graphe, au juste ? (Je commence par le cas orienté, parce qu'il me semble plus naturel et plus simple à décrire.)

Les sommets du graphe (je dirai parfois aussi les nœuds) sont les individus. Mais la définition d'une arête xy est un peu subtile. Si x est infecté au cours de l'épidémie, alors les arêtes xy sortant de x pointent vers les individus y qui ont été contaminés par x ou qui seraient contaminés s'ils sont effectivement susceptibles (si y est déjà infecté, ou déjà immun, on fait quand même pointer une arête xy s'ils ont un contact tel que y aurait été infecté s'il n'était pas déjà infecté ou immun). Autrement dit, il s'agit des contacts potentiellement infectieux qu'a x au cours de sa période d'infectiosité. Mais si x n'est jamais infecté, on va quand même définir des arêtes xy : pour ça, on choisit une période d'infectiosité typique (c'est-à-dire selon la loi de probabilité que suit effectivement l'infectiosité des personnes infectées) pour x, et on trace les contacts qui seraient infectieux pendant cette période si x était infectieux. Ça peut sembler vraiment bizarre de faire ça, mais je vais expliquer la raison.

Bref, une arête du graphe, et je dirai simplement un contact infectieux xy, est un contact entre x et y qui ① a lieu pendant une période d'infectiosité typique pour x, et, si x est effectivement infecté à un moment donné, sa période d'infectiosité réelle, ② peu importe que y soit susceptible (=infectable) ou non, et ③ qui rendrait y infecté si y était susceptible.

Pourquoi cette définition tarabiscotée (que j'ai mis beaucoup de temps à éclaircir dans ma tête) ? Si on s'intéresse à la propagation de l'épidémie, pourquoi ne pas simplement mettre une arête xy si x infecte y et basta ? La raison est que dans ce cas le graphe ne ressemblerait pas à un graphe aléatoire facilement modélisable : les personnes infectées tard dans l'histoire de l'épidémie en infectent moins autour d'eux parce que plus de gens autour d'eux sont immuns, donc le degré des sommets loin de x₀ serait plus faible que celui des sommets proches de x₀ et cela rendrait le calcul plus difficile à modéliser (comme chaque y aurait au plus une arête entrante, le degré entrant moyen serait exactement le taux d'attaque qu'on cherche à calculer ! au lieu que ce soit le nombre de reproduction à partir duquel on cherche à mener le calcul) : on préfère avoir une arête xy même si y n'est plus infectable, de façon à ce que chaque x infecté ait le même degré sortant typique (aux hétérogénéités intrinsèques près, qu'on cherche justement à étudier !), et il reste vrai que les sommets accessibles à partir de x₀ sont les personnes qui se font infecter ; ceci explique qu'on ne se limite pas aux y qui sont susceptibles. Quant qu fait qu'on ne se limite pas aux x qui sont effectivement infectés, la raison est analogue : on veut pouvoir raisonner sur le degré moyen sans avoir à distinguer les individus infectés et ceux qui ne le sont pas (puisque le but est justement de calculer la proportion qui se fait infecter, on ne veut pas avoir à la connaître a priori). Comme on a fait l'hypothèse d'indépendance du temps qui assure que le nombre de personnes potentiellement infectées par x ne dépend pas de la période infectieuse choisie, seulement de sa durée, on peut prendre une période essentiellement quelconque (mais si x est effectivement infecté, on prendra la vraie pour pouvoir relier ce graphe à la réalité).

Bref, la définition du graphe étant posée, les personnes effectivement infectées sont celles qui sont accessibles depuis le patient zéro x₀ (ou, en fait, depuis un sommet « typique ») par un chemin menant jusqu'à elle.

Je rappelle que le degré sortant d'un sommet x dans un graphe orienté est le nombre de ses voisins sortants, c'est-à-dire le nombre d'arêtes xy partant de x (en disant ça je suppose implicitement que mon graphe n'a pas d'arêtes multiples : je n'ai pas été terriblement clair à ce sujet dans la définition des arêtes, mais ce n'est pas très important parce que mon modèle de graphe aléatoire ne va pas en produire pour un nombre important de sommets : je travaille toujours dans des conditions de « mélange parfait » des individus). Symétriquement, le degré entrant d'un sommet u est le nombre de ses voisins entrants, c'est-à-dire le nombre d'arêtes xy aboutissant à y.

Le degré sortant de x est donc le nombre de personnes contaminées par x, ou qui le seraient si elles étaient effectivement susceptibles, dans la mesure où x est effectivement infectieux à un moment donné (et si ce n'est pas le cas, on fait comme s'il l'était, et on compte sur une période arbitraire). Le degré entrant de y est le nombre de personnes qui contamineraient y si elles sont effectivement infectieuses et que y est encore susceptible à ce moment, mais en comptant aussi les personnes non infectieuses (pendant une période d'infectiosité arbitrairement choisies pour elles).

Voici un fait évident mais essentiel : le degré sortant moyen égale le degré entrant moyen. (C'est un argument que les matheux appellent un double comptage : on compte les arêtes soit en les regroupant par leur source, soit en les regroupant par leur cible.) Ce nombre moyen s'appelle le nombre de reproduction de l'épidémie (normalement il y a un nombre de reproduction en fonction du temps, mais ici je fais justement l'hypothèse d'une dynamique stationnaire), noté R₀ et que je préfère noter κ.

En revanche, si on ne peut pas étudier les variations en fonction du temps, on peut étudier les variations entre individus, les écarts à la moyenne, c'est-à-dire, la variance. Je rappelle que la variance σ² (d'une quantité, resp. variable aléatoire) est la moyenne (resp. espérance) des carrés des déviations à la moyenne (resp. espérance), et que l'écart-type σ est la racine carrée de la variance, c'est-à-dire la moyenne quadratique des écarts à la moyenne. Plus la variance (ou ce qui revient au même, l'écart-type) est élevée, plus les valeurs tendent à être dispersées autour de la moyenne.

Bref, même si R₀=2.5 signifie que chaque personne est la source (ou la cible !) de 2.5 contacts infectieux en moyenne, certains en feront moins (ou pas du tout) et d'autres en feront plus. Une variance de 0 signifierait que tout le monde en fait exactement autant (ce qui, s'agissant de 2.5, est manifestement impossible).

Les individus ayant un degré sortant nettement plus élevé que la moyenne (et qui sont effectivement infectieux) ont été appelés supercontaminateurs : leur existence augmente la variance des degrés sortants. Bien sûr, avoir des gens qui en contaminent beaucoup d'autres augmente aussi la moyenne ! Mais à moyenne donnée fixée, une variance élevée signifie qu'il y a des supercontaminateurs et, forcément, des subcontaminateurs (voire non-contaminateurs).

Ce qui peut être surprenant est que ⓐ bien que les degrés sortants et entrants aient la même moyenne, leur variance n'a aucune raison de coïncider et leur distribution n'a pas de rapport particulier à part la moyenne, et ⓑ bien que l'épidémie se propage en suivant les arêtes orientées, donc d'un sommet vers ses voisins sortants, c'est pourtant la variance et la distribution des degrés entrants qui importe pour calculer le taux d'attaque (la propagation ultime). Je vais essayer plus bas d'expliquer pourquoi.

(La variance et distribution des degrés sortants est importante pour quelque chose d'autre, à savoir la probabilité de non-extinction de l'épidémie. Il existe, en fait, une symétrie parfaite entre degrés entrants et taux d'attaque d'une part et degrés sortants et probabilité de non-extinction de l'autre : en effet, le taux d'attaque est la proportion des sommets accessibles depuis un ensemble raisonnable de sommets initiaux, alors que la probabilité de non-extinction est la proportion de sommets (pouvant servir de patient zéro) depuis lesquels on peut atteindre un ensemble raisonnable de sommets finaux. Mais on parle ici d'une épidémie qui, de toute évidence, ne s'est pas éteinte rapidement, donc les degrés sortants ne nous intéressent plus.)

On peut donc être amené à s'intéresser, plutôt qu'aux supercontaminateurs (dont le degré sortant est très élevé), aux supersusceptibles(?), c'est-à-dire les personnes dont le degré entrant est très élevé. J'ai attiré l'attention sur ce concept dans un fil Twitter [lien direct Twitter] un peu ancien, mais le concept a été mal compris (il est vrai qu'il est subtil !), on a pensé que je disais que les supersusceptibles étaient un problème, ou quelque chose dont on doit s'inquiéter, ou sur quoi on devrait essayer d'agir : donc rappelons que dans la mesure où on parle de l'effet de la variance à moyenne donnée (on varie un paramètre à la fois, merci !), si on augmente le nombre de supercontaminateurs ou de supersusceptibles, on augmente aussi le nombre de subcontaminateurs ou subsusceptibles.

Le concept de degré sortant d'une personne x est assez clair. Le concept de degré entrant de y est plus subtil, parce que l'existence d'une arête xy dépend du fait que x (et pas y) est dans sa phase infectieuse, ce qui n'est pas vraiment du ressort de y. Néanmoins, bien sûr, il y a des caractéristiques de y qui vont jouer sur ce degré. D'abord simplement le nombre de contacts de y : si quelqu'un a beaucoup de contacts, son degré entrant comme sortant va avoir tendance à être plus élevé (mais cette symétrie va être une raison de se pencher éventuellement sur des graphes non-orientés où la distinction entre degré entrant et sortant disparaît). Ensuite, il peut y avoir des différences de comportement jouant de façon partiellement asymétrique : certains sont plus attentifs à l'hygiène ou à la distanciation sociale : cela peut jouer sur les degrés entrant et sortant (si ces mesures évitent de contaminer les autres comme d'être soi-même contaminé) ou seulement l'un (et on peut imaginer que beaucoup de gens cherchent avant tout à se protéger : quelqu'un qui porte un masque FFP2 avec valve dès qu'il sort va sans doute avoir un degré entrant beaucoup plus faible que sortant). Enfin, il peut y avoir des raisons médicales : pour certaines infections (et je ne sais pas si c'est le cas du Covid-19), il y a des individus beaucoup plus susceptibles que d'autres, c'est-à-dire facilement infectés, comme il peut y avoir des individus beaucoup plus infectieux : ceci va jouer respectivement sur les degrés entrants et sortants.

Mais il y aussi une forme de variance « basique » (intrinsèque, naturelle), et qui est celle d'un processus de Poisson : il faut que je souligne ça, parce que ça a causé une certaine confusion, plusieurs personnes m'ayant posé des questions au sujet du point σ=0 de mes courbes, pensant spontanément (et c'est naturel) que si tout le monde se comporte de la même manière, on obtient σ=0, alors qu'en fait on obtient la variance de Poisson σ²=κ. Expliquons informellement ce qu'est un processus de Poisson : imaginez que vous ayez un million de personnes et un million de boîtes, et vous demandez aux gens de mettre des boules, autant qu'ils veulent, tirées d'un énorme sac, dans des boîtes, comme ils veulent. On observe que chaque personne place 2.5 boules en moyenne dans l'ensemble des boîtes : c'est le degré sortant moyen ; donc chaque boîte contiendra en moyenne 2.5 boules (degré entrant moyen). Mais même si les boîtes sont absolument identiques et que les participants les choisissent aléatoirement (uniformément), il y aura (évidemment !) des variations aléatoires dans le nombre de boules dans les boîtes. En fait, le nombre de boules dans une boîte suivra (asymptotiquement) une distribution de Poisson de moyenne 2.5 et de variance σ²=2.5. On peut prendre ça comme définition d'un processus de Poisson de moyenne κ : si on place N·κ boules aléatoirement (uniformément et indépendamment) dans N boîtes, le nombre de boules dans une boîte suivra, dans la limite N→∞, une distribution de Poisson de moyenne κ (et sa variance égale sa moyenne). Maintenant, si certaines boîtes sont plus attirantes que d'autres (et donc certaines moins attirantes), cela augmentera la variance, mais pour passer en-dessous de la variance de Poisson, il faut quelque chose d'inhabituel (par exemple, que les gens regardent à l'intérieur des boîtes pour faire leur choix).

Pour une épidémie, si les gens se comportent tous à l'identique et se font contaminer au hasard, on obtient donc une distribution de Poisson sur les contacts infectieux reçus, et σ²=R₀. Faire moins de variance que ça serait bizarre et peu naturel pour une épidémie. (Mais je donne quand même un exemple : l'« infection par la mortalité », où (presque ?) tout le monde se fait infecter par exactement deux personnes, ses parents, donc R₀=2 (dans une population stationnaire), σ=0, et le taux d'attaque est de 100% puisque tout le monde est mortel ; le graphe est simplement l'arbre généalogique de la population. Noter que si la variance des degrés entrants est nulle, celle des degrés sortants est probablement élevée, je la soupçonne d'être nettement au-dessus de celle du processus de Poisson.)

Bref, le point où σ²=R₀ (soit (1.581, 0.893) sur les courbes que j'ai tracées), avec la famille de distributions que je dois encore expliquer, est ce que j'appellerai le point de Poisson : tout le monde se comporte de façon identique, les contacts sont aléatoires, les degrés entrants sont distribués selon un processus de Poisson, et le taux d'attaque qu'on trouve (par le mode de calcul que je dois encore expliquer !) coïncide avec le taux d'attaque 1 + W(−κ·exp(−κ))/κ prédit par le modèle SIR classique (ou sa variante à rétablissement en temps constant), et ce n'est pas un hasard, on peut construire un modèle (SIR sochastique en temps continu sur un graphe complet de taille tendant vers l'infini) qui relie ces deux description (l'espérance de la proportion de sommets contaminés suivra les équations différentielles du SIR classique, tandis que le graphe des contaminations reproduira le modèle que je cherche à décrire ici, ce qui fait le pont entre les deux).

Maintenant, il n'y a pas que la variance des degrés sortants qui importe, il y a la distribution précise des degrés, et il y a en plus, comme toile de fond, le modèle de graphe aléatoire. [Je suis un peu embêté pour décider dans quel ordre raconter tout ça, donc je vais suivre l'ordre de mes fils Twitter, quitte à me répéter, en disant d'abord les choses de façon plus informelle, puis en rentrant dans plus de détails mathématiques.]

J'ai choisi une famille de distributions (sur les entiers naturels) qui permette de faire bouger la variance σ² (ou ce qui revient au même, l'écart-type σ, qui sert d'abscisse pour mes courbes) à espérance κ donnée, et qui inclut la distribution de Poisson qui est manifestement de la plus grande importance ici, comme cas limite, et inclut aussi la distribution géométrique dont j'ai des raisons de penser qu'elle est aussi assez naturelle, comme cas particulier : il s'agit de la famille des distributions binomiales, ou plus exactement, la distribution binomiale pour σ²<κ, et la distribution binomiale négative (ou de Pólya) pour σ²>κ (avec Poisson comme cas limite σ²=κ, et géométrique comme cas particulier σ²=κ(κ+1)). La partie σ²<κ est un petit peu tirée par les cheveux, mais de toute façon j'ai déjà dit qu'elle n'est pas très naturelle et pas très intéressante : elle est juste incluse pour l'élégance mathématique des courbes.

Bref, la courbe bleue représentée plus haut est un taux d'attaque modélisé comme (l'espérance de) la proportion des sommets accessibles, depuis un sommet x₀ pour lequel cette proportion est importante, dans un graphe orienté aléatoire construit (selon un modèle que je n'ai pas encore décrit précisément) avec une distribution des degrés entrants suivant une des distributions décrites au paragraphe précédent, pour la moyenne κ=2.5 et l'écart-type σ en abscisse. Et la courbe rouge ? C'est la même chose mais avec un graphe non-orienté : c'est la taille de la composante connexe géante d'un graphe aléatoire construit (selon le modèle aléatoire dit de la configuration de Bollobás, ou de Molloy-Reed), avec une distribution des degrés de moyenne κ=2.5 et d'écart-type σ en abscisse toujours dans cette même famille. Je décrirai plus bas comment je fais le calcul en pratique (avec des points fixes de fonctions génératrices).

L'explication intuitive de l'allure des deux courbes l'une par rapport à l'autre, c'est que dans la courbe rouge (graphe non-orienté), si x infecte y, comme tout est symétrique, il y a une probabilité plus élevée que y ait un degré élevé, donc il infectera à son tour plus de sommets, tandis que dans la courbe bleue (graphe orienté), si x infecte y, alors y a une probabilité plus élevée d'avoir un degré entrant élevé, mais les degrés entrants et sortants ne sont pas corrélés, donc il n'y a pas de raison particulière pour que y infecte plus de sommets à son tour.

Les deux modèles sont très simplistes (encore une fois, une complexité à la fois !), mais j'ai tendance à penser que le modèle orienté est plus réaliste pour décrire les effets de la variance due à des raisons médicales intrinsèques (différences de susceptibilité), tandis que le modèle non-orienté serait plus réaliste pour des effets de la variance due à des raisons sociales (où si on a plus de contacts entrants on a aussi plus de contacts sortants).

La question épineuse, bien sûr, c'est de savoir combien de variance il faut attendre. Comme je l'ai dit, on attend au moins à σ²≥κ (la variance de Poisson), i.e., σ≥√κ, mais combien plus ? Je n'en sais rien ! Au-delà du point de Poisson σ²=κ, il y a un autre point qui me semble assez naturel, c'est le point σ²=κ(κ+1) correspondant à une distribution géométrique. Dans le cas des degrés sortants, la distribution géométrique est assez naturelle : le modèle SIR classique suppose que le temps de rétablissement suit une distribution exponentielle, et on obtient alors une distribution géométrique sur les degrés sortants (alors qu'elle reste poissonnienne sur les degrés entrants ! c'est quelque chose qui m'avait causé une certaine confusion). Pour les degrés entrants je ne vois pas vraiment de justification à une distribution géométrique, mais j'observe que la valeur obtenue (pour la courbe bleue, i.e., dans le cas du graphe orienté) à ce point σ=√(κ(κ+1)), coïncide avec la valeur 1 − 1/R₀ prédite comme seuil d'immunité grégaire (= taux d'attaque au maximum des infectés) dans le modèle SIR classique : je n'ai pas d'explication directe à cette égalité, mais ce n'est sans doute pas une coïncidence, et je me dis qu'il y a probablement une explication faisant intervenir la distribution géométrique. En tout cas, ceci suggère que σκ n'est pas un ordre de grandeur déraisonnable.

Notons qu'il n'y a rien d'absurde ou logiquement contradictoire à ce qu'on ait, pour une variable aléatoire positive comme un nombre de contacts, un écart-type σ supérieur à la moyenne κ : cela peut sembler bizarre de dire que chaque personne a 2.5 ± 5.0 contacts infectieux alors que le nombre de contacts est positifs, mais cela signifie simplement qu'il y a des valeurs très élevées et assez de valeurs petites (y compris 0 : les personnes recevant 0 contacts infectieux ne seront, de toute évidence, pas infectées) pour compenser la moyenne. La distribution sera très asymétrique, mais cela peut arriver.

Mais bien sûr, le fait que ce soit logiquement possible ne signifie pas que ce soit réaliste. Je ne sais pas si c'est le cas. Je ne suis ni sociologue ni médecin, et même ceux qui le sont n'ont pas de données précises sur les contacts, encore moins les contacts infectieux : mesurer R₀ est déjà assez dur, la variance sortante sera sans doute plus dur, et la variance entrante encore plus ! Je dirais qu'on ne doit pas s'attendre à avoir σ nettement supérieur à κ(=R₀), mais je ne saurais pas en dire plus.

Bref, mes courbes doivent simplement être prises comme une indication du fait que la variance dans le nombre de contacts a de l'importance, et comme un ordre de grandeur de l'importance possible de cet effet, mais guère plus. Ce n'est certainement pas une prédiction.

J'en viens maintenant à des explications mathématiquement plus précises (mais toujours loin d'être rigoureuses !) sur le calcul des courbes.

Je rappelle que le principe est de modéliser la propagation de l'épidémie par un graphe aléatoire sur lequel on va regarder la proportion des sommets accessibles depuis un sommet x₀ (permettant effectivement d'accéder à une proportion importante de sommets, i.e., dans la composante géante pour le cas non-orienté). On cherche donc des formules permettant de calculer (l'espérance de) cette proportion pour un modèle de graphe aléatoire un peu crédible permettant de spécifier la distribution des degrés entrants et/ou sortants.

Dans le cas non-orienté, ce modèle de graphe aléatoire est classique : c'est le modèle de la configuration (de Bollobás), ou de Molloy-Reed, décrit ici sur Wikipédia. La construction est assez naturelle : partant de l'ensemble des sommets (dont je suppose évidemment qu'il est très grand, je vais vouloir le faire tendre vers l'infini), on tire au hasard (et indépendamment) le degré de chaque sommet selon la distribution imposée, on crée autant d'« amorces » d'arêtes, autour du sommet en question, que ce degré qu'on vient de tirer, puis on crée les arêtes en tirant aléatoirement de façon répétée (uniformément et indépendamment) deux amorces, qu'on remplace par une arête reliant les deux sommets en question. (Il faut éventuellement décider quelque chose pour écarter le cas des arêtes multiples ou des arêtes reliant un sommet à lui-même, mais ce n'est pas important pour un nombre de sommets tendant vers l'infini alors que la distribution est de moyenne (et de variance ?) finie.) Je pense que c'est une façon vraiment intuitive de construire un graphe dont on veut fixer la distribution des degrés (tellement naturelle que je l'ai non seulement redécouverte, mais redécouverte au moins deux fois, et certainement plein de gens l'ont fait, d'ailleurs le fait qu'elle ait plusieurs noms le suggère). La formule permettant de calculer la taille de la composante géante dans ce modèle est « bien connue » et je vais la décrire plus bas.

Dans le cas orienté, je ne sais pas si le modèle a un nom, mais il est à peu près aussi naturel et évident que ce que je viens de dire. Si on veut juste spécifier la distribution des degrés sortants, on peut faire la chose suivante : on tire au hasard (et indépendamment) le degré sortant de chaque sommet selon la distribution imposée, on crée autant d'« amorces sortantes » d'arêtes, autour du sommet en question, que ce degré qu'on vient de tirer, puis on crée les arêtes en tirant aléatoirement de façon répétée (uniformément et indépendamment) une amorces sortante comme source et un sommet aléatoire comme cible, qu'on remplace par une arête reliant la source vers la cible. La distribution des degrés sortants sera celle spécifiée, tandis que la distribution des degrés entrantes sera poissonnienne. Il y a une formule permettant de calculer la proportion de sommets accessibles dans ce modèle depuis un sommet x₀ menant effectivement à une proportion importante de sommets, et la probabilité que ce soit le cas. Symétriquement, on peut spécifier la distribution des degrés entrants. Pour spécifier à la fois les distributions entrante et sortante (de même moyenne), la généralisation évidente consiste à faire la même chose avec des amorces entrantes et sortantes (il faudra bidouiller quelque chose, par exemple conditionner, pour que le nombre total d'amorces entrantes et sortantes coïncide, mais ça ne doit pas être important quand le nombre de sommets tend vers l'infini) : je pense que, sous des hypothèses raisonnables, la même formule marche encore dans ce cadre, mais je n'ai pas de preuve, juste une intuition par analogie avec les cas que je viens de décrire.

Essayons d'être plus précis. Je rappelle que si pi est une distribution de probabilité sur ℕ (c'est-à-dire que p₀,p₁,p₂,… sont des nombres réels positifs de somme 1, où pi est la probabilité ℙ(X=i) que la variable aléatoire X vaille i selon cette loi), la fonction génératrice associée est la série formelle G(z) := ∑i pi·zi dont la valeur en z est l'espérance 𝔼(zX) de zX. Manifestement, G est positive, strictement croissante et strictement convexe, vérifie G(1)=1, et G′(1) = ∑i pi·i est l'espérance 𝔼(X) de la distribution considérée. (On remarquera aussi, à toutes fins utiles, que la donnée de G permet de retrouver les pi, puisque pi est la valeur de la dérivée i-ième de G en 0, divisée par i!.)

Je rappelle aussi ce qu'est un processus de Galton-Watson basé sur une distribution de probabilité pi comme je viens de dire : on construit un arbre aléatoire, en partant de la racine et, pour chaque nœud qui n'a pas encore été traité, en lui donnant (indépendamment de tous les autres) un nombre de fils tiré au hasard selon la distribution spécifiée. La probabilité d'extinction du processus de Galton-Watson est la probabilité que cet arbre soit fini (le processus s'éteint en un nombre fini de générations). Il y a une formule simple pour la calculer : c'est le plus petit point fixe de G, c'est-à-dire le plus petit u tel que G(u)=u (en se rappelant que G(1)=1 et que, par stricte convexité, il ne peut exister qu'au plus deux points fixes, et il est facile de voir qu'il y en a deux si et seulement si G′(1)<1, c'est-à-dire 𝔼(X)<1). Une explication avec les mains est que, si on appelle u la probabilité d'extinction (en partant d'un seul nœud, donc), la probabilité d'extinction en partant de k nœuds est uk, or un nœud a une probabilité pk de donner k nœuds, d'où il résulte (en distinguant selon le nombre de fils de la racine) que u = ∑k pk·uk, c'est-à-dire exactement G(u)=u. Ou, si on préfère, et pour voir que c'est le plus petit, autant faire les choses directement à l'endroit : la probabilité d'extinction en r générations est Gr(0) (où Gr = GG∘⋯∘G est l'itérée r-ième) comme on le voit en distinguant tous les cas selon le nombre de descendants possibles de chaque nœud impliqué, et cette itération répétée converge bien vers le plus petit point fixe.

Ceci étant rappelé, pour un nombre de sommets tendant vers l'infini, le taux d'attaque (c'est-à-dire la taille relative de la composante-sortante-géante) dans le graphe orienté aléatoire dont la distribution des degrés entrants est donnée par les pi coïncide avec la probabilité de non-extinction 1−u du processus de Galton-Watson construit sur la distribution pi en question. Voici une explication intuitive de ce fait : pour déterminer si un sommet aléatoire z est atteint par l'épidémie, on trace en arrière les sommets qui auraient pu le contaminer, c'est-à-dire les voisins entrants de z, puis les voisins entrants de celui-ci, et ainsi de suite à rebours : comme le nombre de sommets est très grand, il s'agit initialement d'un processus de Galton-Watson (on ne retombe pas deux fois sur le même sommet), et la probabilité que ce processus ne s'éteigne pas est la probabilité qu'il atteigne un ensemble géant de sommets, donc le patient zéro. (Symétriquement, la probabilité de non-extinction de l'épidémie coïncide avec la probabilité de non-extinction du processus de Galton-Watson construit sur la distribution des degrés sortants.)

Tout ça est dit de façon extrêmement informel, mais le théorème précis est le théorème 4 de l'article The strong giant in a random digraph de Mathew Penrose, au moins si une des deux distributions impliquées est de Poisson (je conjecture que la généralisation évidente est valable, mais avec mon niveau en probas je n'ai aucun espoir d'arriver à le prouver).

Bref, pour calculer ce taux d'attaque 1−u on a juste à chercher le plus petit point fixe u de la fonction génératrice G de la distribution des degrés entrants.

Qu'en est-il pour le cas non-orienté ? La formule pour la composante connexe géante d'un graphe aléatoire construit selon le modèle de la configuration est très semblable, mais juste un petit peu plus compliquée : on introduit la fonction G₁(z) := G′(z)/G′(1) où G′(z) = ∑i i·pi·zi−1 est la dérivée de G ; c'est-à-dire que G₁ est la fonction génératrice associée à la distribution de probabilités i·pi / (∑j j·pj). Si u est le plus petit point fixe de G₁, la taille recherchée est 1−G(u) — du moins si ceci est >0 c'est-à-dire si u<1. Voici une explication intuitive de ce fait : comme dans le cas orienté, pour déterminer si un sommet aléatoire z est atteint par l'épidémie (appartient à la composante connexe géante), on trace les sommets qui auraient pu l'y mettre, c'est-à-dire les voisins de z, puis les voisins de celui-ci, et ainsi de suite : (pour un nombre de sommets très grand) ceci constitue un processus très semblable à un processus de Galton-Watson, mais avec une différence à la génération racine. En effet, dès lors qu'on a suivi une arête pour arriver à un sommet, ce sommet n'est plus un sommet aléatoire mais un sommet aléatoire pondéré par le fait d'avoir une arête qui y mène, c'est-à-dire choisi avec une distribution de probabilités proportionnelle au degré de chaque sommet, et le degré d'un tel sommet est justement i·pi / (∑j j·pj) dont la fonction génératrice est G₁ : on retrouve donc un processus de Galton-Watsons sur G₁, coiffé par G.

Encore une fois, ceci est très informel, et je n'ai pas parlé de l'hypothèse de criticité (si G₁′(1)<1, il n'y a pas de composante connexe géante). Un théorème précis est énoncé dans l'article The Size of the Giant Component of a Random Graph with a Given Degree Sequence de Molloy & Reed (théorème 1), mais le décodage en ce que je viens de dire n'est pas complètement évident. Pour une discussion plus lisible et plus informelle, je renvoie à Random graphs with arbitrary degree distributions and their applications de Newman, Strogatz & Watts (ils donnent aussi des résultats sur les graphes orientés, mais sans preuve ni référence à une preuve, et je n'ai pas l'impression qu'il y ait le cadre que j'ai évoqué ci-dessus).

Bref, pour calculer ce taux d'attaque 1−G(u) on a juste à chercher le plus petit point fixe u de la fonction G₁ dérivée-renormalisée de la fonction génératrice G de la distribution des degrés, et appliquer G.

À ce stade, on peut complètement oublier les graphes et travailler avec les fonctions génératrices :

  • La distribution de Poisson d'espérance κ a pour variance σ²=κ, et est donnée par pi = exp(−κκi/i!, ce qui correspond à la fonction génératrice G(z) = exp(−κ(1−z)), et on a G₁(z) = G(z) = exp(−κ(1−z)). Pour κ≥1, le plus petit point fixe u de G (ou de G₁, du coup), est −W(−κ·exp(−κ))/κ (avec pour W la fonction de Lambert), ce qui donne le taux d'attaque 1−u = 1 + W(−κ·exp(−κ))/κ, qui est le même que prédit par le modèle SIR classique. (Pour κ≤1, le plus petit point fixe de G est 1, le taux d'attaque prédit est 0 : l'épidémie ne peut pas démarrer.)
  • La distribution géométrique d'espérance κ a pour variance σ²=κ(κ+1), et est donnée par pi = κi/(κ+1)(i+1), ce qui correspond à la fonction génératrice G(z) = 1/(κ+1−κz), et on a G₁(z) = 1/(κ+1−κz)². Pour κ≥1, le plus petit point fixe u de G, est 1/κ, ce qui donne le taux d'attaque 1−u = 1 − 1/κ (dans le cas orienté), qui est le même que le seuil d'immunité grégaire prédit par le modèle SIR classique. Comme je l'ai dit plus haut, je ne sais pas s'il y a une explication à ce fait, mais je suppose que ce n'est pas une coïncidence. Pour le cas orienté, le plus petit point fixe de G₁ vaut (κ+2−√(κ(κ+4)))/(2κ), ce qui n'est pas très intéressant, et le taux d'attaque 1−G(u) prédit est (3−√((κ+4)/κ))/2. Tout ça est un cas particulier (r=1) du point suivant.
  • La distribution de Pólya (binomiale négative) d'espérance κ et de variance σ²>κ a pour fonction génératrice G(z) = (r/(r+κκ·z))r = (κ/(σ²−(σ²−κz))(κ²/(σ²−κ))r = κ²/(σ²−κ). On a G₁(z) = (r/(r+κκ·z))r+1 = (κ/(σ²−(σ²−κz))(κ²/(σ²−κ))+1. Il n'y a pas de formule simple particulière pour le plus petit point fixe de G ou G₁, mais il se calcule aisément.
  • La distribution binomiale d'espérance κ et de variance σ²<κ a pour fonction génératrice G(z) = ((nκ+κ·z)/n)n = ((σ²−(κσ²)·z)/κ)(κ²/(κσ²))n = κ²/(κσ²). On a G₁(z) = ((nκ+κ·z)/n)n+1 = ((σ²−(κσ²)·z)/κ)(κ²/(κσ²))+1. Il n'y a pas de formule simple particulière pour le plus petit point fixe de G ou G₁, mais il se calcule aisément. (Il y a une asymétrie agaçante, cependant, entre ce cas et le précédent, à savoir que pour la loi binomiale, n a besoin d'être entier, histoire d'obtenir des probabilités positives, alors que pour la loi binomiale négative, r n'a pas besoin de l'être. Donc mes courbes devraient en fait être en pointillés dans le domaine σ²<κ, les pointillés devenant de plus en plus denses en s'approchant du point de Poisson σ²=κ. Mais ce n'est pas très important, de toute façon ce domaine n'est pas très réaliste et est juste inclus pour la complétude des courbes, alors pourquoi ne pas ajouter des probabilités négatives tant qu'à faire. 😁)

Mes courbes sont donc obtenues simplement en faisant varier σ à κ=2.5 fixé, et à chaque fois, en calculant le plus petit point fixe u de G ou G₁ et en traçant 1−G(u). Le source Sage est ici, il est beaucoup plus court que toutes les explications que je viens de donner.

↑Entry #2654 [older| permalink|newer] / ↑Entrée #2654 [précédente| permalien|suivante] ↑

↓Entry #2653 [older| permalink|newer] / ↓Entrée #2653 [précédente| permalien|suivante] ↓

(samedi)

Mise à jour : merci à tous !

J'ai mis en ligne il y a quelques jours un texte faisant part de mon mal-être actuel, et j'ai reçu (par mail, par téléphone, par les commentaires de ce blog, et par d'autres canaux) de nombreux témoignages de soutien, du simple n'hésite pas à m'appeler si tu veux parler (qui fait du bien même, et peut-être surtout, s'il vient de quelqu'un à qui on ne pensait pas du tout) à des réponses détaillées et point par point à ce que j'écrivais. Des conseils, aussi, heureusement formulés avec le tact approprié, et d'autres témoignages en retour, certains venant de personnes qui vivent relativement bien cette crise, et d'autres qui se retrouvaient au moins en partie dans ce que j'écrivais. Et très peu d'attaques (l'Internet n'étant pas connu pour sa délicatesse en général, je craignais d'en avoir plus, mais mon lectorat est globalement formidable), et même ces attaques avaient au moins quelque mérite ou résultaient d'un malentendu légitime (quelqu'un s'étonnant, par exemple, que je réussisse à écrire un texte aussi long alors que je disais ne plus rien arriver à faire, ne mesure certainement pas combien une certaine forme de tristesse peut à la fois paralyser et aider à parler de soi-même).

Je pense que celles et ceux qui m'ont écrit n'attendaient pas un retour de ma part, mais il me semble qu'au moins une réponse collective s'impose.

Donc, d'abord, merci à tous ceux qui m'ont adressé un mot : certaines de ces réponses m'ont été vraiment utiles par leur contenu, et collectivement elles m'ont été réconfortantes par leur existence. Merci, plus généralement, à ceux qui m'ont simplement lu avec bienveillance, même s'ils n'ont pas choisi de m'écrire (la dernière chose que je voudrais faire c'est culpabiliser qui que ce soit ! je n'écrivais pas pour aller à la pêche à la sympathie, et je suis très très loin d'être le plus à plaindre dans une crise qui détruit tant de vies et anéantit tant d'espoirs sur la planète entière).

Au moment où j'écris ceci, il me semble que je vais mieux. Il y a sans doute plusieurs raisons à ça : le simple passage du temps (même si la liberté n'est pas pour le 11 mai et la fin de la crise certainement pas, on peut au moins se dire que chaque jour qui passe nous en rapproche d'un jour) ; certains efforts que j'ai faits, notamment sur des conseils que j'ai reçus, comme le fait tout bête de me débrouiller pour faire plus d'activité physique, ou des séances d'exposition au soleil ; une téléconsultation avec un médecin ; la tendresse de mon poussinet ; le fait d'avoir écrit l'entrée qui précède et ainsi cherché à y voir plus clair dans mes pensées ; et, donc, les réponses touchantes que j'ai reçues. Je ne sais pas si cette embellie sera durable (dans une crise qui va si vite, tout peut évoluer rapidement, vers le pire mais aussi vers le mieux), mais c'est en tout cas déjà quelque chose : le marteau-piqueur est nettement atténué.

↑Entry #2653 [older| permalink|newer] / ↑Entrée #2653 [précédente| permalien|suivante] ↑

↓Entry #2652 [older| permalink|newer] / ↓Entrée #2652 [précédente| permalien|suivante] ↓

(mercredi)

Je coule

Le but intrinsèque de ce texte est de me permettre de voir un peu plus clair dans mes pensées et émotions avant d'en parler à un psychiatre. Mais le but extrinsèque, et pas moins important, à partager ainsi ce que je ressens, est que cette description puisse en aider d'autres qui partageraient les mêmes difficultés à se sentir moins seuls, et à ceux qui ne les partagent pas de les comprendre peut-être un peu (au risque de m'exposer à recevoir une pluie de conseils-reproches).

J'étais parti sur l'idée que le confinement nous mettait dans une certaine égalité, certainement pas quant aux circonstances matérielles, mais, au moins à circonstances matérielles identiques, quant aux épreuves psychologiques qu'il représentait — pas que j'imaginasse que nous réagirions identiquement à ces épreuves, mais qu'au moins les mécanismes de base étaient les mêmes. Je mesure maintenant combien cette idée est erronée : non seulement certains ne semblent pas vivre les circonstances actuelles comme une incarcération, mais ils ont l'air nombreux, peut-être la majorité, voire la majorité écrasante. Et je ne parle même pas des témoignages du genre j'adore ça ! (accompagnés d'explications sur le fait qu'ils profitent de leur forteresse de solitude et du temps qu'ils ont pour cuire des quantités invraisemblables de pain ou apprendre enfin la grammaire géorgienne). On peut certainement s'en féliciter, mais cela laisse ceux d'entre nous pour qui confinement n'est qu'un euphémisme irritant pour emprisonnement, face à la difficulté de faire comprendre ce ressenti basique, et assez désemparés de ne pas savoir comment expliquer le fait que la liberté est quelque chose qu'on ne perd pas sans peine. Et ne sachant trop de quelle manière expliquer que les petits messages gentillets du style pendant ce confinement, je vais vous montrer chaque jour une photo de mon jardin (ou du pain que j'ai fait, ou de la grammaire géorgienne que je suis en train d'étudier), si bien intentionnés qu'ils soient, sont rapidement insupportables tellement ils nous paraissent à côté de la plaque.

Je n'ai, évidemment, aucun moyen fiable de mesurer précisément ce que les gens ressentent, et mon entourage est certainement biaisé de toutes sortes de manière (mais on s'attendrait plutôt, a priori, à ce qu'il fût biaisé dans le même sens que moi). Des informations aussi fondamentales que l'augmentation du taux de suicide en France depuis le 17 mars, sont introuvables (j'ai cru voir passer une information suggérant un facteur ×10, mais je ne retrouve plus, et de toute façon la personne qui disait ça ne donnait aucune source crédible, c'était quelque chose comme un ressenti au doigt mouillé sur le nombre d'interventions des urgences pour ce type de causes). Pour penser que je suis dans la minorité, je me base donc uniquement sur de l'anecdotique comme des témoignages d'amis et des choses pas du tout scientifiques comme ce sondage sur Twitter et les réponses qui y ont été faites.

Ma première réaction dans cette crise a été celle de l'angoisse, principalement l'angoisse de l'inconnu, par rapport à l'épidémie elle-même, à la réaction de la société, au désastre social et économique qui suivrait, à la possibilité d'un effondrement systémique suite à l'une ou l'autre, à l'anéantissement de tant de rêves et espoirs pour l'avenir (et, au passage, de mes finances), et à ma propre réaction face à tout ça : j'ai décrit cette phase ici ici ; j'ai consulté un psychiatre pendant cette phase, qui m'a prescrit un anxiolytique (et un somnifère puisque j'avais aussi perdu le sommeil), que je n'ai essentiellement pas utilisé (juste deux ou trois fois le somnifère) parce que cette phase est passée d'elle-même. À l'anxiété a succédé le courroux, dirigé contre toutes sortes de décisions à mon avis stupides, et contre l'incompétence fondant ces décisions (ce n'est pas le propos ici de détailler). Avec cette hargne générale est aussi venue une irritabilité excessive, dont mon poussinet a injustement fait plus d'une fois les frais. Cette phase est aussi largement passée : je n'ai plus de peur, je n'ai plus de colère, je n'ai plus l'énergie pour soutenir ces émotions : je suis maintenant simplement abattu. (Je suppose qu'il y a du vrai dans le modèle de Kübler-Ross.)

En plus de tout ça, je souffre d'un certain degré d'empathie : de tant de vies et de rêves brisés, soit par la maladie elle-même, soit par tous les bouleversements qu'elle a et va entraîner dans nos sociétés. Le nombre de morts ne m'affecte qu'intellectuellement (comme Staline ne l'a peut-être jamais dit, la mort d'un homme est une tragédie, la mort d'un million est une statistique) : ce qui m'affecte ce sont les récits individuels, ces gens qui avaient des projets pour la vie et des espoirs pour l'avenir, qui peut-être venaient de traverser une période difficile et commençaient à espérer la montagne passée quand soudainement cette crise surgie de nulle part vient faire que tout s'effondre. (Ne serait-ce que les restaurants que le poussinet et moi aimions fréquenter, dont nous connaissions souvent les propriétaires, et dont sans doute la moitié ne rouvriront jamais ; ou l'auto-école qui m'a dispensé un zillion d'heures de cours de voiture et de moto, petite entreprise familiale dont je connais le patron, le papa du patron, et pas mal du personnel : sera-t-elle encore là dans un an ?)

Rien de tout ça n'est constant, évidemment. J'arrive occasionnellement à m'en distraire. Mon moral fait des yoyos. Mais les embellies sont trompeuses, ce ne sont que des oublis passagers. (Insérer ici le dessin de Sempé [je ne le trouve pas en ligne] représentant un personnage expliquant à son psy : Quand je suis déprimé, les raisons pour lesquelles je le suis sont profondes, essentielles, fondamentales. Il m'arrive d'être heureux, bien sûr. Mais les raisons pour lesquelles je suis heureux sont si futiles, si ténues, que ça me déprime.) Une difficulté apparentée, que la parenthèse qui précède illustre peut-être, c'est que j'ai une certaine capacité à donner l'illusion d'être drôle, ou d'avoir de la répartie, capacité derrière laquelle je me cache souvent parce que j'ai une certaine répugnance à exposer crûment mes émotions, et qu'à cause de ça on ne me prend pas au sérieux quand je vais mal. (Dans le même ordre d'idées, je sais qu'on m'a souvent dit que je donnais l'impression d'être calme et mesuré, ce qui me fait rire jaune vu que je sais à quel point je suis colérique et impulsif.)

La stratégie la plus évidente était simplement d'attendre que ça passe. Kick the can down the road, comme on le dit. Vu que ce qui me fait souffrir actuellement est l'emprisonnement, il suffit d'attendre que celui-ci se finisse… non ? Non, d'abord parce que la date de fin est sans arrêt reportée : et chaque report me fait l'effet d'un nouveau coup de poignard, car à chaque date annoncée j'ai la faiblesse et la stupidité d'y croire, et évidemment c'est à chaque fois un nouveau mensonge. Non, car à l'emprisonnement succédera un avenir à peine moins sombre, et la réalisation du fait que ma vie d'avant, tous les petits plaisirs sur lesquels je fondais mon équilibre psycho-affectif et qui se sont envolés en mars 2020, cette vie d'avant est complètement détruite pour bien plus longtemps que la seule période d'emprisonnement, et il n'est pas acquis qu'elle puisse jamais ressusciter. (J'étais déjà très mal avant que le gouvernement mette toute la population française en arrêt à domicile, et même si cette mesure a énormément accéléré la spirale noire dans laquelle j'étais engagé, elle n'est pas seule en cause.) Et la stratégie de simplement tout repousser à plus tard ne fait que m'ensevelir sous une épaisse couche de culpabilité pendant que je me recroqueville autour de mon malheur que je rumine. (Je vais revenir sur la culpabilité.)

Pour essayer de faire comprendre mon état mental actuel, la meilleure comparaison que j'aie trouvée est celle du marteau-piqueur. (Comme une sorte d'intrusion dans la réalité d'une métaphore qui n'aurait pas compris qu'elle devait rester métaphorique, il y a eu, le 10 mars, des gens qui sont venus, je ne sais pas pourquoi, détruire une bonne partie du macadam du trottoir de ma rue, et j'ai été réveillé de jour-là par des bruits de chantier atteignant les 70dB au sonomètre chez moi, et qui ont duré toute la matinée. C'est ce qui m'inspire cette analogie.) Le marteau-piqueur c'est mon cerveau qui me répète sans arrêt je n'en peux plus de cette cage ! je veux sortir ! je veux bouger ! je veux m'aérer ! je veux faire du sport ! — et tous les conseils du genre lis un livre pour te distraire, regarde un film, essaie de travailler pour penser à autre chose, etc., butent sur le fait que, lire un livre, regarder un film, travailler, quand on a un marteau-piqueur dans la tête, ça ne marche pas. On ne veut qu'une chose, c'est que le marteau-piqueur s'arrête. On ne pense qu'à une chose, c'est que ce truc est insupportable. On arrive peut-être à s'en distraire une minute, mais on y revient toujours, tant qu'il donne ses coups répétés et insistants. On donnerait n'importe quoi pour que le marteau-piqueur cesse, mais on n'a pas la force d'y faire quoi que ce soit, alors on finit juste avec la tête dans un oreiller à crier pitié.

(L'ironie de la chose, parce que le destin a indiscutablement une forme d'ironie, c'est que j'aurais sans doute beaucoup mieux vécu l'emprisonnement par le passé : avant que je ne découvre le plaisir que je pouvais avoir à faire de la musculation, à visiter les parcs et jardins et forêts de l'Île-de-France, à rouler en moto, etc. Le David Madore ado geek asocial détestant le sport aurait peut-être adoré avoir un prétexte pour rester cloîtré deux mois chez lui, et tous les efforts que j'ai faits depuis pour avoir une vie plus saine me font maintenant souffrir.)

À un certain stade de la crise, j'ai vaguement réussi à convertir une partie de cette énergie de colère et de désespoir en quelque chose d'un peu plus productif : j'ai appris un peu d'épidémiologie (et même un tout petit peu de virologie, d'immunologie et de médecine en général), j'ai analysé la crise comme je le pouvais (voir quelques entrées antérieures sur de blog : ici, , , , , et encore  ; ou encore des fils Twitter que je n'ai pas traduits en français comme celui-ci, celui-là et encore celui-là). J'ai cru identifier un certain nombre de ce qui me semblent être des limitations méthodologiques sérieuses de l'approche utilisée par les modèles épidémiologiques qui sous-tendent les décisions politiques pendant cette crise, et notamment :

  • l'absence de prise en compte de l'hétérogénéité sociale de la population (autrement que sur des critères d'âge et éventuellement de géographie), reflétée tout au plus dans de malheureuses matrices de mélange entre compartiments qui sont malgré tout traités comme homogènes chacun séparément ; et la mauvaise compréhension du fait que la lecture de données épidémiques agrégées sur l'ensemble de la population surpondère les sous-catégories où la reproduction est la plus rapide [je décris ce problème parmi d'autres ici sur ce blog, ainsi que dans la partie 🄱 de ce fil Twitter [lien Twitter direct]] ;
  • l'absence de prise en compte du fait que les contacts entre individus ne sont pas aléatoires mais qu'un petit nombre de contacts récurrents pour chaque individu (foyer, famille, amis, collègues) va représenter la majorité des contaminations, limitant la capacité de diffusion à un graphe de degré limité [je décris ce problème ici sur ce blog, phénomène (2a), ainsi que dans ce fil Twitter [lien Twitter direct], notamment tweets nº10, 11, 19, 21, 36, 37] ;
  • l'absence de prise en compte de l'effet de célébrité et du fait que les personnes ayant un grand nombre de contacts seront infectées avant les autres, réduisant ainsi la diffusion ultérieure de l'épidémie, et en particulier l'interaction entre ce phénomène et celui de l'item précédent [je décris ce problème ici sur ce blog, phénomène (2b), ainsi que dans ce fil Twitter [lien Twitter direct], notamment tweets nº12, 13, 20, 22, 40, 41] ;
  • l'incompréhension du fait que la variance des contacts infectieux reçus par un individu a un impact bien plus important que la variance des contacts infectieux émis (alors que beaucoup de modèles épidémiologiques jouent à essayer de faire varier l'infectiosité des individus et se penchent sur le problème des super-contaminateurs, le problème dual est bien plus pertinent), ou au moins que les deux doivent être pris en compte [je n'ai pas décrit ce phénomène sur ce blog, mais dans ce fil Twitter [lien Twitter direct]] ;

— et plus généralement la mauvaise prise en compte d'informations venant des domaines de la théorie des graphes et des probabilités (et surtout de leur intersection, les graphes aléatoires). En fait, je pensais au début que ces points (sauf peut-être le dernier) devaient être évidents pour tout le monde et que les modèles utilisés les ignoraient parce que leur but était de calculer autre chose, et j'ai pris conscience progressivement qu'en fait, non, il y a un véritable manque de recul par rapport à tout ça.

Seulement voilà, certains m'ont fait savoir que je n'étais pas épidémiologiste (même pas spécialiste des graphes aléatoires) et que je devais laisser les experts s'exprimer dans leur domaine d'expertise, et fermer ma gueule de non-spécialiste. Que j'étais un armchair epidemiologist, voire un crackpot complet, qui parce qu'il a lu quelques articles sur le sujet s'imagine comprendre un domaine dont il ignorait tout il y a deux mois, et pouvoir donner des leçons aux experts de ce domaine. (Et indubitablement, dans une crise pareille, il y a plein de gens qui se découvrent tout d'un coup une expertise miraculeuse en tout et sur tout. Ce qui donne lieu à des moqueries comme illustrées par ce tweet.) De toute façon, les experts sont bien trop occupés par toutes les sollicitations qui leur tombent dessus pour répondre à mes objections, mais sans doute ont-ils des réponses.

Déjà en général, la combativité ne fait pas partie de mes attributs. Je suis colérique, mais ma colère n'a aucune endurance. Je ne sais pas me battre pour mes idées. Si on me dit de fermer ma gueule, ce que je fais le plus facilement est de baisser les bras. De toute façon, quand je travaille à comprendre le monde, c'est surtout pour le comprendre pour moi, je fais parfois un effort pour l'expliquer aux autres parce que ça m'aide à mieux le comprendre, mais je n'ai aucun appétit pour les disputes avec les gens qui pensent que j'ai tort ou qui refusent de m'écouter.

Et en ce moment, bien sûr, le découragement est encore considérablement plus prononcé. Quel intérêt, en fait, d'essayer d'attirer l'attention sur des limitations dans les modèles épidémiologiques ? Les experts que je critique sont débordés, je n'ai aucun espoir d'arriver à me faire écouter d'eux même si j'arrivais à les convaincre que je ne suis pas un crackpot, et je n'ai plus aucune énergie pour tout ça. Je n'ai déjà même plus la force de répondre aux mails de mes amis qui me donnent ou prennent des nouvelles, je n'ai certainement pas celle de me faire entendre de gens dont je critiquerais la démarche scientifique. Et même si j'y arrivais, ça n'aurait aucun intérêt. Je ne pense pas qu'on puisse faire un modèle mathématique correct d'une épidémie humaine (et je soupçonne que l'hubris de le penser vient de l'expérience des épizooties, pour lesquelles des modèles simples doivent assez bien marcher parce qu'aucun des phénomènes sociologiques que je pointe du doigt ci-dessus ne se produit) : donc, est-ce vraiment grave si on raisonne sur des modèles erronés ?

Finalement, je m'en fous. Je n'ai pas la force de mener une croisade à ce sujet.

Je crois que les gens se méprennent souvent sur la démarche des scientifiques, enfin, je ne sais pas pour les autres, mais au moins pour ce qui est de la mienne : je ne fais pas des maths parce que c'est mon métier, encore moins pour me faire connaître, je ne fais pas vraiment des maths parce que je cherche à connaître la réponse à telle ou telle question, je ne fais même pas vraiment des maths parce que j'aime ça (même si, le plus souvent, en temps normal, c'est le cas) : je fais des maths parce que je n'arrive pas à faire autrement, c'est juste comme ça que mon cerveau fonctionne, c'est mon mode de pensée spontané dès que je réfléchis sur tout un tas de choses. Mais si les maths en sont la forme la plus fréquente, je n'ai pas forcément beaucoup de contrôle sur l'objet de mes pensées. Je dis ça pour répondre à ceux, et ils sont nombreux, qui m'ont enjoint de profiter de cet emprisonnement pour faire des maths : c'est un peu bizarre, comme conseil, c'est comme me dire d'en profiter pour manger, certainement je ne vais pas arrêter de manger, mais je vais manger quoi ? des sucreries, sans doute, parce que c'est ce qu'il y a de plus facile, de plus rapide, de plus séduisant. Newton a développé le calcul infinitésimal, découvert ses lois du mouvement de la gravitation, et sa théorie de la lumière et de la couleur, pendant qu'il était reclus au manoir de Woolsthorpe pendant que la grande peste bubonique dévastait Londres (où elle a tué peut-être le quart de la population entre 1665 et 1666) : je ne sais pas si c'était pour Newton un plaisir ou une nécessité, si c'était pour lui des sucreries intellectuelles, mais le fait est que je ne suis certainement pas un Newton. Donc à part l'épidémiologie, en matière de sucrerie mathématique, j'ai voulu me distraire en regardant quelque chose d'un peu reposant, j'ai fait un programme qui simule le mouvement de points sur la surface d'une sphère qui se repoussent selon la loi de Coulomb, c'est joli et un peu envoûtant à regarder, j'ai appris deux-trois choses (comme le fait qu'il n'y a pas d'analogue pour la mécanique en géométrie sphérique du centre de gravité en géométrie euclidienne, et que même le problème à deux corps y est terriblement compliqué), j'ai regardé la manière dont les points s'arrangent si on ajoute des frottements pour qu'ils s'arrêtent, puis j'en ai eu marre et j'ai laissé tomber cette sucrerie-là. Le marteau-piqueur est trop difficile à ignorer.

Bref, je ne sais pas comment des gens font pour travailler productivement dans ces conditions. Je n'en suis pas du tout capable. Encouragé par le mensonge initial que l'emprisonnement ne durerait pas trop longtemps (cf. ci-dessus), j'ai commencé par repousser un certain nombre de choses que je devais faire (kick the can down the road) en espérant que j'arriverais à remonter la pente, mais ça allait de plus en plus mal, et le fait de repousser m'a fait culpabiliser, maintenant j'en suis au point où je n'ose même plus lire mon mail professionnel.

Je sais que j'ai, de façon générale, une capacité épouvantablement mauvaise à faire face à l'adversité : ma réaction face aux difficultés est toujours de renoncer et de subir. Sans doute les seules batailles que j'aie remportées dans la vie l'ont été par pure chance, parce que ma technique préférée de combat est la capitulation. Ceci pose un remarquable problème de bootstrap si le but est précisément de combattre ma tendance à capituler devant l'adversité.

En tout état de cause, je n'arrive plus à rien faire. Je me lève, le marteau-piqueur est là, je n'arrive à rien faire, je culpabilise parce que je n'arrive à rien faire, je déjeune, je n'arrive à rien faire, je culpabilise un peu plus, je dîne, et je me couche en espérant que tout ceci ne soit qu'un mauvais rêve qui va passer, ou au contraire en espérant profiter d'un peu de liberté dans mes rêves, voire, ne pas me réveiller du tout. Et je me réveille en constatant que, malheureusement, ce n'est pas un mauvais rêve, le marteau-piqueur est toujours là. Et les journées se suivent et se ressemblent comme celles du personnage joué par Bill Murray dans Groundhog Day : des petites différences de forme, mais la sensation d'être pris dans une boucle infinie dans laquelle il n'existe aucune sorte de progrès.

Et la culpabilisation est un mécanisme incroyablement fort pour m'empêcher de me relever. Elle prend toutes sortes de formes.

D'abord, il y a la culpabilisation concernant le confinement. C'est devenu une sorte de sport national : montrer du doigt les gens qui ne respectent pas bien le confinement, les Parisiens qui ont fui en province au début ou qui espèrent partir en vacances, ceux qui font leur jogging, ceux qui font que le confinement se relâche, les irresponsables, dont on laisse comprendre qu'ils ont des morts sur la conscience. Alors voilà, oui, plusieurs fois, j'ai craqué, le poussinet et moi sommes sortis clandestinement faire une promenade dans des forêts que nous appréciions tellement dans l'ancien monde, et nous le referons certainement, même si cette expérience, bien que réconfortante, était en même temps passablement traumatisante à cause de cette culpabilisation doublée d'une peur de l'autorité (que les rapports nombreux de brutalité policière n'aident pas à dissiper).

Ensuite, il y a la culpabilisation concernant les idées autour du confinement : non seulement on est sommé de le respecter, mais on est aussi sommé d'y croire, d'être persuadé qu'on sauve des vies ainsi. Il ne suffit pas que nous soyons prisonniers, il faut encore que nous soyons des prisonniers heureux de faire notre part de sacrifice au salut commun. Alors voilà, je n'adhère pas à cette nouvelle religion nationale : je suis persuadé que l'approche suivie n'est pas la bonne : on aura beau essayer de tricher le Covid-19 des morts qu'il réclame, ce sera un échec, tout ce qu'on parviendra à faire, tout ce qu'on est parvenu à faire avec cette manœuvre, c'est de retarder un peu, à un coût exorbitant, ce qui va arriver de toute manière. Mais c'est une opinion qu'on n'a pas le droit d'exprimer sous peine d'être classé avec les gens qui, comme Donald Trump et les spectateurs de Fox News, pensent à l'économie avant de penser aux gens ou sont carrément persuadés que le virus est une sorte de complot. (Pour référence, voici quelqu'un avec qui je suis d'accord.)

Puis il y a la culpabilisation autour des conditions matérielles. Voilà : j'habite un appartement confortable et spacieux, avec un accès Internet qui marche du tonnerre, j'ai un supermarché juste en face de la rue, je ne manque de rien, je n'ai pas d'enfants à gérer, et j'ai le culot de me plaindre ! Indubitablement, je me sens morveux de me plaindre, alors qu'il y a des gens qui vivent dans des conditions réellement épouvantables (ce mini-documentaire est à cet égard édifiant) : mais l'argument ça pourrait être bien pire et il y a des gens pour qui ça l'est est toujours un mauvais argument, ne serait-ce que parce qu'il peut se retourner en ça pourrait être bien mieux et il y a des gens pour qui ça l'est, et de toute façon ce n'est pas le propos : je ne me plains pas des conditions matérielles de mon emprisonnement, je me plains de l'emprisonnement lui-même — une prison dorée reste malgré tout une prison, et d'ailleurs, dans la théorie pénale, que je sache, c'est bien la privation de liberté elle-même qui est censée servir de punition (punition que je considère maintenant comme cruelle, inhumaine et dégradante), pas la circonstance additionnelle que les prisons françaises sont surpeuplées, infectes, mal équipées et mal entretenues.

Ensuite il y a la culpabilisation du fait de partager mon malheur et de ne pas souffrir en silence. Nous sommes tous, après tout, dans le même bateau, et moi qui n'ai pas de légitimité particulière à me plaindre je me sens mal de jouer le rabat-joie face à ces gens qui sont ravis de profiter de ce moment pour faire du pain ou apprendre le géorgien. Je me sens particulièrement mal de faire subir à mon poussinet mes crises de sanglot où je n'arrive plus qu'à m'allonger sur le lit, prendre une peluche entre les bras, me mettre en position fœtale et ne plus bouger : je suis désolé qu'il ait à subir ça alors qu'il n'y est pour rien, et qu'il soit tout désemparé de ne pas pouvoir me réconforter.

Puis il y a la culpabilisation du fait d'être l'épidémiologiste de fauteuil qui prétend corriger les experts alors qu'il ne savait rien du sujet il y a deux mois. (Je l'ai évoqué ci-dessus.) Et de fait, je m'inquiète d'avoir viré crackpot sur le sujet, et vu mon état mental déplorable, je ne peux pas vraiment l'exclure.

Et enfin, bien sûr, il y a la culpabilisation du fait de ne plus arriver à travailler, accentuée par le fait que d'autres gens, manifestement, y arrivent (y compris au prix d'efforts héroïques pour faire, par exemple, un enseignement de qualité à travers une infrastructure inadaptée et bricolée à la dernière minute). Je vais voir comment me faire arrêter pour, au moins, régulariser ma situation, mais il est sûr que cela ne fera pas disparaître cette sensation de culpabilité.

Bref, je vais chercher à retourner voir un psychiatre, sans doute le même que j'ai consulté il y a un mois et demi, pour lui raconter ce que je viens de dire (et d'autres choses que je ne veux pas écrire ici) ; mais d'une part les circonstances actuelles font que ce n'est pas facile, d'autre part, les psys n'ont pas de baguette magique, mon poussinet est opposé par principe au fait que je prenne des médicaments (il a l'air de considérer les benzodiazépines et antidépresseurs comme le Mal incarné), et, si j'aurais peut-être des bénéfices à tirer d'une thérapie non-médicamenteuse à long terme, la vitesse hallucinante à laquelle mon état émotionnel s'est effondré et les circonstances parfaitement claires de cette dégradation laissent penser que le rétablissement ne peut passer que par la levée de ces circonstances, et je me demande bien dans quel état je serai quand Paris sera libéré (ce qui risque fort de ne pas se produire le 11 mai vu que Paris est un des départements les plus touchés par l'épidémie).

Ce n'est pas illégitime, dans une perspective utilitariste, de considérer que les dépressions et suicides qui seront causés par le confinement sont un dommage collatéral acceptable dans la lutte contre le Covid-19 (je parle en général : pour ma part je ne sais pas si je suis techniquement déprimé, et ce n'est d'ailleurs pas une question très intéressante ; je ne pense pas que je vais me suicider, au moins tant qu'il y a un espoir raisonnable que je puisse un jour reprendre une vie que je considère comme normale, et cet espoir n'est pas complètement mort). Après tout, même si le taux de suicide est effectivement décuplé, devenant ainsi comparable à ce qu'il est en prison, cela ne représentera qu'une quinzaine de milliers de personnes sur deux mois en France : c'est moins que le nombre de décès dus au Covid-19 sur la période, et nettement moins que le nombre dont on pense qu'on a évité. Néanmoins, si ce calcul utilitariste est mené, la moindre des choses serait qu'il le fût de façon transparente : qu'on dise clairement, on choisit de sacrifier tant de personnes (ou tant de personnes·années de vie) parce qu'on pense pouvoir en sauver plus. À l'heure actuelle, je n'ai pas l'impression que ce choix soit présenté dans ces termes, puisque les statistiques sur le suicides ne sont même pas menées dans le bulletin épidémiologique de l'agence nationale de santé publique (tout au plus apprend-on que 18% des Français présentent des symptômes de dépression reflétés par un score >10/21 sur la Hospital Anxiety and Depression Scale, mais on ignore malheureusement la valeur pré-épidémique). Et j'ai l'impression qu'il y a une réticence à justifier des choix de façon utilitariste (une sorte de slogan selon lequel on doit absolument et à tout prix sauver toute vie humaine, qui est patentement faux et même mensonger si on fait semblant d'ignorer toute une catégorie de victimes). À tout le moins, il serait bon de chercher à arrêter la culpabilisation infantilisante qui ne sauve personne et qui participe de façon particulièrement douloureuse à la spirale de la dépression.

Mise à jour : entrée suivante.

↑Entry #2652 [older| permalink|newer] / ↑Entrée #2652 [précédente| permalien|suivante] ↑

↓Entry #2651 [older| permalink|newer] / ↓Entrée #2651 [précédente| permalien|suivante] ↓

(dimanche)

Regard sur le passé et nouvelles spéculations pour l'avenir

S'il y a des gens qui sont tentés de trouver que je suis un bon analyste de la crise, je tiens à rappeler, comme preuve que ce n'est pas le cas, que le mois dernier j'avais proposé un certain nombre de scénarios possibles (et encore ici) qui se sont tous révélés faux, au moins pour autant qu'on puisse en juger à ce stade-là. Ce n'est pas anormal, on ne peut pas prévoir l'avenir. Ce qui n'interdit pas pour autant d'essayer, ne serait-ce que pour tromper la peur de l'inconnu et la douleur d'être prisonnier (ou simplement parce que le cerveau refuse tout simplement de faire autre chose, ce qui est mon cas en ce moment).

C'est aussi intéressant de faire des prédictions pour analyser a posteriori ses erreurs. Il me semble que la principale faute que je retiens de mes analyses passées ne concerne pas l'aspect épidémiologique (même s'il y en a : je pensais qu'on verrait beaucoup plus vite et plus nettement les effets du confinement, alors qu'en fait, les contaminations ont traîné plus longtemps que je pensais ; aussi, j'ai pensé que le taux de létalité serait bien plus clairement lisible qu'il ne l'est, même à ce stade-là), mais plutôt l'aspect sociétal.

Au tout début de l'épidémie (voir autour d'ici ; je crois que c'est ici que je l'ai dit en premier, mi-février), je prévoyais quelque chose comme 0.1% à 1% de morts (c'est-à-dire entre l'équivalent de 1 mois et 1 an de mortalité toutes causes, ou entre 100 000 et 500 000 morts en France), étalé sur une période de trois à six mois. J'ai essayé de me préparer mentalement à ça (par exemple en essayant d'estimer combien de personnes je connais et d'imaginer différents scénarios où une sur mille, ou une sur cent, décède aléatoirement). Mais pour ce qui est de mon erreur, je pensais honnêtement que la société l'accepterait (pas dans l'indifférence, certainement pas pour 1%, mais 0.1% je le pensais vraiment) : la grippe de 1918 a tué autour de 3% (de l'ensemble de la population mondiale) et il n'y a pas eu confinement généralisé de l'ensemble de la planète, pas même des parties qui n'étaient pas occupée par la guerre ; les grippes de 1957 et 1968 ont fait des dizaines de milliers de morts en France (le nombre exact est très incertain) et il semble qu'on l'ait peu remarqué sur le moment et qu'on s'en souvienne à peine maintenant ; donc sur la base de ces données historiques je me suis dit que ça se passerait un peu pareil. Je me suis dit que si la mortalité était de 0.1% cela ferait un treizième mois de mortalité, ou dix fois celle de la grippe saisonnière ; et que même 1% la société l'accepterait encore avec résignation.

Le moins qu'on puisse dire, donc, est que j'étais complètement (mais vraiment complètement) à côté de la plaque en ce qui concerne aversion de notre société au risque et à la mort. (Pour comparer aux chiffres de 0.1% à 1% que je viens d'évoquer, la France a actuellement officiellement une mortalité cumulée de 0.025% par Covid-19, l'Espagne de 0.04%, et on ne peut pas dire que ce soit bien accepté.)

C'est-à-dire, donc, que j'ai vu l'épidémie venir depuis bien longtemps, mais je n'ai pas du tout vu le confinement venir. Fin février, je pensais encore que le confinement c'était bon pour un régime autoritaire comme la Chine mais que l'Europe ne ferait jamais quelque chose de ce genre. Je ne dis pas que je pensais qu'on ne ferait rien : mais que le mouvement d'aplatir la courbe se contenterait d'interdire les rassemblements, de fermer les écoles et certains lieux publics comme les bars et cinémas, de prendre des mesures d'hygiène publique supplémentaires, et que ce serait à peu près tout (bon, je ne pensais pas non plus qu'il y aurait une pénurie de masques aussi grave et aussi durable) ; jusqu'à ce qu'on atteigne le pic épidémique avec un nombre de morts dans la fourchette que j'ai dite. À partir du moment où l'Italie a imposé un confinement généralisé à sa population, comme je ne m'étais pas du tout préparé à cette idée, quelque chose s'est cassé en moi et j'ai multiplié les crises d'angoisse. J'étais notamment paniqué par la possibilité[#] d'un effondrement systémique complet (qui tuerait, lui, pas 0.1% ou 1% mais quelque chose comme 99.9% de la population humaine) si le monde s'arrêtait complètement : je suis un peu rassuré qu'il n'ait pas eu lieu, même si je n'exclus pas que la crise économique qui va suivre provoque quand même cet effondrement avec retard.

[#] Pour les gens qui ont du mal avec les nuances, quand je dis la possibilité, je ne suis pas en train de dire que ça va se produire, ni que je pense que ça va se produire, ni que je le pensais à ce moment-là. Je dis que je pensais que la probabilité me semblait très désagréablement élevée. Disons peut-être 5% : si je pense que quelque chose a 5% de chances de se produire, ce n'est pas en me disant tiens, tu vois ! ça ne s'est pas produit (voyez ce que j'écrivais ici ou bien plus tôt ici sur la difficulté de donner un sens à des probabilités quand on fait des prédictions, en l'occurrence électorales). Mais si j'estime à 5% la probabilité de causer la mort de 99.9% de la population humaine c'est bien plus inquiétant que la mort certaine de 0.1% à 1% de cette population. Maintenant je révise cette estimation à seulement 1% ou 2% : ça reste toujours très préoccupant.

Je me suis aussi fait avoir (et me suis senti profondément trahi) quand les dirigeants français ont annoncé successivement, à quelques jours d'intervalle, le (fermeture des écoles et universités, encouragement au télétravail, déprogrammation des interventions médicales non urgentes), le (fermeture de tous les commerces et lieux publics non jugés indispensables) et enfin le (confinement à domicile) des mesures incroyablement différentes dans leur niveau de restriction, et ce malgré l'absence de toute donnée nouvelle justifiant ces changements d'attitude : donc là aussi, j'ai eu la naïveté de penser que les mesures annoncées solennellement au jour J reflétaient un choix effectué par le gouvernement et qu'il ne changerait pas d'avis le surlendemain, puis le surlendemain du surlendemain pour finalement faire comme en Chine. (Disons que si vous allez voir votre médecin pour une maladie, qu'il vous prescrit juste du repos et du paracétamol et que quatre jours plus tard sans nouvel examen ou résultat d'examen il vous dit que vous devez faire une opération lourde en urgence, vous êtes en droit de vous demander pourquoi il ne vous a pas dit ça au début.) Si je vois une trahison à propos du premier tour des élections municipales, c'est bien ça : pas qu'il ait eu lieu, mais qu'à cause de lui on ait caché les vraies mesures en annonçant des mesurettes et en laissant penser qu'on s'arrêterait là.

Tout ça pour dire que, même si j'ai clairement annoncé à tout le monde dès février que c'était évident que la Chine n'arriverait pas à contenir l'épidémie et que cette dernière arriverait en Europe, je ne suis quand même pas bon du tout pour prévoir l'avenir. (Je ne suis pas en mauvaise compagnie. Asimov aimait bien rappeler, quand on chantait ses louanges comme visionnaire, qu'il avait prédit que personne n'escaladerait jamais l'Everest… sept mois après la première ascension réussie de l'Everest.)

Mais ça ne m'interdit pas pour autant de réessayer. Voici donc mes nouvelles spéculations pour l'avenir, en essayant d'être plutôt optimiste : encore une fois, il s'agit simplement de ce que mon pipotron suggère comme plausible, un scénario sur lequel j'ancre mes perspectives pour l'avenir, et dont il sera intéressant d'analyser combien je me serai trompé, ce ne sont absolument pas des prédictions scientifiques et je n'ai pas de manuel de psycho-histoire en cours d'écriture.

(Activation du pipotron.)

Au cours des prochains 24 jours, si le confinement tient à peu près, le nombre de morts quotidien du Covid-19 en France va décroître graduellement jusqu'à environ 200 par jour, amenant le total jusqu'à un peu en-dessous de 30 000. À ce stade-là, environ 10% ou 15% de la population du pays aura été infectée[#2] (plus dans les sous-populations à haute contagiosité) et sera, pour l'essentiel, immune[#3]. Si les Français décident de braver les interdictions (ce qui semble de plus en plus probable, et on n'a pas assez de policiers pour en mettre derrière chacun), ce sera un peu plus sur chacun de ces nombres. Peut-être jusqu'à 20% d'infectés ? Cela ne suffira pas, et de loin, à constituer une immunité grégaire (concept éminemment périlleux à définir, et notamment plus complexe que la formule 1 − 1/R) au sens où on pourrait relâcher toute mesure de distanciation sociale, mais cela aidera néanmoins.

[#2] Nombre de cas et de morts estimés sur la base d'une décroissance de 6%/j environ. Nombre d'infectés estimés sur la base de 30 000 morts divisés par un taux de létalité parmi toutes les infections autour de 0.35% trouvé par ces gens-là. Mais je répète que tout ça n'est que ce que suggère mon pipotron.

[#3] Je sais que maintenant on ne peut plus dire immun sans qu'il y ait des gens qui vous disent une variante de l'ImMuNiTé Ça Ne MaRcHe PaS ! (sous différentes variantes : il y a eu des cas de réinfections, on ne sait pas combien de temps ça dure, etc. ; exemple A, exemple B, exemple C). Le problème principal est que les gens confondent l'affirmation il y a des gens chez qui l'immunité provoquée par la maladie semble être insuffisante et on n'a pas de preuve qu'elle dure très longtemps avec ça ne marche pas du tout et ça ne dure pas du tout : et que les gens oublient qu'il y a maintenant tellement de cas de gens infectés et même rétablis que si seulement 1% d'entre eux ont une immunité insuffisante, ça va suffire pour faire des titres sensationnels alors que les gens qui ont une bonne immunité après une première infection, par définition, on ne les voit pas. Je n'aime pas renvoyer à la presse généraliste sur ce genre de sujets, mais je trouve que cet article de Time et celui-ci de Libération font bien le point. (Évidemment, s'il n'y a que 70% des gens infectés qui sont immunisés, et/ou si cette immunité ne dure qu'un an, c'est une bien mauvaise nouvelle ; mais si on en est à imaginer des scénarios catastrophes on peut aussi imaginer celui où le virus mute et devient beaucoup plus létal lors de sa seconde vague et que les gens immunisés lors de la première ont bien de la chance d'être protégés lors de la seconde, comme cela s'est produit avec la grippe en 1918 : dans un tel scénario, limiter la propagation du virus serait une terrible erreur : au bout d'un moment, on ne peut pas toujours prévoir le pire.)

L'Europe va progressivement relâcher ses mesures de confinement (l'Autriche et le Danemark ont déjà ouvert la danse ; la Suède n'en a jamais pris ; je ne sais pas ce que la France fera exactement le 11 mai[#4], l'ouverture des écoles sera probablement retardée, mais il est peu vraisemblable qu'elle reste exactement dans l'état actuel dès lors qu'une date a été annoncée et que d'autres pays auront fait des pas). On tentera de mettre en place des mécanismes de suivi des contacts, mais ces mécanismes seront un échec complet, parce que l'aspect technique aura été mal fait (déjà les gens qui lancent de telles applications n'arrivent pas à s'entendre, ni à développer quelque chose d'ouvert et transparent) et parce que l'Europe n'est pas la Corée. On améliorera le nombre et la disponibilité des tests, mais ils resteront toujours insuffisant, et de même pour les masques. En revanche, ce qui marchera le mieux est simplement que les gens auront pris peur et maintiendront des efforts assez importants de distanciation sociale (pas tous, mais ceux qui font le moins d'efforts feront justement partie de ceux qui auront été déjà contaminés). Et aussi, on connaîtra progressivement de plus en plus de choses sur les modes réels de contamination, ce qui permettra de cibler les efforts et les recommandations sur ceux qui sont les plus importants. Bref, l'épidémie repartira à la hausse après la levée du confinement, mais à un rythme beaucoup plus modéré que début mars.

[#4] Le plus important à mes yeux, et ce sur quoi je m'inquiète donc le plus, est qu'on ait de nouveau le droit de circuler[#5] à peu près librement sans avoir à remplir un formulaire délibérément pénible et humiliant. Le plus important économiquement est sans doute de rouvrir les commerces non « essentiels ». Manifestement il y a des variations entre pays dans l'ordre dans lequel les choses ont été classées : j'ai retenu qu'un pays européen, mais je ne sais plus lequel, avait rouvert les restaurants (mais pas les bars, et évidemment avec des règles assez strictes) avant de rouvrir les écoles, alors que la France parle de faire le contraire. Mais la vraie question épineuse va être celle de savoir comment sont gérés les transports en commun, parce que pour pratiquer la distanciation sociale dans la ligne 13 du métro parisien toujours bondée et indispensable à tant de monde, bon courage.

[#5] Enfin, pas le droit mais la permission : comme je l'ai souligné ici, si on peut vous retirer un droit c'est que vous n'avez jamais eu ce droit, donc le droit de circuler n'existait, en fait, pas, seulement l'illusion de ce droit. (Pour savoir dans quels pays il existe vraiment il faudrait trouver ceux où les gouvernements ont expliqué qu'ils recommandaient le confinement mais qu'il serait ultra vires pour eux de l'ordonner : y en a-t-il ?)

Il y aura donc un nouveau pic épidémique, commençant peu de temps après la levée du confinement, mais nettement plus lent que le premier. Selon les pays, il sera plus ou moins important : évidemment il aura tendance à être d'autant plus important que le confinement aura été mené tôt lors du premier (supprimant l'acquisition d'immunité), mais il y aura aussi des différences intrinsèques entre pays. Néanmoins, comme les protocoles médicaux seront un peu mieux rodés, les options thérapeutiques un peu mieux connues et les mystères entourant la maladie un peu dissipés[#6], cette seconde vague enregistrera un taux de létalité plus faible. (Contrairement à la grippe, qui en 1918 était revenue beaucoup plus létale lors de la seconde vague, il ne devrait pas y avoir de mutation significative du virus.) En France, étant bien entendu que j'invente complètement ces chiffres, le Covid-19 contaminera de nouveau 10% de la population et tuera encore une dizaine de milliers de personnes. Certains pays mettront de nouveau en place un confinement, mais ils seront moins nombreux que la première fois (car le premier aura donné des résultats mitigés rendant l'opinion publique plus sceptique quant à cette approche ; parce que la vitesse du nouveau pic aura moins tendance à submerger les services d'urgence ; et parce que l'économie ira tellement mal qu'on ne pourra tout simplement plus se le permettre). Il y aura sans doute encore un troisième pic, puis peut-être un quatrième, mais de moindre ampleur, et finalement le Covid-19 deviendra une maladie endémique jusqu'à ce que peut-être un vaccin soit mis sur le marché. Au final, en France, le nombre de morts s'élèvera à environ 70 000 (officiellement dénombrés : en réalité plutôt près du double si on se base sur la surmortalité), les autres pays d'Europe s'en sortant soit mieux soit moins bien mais de façon guère différente. La mortalité dans le monde, en revanche, sera gigantesque parce qu'en Inde elle tournera autour de 1%, ce qui représente déjà 15 millions de morts.

[#6] Il y a une piste dont je voudrais bien savoir ce qu'elle apporte réellement comme espoir, ce n'est pas la choloroquine ni un quelconque antiviral, mais la sérothérapie (injection d'anticorps d'un patient convalescent chez un autre patient). J'ai vu des articles plutôt encourageants, mais en ce moment on voit 1001 articles annonçant une percée décisive à travers 1001 remèdes miracles, et manifestement le remède miracle n'existe pas. Bref, je ne sais pas à quel point la sérothérapie marche, mais ce « remède »-là a au moins un avantage immense par rapport à toute molécule de synthèse, c'est que la disponibilité du remède croît assez bien avec ses besoins : presque par définition, dans une épidémie, on ne risque pas de tomber en problème d'approvisionnement.

En revanche, la crise économique qui va suivre sera d'une ampleur sans précédent, et le nombre de morts (ou plutôt la perte d'espérance de vie) qu'elle causera[#7] sera nettement supérieur à ce qui aura été causé par la maladie. Et ce, sans compter les effets à travers le changement climatique (les transports en commun vont être délaissés pour la voiture individuelle, d'autant plus que le prix du pétrole aura temporairement plongé ; et comme cela va se produire notamment en Chine, l'impact sur le climat sera désastreux, compensant très largement le petit effet bénéfique d'une baisse temporaire d'activité économique). Je vois également des conséquences très sombres sur les libertés individuelles et la démocratie. On peut toujours espérer voir un silver lining ici ou là, mais je suis vraiment sceptique (certains espéraient, par exemple, que le Covid-19 empêcherait la réélection de Trump à la Maison-Blanche : cela semble plutôt parti pour le contraire, sauf s'il devait personnellement mourir de la maladie ; je suis tout aussi incrédule quand certains espèrent qu'on verra une réorientation de l'économie vers plus de services publics ou quelque chose de ce genre : elle sera tellement à genoux que je m'attends plutôt à des décisions comme une baisse de salaire et retraite de 15% de tous les fonctionnaires sauf hospitaliers ou policiers).

[#7] On remarquera, pour reprendre la comparaison que je faisais dans la précédente entrée de ce blog, que les économistes sont plus prudents que les épidémiologistes : ils n'ont pas osé annoncer un chiffre à ce sujet (ils font des prévisions en termes de PIB perdu, mais ne traduisent pas ça en coût humain) alors que les épidémiologistes, qui n'en savent pas plus, n'hésitent pas à faire des prévisions en nombres de morts. C'est tout à l'honneur des économistes de ne pas avancer des chiffres tirés de leur chapeau, mais l'inconvénient est que cela encourage le public à oublier que, oui, les crises économiques se traduisent aussi par une perte d'espérance de vie et pas juste les crises sanitaires. J'ai tenté un ordre de grandeur sur la base de la corrélation entre PIB et espérance de vie : il est clair que ce calcul ne vaut rien, mais il suggère au moins qu'il n'y a pas particulièrement de raison de penser que la crise économique serait moins grave que la crise sanitaire.

(Fin d'activation du pipotron.)

Voilà, maintenant il n'y a plus qu'à attendre pour savoir dans quelle mesure j'aurai été ridiculement à côté de la plaque avec ces prévisions.

↑Entry #2651 [older| permalink|newer] / ↑Entrée #2651 [précédente| permalien|suivante] ↑

↓Entry #2650 [older| permalink|newer] / ↓Entrée #2650 [précédente| permalien|suivante] ↓

(mardi)

Méfions-nous de la modélisation « mathématique » des épidémies

Je vois passer de plus en plus de gens qui expliquent qu'une modélisation épidémiologique produite par Imperial College ou une étude de l'INSERM montre que ceci-cela. Je voudrais attirer l'attention sur l'extrême prudence avec laquelle il faut lire les résultats de toutes les modélisations épidémiologiques, et rappeler les limites de l'exercice. Prudence dont ne font d'ailleurs pas toujours preuve les gens qui annoncent ces résultats : mon but n'est certainement pas de traiter les épidémiologistes de charlatans, mais de souligner que :

  • nous ne disposons d'aucune sorte de modèle capable de prédire l'avenir avec un quelconque degré de fiabilité (à la fois par manque de données à mettre en entrée de ces modèles et par difficulté intrinsèque dans la modélisation), seulement de montrer quelques unes des possibilités qualitatives, et
  • ce n'est pas pour autant que ces modèles ne servent à rien, simplement il ne faut pas les utiliser comme des boules de cristal.

Bref, mon message principal en tant que mathématicien est que les épidémiologistes ne sont pas Hari Seldon, et que tout le monde doit avoir ce fait en tête (eux-mêmes comme ceux qui lisent leurs rapports). Ce qui ne veut pas dire qu'ils n'ont pas de messages importants à faire passer, ni que les modèles mathématiques n'ont rien à nous dire, ils sont très importants pour naviguer entre les possibles, mais il faut apprendre à faire preuve de la même prudence épistémologique que vis-à-vis de l'utilisation des mathématiques en économie ou en sociologie, et pour l'instant ce n'est pas gagné.

Cette entrée de blog est une version développée (et traduite en français) de ce fil Twitter [lien Twitter direct]. Il peut être utile de commencer par lire ce que j'ai écrit dans cette entrée-ci (qui est elle-même un développement+traduction de ce fil Twitter [lien Twitter direct]) où j'attire l'attention sur l'importance des effets des structures sociales locales qu'aucun modèle épidémiologique ne prend sérieusement en compte (voire, du tout).

Bref, je voudrais expliquer pourquoi l'utilisation de modèles pour simuler les épidémies ne marche tout simplement pas quand il s'agit de prédire l'avenir (et pourquoi ça ne signifie pas que ces modèles sont inutiles). Et aussi pourquoi le nombre de reproduction (dont tout le monde s'est mis à parler) est une quantité très problématique.

Quand une épidémie commence, on voit une croissance exponentielle bien prévisible. Ce qu'on voudrait que nos modèles nous disent, c'est quand et comment cette croissance exponentielle va ralentir puis s'arrêter, combien de personnes seront infectées, et combien mourront. Désolé, mais ça ne marchera pas.

Bien sûr que nous avons un modèle simpl(ist)e qui décrit une épidémie simple avec une contagiosité constante dans une population homogène avec mélange parfait entre individus. Ce modèle s'appelle SIR et il est la base de la base en épidémiologie : j'en ai parlé sous l'angle mathématique dans cette entrée de blog, puis j'ai parlé d'une variante (où le rétablissement se fait en temps constant) dans celle-ci, et j'ai écrit une note plus technique comparant les deux variantes.

Et bien sûr SIR vient avec toutes sortes de variantes plus sophistiquées, comme SEIR qui ajoute une période d'incubation, ou des variantes compartimentées par âge, géographie, etc. Et on peut crée des modèles stochastiques (basés sur des simulations d'un grand nombre d'individus plutôt que des équations différentielles). Mais dans toutes ces variantes, on a un certain nombre de problèmes fondamentaux, soit dans les modèles et ce qu'ils prennent en compte, soit dans les données qu'on peut leur fournir en entrée.

D'abord, il y a les inconnues sur le plan médical. J'en parle dans l'entrée précédente, mais rappelons quelques zones d'ombre. On ne sait toujours pas la chose la plus importante, à savoir combien il y a réellement de cas de Covid-19, et combien d'asymptomatiques. Des tests sont en train d'être fait, des tests aléatoires apparaissent timidement, mais pour l'instant les résultats vont dans tous les sens, semblent se contredire de façon impressionnante, et suggèrent donc surtout qu'il y a beaucoup plus d'inconnues qu'on ne le pensait. Et bien sûr, le nombre de cas étant inconnu (et, dans une moindre mesure, le nombre de décès l'est aussi), le taux de létalité l'est également. Des estimations varient de 0.1% à plus de 5%, ce qui donne une idée de l'étendue de notre ignorance ! En fait, le taux de létalité dépend sans doute de toutes sortes de facteurs (médicaux comme le mode de transmission ou la dose contaminante, et bien sûr démographiques, sociologiques, économiques). Les choses ne sont pas franchement meilleures du côté de la contagiosité ou du nombre de reproduction (je vais revenir sur le nombre de reproduction).

(Les difficultés que je viens de décrire sont assez bien exposées ici par FiveThirtyEight et ici sous forme de bande dessinée par Zach Weinersmith. Mais elles sont loin d'être toute l'histoire, et c'est aussi le reste que je veux souligner ici.)

Maintenant, ce que SIR nous dit, c'est quelque chose comme l'épidémie a une croissance exponentielle jusqu'à ce qu'il y ait une immunité significative qui la ralentit, et alors elle fait un pic. Si on ne sait pas combien de cas on a en vrai, on ne connaît pas le degré d'immunité, donc le modèle ne nous dit pas grand-chose.

Alors on pense peut-être mais justement, je vais peut-être pouvoir lire le niveau d'immunité depuis la courbe des cas passés et la manière dont elle s'infléchit. Mais non : d'une part, la courbe est beaucoup trop bruitée pour qu'on puisse lire autre chose qu'une vitesse de croissance exponentielle grossière (et même ça, on la lit mal) ; et d'autre part, la croissance exponentielle peut ralentir pour des tas de raisons différentes non gérées par le modèle, comme des mesures extérieures (confinement) ou un changement de comportement spontané par exemple sous l'effet de la peur (je vais y revenir).

Et ce n'est toujours pas la fin de l'histoire. Je veux encore expliquer que même si les gens ne changeaient pas du tout leurs habitudes (ce qui élimine les inconnues comportementales) et même si on connaissait exactement le nombre d'infections et le taux de létalité (ce qui élimine les inconnues médicales), il y aurait encore trop d'inconnues à cause des effets sociaux. Détaillons, parce que ça c'est une catégorie de problèmes dont on ne parle pas assez parce que trop de gens n'ont que SIR dans la tête.

Encore une fois, j'ai parlé de ces aspects dans une entrée passée (qui est elle-même un développement+traduction de ce fil Twitter [lien Twitter direct]), où j'ai expliqué pourquoi ces effets sociaux peuvent (en principe !) dramatiquement diminuer le taux d'attaque, mais je veux présenter les choses ici sous un angle différent en insistant sur la manière dont ils rendent les prévisions essentiellement impossibles.

Expérience de pensée. Considérons la même épidémie dans deux pays différents et idéalisés, disons de même population totale. Dans le pays A, la population est assez homogène, l'épidémie suit le modèle SIR de façon assez précise ; dans le pays B, la population est divisée en deux sous-populations : la (sous-)population B₁ se comporte comme le pays A (l'épidémie y a la même dynamique), mais dans la population B₂ elle a une contagiosité bien plus faible parce que ces gens ont moins de contacts entre eux. La division entre B₁ et B₂ pourrait être géographique (p.ex., population urbaine et rurale) mais elle pourrait aussi suivre des catégories sociales (organisation familiale, type d'habitat, travail, mode de transport, que sais-je encore) : mon but est juste de montrer en comparant deux situations simples qu'on peut complètement faire échouer les prédictions d'un modèle.

Bref, quand on observe ce qui se passe avec l'épidémie dans les deux pays, au début, A et B se comportent de la même manière. Seulement, dans le pays A, l'épidémie infecte tout le pays alors que dans le pays B elle infecte seulement la sous-population B₁ et ne va essentiellement nulle part dans B₂ : mais la différence ne saute pas aux yeux, parce que la croissance exponentielle est la même (une croissance exponentielle sur 50 millions d'habitants ou sur 10 de ces 50 millions, c'est toujours une croissance exponentielle…), et les stats publiées ne permettent pas forcément de voir la distinction entre B₁ et B₂. (Bien sûr, si la distinction est aussi évidente qu'une distinction géographique du genre urbain/rural, ça va se voir assez facilement, mais si c'est une distinction liée à des facteurs socio-économiques plus subtils on risque de ne pas du tout pouvoir la détecter dans les données.) Bref, on s'imagine que A et B se comportent pareil, et on lit les paramètres épidémiologiques (contagiosité, nombre de reproduction) sur cette base.

Seulement voilà qu'on atteint le point où, dans le pays B, la sous-population B₁ atteint une immunité significative et l'épidémie ralentit, tandis que dans A elle continue au même rythme parce qu'il faut que tout le pays atteigne une immunité suffisante. Et du coup, au bout du compte, on se retrouve avec des taux d'attaques très différents : dans A l'épidémie infectera x% de la population comme prédit par SIR alors que dans B elle infectera seulement x% de B₁ (et presque rien de B₂) ce qui fait beaucoup moins que x% de l'ensemble ! Le modèle qui marchait très bien au début cesse brutalement de marcher dans le pays B, alors qu'il continue à marcher dans A, parce qu'on ignorait une subdivision sociale importante, qu'on ne pouvait pas lire dans la courbe des cas au début de l'épidémie.

Ceci, bien sûr, est hautement simplifié (mon but est simplement de montrer par l'absurde qu'il n'est pas possible de faire des modèles qui marcheront sur la base d'observations plus grossières que les structures sociales pertinentes), mais cela donne un exemple de ce qui peut se passer.

Notamment, quand on parle du nombre de reproduction d'une épidémie, c'est un nombre synthétique, tellement synthétique qu'il en devient presque dénué de sens : l'épidémie progresse dans différentes sous-populations avec des dynamiques différentes, en gros selon des exponentielles. Mais dans une somme d'exponentielles, on ne voit que l'exponentielle qui a la croissance la plus rapide, les autres sont perdues dans le bruit de celle-ci. Donc quand on dit qu'on observe un nombre de reproduction de 3 (disons), ce que ça veut vraiment dire, c'est que au sein de la sous-population qui subit la croissance la plus rapide de l'épidémie le nombre de reproduction a cette valeur : ça ne nous dit essentiellement rien sur la taille de cette sous-population ou la valeur du nombre de reproduction dans d'autres sous-populations, et on ne peut pas lire ces informations sur les statistiques de nombres de cas.

Donc à moins d'avoir accès à des données géographiques et socio-économiques extrêmement fines sur les personnes infectées (ce que nous n'avons pas, on a à peine quelques informations sur l'âge et le sexe), on n'a simplement aucun moyen de savoir comment l'épidémie se propage différemment dans différentes sous-populations et, du coup, comment elle évoluera à l'avenir. (Tout ceci n'a rien à voir avec les inconnues d'ordre médical évoquées plus haut.)

Et ces problèmes d'imprédictibilité sont encore accentué par le fait que, évidemment, les gens modifient leurs comportements en réponse aux informations qu'ils entendent (et leur peur de l'épidémie) et pas juste en fonction de ce que les autorités leur ordonnent (confinement par exemple). Donc si on voit la croissance exponentielle ralentir, il est essentiellement impossible de savoir si c'est parce qu'une sous-population commence à devenir significativement immunisée, ou simplement parce que les gens changent leurs comportements, ou une combinaison de ça.

Et inutile de dire qu'il n'y a aucune modélisation satisfaisante de comment les gens réagissent à une épidémie et changent leurs comportements, ou quels effets ces changements auront sur la contagiosité de l'épidémie.

Dois-je rappeler que, s'agissant du Covid-19, on ne sait même pas comment, dans quelles circonstances, et chez qui la plupart des infections se produisent ? (Contacts directs de personne à personne, contaminations par les surfaces, contaminations par l'air, contaminations par les aliments…) Donc même si on avait une mesure fiable de combien de la réduction des contacts professionnels, ou amicaux, ou dans les transports, on ne saurait pas pour autant en déduire l'effet sur la contagiosité.

Bref, pour résumer, essayer de prédire une épidémie avec des modèles est un peu comme essayer de prédire la météo deux semaines à l'avance en utilisant juste la mesure de la température dans quelques grandes villes. Ah, et les thermomètres ne sont même pas calibrés de la même manière ! (Parce que, bien sûr, différents pays ou états ont des manières complètement différentes de tester, de mesurer le nombre de cas et le nombre de décès, et de publier leurs statistiques ; et la documentation de ces informations est confuse. Quel chaos !)

Si un modèle est trop simple, il rate des choses essentielles et donnera des résultats faux. Alors bien sûr on peut essayer de construire un modèle hautement sophistiqué qui tiendra compte de tout : mettre un zillion de paramètres différents pour tenir compte des sous-populations géographiques et socio-économiques, des réactions comportementales à l'épidémie, des complexités médicales (comme la gravité des cas et des variations de contagiosité qui vont avec), de la prise en charge hospitalière, de la publication des statistiques, des échanges internationaux et des cas importés, bref, la totale.

Mais au final on se retrouve à modéliser toute la société, et il y a une raison pour laquelle la psycho-histoire n'existe pas : quand il a trop de paramètres, un modèle devient inutilisable pour faire des prévisions : on peut l'ajuster à n'importe quelle observation en réglant les paramètres. (Grosso modo, un modèle ne doit pas avoir plus de quantité d'information dans ses paramètres qu'il n'y en a dans les observations qu'on lui soumettra. Or, s'agissant de l'épidémie, les observations sont tellement bruitées qu'elles ont très peu d'information vraiment utile.)

Tout ceci ne signifie pas que les modèles sont inutiles : ils sont inutiles pour faire des prévisions de ce qui va se produire ; mais ils sont utiles pour comprendre les sortes de phénomènes qui peuvent se produire. Même si on n'a que des observations pourries de thermomètres pourris, on peut théoriser toutes sortes de choses intéressantes sur la météo (comme ce qu'est un anticyclone et comment il aura tendance à se comporter). Par exemple, j'ai expliqué à travers des modèles-jouets liés ci-dessus que les effets sociaux peuvent diminuer le taux d'attaque et un rétablissement en temps constant aura tendance à rendre le pic épidémique plus haut et serré (par rapport au modèle SIR) : ce sont des effets généraux, je ne peux pas prédire par combien (surtout pour le premier), mais ces effets sont importants à noter et à comprendre.

Mais tous ceux qui font tourner des simulations épidémiques sur ordinateur, aussi sophistiqués que soient leurs modèles (voire d'autant plus que leurs modèles sont sophistiqués et ont plein de paramètres) devraient faire preuve de la plus extrême modestie en mettant en avant les prévisions de leurs modèles comme des indications de ce qui va se passer. Et ce même s'ils ont eu raison par le passé : après tout, le modèle trivial qui prédit une croissance exponentielle illimitée sera correct jusqu'à un certain point où tout d'un coup il cesse de l'être — toute la difficulté est de prédire ce point, et on ne peut peut-être pas faire mieux qu'une vague intuition.

De même, toute personne utilisant le terme nombre de reproduction devrait garder à l'esprit qu'il est à peu près aussi informatif que la température moyenne sur l'ensemble de la Terre quand on parle de météo : on ne sait pas pour quelle sous-population on le mesure, ni ce qui l'influence. (Et aussi, je n'en peux plus de tous ces gens qui affirment sans nuance que le seuil d'immunité grégaire est autour de 60%–70% sur la base d'un nombre de reproduction de 3 et du modèle SIR homogène complètement faux.)

Maintenant, ce qui m'inquiète surtout avec tout ça, c'est que les hommes politiques risquent d'écouter les épidémiologistes qui parlent le plus haut et fort des qualités de leur modèle, et/ou ceux qui ont une réputation de grands pontes (ce sont souvent les mêmes), comme les hommes politiques ont tendance à écouter les infectiologues qui parlent le plus haut et fort des qualités de leur remède miracle préféré et/ou ont une réputation de grands pontes. Or les gens les moins modestes ne sont pas forcément les plus compétents.

Je pense, comme je l'ai suggéré en introduction, qu'il est assez pertinent de comparer l'épidémiologie à l'économie ou à la sociologie (qui ne sont d'ailleurs pas si éloignées) plutôt que, disons, à la climatologie comme je l'ai peut-être malheureusement suggéré dans ce qui précède (comparaison qui a du sens pour d'autres raisons) : il s'agit de modéliser des phénomènes humains profondément complexes dont certains aspects, mais pas tous, se laissent bien mettre en équations. Les modèles mathématiques ont tout à fait leur place dans toutes ces disciplines, il ne faut pas en avoir peur ni les refuser par principe : mais il faut être bien conscient de leurs limites, à la fois leurs limites intrinsèques, leurs limites dues aux limitations des données et observations qu'on peut leur fournir en entrées, et leurs limites dues aux présupposés de ceux qui les développent ou appliquent.

Sur ce dernier point, je veux souligner qu'il existe des économistes plus ou moins à gauche ou à droite sur le spectre politique, et ils ont tendance à trouver des modèles qui confortent leurs opinions politiques préexistantes. (Bien sûr, on peut espérer que la causation ait lieu plutôt dans l'autre sens, que leurs opinions politiques découlent de ce que leurs modèles leur disent, mais qui y croit.) Ce n'est pas forcément damnant, mais ça doit justement nous aider à nous rappeler la limite de ces modèles. Je pense qu'il en va de même des épidémiologistes : qu'il en existe des confiniens et des immunitaristes et que leurs modèles vont, comme par hasard, montrer surtout les avantages des stratégies de type ① contenir ou ② mitiger. Encore une fois, ce n'est pas forcément damnant, il faut juste se rappeler que le modèle n'est pas la vérité révélée mais incorpore une bonne partie des présupposés de ceux qui l'ont développé.

Mais la différence avec l'économie ou la sociologie est que nous avons collectivement appris (du grand public aux politiques, en passant par les chercheurs eux-mêmes), au moins dans une certaine mesure, à évaluer avec prudence ce que disent les économistes et sociologues et à nous rappeler qu'ils peuvent être orientés politiquement : alors que, s'agissant de l'épidémiologie, notre capacité à mettre en doute et en perspective n'est sans doute pas bien développée — nous sommes, si j'ose dire, immunologiquement naïfs vis-à-vis des préjugés et autres limitations des modèles des épidémiologistes autant que nous le sommes vis-à-vis du nouveau virus. Nous n'avons aucune habitude du fait que l'épidémiologie occupe un terrain aussi exposé médiatiquement, — ces gens sont des médecins ou des mathématiciens, professions entourées d'un certain préjugé de respectabilité ou de fiabilité, ils ont des méthodes qui ont l'air sérieuses (des équations différentielles ! des statistiques bayesiennes !), — du coup, nous avons tendance à leur faire confiance : ce qui n'est pas injustifié, heureusement, mais cette confiance peut dépasser la précaution que toutes ces prévisions demandent. Et la même chose vaut pour les épidémiologistes eux-mêmes, portés tout d'un coup sur le devant de la scène mondiale, et qui doivent à la fois livrer des prévisions que tout le monde leur réclame anxieusement, et se montrer meilleurs qu'une armée de charlatans amateurs qui réclament l'attention sur leurs innombrables variations autour de SIR : même s'ils ont développé une certaine réserve vis-à-vis de leurs propres résultats et de ceux des autres, les journalistes seront loin d'avoir cette même réserve. Le cocktail est épistémologiquement explosif.

Regardons un petit exemple pour illustrer les difficultés que je signale : le dernier rapport du laboratoire EPIcx de l'INSERM concernant l'Île-de-France. Pas que ce rapport soit plus problématique que les autres, mais il se trouve que tout le monde m'en parle en ce moment, alors je vais utiliser cet exemple.

Sur quoi se basent-ils donc ? Essentiellement un modèle SEIR (dans une variante stochastique) avec trois compartiments (sous-populations) par tranches d'âge (enfants, adultes, seniors), et une typologie assez complexe des stades de la maladie (période d'incubation, période présymptomatique mais infectieuse, période symptomatique) et des niveaux de symptômes (asymptomatiques, pauci-symptomatiques, moyennement symptomatiques, nécessitant une hospitalisation, nécessitant réanimation…), avec une modélisation assez fine du processus hospitalier. L'aspect médical de la simulation est donc assez raffiné — ce qui ne l'empêche pas de buter contre le problème que j'ai déjà mainte fois signalé qu'on ne sait toujours pas grand-chose sur la proportion de malades et de symptomatiques ! et qu'il leur faut donc choisir leurs chiffres parmi plein d'études contradictoires. L'aspect sociologique, lui, est complètement ignoré : de ce que je comprends, chacune des populations (enfants, adultes, seniors) est traitée comme complètement homogène et toute la sociologie est ramenée à des matrices de mélange entre ces populations selon les mesures de distanciation appliquées (et qui sont évaluées comme ils le peuvent). Aucune sorte de modélisation de la taille des familles n'est effectuée, par exemple (la contamination intra-familiale est simplement une composante de la contamination en général, comme si les contacts familiaux avaient lieu aléatoirement au sein d'une population homogène ; pourtant, la taille des ménages c'est au moins quelque chose sur quoi on a des données), aucune distinction entre travailleurs et télétravailleurs, aucune catégorisation selon l'usage des transports en commun, aucune catégorisation selon le nombre de contacts sociaux dont j'ai souligné l'importance, etc. Je n'arrive même pas à savoir s'ils ont fait une modélisation géographique. Il n'est même pas très clair, à la lecture du rapport, à partir de quoi ils estiment que le confinement réduit les contacts de 80%, j'ai l'impression qu'il s'agit d'une estimation à vue d'œil sur la croissance des cas (mais ce qui ignore le fait qu'une composante de la réduction de la croissance est liée à des mesures de distanciation spontanée de la population). Bref, énormément de limitations.

Ce qui n'est pas, encore une fois, un reproche grave — ni même un reproche tout court. Comme je l'ai dit plus haut, il est tout simplement impossible de faire un modèle complet. C'est normal.

Mais cela doit nous rappeler que les choix des phénomènes modélisés (ici, tout ce qui est médical est rendu avec une certaine finesse, ce qui est sociologique ne l'est pas du tout), et dans une certaine mesure les choix des paramètres parmi des estimations contradictoires, dépend des présupposés des modélisateurs. Donc en aucun cas les conclusions de leur modèle ne peuvent être considérées comme des prédictions, seulement des possibilités. (Ce qui ne m'empêche pas d'y croire globalement !) Le problème n'est pas dans les limitations du modèle, le problème est dans le langage utilisé dans la formulation des conclusions, qui ne fait pas preuve de la prudence séant à ce niveau d'incertitude (p.ex., intensive forms of social distancing are required présuppose à la fois que leurs estimations sont correctes et qu'on ait décidé de ne pas viser une immunité collective). Et si les auteurs du rapport sont certainement au courant des limitations de leur modèle, il aurait été de bon ton de les développer, parce que je ne pense pas que beaucoup de lecteurs fassent spontanément l'analyse que je viens d'expliquer dans les paragraphes précédents.

Il y a un autre problème qu'il faut que je discute (parce qu'il est en rapport, sinon avec ce que j'ai dit ci-dessus, au moins avec l'honnêteté de l'épidémiologie en tant que discipline), à la fois concernant le rapport de l'équipe de l'INSERM que contre celui d'Imperial College que j'avais évoqué ici. Disons que j'ai un reproche conditionnel à faire : je ne sais pas s'il faut le faire, j'espère que ce n'est pas le cas, mais si c'est le cas il est très grave à mes yeux.

Le problème est que je ne vois pas où est le code source de leur modélisation (je veux dire, le programme qui a servi à la calculer, et les données fournies en entrée). Je veux être prudent, donc, parce qu'il est possible (probable ?) que j'aie simplement mal regardé, et si on me signale qu'il fallait juste chercher à tel endroit, je me contente de dire ce n'était franchement pas très clairement indiqué ! (les mots source code ou équivalents devraient apparaître dans le rapport, il devrait y avoir un lien clair depuis la page web du labo, etc.).

En revanche si le code source n'est pas du tout rendu public, alors je dis franchement : cette attitude est indigne de chercheurs ou de scientifiques. En effet, le propre de la démarche scientifique est d'être reproductible : la sortie d'une modélisation n'a aucune valeur si on ne fournit pas les moyens de refaire cette modélisation (c'est-à-dire à la fois le programme utilisé pour la modélisation, et toutes les données qui lui ont été fournies en entrées). C'est bien de fournir une vague description du modèle utilisé (le nombre de compartiments de la population, les constantes de mélange, etc.) et de tracer quelques courbes que le modèle a produit en sortie, mais ça ne suffit en aucune manière (ne serait-ce que parce qu'il y a toujours des choses qui seront peu claires sur la description, par exemple quelle est la distribution de probabilité sur le temps de rétablissement ? j'ai montré que ça avait beaucoup d'importance).

Si tout un chacun ne peut pas faire tourner lui-même la simulation, jouer avec les paramètres et explorer ce que leur variation a pour effet, le modèle n'a pas de valeur scientifique et je considère qu'aucun journal ne devrait accepter de le publier. J'espère donc que j'ai simplement mal regardé et que le code source est disponible sur un GitHub que je n'ai pas vu. (En tout cas, j'attire l'attention sur le fait que dans la modélisation des effets sociaux que j'ai écrite il y a quelque temps, et dont je rappelle qu'elle ne prétend pas faire la moindre prédiction mais uniquement montrer des tendances, j'ai bien fourni le code source utilisé pour mes simulations.)

↑Entry #2650 [older| permalink|newer] / ↑Entrée #2650 [précédente| permalien|suivante] ↑

↓Entry #2649 [older| permalink|newer] / ↓Entrée #2649 [précédente| permalien|suivante] ↓

(mercredi)

La confusion est toujours totale

Mon moral ne s'améliore pas, bien au contraire. Au sentiment d'injustice à être maintenu prisonnier et la sensation d'oppression qui va avec (et qui est en train d'engendrer une véritable haine de mon appartement et de mon quartier) s'ajoute de façon de plus en plus pressante la conviction que la levée du confinement va être une catastrophe et qu'on s'achemine vers un monde épouvantable qui combinera le pire de tous les tableaux : l'horreur dystopienne de mesures de contrôle qui n'auront cependant aucun effet réel sur l'épidémie, le désastre d'une crise économique sans précédent que ces mesures vont causer (et qui causera possiblement bien plus de morts que la maladie), et le désastre sanitaire de l'épidémie elle-même qui n'a fait que commencer. Je continue à ne pas arriver à penser à autre chose. Et plein de petits malheurs s'ajoutent aux grandes angoisses : je ne vais pas en faire la liste, mais une petite humiliation particulièrement malvenue m'est arrivée aujourd'hui quand j'ai voulu mettre sur l'arXiv (le dépôt mondial de prépublications scientifiques en physique, maths, informatique, etc.) une version proprement rédigée de la dernière note de ce blog par laquelle j'espérais au moins apporter une petite contribution intéressante à l'épidémiologie (avec, en plus, des remarques sur quelques liens intéressants avec la théorie des graphes orientés aléatoires) et que cette note a été rejetée par l'arXiv — je ne savais même pas que c'était possible de se faire rejeter par l'arXiv — me privant ainsi de la minuscule satisfaction de donner la moindre visibilité à cette très petite contribution. (Mise à jour () : j'ai quand même mis la note sur HAL.)

Bon, essayons de faire un peu le point sur ce qu'on sait, ou plutôt, sur ce qu'on continue à ne pas savoir du tout.

Les informations rapportées par les tests concernant le Covid-19 continuent à être complètement mystifiantes. J'ai expliqué la semaine dernière l'importance de faire des tests aléatoires, couplés à des sondages symptomatiques à grande échelle, pour pouvoir mesurer l'étendue de l'épidémie : quelques tests aléatoires ou para-aléatoires (volontaires) ont été menés çà et là, mais malheureusement sans méthodologie claire. (Par exemple, certains utilisent uniquement des tests sérologiques encore en développement : du coup, on ne connaît pas du tout leur fiabilité et le résultat est inutilisable ; alors que si on menait, sur le même échantillon, des tests virologiques et sérologiques, on aurait au moins un recoupement possible sur la base de l'hypothèse que la proportion d'infectés actuels sur les infectés historiques peut plus ou moins approximativement se déduire des statistiques d'hospitalisation en supposant que la proportion d'hospitalisation ne varie pas trop ; et idéalement reprendre les mêmes personnes régulièrement permettrait de comprendre un peu la fiabilité des tests.) Ces tests semblent donner, en outre, des résultats complètement incohérents les uns avec les autres (par exemple quand il s'agit d'estimer le nombre d'asymptomatiques) : des endroits à peu près également touchés (en nombre de morts, de cas cliniques enregistrés) enregistrent des taux de positivité complètement différents. Un bled italien a relevé un taux de positifs hallucinant parmi les donneurs de sang, qui étaient asymptomatiques, mais ce bled enregistre aussi beaucoup de morts malgré un nombre de cas plutôt faible, donc au final on ne sait vraiment pas quoi conclure à part qu'on n'y comprend rien mais qu'il y a sans doute des tests qui ne valent rien. Et en plus de la mauvaise qualité technique et méthodologique des tests, il y a la mauvaise qualité du retour d'information, souvent relayée par des journalistes qui n'y comprennent rien et qui déforment encore plus les choses. Bref, à ce stade, tout semble scientifiquement inexploitable. Je ne sais pas si ça a des chances de s'améliorer.

[Évolution relative statistiques Covid-19 en Île-de-France]Côté statistiques, les choses ne sont pas franchement moins confuses. Je calcule régulièrement un graphe comme celui ci-contre, qui représente grosso modo l'évolution relative, i.e., essentiellement la dérivée logarithmique, des cas de Covid-19 en Île-de-France. Plus exactement, les points rouges représentent, pour chaque jour (compté depuis le ) l'augmentation quotidienne du nombre de personnes hospitalisées pour Covid-19 en Île-de-France (départements 75, 92, 93, 94, 77, 78, 91, 95) divisée par le nombre lui-même (bref, (N[J]−N[J−1])/N[J] si N[J] est le nombre d'hospitalisés au jour J), et la courbe bleu foncé représente la même chose en lissant au préalable le logarithme du nombre N[J] d'hospitalisés avec une régression par processus gaussien (et, dans les faits, en laissant sklearn.gaussian_process.GaussianProcessRegressor faire sa magie), bref, c'est une sorte d'interpolation pour tenter d'effacer les fluctuations aléatoires ; les points orange et la courbe bleu clair représentent la même chose mais au lieu du nombre d'hospitalisés il s'agit de la somme cumulée sur les 10 derniers jours du nombre de passages aux urgences pour suspicion de Covid-19 (pourquoi 10 ? parce que pour les gens qui sont hospitalisés c'est le temps typique qu'ils y passent, donc c'est un proxy comparable aux données hospitalières). Le code utilisé pour générer le graphe est ici (librement basé sur du code qu'on m'a fourni sur Twitter). Grosso modo, le pic épidémique correspond au moment où les courbes passent dans les valeurs négatives (le nombre d'hospitalisés ou de malades diminue) : les points rouges et la courbe bleu foncé montrent l'évolution des cas graves (hospitalisés) tandis que les points orange et la courbe bleu clair donnent une idée approximative de l'évolution des cas moins graves. Ce que tout cela signifie au juste n'est pas clair, bien sûr (et notamment pourquoi il y a un tel écart entre ces deux courbes), mais il est clair qu'on est en voie de traverser un pic épidémique en Île-de-France.

Mais parmi les choses qui ne sont pas claires, il y a les raisons pour lesquelles ces courbes sont orientées à la baisse (c'est-à-dire que l'épidémie décélère au sens logarithmique) depuis assez longtemps. Le confinement a certainement un effet, mais je m'attendais à voir le confinement apparaître comme une rupture assez nette, sinon une discontinuité au moins une variation assez forte et resserrée, dans ces courbes, or ce n'est pas le cas. Le confinement a été décrété en France à partir du , c'est-à-dire le jour 22 sur mon graphique, et on s'attend à ce que ses effets se manifestent environ 12 jours après (parce que la période d'incubation est d'environ 5j et qu'il faut encore 7j pour que les symptômes deviennent graves quand ils le deviennent), donc autour du jour 34, or si on voit bien une baisse dans ces eaux-là, elle ne semble faire que continuer une baisse bien entamée avant. Je vois au moins trois pistes d'explication possibles, mais aucune n'est très convaincante : (a) la saturation d'une ressource (à commencer par les lits d'hôpital), mais là aussi je m'attendrais à une variation un peu plus brutale, pas à une pente gentiment régulière sur les deux courbes, (b) des changements de comportement indépendamment du confinement, mais je suis surpris qu'ils aient pu se produire aussi tôt, ou enfin (c) une immunité s'installant, sinon chez la population en générale, au moins chez les sous-populations qui sont les plus exposées à l'épidémie (par exemple ceux qui ont le plus grand nombre de contacts), mais que ce phénomène ait pu commencer de façon non-négligeable dès le début du mois de mars semble très surprenant. Au final, je ne sais pas quoi penser, et je n'ai certainement toujours pas de vision claire de ce que peut être la part d'immunité installée et la part d'effet de la distanciation sociale.

Les modèles épidémiologiques comme SIR (voir ici et ) sont évidemment incroyablement simplistes dans leur description soit le nombre de reproduction est >1 et l'épidémie progresse exponentiellement, soit il est <1 et elle régresse exponentiellement. J'ai déjà insisté sur l'importance de la structure sociale locale, mais le même type de phénomènes se reproduit à toutes sortes de niveaux : on ne peut pas considérer qu'on a affaire à une population homogène mais à une multitude de sous-populations (par zone géographique et par catégorie socio-économique ou socio-professionnelle), avec des interactions complexes, chacune ayant sa propre dynamique épidémiologique, qui interagit avec les autres. Comme une somme d'exponentielles est dominée par la plus rapide de toutes, on détecte avant tout la contamination des sous-populations où le virus se propage le mieux, ce qui conduit à surestimer en pratique le nombre de reproduction (disons qu'on ne voit que sa frange la plus élevée) : cela se voit assez bien au niveau géographique quand on parle de clusters, par exemple dans les grandes villes, mais le même phénomène peut se produire sur d'autres dimensions moins facilement observables que les dimensions spatiales (notamment sociologiques). Si l'épidémie commence à saturer une sous-population parce qu'elle devient immunisée, la croissance exponentielle va décélérer jusqu'à être dominée par une autre sous-population qui n'a pas encore saturé. C'est une raison pour laquelle on peut s'attendre à une diminution graduelle, éventuellement avec des paliers, de la vitesse de croissance exponentielle. Mais, encore une fois, je ne sais pas si c'est ce qui explique effectivement ce qu'on observe.

Et bien sûr, le confinement ne réduit pas les contacts de toutes les personnes de façon uniforme : lui aussi va avoir plus ou moins d'effet dans des sous-populations distinctes (il n'a pas d'effet au sein d'un même foyer, pour commencer), donc on s'attend à voir la dynamique se modifier de façon assez imprévisible et être dominée par une nouvelle sous-population où la reproduction serait la plus rapide. (On peut tout à fait imaginer, et cela se produira peut-être, que le nombre de cas reparte à la hausse, mais moins vite, parce que la sous-population qui avait précédemment la croissance la plus forte de l'épidémie serait passée en régime où elle régresse, mais qu'une autre sous-population qui était précédemment moins sujette à contagion, bénéficierait très peu du confinement et deviendrait celle qui a la croissance dominante de l'épidémie.) Tout cela sera extrêmement difficile à lire.

Médicalement, il y a apparemment un certain nombre de signes que la gravité de la maladie serait peut-être liée soit au mode de contamination soit à la dose contaminante ou à leur multiplication. Cela expliquerait notamment le fait très préoccupant que le personnel soignant ait apparemment plus de chances de développer des formes graves du Covid-19 (étant plus exposé, plus souvent exposé, et exposé à des formes elles-mêmes plus graves) ; ou encore que les contaminations en groupe aient aussi tendance à être plus graves. Ceci pourrait aussi expliquer certaines anomalies dans les statistiques, comme l'extrême variabilité des taux de létalité observés si la létalité ne dépend pas seulement de l'état du patient (âge et précondition) de la donnée a été contaminé mais de la manière dont la contamination a eu lieu (qui peut dépendre de toutes sortes de paramètres sociologiques). Mais cela rend encore plus difficile la compréhension de l'état réel d'avancement de l'épidémie. Ou la décision de ce qu'on doit faire de cette information (on pourrait imaginer de laisser les gens se faire contaminer par des doses faibles, dans l'espoir qu'elles développent des formes bénignes voire asymptomatiques, comme dans la variolation, une forme de pseudo vaccination, mais ce serait très difficile de calibrer l'opération et encore faut-il que les personnes puissent savoir qu'elles ont été contaminées et s'isoler ensuite). Toujours est-il qu'on peut s'attendre à ce que la dynamique des formes graves de la maladie (et donc la fraction des cas graves) ne coïncide pas précisément avec celle des formes plus bénignes, même en tenant compte des paramètres démographiques. Par exemple, il est assez plausible que les régions ou sous-populations ayant le plus de cas dans l'absolu aient aussi la plus grande proportion relative de cas graves.

Une autre question médicale qui est pas mal ouverte, c'est l'étendue de l'immunité conférée par la maladie, et notamment par ses formes bénignes voire asymptomatiques, ainsi que sa durée dans le temps, et aussi le danger que dans certains cas l'immunité acquise soit en fait dangereuse (par facilitation par les anticorps). Je vois passer sur Twitter pas mal de gens qui aiment (se) faire peur en expliquant qu'il y a des cas de réinfection par le Covid-19, voire que les réinfections seraient plus graves que les premières infections (parce que le système immunitaire s'emballerait). Je ne suis pas du tout expert, mais ça ressemble beaucoup à du fearmongering. De ce que j'ai compris de l'avis des experts, ces histoires de réinfections sont sans doute des faux rétablissements (les tests ne sont pas terriblement fiables, ou plutôt, les prélèvements sont difficiles à mener, donc un test négatif ne prouve pas qu'il n'y a plus d'infection), parce qu'il est difficilement crédible qu'un virus qui aurait été éliminé par le système immunitaire parvienne à réinfecter en un intervalle de quelques jours : on a des expériences sur le singe qui montrent que l'infection, au moins chez eux, au moins en général, confère bien une immunité, et il y a des indices que c'est le cas chez l'homme même en cas d'infection peu grave ; cet article et ce fil Twitter font un peu le point. Mais surtout, s'il n'est pas exclu qu'il y ait pu avoir des réinfections, y compris avec une seconde infection plus grave que la première, ils ne doivent pas être statistiquement très significatifs, parce qu'au stade où en est l'épidémie, on aurait énormément de tels cas sous la main si ça se produisait avec une certaine fréquence (il y a 300k patients guéris officiellement recensés, c'est-à-dire clairement identifiés, la plupart doivent être dans des endroits où le virus circule largement, donc facilement 1% doivent avoir au moins subi une tentative de réinfection de la part du virus, ça devrait faire 3000 cas de réinfection : si ne serait-ce que 10% conduisaient à une seconde infection et qu'elle était plus grave, ça se saurait vraiment). Il est possible que si la seconde infection a lieu elle soit plus grave que la première, mais de toute évidence ça doit rester rare. Comme en outre le virus ne semble pas accumuler de mutation significative, il est peu probable qu'il y ait, comme pour la dengue, différentes souches dont l'immunité à certaines aggraverait l'infection par d'autres (d'autant que ce mécanisme n'est pas connu des autres coronavirus).

Le confinement, de toute évidence, ne pourra pas être maintenu indéfiniment. Ce qui va se passer quand il sera levé, ne serait-ce que progressivement, est la grande inconnue, qui dépend avant tout de l'immunité installée, dont je viens d'expliquer qu'on n'en savait rien tant les tests sont actuellement inexploitables, tant elle dépend de considérations sociologiques compliquées, et tant les questions médicales sous-jacentes sont elles-mêmes confuses. J'ai un certain espoir qu'il y ait assez d'immunité dans les sous-populations où la reproduction du virus est la plus facile, et qu'en outre la levée du confinement n'implique pas un retour au statu quo ante dans les habitudes, pour qu'au moins on ne retrouve pas une croissance exponentielle au rythme assez impressionnant de 0.2/j qu'on observait avant le confinement. Mais la question qui demeure est de savoir si on sera plutôt dans un régime de croissance exponentielle (fût-il plus lent) ou de décroissance exponentielle. Et l'autre question, c'est ce que vise le gouvernement.

Je ne vais pas en rajouter une couche avec mes histoires théoriques de stratégies ① et ②, donc je vais présenter les choses un peu différemment : on peut imaginer soit ❶ d'attendre jusqu'à ce qu'il n'y ait essentiellement aucun nouveau cas, et relâcher le confinement seulement à ce moment-là, puis espérer traquer tous les cas qui apparaîtraient et les empêcher de donner lieu à de nouvelles contaminations, et ce, plus rapidement qu'ils apparaissent : c'est ce qu'essaie de faire la Chine, c'est ce que fait la Corée avec un certain succès (mais que je ne crois pas transposable en Europe à cause de la plus grande difficulté de contrôler les frontières, à cause du manque de moyens technologiques, et à cause de différences sociétales fortes) ; ou bien ❷ de relâcher un petit peu le confinement quand les urgences seront moins saturées (par exemple après une semaine de baisse), quitte à ce qu'il y ait un nouveau pic, mais moins important, et de relâcher progressivement à chaque fois que les urgences désaturent, de manière à y garder un flux tout juste gérable, le fameux flatten the curve, qui produit, dans les faits, un plateau épidémique plutôt qu'un pic. (Vous voyez ? J'ai changé ma présentation et j'ai même changé la façon dont les numéros sont écrits.) Les deux approches sont périlleuses : la ❶ peut échouer parce qu'on perd le contrôle de l'épidémie, et alors tout le temps passé à la ramener à quasi zéro aurait été pour rien, la ❷ demande énormément de finesse dans le relâchement du confinement alors qu'on ne contrôle que très mal ce que les gens feront et qu'on ne sait pas quel effet les mesures auront (et qu'on ne l'observe que deux semaines plus tard, et encore, très mal ! comme je l'ai montré plus haut). Et les deux peuvent très mal tourner ou devenir quasiment impossibles à mener si l'épidémie est plus contagieuse ou plus répandue qu'on le pensait.

Ce que vont (chercher à) faire les gouvernements européens est toujours entouré de la plus grande confusion. L'Autriche et le Danemark parlent déjà de relâcher le confinement, même l'Italie fait des signes dans ce sens, ce qui suggère plutôt l'approche ❷ puisque visiblement on est loin de l'extinction de l'épidémie. Ce petit clip d'Arte décrit aussi clairement l'approche ❷ (mais les journalistes n'ont pas vraiment de raison d'en savoir plus que moi). Cependant on reçoit encore des signes assez contradictoires. Pas mal de discussions autour de la collecte des données des mobiles, par exemple, ce qui relève plus de l'approche ❶ (et j'ai bien peur qu'on se retrouve avec tout l'arsenal dystopien de cette approche sans que cet arsenal soit utile parce que l'épidémie ne se laisserait pas si facilement maîtriser). Beaucoup de gens sur Twitter sont fermement persuadés qu'on adoptera l'approche ❶ : voir par exemple ce fil Twitter (qui est intéressant parce que dans le premier message on y entend le chef du service des maladies infectieuses de la Pitié, le professeur Caumes, et le journaliste qui l'interviewe, parler de mater, casser ou éradiquer l'épidémie, visiblement l'approche ❶), et je crois que l'OMS continue à pousser dans cette direction.

Mais je pense qu'il y a une certaine confusion pour plusieurs raisons. La principale est cette idée qu'il faut absolument 60% ou je ne sais combien de contaminés pour qu'il y ait une immunité grégaire, et donc que l'approche ❷ consiste absolument à infecter 60% de la population. La réalité, comme je l'ai exposé à de nombreuses reprises y compris ci-dessus, est bien plus complexe : ce chiffre de 60% suppose une population homogène, ce qu'elle n'est pas, et suppose que les comportements resteront les mêmes, ce qu'ils ne feront pas ; en fait, dès lors qu'on passe un pic épidémique, c'est qu'on a atteint un seuil d'immunité grégaire vis-à-vis des circonstances où ce pic se produit (puisque l'épidémie commence à régresser), l'enjeu n'est pas tant de savoir si on l'a atteint à 60% ou 30% ou 10% mais dans quel mesure on l'a artificiellement abaissé par des mesures prises au forceps et qui ne pourront pas durer dans le temps (comme un confinement). L'idée confuse sous-jacente est que des gens proposeraient de forcer l'épidémie à infecter un maximum de personnes (histoire d'atteindre la fameuse immunité grégaire), au lieu de simplement ne pas faire tous les efforts possibles pour la supprimer. Or je ne pense pas que qui que ce soit propose sérieusement une telle chose. Bref, ce que vise l'approche ❷ n'est pas une immunité grégaire définie par un chiffre absolu, mais surtout de pouvoir relâcher la pression sociale (retrouver un fonctionnement à peu près normal des transports en commun et lieux publics, par exemple) sans que l'épidémie explose immédiatement.

En tout état de cause, je trouve exaspérante l'attitude de culpabilisation moralisatrice exercée vis-à-vis de ceux qui ne respectent pas le confinement ou dont les attitudes se relâchent (voir par exemple ce mini sujet de France 24). Sur l'aspect extrêmement malsain de cette attitude dénonciatrice, je rejoins totalement ce fil Twitter. Mais sur le fond, je veux aussi souligner à quel point c'est justement un mécanisme d'équilibre par rétroaction qui fonde l'approche que j'ai numérotée ❷ ci-dessus qu'il y ait un « relâchement » progressif, et pas forcément décrété par en haut, des attitudes au fur et à mesure que l'épidémie semble régresser (relâchement qui provoquera sans doute une nouvelle recrudescence, donc une atténuation de ce relâchement, etc., avec des oscillations dont on ne sait pas combien elles seront amorties) : au lieu de le condamner, on peut se réjouir du fait que, si ce relâchement est assez progressif (et il a l'air de l'être !), ce sont les personnes qui ont elles-mêmes choisi de s'exposer qui participeront à l'immunité de groupe protégeant les plus vulnérables. Donc si l'approche ❷ est bien celle qui est visée, il ne faut pas se lamenter qu'il y ait un relâchement tant qu'il reste progressif et modéré.

Globalement, comme je le disais au début de cette entrée et comme je l'ai dit à plusieurs reprises, je suis extrêmement pessimiste sur ce qui va se passer pour nos sociétés. Au moins l'épidémie elle-même, on peut estimer qu'elle fera quelque part entre 0.05% et 1% de morts dans les pays européens selon la facilité avec laquelle elle se laisse contenir, c'est une fourchette bien large mais qui représente une known unknown ; les crises économique, politique, sociétale et internationale qui vont suivre, en revanche, je ne vois aucune borne supérieure à mettre sur leur gravité, tant je ne suis pas complètement persuadé qu'il n'y aura pas un effondrement systémique de la société (il me semble peu probable, mais beaucoup moins improbable que je voudrais l'imaginer). J'ai vu beaucoup de gens se moquer de la crise économique avec un dessin des dinosaures qui voient arriver l'astéroïde qui va les tuer et qui s'exclament oh shit! the economy!, dessin sans doute censé se moquer des personnes qui mettent l'économie avant l'humain ou quelque chose de ce genre, mais, outre l'objection triviale que le Covid-19 tuera moins d'humains en proportion que l'événement crétacé-paléogène, je crois que ces gens oublient combien de souffrance et de morts une crise économique peut engendrer. Et même si on ne veut pas mettre l'économie avant l'humain, le regain d'autoritarisme politique qui va inévitablement suivre l'empressement avec lequel la société a accepté comme un seul homme les mesures censées la « protéger » et réclame plutôt qu'elles soient encore plus dures, me semble suffisamment terrifiant. L'avenir de la démocratie et de l'état de droit sont plus sombres que jamais.

↑Entry #2649 [older| permalink|newer] / ↑Entrée #2649 [précédente| permalien|suivante] ↑

↓Entry #2648 [older| permalink|newer] / ↓Entrée #2648 [précédente| permalien|suivante] ↓

(jeudi)

Sur une variante à temps de rétablissement constant du modèle épidémiologique SIR

Il y a quatre éternités semaines, quand nous n'étions pas encore maintenus prisonniers chez nous, j'ai parlé ici du modèle épidémiologique SIR, le plus basique qui soit. Je rappelle brièvement les principes qui le définissent :

  • l'immunité acquise est permanente, les individus sont successivement S (susceptibles, c'est-à-dire jamais infectés donc susceptibles de l'être), I (infectés et infectieux) et R (rétablis, c'est-à-dire guéris ou morts) (il existe toutes sortes de variantes, par exemple le modèle SEIR ajoutant un état E (exposé) pour les individus infectés mais non encore infectieux) ;
  • la population est homogène (fongible) avec mélange parfait dans les contacts (j'ai parlé ici de l'effet de modifier cette hypothèse) ;
  • la contamination et le rétablissement se font selon une cinétique d'ordre 1, c'est-à-dire que la contamination se fait proportionnellement aux proportions d'infectés et de susceptibles (avec une constante cinétique β), et que le rétablissement se fait proportionnellement à la proportion d'infectés (avec une constante cinétique γ).

Rappelons brièvement ce que j'ai exposé la dernière fois. Les équations de ce modèle SIR basique, que j'appellerai (*) pour m'y référer plus tard, sont les suivantes (il s'agit d'un système d'équations différentielles ordinaires non-linéaire, du premier ordre et autonomes) :

  • s′ = −β·i·s
  • i′ = β·i·sγ·i
  • r′ = γ·i
  • (s+i+r=1)

s,i,r≥0 sont les proportions de susceptibles, d'infectieux et de rétablis dans la population ; les solutions de ces équations ne semblent pas pouvoir s'exprimer en forme close, mais on peut exprimer s en fonction de r (à savoir s = exp(−κ·r) dans les conditions exposées ci-dessous).

Je rappelle les principales conclusions que j'avais exposées dans mon entrée sur ce modèle (*), en supposant qu'on parte d'une population presque entièrement susceptible avec une proportion infinitésimale d'infectés (plus exactement, on s'intéresse aux solutions pour lesquelles s→1 quand t→−∞) ; on notera κ := β/γ le nombre de reproduction, que je suppose >1 :

  • tant que s reste très proche de 1 (si on veut, t→−∞), les proportions i et r croissent comme des exponentielles de pente logarithmique βγ = β·((κ−1)/κ), avec un rapport 1/(κ−1) entre les deux, autrement dit comme i = c·exp((βγt) = c·exp(β·((κ−1)/κt) et r = c·(γ/(βγ))·exp((βγt) = c·(1/(κ−1))·exp(β·((κ−1)/κt) (ergotage : dans l'entrée sur le sujet, j'avais mis un −1 aux exponentielles pour r, parce que je voulais partir de r=0, mais je me rends compte maintenant qu'il est plus logique de partir d'une solution où i/r tend vers une constante en −∞, cette constante étant κ−1) ;
  • au moment du pic épidémique (maximum de la proportion i d'infectés), on a s = 1/κ et i = (κ−log(κ)−1)/κ et r = log(κ)/κ ;
  • quand t→+∞, la proportion i tend vers 0 (bien sûr) et s tend vers Γ := −W(−κ·exp(−κ))/κ (en notant W la fonction de Lambert) l'unique solution strictement comprise entre 0 et 1 de l'équation Γ = exp(−κ·(1−Γ)) (qui vaut 1 − 2·(κ−1) + O((κ−1)²) pour κ proche de 1, et exp(−κ) + O(κ·exp(−2κ)) pour κ grand), tandis qu'évidemment r, lui, tend vers 1−Γ.

Je veux ici explorer la modification d'une hypothèse de ce modèle (*), celle qui concerne le rétablissement. Quand j'écris ci-dessus que le rétablissement se fait proportionnellement à la proportion d'infectés (avec une constante cinétique γ), au niveau individuel, cela signifie la chose suivante :

Pendant chaque intervalle de temps de longueur (durée) dt très courte, la probabilité qu'un individu infecté (I) se rétablisse (I→R) vaut γ·dt et ce, indépendamment d'un individu à l'autre et d'un instant à l'autre.

Autrement dit, le temps de rétablissement d'un individu infecté donné suit une distribution de probabilité exponentielle d'espérance 1/γ.

Autant l'hypothèse analogue sur la cinétique de la contamination est relativement plausible (si on admet le principe éminemment discutable d'une population homogène et du mélange parfait !), autant l'hypothèse sur le temps de rétablissement est médicalement insensé : on est en train de dire que si vous êtes malade, votre probabilité de guérir (ou d'ailleurs, de mourir) ne dépend pas de l'avancement de votre maladie mais est la même pendant la première heure que pendant la 1729e (si tant est que vous soyez encore malade à ce stade-là). Une maladie ne se comporte pas comme ça !

Cherchons donc à remplacer cette hypothèse par une autre, tout aussi simpliste, mais néanmoins un peu plus proche de la réalité médicale, celle du rétablissement en temps constant.

Un individu infecté (I) se rétablit toujours au bout du même temps T après son moment d'infection.

Autrement dit, le temps de rétablissement d'un individu infecté donné suit une distribution de Dirac concentrée en T (qui est, du coup, son espérance).

Je vais appeler (†) (que je dois encore expliciter) le modèle SIR construit sur l'hypothèse que je viens de dire au lieu de celle qui précède. Je répète que les deux sont extrêmement simplificatrices et invraisemblables dans la réalité, mais l'hypothèse de temps constant est nettement moins fausse ou irréaliste que celle de temps à distribution exponentielle (surtout que ce qui compte vraiment est le temps pendant lequel la personne est infectieuse en pratique) : on pourrait chercher des hypothèses plus fines et moins simplistes (par exemple la somme d'une constante et d'une variable à distribution exponentielle ; ou une distribution de Weibull ou que sais-je), mais mon propos est juste de comparer (*) et (†) pour voir ce qui change et avoir au moins une idée du sens dans lequel la modélisation est affectée par le changement d'une distribution exponentielle vers une constante.

Alors pour commencer, quelles sont les nouvelles équations ? Le terme d'infection β·i·s ne va pas être modifié, mais le terme de guérison, lui, va l'être : au lieu d'avoir une proportion γ·i des infectés qui guérissent par unité de temps, on va faire guérir tous ceux qui étaient nouvellement infectés il y a T unités de temps. Comment exprimer ceci ? Eh bien, si je note fT la fonction f translatée de T, c'est-à-dire fT(t) := f(tT), le terme représentant les guérisons à l'instant t est donné par les celui représentant les infection à l'instant tT, c'est-à-dire β·(i·s)T = β·iT·sT. Autrement dit, mon système devient :

  • s′ = −β·i·s
  • i′ = β·i·sβ·iT·sT
  • r′ = β·iT·sT
  • (s+i+r=1)

Ce n'est plus un système d'équations différentielles mais d'équations différentielles à retard, c'est-à-dire que la dérivée imposée des fonctions à un instant donné ne dépend pas seulement de leurs valeurs à cet instant mais aussi de celles à un ou plusieurs instants dans le passé. Je ne sais essentiellement rien sur ces équations ; en particulier, j'ignore ce qu'il y a comme résultat d'existence et d'unicité de solutions : on peut toujours essayer d'imposer les valeurs de s et i sur un intervalle de largeur T, disons [−T;0] et utiliser les équations pour en déduire ces valeurs en [0;T], puis en [T;2T] et ainsi de suite, mais ce procédé n'a aucun intérêt si on ne trouve pas moyen de faire en sorte que les valeurs se recollent correctement aux extrémités communes de ces intervalles, c'est-à-dire les multiples de T ; or mon but est de trouver des solutions qui soient régulières partout (au moins C, si possible analytiques), pas quelque chose de recollé sur les multiples de T. Le même problème fait qu'il n'est pas évident de simuler numériquement une telle équation, faute de savoir comment la démarrer : la notion même de valeur initiale n'a pas de sens clair comme elle en a pour les équations différentielles.

J'étais très pessimiste quant à la possibilité de résoudre explicitement ce système (†) qui a l'air plutôt plus compliqué que (*) (lequel n'admet apparemment déjà pas de solution explicite). Un peu miraculeusement, et à ma grande surprise, j'y suis quand même arrivé (après un temps assez invraisemblable passé à explorer toutes sortes de techniques de calcul, et en étant à chaque fois à deux doigts d'abandonner).

Pour ceux qui se demandent comment j'ai trouvé les solutions qui suivent, j'ai commencé par me pencher sur le cas où s vaut constamment 1 (c'est-à-dire que i et r sont infinitésimaux), ce qui linéarise le système, et il est alors raisonnable d'en chercher des solutions à croissance exponentielle, ce qui est assez facile (on obtient ce que je décris ci-dessous comme comportement à i et r petits) ; j'ai ensuite eu l'idée de chercher en général des séries formelles en cette exponentielle, j'ai calculé les premiers coefficients de cette série pour savoir si la série avait au moins des chances de converger, et j'ai constaté que miraculeusement ces coefficients avaient une forme extrêmement simple que je pouvais sommer explicitement, d'où les expressions rationnelles-exponentielles qui suivent.

(Ce qui suit est essentiellement un développement de cette question+réponse sur MathOverflow et ce petit fil Twitter. La réponse MathOverflow est peut-être plus commode pour lire les formules, d'ailleurs, que mon HTML basique dans ce qui suit.)

Voici la solution explicite que j'ai trouvée : pour l'exprimer, il faut que j'introduise les notations

  • κ := β·T le nombre de reproduction, que je suppose toujours >1 ;
  • Γ := −W(−κ·exp(−κ))/κ, comme évoqué plus haut, l'unique solution strictement comprise entre 0 et 1 de l'équation Γ = exp(−κ·(1−Γ)), qui sera la limite de s quand t→+∞ (aussi bien dans le modèle (†) que (*)) ;
  • X := exp(β·(1−Γt), fonction exponentielle du temps dans laquelle les solutions seront exprimées (changement de variable ; remarquer que soustraire T à t revient à multiplier X par Γ, ce qui est bien l'intérêt du changement de variable en question) ;

par ailleurs, c sera un paramètre réel strictement positif arbitraire (qui sert simplement à translater les solutions dans le temps).

Les solutions que j'ai trouvées sont alors données par :

  • s = ((1−Γ)² + Γ·c·X) / ((1−Γ)² + c·X)
  • i = ((1−Γ)⁴·c·X) / (((1−Γ)² + c·X) · ((1−Γ)² + Γ·c·X))
  • r = (Γ·(1−Γc·X) / ((1−Γ)² + Γ·c·X)

(Comme pour (*), je m'intéresse uniquement aux solutions pour lesquelles s→1, c'est-à-dire que i et r tendent vers 0, quand t→−∞. Si on veut des solutions plus générales, on peut multiplier i et r par une même constante, quitte à multiplier β par l'inverse de cette constante.)

On a exprimé s,i,r comme des fonctions rationnelles d'une fonction exponentielle X du temps t. Les dénominateurs sont strictement positifs puisque (1−Γ)² + c·X et (1−Γ)² + Γ·c·X sont des sommes de quantités strictement positives ; les numérateurs sont eux aussi strictement positifs ; et comme s+i+r=1 comme on peut vérifier avec un petit calcul, on a bien affaire à des proportions comme souhaitées. Pour vérifier qu'elles satisfont aux équations demandées, il s'agit simplement de dériver chacune par rapport à t, ce qui revient à dériver par rapport à X et multiplier par β·(1−ΓX, et vérifier qu'on trouve bien le terme de droite souhaité (en utilisant le fait que soustraire T à t revient à multiplier X par Γ).

Sous cette forme, cette solution n'est évidemment pas très parlante ! Mais pour y voir plus clair, on peut mener la même étude que pour (*) en regardant le comportement des solutions trouvées à (†) pour t→−∞, au niveau du pic épidémique, et enfin pour t→+∞ :

  • tant que s reste très proche de 1 (si on veut, t→−∞), les proportions i et r croissent comme des exponentielles de pente logarithmique β·(1−Γ), avec un rapport Γ/(1−Γ) entre les deux, autrement dit comme i = c·exp(β·(1−Γt) et r = c·(Γ/(1−Γ))·exp(β·(1−Γt) ; qualitativement, la phase de croissance exponentielle est plus rapide (à infectiosité β et nombre de reproduction κ donnés !) dans le modèle (†) que dans le modèle (*), et le rapport rétablis/infectés pendant cette phase est plus faible ;
  • au moment du pic épidémique (maximum de la proportion i d'infectés), qui se produit pour c·X = (1−Γ)²/√Γ (mais peu importe puisque c'est un temps complètement arbitraire), on a s = √Γ et i = (1−√Γ)² et r = (√Γ)·(1−√Γ) ; qualitativement, le pic épidémique est plus haut et plus resserré (à infectiosité β et nombre de reproduction κ donnés !) dans le modèle (†) que dans le modèle (*) ;
  • quand t→+∞, la proportion i tend vers 0 (bien sûr) et s tend vers Γ, tandis qu'évidemment r, lui, tend vers 1−Γ : ce sont exactement les mêmes valeurs que dans le modèle (*) (à nombre de reproduction κ donné).

Voici des courbes illustrant deux épidémies modélisées par les modèles (*) et (†) avec les mêmes paramètres β et κ (en l'occurrence β=3, un temps de rétablissement espéré de 1, donc nombre de reproduction κ=3, et ceci conduit à Γ≈0.034, c'est-à-dire un taux d'attaque final de 96.6%, je ne réexplique pas pourquoi l'hypothèse de mélange parfait, commune à mes deux modèles, conduit à des taux d'attaques irréalistement élevés, ce n'est pas le propos ici). Les deux courbes du haut utilisent le modèle SIR classique (*) avec rétablissement selon un processus exponentiel (ici γ=1), tandis que les deux du bas utilisent le modèle SIR modifié (†) que je viens d'exposer avec rétablissement en temps constant (ici T=1). Les deux courbes de gauche sont en échelle linéaire, les deux de droite en échelle logarithmique :

Échelle linéaireÉchelle logarithmique
Modèle (*)
(rétablissement en
processus exponentiel)
[Graphe linéaire des courbes s(t),i(t),r(t) dans le modèle (*) pour β=3 et γ=1] [Graphe log des courbes s(t),i(t),r(t) dans le modèle (*) pour β=3 et γ=1]
Modèle (†)
(rétablissement en
temps constant)
[Graphe linéaire des courbes s(t),i(t),r(t) dans le modèle (†) pour β=3 et T=1] [Graphe log des courbes s(t),i(t),r(t) dans le modèle (†) pour β=3 et T=1]

(Le code Sage que j'ai utilisé pour les générer, et qui ne présente aucun intérêt particulier, est ici.)

Puisque l'origine des temps est arbitraire, je l'ai placée au niveau du pic épidémique, ce qui aide à la comparaison. Rappelons par ailleurs que le seul vrai paramètre est le nombre de reproduction κ (le paramètre β peut s'absorber en faisant un changement d'échelle du temps).

La mauvaise nouvelle, donc, si l'objectif est de flatten the curve, est que l'hypothèse (†) (plus réaliste !) de guérison en temps constant fait tout le contraire, elle resserre et amplifie le pic (tout ceci étant dit à infectiosité, nombre de reproduction et taux d'attaque constants). On peut néanmoins y voir une sorte de contrepartie : l'infection prédite par le modèle (†) paraît plus terrifiante que ce qu'elle est réellement, au sens où sa croissance initiale laisse présager (si on l'interprète selon le modèle (*)) un nombre de reproduction et donc un taux d'attaque plus importants que ce qu'ils sont réellement.

Alors que dans le modèle (*) le pic épidémique a d'abord une croissance exponentielle de pente logarithmique βγ = β·(1−1/κ) puis une décroissance exponentielle de pente logarithmique β·Γγ = β·(Γ−1/κ) (sur mon graphique, 2.000 puis −0.821), dans le modèle (†) le pic est parfaitement symétrique, avec une croissance exponentielle de pente logarithmique β·(1−Γ) suivie d'une décroissance exponentielle de pente opposée (sur mon graphique, 2.821 puis −2.821). Une morale de l'histoire est qu'il est difficile de lire le nombre de reproduction à partir de la pente logarithmique de la partie exponentielle de l'épidémie ! Il faut une information assez fine non seulement sur le taux de rétablissement moyen mais aussi sur sa distribution.

Le rapport entre le nombre d'infectieux et le nombre de rétablis, pendant la phase de croissance exponentielle, est beaucoup plus important dans le modèle (†) (à savoir (1−Γ)/Γ) que dans le modèle (*) (à savoir κ−1) : sur mon graphique (κ=3), ce rapport est de 15.8 dans le modèle (†) et 2 dans le modèle (*). Mais on peut aussi exprimer ce fait différemment en considérant le retard des rétablis sur les infectés+rétablis, c'est-à-dire combien de temps il faut attendre pour avoir un nombre de rétablis égal au nombre d'infectés+rétablis à un moment donné (toujours pendant la phase de croissance exponentielle) : ce retard est de κ·log(κ)/(β·(κ−1)) dans le cas (*) et de T = κ/β dans le cas (†) ; il serait intéressant de comparer ces deux fonctions de κ, mais j'avoue manquer un peu de patience, là ; sur mes graphiques, ce retard est de 0.549 pour le modèle (*) et évidemment 1.000 pour le modèle (†).

Reste à dire un mot sur le nombre de reproduction κ. D'abord pour justifier la manière dont je l'ai défini (β/γ dans le cas (*) et β·T dans le cas (†)) : la définition classique est le nombre de personnes moyen qu'une personne donnée infecte avant d'être rétablie, dans une population entièrement susceptible. Dans mes deux modèles, une personne infectée au milieu d'une population entièrement susceptible infecte β·dt autres personnes par unité de temps dt (c'est la définition de β) ; ceci étant simplement proportionnel au temps qu'elle restera infectieuse, l'espérance de ce nombre vaut simplement β fois l'espérance du temps qu'elle restera infectieuse, c'est-à-dire 1/γ dans le cas (*) et T dans le cas (†). Maintenant, pouvait-on prévoir a priori que le taux d'attaque final en fonction de κ serait le même, 1−Γ = 1 + W(−κ·exp(−κ))/κ, dans les modèles (*) et (†) ? Et si oui, quelle hypothèse sur la distribution de probabilité du processus de rétablissement assure ce fait ? Là, j'avoue ne pas du tout savoir, je ne connais sans doute pas assez de probas pour m'exprimer clairement. (Je suis tenté de chercher à exprimer le processus de contamination de manière indépendante du temps, en fonction d'une sorte de génération comme je l'avais fait dans mes modèles stochastiques, pour espérer que le comportement soit identique dans les deux cas, mais je n'arrive pas à exprimer ni même définir les choses correctement.)

↑Entry #2648 [older| permalink|newer] / ↑Entrée #2648 [précédente| permalien|suivante] ↑

↓Entry #2647 [older| permalink|newer] / ↓Entrée #2647 [précédente| permalien|suivante] ↓

(lundi)

De l'importance (et du manque) de tests aléatoires pour mesurer l'épidémie

L'idée, promue par le Dr. Tedros, commence à faire son chemin de l'importance des tests pour lutter contre l'épidémie de Covid-19. Mais une idée que je ne vois pas assez souvent développée et qui est très importante, c'est qu'il ne faut pas seulement des tests sur les malades ou les cas suspects, il faut aussi des tests aléatoires non biaisés. Ces tests ne jouent pas du tout le même rôle : les tests sur les malades permettent d'orienter le traitement et, éventuellement, la recherche de contacts (pour traquer l'épidémie) ; les tests sur cas suspects permettent de confiner sélectivement et, là aussi, pour la recherche de contacts (pour traquer l'épidémie). Les tests aléatoires ont un rôle complètement différent : ils servent à mesurer l'étendue réelle de l'épidémie, à savoir par quel facteur le nombre de cas officiels est sous-évalué (tout est possible à ce stade, probablement entre ×10 et ×100 mais même ça n'est pas certain), et donc, à quel taux de létalité s'attendre et quelle sera la charge de pic sur les hôpitaux. Il s'agit d'une mesure absolument essentielle que nous n'avons pas. Nous progressons à l'aveugle et prenons des décisions en l'ignorance des données les plus importantes (et forcément, ces décisions deviennent hautement confuses).

Rappelons qu'il y a plusieurs sortes de tests : des tests virologiques de type rtPCR (voir ici pour une petite explication du principe) avec une variante automatisée rapide (voir autour de ce fil Twitter), qui détectent le virus lui-même, et des tests sérologiques (en gros, de ce que j'ai compris : plus compliqués à développer initialement, mais ensuite plus simples à appliquer, plus rapides, mais aussi moins fiables ; voir autour de ce fil Twitter) qui détectent la réponse du système immunitaire (les anticorps contre le virus). On a besoin des tous ces types de tests (ne serait-ce que pour savoir à la fois qui est actuellement infectieux et qui a été immunisé). Mais je ne connais pas grand-chose à tout ça, et en tout état de cause, ceci est orthogonal au problème de la population qu'on teste : malades, cas suspects, échantillon aléatoire. Moi je veux parler des échantillons aléatoires, et tous les types de test disponibles seront les bienvenus sur eux.

J'ai été très déçu que, pendant la conférence de presse d'avant-hier, le ministre de la Santé français, Olivier Véran, qui a longuement parlé de tests, n'ait pas dit un mot sur les tests aléatoires. Comment cela se fait-il ?

Je comprends qu'il y a toutes sortes de problèmes. D'abord, il n'est pas facile de constituer un échantillon aléatoire sur une population : et il n'est pas facile de convaincre cet échantillon de se laisser mettre un écouvillon tellement profondément dans le nez qu'ils auront l'impression que ça traverse leur cerveau, alors même qu'ils ne se sentent pas malades. Néanmoins, je pense que proposer un test gratuit (voire rémunéré !) à des volontaires, et contrôler (puis égaliser) toutes sortes de données sociologiques peut aider à approcher un échantillon aléatoire : les instituts de sondage ont l'habitude de ce type de méthodes. D'ailleurs, il peut être intéressant de coupler ces tests avec des questionnaires (quelqu'un m'a proposé celui-ci) qui seraient posés à la fois aux personnes testées et à un échantillon plus large histoire d'avoir un échantillon virtuel plus large même si beaucoup moins fiable.

Il y a aussi le problème de la fiabilité des tests (qui, de ce que je comprends, provient plus du problème de collecter l'échantillon que de celui de faire la PCR). Je n'ai pas de bonne réponse à ça, si ce n'est que même un mauvais point de données est mieux que l'absence totale de données dans laquelle on nage actuellement. Évidemment, ce serait encore mieux de pouvoir faire à la fois des tests virologiques et sérologiques sur l'échantillon aléatoire, mais mon point est que déjà quelques tests PCR aideraient énormément.

Autre objection : on manque déjà de tests pour les malades. Indéniablement, mais il semble que la France pratique actuellement autour de 5000 tests par jour sur des malades ou cas suspects, et détourner ne serait-ce que 1/50 de cette ressource, c'est-à-dire 100/j, pour faire des tests aléatoires dans les régions les plus touchées, fournirait déjà un début de commencement d'idée de l'ampleur de l'épidémie (je vais développer ci-dessous pour l'ordre de grandeur). Il n'y a donc pas de raison d'attendre la possibilité de faire plus de tests pour commencer les tests aléatoires !

Enfin, il y a la réponse mais il y a tellement peu de gens infectés que c'est comme chercher une aiguille dans une botte de foin. C'est peut-être vrai, mais, justement, on n'en sait rien. Voici un point de données, quasiment le seul qu'on ait, quasiment le seul test aléatoire non biaisé qui ait été réalisé, qui suggère qu'il n'en est rien :

L'Islande a réalisé il y a quelques jours un test à peu près aléatoire à grande échelle (eu égard à la population islandaise !), en testant environ 2% de toute sa population, à savoir 6163 personnes. Pour ça, elle a utilisé une cohorte qui avait été constituée pour des analyses génétiques, la cohorte deCODE. De cet échantillon, pas loin de 1%, à savoir 52 sur 6163 (source officielle du gouvernement islandais ici) a testé positif au SARS-CoV-2. Ce qui suggère qu'environ 3000 Islandais auraient été positifs au moment de ce test. Ce qui rend cet échantillon extrêmement intéressant, c'est qu'au même moment, l'Islande n'enregistrait qu'un seul mort de Covid-19 (sur 360k habitants, donc), et depuis il s'en est ajouté un deuxième au moment où j'écris ; et seulement 1020 cas recensés par des moyens plus conventionnels (et ayant néanmoins recours à des tests très nombreux). Ces chiffres sont à prendre avec énormément de pincettes, mais ils vont au moins dans le sens de suggérer que le taux d'attaque est largement sous-évalué même dans un pays comme l'Islande qui teste beaucoup (et, du coup, que le taux de létalité ne serait pas si élevé que ça). Mais pour ce qui est de mon propos ici, le cas de l'Islande suggère que même dans un pays qui n'enregistre que 0.0006% de mortalité au Covid-19, on peut déjà avoir un taux d'attaque mesurable par des tests aléatoires pas si massifs que ça.

Il est donc tout à fait possible que dans les départements français les plus touchés, comme le Haut-Rhin, et a fortiori dans les endroits les plus touchés de ces départements, le taux d'attaque, et même le taux d'infection actuellement détectables, soit facilement autour de 20%, peut-être encore beaucoup plus. Dès lors, il n'est pas déraisonnable de chercher à le mesurer par des tests aléatoires (ne serait-ce que pour confirmer ou infirmer ce chiffre). Je ne parle pas de faire des tests aléatoires dans toute la population française, mais des tests aléatoires dans les endroits les plus touchés, pour comparer la valeur qui y sera mesurée avec les chiffres officiels et avoir une idée de combien ceux-ci sont sous-estimés.

Rappelons que si le taux réel de positifs est de p et qu'on effectue N mesures aléatoires fiables, on obtient un nombre de positifs qui a une espérance de p·N et une variance de p·(1−pN, donc une erreur relative de √((1−p)/(p·N)). Pour p≈20% et N≈1000, ceci donne une erreur tout à fait acceptable de 6% sur la valeur de p (et si p n'est pas du tout de l'ordre de 20%, ce sera une information également importante). Plutôt que de faire 1000 tests en une journée, il est probablement plus opportun d'en faire 100 par jour pendant une dizaine de jours : cela donnera une moins bonne précision sur la valeur (difficile à quantifier), mais une meilleure information sur son évolution dans le temps (de nouveau, il s'agit de fournir des chiffres à mettre en regard des chiffres officiels relevés avec les mêmes méthodes que jusqu'à présent, ainsi que d'autres données comme celles du réseau Sentinelles, pour se faire une idée de combien de cas ils ratent).

Je suis donc totalement convaincu de l'utilité d'essayer, dès maintenant, et sans attendre les tests sérologiques, de lancer des campagnes de tests aléatoires, ne serait-ce qu'avec les moyens modestes dont on dispose actuellement, quitte à les amplifier par la suite. Malheureusement, je n'ai pas l'oreille du ministère de la Santé, mais si quelqu'un sait comment l'obtenir, ce qui précède est le meilleur argumentaire que je puisse fournir.

Je tire l'idée (pas juste de l'intérêt des tests aléatoires, qui est assez évidente, bien sûr, mais surtout du fait que ce n'est pas déraisonnable d'essayer de les mener) de cette interview de l'épidémiologiste et méthodologiste John Ioannidis de Stanford (que je n'ai pas fini de regarder, mais je parle ici de ce qu'il raconte tout au début, notamment autour de 9′18″ ; ce que j'en ai vu, en tout cas, est absolument remarquable et je pense déjà pouvoir recommander cette vidéo — et je remercie beaucoup celui qui me l'a signalée).

Ajout : on me signale cette interview de Josselin Garnier pour France Info qui comme moi appelle à ce que la France réalise des tests aléatoires pour estimer le nombre de porteurs asymptomatiques.

↑Entry #2647 [older| permalink|newer] / ↑Entrée #2647 [précédente| permalien|suivante] ↑

↓Entry #2646 [older| permalink|newer] / ↓Entrée #2646 [précédente| permalien|suivante] ↓

(mercredi)

On navigue à l'aveugle, et je vais de plus en plus mal

Mon moral fait des yoyos terribles. Je vais parler d'un peu tout dans le désordre, et parfois de façon très émotionnelle, voire agressive, je présente d'avance mes excuses mais je suis émotionnellement à bout.

Mon moral fait des yoyos terribles, donc. Dans mes meilleurs moments, je trouve des raisons d'espérer que la situation n'est pas si grave que ça. Selon principalement trois points : ⓐ qu'il y aurait encore beaucoup plus de cas non-détectés que ce qu'on pensait, probablement des cas difficilement détectables avec les tests actuels, si bien que le taux de létalité serait beaucoup plus bas qu'initialement estimé, ⓑ que le taux d'attaque final serait relativement modéré, en tout cas beaucoup plus faible que les 80% prédits par des modèles simplistes, mais bon, ça, je le pense depuis le début, et ⓒ que la Lombardie approcherait du pic épidémique et que ce serait peut-être bien un pic largement « naturel », dû à l'immunité plus qu'au confinement ; ces trois points vont largement ensemble, et si on y croit on peut espérer un pic épidémique en Lombardie dans peut-être une semaine ou deux et ensuite une vraie décrue de l'épidémie, pas uniquement due au confinement, et donc un espoir de retour à la normale à un horizon pas trop lointain (il faut estimer pour combien de temps les autres régions d'Europe en ont, mais ce n'est pas énorme, dès que l'une sera tirée d'affaire, les autres suivront en bon ordre) ; avec, dans ce scénario optimiste, une mortalité d'ensemble qui ne dépasserait probablement pas 0.1% de la population, peut-être même moins dans les pays où la démographie est plus favorable qu'en Italie, donc peut-être moins de 50 000 morts en France, c'est nettement mieux que ce que je pensais au tout début. (Il y a une étude d'épidémiologistes d'Oxford qui avance carrément le scénario selon lequel une majorité de la population aurait déjà été infectée. Cette étude a l'air un peu bizarre — c'est limite s'ils ne partent pas de l'hypothèse en question pour arriver à la conclusion qu'elle est valable — et il semble qu'ils veulent juste susciter le débat sur cette question — mais c'est intéressant que des gens probablement compétents la prennent au sérieux.) Bref, j'ai des moments d'optimisme.

Puis je retombe dans le pessimisme. L'argument selon lequel beaucoup de mes connaissances ont eu des symptômes grippaux a un potentiel énorme pour être un pur biais d'observation (ou l'effet de l'hypocondrie, ou de différences de mode de vie parce qu'on reste longtemps dans des appartements souvent poussiéreux et insalubres) ; toutes ces célébrités et ces hommes politiques testés positifs peuvent tout à fait être le résultat d'effets sociaux que j'explique moi-même ; l'argument de la recrudescence des cas de grippe est plus convaincant, mais ne représente pas forcément une sous-détection si énorme du nombre de cas (peut-être autour de ×15 à ×30, mais je tablais déjà sur des chiffres de l'ordre de ×10 dans mes calculs d'ordres de grandeur) ; et le ralentissement en Lombardie peut tout à fait déjà être le résultat du confinement (le fait qu'il soit indétectable en Sicile étant simplement lié au fait que le signal y est beaucoup plus bruité). Beaucoup de spécialistes ont l'air de croire que les tests sont forcément plutôt fiables et de ne pas adhérer à l'idée qu'il y aurait un groupe énorme de gens très peu symptomatiques et ne déclenchant pas les tests. Et en un rien de temps, mais raisons d'espérer disparaissent. Je ne sais plus quoi croire.

Ce qui me décourage le plus, en fait, ce sont les gens qui affirment, et il y en a beaucoup, et à un certain niveau ils finissent par me convaincre, regardez, le confinement marche(ra) : comme si on allait tous rester tranquillement chez nous pendant le passage d'un orage, et remettre le nez dehors une fois l'orage terminé. Mais une épidémie ne fonctionne pas comme ça, j'ai peur que les gens le croient, mais ce n'est pas une force externe qui se déchaîne, l'épidémie est en nous, si on s'isole elle se résorbe, si on ressort elle réapparaît (exemple). Si le confinement marche, si c'est lui et non l'immunité qui cause et limite le pic épidémique, je l'ai expliqué à de nombreuses reprises, on est complètement dans la merde parce qu'on n'a aucune stratégie de sortie de crise. Même pas de piste de stratégie. Même pas de début de commencement de piste de stratégie, à part des mots lancés au hasard comme des tests dont on n'a pas les moyens (la France n'a pas les moyens de fournir des masques à ses soignants, même les écouvillons manquent pour effectuer des prélèvements rhino-pharyngés, alors effectuer des tests virologique ou sérologique en grand nombre, ça ressemble un peu à une utopie… et même avec ces tests, la stratégie coréenne, souvent érigée en exemple, repose sur une approche globale de la société qui me semble inapplicable en Europe, sans parler de mesures extrêmement liberticides comme le traçage des téléphones mobiles pour repérer les contacts). Si le confinement marche bien, on ne voit pas comment on pourrait le lever, ou au minimum, comment on pourrait le lever sans tomber dans une dystopie juste un peu plus light (mais plus durable) que le confinement lui-même. Et personne n'a fait le moindre progrès sur cette question.

Et je suis complètement effondré quand j'entends des gens discuter de ce qu'ils feront ou ce qui se passera quand le confinement sera levé, comme si cela impliquait un retour à la normale : sans doute, oui, que le confinement finira par être levé dans un mois ou deux, parce que ça deviendra vraiment impossible et intolérable de faire autrement, mais, si on n'a pas acquis d'immunité de groupe significative, l'idée d'un retour à la « normale » est simplement impossible : on aura peut-être de nouveau le droit de sortir un petit peu de chez nous, mais ce sera très très très loin de la « normale » (c'est un peu ce qui se passe actuellement en Chine). Rappelons que si le virus a un nombre de reproduction de 3, en l'absence d'immunité importante, il faut passer 2/3 du temps en confinement pour le contenir, et encore, ça c'est en supposant que le confinement est 100% efficace.

Peut-être ce qui me fait le plus mal au moral, ce sont ces articles, qui ont un énorme succès dans certains cercles, d'un certain Tomas Pueyo (dont je rappelle à toutes fins utiles qu'il n'est pas plus compétent que moi sur le sujet, c'est-à-dire peut-être qu'il est aussi compétent que tous les experts comme je le disais plus haut). Il a commencé par en écrire un sur le fait qu'il fallait agir vite, dont le message principal est que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ, ce qui est effectivement quelque chose de très juste et de très important (et ne sais pas si le conseil scientifique du gouvernement en a bien conscience vu qu'ils parlent déjà de renforcer le confinement alors qu'il est tout simplement impossible d'en juger les effets à ce stade). Puis il a viré au partisan enthousiaste des solutions consistant à arrêter l'épidémie (ce que j'appelais les stratégies ①) et fait preuve de la plus hallucinante mauvaise foi dans sa façon d'exposer les choses, c'est-à-dire que la présentation des stratégies de mitigation (②) est faite sous le jour le plus noir et les hypothèses les plus pessimistes, tandis que pour ce qui est de ses stratégies préférées, tout est rose au point qu'il invente purement et simplement des chiffres de ce que pourraient être les mesures appliquées pendant ce qu'il appelle la danse (or c'est bien dans la danse qu'est tout le problème).

Dans tous les cas, même dans le scénario résolument optimiste où l'épidémie est massivement sous-évaluée ou bien où on arriverait inexplicablement à contrôler les choses avec un confinement limité dans le temps, les dommages causés à notre société seront irréparables. L'empressement avec lequel la société a accepté, sans broncher, sans qu'une voix discordante se fasse entendre, des mesures dignes de ce qu'il y a trois mois j'aurais qualifié de ridicule fiction dystopienne, au motif qu'il faut sauver des vies, est absolument terrifiant. Le fait de découvrir, pour commencer, que les gouvernements ont ce pouvoir que de mettre toute la population en arrêt à domicile, sans même avoir besoin de passer par une loi, est déjà en soi une blessure dont la démocratie ne se relèvera jamais : on savait déjà que le prétexte bidon du terrorisme justifiait des entraves démesurées aux libertés publiques (confinement à domicile sans procès pour des personnes arbitrairement qualifiées de « dangereuses », par exemple, justement), mais on a franchi un bon nombre d'ordres de grandeur. Peu importe que ç'ait été fait avec les meilleures intentions du monde, peu importe que ç'ait été le moins mauvais choix dans les circonstances. Un droit, dit un adage classique, ce n'est pas quelque chose qu'on vous accorde, c'est quelque chose qu'on ne peut pas vous retirer : nous savons donc, maintenant, que le droit de circuler librement était une illusion : quand le confinement sera levé (et il le sera probablement, un jour, sous une forme), ce fait restera. Le monde ancien est mort.

Pour ce qui est des conséquences politiques plus larges, je suis assez d'accord avec les inquiétudes formulées dans ce fil ou cet article de blog.

Que les choses soient bien claires parce que je sais qu'il y a des gens qui préparent déjà leurs hommes de paille à faire brûler : je ne suis certainement pas en train de dire que poursuivre le but d'une distanciation sociale forte de la population n'est pas une bonne idée, au moins transitoirement. Par exemple pour se donner le temps d'y voir plus clair (amasser des données scientifiques, développer des tests virologiques et sérologiques et les pratiquer aléatoirement pour mesurer l'ampleur de l'épidémie, rechercher toutes les options thérapeutiques et prophylactiques, etc.) ou de parer au plus pressé (remédier aux pénuries les plus pressantes, faire un plan de bataille, réorganiser ce qui peut l'être, permettre aux soignants qui tomberont malades en premier d'avoir le temps de guérir et de revenir immunisés, etc.). Il n'y a aucun plan d'action raisonnable qui ne passe pas par un minimum de mesures telles que l'interdiction de rassemblements de groupes, la fermeture de toutes sortes de lieux publics, une obligation de déployer le télétravail là où il peut l'être, etc. ; et il est raisonnable de chercher à aller encore plus loin que ce minimum, pour que les gens s'évitent vraiment à bonne distance — mais la question qui devrait faire débat, et qui n'a fait l'objet d'aucun débat, c'est quels sont les moyens qu'on doit s'accorder pour ce but.

C'est un peu la différence entre dire que la connerie humaine est un problème, chose qui fera sans doute consensus, et vouloir prendre un décret contre la connerie, qui me semble une mauvaise idée pour toutes sortes de raisons : ce n'est pas parce que je serais contre un tel décret que je serais favorable à la connerie. C'est juste que je ne confonds pas je suis contre X et je suis favorable à n'importe quelle mesure de lutte contre X (je pensais avoir déjà expliqué mille et une fois sur ce blog l'importance de ne pas perdre le sens de ce que les logiciens appellent les modalités, mais je ne retrouve plus).

Le problème fondamental sous-jacent pour apprécier les moyens déployés, c'est qu'on ne sait pas quelle est la stratégie visée. On m'a accusé de trop être braqué sur la dichotomie que j'ai évoquée entre les stratégies que j'ai appelées ① et ② (ou Charybde et Scylla) : je conviens que le confinement peut aussi avoir pour but, je l'écris ci-dessus et je l'ai déjà dit plusieurs fois, de juste gagner du temps (encore faudrait-il faire quelque chose avec ce temps gagné, et je n'ai pas entendu dire que la France fabriquait des respirateurs et des lits d'hôpitaux à toute la force de son appareil de production). Mais ce qui me fait le plus peur c'est qu'en fait il n'y ait juste aucune stratégie. Je n'ai même pas l'impression qu'il y ait prise de conscience du fait qu'il faut faire des choix. J'ai l'impression qu'on réagit juste dans l'immédiat : surcharge du système de santé ⇒ confinons tout le monde, sans chercher à nous demander s'il y a un plan, ou un début de commencement de plan, pour sortir de l'impasse. J'ai vaguement quelques sursauts d'espoir quand le ministre de la Santé ou ses sous-fifres parlent d'aplatir la courbe (ce qui est une stratégie qui se tient, c'est essentiellement ce que j'ai appelé ②), mais je n'ai toujours pas la certitude s'il s'agit de mots prononcés au hasard ou s'ils ont effectivement compris ce que ça veut dire (parce que ce plan suppose de ne pas confiner trop, i.e., de ne pas faire comme en Chine, et je n'ai vu aucun début de commencement de signe que quelqu'un de haut placé ait pigé ce fait). J'avais vaguement un petit espoir qu'il y ait des cerveaux qui fonctionnent derrière les décisions prises quand j'ai appris que le gouvernement avait réuni un conseil scientifique pour lui suggérer des mesures, mais on a entendu des gens de ce conseil scientifique admettre qu'ils avaient recommandé le confinement parce qu'ils avaient été pris de court par la vitesse de l'épidémie (je ne sais plus la formulation exacte, ni lequel a dit ça, mais quelqu'un va sans doute me la retrouver), ce qui suggère qu'ils n'ont pas le niveau scientifique pour extrapoler une exponentielle, et ça, ça me fait vraiment très très peur s'il s'agit de guider le pays dans une crise aussi énorme. Donc je ne crois plus du tout à l'existence d'une stratégie autre que celle du cervidé pris dans les phares d'une voiture. Et je suis vraiment terrifié.

À un niveau plus large, d'ailleurs, je suis assez désabusé quant au niveau scientifique des spécialistes en épidémiologie, dont je remarque trop souvent qu'ils arrivent (de façon certes plus précise et mieux argumentée, mais pas fondamentalement différente) aux mêmes conclusions que j'ai exprimé dans mon blog des jours ou des semaines plus tôt. (Par exemple, le papier d'Imperial qui a fait beaucoup parler de lui, cf. ici, ne fait que reprendre la dichotomie que j'ai exposée au moins une semaine plus tôt sur Twitter, avant même que le Royaume-Uni ne commence à parler d'immunité grégaire ; ses calculs de nombre de morts ne sont pas franchement plus sophistiqués que ceux qu'on peut faire avec un modèle très simple ou en fait simplement en multipliant deux nombres — et le problème d'instabilité si on tente de supprimer l'épidémie est une évidence que je répète à tout le monde depuis belle lurette.) Je pourrais être fier de moi, mais je n'ai pas envie d'être fier de moi, j'ai envie de croire qu'il y a des gens qui voient beaucoup plus loin que moi et qui ont une petite idée de où nous allons et de ce que nous pourrions faire !

Des entraves énormes ont été mises à toute vie personnelle, en revanche, le contrôle sur les employeurs est minimal, par exemple : apparemment, sauver des vies justifie qu'on anéantisse la vie personnelle des Français mais il ne faut surtout pas trop toucher leur vie professionnelle. On en arrive à la situation absurde et incroyablement injuste où certains voudraient sortir de chez eux et n'en ont pas le droit, tandis que d'autres voudraient avoir le droit de rester protégés chez eux mais n'en ont pas non plus la possibilité (sauf à perdre leur emploi).

Au-dessus de ça, les modalités d'application du confinement ne sont pas moins absurdes. Comme quelqu'un l'a très justement dit sur Twitter, le gouvernement a perdu de vue le but (la distanciation sociale) pour se focaliser sur le moyen (le confinement). Une mesure de distanciation tout à fait sensée aurait été de rendre obligatoire la distance de 2m entre les personnes dans tout lieu public, et de verbaliser ceux qui s'approchent inutilement des autres, et par ailleurs d'inciter les gens à rester chez eux (sans contrainte personnelle mais avec un fort contrôle des employeurs qui prétendent avoir besoin de faire venir leurs employés). Mais on se doute bien que quand ils sont munis de la légitimité apparente de sauver des vies, les enthousiastes de l'autoritarisme n'allaient pas s'en tenir là. On en arrive maintenant à des formulaires de dérogation de plus en plus humiliants, et on discute de la distance et du temps maximal auxquels on a le droit de s'éloigner de chez soi. Formulaires qu'il faut d'ailleurs remplir à l'encre indélébile sous peine d'amende si on essayait d'en réutiliser un (là ça ressemble tellement à quelque chose tiré de Kafka que ce serait drôle si ce n'était pas tragique). On en vient à interdire le vélo de loisir, chose pour laquelle il n'a été donné aucune forme de justification, alors qu'il est facile de se tenir à bonne distance des autres quand on est en vélo ; on en vient à la mise en place d'un couvre-feu dans certaines villes alors que rationnellement il vaut mieux étaler le plus possible les heures où les sorties sont autorisées pour qu'il y ait le moins de monde à un moment donné : s'il fallait démontrer que ceux qui prennent ces décisions n'ont aucune fin rationnelle en tête, c'est la meilleure preuve possible. Encore un autre problème est que les règles sont appliquées selon le bon vouloir très aléatoire et très arbitraire des agents de police chargés de les appliquer, ce qui cause des injustices et une insécurité juridique incroyables.

Mais, comme me l'a suggéré une amie, l'absurdité de toutes ces règles vise sans doute un autre objectif, qui est le détournement de culpabilité. Le vrai scandale, c'est l'impréparation de la France face à une épidémie qui était éminemment prévisible jusque dans son timing pour quiconque sait extrapoler une exponentielle. Le scandale de fond, c'est le manque de moyens de l'hôpital public (ou, dans une autre ligne d'idées, le manque de moyens des transports publics qui sont en permanence bondés, favorisant la transmission de toutes sortes d'infections). Et le scandale immédiat, c'est le manque de masques qu'on cherche à cacher derrière l'idée que les masques ne servent à rien pour le grand public. (Il y a aussi l'histoire des élections municipales dont le premier tour n'a pas été reporté — ceci dit, je pense qu'on monte un peu trop cet épisode en épingle et je soupçonne que le nombre de contaminations à cette occasion a été très faible.) Alors pour distraire l'attention de tous ces scandales, on en crée un autre : tout est la faute de ces irresponsables qui osent s'aventurer à plus de 1km de chez eux, ou faire un tour en vélo dans un endroit où ils ne rencontreront personne, ou sortir acheter du Coca-Cola (ou des serviettes hygiéniques !) au lieu de limiter aux courses essentielles. On fustige à la fois ceux qui achètent trop (ils créent des pénuries !) et ceux qui n'achètent pas assez (ils sortent sans raison !). Le Français moyen est placé dans la position de l'âne de la fable de la Fontaine, 135€ d'amende à la clé.

Maintenant, pour ne pas blâmer que les dirigeants, l'incohérence de la réaction des Français est également digne de commentaire. D'un côté, il semble que tout le monde applaudisse les mesures de confinement (un sondage qui ne vaut certainement rien mais qui donne quand même une petite idée, prétend que 93% des Français y sont favorables). Mais d'un autre côté, si c'est effectivement vrai que tout le monde comprend et approuve la nécessité de tenir ses distances… ce n'est pas la peine de rendre les choses obligatoires ! Si 90% de la population respecte les mesures de distanciation, que ce soit par sens du devoir civique ou par peur personnelle ou n'importe quelle combinaison de tout ça, ça suffit très largement à stopper la progression de l'épidémie (le papier d'Imperial qui a été si souvent cité partait du principe que 75% suivraient la consigne, laquelle serait facultative : donc on ne peut pas m'accuser d'inventer moi-même mes compétences en épidémiologie). La conclusion que j'en tire, c'est que l'immense majorité des Français réclame qu'on impose à tous des mesures qu'elle n'est pas prête à tenir spontanément par elle-même : c'est ce qu'on appelle de l'hypocrisie.

Il est légitime de se demander dans quelle mesure la distanciation devrait être considérée comme une décision individuelle. À part le cas réellement problématique des rapports professionnels, et à part la scandaleuse pénurie de masques, il me semble que chacun peut se protéger personnellement avec un assez bon niveau de sécurité sans avoir à attendre des autres que de ne pas lui tousser dessus. (Je pense qu'on a tendance à surestimer un peu l'infectiosité de ce virus : pour mémoire : si 10% de la population était contagieuse, ce qui est est probablement encore surévalué, quelqu'un qui ne prendrait aucune précaution particulière, si j'en crois le rythme de 0.2/j où progressait l'exponentielle avant le confinement, l'attraperait en 50 jours environ.) Une personne isolée n'a donc pas grand-chose à craindre, en fait. Mais admettons que ce ne soit pas une décision individuelle mais collective, il reste encore qu'on pourrait considérer que, dans cette décision collective, les gens sont amenés à voter avec leurs pieds : si on se contente d'une recommandation de distanciation sociale et que les gens ne la suivent pas, c'est qu'ils votent avec leurs pieds pour le risque des conséquences de ce choix, aussi bien individuelles que collectives.

Mais au lieu de nous poser sérieusement ces questions, au lieu d'envisager de développer une distanciation sociale fondée sur une combinaison entre responsabilité morale, choix collectif et protection personnelle, nous avons sauté dans les bras de l'autoritarisme avec une indicible et mâle volupté.

Je tourne un peu en rond, là, j'en suis conscient. Les pensées tournent en rond dans ma tête comme je tourne en rond dans mon appartement. Parlons un peu de moi-même, parce que je ne vais vraiment pas bien.

Il y a d'abord le confinement lui-même qui est dur. Je souffre énormément de ne plus pouvoir sortir, moi qui aimais tellement me promener entre les arbres dans les forêts d'Île-de-France. Je souffre de l'injustice profonde de l'interdiction de telles promenades alors qu'il est tellement facile de tenir ses distances en forêt (il y a dix jours, quand j'ai fait la dernière, j'ai pu vérifier expérimentalement qu'il n'y avait aucune difficulté à garder 2m d'écart avec tout le monde, même quand les autres ne font aucun effort de leur côté). Je souffre de voir ce soleil radieux dehors et de ne pas pouvoir en profiter, moi qui comptais les jours jusqu'à l'arrivée du printemps après un hiver interminablement pluvieux, moi qui m'étais promis de faire mille et une balades dès que le temps le permettrait. Je souffre de toutes d'autres lacérations psychologiques provoquées par les éclats de ma vie ancienne qui a explosé en vol : de tous ces moments où je continue à penser à ce que j'aurais fait, ce que j'aurais pu faire, si j'avais été libre, avant de me rappeler que je ne le suis plus du tout, — de tous ces petits plaisirs qui ne sont plus que des souvenirs qui me narguent cruellement quand j'y repense.

(Je suis maintenant pleinement convaincu, même si je le pensais déjà depuis longtemps, que la prison est une forme de torture psychologique digne du Moyen-Âge (enfin, façon de parler, parce qu'au Moyen-Âge, justement, il me semble qu'on n'emprisonnait pas beaucoup). Mes conditions sont incomparablement meilleures qu'une prison et déjà je n'en peux plus.)

(Et sinon, je pense qu'à un moment où un autre, quand je ne tiendrai vraiment plus, je vais faire le confinement buissonnier et fuguer dans la forêt pour une après-midi. Je suis preneur de vos avis sur la meilleure façon d'y arriver en ayant le moins de chances possibles de me faire prendre : à quel moment, par quel chemin, et éventuellement en prévoyant quel prétexte.)

Mon équilibre émotionnel était largement basé sur la présence réconfortante et rassurante des habitudes quotidiennes qui rythmaient ma vie ancienne. Il n'en reste plus rien. Je ne sais plus à quoi me raccrocher. Je perds complètement pied. Par moments je deviens colérique avec mon poussinet.

Je n'arrive pas à penser à autre chose. Je ne parviens plus à faire des maths si ce n'est pas de l'épidémiologie. Je n'arrive quasiment plus à regarder un film ou un documentaire : tout ce qui ne parle pas du Covid-19 me semble tellement insignifiant que je suis incapable de rentrer dedans, et tout ce qui en parle ne fait qu'empirer mon angoisse.

Je n'imagine absolument pas comment je vais pouvoir tenir un mois ou deux comme ça.

Si au moins y avait, au bout, l'espoir d'un retour à une forme de normalité, s'il y avait de la lumière au bout du tunnel, je trouverais sans doute la force en moi de traverser le tunnel, mais tant que je n'ai pas le moindre indice que qui que ce soit sait où nous allons, la seule lumière que j'aperçois c'est celle des maigres espoirs que j'ai rappelés au début de cette entrée, et je me demande si elle n'est pas complètement dans mon imagination.

Et encore !, tout ce désespoir, c'est en faisant totalement abstraction de l'inquiétude liée à la maladie elle-même (vous remarquerez que je n'en parle pas du tout), comme si moi-même et mes proches en étions totalement invulnérables — chose qui n'est évidemment pas le cas. Si cette inquiétude devait s'y ajouter, je n'imagine pas comment je pourrais la gérer.

(À un certain moment, j'en étais presque à supplier mes amis que j'estime intelligents mais si tu ne désespères pas complètement, toi, c'est bien que tu dois avoir une idée de comment les choses pourraient ne pas tourner trop mal ?, mais comme personne n'était capable de répondre à cette question, j'ai fini par conclure que tout le monde a une capacité que je n'ai pas pour faire abstraction des catastrophes don on ne voit aucune issue.)

Voilà où j'en suis, et je ne pense pas que ça va s'améliorer.

↑Entry #2646 [older| permalink|newer] / ↑Entrée #2646 [précédente| permalien|suivante] ↑

↓Entry #2645 [older| permalink|newer] / ↓Entrée #2645 [précédente| permalien|suivante] ↓

(mardi)

Sur l'impact de la structure du graphe social dans le taux d'attaque des épidémies

Je suis vraiment débordé (le temps que je passe à me documenter sur l'épidémie et à répondre aux présentations biaisées et autres conneries sur Twitter représente une surcharge de travail absolument énorme qui s'ajoute au fait que tout est devenu tellement plus long et compliqué dans ma vie, je ne vais pas pouvoir tenir longtemps comme ça), donc je me contente ici de reproduire en français ce que j'ai écrit dans un fil Twitter :

Il s'agit d'expériences numériques sur l'influence de la structure du graphe social sur le taux d'attaque des épidémies (taux d'attaque = le nombre de personnes infectées cumulé pendant l'épidémie).

Rappelons la situation basique : j'ai déjà écrit ici sur mon blog (et ici en anglais sur Twitter) sur ce que prédit le modèle épidémiologique SIR au sujet du taux d'attaque. En bref, il prédit un taux d'attaque énorme : 89% (de la population touchée) pour un nombre de reproduction de 2.5. (La formule, comme je l'ai expliqué, est 1 + W(−κ·exp(−κ))/κ = 1 − exp(−κ) + O(κ·exp(−2κ)) où κ est le nombre de reproduction. Par ailleurs, il faut bien différencier ce taux d'attaque du seuil d'immunité grégaire qui, lui, vaut, 1 − 1/κ, et qui est le taux d'infectés à partir duquel l'épidémie commence à régresser, c'est-à-dire le taux d'attaque au pic épidémiologique.)

Or les épidémies réelles ne semblent pas avoir des taux d'attaque aussi énormes, même avec des nombres de reproduction de l'ordre de ce que je viens de dire. Bien sûr, on connaît mal le taux d'attaque même a posteriori, mais (malgré une absence d'immunité préalable aux souches) il semble que les grippes de 1918 et 1957 aient infecté autour de 30% de la population à différents endroits, pas franchement autour de 90%.

Alors que se passe-t-il ? Mon explication est que SIR, étant un modèle basé sur des équations différentielles, ne connaît qu'une seule chose, c'est la proportion de la population qui est susceptible, infectée et rétablie, et pas où ces personnes sont ni comment elles interagissent socialement.

Autrement dit, un tel modèle suppose un « mélange parfait » : tout individu a la même probabilité d'infecter n'importe quel autre individu. Ce n'est bien sûr pas du tout le cas dans la réalité. En réalité, une bonne proportion des contaminations suit un graphe social (famille, amis, collègues).

Même les modèles plus sophistiqués qui stratifient la population par catégories d'âge (disons) supposent toujours un mélange parfait dans chaque catégorie. Je soupçonne que c'est la raison pour laquelle le papier d'Imperial obtient un taux d'attaque si élevé (j'en ai déjà parlé dans cette entrée, voir aussi ce fil Twitter).

Alors, comment peut-on prendre en compte le fait que les contaminations suivent des graphes sociaux, et que doit-on en attendre ? Je m'attendais, et je voulais tester, deux effets apparentés mais distincts :

Le premier effet est que si l'épidémie doit suivre les liens d'un graphe social de connectivité relativement modeste (chacun n'ayant qu'un petit nombre de parents/amis/collègues par rapport à toute la population), elle va s'étouffer plus rapidement, même pour un nombre de reproduction donné, par rapport au cas de mélange aléatoire : c'est ce que j'ai essayé de dire ici sur Twitter ainsi que dans cette entrée dans la phrase la première [sous-raison] c'est (a) que quand on retire une proportion suffisamment élevées de sommets d'un graphe (en l'occurrence celui des contacts humains), il cesse de « percoler », c'est-à-dire qu'on ne peut plus passer d'un sommet à un autre. Ce phénomène est, en effet, lié à des questions de seuil de percolation dans les graphes (qui est, en gros, la proportion des sommets, ou des arêtes selon la définition, qu'il faut retirer aléatoirement à un graphe pour qu'il cesse d'avoir une composante connexe géante) : l'idée est que quand suffisamment de personnes (=sommets, =nœuds) sont immunisées, l'épidémie ne peut plus se propager d'un point à un autre : même avec l'hypothèse de mélange parfait le nombre d'immunisés ralentit l'épidémie, mais le seuil de percolation suggère qu'une proportion plus faible d'immunisés peut arrêter complètement la propagation (et, probablement, on la ralentit plus vite avant de l'arrêter complètement).

Le second phénomène est différent : non seulement il doit suffire de retirer relativement peu de nœuds pour arrêter l'épidémie (comme je viens de l'expliquer), mais en plus l'épidémie va retirer (c'est-à-dire infecter et rendre immuns) en premier les nœuds les plus « précieux » à sa propre propagation, parce que ce sont les nœuds les plus connectés, les « célébrités ». C'est ce que j'ai essayé d'exprimer ici et  (+ tweet suivant) sur Twitter, ainsi que dans la même entrée que mentionée dans la phrase (b) les infections ont tendance à infecter en premier les personnes qui sont hautement connectées dans le graphe, et en les rendant immunes, elle neutralise en premier les liens qui lui permettaient le plus facilement de se propager.

Tout ça n'est que mon intuition ! Maintenant, voyons si je peux modéliser ces phénomènes, pour au moins montrer qu'ils existent. Je ne vais pas chercher à quantifier les effets (il y a tout simplement trop de paramètres avec lesquels jouer), seulement d'illustrer qu'ils peuvent exister et semblent jouer dans la direction que je pensais.

J'ai donc écrit un petit programme Perl qui simule un modèle épidémique SEIR stochastique. SEIR, ça signifie que les nœuds (les individus) passent entre quatre états, S = susceptible = non-infecté, puis E = exposé = en incubation, puis I = infectieux et enfin R = rétabli = immunisé ou mort. Stochastique, ça signifie que plutôt que modéliser les choses avec des équations différentielles, je prends un grand nombre de nœuds (300 000 dans mes expériences) et les contaminations ont lieu au hasard. Ça rend les calculs non-reproductibles, mais cela permet de gérer des situations bien plus complexes qu'avec des équations différentielles.

Pour simplifier, mon programme postule qu'un nœud une fois infecté, il passe par les étapes E, I, R en un temps constant. Spécifiquement, les paramètres que j'ai utilisés sont qu'à partir de l'infection on passe 5 pas de temps dans l'état E puis 25 pas de temps dans l'état I, avant de passer enfin dans l'état R. (En fait je pense que c'est plus réaliste que le modèle SIR sur équations différentielles, qui suppose que le rétablissement suit un processus exponentiel de paramètre γ : or personne ne guérit en un tout petit nombre de jour ; donc les deux sont simplifiés, mais je pense que cette simplification de temps constant est plutôt meilleure. Si on essaie d'imaginer une épidémie comparable à Covid-19, ce que je ne prétends pas vraiment faire, il faut se dire que le pas de temps vaut à peu près un demi-jour.)

On peut ensuite jouer à faire varier la manière dont l'infection a lieu, selon plusieurs scénarios :

  1. À une extrême, on a la situation purement aléatoire, c'est-à-dire de mélange parfait : chaque nœud infectieux (I), à chaque pas de temps, a une certaine probabilité d'infecter un autre nœud purement aléatoire. Sans aucune structure sociale. Ceci est très proche du modèle S(E)IR sur équations différentielles, et je m'attends à un taux d'attaque similaire.
  2. À l'autre extrême, on peut restreindre les infections à suivre les arêtes d'un graphe sociale. Mais ce graphe peut lui-même être construit de différentes manières :
    1. On peut prendre un graphe aléatoire à peu près homogène ayant une certaine connectivité moyenne : un modèle pour le construire est de le créer sommet par sommet, et, à chaque fois, de connecter le sommet nouvellement construit à un certain nombre de sommets préexistants tirés au hasard. Ceci fournit un graphe sans nœuds hautement connectés, i.e., sans « célébrités ». (En fait, le cas de mélange parfait est équivalent à cette construction où on connecte chaque nœud à tous les autres. Mais je suppose ici implicitement que la connectivité moyenne est faible devant le nombre total de nœuds !)
    2. Ou on peut prendre un graphe avec un « effet de célébrité », selon une construction donnant un petit nombre de nœuds hautement connectés et une décroissance essentiellement en loi de puissance de la connectivité des sommets. Il y a un modèle standard pour ça, c'est le modèle de Barabási-Albert (Emergence of Scaling in Random Networks, Science 286 (1999), 509–512) : en gros, en modifiant à peine leur construction, ce que modèle fait est de construire le graphe nœud par nœud comme au point précédent, mais en choisissant cette fois les nœuds auxquels relier un nœud nouvellement créé proportionnellement à la connectivité qu'ils ont déjà, ce qui revient à tirer non pas un nœud au hasard mais une arête au hasard dont on prend aléatoirement un des deux sommets. Ceci donne un graphe ayant un très haut effet de célébrité à cause du fait que les nœuds déjà hautement connectés ont tendance à devenir encore plus hautement connectés au fur et à mesure que le graphe croît (avec un phénomène d'invariance d'échelle) ; ce phénomène reproduit des effets en loi de puissance observés dans de nombreux types de phénomènes sociaux réels, comme expliqué dans l'article de Barabási et Albert. Bien sûr, ce modèle est très criticable, et probablement pas idéal pour modéliser les rapports sociaux réels, donc pas idéal pour simuler une épidémie, mais mon but est simplement de tester la manière dont différents effets, comme la célébrité, ont un impact, donc on va faire avec ça.

Bref. Mon programme est capable de suivre ces trois modes, ou n'importe quelle combinaison de ceux-ci (mais dans mes simulations, je vais suivre ces trois scénarios extrêmes). Le code source est ici (c'est du Perl, il y a d'abondants commentaires au début expliquant le fonctionnement général et comment s'en servir ; essentiellement, il faut régler les paramètres à travers les constantes au début du programme, je n'ai pas eu le temps de faire des choses plus raffinées).

Il y a cependant un autre problème qu'on doit régler avant de comparer des taux d'attaques dans ces différents scénarios : que doit-on garder constant ? Mon programme prend en entrée des paramètres numériques tels qu'une probabilité de contagion par pas de temps et par lien ; mais ça, ce n'est pas quelque chose qu'on peut observer directement ! Les deux choses qu'on peut espérer observer dans une épidémie, ce sont des choses comme :

  • Le taux de croissance du nombre d'infectés avec le temps, pendant la phase exponentielle de l'infection, c'est-à-dire le facteur d'augmentation, par unité de temps, du nombre I d'infectés (plus tant de pourcents par jour), ou, pour être un peu plus précis, sa dérivée logarithmique (= dérivée de log(I), c'est-à-dire I′/I, rapport entre l'augmentation absolue I′ par unité de temps, et le nombre absolu I). Problème, ce taux de croissance dépend lui-même du temps.
  • Le nombre de reproduction. Et encore, ce nombre-là lui-même est délicat à observer ! Dans le modèle SIR à équations différentielles, si les paramètres sont β (taux d'infection) et γ (taux de rétablissement), le taux de croissance de l'exponentielle, au début de l'infection, vaut βγ, tandis que le nombre de reproduction vaut κ = β/γ. Mais ceci n'est pas facile à transposer à d'autres modèles !, notamment si le rétablissement ne suit pas un processus exponentiel. Et j'avoue ne pas bien comprendre ce que calculent réellement les épidémiologues et statisticiens quand ils annoncent un certain nombre de reproduction. Pour estimer ce nombre dans mon modèle, je suis parti d'une définition plus théorique : j'étiquette chaque individu infecté par une génération d'infection, qui vaut 0 pour les individus initialement contaminés, et g+1 pour les individus infectés par des individus de la génération g. Alors le nombre de reproduction devrait être la base de la croissance exponentielle selon g du nombre d'individus infectés de la génération g. Problème, il dépend fortement de g.

Ce que j'ai fait pour estimer le taux de croissance et le nombre de reproduction est de chercher la plus forte pente (du log du nombre d'infectés en fonction, dans un cas, du temps et dans l'autre, de la génération) entre deux points suffisamment espacés (j'ai arbitrairement choisi 20 pas de temps pour la pente dans le temps, et 2 générations pour la pente en générations), et ayant au moins pour valeur la racine carrée du nombre de nœuds pour éviter les bizarreries liées au tout début de l'infection. C'est un peu du bidouillage, mais il faut bien choisir quelque chose à comparer.

Bref. J'ai pris chacun des trois scénarios décrits ci-dessus ((1) mélange parfait aléatoire, (2a) diffusion selon un graphe homogène, et (2b) diffusion selon un graphe avec fort effet de célébrité) et, à chaque fois, j'ai réglé les paramètres de manière à produire des nombres de reproduction proches et des taux de croissance comparables, et à chaque fois j'ai observé le taux d'attaque final et le taux d'attaque au pic de l'épidémie (ainsi que différentes autres statistiques). J'ai cherché à être conservateur : par exemple, pour affirmer que les effets sociaux diminuent le taux d'attaque par rapport au mélange parfait, je cherche des valeurs des paramètres sur un graphe social qui donnent un taux de croissance et un nombre de reproduction au moins égaux à ce que je fixe pour le cas de mélange aléatoire, et qui donnent quand même un taux d'attaque plus faible.

Bref, voici quelques simulations ! À chaque fois je montre trois images : la première est la courbe de l'évolution de l'épidémie en fonction du temps (sachant, de nouveau, que la durée d'incubation est de 5 pas de temps et qu'on est ensuite infectieux pendant 25 pas de temps — ces valeurs sont identiques sur toutes mes simulations), avec une échelle logarithmique en ordonnée ; la deuxième est le nombre d'infectés par génération d'infectés, toujours avec une échelle logarithmique en ordonnée ; et la troisième donne un certain nombre de statistiques produites par le programme, dont celles qui m'intéressent le plus sont : d'une part les paramètres à contrôler, à savoir le pic du nombre de reproduction et le pic de la pente logarithmique (= taux de croissance) du nombre d'infectés dans le temps ; et d'autre part les paramètres à mesurer, à savoir le taux d'attaque final, et le taux d'attaque au moment du pic d'infectés (ce qui donne une idée du seuil d'immunité grégaire comme je l'ai expliqué plus haut).

Première simulation (ci-dessous) selon le scénario (1), c'est-à-dire avec mélange parfait (sans aucun graphe social) : les paramètres choisis donnent un nombre de reproduction de 2.44 et un taux de croissance des infectés de 0.062 par pas de temps, pour un taux d'attaque final de 89% et un taux d'attaque au pic de l'épidémie de 67%. Ce taux d'attaque de 89% est très proche de ce que prédit le modèle SIR pour un nombre de reproduction de 2.44 (à savoir 88%), ce qui conforte l'idée qu'on est très proche de ce modèle, et/ou que ma mesure du nombre de reproduction est à peu près sensée.

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Deuxième simulation (ci-dessous) selon le scénario (2a), c'est-à-dire selon un graphe à peu près homogène, ici avec un degré moyen de 10 (je rappelle que le nombre de nœuds est de 300 000) : les paramètres choisis donnent toujours un nombre de reproduction de 2.44, un taux de croissance des infectés un peu plus élevé de 0.073 par pas de temps, et pourtant, on trouve un taux d'attaque final plus faible de 60%, et un taux d'attaque au pic d'infectés de 39%.

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Cette simulation semble donc conforter l'intuition sur le premier effet que j'ai exprimée plus haut, à savoir que forcer l'épidémie à suivre un graphe social de connectivité modeste, va diminuer considérablement le taux d'attaque, même pour un nombre de reproduction donné (et/ou même pour une croissance donnée avec le temps lors de la phase exponentielle de l'épidémie).

Combien peut-on compter sur cette effet dans la vraie vie ? Je n'en ai aucune idée ! Mon modèle prétend juste montrer que l'effet existe, pas montrer son ampleur. Mais je crois comprendre qu'il semble vrai que beaucoup si ce n'est la grande majorité des infections suivent un lien social (famille, ami, collègue) plutôt que des rencontres aléatoires. Ceci pourrait donc aider à expliquer que des épidémies réelles s'arrêtent bien avant un taux d'attaque de l'ordre de 90%.

Enfin, une simulation (ci-dessous) selon le scénario (2b), c'est-à-dire selon un graphe qui est cette fois-ci extrêmement « social » avec un effet de célébrité fort. Le degré moyen est toujours de 10, mais le nombre de nœuds ayant au moins k voisins décroît, dans la partie à régime en loi de puissance, en C·k−2 : les vrais graphes sociaux dans la vraie vie ne sont probablement pas aussi extrêmes ! Mais le but étant uniquement d'explorer le sens de l'effet et de tester mon intuition, voyons ce qui se produit :

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Avec des paramètres donnant un nombre de reproduction (générationnel, comme toujours) comparable et même un peu plus élevé, de 2.50, et un taux de croissance pendant la phase exponentielle encore un peu plus élevé, 0.092 par unité de temps, on trouve néanmoins un taux d'attaque final très modéré, autour de 35%, et possiblement une immunité grégaire à partir de 23%. Ceci semble donc corroborer l'intuition que j'exprimais quant au second effet mentionné ci-dessus, à savoir que le fait pour l'épidémie d'attaquer en premier lieu les célébrités va diminuer son taux d'attaque final.

Encore une fois, je ne sais pas à quel point cet effet fonctionne dans la vraie vie ! Je prétends juste montrer qu'il peut influencer dans le sens que j'ai dit. Mais je remarque quand même qu'on a très rapidement entendu parler d'énormément de célébrité et de personnalités politiques infectées par le Covid-19 : il y a sans doute deux raisons qui jouent, l'un étant qu'ils peuvent se faire tester plus facilement que le vulgum pecus (mais si c'est la seule explication, cela va dans le sens de montrer que le nombre de cas serait sous-évalué), l'autre étant celui que je viens d'expliquer (qui diminuerait donc le taux d'attaque) ; dans les deux cas, c'est plutôt une bonne nouvelle.

↑Entry #2645 [older| permalink|newer] / ↑Entrée #2645 [précédente| permalien|suivante] ↑

↓Entry #2644 [older| permalink|newer] / ↓Entrée #2644 [précédente| permalien|suivante] ↓

(vendredi)

Le nombre de cas de Covid-19 serait-il massivement sous-évalué ? (Ce serait une bonne nouvelle…)

Voici enfin quelque chose qui ressemble à une bonne nouvelle. Je ne sais pas combien j'ose y croire, parce que j'ai un peu peur de me laisser aller à trop espérer et d'être déçu, mais il y a des éléments très significatifs : il semble que la grippe soit en recrudescence… sauf que cette « grippe », ce serait en fait le Covid-19, qui serait énormément plus fréquent que ce qu'on imagine. Pourquoi serait-ce une bonne nouvelle ? Reprenons au début.

Commençons par l'anecdotique.

La semaine dernière, le poussinet a eu une sorte de rhume, plutôt typique mais avec quelques symptômes inhabituels (comme un goût sucré persistant dans la bouche). Évidemment, il s'est inquiété et si c'était le Covid-19 ? ; je lui ai fait remarquer que le nombre de cas était encore extrêmement faible rapporté à la population française, et que même s'il est largement sous-estimé et qu'il faut multiplier encore par un facteur de croissance de l'exponentielle entre les premiers symptômes et le moment où un cas est recensé, ça n'apparaissait toujours vraiment pas probable, surtout que son rhume collait quand même très peu avec les symptômes de Covid-19 (pas de fièvre, pas de fatigue, pas de maux de tête) et quand même bien avec un rhume classique (nez qui coule, toux plutôt grasse). J'ai fini par le convaincre. Mais entre temps nous avons demandé à un certain nombre d'amis s'ils n'avaient pas eu des symptômes particuliers ces derniers temps…

…et le nombre de réponses a été hallucinant. Plein de gens, mais vraiment plein (peut-être 20% d'un échantillon aléatoire, même si c'est vraiment difficile de compter parce qu'on obtient plus facilement des réponses positives que négatives), et, ce qui est important, des gens indépendants (par exemple des connaissances par un forum informatique qui ne se voient que rarement en vrai et n'ont pas de raison d'être des contaminations croisées) m'ont signalé avoir eu des symptômes grippaux très modérés, souvent juste un ou deux jours, ces derniers temps. Qui une toute petite poussée de fièvre, qui une toux sèche inhabituelle, qui une grande fatigue un jour, et ainsi de suite. Des symptômes qui sont assez inhabituels pour qu'on se dise tiens, c'est bizarre, mais pas assez importants pour qu'on consulte, et puis ils passent, et on n'y pense plus jusqu'à ce que je pose la question. Certains ont eu des cas plus sérieux : un ami qui fait de l'anosmie complète, un autre qui a eu une grosse fièvre avec une grande fatigue et difficulté à se concentrer pendant plusieurs jours. Sur Twitter aussi, je vois plein de gens dire des choses comme ah, j'ai de la fièvre… bon, espérons que ce n'est qu'une grippe. Faut-il vraiment espérer que ce ne soit qu'une grippe ?

Moi-même, hier, j'ai eu une forme de toux sèche, légère mais très inhabituelle (ni la toux grasse que j'ai en fin de rhume, ni la toux sèche qui lui succède ensuite quand je sens bien que j'ai la gorge iritée, mais l'impression déplaisante d'avoir quelque chose à sortir qui ne vient vraiment pas). Puis cette impression est passée, je me suis dit que c'était probablement la poussière de l'appartement où je n'ai pas l'habitude de rester confiné, ou simplement l'effet nocebo dû au stress, et je n'y ai plus repensé, sauf qu'un peu avant 20h j'ai eu un énorme coup de fatigue, avec une grande difficulté à me concentrer sur quoi que ce soit. Je ne sais pas quoi en penser. (Je note qu'en ce qui me concerne, je suis vacciné contre la grippe.)

Bon, tout ça c'est de l'anecdotique, même si c'est de l'anecdotique qui commence à devenir frappant quand mon poussinet et moi avons vu s'accumuler les réponses d'amis et collègues qui nous disaient avoir fait une grippounette.

Mais alors regardons des données moins anecdotiques. Plein de pays ont des réseaux de surveillance de la grippe qui enregistrent le nombre de consultations de médecins pour syndromes grippaux (ILI : Influenza-Like Infection). Et là on constate que, au moins en France, en Suisse, en Belgique, à New York (cf. les graphes de ce fil Twitter), alors que l'épidémie de grippe était en phase de recul, il y a ces derniers jours une nette recrudescence de consultations pour syndromes grippaux, comme si un nouveau pic de grippe arrivait. Or la grippe saisonnière ne fait jamais deux pics : elle vient, elle culmine, elle repart. (Une épidémie peut faire plusieurs pics si, par exemple, les gens prennent peur et s'isolent, avant qu'assez d'immunité se soit installée dans le pays, puis ressortent quand ils ont l'impression que le danger est passé. Mais ceci n'est pas du tout le cas pour la grippe. Au contraire, les mesures anxiogènes autour de Covid-19 devraient plutôt avoir un effet accélérant la fin de l'épidémie de grippe.) Si ce n'est pas la grippe, quel autre virus pourrait être responsable de nouveaux cas de grippe un peu partout ?

Non, en fait, ce n'est pas si simple : il y a une autre explication naturelle, c'est que les gens s'inquiètent plus et se surveillent plus, donc remarquent des symptômes qui en temps normal ne l'auraient pas été, ou encore qu'ils font une forme d'hypocondrie. J'ai du mal à croire que ça puisse être d'une telle ampleur (mes amis me décrivent des symptômes légers mais inhabituels d'après eux ; et ceux qui vont consulter un médecin ont probablement des symptômes un peu plus que complètement anecdotiques).

Cette prépublication (par Pierre-Yves Boëlle, du réseau Sentinelles de surveillance de la grippe en France) rapporte une corrélation significative, à travers les régions françaises, entre l'excès à la normale du nombre de consultation pour syndromes grippaux et le nombre de cas de Covid-19 rapportés dans la région, ainsi qu'une croissance de ceux-ci dans le temps ayant une pente logarithmique compatible avec la progression de l'épidémie de Covid-19. Il semble assez peu vraisemblable qu'un effet purement psychologique se comporte de cette manière (même si tout cela est très difficile à quantifier). Le texte signale que le réseau Sentinelles a eu des tests positifs au Covid-19 parmi les échantillons prélevés aléatoirement pour analyse de différents virus (il ne donne malheureusement pas le nombre, qui n'est probablement pas assez significatif pour qu'on puisse en tirer quelque conclusion que ce soit à part « il y a des cas »).

Bref, tout ça n'est pas une preuve absolue, mais il y a des indices qui commencent à devenir très forts que beaucoup de syndromes grippaux bénins sont en fait des cas de Covid-19.

En quoi est-ce que ça remet en cause beaucoup de chose qu'on croyait ? Cela suggère un ordre de grandeur vraiment différent du nombre de cas. L'article de Boëlle estime à 84 par 100 000 habitants l'excès du nombre de consultations pour syndromes grippaux, en semaine 2020-W10, sur l'ensemble de la France, c'est-à-dire 59 000 consultations supplémentaires sur cette semaine, alors que les cas nouveaux de Covid-19 officiellement recensés sur cette semaine étaient de 1000 environ, qu'il faut probablement multiplier par un facteur 2 ou 3 avant de comparer, pour tenir compte du fait qu'il y a quelques jours (pendant lesquels la croissance exponentielle continue…) entre le moment où un cas est au niveau qui amène la personne à consulter et le moment où il est au niveau qui l'amène éventuellement à l'hôpital et où on ferait un test. Je me doutais bien que la grande majorité des infections n'étaient pas testées (j'utilisais l'ordre de grandeur de ×10 tiré du recollement d'estimations très grossières), mais là on est vraiment au-delà de ce que je pensais. Ou pour le dire autrement, comme il semble que la mort se produise généralement autour d'une semaine après les premiers symptômes, sur ces 59 000 consultations supplémentaires suspectes en 2020-W10, seules 100 sont mortes de Covid-19 en 2020-W11, ce qui fait une létalité autour de 0.2% parmi les cas suffisamment graves pour justifier une consultation chez un médecin, dont on peut eux-mêmes penser qu'ils sont encore loin de représenter l'ensemble des infections (la plupart des amis que j'ai évoqués plus haut ne sont pas allés voir un médecin ! évidemment, rien ne dit qu'ils avaient Covid-19, et évidemment ils ont tendance à être plus jeunes que la médiane, mais c'est une idée à garder à l'esprit).

En quoi serait-ce une bonne nouvelle ? En ce que cela suggère que la létalité aurait été fortement surestimée. Il faut se dire qu'on a affaire à un iceberg (qui grossit !) : on n'en voit que la partie émergée (les morts, les cas de détresse respiratoire aiguë, et d'autres cas assez graves pour être traités par les services d'urgence et faire l'objet d'un test qui sera comptabilisé dans les statistiques s'il est positif). Mais on ignore la taille de la partie submergée (les cas qui se présentent comme une grippe banale, voire une grippounette, peut-être même une absence totale de symptômes). Si on ne regarde que la partie émergée, l'iceberg est très inquiétant, parce qu'il va grossir jusqu'à des proportions démesurées. Mais si la partie submergée est assez grosse, c'est que nous sommes bien plus avancés qu'on le pensait dans l'infection, et le seuil d'immunité n'est plus forcément si loin. I.e., l'aplatissement de la courbe nécessaire pour traverser l'épidémie ne semble plus aussi invraisemblablement inatteignable.

Le nombre de décès et de cas graves est évidemment ce qu'il est. Le débordement des services d'urgences où il a lieu est un fait incontestable et qui appelle au minimum à ce qu'on ralentisse fortement l'épidémie, mais la différence est que cette situation représenteraient une épidémie déjà bien avancée et pas le tout début du bout de son nez. Ce serait incontestablement une bonne nouvelle.

Pour dire les choses autrement, si on suppose que chez 90% de la population (chiffre complètement pifométrique) l'infection au Covid-19 ne produit que des symptômes tellement modérés que personne ne se rend compte de rien, et peut-être que ces personnes ne sont que très faiblement infectieuses, et que leur charge virale reste trop faible pour que les tests soient fiables auprès d'eux, cela ne changera pas beaucoup la dynamique connue de l'épidémie jusqu'à présent, sauf que c'est comme si la population à infectée était dix fois plus faible, et avec elle le nombre de morts à prévoir.

Si tout ça est juste, il me semble clair que la stratégie d'« aplatir la courbe » (celle que j'appelais ②), et pas celle de chercher à arrêter à tout prix l'épidémie (celle que j'appelais ①), est la bonne. On a toujours un choix[#] entre Charybde et Scylla, mais Scylla est moins horrible que ce qui était initialement prévu. Bien sûr, pour l'instant, on navigue à vue et il est trop tôt pour essayer de savoir de combien.

[#] Enfin, à supposer qu'on ait un choix, parce qu'il n'est pas clair que le niveau maximal de confinement acceptable pour la population soit suffisant pour ramener le nombre de reproduction en-dessous de 1… Quand je regarde les données pour le village italien de Lodi, qui est confiné depuis le 2020-02-23, j'ai l'impression qu'on tourne autour de 1 (ces chiffres sont malheureusement très difficiles à lire parce qu'il ne semble pas que le nombre de cas actifs soit publié, seulement le nombre de cas cumulé).

Quelques remarques, cependant. Le nombre de cas ne peut pas avoir été trop lourdement sous-estimé : la Corée du Sud contrôle son épidémie par une campagne de tests massifs : s'il y avait trop de cas presque asymptomatiques mais testant positifs, ça se refléterait sur leur taux de létalité qui n'est pas si bas que ça ; et s'il y avait trop de cas presque asymptomatiques testant négatifs, leur stratégie pour retrouver les contaminations ne marcherait pas, sauf si ces personnes ne sont pas du tout contagieuses : c'est pour ça que l'hypothèse à avancer est que ces cas en questions sont presque asymptomatiques, sont généralement négatifs aux tests, et sont peu contagieux. Cette hypothèse pose toujours un problème, qui est qu'il y a eu des événements de contamination de groupe où un grand nombre de personnes ont été contaminées parmi la population présente, ce qui laisse penser que le taux d'asymptotiques ne peut pas être trop bas. Mais l'hypothèse a été avancée (voir par exemple ici) que toutes les contaminations ne se valent pas : la gravité pourrait dépendre du nombre de contacts, des doses infectantes, et/ou de la voie d'infection : ceci expliquerait que les événements supercontaminateurs ne représenteraient pas des statistiques habituelles.

L'autre point crucial à souligner, c'est que tout ce que j'ai dit n'est une bonne nouvelle que si les contaminations presque asymptomatiques sont néanmoins assez pour conférer une immunité. Là je ne suis pas du tout qualifié pour m'exprimer, mais cette analyse semble suggérer qu'on peut être prudemment optimiste à ce sujet.

Et bien sûr, il faut garder à l'esprit dans tout ça qu'un facteur énorme à prendre en compte, c'est combien les personnes âgées sont touchées par l'épidémie. Voir cet excellent article qui analyse le cas de l'Italie par rapport à la Corée (la plus grosse différence dans le taux de létalité semble venir du nombre de personnes âgées infectées). Si on veut utiliser comme stratégie d'aplatir la courbe, il faut aussi prendre garder à protéger plus soigneusement les personnes âgées que les jeunes.

↑Entry #2644 [older| permalink|newer] / ↑Entrée #2644 [précédente| permalien|suivante] ↑

↓Entry #2643 [older| permalink|newer] / ↓Entrée #2643 [précédente| permalien|suivante] ↓

(mardi)

Bon, quelle sera la stratégie suivie en France et en Europe ? Et comment va se dérouler la suite ?

Je suis tombé sur cette modélisation effectuée par la Imperial College Covid-19 Response Team et publiée hier teste l'effet de différentes mesures sociales sur l'épidémie de Covid-19 au Royaume-Uni. Il semble qu'une étude du même genre a été fournie à la France mais pas rendue publique.

Le fait qu'ils évoquent 500 000 morts au Royaume-Uni si on ne fait rien risque de faire beaucoup parler. Je pense pour ma part que cette chiffre est exagérément pessimiste : le taux d'attaque final qu'ils prédisent, à savoir 81% de la population en tablant pour un nombre de reproduction R₀=2.4, est très proche de la valeur calculée par SIR, ce qui me suggère qu'il s'agit probablement d'un modèle de ce type, avec des raffinements pour la catégorisation par âge mais pas de vraie structure de graphe social (dont les effets atténueraient beaucoup le taux d'attaque final comme je l'ai déjà expliqué). Je pense en fait que le but des auteurs n'était pas de prédire le taux d'attaque mais simplement de montrer l'effet relatif sur celui-ci de différentes mesures de distanciation et isolation, dont on peut penser que ça ne dépend pas trop de la structure sociale complexe. Donc je pense qu'il ne faut pas tabler sur 81% de contaminés et 500 000 morts au Royaume-Uni même si on ne fait absolument rien, mais ça donne une idée de l'ampleur du problème.

Cependant, ce qui m'intéresse surtout est qu'ils confirment, presque exactement comme je l'expliquais, ce que je dis depuis longtemps, à savoir l'existence d'une dichotomie importante entre les pistes ① et ②, qu'ils formulent de la manière suivante (dans le même ordre que moi) :

Whilst our understanding of infectious diseases and their prevention is now very different compared to in 1918, most of the countries across the world face the same challenge today with COVID-19, a virus with comparable lethality to H1N1 influenza in 1918. Two fundamental strategies are possible2:

(a) Suppression. Here the aim is to reduce the reproduction number (the average number of secondary cases each case generates), R, to below 1 and hence to reduce case numbers to low levels or (as for SARS or Ebola) eliminate human-to-human transmission. The main challenge of this approach is that NPIs [Non-Pharmaceutical Interventions] (and drugs, if available) need to be maintained – at least intermittently - for as long as the virus is circulating in the human population, or until a vaccine becomes available. In the case of COVID-19, it will be at least a 12-18 months before a vaccine is available3. Furthermore, there is no guarantee that initial vaccines will have high efficacy.

(b) Mitigation. Here the aim is to use NPIs (and vaccines or drugs, if available) not to interrupt transmission completely, but to reduce the health impact of an epidemic, akin to the strategy adopted by some US cities in 1918, and by the world more generally in the 1957, 1968 and 2009 influenza pandemics. In the 2009 pandemic, for instance, early supplies of vaccine were targeted at individuals with pre-existing medical conditions which put them at risk of more severe disease4. In this scenario, population immunity builds up through the epidemic, leading to an eventual rapid decline in case numbers and transmission dropping to low levels.

The strategies differ in whether they aim to reduce the reproduction number, R, to below 1 (suppression) – and thus cause case numbers to decline – or to merely slow spread by reducing R, but not to below 1.

In this report, we consider the feasibility and implications of both strategies for COVID-19, looking at a range of NPI measures. It is important to note at the outset that given SARS-CoV-2 is a newly emergent virus, much remains to be understood about its transmission. In addition, the impact of many of the NPIs detailed here depends critically on how people respond to their introduction, which is highly likely to vary between countries and even communities. Last, it is highly likely that there would be significant spontaneous changes in population behaviour even in the absence of government-mandated interventions.

We do not consider the ethical or economic implications of either strategy here, except to note that there is no easy policy decision to be made. Suppression, while successful to date in China and South Korea, carries with it enormous social and economic costs which may themselves have significant impact on health and well-being in the short and longer-term. Mitigation will never be able to completely protect those at risk from severe disease or death and the resulting mortality may therefore still be high. Instead we focus on feasibility, with a specific focus on what the likely healthcare system impact of the two approaches would be. We present results for Great Britain (GB) and the United States (US), but they are equally applicable to most high-income countries.

Il est donc clair que les gouvernements français et britannique ont reçu le message que ces deux stratégies existent, Charybde et Scylla. Le document discute (c'est son but principal) quelques manières de rendre ② un peu moins horrible (et montre qu'on peut réduire le nombre de morts d'un facteur 2 et le nombre de lits de réanimation d'un facteur 3 environ en réduisant le taux d'attaque — qui restera largement au-dessus du seuil de l'immunité grégaire), confirme que ① est complètement instable (dans leur analyse, si on confine toute la population du Royaume-Uni pendant cinq mois, l'épidémie disparaît, et à peine un mois plus tard elle est de nouveau là), et évoque quelques façons de rendre ① plus subtil, comme celle où les mesures de confinement sont déclenchées automatiquement dès que le seuil d'occupation des lits d'hôpital dépasse un certain niveau, mais bon, il est clair que cela implique de passer quand même environ deux tiers des mois en confinement jusqu'à la découverte d'un hypothétique vaccin. Bref, sous n'importe quelle forme le dilemme reste atroce (j'ai évoqué des thèmes et variations hier en cherchant ce que je trouvais de moins noir).

Je reste persuadé que cette étude est pessimiste : on doit pouvoir atteindre un taux d'attaque encore plus bas que le 40% qu'ils estiment sous les meilleures méthodes d'aplatissement de la courbe si on tient compte des effets de structuration sociale (encore une fois, les effets qui ont fait que je ne sais combien d'hommes politiques ont été infectés en premier : ils sont hautement connectés, donc les retirer du graphe a un vite impact très fort) : c'est peut-être de la méthode Coué, mais je crois assez fort au 20% que me souffle mon intuition. Ils sont aussi possiblement pessimistes sur le nombre de cas asymptomatiques ou bénins : d'après un article paru hier dans Science (Substantial undocumented infection facilitates the rapid dissemination of novel coronavirus (SARS-CoV2)), seulement 14% des infections de l'épidémie initiale du Húběi auraient été recensés (parmi lesquels 14% et 5% étaient classés comme sérieux ou critiques d'après l'article The Epidemiological Characteristics of an Outbreak of [Covid-19] (CDC Weekly), tableau 1 page 4) ce qui suggère que peut-être seulement 2% (resp. 1%) de toutes les infections nécessitent une hospitalisation, respectivement un passage en réanimation alors qu'ils se basent sur 4.4% environ. Troisième source de pessimisme, ou plutôt, présentation pessimiste : ils ne tiennent pas compte de la possibilité tout de même énorme de créer de nouveaux lits d'hôpital par réaffection, ou plus exactement, ils comparent juste leurs courbes au nombre de lits disponibles actuellement (même pas le nombre de lits total, alors comme les lits sont pleins à environ 90%, évidemment, ça paraît vite énorme). Dernier point : comme ils sont épidémiologues et pas sociologues, ils ne peuvent pas s'exprimer sur la chance que l'épidémie et la peur qui va avec conduise la population à durablement voire définitivement changer certaines habitudes (serrage de mains, attention portée à l'hygiène) qui modifierait le nombre de reproduction.

Bref, je les crois pessimistes (et pourtant je ne vois pas les choses en rose). Mais qui sait si le conseil scientifique réuni par le gouvernement français aura la même analyse ?

Et surtout que décideront Emmanuel Macron et les autres gouvernements européens quand on leur aura expliqué qu'ils ont le choix entre la mort de centaines de milliers de personnes (avec une part énorme de personnes âgées) et un confinement dont on ne voit aucune issue ? Voilà la question dont dépend notre sort à tous (au moins en Europe : aux États-Unis, ça va être chacun pour soi).

Je ne pense pas qu'on puisse imaginer une seconde que la France se laisse confiner indéfiniment comme la Chine, ni qu'Emmanuel Macron (ou Angela Merkel, ou Boris Johnson, etc.) ait l'idée de tuer ainsi complètement ce qui reste de l'économie. Ni même confiner régulièrement deux mois sur trois comme le papier le suggère. Je ne les vois pas non plus accepter trop facilement de laisser mourir des centaines de milliers de morts ou qu'on puisse les accuser de ne rien avoir fait. Le confinement était donc logique. Mais la question est celle de savoir ce qui se passe ensuite.

Pendant dix à quinze jours, il est évident que le nombre de cas officiels ne va faire qu'augmenter, exponentiellement, à un rythme à peu près constant (en exp(0.21·t), c'est-à-dire +24% par jour, ou encore un doublement tous les 3.2 jours, un décuplement tous les 10.8 jours), car je rappelle que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ. Le confinement total de l'Italie ne pourra donc se voir sur les chiffres officiels qu'autour de samedi, et celui de la France qu'autour de samedi 28 : à ce moment-là, dans les chiffres officiels, la France aura 85 000 cas recensés environ, mais ce chiffre-là est prévisible ; il est aussi évident que la pente logarithmique va baisser quand apparaîtra l'effet de la nouvelle mesure, mais toute la question est : à quel point ? Si le rythme des contaminations passe au-dessous de celui des guérisons (ce qui demande de passer de 0.21 à 0.06 environ), le nombre de cas ouverts va décroître et l'épidémie se résorber ; sinon, elle continuera à croître, juste un peu moins vite.

À Wǔhàn, l'épidémie s'est résorbée, mais au prix d'un confinement vraiment draconien. Je ne sais pas si celui à l'italienne ou à la française peut suffire. Je suppose que l'idée de commencer par 15 jours était de se donner le temps de réfléchir. Peut-être aussi de frapper l'opinion publique avec la gravité de la crise. Et peut-être surtout d'avoir cette information de l'effet d'une telle mesure de confinement sur le nombre de reproduction.

Maintenant, je pense qu'il va se passer la chose suivante, en continuant à essayer d'être optimiste comme je peux, mais sans invoquer non plus de miracle :

(Scénario I.) Au bout de 15 (ou peut-être 30) jours de confinement de tous les Français, le nombre de cas ouverts étant à peu près en stagnation (ou en légère recrue), Emmanuel Macron fera une allocution solennelle expliquant qu'il lève le côté impératif et contraignant des mesures, parce qu'on ne peut pas empêcher indéfiniment les gens de vivre et que l'État ne peut pas être derrière chacun, mais qu'il appelle à la responsabilité de tous pour continuer à prendre le même soin de rester autant que possible chez eux, s'abstenir des contacts physiques et de respecter les gestes barrière, à ne voir leurs amis qu'avec la plus grande parcimonie et à éviter tout contact avec les personnes âgées. (Les écoles resteront fermées pour un moment, ainsi que beaucoup de lieux publics, mais les restaurants et cafés auront le droit d'ouvrir à condition de respecter des règles extrêmement restrictives sur la séparation des convives et le lavage de la vaisselle.) Cela ne suffira pas, évidemment, mais cela ralentira au moins pas mal la courbe des contaminations : pas seulement sous l'effet de la responsabilisation, mais aussi sous celui de la peur (et aussi du fait que les moins prudents auront été infectés en premier et seront devenus immuns). L'épidémie va donc progresser à un rythme nettement ralenti mais néanmoins positif. Pendant le confinement (ou plutôt pendant les 12 jours qui vont suivre), le système de santé aura eu le temps de parer au plus pressé (monter des hôpitaux de campagne dans des hôtels et des stades), mais surtout les médecins malades auront eu le temps d'acquérir l'immunité, et peut-être qu'on aura pu improviser des lits et des respirateurs. Grâce à la diminution de la vitesse de reproduction, le pic épidémiologique sera à la fois aplati et étendu dans le temps (durant en gros six mois au lieu de trois et infectant peut-être seulement 15% de la population, causant seulement 50 000 morts). Au bout d'un moment, ce pic premier étant passé, les mauvaises habitudes reviendront (et on aura rouvert les écoles), et il y aura un deuxième pic, qui sera cependant plus plat parce que beaucoup de gens auront déjà l'immunité (pas assez pour qu'il y ait immunité grégaire, mais assez pour ralentir nettement), et on sera mieux préparés. Enfin, on mettra au point un vaccin pour protéger les personnes âgées qui auront eu la force de rester enfermées chez elles pendant des mois. (Bonus : on entre dans une ère où l'hôpital public, et les services publics en général, sont massivement revalorisés, et Donald Trump n'est pas réélu président des États-Unis soit parce qu'il est devenu massivement impopulaire à cause des morts incroyablement nombreux suite à on inaction, soit simplement parce qu'il est décédé du Covid-19.)

Voilà à peu près ce que je peux offrir de plus optimiste en restant vaguement réaliste à la fois sur l'épidémiologie, la sociologie des Français et la psychologie du président. Si vous avez mieux, je suis toujours preneur. (Pour du très pessimiste, c'est trop facile : il suffit d'imaginer que l'immunité ne dure qu'un mois et le vaccin impossible, et que le syndrome interstitiel provoqué par le virus devienne de plus en plus probable à chaque infection, et vous avez la recette parfaite de la fin du monde.)

↑Entry #2643 [older| permalink|newer] / ↑Entrée #2643 [précédente| permalien|suivante] ↑

Only the 20 most recent entries were included above. Continue to older entries.

Seules les 20 plus récentes entrées ont été incluses ici. Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020 May 2020 Jun 2020 Jul 2020 Aug 2020 Sep 2020 Oct 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]