David Madore's WebLog

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., celle écrite en dernier est en haut). Cette page-ci rassemble les dernières 20 entrées (avec un lien, à la fin, pour les plus anciennes) : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the latest written is on top). This page lists the 20 latest (with a link, at the end, to older entries): there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Latest entries / Dernières entrées publiées:

↓Entry #2649 [older| permalink|newer] / ↓Entrée #2649 [précédente| permalien|suivante] ↓

(mercredi)

La confusion est toujours totale

Mon moral ne s'améliore pas, bien au contraire. Au sentiment d'injustice à être maintenu prisonnier et la sensation d'oppression qui va avec (et qui est en train d'engendrer une véritable haine de mon appartement et de mon quartier) s'ajoute de façon de plus en plus pressante la conviction que la levée du confinement va être une catastrophe et qu'on s'achemine vers un monde épouvantable qui combinera le pire de tous les tableaux : l'horreur dystopienne de mesures de contrôle qui n'auront cependant aucun effet réel sur l'épidémie, le désastre d'une crise économique sans précédent que ces mesures vont causer (et qui causera possiblement bien plus de morts que la maladie), et le désastre sanitaire de l'épidémie elle-même qui n'a fait que commencer. Je continue à ne pas arriver à penser à autre chose. Et plein de petits malheurs s'ajoutent aux grandes angoisses : je ne vais pas en faire la liste, mais une petite humiliation particulièrement malvenue m'est arrivée aujourd'hui quand j'ai voulu mettre sur l'arXiv (le dépôt mondial de prépublications scientifiques en physique, maths, informatique, etc.) une version proprement rédigée de la dernière note de ce blog par laquelle j'espérais au moins apporter une petite contribution intéressante à l'épidémiologie (avec, en plus, des remarques sur quelques liens intéressants avec la théorie des graphes orientés aléatoires) et que cette note a été rejetée par l'arXiv — je ne savais même pas que c'était possible de se faire rejeter par l'arXiv — me privant ainsi de la minuscule satisfaction de donner la moindre visibilité à cette très petite contribution.

Bon, essayons de faire un peu le point sur ce qu'on sait, ou plutôt, sur ce qu'on continue à ne pas savoir du tout.

Les informations rapportées par les tests concernant le Covid-19 continuent à être complètement mystifiantes. J'ai expliqué la semaine dernière l'importance de faire des tests aléatoires, couplés à des sondages symptomatiques à grande échelle, pour pouvoir mesurer l'étendue de l'épidémie : quelques tests aléatoires ou para-aléatoires (volontaires) ont été menés çà et là, mais malheureusement sans méthodologie claire. (Par exemple, certains utilisent uniquement des tests sérologiques encore en développement : du coup, on ne connaît pas du tout leur fiabilité et le résultat est inutilisable ; alors que si on menait, sur le même échantillon, des tests virologiques et sérologiques, on aurait au moins un recoupement possible sur la base de l'hypothèse que la proportion d'infectés actuels sur les infectés historiques peut plus ou moins approximativement se déduire des statistiques d'hospitalisation en supposant que la proportion d'hospitalisation ne varie pas trop ; et idéalement reprendre les mêmes personnes régulièrement permettrait de comprendre un peu la fiabilité des tests.) Ces tests semblent donner, en outre, des résultats complètement incohérents les uns avec les autres (par exemple quand il s'agit d'estimer le nombre d'asymptomatiques) : des endroits à peu près également touchés (en nombre de morts, de cas cliniques enregistrés) enregistrent des taux de positivité complètement différents. Un bled italien a relevé un taux de positifs hallucinant parmi les donneurs de sang, qui étaient asymptomatiques, mais ce bled enregistre aussi beaucoup de morts malgré un nombre de cas plutôt faible, donc au final on ne sait vraiment pas quoi conclure à part qu'on n'y comprend rien mais qu'il y a sans doute des tests qui ne valent rien. Et en plus de la mauvaise qualité technique et méthodologique des tests, il y a la mauvaise qualité du retour d'information, souvent relayée par des journalistes qui n'y comprennent rien et qui déforment encore plus les choses. Bref, à ce stade, tout semble scientifiquement inexploitable. Je ne sais pas si ça a des chances de s'améliorer.

[Évolution relative statistiques Covid-19 en Île-de-France]Côté statistiques, les choses ne sont pas franchement moins confuses. Je calcule régulièrement un graphe comme celui ci-contre, qui représente grosso modo l'évolution relative, i.e., essentiellement la dérivée logarithmique, des cas de Covid-19 en Île-de-France. Plus exactement, les points rouges représentent, pour chaque jour (compté depuis le ) l'augmentation quotidienne du nombre de personnes hospitalisées pour Covid-19 en Île-de-France (départements 75, 92, 93, 94, 77, 78, 91, 95) divisée par le nombre lui-même (bref, (N[J]−N[J−1])/N[J] si N[J] est le nombre d'hospitalisés au jour J), et la courbe bleu foncé représente la même chose en lissant au préalable le logarithme du nombre N[J] d'hospitalisés avec une régression par processus gaussien (et, dans les faits, en laissant sklearn.gaussian_process.GaussianProcessRegressor faire sa magie), bref, c'est une sorte d'interpolation pour tenter d'effacer les fluctuations aléatoires ; les points orange et la courbe bleu clair représentent la même chose mais au lieu du nombre d'hospitalisés il s'agit de la somme cumulée sur les 10 derniers jours du nombre de passages aux urgences pour suspicion de Covid-19 (pourquoi 10 ? parce que pour les gens qui sont hospitalisés c'est le temps typique qu'ils y passent, donc c'est un proxy comparable aux données hospitalières). Le code utilisé pour générer le graphe est ici (librement basé sur du code qu'on m'a fourni sur Twitter). Grosso modo, le pic épidémique correspond au moment où les courbes passent dans les valeurs négatives (le nombre d'hospitalisés ou de malades diminue) : les points rouges et la courbe bleu foncé montrent l'évolution des cas graves (hospitalisés) tandis que les points orange et la courbe bleu clair donnent une idée approximative de l'évolution des cas moins graves. Ce que tout cela signifie au juste n'est pas clair, bien sûr (et notamment pourquoi il y a un tel écart entre ces deux courbes), mais il est clair qu'on est en voie de traverser un pic épidémique en Île-de-France.

Mais parmi les choses qui ne sont pas claires, il y a les raisons pour lesquelles ces courbes sont orientées à la baisse (c'est-à-dire que l'épidémie décélère au sens logarithmique) depuis assez longtemps. Le confinement a certainement un effet, mais je m'attendais à voir le confinement apparaître comme une rupture assez nette, sinon une discontinuité au moins une variation assez forte et resserrée, dans ces courbes, or ce n'est pas le cas. Le confinement a été décrété en France à partir du , c'est-à-dire le jour 22 sur mon graphique, et on s'attend à ce que ses effets se manifestent environ 12 jours après (parce que la période d'incubation est d'environ 5j et qu'il faut encore 7j pour que les symptômes deviennent graves quand ils le deviennent), donc autour du jour 34, or si on voit bien une baisse dans ces eaux-là, elle ne semble faire que continuer une baisse bien entamée avant. Je vois au moins trois pistes d'explication possibles, mais aucune n'est très convaincante : (a) la saturation d'une ressource (à commencer par les lits d'hôpital), mais là aussi je m'attendrais à une variation un peu plus brutale, pas à une pente gentiment régulière sur les deux courbes, (b) des changements de comportement indépendamment du confinement, mais je suis surpris qu'ils aient pu se produire aussi tôt, ou enfin (c) une immunité s'installant, sinon chez la population en générale, au moins chez les sous-populations qui sont les plus exposées à l'épidémie (par exemple ceux qui ont le plus grand nombre de contacts), mais que ce phénomène ait pu commencer de façon non-négligeable dès le début du mois de mars semble très surprenant. Au final, je ne sais pas quoi penser, et je n'ai certainement toujours pas de vision claire de ce que peut être la part d'immunité installée et la part d'effet de la distanciation sociale.

Les modèles épidémiologiques comme SIR (voir ici et ) sont évidemment incroyablement simplistes dans leur description soit le nombre de reproduction est >1 et l'épidémie progresse exponentiellement, soit il est <1 et elle régresse exponentiellement. J'ai déjà insisté sur l'importance de la structure sociale locale, mais le même type de phénomènes se reproduit à toutes sortes de niveaux : on ne peut pas considérer qu'on a affaire à une population homogène mais à une multitude de sous-populations (par zone géographique et par catégorie socio-économique ou socio-professionnelle), avec des interactions complexes, chacune ayant sa propre dynamique épidémiologique, qui interagit avec les autres. Comme une somme d'exponentielles est dominée par la plus rapide de toutes, on détecte avant tout la contamination des sous-populations où le virus se propage le mieux, ce qui conduit à surestimer en pratique le nombre de reproduction (disons qu'on ne voit que sa frange la plus élevée) : cela se voit assez bien au niveau géographique quand on parle de clusters, par exemple dans les grandes villes, mais le même phénomène peut se produire sur d'autres dimensions moins facilement observables que les dimensions spatiales (notamment sociologiques). Si l'épidémie commence à saturer une sous-population parce qu'elle devient immunisée, la croissance exponentielle va décélérer jusqu'à être dominée par une autre sous-population qui n'a pas encore saturé. C'est une raison pour laquelle on peut s'attendre à une diminution graduelle, éventuellement avec des paliers, de la vitesse de croissance exponentielle. Mais, encore une fois, je ne sais pas si c'est ce explique effectivement ce qu'on observe.

Et bien sûr, le confinement ne réduit pas les contacts de toutes les personnes de façon uniforme : lui aussi va avoir plus ou moins d'effet dans des sous-populations distinctes (il n'a pas d'effet au sein d'un même foyer, pour commencer), donc on s'attend à voir la dynamique se modifier de façon assez imprévisible et être dominée par une nouvelle sous-population où la reproduction serait la plus rapide. (On peut tout à fait imaginer, et cela se produira peut-être, que le nombre de cas reparte à la hausse, mais moins vite, parce que la sous-population qui avait précédemment la croissance la plus forte de l'épidémie serait passée en régime où elle régresse, mais qu'une autre sous-population qui était précédemment moins sujette à contagion, bénéficierait très peu du confinement et deviendrait celle qui a la croissance dominante de l'épidémie.) Tout cela sera extrêmement difficile à lire.

Médicalement, il y a apparemment un certain nombre de signes que la gravité de la maladie serait peut-être liée soit au mode de contamination soit à la dose contaminante ou à leur multiplication. Cela expliquerait notamment le fait très préoccupant que le personnel soignant ait apparemment plus de chances de développer des formes graves du Covid-19 (étant plus exposé, plus souvent exposé, et exposé à des formes elles-mêmes plus graves) ; ou encore que les contaminations en groupe aient aussi tendance à être plus graves. Ceci pourrait aussi expliquer certaines anomalies dans les statistiques, comme l'extrême variabilité des taux de létalité observés si la létalité ne dépend pas seulement de l'état du patient (âge et précondition) de la donnée a été contaminé mais de la manière dont la contamination a eu lieu (qui peut dépendre de toutes sortes de paramètres sociologiques). Mais cela rend encore plus difficile la compréhension de l'état réel d'avancement de l'épidémie. Ou la décision de ce qu'on doit faire de cette information (on pourrait imaginer de laisser les gens se faire contaminer par des doses faibles, dans l'espoir qu'elles développent des formes bénignes voire asymptomatiques, comme dans la variolation, une forme de pseudo vaccination, mais ce serait très difficile de calibrer l'opération et encore faut-il que les personnes puissent savoir qu'elles ont été contaminées et s'isoler ensuite). Toujours est-il qu'on peut s'attendre à ce que la dynamique des formes graves de la maladie (et donc la fraction des cas graves) ne coïncide pas précisément avec celle des formes plus bénignes, même en tenant compte des paramètres démographiques. Par exemple, il est assez plausible que les régions ou sous-populations ayant le plus de cas dans l'absolu aient aussi la plus grande proportion relative de cas graves.

Une autre question médicale qui est pas mal ouverte, c'est l'étendue de l'immunité conférée par la maladie, et notamment par ses formes bénignes voire asymptomatiques, ainsi que sa durée dans le temps, et aussi le danger que dans certains cas l'immunité acquise soit en fait dangereuse (par facilitation par les anticorps). Je vois passer sur Twitter pas mal de gens qui aiment (se) faire peur en expliquant qu'il y a des cas de réinfection par le Covid-19, voire que les réinfections seraient plus graves que les premières infections (parce que le système immunitaire s'emballerait). Je ne suis pas du tout expert, mais ça ressemble beaucoup à du fearmongering. De ce que j'ai compris de l'avis des experts, ces histoires de réinfections sont sans doute des faux rétablissements (les tests ne sont pas terriblement fiables, ou plutôt, les prélèvements sont difficiles à mener, donc un test négatif ne prouve pas qu'il n'y a plus d'infection), parce qu'il est difficilement crédible qu'un virus qui aurait été éliminé par le système immunitaire parvienne à réinfecter en un intervalle de quelques jours : on a des expériences sur le singe qui montrent que l'infection, au moins chez eux, au moins en général, confère bien une immunité, et il y a des indices que c'est le cas chez l'homme même en cas d'infection peu grave ; cet article et ce fil Twitter font un peu le point. Mais surtout, s'il n'est pas exclu qu'il y ait pu avoir des réinfections, y compris avec une seconde infection plus grave que la première, ils ne doivent pas être statistiquement très significatifs, parce qu'au stade où en est l'épidémie, on aurait énormément de tels cas sous la main si ça se produisait avec une certaine fréquence (il y a 300k patients guéris officiellement recensés, c'est-à-dire clairement identifiés, la plupart doivent être dans des endroits où le virus circule largement, donc facilement 1% doivent avoir au moins subi une tentative de réinfection de la part du virus, ça devrait faire 3000 cas de réinfection : si ne serait-ce que 10% conduisaient à une seconde infection et qu'elle était plus grave, ça se saurait vraiment). Il est possible que si la seconde infection a lieu elle soit plus grave que la première, mais de toute évidence ça doit rester rare. Comme en outre le virus ne semble pas accumuler de mutation significative, il est peu probable qu'il y ait, comme pour la dengue, différentes souches dont l'immunité à certaines aggraverait l'infection par d'autres (d'autant que ce mécanisme n'est pas connu des autres coronavirus).

Le confinement, de toute évidence, ne pourra pas être maintenu indéfiniment. Ce qui va se passer quand il sera levé, ne serait-ce que progressivement, est la grande inconnue, qui dépend avant tout de l'immunité installée, dont je viens d'expliquer qu'on n'en savait rien tant les tests sont actuellement inexploitables, tant elle dépend de considérations sociologiques compliquées, et tant les questions médicales sous-jacentes sont elles-mêmes confuses. J'ai un certain espoir qu'il y ait assez d'immunité dans les sous-populations où la reproduction du virus est la plus facile, et qu'en outre la levée du confinement n'implique pas un retour au statu quo ante dans les habitudes, pour qu'au moins on ne retrouve pas une croissance exponentielle au rythme assez impressionnant de 0.2/j qu'on observait avant le confinement. Mais la question qui demeure est de savoir si on sera plutôt dans un régime de croissance exponentielle (fût-il plus lent) ou de décroissance exponentielle. Et l'autre question, c'est ce que vise le gouvernement.

Je ne vais pas en rajouter une couche avec mes histoires théoriques de stratégies ① et ②, donc je vais présenter les choses un peu différemment : on peut imaginer soit ❶ d'attendre jusqu'à ce qu'il n'y ait essentiellement aucun nouveau cas, et relâcher le confinement seulement à ce moment-là, puis espérer traquer tous les cas qui apparaîtraient et les empêcher de donner lieu à de nouvelles contaminations, et ce, plus rapidement qu'ils apparaissent : c'est ce qu'essaie de faire la Chine, c'est ce que fait la Corée avec un certain succès (mais que je ne crois pas transposable en Europe à cause de la plus grande difficulté de contrôler les frontières, à cause du manque de moyens technologiques, et à cause de différences sociétales fortes) ; ou bien ❷ de relâcher un petit peu le confinement quand les urgences seront moins saturées (par exemple après une semaine de baisse), quitte à ce qu'il y ait un nouveau pic, mais moins important, et de relâcher progressivement à chaque fois que les urgences désaturent, de manière à y garder un flux tout juste gérable, le fameux flatten the curve, qui produit, dans les faits, un plateau épidémique plutôt qu'un pic. (Vous voyez ? J'ai changé ma présentation et j'ai même changé la façon dont les numéros sont écrits.) Les deux approches sont périlleuses : la ❶ peut échouer parce qu'on perd le contrôle de l'épidémie, et alors tout le temps passé à la ramener à quasi zéro aurait été pour rien, la ❷ demande énormément de finesse dans le relâchement du confinement alors qu'on ne contrôle que très mal ce que les gens feront et qu'on ne sait pas quel effet les mesures auront (et qu'on ne l'observe que deux semaines plus tard, et encore, très mal ! comme je l'ai montré plus haut). Et les deux peuvent très mal tourner ou devenir quasiment impossibles à mener si l'épidémie est plus contagieuse ou plus répandue qu'on le pensait.

Ce que vont (chercher à) faire les gouvernements européens est toujours entouré de la plus grande confusion. L'Autriche et le Danemark parlent déjà de relâcher le confinement, même l'Italie fait des signes dans ce sens, ce qui suggère plutôt l'approche ❷ puisque visiblement on est loin de l'extinction de l'épidémie. Ce petit clip d'Arte décrit aussi clairement l'approche ❷ (mais les journalistes n'ont pas vraiment de raison d'en savoir plus que moi). Cependant on reçoit encore des signes assez contradictoires. Pas mal de discussions autour de la collecte des données des mobiles, par exemple, ce qui relève plus de l'approche ❶ (et j'ai bien peur qu'on se retrouve avec tout l'arsenal dystopien de cette approche sans que cet arsenal soit utile parce que l'épidémie ne se laisserait pas si facilement maîtriser). Beaucoup de gens sur Twitter sont fermement persuadés qu'on adoptera l'approche ❶ : voir par exemple ce fil Twitter (qui est intéressant parce que dans le premier message on y entend le chef du service des maladies infectieuses de la Pitié, le professeur Caumes, et le journaliste qui l'interviewe, parler de mater, casser ou éradiquer l'épidémie, visiblement l'approche ❶), et je crois que l'OMS continue à pousser dans cette direction.

Mais je pense qu'il y a une certaine confusion pour plusieurs raisons. La principale est cette idée qu'il faut absolument 60% ou je ne sais combien de contaminés pour qu'il y ait une immunité grégaire, et donc que l'approche ❷ consiste absolument à infecter 60% de la population. La réalité, comme je l'ai exposé à de nombreuses reprises y compris ci-dessus, est bien plus complexe : ce chiffre de 60% suppose une population homogène, ce qu'elle n'est pas, et suppose que les comportements resteront les mêmes, ce qu'ils ne feront pas ; en fait, dès lors qu'on passe un pic épidémique, c'est qu'on a atteint un seuil d'immunité grégaire vis-à-vis des circonstances où ce pic se produit (puisque l'épidémie commence à régresser), l'enjeu n'est pas tant de savoir si on l'a atteint à 60% ou 30% ou 10% mais dans quel mesure on l'a artificiellement abaissé par des mesures prises au forceps et qui ne pourront pas durer dans le temps (comme un confinement). L'idée confuse sous-jacente est que des gens proposeraient de forcer l'épidémie à infecter un maximum de personnes (histoire d'atteindre la fameuse immunité grégaire), au lieu de simplement ne pas faire tous les efforts possibles pour la supprimer. Or je ne pense pas que qui que ce soit propose sérieusement une telle chose. Bref, ce que vise l'approche ❷ n'est pas une immunité grégaire définie par un chiffre absolu, mais surtout de pouvoir relâcher la pression sociale (retrouver un fonctionnement à peu près normal des transports en commun et lieux publics, par exemple) sans que l'épidémie explose immédiatement.

En tout état de cause, je trouve exaspérante l'attitude de culpabilisation moralisatrice exercée vis-à-vis de ceux qui ne respectent pas le confinement ou dont les attitudes se relâchent (voir par exemple ce mini sujet de France 24). Sur l'aspect extrêmement malsain de cette attitude dénonciatrice, je rejoins totalement ce fil Twitter. Mais sur le fond, je veux aussi souligner à quel point c'est justement un mécanisme d'équilibre par rétroaction qui fonde l'approche que j'ai numérotée ❷ ci-dessus qu'il y ait un « relâchement » progressif, et pas forcément décrété par en haut, des attitudes au fur et à mesure que l'épidémie semble régresser (relâchement qui provoquera sans doute une nouvelle recrudescence, donc une atténuation de ce relâchement, etc., avec des oscillations dont on ne sait pas combien elles seront amorties) : au lieu de le condamner, on peut se réjouir du fait que, si ce relâchement est assez progressif (et il a l'air de l'être !), ce sont les personnes qui ont elles-mêmes choisi de s'exposer qui participeront à l'immunité de groupe protégeant les plus vulnérables. Donc si l'approche ❷ est bien celle qui est visée, il ne faut pas se lamenter qu'il y ait un relâchement tant qu'il reste progressif et modéré.

Globalement, comme je le disais au début de cette entrée et comme je l'ai dit à plusieurs reprises, je suis extrêmement pessimiste sur ce qui va se passer pour nos sociétés. Au moins l'épidémie elle-même, on peut estimer qu'elle fera quelque part entre 0.05% et 1% de morts dans les pays européens selon la facilité avec laquelle elle se laisse contenir, c'est une fourchette bien large mais qui représente une known unknown ; les crises économique, politique, sociétale et internationale qui vont suivre, en revanche, je ne vois aucune borne supérieure à mettre sur leur gravité, tant je ne suis pas complètement persuadé qu'il n'y aura pas un effondrement systémique de la société (il me semble peu probable, mais beaucoup moins improbable que je voudrais l'imaginer). J'ai vu beaucoup de gens se moquer de la crise économique avec un dessin des dinosaures qui voient arriver l'astéroïde qui va les tuer et qui s'exclament oh shit! the economy!, dessin sans doute censé se moquer des personnes qui mettent l'économie avant l'humain ou quelque chose de ce genre, mais, outre l'objection triviale que le Covid-19 tuera moins d'humains en proportion que l'événement crétacé-paléogène, je crois que ces gens oublient combien de souffrance et de morts une crise économique peut engendrer. Et même si on ne veut pas mettre l'économie avant l'humain, le regain d'autoritarisme politique qui va inévitablement suivre l'empressement avec lequel la société a accepté comme un seul homme les mesures censées la « protéger » et réclame plutôt qu'elles soient encore plus dures, me semble suffisamment terrifiant. L'avenir de la démocratie et de l'état de droit sont plus sombres que jamais.

↑Entry #2649 [older| permalink|newer] / ↑Entrée #2649 [précédente| permalien|suivante] ↑

↓Entry #2648 [older| permalink|newer] / ↓Entrée #2648 [précédente| permalien|suivante] ↓

(jeudi)

Sur une variante à temps de rétablissement constant du modèle épidémiologique SIR

Il y a quatre éternités semaines, quand nous n'étions pas encore maintenus prisonniers chez nous, j'ai parlé ici du modèle épidémiologique SIR, le plus basique qui soit. Je rappelle brièvement les principes qui le définissent :

  • l'immunité acquise est permanente, les individus sont successivement S (susceptibles, c'est-à-dire jamais infectés donc susceptibles de l'être), I (infectés et infectieux) et R (rétablis, c'est-à-dire guéris ou morts) (il existe toutes sortes de variantes, par exemple le modèle SEIR ajoutant un état E (exposé) pour les individus infectés mais non encore infectieux) ;
  • la population est homogène (fongible) avec mélange parfait dans les contacts (j'ai parlé ici de l'effet de modifier cette hypothèse) ;
  • la contamination et le rétablissement se font selon une cinétique d'ordre 1, c'est-à-dire que la contamination se fait proportionnellement aux proportions d'infectés et de susceptibles (avec une constante cinétique β), et que le rétablissement se fait proportionnellement à la proportion d'infectés (avec une constante cinétique γ).

Rappelons brièvement ce que j'ai exposé la dernière fois. Les équations de ce modèle SIR basique, que j'appellerai (*) pour m'y référer plus tard, sont les suivantes (il s'agit d'un système d'équations différentielles ordinaires non-linéaire, du premier ordre et autonomes) :

  • s′ = −β·i·s
  • i′ = β·i·sγ·i
  • r′ = γ·i
  • (s+i+r=1)

s,i,r≥0 sont les proportions de susceptibles, d'infectieux et de rétablis dans la population ; les solutions de ces équations ne semblent pas pouvoir s'exprimer en forme close, mais on peut exprimer s en fonction de r (à savoir s = exp(−κ·r) dans les conditions exposées ci-dessous).

Je rappelle les principales conclusions que j'avais exposées dans mon entrée sur ce modèle (*), en supposant qu'on parte d'une population presque entièrement susceptible avec une proportion infinitésimale d'infectés (plus exactement, on s'intéresse aux solutions pour lesquelles s→1 quand t→−∞) ; on notera κ := β/γ le nombre de reproduction, que je suppose >1 :

  • tant que s reste très proche de 1 (si on veut, t→−∞), les proportions i et r croissent comme des exponentielles de pente logarithmique βγ = β·((κ−1)/κ), avec un rapport 1/(κ−1) entre les deux, autrement dit comme i = c·exp((βγt) = c·exp(β·((κ−1)/κt) et r = c·(γ/(βγ))·exp((βγt) = c·(1/(κ−1))·exp(β·((κ−1)/κt) (ergotage : dans l'entrée sur le sujet, j'avais mis un −1 aux exponentielles pour r, parce que je voulais partir de r=0, mais je me rends compte maintenant qu'il est plus logique de partir d'une solution où i/r tend vers une constante en −∞, cette constante étant κ−1) ;
  • au moment du pic épidémique (maximum de la proportion i d'infectés), on a s = 1/κ et i = (κ−log(κ)−1)/κ et r = log(κ)/κ ;
  • quand t→+∞, la proportion i tend vers 0 (bien sûr) et s tend vers Γ := −W(−κ·exp(−κ))/κ (en notant W la fonction de Lambert) l'unique solution strictement comprise entre 0 et 1 de l'équation Γ = exp(−κ·(1−Γ)) (qui vaut 1 − 2·(κ−1) + O((κ−1)²) pour κ proche de 1, et exp(−κ) + O(κ·exp(−2κ)) pour κ grand), tandis qu'évidemment r, lui, tend vers 1−Γ.

Je veux ici explorer la modification d'une hypothèse de ce modèle (*), celle qui concerne le rétablissement. Quand j'écris ci-dessus que le rétablissement se fait proportionnellement à la proportion d'infectés (avec une constante cinétique γ), au niveau individuel, cela signifie la chose suivante :

Pendant chaque intervalle de temps de longueur (durée) dt très courte, la probabilité qu'un individu infecté (I) se rétablisse (I→R) vaut γ·dt et ce, indépendamment d'un individu à l'autre et d'un instant à l'autre.

Autrement dit, le temps de rétablissement d'un individu infecté donné suit une distribution de probabilité exponentielle d'espérance 1/γ.

Autant l'hypothèse analogue sur la cinétique de la contamination est relativement plausible (si on admet le principe éminemment discutable d'une population homogène et du mélange parfait !), autant l'hypothèse sur le temps de rétablissement est médicalement insensé : on est en train de dire que si vous êtes malade, votre probabilité de guérir (ou d'ailleurs, de mourir) ne dépend pas de l'avancement de votre maladie mais est la même pendant la première heure que pendant la 1729e (si tant est que vous soyez encore malade à ce stade-là). Une maladie ne se comporte pas comme ça !

Cherchons donc à remplacer cette hypothèse par une autre, tout aussi simpliste, mais néanmoins un peu plus proche de la réalité médicale, celle du rétablissement en temps constant.

Un individu infecté (I) se rétablit toujours au bout du même temps T après son moment d'infection.

Autrement dit, le temps de rétablissement d'un individu infecté donné suit une distribution de Dirac concentrée en T (qui est, du coup, son espérance).

Je vais appeler (†) (que je dois encore expliciter) le modèle SIR construit sur l'hypothèse que je viens de dire au lieu de celle qui précède. Je répète que les deux sont extrêmement simplificatrices et invraisemblables dans la réalité, mais l'hypothèse de temps constant est nettement moins fausse ou irréaliste que celle de temps à distribution exponentielle (surtout que ce qui compte vraiment est le temps pendant lequel la personne est infectieuse en pratique) : on pourrait chercher des hypothèses plus fines et moins simplistes (par exemple la somme d'une constante et d'une variable à distribution exponentielle ; ou une distribution de Weibull ou que sais-je), mais mon propos est juste de comparer (*) et (†) pour voir ce qui change et avoir au moins une idée du sens dans lequel la modélisation est affectée par le changement d'une distribution exponentielle vers une constante.

Alors pour commencer, quelles sont les nouvelles équations ? Le terme d'infection β·i·s ne va pas être modifié, mais le terme de guérison, lui, va l'être : au lieu d'avoir une proportion γ·i des infectés qui guérissent par unité de temps, on va faire guérir tous ceux qui étaient nouvellement infectés il y a T unités de temps. Comment exprimer ceci ? Eh bien, si je note fT la fonction f translatée de T, c'est-à-dire fT(t) := f(tT), le terme représentant les guérisons à l'instant t est donné par les celui représentant les infection à l'instant tT, c'est-à-dire β·(i·s)T = β·iT·sT. Autrement dit, mon système devient :

  • s′ = −β·i·s
  • i′ = β·i·sβ·iT·sT
  • r′ = β·iT·sT
  • (s+i+r=1)

Ce n'est plus un système d'équations différentielles mais d'équations différentielles à retard, c'est-à-dire que la dérivée imposée des fonctions à un instant donné ne dépend pas seulement de leurs valeurs à cet instant mais aussi de celles à un ou plusieurs instants dans le passé. Je ne sais essentiellement rien sur ces équations ; en particulier, j'ignore ce qu'il y a comme résultat d'existence et d'unicité de solutions : on peut toujours essayer d'imposer les valeurs de s et i sur un intervalle de largeur T, disons [−T;0] et utiliser les équations pour en déduire ces valeurs en [0;T], puis en [T;2T] et ainsi de suite, mais ce procédé n'a aucun intérêt si on ne trouve pas moyen de faire en sorte que les valeurs se recollent correctement aux extrémités communes de ces intervalles, c'est-à-dire les multiples de T ; or mon but est de trouver des solutions qui soient régulières partout (au moins C, si possible analytiques), pas quelque chose de recollé sur les multiples de T. Le même problème fait qu'il n'est pas évident de simuler numériquement une telle équation, faute de savoir comment la démarrer : la notion même de valeur initiale n'a pas de sens clair comme elle en a pour les équations différentielles.

J'étais très pessimiste quant à la possibilité de résoudre explicitement ce système (†) qui a l'air plutôt plus compliqué que (*) (lequel n'admet apparemment déjà pas de solution explicite). Un peu miraculeusement, et à ma grande surprise, j'y suis quand même arrivé (après un temps assez invraisemblable passé à explorer toutes sortes de techniques de calcul, et en étant à chaque fois à deux doigts d'abandonner).

Pour ceux qui se demandent comment j'ai trouvé les solutions qui suivent, j'ai commencé par me pencher sur le cas où s vaut constamment 1 (c'est-à-dire que i et r sont infinitésimaux), ce qui linéarise le système, et il est alors raisonnable d'en chercher des solutions à croissance exponentielle, ce qui est assez facile (on obtient ce que je décris ci-dessous comme comportement à i et r petits) ; j'ai ensuite eu l'idée de chercher en général des séries formelles en cette exponentielle, j'ai calculé les premiers coefficients de cette série pour savoir si la série avait au moins des chances de converger, et j'ai constaté que miraculeusement ces coefficients avaient une forme extrêmement simple que je pouvais sommer explicitement, d'où les expressions rationnelles-exponentielles qui suivent.

(Ce qui suit est essentiellement un développement de cette question+réponse sur MathOverflow et ce petit fil Twitter. La réponse MathOverflow est peut-être plus commode pour lire les formules, d'ailleurs, que mon HTML basique dans ce qui suit.)

Voici la solution explicite que j'ai trouvée : pour l'exprimer, il faut que j'introduise les notations

  • κ := β·T le nombre de reproduction, que je suppose toujours >1 ;
  • Γ := −W(−κ·exp(−κ))/κ, comme évoqué plus haut, l'unique solution strictement comprise entre 0 et 1 de l'équation Γ = exp(−κ·(1−Γ)), qui sera la limite de s quand t→+∞ (aussi bien dans le modèle (†) que (*)) ;
  • X := exp(β·(1−Γt), fonction exponentielle du temps dans laquelle les solutions seront exprimées (changement de variable ; remarquer que soustraire T à t revient à multiplier X par Γ, ce qui est bien l'intérêt du changement de variable en question) ;

par ailleurs, c sera un paramètre réel strictement positif arbitraire (qui sert simplement à translater les solutions dans le temps).

Les solutions que j'ai trouvées sont alors données par :

  • s = ((1−Γ)² + Γ·c·X) / ((1−Γ)² + c·X)
  • i = ((1−Γ)⁴·c·X) / (((1−Γ)² + c·X) · ((1−Γ)² + Γ·c·X))
  • r = (Γ·(1−Γc·X) / ((1−Γ)² + Γ·c·X)

(Comme pour (*), je m'intéresse uniquement aux solutions pour lesquelles s→1, c'est-à-dire que i et r tendent vers 0, quand t→−∞. Si on veut des solutions plus générales, on peut multiplier i et r par une même constante, quitte à multiplier β par l'inverse de cette constante.)

On a exprimé s,i,r comme des fonctions rationnelles d'une fonction exponentielle X du temps t. Les dénominateurs sont strictement positifs puisque (1−Γ)² + c·X et (1−Γ)² + Γ·c·X sont des sommes de quantités strictement positives ; les numérateurs sont eux aussi strictement positifs ; et comme s+i+r=1 comme on peut vérifier avec un petit calcul, on a bien affaire à des proportions comme souhaitées. Pour vérifier qu'elles satisfont aux équations demandées, il s'agit simplement de dériver chacune par rapport à t, ce qui revient à dériver par rapport à X et multiplier par β·(1−ΓX, et vérifier qu'on trouve bien le terme de droite souhaité (en utilisant le fait que soustraire T à t revient à multiplier X par Γ).

Sous cette forme, cette solution n'est évidemment pas très parlante ! Mais pour y voir plus clair, on peut mener la même étude que pour (*) en regardant le comportement des solutions trouvées à (†) pour t→−∞, au niveau du pic épidémique, et enfin pour t→+∞ :

  • tant que s reste très proche de 1 (si on veut, t→−∞), les proportions i et r croissent comme des exponentielles de pente logarithmique β·(1−Γ), avec un rapport Γ/(1−Γ) entre les deux, autrement dit comme i = c·exp(β·(1−Γt) et r = c·(Γ/(1−Γ))·exp(β·(1−Γt) ; qualitativement, la phase de croissance exponentielle est plus rapide (à infectiosité β et nombre de reproduction κ donnés !) dans le modèle (†) que dans le modèle (*), et le rapport rétablis/infectés pendant cette phase est plus faible ;
  • au moment du pic épidémique (maximum de la proportion i d'infectés), qui se produit pour c·X = (1−Γ)²/√Γ (mais peu importe puisque c'est un temps complètement arbitraire), on a s = √Γ et i = (1−√Γ)² et r = (√Γ)·(1−√Γ) ; qualitativement, le pic épidémique est plus haut et plus resserré (à infectiosité β et nombre de reproduction κ donnés !) dans le modèle (†) que dans le modèle (*) ;
  • quand t→+∞, la proportion i tend vers 0 (bien sûr) et s tend vers Γ, tandis qu'évidemment r, lui, tend vers 1−Γ : ce sont exactement les mêmes valeurs que dans le modèle (*) (à nombre de reproduction κ donné).

Voici des courbes illustrant deux épidémies modélisées par les modèles (*) et (†) avec les mêmes paramètres β et κ (en l'occurrence β=3, un temps de rétablissement espéré de 1, donc nombre de reproduction κ=3, et ceci conduit à Γ≈0.034, c'est-à-dire un taux d'attaque final de 96.6%, je ne réexplique pas pourquoi l'hypothèse de mélange parfait, commune à mes deux modèles, conduit à des taux d'attaques irréalistement élevés, ce n'est pas le propos ici). Les deux courbes du haut utilisent le modèle SIR classique (*) avec rétablissement selon un processus exponentiel (ici γ=1), tandis que les deux du bas utilisent le modèle SIR modifié (†) que je viens d'exposer avec rétablissement en temps constant (ici T=1). Les deux courbes de gauche sont en échelle linéaire, les deux de droite en échelle logarithmique :

Échelle linéaireÉchelle logarithmique
Modèle (*)
(rétablissement en
processus exponentiel)
[Graphe linéaire des courbes s(t),i(t),r(t) dans le modèle (*) pour β=3 et γ=1] [Graphe log des courbes s(t),i(t),r(t) dans le modèle (*) pour β=3 et γ=1]
Modèle (†)
(rétablissement en
temps constant)
[Graphe linéaire des courbes s(t),i(t),r(t) dans le modèle (†) pour β=3 et T=1] [Graphe log des courbes s(t),i(t),r(t) dans le modèle (†) pour β=3 et T=1]

(Le code Sage que j'ai utilisé pour les générer, et qui ne présente aucun intérêt particulier, est ici.)

Puisque l'origine des temps est arbitraire, je l'ai placée au niveau du pic épidémique, ce qui aide à la comparaison. Rappelons par ailleurs que le seul vrai paramètre est le nombre de reproduction κ (le paramètre β peut s'absorber en faisant un changement d'échelle du temps).

La mauvaise nouvelle, donc, si l'objectif est de flatten the curve, est que l'hypothèse (†) (plus réaliste !) de guérison en temps constant fait tout le contraire, elle resserre et amplifie le pic (tout ceci étant dit à infectiosité, nombre de reproduction et taux d'attaque constants). On peut néanmoins y voir une sorte de contrepartie : l'infection prédite par le modèle (†) paraît plus terrifiante que ce qu'elle est réellement, au sens où sa croissance initiale laisse présager (si on l'interprète selon le modèle (*)) un nombre de reproduction et donc un taux d'attaque plus importants que ce qu'ils sont réellement.

Alors que dans le modèle (*) le pic épidémique a d'abord une croissance exponentielle de pente logarithmique βγ = β·(1−1/κ) puis une décroissance exponentielle de pente logarithmique β·Γγ = β·(Γ−1/κ) (sur mon graphique, 2.000 puis −0.821), dans le modèle (†) le pic est parfaitement symétrique, avec une croissance exponentielle de pente logarithmique β·(1−Γ) suivie d'une décroissance exponentielle de pente opposée (sur mon graphique, 2.821 puis −2.821). Une morale de l'histoire est qu'il est difficile de lire le nombre de reproduction à partir de la pente logarithmique de la partie exponentielle de l'épidémie ! Il faut une information assez fine non seulement sur le taux de rétablissement moyen mais aussi sur sa distribution.

Le rapport entre le nombre d'infectieux et le nombre de rétablis, pendant la phase de croissance exponentielle, est beaucoup plus important dans le modèle (†) (à savoir (1−Γ)/Γ) que dans le modèle (*) (à savoir κ−1) : sur mon graphique (κ=3), ce rapport est de 15.8 dans le modèle (†) et 2 dans le modèle (*). Mais on peut aussi exprimer ce fait différemment en considérant le retard des rétablis sur les infectés+rétablis, c'est-à-dire combien de temps il faut attendre pour avoir un nombre de rétablis égal au nombre d'infectés+rétablis à un moment donné (toujours pendant la phase de croissance exponentielle) : ce retard est de κ·log(κ)/(β·(κ−1)) dans le cas (*) et de T = κ/β dans le cas (†) ; il serait intéressant de comparer ces deux fonctions de κ, mais j'avoue manquer un peu de patience, là ; sur mes graphiques, ce retard est de 0.549 pour le modèle (*) et évidemment 1.000 pour le modèle (†).

Reste à dire un mot sur le nombre de reproduction κ. D'abord pour justifier la manière dont je l'ai défini (β/γ dans le cas (*) et β·T dans le cas (†)) : la définition classique est le nombre de personnes moyen qu'une personne donnée infecte avant d'être rétablie, dans une population entièrement susceptible. Dans mes deux modèles, une personne infectée au milieu d'une population entièrement susceptible infecte β·dt autres personnes par unité de temps dt (c'est la définition de β) ; ceci étant simplement proportionnel au temps qu'elle restera infectieuse, l'espérance de ce nombre vaut simplement β fois l'espérance du temps qu'elle restera infectieuse, c'est-à-dire 1/γ dans le cas (*) et T dans le cas (†). Maintenant, pouvait-on prévoir a priori que le taux d'attaque final en fonction de κ serait le même, 1−Γ = 1 + W(−κ·exp(−κ))/κ, dans les modèles (*) et (†) ? Et si oui, quelle hypothèse sur la distribution de probabilité du processus de rétablissement assure ce fait ? Là, j'avoue ne pas du tout savoir, je ne connais sans doute pas assez de probas pour m'exprimer clairement. (Je suis tenté de chercher à exprimer le processus de contamination de manière indépendante du temps, en fonction d'une sorte de génération comme je l'avais fait dans mes modèles stochastiques, pour espérer que le comportement soit identique dans les deux cas, mais je n'arrive pas à exprimer ni même définir les choses correctement.)

↑Entry #2648 [older| permalink|newer] / ↑Entrée #2648 [précédente| permalien|suivante] ↑

↓Entry #2647 [older| permalink|newer] / ↓Entrée #2647 [précédente| permalien|suivante] ↓

(lundi)

De l'importance (et du manque) de tests aléatoires pour mesurer l'épidémie

L'idée, promue par le Dr. Tedros, commence à faire son chemin de l'importance des tests pour lutter contre l'épidémie de Covid-19. Mais une idée que je ne vois pas assez souvent développée et qui est très importante, c'est qu'il ne faut pas seulement des tests sur les malades ou les cas suspects, il faut aussi des tests aléatoires non biaisés. Ces tests ne jouent pas du tout le même rôle : les tests sur les malades permettent d'orienter le traitement et, éventuellement, la recherche de contacts (pour traquer l'épidémie) ; les tests sur cas suspects permettent de confiner sélectivement et, là aussi, pour la recherche de contacts (pour traquer l'épidémie). Les tests aléatoires ont un rôle complètement différent : ils servent à mesurer l'étendue réelle de l'épidémie, à savoir par quel facteur le nombre de cas officiels est sous-évalué (tout est possible à ce stade, probablement entre ×10 et ×100 mais même ça n'est pas certain), et donc, à quel taux de létalité s'attendre et quelle sera la charge de pic sur les hôpitaux. Il s'agit d'une mesure absolument essentielle que nous n'avons pas. Nous progressons à l'aveugle et prenons des décisions en l'ignorance des données les plus importantes (et forcément, ces décisions deviennent hautement confuses).

Rappelons qu'il y a plusieurs sortes de tests : des tests virologiques de type rtPCR (voir ici pour une petite explication du principe) avec une variante automatisée rapide (voir autour de ce fil Twitter), qui détectent le virus lui-même, et des tests sérologiques (en gros, de ce que j'ai compris : plus compliqués à développer initialement, mais ensuite plus simples à appliquer, plus rapides, mais aussi moins fiables ; voir autour de ce fil Twitter) qui détectent la réponse du système immunitaire (les anticorps contre le virus). On a besoin des tous ces types de tests (ne serait-ce que pour savoir à la fois qui est actuellement infectieux et qui a été immunisé). Mais je ne connais pas grand-chose à tout ça, et en tout état de cause, ceci est orthogonal au problème de la population qu'on teste : malades, cas suspects, échantillon aléatoire. Moi je veux parler des échantillons aléatoires, et tous les types de test disponibles seront les bienvenus sur eux.

J'ai été très déçu que, pendant la conférence de presse d'avant-hier, le ministre de la Santé français, Olivier Véran, qui a longuement parlé de tests, n'ait pas dit un mot sur les tests aléatoires. Comment cela se fait-il ?

Je comprends qu'il y a toutes sortes de problèmes. D'abord, il n'est pas facile de constituer un échantillon aléatoire sur une population : et il n'est pas facile de convaincre cet échantillon de se laisser mettre un écouvillon tellement profondément dans le nez qu'ils auront l'impression que ça traverse leur cerveau, alors même qu'ils ne se sentent pas malades. Néanmoins, je pense que proposer un test gratuit (voire rémunéré !) à des volontaires, et contrôler (puis égaliser) toutes sortes de données sociologiques peut aider à approcher un échantillon aléatoire : les instituts de sondage ont l'habitude de ce type de méthodes. D'ailleurs, il peut être intéressant de coupler ces tests avec des questionnaires (quelqu'un m'a proposé celui-ci) qui seraient posés à la fois aux personnes testées et à un échantillon plus large histoire d'avoir un échantillon virtuel plus large même si beaucoup moins fiable.

Il y a aussi le problème de la fiabilité des tests (qui, de ce que je comprends, provient plus du problème de collecter l'échantillon que de celui de faire la PCR). Je n'ai pas de bonne réponse à ça, si ce n'est que même un mauvais point de données est mieux que l'absence totale de données dans laquelle on nage actuellement. Évidemment, ce serait encore mieux de pouvoir faire à la fois des tests virologiques et sérologiques sur l'échantillon aléatoire, mais mon point est que déjà quelques tests PCR aideraient énormément.

Autre objection : on manque déjà de tests pour les malades. Indéniablement, mais il semble que la France pratique actuellement autour de 5000 tests par jour sur des malades ou cas suspects, et détourner ne serait-ce que 1/50 de cette ressource, c'est-à-dire 100/j, pour faire des tests aléatoires dans les régions les plus touchées, fournirait déjà un début de commencement d'idée de l'ampleur de l'épidémie (je vais développer ci-dessous pour l'ordre de grandeur). Il n'y a donc pas de raison d'attendre la possibilité de faire plus de tests pour commencer les tests aléatoires !

Enfin, il y a la réponse mais il y a tellement peu de gens infectés que c'est comme chercher une aiguille dans une botte de foin. C'est peut-être vrai, mais, justement, on n'en sait rien. Voici un point de données, quasiment le seul qu'on ait, quasiment le seul test aléatoire non biaisé qui ait été réalisé, qui suggère qu'il n'en est rien :

L'Islande a réalisé il y a quelques jours un test à peu près aléatoire à grande échelle (eu égard à la population islandaise !), en testant environ 2% de toute sa population, à savoir 6163 personnes. Pour ça, elle a utilisé une cohorte qui avait été constituée pour des analyses génétiques, la cohorte deCODE. De cet échantillon, pas loin de 1%, à savoir 52 sur 6163 (source officielle du gouvernement islandais ici) a testé positif au SARS-CoV-2. Ce qui suggère qu'environ 3000 Islandais auraient été positifs au moment de ce test. Ce qui rend cet échantillon extrêmement intéressant, c'est qu'au même moment, l'Islande n'enregistrait qu'un seul mort de Covid-19 (sur 360k habitants, donc), et depuis il s'en est ajouté un deuxième au moment où j'écris ; et seulement 1020 cas recensés par des moyens plus conventionnels (et ayant néanmoins recours à des tests très nombreux). Ces chiffres sont à prendre avec énormément de pincettes, mais ils vont au moins dans le sens de suggérer que le taux d'attaque est largement sous-évalué même dans un pays comme l'Islande qui teste beaucoup (et, du coup, que le taux de létalité ne serait pas si élevé que ça). Mais pour ce qui est de mon propos ici, le cas de l'Islande suggère que même dans un pays qui n'enregistre que 0.0006% de mortalité au Covid-19, on peut déjà avoir un taux d'attaque mesurable par des tests aléatoires pas si massifs que ça.

Il est donc tout à fait possible que dans les départements français les plus touchés, comme le Haut-Rhin, et a fortiori dans les endroits les plus touchés de ces départements, le taux d'attaque, et même le taux d'infection actuellement détectables, soit facilement autour de 20%, peut-être encore beaucoup plus. Dès lors, il n'est pas déraisonnable de chercher à le mesurer par des tests aléatoires (ne serait-ce que pour confirmer ou infirmer ce chiffre). Je ne parle pas de faire des tests aléatoires dans toute la population française, mais des tests aléatoires dans les endroits les plus touchés, pour comparer la valeur qui y sera mesurée avec les chiffres officiels et avoir une idée de combien ceux-ci sont sous-estimés.

Rappelons que si le taux réel de positifs est de p et qu'on effectue N mesures aléatoires fiables, on obtient un nombre de positifs qui a une espérance de p·N et une variance de p·(1−pN, donc une erreur relative de √((1−p)/(p·N)). Pour p≈20% et N≈1000, ceci donne une erreur tout à fait acceptable de 6% sur la valeur de p (et si p n'est pas du tout de l'ordre de 20%, ce sera une information également importante). Plutôt que de faire 1000 tests en une journée, il est probablement plus opportun d'en faire 100 par jour pendant une dizaine de jours : cela donnera une moins bonne précision sur la valeur (difficile à quantifier), mais une meilleure information sur son évolution dans le temps (de nouveau, il s'agit de fournir des chiffres à mettre en regard des chiffres officiels relevés avec les mêmes méthodes que jusqu'à présent, ainsi que d'autres données comme celles du réseau Sentinelles, pour se faire une idée de combien de cas ils ratent).

Je suis donc totalement convaincu de l'utilité d'essayer, dès maintenant, et sans attendre les tests sérologiques, de lancer des campagnes de tests aléatoires, ne serait-ce qu'avec les moyens modestes dont on dispose actuellement, quitte à les amplifier par la suite. Malheureusement, je n'ai pas l'oreille du ministère de la Santé, mais si quelqu'un sait comment l'obtenir, ce qui précède est le meilleur argumentaire que je puisse fournir.

Je tire l'idée (pas juste de l'intérêt des tests aléatoires, qui est assez évidente, bien sûr, mais surtout du fait que ce n'est pas déraisonnable d'essayer de les mener) de cette interview de l'épidémiologiste et méthodologiste John Ioannidis de Stanford (que je n'ai pas fini de regarder, mais je parle ici de ce qu'il raconte tout au début, notamment autour de 9′18″ ; ce que j'en ai vu, en tout cas, est absolument remarquable et je pense déjà pouvoir recommander cette vidéo — et je remercie beaucoup celui qui me l'a signalée).

Ajout : on me signale cette interview de Josselin Garnier pour France Info qui comme moi appelle à ce que la France réalise des tests aléatoires pour estimer le nombre de porteurs asymptomatiques.

↑Entry #2647 [older| permalink|newer] / ↑Entrée #2647 [précédente| permalien|suivante] ↑

↓Entry #2646 [older| permalink|newer] / ↓Entrée #2646 [précédente| permalien|suivante] ↓

(mercredi)

On navigue à l'aveugle, et je vais de plus en plus mal

Mon moral fait des yoyos terribles. Je vais parler d'un peu tout dans le désordre, et parfois de façon très émotionnelle, voire agressive, je présente d'avance mes excuses mais je suis émotionnellement à bout.

Mon moral fait des yoyos terribles, donc. Dans mes meilleurs moments, je trouve des raisons d'espérer que la situation n'est pas si grave que ça. Selon principalement trois points : ⓐ qu'il y aurait encore beaucoup plus de cas non-détectés que ce qu'on pensait, probablement des cas difficilement détectables avec les tests actuels, si bien que le taux de létalité serait beaucoup plus bas qu'initialement estimé, ⓑ que le taux d'attaque final serait relativement modéré, en tout cas beaucoup plus faible que les 80% prédits par des modèles simplistes, mais bon, ça, je le pense depuis le début, et ⓒ que la Lombardie approcherait du pic épidémique et que ce serait peut-être bien un pic largement « naturel », dû à l'immunité plus qu'au confinement ; ces trois points vont largement ensemble, et si on y croit on peut espérer un pic épidémique en Lombardie dans peut-être une semaine ou deux et ensuite une vraie décrue de l'épidémie, pas uniquement due au confinement, et donc un espoir de retour à la normale à un horizon pas trop lointain (il faut estimer pour combien de temps les autres régions d'Europe en ont, mais ce n'est pas énorme, dès que l'une sera tirée d'affaire, les autres suivront en bon ordre) ; avec, dans ce scénario optimiste, une mortalité d'ensemble qui ne dépasserait probablement pas 0.1% de la population, peut-être même moins dans les pays où la démographie est plus favorable qu'en Italie, donc peut-être moins de 50 000 morts en France, c'est nettement mieux que ce que je pensais au tout début. (Il y a une étude d'épidémiologistes d'Oxford qui avance carrément le scénario selon lequel une majorité de la population aurait déjà été infectée. Cette étude a l'air un peu bizarre — c'est limite s'ils ne partent pas de l'hypothèse en question pour arriver à la conclusion qu'elle est valable — et il semble qu'ils veulent juste susciter le débat sur cette question — mais c'est intéressant que des gens probablement compétents la prennent au sérieux.) Bref, j'ai des moments d'optimisme.

Puis je retombe dans le pessimisme. L'argument selon lequel beaucoup de mes connaissances ont eu des symptômes grippaux a un potentiel énorme pour être un pur biais d'observation (ou l'effet de l'hypocondrie, ou de différences de mode de vie parce qu'on reste longtemps dans des appartements souvent poussiéreux et insalubres) ; toutes ces célébrités et ces hommes politiques testés positifs peuvent tout à fait être le résultat d'effets sociaux que j'explique moi-même ; l'argument de la recrudescence des cas de grippe est plus convaincant, mais ne représente pas forcément une sous-détection si énorme du nombre de cas (peut-être autour de ×15 à ×30, mais je tablais déjà sur des chiffres de l'ordre de ×10 dans mes calculs d'ordres de grandeur) ; et le ralentissement en Lombardie peut tout à fait déjà être le résultat du confinement (le fait qu'il soit indétectable en Sicile étant simplement lié au fait que le signal y est beaucoup plus bruité). Beaucoup de spécialistes ont l'air de croire que les tests sont forcément plutôt fiables et de ne pas adhérer à l'idée qu'il y aurait un groupe énorme de gens très peu symptomatiques et ne déclenchant pas les tests. Et en un rien de temps, mais raisons d'espérer disparaissent. Je ne sais plus quoi croire.

Ce qui me décourage le plus, en fait, ce sont les gens qui affirment, et il y en a beaucoup, et à un certain niveau ils finissent par me convaincre, regardez, le confinement marche(ra) : comme si on allait tous rester tranquillement chez nous pendant le passage d'un orage, et remettre le nez dehors une fois l'orage terminé. Mais une épidémie ne fonctionne pas comme ça, j'ai peur que les gens le croient, mais ce n'est pas une force externe qui se déchaîne, l'épidémie est en nous, si on s'isole elle se résorbe, si on ressort elle réapparaît (exemple). Si le confinement marche, si c'est lui et non l'immunité qui cause et limite le pic épidémique, je l'ai expliqué à de nombreuses reprises, on est complètement dans la merde parce qu'on n'a aucune stratégie de sortie de crise. Même pas de piste de stratégie. Même pas de début de commencement de piste de stratégie, à part des mots lancés au hasard comme des tests dont on n'a pas les moyens (la France n'a pas les moyens de fournir des masques à ses soignants, même les écouvillons manquent pour effectuer des prélèvements rhino-pharyngés, alors effectuer des tests virologique ou sérologique en grand nombre, ça ressemble un peu à une utopie… et même avec ces tests, la stratégie coréenne, souvent érigée en exemple, repose sur une approche globale de la société qui me semble inapplicable en Europe, sans parler de mesures extrêmement liberticides comme le traçage des téléphones mobiles pour repérer les contacts). Si le confinement marche bien, on ne voit pas comment on pourrait le lever, ou au minimum, comment on pourrait le lever sans tomber dans une dystopie juste un peu plus light (mais plus durable) que le confinement lui-même. Et personne n'a fait le moindre progrès sur cette question.

Et je suis complètement effondré quand j'entends des gens discuter de ce qu'ils feront ou ce qui se passera quand le confinement sera levé, comme si cela impliquait un retour à la normale : sans doute, oui, que le confinement finira par être levé dans un mois ou deux, parce que ça deviendra vraiment impossible et intolérable de faire autrement, mais, si on n'a pas acquis d'immunité de groupe significative, l'idée d'un retour à la « normale » est simplement impossible : on aura peut-être de nouveau le droit de sortir un petit peu de chez nous, mais ce sera très très très loin de la « normale » (c'est un peu ce qui se passe actuellement en Chine). Rappelons que si le virus a un nombre de reproduction de 3, en l'absence d'immunité importante, il faut passer 2/3 du temps en confinement pour le contenir, et encore, ça c'est en supposant que le confinement est 100% efficace.

Peut-être ce qui me fait le plus mal au moral, ce sont ces articles, qui ont un énorme succès dans certains cercles, d'un certain Tomas Pueyo (dont je rappelle à toutes fins utiles qu'il n'est pas plus compétent que moi sur le sujet, c'est-à-dire peut-être qu'il est aussi compétent que tous les experts comme je le disais plus haut). Il a commencé par en écrire un sur le fait qu'il fallait agir vite, dont le message principal est que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ, ce qui est effectivement quelque chose de très juste et de très important (et ne sais pas si le conseil scientifique du gouvernement en a bien conscience vu qu'ils parlent déjà de renforcer le confinement alors qu'il est tout simplement impossible d'en juger les effets à ce stade). Puis il a viré au partisan enthousiaste des solutions consistant à arrêter l'épidémie (ce que j'appelais les stratégies ①) et fait preuve de la plus hallucinante mauvaise foi dans sa façon d'exposer les choses, c'est-à-dire que la présentation des stratégies de mitigation (②) est faite sous le jour le plus noir et les hypothèses les plus pessimistes, tandis que pour ce qui est de ses stratégies préférées, tout est rose au point qu'il invente purement et simplement des chiffres de ce que pourraient être les mesures appliquées pendant ce qu'il appelle la danse (or c'est bien dans la danse qu'est tout le problème).

Dans tous les cas, même dans le scénario résolument optimiste où l'épidémie est massivement sous-évaluée ou bien où on arriverait inexplicablement à contrôler les choses avec un confinement limité dans le temps, les dommages causés à notre société seront irréparables. L'empressement avec lequel la société a accepté, sans broncher, sans qu'une voix discordante se fasse entendre, des mesures dignes de ce qu'il y a trois mois j'aurais qualifié de ridicule fiction dystopienne, au motif qu'il faut sauver des vies, est absolument terrifiant. Le fait de découvrir, pour commencer, que les gouvernements ont ce pouvoir que de mettre toute la population en arrêt à domicile, sans même avoir besoin de passer par une loi, est déjà en soi une blessure dont la démocratie ne se relèvera jamais : on savait déjà que le prétexte bidon du terrorisme justifiait des entraves démesurées aux libertés publiques (confinement à domicile sans procès pour des personnes arbitrairement qualifiées de « dangereuses », par exemple, justement), mais on a franchi un bon nombre d'ordres de grandeur. Peu importe que ç'ait été fait avec les meilleures intentions du monde, peu importe que ç'ait été le moins mauvais choix dans les circonstances. Un droit, dit un adage classique, ce n'est pas quelque chose qu'on vous accorde, c'est quelque chose qu'on ne peut pas vous retirer : nous savons donc, maintenant, que le droit de circuler librement était une illusion : quand le confinement sera levé (et il le sera probablement, un jour, sous une forme), ce fait restera. Le monde ancien est mort.

Pour ce qui est des conséquences politiques plus larges, je suis assez d'accord avec les inquiétudes formulées dans ce fil ou cet article de blog.

Que les choses soient bien claires parce que je sais qu'il y a des gens qui préparent déjà leurs hommes de paille à faire brûler : je ne suis certainement pas en train de dire que poursuivre le but d'une distanciation sociale forte de la population n'est pas une bonne idée, au moins transitoirement. Par exemple pour se donner le temps d'y voir plus clair (amasser des données scientifiques, développer des tests virologiques et sérologiques et les pratiquer aléatoirement pour mesurer l'ampleur de l'épidémie, rechercher toutes les options thérapeutiques et prophylactiques, etc.) ou de parer au plus pressé (remédier aux pénuries les plus pressantes, faire un plan de bataille, réorganiser ce qui peut l'être, permettre aux soignants qui tomberont malades en premier d'avoir le temps de guérir et de revenir immunisés, etc.). Il n'y a aucun plan d'action raisonnable qui ne passe pas par un minimum de mesures telles que l'interdiction de rassemblements de groupes, la fermeture de toutes sortes de lieux publics, une obligation de déployer le télétravail là où il peut l'être, etc. ; et il est raisonnable de chercher à aller encore plus loin que ce minimum, pour que les gens s'évitent vraiment à bonne distance — mais la question qui devrait faire débat, et qui n'a fait l'objet d'aucun débat, c'est quels sont les moyens qu'on doit s'accorder pour ce but.

C'est un peu la différence entre dire que la connerie humaine est un problème, chose qui fera sans doute consensus, et vouloir prendre un décret contre la connerie, qui me semble une mauvaise idée pour toutes sortes de raisons : ce n'est pas parce que je serais contre un tel décret que je serais favorable à la connerie. C'est juste que je ne confonds pas je suis contre X et je suis favorable à n'importe quelle mesure de lutte contre X (je pensais avoir déjà expliqué mille et une fois sur ce blog l'importance de ne pas perdre le sens de ce que les logiciens appellent les modalités, mais je ne retrouve plus).

Le problème fondamental sous-jacent pour apprécier les moyens déployés, c'est qu'on ne sait pas quelle est la stratégie visée. On m'a accusé de trop être braqué sur la dichotomie que j'ai évoquée entre les stratégies que j'ai appelées ① et ② (ou Charybde et Scylla) : je conviens que le confinement peut aussi avoir pour but, je l'écris ci-dessus et je l'ai déjà dit plusieurs fois, de juste gagner du temps (encore faudrait-il faire quelque chose avec ce temps gagné, et je n'ai pas entendu dire que la France fabriquait des respirateurs et des lits d'hôpitaux à toute la force de son appareil de production). Mais ce qui me fait le plus peur c'est qu'en fait il n'y ait juste aucune stratégie. Je n'ai même pas l'impression qu'il y ait prise de conscience du fait qu'il faut faire des choix. J'ai l'impression qu'on réagit juste dans l'immédiat : surcharge du système de santé ⇒ confinons tout le monde, sans chercher à nous demander s'il y a un plan, ou un début de commencement de plan, pour sortir de l'impasse. J'ai vaguement quelques sursauts d'espoir quand le ministre de la Santé ou ses sous-fifres parlent d'aplatir la courbe (ce qui est une stratégie qui se tient, c'est essentiellement ce que j'ai appelé ②), mais je n'ai toujours pas la certitude s'il s'agit de mots prononcés au hasard ou s'ils ont effectivement compris ce que ça veut dire (parce que ce plan suppose de ne pas confiner trop, i.e., de ne pas faire comme en Chine, et je n'ai vu aucun début de commencement de signe que quelqu'un de haut placé ait pigé ce fait). J'avais vaguement un petit espoir qu'il y ait des cerveaux qui fonctionnent derrière les décisions prises quand j'ai appris que le gouvernement avait réuni un conseil scientifique pour lui suggérer des mesures, mais on a entendu des gens de ce conseil scientifique admettre qu'ils avaient recommandé le confinement parce qu'ils avaient été pris de court par la vitesse de l'épidémie (je ne sais plus la formulation exacte, ni lequel a dit ça, mais quelqu'un va sans doute me la retrouver), ce qui suggère qu'ils n'ont pas le niveau scientifique pour extrapoler une exponentielle, et ça, ça me fait vraiment très très peur s'il s'agit de guider le pays dans une crise aussi énorme. Donc je ne crois plus du tout à l'existence d'une stratégie autre que celle du cervidé pris dans les phares d'une voiture. Et je suis vraiment terrifié.

À un niveau plus large, d'ailleurs, je suis assez désabusé quant au niveau scientifique des spécialistes en épidémiologie, dont je remarque trop souvent qu'ils arrivent (de façon certes plus précise et mieux argumentée, mais pas fondamentalement différente) aux mêmes conclusions que j'ai exprimé dans mon blog des jours ou des semaines plus tôt. (Par exemple, le papier d'Imperial qui a fait beaucoup parler de lui, cf. ici, ne fait que reprendre la dichotomie que j'ai exposée au moins une semaine plus tôt sur Twitter, avant même que le Royaume-Uni ne commence à parler d'immunité grégaire ; ses calculs de nombre de morts ne sont pas franchement plus sophistiqués que ceux qu'on peut faire avec un modèle très simple ou en fait simplement en multipliant deux nombres — et le problème d'instabilité si on tente de supprimer l'épidémie est une évidence que je répète à tout le monde depuis belle lurette.) Je pourrais être fier de moi, mais je n'ai pas envie d'être fier de moi, j'ai envie de croire qu'il y a des gens qui voient beaucoup plus loin que moi et qui ont une petite idée de où nous allons et de ce que nous pourrions faire !

Des entraves énormes ont été mises à toute vie personnelle, en revanche, le contrôle sur les employeurs est minimal, par exemple : apparemment, sauver des vies justifie qu'on anéantisse la vie personnelle des Français mais il ne faut surtout pas trop toucher leur vie professionnelle. On en arrive à la situation absurde et incroyablement injuste où certains voudraient sortir de chez eux et n'en ont pas le droit, tandis que d'autres voudraient avoir le droit de rester protégés chez eux mais n'en ont pas non plus la possibilité (sauf à perdre leur emploi).

Au-dessus de ça, les modalités d'application du confinement ne sont pas moins absurdes. Comme quelqu'un l'a très justement dit sur Twitter, le gouvernement a perdu de vue le but (la distanciation sociale) pour se focaliser sur le moyen (le confinement). Une mesure de distanciation tout à fait sensée aurait été de rendre obligatoire la distance de 2m entre les personnes dans tout lieu public, et de verbaliser ceux qui s'approchent inutilement des autres, et par ailleurs d'inciter les gens à rester chez eux (sans contrainte personnelle mais avec un fort contrôle des employeurs qui prétendent avoir besoin de faire venir leurs employés). Mais on se doute bien que quand ils sont munis de la légitimité apparente de sauver des vies, les enthousiastes de l'autoritarisme n'allaient pas s'en tenir là. On en arrive maintenant à des formulaires de dérogation de plus en plus humiliants, et on discute de la distance et du temps maximal auxquels on a le droit de s'éloigner de chez soi. Formulaires qu'il faut d'ailleurs remplir à l'encre indélébile sous peine d'amende si on essayait d'en réutiliser un (là ça ressemble tellement à quelque chose tiré de Kafka que ce serait drôle si ce n'était pas tragique). On en vient à interdire le vélo de loisir, chose pour laquelle il n'a été donné aucune forme de justification, alors qu'il est facile de se tenir à bonne distance des autres quand on est en vélo ; on en vient à la mise en place d'un couvre-feu dans certaines villes alors que rationnellement il vaut mieux étaler le plus possible les heures où les sorties sont autorisées pour qu'il y ait le moins de monde à un moment donné : s'il fallait démontrer que ceux qui prennent ces décisions n'ont aucune fin rationnelle en tête, c'est la meilleure preuve possible. Encore un autre problème est que les règles sont appliquées selon le bon vouloir très aléatoire et très arbitraire des agents de police chargés de les appliquer, ce qui cause des injustices et une insécurité juridique incroyables.

Mais, comme me l'a suggéré une amie, l'absurdité de toutes ces règles vise sans doute un autre objectif, qui est le détournement de culpabilité. Le vrai scandale, c'est l'impréparation de la France face à une épidémie qui était éminemment prévisible jusque dans son timing pour quiconque sait extrapoler une exponentielle. Le scandale de fond, c'est le manque de moyens de l'hôpital public (ou, dans une autre ligne d'idées, le manque de moyens des transports publics qui sont en permanence bondés, favorisant la transmission de toutes sortes d'infections). Et le scandale immédiat, c'est le manque de masques qu'on cherche à cacher derrière l'idée que les masques ne servent à rien pour le grand public. (Il y a aussi l'histoire des élections municipales dont le premier tour n'a pas été reporté — ceci dit, je pense qu'on monte un peu trop cet épisode en épingle et je soupçonne que le nombre de contaminations à cette occasion a été très faible.) Alors pour distraire l'attention de tous ces scandales, on en crée un autre : tout est la faute de ces irresponsables qui osent s'aventurer à plus de 1km de chez eux, ou faire un tour en vélo dans un endroit où ils ne rencontreront personne, ou sortir acheter du Coca-Cola (ou des serviettes hygiéniques !) au lieu de limiter aux courses essentielles. On fustige à la fois ceux qui achètent trop (ils créent des pénuries !) et ceux qui n'achètent pas assez (ils sortent sans raison !). Le Français moyen est placé dans la position de l'âne de la fable de la Fontaine, 135€ d'amende à la clé.

Maintenant, pour ne pas blâmer que les dirigeants, l'incohérence de la réaction des Français est également digne de commentaire. D'un côté, il semble que tout le monde applaudisse les mesures de confinement (un sondage qui ne vaut certainement rien mais qui donne quand même une petite idée, prétend que 93% des Français y sont favorables). Mais d'un autre côté, si c'est effectivement vrai que tout le monde comprend et approuve la nécessité de tenir ses distances… ce n'est pas la peine de rendre les choses obligatoires ! Si 90% de la population respecte les mesures de distanciation, que ce soit par sens du devoir civique ou par peur personnelle ou n'importe quelle combinaison de tout ça, ça suffit très largement à stopper la progression de l'épidémie (le papier d'Imperial qui a été si souvent cité partait du principe que 75% suivraient la consigne, laquelle serait facultative : donc on ne peut pas m'accuser d'inventer moi-même mes compétences en épidémiologie). La conclusion que j'en tire, c'est que l'immense majorité des Français réclame qu'on impose à tous des mesures qu'elle n'est pas prête à tenir spontanément par elle-même : c'est ce qu'on appelle de l'hypocrisie.

Il est légitime de se demander dans quelle mesure la distanciation devrait être considérée comme une décision individuelle. À part le cas réellement problématique des rapports professionnels, et à part la scandaleuse pénurie de masques, il me semble que chacun peut se protéger personnellement avec un assez bon niveau de sécurité sans avoir à attendre des autres que de ne pas lui tousser dessus. (Je pense qu'on a tendance à surestimer un peu l'infectiosité de ce virus : pour mémoire : si 10% de la population était contagieuse, ce qui est est probablement encore surévalué, quelqu'un qui ne prendrait aucune précaution particulière, si j'en crois le rythme de 0.2/j où progressait l'exponentielle avant le confinement, l'attraperait en 50 jours environ.) Une personne isolée n'a donc pas grand-chose à craindre, en fait. Mais admettons que ce ne soit pas une décision individuelle mais collective, il reste encore qu'on pourrait considérer que, dans cette décision collective, les gens sont amenés à voter avec leurs pieds : si on se contente d'une recommandation de distanciation sociale et que les gens ne la suivent pas, c'est qu'ils votent avec leurs pieds pour le risque des conséquences de ce choix, aussi bien individuelles que collectives.

Mais au lieu de nous poser sérieusement ces questions, au lieu d'envisager de développer une distanciation sociale fondée sur une combinaison entre responsabilité morale, choix collectif et protection personnelle, nous avons sauté dans les bras de l'autoritarisme avec une indicible et mâle volupté.

Je tourne un peu en rond, là, j'en suis conscient. Les pensées tournent en rond dans ma tête comme je tourne en rond dans mon appartement. Parlons un peu de moi-même, parce que je ne vais vraiment pas bien.

Il y a d'abord le confinement lui-même qui est dur. Je souffre énormément de ne plus pouvoir sortir, moi qui aimais tellement me promener entre les arbres dans les forêts d'Île-de-France. Je souffre de l'injustice profonde de l'interdiction de telles promenades alors qu'il est tellement facile de tenir ses distances en forêt (il y a dix jours, quand j'ai fait la dernière, j'ai pu vérifier expérimentalement qu'il n'y avait aucune difficulté à garder 2m d'écart avec tout le monde, même quand les autres ne font aucun effort de leur côté). Je souffre de voir ce soleil radieux dehors et de ne pas pouvoir en profiter, moi qui comptais les jours jusqu'à l'arrivée du printemps après un hiver interminablement pluvieux, moi qui m'étais promis de faire mille et une balades dès que le temps le permettrait. Je souffre de toutes d'autres lacérations psychologiques provoquées par les éclats de ma vie ancienne qui a explosé en vol : de tous ces moments où je continue à penser à ce que j'aurais fait, ce que j'aurais pu faire, si j'avais été libre, avant de me rappeler que je ne le suis plus du tout, — de tous ces petits plaisirs qui ne sont plus que des souvenirs qui me narguent cruellement quand j'y repense.

(Je suis maintenant pleinement convaincu, même si je le pensais déjà depuis longtemps, que la prison est une forme de torture psychologique digne du Moyen-Âge (enfin, façon de parler, parce qu'au Moyen-Âge, justement, il me semble qu'on n'emprisonnait pas beaucoup). Mes conditions sont incomparablement meilleures qu'une prison et déjà je n'en peux plus.)

(Et sinon, je pense qu'à un moment où un autre, quand je ne tiendrai vraiment plus, je vais faire le confinement buissonnier et fuguer dans la forêt pour une après-midi. Je suis preneur de vos avis sur la meilleure façon d'y arriver en ayant le moins de chances possibles de me faire prendre : à quel moment, par quel chemin, et éventuellement en prévoyant quel prétexte.)

Mon équilibre émotionnel était largement basé sur la présence réconfortante et rassurante des habitudes quotidiennes qui rythmaient ma vie ancienne. Il n'en reste plus rien. Je ne sais plus à quoi me raccrocher. Je perds complètement pied. Par moments je deviens colérique avec mon poussinet.

Je n'arrive pas à penser à autre chose. Je ne parviens plus à faire des maths si ce n'est pas de l'épidémiologie. Je n'arrive quasiment plus à regarder un film ou un documentaire : tout ce qui ne parle pas du Covid-19 me semble tellement insignifiant que je suis incapable de rentrer dedans, et tout ce qui en parle ne fait qu'empirer mon angoisse.

Je n'imagine absolument pas comment je vais pouvoir tenir un mois ou deux comme ça.

Si au moins y avait, au bout, l'espoir d'un retour à une forme de normalité, s'il y avait de la lumière au bout du tunnel, je trouverais sans doute la force en moi de traverser le tunnel, mais tant que je n'ai pas le moindre indice que qui que ce soit sait où nous allons, la seule lumière que j'aperçois c'est celle des maigres espoirs que j'ai rappelés au début de cette entrée, et je me demande si elle n'est pas complètement dans mon imagination.

Et encore !, tout ce désespoir, c'est en faisant totalement abstraction de l'inquiétude liée à la maladie elle-même (vous remarquerez que je n'en parle pas du tout), comme si moi-même et mes proches en étions totalement invulnérables — chose qui n'est évidemment pas le cas. Si cette inquiétude devait s'y ajouter, je n'imagine pas comment je pourrais la gérer.

(À un certain moment, j'en étais presque à supplier mes amis que j'estime intelligents mais si tu ne désespères pas complètement, toi, c'est bien que tu dois avoir une idée de comment les choses pourraient ne pas tourner trop mal ?, mais comme personne n'était capable de répondre à cette question, j'ai fini par conclure que tout le monde a une capacité que je n'ai pas pour faire abstraction des catastrophes don on ne voit aucune issue.)

Voilà où j'en suis, et je ne pense pas que ça va s'améliorer.

↑Entry #2646 [older| permalink|newer] / ↑Entrée #2646 [précédente| permalien|suivante] ↑

↓Entry #2645 [older| permalink|newer] / ↓Entrée #2645 [précédente| permalien|suivante] ↓

(mardi)

Sur l'impact de la structure du graphe social dans le taux d'attaque des épidémies

Je suis vraiment débordé (le temps que je passe à me documenter sur l'épidémie et à répondre aux présentations biaisées et autres conneries sur Twitter représente une surcharge de travail absolument énorme qui s'ajoute au fait que tout est devenu tellement plus long et compliqué dans ma vie, je ne vais pas pouvoir tenir longtemps comme ça), donc je me contente ici de reproduire en français ce que j'ai écrit dans un fil Twitter :

Il s'agit d'expériences numériques sur l'influence de la structure du graphe social sur le taux d'attaque des épidémies (taux d'attaque = le nombre de personnes infectées cumulé pendant l'épidémie).

Rappelons la situation basique : j'ai déjà écrit ici sur mon blog (et ici en anglais sur Twitter) sur ce que prédit le modèle épidémiologique SIR au sujet du taux d'attaque. En bref, il prédit un taux d'attaque énorme : 89% (de la population touchée) pour un nombre de reproduction de 2.5. (La formule, comme je l'ai expliqué, est 1 + W(−κ·exp(−κ))/κ = 1 − exp(−κ) + O(κ·exp(−2κ)) où κ est le nombre de reproduction. Par ailleurs, il faut bien différencier ce taux d'attaque du seuil d'immunité grégaire qui, lui, vaut, 1 − 1/κ, et qui est le taux d'infectés à partir duquel l'épidémie commence à régresser, c'est-à-dire le taux d'attaque au pic épidémiologique.)

Or les épidémies réelles ne semblent pas avoir des taux d'attaque aussi énormes, même avec des nombres de reproduction de l'ordre de ce que je viens de dire. Bien sûr, on connaît mal le taux d'attaque même a posteriori, mais (malgré une absence d'immunité préalable aux souches) il semble que les grippes de 1918 et 1957 aient infecté autour de 30% de la population à différents endroits, pas franchement autour de 90%.

Alors que se passe-t-il ? Mon explication est que SIR, étant un modèle basé sur des équations différentielles, ne connaît qu'une seule chose, c'est la proportion de la population qui est susceptible, infectée et rétablie, et pas où ces personnes sont ni comment elles interagissent socialement.

Autrement dit, un tel modèle suppose un « mélange parfait » : tout individu a la même probabilité d'infecter n'importe quel autre individu. Ce n'est bien sûr pas du tout le cas dans la réalité. En réalité, une bonne proportion des contaminations suit un graphe social (famille, amis, collègues).

Même les modèles plus sophistiqués qui stratifient la population par catégories d'âge (disons) supposent toujours un mélange parfait dans chaque catégorie. Je soupçonne que c'est la raison pour laquelle le papier d'Imperial obtient un taux d'attaque si élevé (j'en ai déjà parlé dans cette entrée, voir aussi ce fil Twitter).

Alors, comment peut-on prendre en compte le fait que les contaminations suivent des graphes sociaux, et que doit-on en attendre ? Je m'attendais, et je voulais tester, deux effets apparentés mais distincts :

Le premier effet est que si l'épidémie doit suivre les liens d'un graphe social de connectivité relativement modeste (chacun n'ayant qu'un petit nombre de parents/amis/collègues par rapport à toute la population), elle va s'étouffer plus rapidement, même pour un nombre de reproduction donné, par rapport au cas de mélange aléatoire : c'est ce que j'ai essayé de dire ici sur Twitter ainsi que dans cette entrée dans la phrase la première [sous-raison] c'est (a) que quand on retire une proportion suffisamment élevées de sommets d'un graphe (en l'occurrence celui des contacts humains), il cesse de « percoler », c'est-à-dire qu'on ne peut plus passer d'un sommet à un autre. Ce phénomène est, en effet, lié à des questions de seuil de percolation dans les graphes (qui est, en gros, la proportion des sommets, ou des arêtes selon la définition, qu'il faut retirer aléatoirement à un graphe pour qu'il cesse d'avoir une composante connexe géante) : l'idée est que quand suffisamment de personnes (=sommets, =nœuds) sont immunisées, l'épidémie ne peut plus se propager d'un point à un autre : même avec l'hypothèse de mélange parfait le nombre d'immunisés ralentit l'épidémie, mais le seuil de percolation suggère qu'une proportion plus faible d'immunisés peut arrêter complètement la propagation (et, probablement, on la ralentit plus vite avant de l'arrêter complètement).

Le second phénomène est différent : non seulement il doit suffire de retirer relativement peu de nœuds pour arrêter l'épidémie (comme je viens de l'expliquer), mais en plus l'épidémie va retirer (c'est-à-dire infecter et rendre immuns) en premier les nœuds les plus « précieux » à sa propre propagation, parce que ce sont les nœuds les plus connectés, les « célébrités ». C'est ce que j'ai essayé d'exprimer ici et  (+ tweet suivant) sur Twitter, ainsi que dans la même entrée que mentionée dans la phrase (b) les infections ont tendance à infecter en premier les personnes qui sont hautement connectées dans le graphe, et en les rendant immunes, elle neutralise en premier les liens qui lui permettaient le plus facilement de se propager.

Tout ça n'est que mon intuition ! Maintenant, voyons si je peux modéliser ces phénomènes, pour au moins montrer qu'ils existent. Je ne vais pas chercher à quantifier les effets (il y a tout simplement trop de paramètres avec lesquels jouer), seulement d'illustrer qu'ils peuvent exister et semblent jouer dans la direction que je pensais.

J'ai donc écrit un petit programme Perl qui simule un modèle épidémique SEIR stochastique. SEIR, ça signifie que les nœuds (les individus) passent entre quatre états, S = susceptible = non-infecté, puis E = exposé = en incubation, puis I = infectieux et enfin R = rétabli = immunisé ou mort. Stochastique, ça signifie que plutôt que modéliser les choses avec des équations différentielles, je prends un grand nombre de nœuds (300 000 dans mes expériences) et les contaminations ont lieu au hasard. Ça rend les calculs non-reproductibles, mais cela permet de gérer des situations bien plus complexes qu'avec des équations différentielles.

Pour simplifier, mon programme postule qu'un nœud une fois infecté, il passe par les étapes E, I, R en un temps constant. Spécifiquement, les paramètres que j'ai utilisés sont qu'à partir de l'infection on passe 5 pas de temps dans l'état E puis 25 pas de temps dans l'état I, avant de passer enfin dans l'état R. (En fait je pense que c'est plus réaliste que le modèle SIR sur équations différentielles, qui suppose que le rétablissement suit un processus exponentiel de paramètre γ : or personne ne guérit en un tout petit nombre de jour ; donc les deux sont simplifiés, mais je pense que cette simplification de temps constant est plutôt meilleure. Si on essaie d'imaginer une épidémie comparable à Covid-19, ce que je ne prétends pas vraiment faire, il faut se dire que le pas de temps vaut à peu près un demi-jour.)

On peut ensuite jouer à faire varier la manière dont l'infection a lieu, selon plusieurs scénarios :

  1. À une extrême, on a la situation purement aléatoire, c'est-à-dire de mélange parfait : chaque nœud infectieux (I), à chaque pas de temps, a une certaine probabilité d'infecter un autre nœud purement aléatoire. Sans aucune structure sociale. Ceci est très proche du modèle S(E)IR sur équations différentielles, et je m'attends à un taux d'attaque similaire.
  2. À l'autre extrême, on peut restreindre les infections à suivre les arêtes d'un graphe sociale. Mais ce graphe peut lui-même être construit de différentes manières :
    1. On peut prendre un graphe aléatoire à peu près homogène ayant une certaine connectivité moyenne : un modèle pour le construire est de le créer sommet par sommet, et, à chaque fois, de connecter le sommet nouvellement construit à un certain nombre de sommets préexistants tirés au hasard. Ceci fournit un graphe sans nœuds hautement connectés, i.e., sans « célébrités ». (En fait, le cas de mélange parfait est équivalent à cette construction où on connecte chaque nœud à tous les autres. Mais je suppose ici implicitement que la connectivité moyenne est faible devant le nombre total de nœuds !)
    2. Ou on peut prendre un graphe avec un « effet de célébrité », selon une construction donnant un petit nombre de nœuds hautement connectés et une décroissance essentiellement en loi de puissance de la connectivité des sommets. Il y a un modèle standard pour ça, c'est le modèle de Barabási-Albert (Emergence of Scaling in Random Networks, Science 286 (1999), 509–512) : en gros, en modifiant à peine leur construction, ce que modèle fait est de construire le graphe nœud par nœud comme au point précédent, mais en choisissant cette fois les nœuds auxquels relier un nœud nouvellement créé proportionnellement à la connectivité qu'ils ont déjà, ce qui revient à tirer non pas un nœud au hasard mais une arête au hasard dont on prend aléatoirement un des deux sommets. Ceci donne un graphe ayant un très haut effet de célébrité à cause du fait que les nœuds déjà hautement connectés ont tendance à devenir encore plus hautement connectés au fur et à mesure que le graphe croît (avec un phénomène d'invariance d'échelle) ; ce phénomène reproduit des effets en loi de puissance observés dans de nombreux types de phénomènes sociaux réels, comme expliqué dans l'article de Barabási et Albert. Bien sûr, ce modèle est très criticable, et probablement pas idéal pour modéliser les rapports sociaux réels, donc pas idéal pour simuler une épidémie, mais mon but est simplement de tester la manière dont différents effets, comme la célébrité, ont un impact, donc on va faire avec ça.

Bref. Mon programme est capable de suivre ces trois modes, ou n'importe quelle combinaison de ceux-ci (mais dans mes simulations, je vais suivre ces trois scénarios extrêmes). Le code source est ici (c'est du Perl, il y a d'abondants commentaires au début expliquant le fonctionnement général et comment s'en servir ; essentiellement, il faut régler les paramètres à travers les constantes au début du programme, je n'ai pas eu le temps de faire des choses plus raffinées).

Il y a cependant un autre problème qu'on doit régler avant de comparer des taux d'attaques dans ces différents scénarios : que doit-on garder constant ? Mon programme prend en entrée des paramètres numériques tels qu'une probabilité de contagion par pas de temps et par lien ; mais ça, ce n'est pas quelque chose qu'on peut observer directement ! Les deux choses qu'on peut espérer observer dans une épidémie, ce sont des choses comme :

  • Le taux de croissance du nombre d'infectés avec le temps, pendant la phase exponentielle de l'infection, c'est-à-dire le facteur d'augmentation, par unité de temps, du nombre I d'infectés (plus tant de pourcents par jour), ou, pour être un peu plus précis, sa dérivée logarithmique (= dérivée de log(I), c'est-à-dire I′/I, rapport entre l'augmentation absolue I′ par unité de temps, et le nombre absolu I). Problème, ce taux de croissance dépend lui-même du temps.
  • Le nombre de reproduction. Et encore, ce nombre-là lui-même est délicat à observer ! Dans le modèle SIR à équations différentielles, si les paramètres sont β (taux d'infection) et γ (taux de rétablissement), le taux de croissance de l'exponentielle, au début de l'infection, vaut βγ, tandis que le nombre de reproduction vaut κ = β/γ. Mais ceci n'est pas facile à transposer à d'autres modèles !, notamment si le rétablissement ne suit pas un processus exponentiel. Et j'avoue ne pas bien comprendre ce que calculent réellement les épidémiologues et statisticiens quand ils annoncent un certain nombre de reproduction. Pour estimer ce nombre dans mon modèle, je suis parti d'une définition plus théorique : j'étiquette chaque individu infecté par une génération d'infection, qui vaut 0 pour les individus initialement contaminés, et g+1 pour les individus infectés par des individus de la génération g. Alors le nombre de reproduction devrait être la base de la croissance exponentielle selon g du nombre d'individus infectés de la génération g. Problème, il dépend fortement de g.

Ce que j'ai fait pour estimer le taux de croissance et le nombre de reproduction est de chercher la plus forte pente (du log du nombre d'infectés en fonction, dans un cas, du temps et dans l'autre, de la génération) entre deux points suffisamment espacés (j'ai arbitrairement choisi 20 pas de temps pour la pente dans le temps, et 2 générations pour la pente en générations), et ayant au moins pour valeur la racine carrée du nombre de nœuds pour éviter les bizarreries liées au tout début de l'infection. C'est un peu du bidouillage, mais il faut bien choisir quelque chose à comparer.

Bref. J'ai pris chacun des trois scénarios décrits ci-dessus ((1) mélange parfait aléatoire, (2a) diffusion selon un graphe homogène, et (2b) diffusion selon un graphe avec fort effet de célébrité) et, à chaque fois, j'ai réglé les paramètres de manière à produire des nombres de reproduction proches et des taux de croissance comparables, et à chaque fois j'ai observé le taux d'attaque final et le taux d'attaque au pic de l'épidémie (ainsi que différentes autres statistiques). J'ai cherché à être conservateur : par exemple, pour affirmer que les effets sociaux diminuent le taux d'attaque par rapport au mélange parfait, je cherche des valeurs des paramètres sur un graphe social qui donnent un taux de croissance et un nombre de reproduction au moins égaux à ce que je fixe pour le cas de mélange aléatoire, et qui donnent quand même un taux d'attaque plus faible.

Bref, voici quelques simulations ! À chaque fois je montre trois images : la première est la courbe de l'évolution de l'épidémie en fonction du temps (sachant, de nouveau, que la durée d'incubation est de 5 pas de temps et qu'on est ensuite infectieux pendant 25 pas de temps — ces valeurs sont identiques sur toutes mes simulations), avec une échelle logarithmique en ordonnée ; la deuxième est le nombre d'infectés par génération d'infectés, toujours avec une échelle logarithmique en ordonnée ; et la troisième donne un certain nombre de statistiques produites par le programme, dont celles qui m'intéressent le plus sont : d'une part les paramètres à contrôler, à savoir le pic du nombre de reproduction et le pic de la pente logarithmique (= taux de croissance) du nombre d'infectés dans le temps ; et d'autre part les paramètres à mesurer, à savoir le taux d'attaque final, et le taux d'attaque au moment du pic d'infectés (ce qui donne une idée du seuil d'immunité grégaire comme je l'ai expliqué plus haut).

Première simulation (ci-dessous) selon le scénario (1), c'est-à-dire avec mélange parfait (sans aucun graphe social) : les paramètres choisis donnent un nombre de reproduction de 2.44 et un taux de croissance des infectés de 0.062 par pas de temps, pour un taux d'attaque final de 89% et un taux d'attaque au pic de l'épidémie de 67%. Ce taux d'attaque de 89% est très proche de ce que prédit le modèle SIR pour un nombre de reproduction de 2.44 (à savoir 88%), ce qui conforte l'idée qu'on est très proche de ce modèle, et/ou que ma mesure du nombre de reproduction est à peu près sensée.

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Deuxième simulation (ci-dessous) selon le scénario (2a), c'est-à-dire selon un graphe à peu près homogène, ici avec un degré moyen de 10 (je rappelle que le nombre de nœuds est de 300 000) : les paramètres choisis donnent toujours un nombre de reproduction de 2.44, un taux de croissance des infectés un peu plus élevé de 0.073 par pas de temps, et pourtant, on trouve un taux d'attaque final plus faible de 60%, et un taux d'attaque au pic d'infectés de 39%.

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Cette simulation semble donc conforter l'intuition sur le premier effet que j'ai exprimée plus haut, à savoir que forcer l'épidémie à suivre un graphe social de connectivité modeste, va diminuer considérablement le taux d'attaque, même pour un nombre de reproduction donné (et/ou même pour une croissance donnée avec le temps lors de la phase exponentielle de l'épidémie).

Combien peut-on compter sur cette effet dans la vraie vie ? Je n'en ai aucune idée ! Mon modèle prétend juste montrer que l'effet existe, pas montrer son ampleur. Mais je crois comprendre qu'il semble vrai que beaucoup si ce n'est la grande majorité des infections suivent un lien social (famille, ami, collègue) plutôt que des rencontres aléatoires. Ceci pourrait donc aider à expliquer que des épidémies réelles s'arrêtent bien avant un taux d'attaque de l'ordre de 90%.

Enfin, une simulation (ci-dessous) selon le scénario (2b), c'est-à-dire selon un graphe qui est cette fois-ci extrêmement « social » avec un effet de célébrité fort. Le degré moyen est toujours de 10, mais le nombre de nœuds ayant au moins k voisins décroît, dans la partie à régime en loi de puissance, en C·k−2 : les vrais graphes sociaux dans la vraie vie ne sont probablement pas aussi extrêmes ! Mais le but étant uniquement d'explorer le sens de l'effet et de tester mon intuition, voyons ce qui se produit :

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Avec des paramètres donnant un nombre de reproduction (générationnel, comme toujours) comparable et même un peu plus élevé, de 2.50, et un taux de croissance pendant la phase exponentielle encore un peu plus élevé, 0.092 par unité de temps, on trouve néanmoins un taux d'attaque final très modéré, autour de 35%, et possiblement une immunité grégaire à partir de 23%. Ceci semble donc corroborer l'intuition que j'exprimais quant au second effet mentionné ci-dessus, à savoir que le fait pour l'épidémie d'attaquer en premier lieu les célébrités va diminuer son taux d'attaque final.

Encore une fois, je ne sais pas à quel point cet effet fonctionne dans la vraie vie ! Je prétends juste montrer qu'il peut influencer dans le sens que j'ai dit. Mais je remarque quand même qu'on a très rapidement entendu parler d'énormément de célébrité et de personnalités politiques infectées par le Covid-19 : il y a sans doute deux raisons qui jouent, l'un étant qu'ils peuvent se faire tester plus facilement que le vulgum pecus (mais si c'est la seule explication, cela va dans le sens de montrer que le nombre de cas serait sous-évalué), l'autre étant celui que je viens d'expliquer (qui diminuerait donc le taux d'attaque) ; dans les deux cas, c'est plutôt une bonne nouvelle.

↑Entry #2645 [older| permalink|newer] / ↑Entrée #2645 [précédente| permalien|suivante] ↑

↓Entry #2644 [older| permalink|newer] / ↓Entrée #2644 [précédente| permalien|suivante] ↓

(vendredi)

Le nombre de cas de Covid-19 serait-il massivement sous-évalué ? (Ce serait une bonne nouvelle…)

Voici enfin quelque chose qui ressemble à une bonne nouvelle. Je ne sais pas combien j'ose y croire, parce que j'ai un peu peur de me laisser aller à trop espérer et d'être déçu, mais il y a des éléments très significatifs : il semble que la grippe soit en recrudescence… sauf que cette « grippe », ce serait en fait le Covid-19, qui serait énormément plus fréquent que ce qu'on imagine. Pourquoi serait-ce une bonne nouvelle ? Reprenons au début.

Commençons par l'anecdotique.

La semaine dernière, le poussinet a eu une sorte de rhume, plutôt typique mais avec quelques symptômes inhabituels (comme un goût sucré persistant dans la bouche). Évidemment, il s'est inquiété et si c'était le Covid-19 ? ; je lui ai fait remarquer que le nombre de cas était encore extrêmement faible rapporté à la population française, et que même s'il est largement sous-estimé et qu'il faut multiplier encore par un facteur de croissance de l'exponentielle entre les premiers symptômes et le moment où un cas est recensé, ça n'apparaissait toujours vraiment pas probable, surtout que son rhume collait quand même très peu avec les symptômes de Covid-19 (pas de fièvre, pas de fatigue, pas de maux de tête) et quand même bien avec un rhume classique (nez qui coule, toux plutôt grasse). J'ai fini par le convaincre. Mais entre temps nous avons demandé à un certain nombre d'amis s'ils n'avaient pas eu des symptômes particuliers ces derniers temps…

…et le nombre de réponses a été hallucinant. Plein de gens, mais vraiment plein (peut-être 20% d'un échantillon aléatoire, même si c'est vraiment difficile de compter parce qu'on obtient plus facilement des réponses positives que négatives), et, ce qui est important, des gens indépendants (par exemple des connaissances par un forum informatique qui ne se voient que rarement en vrai et n'ont pas de raison d'être des contaminations croisées) m'ont signalé avoir eu des symptômes grippaux très modérés, souvent juste un ou deux jours, ces derniers temps. Qui une toute petite poussée de fièvre, qui une toux sèche inhabituelle, qui une grande fatigue un jour, et ainsi de suite. Des symptômes qui sont assez inhabituels pour qu'on se dise tiens, c'est bizarre, mais pas assez importants pour qu'on consulte, et puis ils passent, et on n'y pense plus jusqu'à ce que je pose la question. Certains ont eu des cas plus sérieux : un ami qui fait de l'anosmie complète, un autre qui a eu une grosse fièvre avec une grande fatigue et difficulté à se concentrer pendant plusieurs jours. Sur Twitter aussi, je vois plein de gens dire des choses comme ah, j'ai de la fièvre… bon, espérons que ce n'est qu'une grippe. Faut-il vraiment espérer que ce ne soit qu'une grippe ?

Moi-même, hier, j'ai eu une forme de toux sèche, légère mais très inhabituelle (ni la toux grasse que j'ai en fin de rhume, ni la toux sèche qui lui succède ensuite quand je sens bien que j'ai la gorge iritée, mais l'impression déplaisante d'avoir quelque chose à sortir qui ne vient vraiment pas). Puis cette impression est passée, je me suis dit que c'était probablement la poussière de l'appartement où je n'ai pas l'habitude de rester confiné, ou simplement l'effet nocebo dû au stress, et je n'y ai plus repensé, sauf qu'un peu avant 20h j'ai eu un énorme coup de fatigue, avec une grande difficulté à me concentrer sur quoi que ce soit. Je ne sais pas quoi en penser. (Je note qu'en ce qui me concerne, je suis vacciné contre la grippe.)

Bon, tout ça c'est de l'anecdotique, même si c'est de l'anecdotique qui commence à devenir frappant quand mon poussinet et moi avons vu s'accumuler les réponses d'amis et collègues qui nous disaient avoir fait une grippounette.

Mais alors regardons des données moins anecdotiques. Plein de pays ont des réseaux de surveillance de la grippe qui enregistrent le nombre de consultations de médecins pour syndromes grippaux (ILI : Influenza-Like Infection). Et là on constate que, au moins en France, en Suisse, en Belgique, à New York (cf. les graphes de ce fil Twitter), alors que l'épidémie de grippe était en phase de recul, il y a ces derniers jours une nette recrudescence de consultations pour syndromes grippaux, comme si un nouveau pic de grippe arrivait. Or la grippe saisonnière ne fait jamais deux pics : elle vient, elle culmine, elle repart. (Une épidémie peut faire plusieurs pics si, par exemple, les gens prennent peur et s'isolent, avant qu'assez d'immunité se soit installée dans le pays, puis ressortent quand ils ont l'impression que le danger est passé. Mais ceci n'est pas du tout le cas pour la grippe. Au contraire, les mesures anxiogènes autour de Covid-19 devraient plutôt avoir un effet accélérant la fin de l'épidémie de grippe.) Si ce n'est pas la grippe, quel autre virus pourrait être responsable de nouveaux cas de grippe un peu partout ?

Non, en fait, ce n'est pas si simple : il y a une autre explication naturelle, c'est que les gens s'inquiètent plus et se surveillent plus, donc remarquent des symptômes qui en temps normal ne l'auraient pas été, ou encore qu'ils font une forme d'hypocondrie. J'ai du mal à croire que ça puisse être d'une telle ampleur (mes amis me décrivent des symptômes légers mais inhabituels d'après eux ; et ceux qui vont consulter un médecin ont probablement des symptômes un peu plus que complètement anecdotiques).

Cette prépublication (par Pierre-Yves Boëlle, du réseau Sentinelles de surveillance de la grippe en France) rapporte une corrélation significative, à travers les régions françaises, entre l'excès à la normale du nombre de consultation pour syndromes grippaux et le nombre de cas de Covid-19 rapportés dans la région, ainsi qu'une croissance de ceux-ci dans le temps ayant une pente logarithmique compatible avec la progression de l'épidémie de Covid-19. Il semble assez peu vraisemblable qu'un effet purement psychologique se comporte de cette manière (même si tout cela est très difficile à quantifier). Le texte signale que le réseau Sentinelles a eu des tests positifs au Covid-19 parmi les échantillons prélevés aléatoirement pour analyse de différents virus (il ne donne malheureusement pas le nombre, qui n'est probablement pas assez significatif pour qu'on puisse en tirer quelque conclusion que ce soit à part « il y a des cas »).

Bref, tout ça n'est pas une preuve absolue, mais il y a des indices qui commencent à devenir très forts que beaucoup de syndromes grippaux bénins sont en fait des cas de Covid-19.

En quoi est-ce que ça remet en cause beaucoup de chose qu'on croyait ? Cela suggère un ordre de grandeur vraiment différent du nombre de cas. L'article de Boëlle estime à 84 par 100 000 habitants l'excès du nombre de consultations pour syndromes grippaux, en semaine 2020-W10, sur l'ensemble de la France, c'est-à-dire 59 000 consultations supplémentaires sur cette semaine, alors que les cas nouveaux de Covid-19 officiellement recensés sur cette semaine étaient de 1000 environ, qu'il faut probablement multiplier par un facteur 2 ou 3 avant de comparer, pour tenir compte du fait qu'il y a quelques jours (pendant lesquels la croissance exponentielle continue…) entre le moment où un cas est au niveau qui amène la personne à consulter et le moment où il est au niveau qui l'amène éventuellement à l'hôpital et où on ferait un test. Je me doutais bien que la grande majorité des infections n'étaient pas testées (j'utilisais l'ordre de grandeur de ×10 tiré du recollement d'estimations très grossières), mais là on est vraiment au-delà de ce que je pensais. Ou pour le dire autrement, comme il semble que la mort se produise généralement autour d'une semaine après les premiers symptômes, sur ces 59 000 consultations supplémentaires suspectes en 2020-W10, seules 100 sont mortes de Covid-19 en 2020-W11, ce qui fait une létalité autour de 0.2% parmi les cas suffisamment graves pour justifier une consultation chez un médecin, dont on peut eux-mêmes penser qu'ils sont encore loin de représenter l'ensemble des infections (la plupart des amis que j'ai évoqués plus haut ne sont pas allés voir un médecin ! évidemment, rien ne dit qu'ils avaient Covid-19, et évidemment ils ont tendance à être plus jeunes que la médiane, mais c'est une idée à garder à l'esprit).

En quoi serait-ce une bonne nouvelle ? En ce que cela suggère que la létalité aurait été fortement surestimée. Il faut se dire qu'on a affaire à un iceberg (qui grossit !) : on n'en voit que la partie émergée (les morts, les cas de détresse respiratoire aiguë, et d'autres cas assez graves pour être traités par les services d'urgence et faire l'objet d'un test qui sera comptabilisé dans les statistiques s'il est positif). Mais on ignore la taille de la partie submergée (les cas qui se présentent comme une grippe banale, voire une grippounette, peut-être même une absence totale de symptômes). Si on ne regarde que la partie émergée, l'iceberg est très inquiétant, parce qu'il va grossir jusqu'à des proportions démesurées. Mais si la partie submergée est assez grosse, c'est que nous sommes bien plus avancés qu'on le pensait dans l'infection, et le seuil d'immunité n'est plus forcément si loin. I.e., l'aplatissement de la courbe nécessaire pour traverser l'épidémie ne semble plus aussi invraisemblablement inatteignable.

Le nombre de décès et de cas graves est évidemment ce qu'il est. Le débordement des services d'urgences où il a lieu est un fait incontestable et qui appelle au minimum à ce qu'on ralentisse fortement l'épidémie, mais la différence est que cette situation représenteraient une épidémie déjà bien avancée et pas le tout début du bout de son nez. Ce serait incontestablement une bonne nouvelle.

Pour dire les choses autrement, si on suppose que chez 90% de la population (chiffre complètement pifométrique) l'infection au Covid-19 ne produit que des symptômes tellement modérés que personne ne se rend compte de rien, et peut-être que ces personnes ne sont que très faiblement infectieuses, et que leur charge virale reste trop faible pour que les tests soient fiables auprès d'eux, cela ne changera pas beaucoup la dynamique connue de l'épidémie jusqu'à présent, sauf que c'est comme si la population à infectée était dix fois plus faible, et avec elle le nombre de morts à prévoir.

Si tout ça est juste, il me semble clair que la stratégie d'« aplatir la courbe » (celle que j'appelais ②), et pas celle de chercher à arrêter à tout prix l'épidémie (celle que j'appelais ①), est la bonne. On a toujours un choix[#] entre Charybde et Scylla, mais Scylla est moins horrible que ce qui était initialement prévu. Bien sûr, pour l'instant, on navigue à vue et il est trop tôt pour essayer de savoir de combien.

[#] Enfin, à supposer qu'on ait un choix, parce qu'il n'est pas clair que le niveau maximal de confinement acceptable pour la population soit suffisant pour ramener le nombre de reproduction en-dessous de 1… Quand je regarde les données pour le village italien de Lodi, qui est confiné depuis le 2020-02-23, j'ai l'impression qu'on tourne autour de 1 (ces chiffres sont malheureusement très difficiles à lire parce qu'il ne semble pas que le nombre de cas actifs soit publié, seulement le nombre de cas cumulé).

Quelques remarques, cependant. Le nombre de cas ne peut pas avoir été trop lourdement sous-estimé : la Corée du Sud contrôle son épidémie par une campagne de tests massifs : s'il y avait trop de cas presque asymptomatiques mais testant positifs, ça se refléterait sur leur taux de létalité qui n'est pas si bas que ça ; et s'il y avait trop de cas presque asymptomatiques testant négatifs, leur stratégie pour retrouver les contaminations ne marcherait pas, sauf si ces personnes ne sont pas du tout contagieuses : c'est pour ça que l'hypothèse à avancer est que ces cas en questions sont presque asymptomatiques, sont généralement négatifs aux tests, et sont peu contagieux. Cette hypothèse pose toujours un problème, qui est qu'il y a eu des événements de contamination de groupe où un grand nombre de personnes ont été contaminées parmi la population présente, ce qui laisse penser que le taux d'asymptotiques ne peut pas être trop bas. Mais l'hypothèse a été avancée (voir par exemple ici) que toutes les contaminations ne se valent pas : la gravité pourrait dépendre du nombre de contacts, des doses infectantes, et/ou de la voie d'infection : ceci expliquerait que les événements supercontaminateurs ne représenteraient pas des statistiques habituelles.

L'autre point crucial à souligner, c'est que tout ce que j'ai dit n'est une bonne nouvelle que si les contaminations presque asymptomatiques sont néanmoins assez pour conférer une immunité. Là je ne suis pas du tout qualifié pour m'exprimer, mais cette analyse semble suggérer qu'on peut être prudemment optimiste à ce sujet.

Et bien sûr, il faut garder à l'esprit dans tout ça qu'un facteur énorme à prendre en compte, c'est combien les personnes âgées sont touchées par l'épidémie. Voir cet excellent article qui analyse le cas de l'Italie par rapport à la Corée (la plus grosse différence dans le taux de létalité semble venir du nombre de personnes âgées infectées). Si on veut utiliser comme stratégie d'aplatir la courbe, il faut aussi prendre garder à protéger plus soigneusement les personnes âgées que les jeunes.

↑Entry #2644 [older| permalink|newer] / ↑Entrée #2644 [précédente| permalien|suivante] ↑

↓Entry #2643 [older| permalink|newer] / ↓Entrée #2643 [précédente| permalien|suivante] ↓

(mardi)

Bon, quelle sera la stratégie suivie en France et en Europe ? Et comment va se dérouler la suite ?

Je suis tombé sur cette modélisation effectuée par la Imperial College Covid-19 Response Team et publiée hier teste l'effet de différentes mesures sociales sur l'épidémie de Covid-19 au Royaume-Uni. Il semble qu'une étude du même genre a été fournie à la France mais pas rendue publique.

Le fait qu'ils évoquent 500 000 morts au Royaume-Uni si on ne fait rien risque de faire beaucoup parler. Je pense pour ma part que cette chiffre est exagérément pessimiste : le taux d'attaque final qu'ils prédisent, à savoir 81% de la population en tablant pour un nombre de reproduction R₀=2.4, est très proche de la valeur calculée par SIR, ce qui me suggère qu'il s'agit probablement d'un modèle de ce type, avec des raffinements pour la catégorisation par âge mais pas de vraie structure de graphe social (dont les effets atténueraient beaucoup le taux d'attaque final comme je l'ai déjà expliqué). Je pense en fait que le but des auteurs n'était pas de prédire le taux d'attaque mais simplement de montrer l'effet relatif sur celui-ci de différentes mesures de distanciation et isolation, dont on peut penser que ça ne dépend pas trop de la structure sociale complexe. Donc je pense qu'il ne faut pas tabler sur 81% de contaminés et 500 000 morts au Royaume-Uni même si on ne fait absolument rien, mais ça donne une idée de l'ampleur du problème.

Cependant, ce qui m'intéresse surtout est qu'ils confirment, presque exactement comme je l'expliquais, ce que je dis depuis longtemps, à savoir l'existence d'une dichotomie importante entre les pistes ① et ②, qu'ils formulent de la manière suivante (dans le même ordre que moi) :

Whilst our understanding of infectious diseases and their prevention is now very different compared to in 1918, most of the countries across the world face the same challenge today with COVID-19, a virus with comparable lethality to H1N1 influenza in 1918. Two fundamental strategies are possible2:

(a) Suppression. Here the aim is to reduce the reproduction number (the average number of secondary cases each case generates), R, to below 1 and hence to reduce case numbers to low levels or (as for SARS or Ebola) eliminate human-to-human transmission. The main challenge of this approach is that NPIs [Non-Pharmaceutical Interventions] (and drugs, if available) need to be maintained – at least intermittently - for as long as the virus is circulating in the human population, or until a vaccine becomes available. In the case of COVID-19, it will be at least a 12-18 months before a vaccine is available3. Furthermore, there is no guarantee that initial vaccines will have high efficacy.

(b) Mitigation. Here the aim is to use NPIs (and vaccines or drugs, if available) not to interrupt transmission completely, but to reduce the health impact of an epidemic, akin to the strategy adopted by some US cities in 1918, and by the world more generally in the 1957, 1968 and 2009 influenza pandemics. In the 2009 pandemic, for instance, early supplies of vaccine were targeted at individuals with pre-existing medical conditions which put them at risk of more severe disease4. In this scenario, population immunity builds up through the epidemic, leading to an eventual rapid decline in case numbers and transmission dropping to low levels.

The strategies differ in whether they aim to reduce the reproduction number, R, to below 1 (suppression) – and thus cause case numbers to decline – or to merely slow spread by reducing R, but not to below 1.

In this report, we consider the feasibility and implications of both strategies for COVID-19, looking at a range of NPI measures. It is important to note at the outset that given SARS-CoV-2 is a newly emergent virus, much remains to be understood about its transmission. In addition, the impact of many of the NPIs detailed here depends critically on how people respond to their introduction, which is highly likely to vary between countries and even communities. Last, it is highly likely that there would be significant spontaneous changes in population behaviour even in the absence of government-mandated interventions.

We do not consider the ethical or economic implications of either strategy here, except to note that there is no easy policy decision to be made. Suppression, while successful to date in China and South Korea, carries with it enormous social and economic costs which may themselves have significant impact on health and well-being in the short and longer-term. Mitigation will never be able to completely protect those at risk from severe disease or death and the resulting mortality may therefore still be high. Instead we focus on feasibility, with a specific focus on what the likely healthcare system impact of the two approaches would be. We present results for Great Britain (GB) and the United States (US), but they are equally applicable to most high-income countries.

Il est donc clair que les gouvernements français et britannique ont reçu le message que ces deux stratégies existent, Charybde et Scylla. Le document discute (c'est son but principal) quelques manières de rendre ② un peu moins horrible (et montre qu'on peut réduire le nombre de morts d'un facteur 2 et le nombre de lits de réanimation d'un facteur 3 environ en réduisant le taux d'attaque — qui restera largement au-dessus du seuil de l'immunité grégaire), confirme que ① est complètement instable (dans leur analyse, si on confine toute la population du Royaume-Uni pendant cinq mois, l'épidémie disparaît, et à peine un mois plus tard elle est de nouveau là), et évoque quelques façons de rendre ① plus subtil, comme celle où les mesures de confinement sont déclenchées automatiquement dès que le seuil d'occupation des lits d'hôpital dépasse un certain niveau, mais bon, il est clair que cela implique de passer quand même environ deux tiers des mois en confinement jusqu'à la découverte d'un hypothétique vaccin. Bref, sous n'importe quelle forme le dilemme reste atroce (j'ai évoqué des thèmes et variations hier en cherchant ce que je trouvais de moins noir).

Je reste persuadé que cette étude est pessimiste : on doit pouvoir atteindre un taux d'attaque encore plus bas que le 40% qu'ils estiment sous les meilleures méthodes d'aplatissement de la courbe si on tient compte des effets de structuration sociale (encore une fois, les effets qui ont fait que je ne sais combien d'hommes politiques ont été infectés en premier : ils sont hautement connectés, donc les retirer du graphe a un vite impact très fort) : c'est peut-être de la méthode Coué, mais je crois assez fort au 20% que me souffle mon intuition. Ils sont aussi possiblement pessimistes sur le nombre de cas asymptomatiques ou bénins : d'après un article paru hier dans Science (Substantial undocumented infection facilitates the rapid dissemination of novel coronavirus (SARS-CoV2)), seulement 14% des infections de l'épidémie initiale du Húběi auraient été recensés (parmi lesquels 14% et 5% étaient classés comme sérieux ou critiques d'après l'article The Epidemiological Characteristics of an Outbreak of [Covid-19] (CDC Weekly), tableau 1 page 4) ce qui suggère que peut-être seulement 2% (resp. 1%) de toutes les infections nécessitent une hospitalisation, respectivement un passage en réanimation alors qu'ils se basent sur 4.4% environ. Troisième source de pessimisme, ou plutôt, présentation pessimiste : ils ne tiennent pas compte de la possibilité tout de même énorme de créer de nouveaux lits d'hôpital par réaffection, ou plus exactement, ils comparent juste leurs courbes au nombre de lits disponibles actuellement (même pas le nombre de lits total, alors comme les lits sont pleins à environ 90%, évidemment, ça paraît vite énorme). Dernier point : comme ils sont épidémiologues et pas sociologues, ils ne peuvent pas s'exprimer sur la chance que l'épidémie et la peur qui va avec conduise la population à durablement voire définitivement changer certaines habitudes (serrage de mains, attention portée à l'hygiène) qui modifierait le nombre de reproduction.

Bref, je les crois pessimistes (et pourtant je ne vois pas les choses en rose). Mais qui sait si le conseil scientifique réuni par le gouvernement français aura la même analyse ?

Et surtout que décideront Emmanuel Macron et les autres gouvernements européens quand on leur aura expliqué qu'ils ont le choix entre la mort de centaines de milliers de personnes (avec une part énorme de personnes âgées) et un confinement dont on ne voit aucune issue ? Voilà la question dont dépend notre sort à tous (au moins en Europe : aux États-Unis, ça va être chacun pour soi).

Je ne pense pas qu'on puisse imaginer une seconde que la France se laisse confiner indéfiniment comme la Chine, ni qu'Emmanuel Macron (ou Angela Merkel, ou Boris Johnson, etc.) ait l'idée de tuer ainsi complètement ce qui reste de l'économie. Ni même confiner régulièrement deux mois sur trois comme le papier le suggère. Je ne les vois pas non plus accepter trop facilement de laisser mourir des centaines de milliers de morts ou qu'on puisse les accuser de ne rien avoir fait. Le confinement était donc logique. Mais la question est celle de savoir ce qui se passe ensuite.

Pendant dix à quinze jours, il est évident que le nombre de cas officiels ne va faire qu'augmenter, exponentiellement, à un rythme à peu près constant (en exp(0.21·t), c'est-à-dire +24% par jour, ou encore un doublement tous les 3.2 jours, un décuplement tous les 10.8 jours), car je rappelle que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ. Le confinement total de l'Italie ne pourra donc se voir sur les chiffres officiels qu'autour de samedi, et celui de la France qu'autour de samedi 28 : à ce moment-là, dans les chiffres officiels, la France aura 85 000 cas recensés environ, mais ce chiffre-là est prévisible ; il est aussi évident que la pente logarithmique va baisser quand apparaîtra l'effet de la nouvelle mesure, mais toute la question est : à quel point ? Si le rythme des contaminations passe au-dessous de celui des guérisons (ce qui demande de passer de 0.21 à 0.06 environ), le nombre de cas ouverts va décroître et l'épidémie se résorber ; sinon, elle continuera à croître, juste un peu moins vite.

À Wǔhàn, l'épidémie s'est résorbée, mais au prix d'un confinement vraiment draconien. Je ne sais pas si celui à l'italienne ou à la française peut suffire. Je suppose que l'idée de commencer par 15 jours était de se donner le temps de réfléchir. Peut-être aussi de frapper l'opinion publique avec la gravité de la crise. Et peut-être surtout d'avoir cette information de l'effet d'une telle mesure de confinement sur le nombre de reproduction.

Maintenant, je pense qu'il va se passer la chose suivante, en continuant à essayer d'être optimiste comme je peux, mais sans invoquer non plus de miracle :

(Scénario I.) Au bout de 15 (ou peut-être 30) jours de confinement de tous les Français, le nombre de cas ouverts étant à peu près en stagnation (ou en légère recrue), Emmanuel Macron fera une allocution solennelle expliquant qu'il lève le côté impératif et contraignant des mesures, parce qu'on ne peut pas empêcher indéfiniment les gens de vivre et que l'État ne peut pas être derrière chacun, mais qu'il appelle à la responsabilité de tous pour continuer à prendre le même soin de rester autant que possible chez eux, s'abstenir des contacts physiques et de respecter les gestes barrière, à ne voir leurs amis qu'avec la plus grande parcimonie et à éviter tout contact avec les personnes âgées. (Les écoles resteront fermées pour un moment, ainsi que beaucoup de lieux publics, mais les restaurants et cafés auront le droit d'ouvrir à condition de respecter des règles extrêmement restrictives sur la séparation des convives et le lavage de la vaisselle.) Cela ne suffira pas, évidemment, mais cela ralentira au moins pas mal la courbe des contaminations : pas seulement sous l'effet de la responsabilisation, mais aussi sous celui de la peur (et aussi du fait que les moins prudents auront été infectés en premier et seront devenus immuns). L'épidémie va donc progresser à un rythme nettement ralenti mais néanmoins positif. Pendant le confinement (ou plutôt pendant les 12 jours qui vont suivre), le système de santé aura eu le temps de parer au plus pressé (monter des hôpitaux de campagne dans des hôtels et des stades), mais surtout les médecins malades auront eu le temps d'acquérir l'immunité, et peut-être qu'on aura pu improviser des lits et des respirateurs. Grâce à la diminution de la vitesse de reproduction, le pic épidémiologique sera à la fois aplati et étendu dans le temps (durant en gros six mois au lieu de trois et infectant peut-être seulement 15% de la population, causant seulement 50 000 morts). Au bout d'un moment, ce pic premier étant passé, les mauvaises habitudes reviendront (et on aura rouvert les écoles), et il y aura un deuxième pic, qui sera cependant plus plat parce que beaucoup de gens auront déjà l'immunité (pas assez pour qu'il y ait immunité grégaire, mais assez pour ralentir nettement), et on sera mieux préparés. Enfin, on mettra au point un vaccin pour protéger les personnes âgées qui auront eu la force de rester enfermées chez elles pendant des mois. (Bonus : on entre dans une ère où l'hôpital public, et les services publics en général, sont massivement revalorisés, et Donald Trump n'est pas réélu président des États-Unis soit parce qu'il est devenu massivement impopulaire à cause des morts incroyablement nombreux suite à on inaction, soit simplement parce qu'il est décédé du Covid-19.)

Voilà à peu près ce que je peux offrir de plus optimiste en restant vaguement réaliste à la fois sur l'épidémiologie, la sociologie des Français et la psychologie du président. Si vous avez mieux, je suis toujours preneur. (Pour du très pessimiste, c'est trop facile : il suffit d'imaginer que l'immunité ne dure qu'un mois et le vaccin impossible, et que le syndrome interstitiel provoqué par le virus devienne de plus en plus probable à chaque infection, et vous avez la recette parfaite de la fin du monde.)

↑Entry #2643 [older| permalink|newer] / ↑Entrée #2643 [précédente| permalien|suivante] ↑

↓Entry #2642 [older| permalink|newer] / ↓Entrée #2642 [précédente| permalien|suivante] ↓

(lundi)

Essayons d'imaginer quelques scénarios avec au moins une lueur d'espoir

Comme je l'écrivais dans l'entrée précédente, je suis complètement paniqué par la pandémie de Covid-19, et réfléchir sur le sujet me fait sans doute du mal. Je vais essayer d'imaginer quelques scénarios possibles en m'efforçant de ne pas pencher vers l'apocalypse : supposons que les choses ne se passent pas trop mal, comment cela est-il possible ?

L'état actuel des choses en France est que le gouvernement a ordonné la fermeture de tous les commerces « non-essentiels » (apparemment, « essentiel » signifie : magasins d'alimentation, pharmacies, stations essence, banques, bureaux de tabac et de presse ; et apparemment aussi, magasins de bricolages, ce qui me soulage un peu parce que j'avais peur qu'ils soient oubliés de la liste).

Il y a une chose dont il faut bien se rendre compte (c'est un point très important, expliqué sur cet article qui a beaucoup circulé, mais je n'aime pas trop cet article pour d'autres raisons), c'est que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ, parce que les infections contractées le jour J montrent leurs premiers symptômes typiquement vers J+3 et envoient les gens à l'hôpital, si c'est le cas, vers J+12 (tout ceci est très approximatif, mais c'est l'idée). Depuis aujourd'hui, la pente logarithmique du nombre de personnes infectieuses a donc forcément dû baisser, celle du nombre de symptomatiques baissera dans environ trois jours, mais on ne le saura toujours pas, et celle du nombre de personnes arrivant à l'hôpital baissera dans environ 12 jours. Et la question super importante, c'est : de combien ? Et y a-t-il moyen de le savoir à l'avance ? J'imagine que les gens qui conseillent le gouvernement cherchent tous les moyens d'y arriver, et j'espère qu'ils le pourront. (La piste la plus prometteuse me semble être de demander aux généralistes de faire des tests aléatoires sur les cas de syndromes grippaux, ou au moins de rapporter ces nombres, sachant qu'ils verront généralement ces malades avant leur passage à l'hôpital. Le rapport du nombre est fait, j'en suis sûr ; les tests aléatoires, je ne sais pas, mais j'espère.)

On entre ensuite dans des scénarios très différents selon que le nombre de nouveaux cas, dans une douzaine de jours, va commencer à baisser, continuer à augmenter mais plus lentement, ou rester à peu près constant (ce qui est probablement le scénario le plus souhaitable). Et bien sûr, la question est de savoir ce que le gouvernement va viser (essayer absolument d'obtenir la décroissance, accepter une explosion juste un peu ralentie, ou tenter de viser le point magique où les nouveaux cas stationnent).

Une chose qui m'a redonné un peu le moral, c'est d'apprendre qu'en 1956–1958 l'épidémie de « grippe asiatique » (de type A-H2N2) a par beaucoup de points ressemblé à la pandémie actuelle : avec une létalité autour de 1% en France (par pneumonie virale plus que par complications bactériennes), elle a causé autour de 100 000 morts [mise au point () : en fait, ce chiffre semble contesté, et la source n'est pas claire : écouter ce podcast de CheckNews pour Libération pour des précisions, qui affirme que c'était plutôt ≤25 000], soit environ 0.2% de la population, chiffres qui ne sont pas trop loin de mes estimations raisonnablement optimistes pour Covid-19 ; et je suppose que beaucoup de ces gens passaient par les hôpitaux, qui ont été complètement débordés. Le pays a donc déjà vécu ça, et ne s'en souvient pas si bien (je connaissais l'épidémie, mais pas son taux de létalité). Mais à l'époque, il ne semble pas que des mesures de confinement aient été prises.

Je vois de plus en plus les mesures de confinement extrêmes visant ce que j'avais appeler la stratégie ①, c'est-à-dire, comme en Chine, arrêter à tout prix l'épidémie, comme une réaction d'orgueil contre la nature : c'est dire nous allons arrêter la tempête, coûte que coûte ! ; mais le fléau exige son tribut en vies humaines : il exige ses 30%, peut-être 20%, peut-être 50% (je ne crois pas du tout au 70%) de la population de contaminés. Il ne se laissera pas si facilement tricher de son dû. On peut négocier sur qui, sur comment et sur quand, mais on ne peut pas négocier sur le nombre, sauf à trouver un vaccin, lequel ne viendra jamais à temps. Nous devons tous nous préparer à perdre des proches. Nous devons comprendre qu'il est vain de s'imaginer que la médecine moderne puisse sauver des vies à une telle échelle : nous devons considérer que nos moyens médicaux sont à peine meilleurs qu'en 1957 ou même 1918, parce que les appareils magiques qui sauvent bien plus de vies ne sont disponibles qu'en toute petite quantité.

Les rumeurs selon lesquelles le gouvernement français pourrait décréter, demain, un confinement total de la population, me glacent le sang. D'abord parce que je crois que ce serait une très lourde erreur (on ne pourra jamais sortir du confinement sans que l'épidémie reparte, et on n'aura rien gagné sauf lourdement traumatiser les personnes confinées), et parce que l'effet sur mon moral sera encore plus grave, moi qui ai sans arrêt besoin de soleil et qui attendais ce printemps avec tant d'espoir après un hiver interminablement gris et pluvieux. Mais j'ai promis de chercher les scénarios avec une lueur d'espoir.

Inspiré par le commentaire de Cigaes dans l'entrée précédente, je cherche à élargir mes idées au-delà des pistes ① et ② que j'avais évoquées.

Scénario A. Le gouvernement prend rapidement des mesures de confinement très fortes, mais elles ne sont que temporaires, pas destinées à arrêter complètement l'épidémie mais à gagner du temps dans le but de rassembler les forces et donner tous les moyens supplémentaires possibles aux équipes médicales : réquisition de tout ce qui peut servir d'hôpital et de lits pour ces hôpitaux, moyens extraordinaires pour fabriquer à une vitesse incroyable des masques et bouteilles à oxygène, des ventilateurs bird, peut-être aussi des appareils à oxygénation par membrane extra-corporelle, pour en bricoler avec des bouts de ficelle ou pour en récupérer partout où on peut (y compris jusqu'à ceux prévus à usage vétérinaire) ; parallèlement, pour ce qui est du personnel, on forme en extrême urgence tous les médecins du pays, les étudiants en médecine, les infirmiers, et peut-être même jusqu'aux dentistes, pharmaciens et vétérinaires (pour gérer les cas les plus simples) à ce qu'il faut savoir pour traiter au mieux les cas modérés et laisser les plus graves aux plus spécialistes. On arrive ainsi à garder un taux de létalité pas beaucoup plus grand que 1% même avec un nombre gigantesque de malades en même temps. On relâche les mesures de confinement, l'épidémie repart, elle ne touche au final que 15%, et on s'en tire avec seulement 0.15% de morts. L'économie et la société sont très très durement secouées, mais finissent par s'en remettre.

Scénario B. On ne prend que des mesures de confinement modérées, pour ralentir l'épidémie sans pour autant chercher à la limiter. Néanmoins, les gens finissent par prendre peur et se confinent eux-mêmes dans une certaine mesure, et de plus, ils adoptent durablement une meilleure hygiène : ceci diminue le nombre de reproduction. De cette manière, seulement 10% de la population est touchée. Le système de soins est totalement submergé, on doit décider qui vit et qui meurt, le taux de létalité tourne autour de 3%, mais on (la société) finit par accepter que c'est un pêché d'orgueil que d'espérer sauver tout le monde. L'épidémie tue 0.3% de la population. Elle revient peut-être en une seconde vague parce que les changements des habitudes ne sont que temporaires, mais cette fois-là on est mieux préparés, on a peut-être un vaccin, ou peut-être effectué les préparations évoqués au scénario A. L'économie et la société s'en remettent. C'est le scénario le plus probable pour un retour à la « normale » assez rapide.

Scénario C₁. Le gouvernement prend des mesures de confinement sévères, l'épidémie régresse, mais la population se révolte et finit par décider qu'emprisonner tout le monde chez soi est pire que de voir mourir peut-être 1% de la population. On est ramené à un des scénarios précédents.

Scénario C₂. Le gouvernement prend des mesures de confinement sévères, l'épidémie finit par disparaître, il lève des mesures, l'épidémie repart immédiatement à partir de cas importés ou mal détectés, et la population finit par comprendre le dilemme et la suite est comme en C₁.

Scénario D. Le gouvernement commence par prendre des mesures de confinement sévères jusqu'à ce que l'épidémie disparaisse presque complètement, puis les relâche progressivement, deux semaines par deux semaines, en ayant les yeux rivés sur la vitesse à laquelle les nouveaux cas se multiplient. On finit par atteindre le niveau de confinement un peu réduit qui donne un nombre de reproduction du virus presque exactement égal à 1. La société doit s'habiter à vivre sans écoles, sans restaurants, sans musées, sans aucun lieu public, et à ce que tous les rassemblements soient interdits et que des policiers surveillent régulièrement le respect des distances de sécurité dans les rues et autres espaces publics, mais il n'est pas totalement interdit de sortir de chez soi (il y a peut-être des horaires ou des jours à respecter). Les transports en commun sont autorisés uniquement à condition du port d'une combinaison de protection, ou au minimum, d'un masque approprié, pour tous les usagers. L'économie s'effondre complètement mais finit par se retructurer autour d'autres pôles (encore plus d'importance étant donnée aux communications et au virtuel). Le nombre de morts de l'épidémie est extrêmement faible. On tombe dans un monde dystopien, mais on apprend à l'accepter et à vivre avec, et c'était le prix à payer pour sauver tous ces gens. (C'est le plus optimiste que j'arrive à trouver pour la piste ①. C'est la voie que semblent prendre la Chine, la Corée et d'autres.)

Scénario E. Un peu comme le scénario D, i.e., confinement un petit peu réduit, mais seulement le temps de développer un vaccin (mais du coup, il n'y a pas de restructuration de l'économie, ni d'acceptation de la nouvelle normalité, seulement un très très long moment à passer dans une société dystopienne).

Scénario F. Un peu comme le scénario D, i.e., confinement un petit peu réduit, mais à la différence que le nombre de reproduction est maintenu aussi proche que possible de 1 avec juste assez de malades à tout moment pour que le système de santé puisse les encaisser ; au bout d'assez longtemps, soit on a atteint un niveau d'immunité permettant de lever le confinement (progressivement), soit on trouve un vaccin et alors on retombe sur le scénario E.

Scénario G (ajout  : suggéré par « @/2 » en commentaire, un peu modifié/précisé par mes soins). Mesures de confinement énergiques donnant un pic épidémique à environ 1% de la population, ce qui produit une immunité grégaire dans certaines régions mais pas sur l'ensemble du territoire. Une fois l'épidémie disparue du pays (qui devra garder ses frontières extrêmement surveillées avec les voisins qui ne sont pas dans la même situation), on peut relâcher le confinement en étant prêts à faire du confinement local extrêmement agressif et du traçage de contacts à la moindre apparition d'un nouveau cas. La société apprend à vivre avec des bouclages réguliers de villes ou régions entières à cause de la détection d'un cas de Covid-19.

Scénario H (ajout  : suggéré par « jean » en commentaire, reformulé par mes soins). Comme le scénario G, mais en utilisant des tests extrêmement massifs en plus du traçage de contacts, comme solution temporaire en jusqu'au développement d'un vaccin, si on y arrive.

Voilà à peu près le tour de mes idées un tout petit peu optimistes. Si vous en avez d'autres, vous pouvez les poster en commentaire, ou écrire quel scénario vous paraît le plus désirable, d'une part, et le plus probable, d'autre part. (J'ai tendance à dire que A ou B est le plus désirable et que C₂ est le plus probable)

↑Entry #2642 [older| permalink|newer] / ↑Entrée #2642 [précédente| permalien|suivante] ↑

↓Entry #2641 [older| permalink|newer] / ↓Entrée #2641 [précédente| permalien|suivante] ↓

(samedi)

Je choisis Scylla, et je suis complètement terrifié

Je suis complètement terrifié. Je fonds en larmes régulièrement, je ne dors quasiment plus, ma digestion est complètement déréglée, et cela empire de jour en jour (même s'il y a des hauts et des bas : un moment j'arrive à lâcher prise, le moment suivant je repense à ce qui va arriver et l'angoisse me glace). Le poussinet et moi nous communiquons mutuellement notre peur et même l'amplifions parfois dans nos tentatives pour chercher du réconfort l'un auprès de l'autre en parlant de ce qui va arriver. Je n'ose pas trop aller vers mes autres amis pour ne pas déverser ma propre angoisse sur celle qu'ils peuvent déjà avoir (ou, s'ils ont la chance de ne pas en avoir, leur transmettre la mienne).

J'essaie de m'accrocher aux branches : je pense que la société ne va probablement pas s'effondrer (mais elle va être secouée comme elle ne l'a jamais été depuis la seconde guerre mondiale), et que je ne vais probablement pas mourir (en tout cas pas du virus, peut-être d'un paroxysme d'angoisse), mon poussinet non plus, et beaucoup de mes proches non plus. Donc ce n'est pas la fin du monde. Mais c'est indéniablement la pire crise de notre génération. Socialement, politiquement, psychologiquement, économiquement, il y aura un avant et un après Covid-19. Je ne sais pas ce qu'il restera des petits éléments confortables de ma vie quotidienne dans le monde d'après.

Est-ce que je peins le tableau trop noir ? Je ne sais pas. Peut-être que cette entrée de blog paraîtra grotesquement catastrophiste dans un an ou deux. Je prends sans hésiter le risque du ridicule, j'accueille même le ridicule à bras ouverts si les choses se déroulent moins mal que ce que je crains. Faites que je sois ridicule !, j'en serai tellement heureux. Faites que dans cinq ans je sois le premier à rire de mes prévisions d'apocalypse.

Écrire tout ceci me fait du mal, j'en suis conscient, donc je vais essayer que cette entrée-ci soit la dernière où je rumine sur le sujet. (Déjà j'ai hésité à commencer cet article de blog en me disant que je me faisais du mal au lieu de trouver la catharsis, et que je pouvais faire du mal à ceux qui me liraient.) Mais parler d'autre chose me semble tellement difficile, tellement futile, que je bloque complètement. Je vais peut-être mettre ce blog en pause, probablement me déconnecter de Twitter qui ne fait qu'alimenter ma terreur, je ne sais pas encore.

J'écrivais dans le billet précédent que je voyais deux pistes pour lutter contre une épidémie, un dilemme atroce entre deux options horribles, dilemme qui commence tout doucement à faire son chemin dans l'opinion, mais souvent en braquant le choix vers une seule de ces options présentée comme évidemment la bonne : or il n'y en a pas de bonne, les deux sont horribles, et la personne qui pense qu'on doit évidemment préférer celle-ci ou celle-là n'a (je pense) rien compris à la situation.

Les options sont : ① (contenir, qu'on pourrait aussi appeler le chêne), c'est-à-dire arrêter l'épidémie à tout prix, ou ② (gérer, le roseau), la ralentir mais en la laissant suivre son cours jusqu'à ce qu'elle s'arrête d'elle-même. Je renvoie à l'entrée précédente pour les explications plus détaillées notamment sur le concept d'immunité grégaire.

Les deux sont atroces. Gérer, cela signifie qu'une proportion significative de la population, peut-être 20% si on est optimiste (des gens disent 70% mais même moi qui panique je ne crois pas à ça comme je l'ai expliqué), sera infectée. Au bas mot 0.5% de ces gens mourront, c'est-à-dire 75 000 personnes en France. Mais en fait beaucoup plus, parce que ralentir cache une horrible vérité : si on ralentissait vraiment au point que le système de santé arrive à gérer sereinement les choses (comme le suggère le slogan Flatten The Curve), à supposer qu'on y arrive, cela prendrait de nombreuses années voire des décennies de blocage, et on retombe sur un autre nom pour l'autre solution, qui est de tout bloquer.

Contenir : tout bloquer, c'est-à-dire plus d'écoles, plus de transports en commun, plus de lieux de vie commune, plus de restaurants, cafés, cinémas, théâtres, plus aucune vie économique au-delà du minimum vital, comme en Italie en ce moment, et ce pendant un temps indéfini : jusqu'à trouver un vaccin, qu'on arrive à le produire et qu'on puisse le répandre au monde entier, au moins, ce dont on imagine difficilement que ça puisse prendre moins de deux ans, et peut-être indéfiniment parce que le vaccin n'est pas toujours techniquement possible. En attendant, vivre dans la terreur perpétuelle du fléau qui peut se faire réapparaître son affreux visage dès que le blocage est un peu desserré.

Gérer : ralentir certes un peu l'épidémie avec des fermetures partielles, mais en sachant que ça ne suffira jamais assez pour que le système de santé tienne le choc. Ce choc est tellement énorme qu'il est presque impossible à visualiser : si ~20% de la société doit être infectée, que 2.5% de ces infectés doivent passer en réanimation (j'estime à 50% les cas asymptomatiques, et je prends 5% des cas symptomatiques), cela fait 5000 personnes passant en réanimation pour chaque million d'habitant. Dans un pays raisonnablement bien équipé comme la France, il y a 75 lits de réanimation par million d'habitant : en réquisitionnant tout ce qui peut servir (salles de réveil, salles d'opération, vieux respirateurs ou appareils bricolés avec trois bouts de ficelle), on peut peut-être espérer passer à 150. Donc ~30 personnes à passer dans chaque lit+respirateur : s'il faut ne serait-ce qu'une semaine de réa par personne, ce qui semble très optimiste, cela fait 25 semaines : il faut lisser l'épidémie sur six mois, à supposer qu'on ait un contrôle si fin. Six mois encore pires que la crise actuelle en Italie, mais dans le pays tout entier — dans le monde entier. Ou bien trois mois d'une crise encore deux fois pire que ça, et seulement la moitié des malades trouveront un lit, les autres mourront sans soins, et les médecins devront choisir qui vit et qui meurt.

Ou bien sinon : le blocage complet qui ne pourra être levé qu'à la faveur de la découverte d'un vaccin providentiel.

Ces deux options sont glaçantes. Celui qui émet une préférence d'emblée, sans être horrifié par la monstruosité d'un tel choix, a complètement loupé le roman. (Encore une fois, je renvoie au billet précédent pour des explications plus précises sur pourquoi on doit faire ce choix.)

Je me suis torturé pour savoir laquelle me semblait la moins horrible, et je pense finalement que c'est de gérer (la ②). J'ajouterais la nuance : mobiliser absolument tous les moyens de l'État pour construire, fabriquer ou réquisitionner en un temps record, et peu importent les coûts, des hôpitaux préfabriqués, des lits de fortune (pour la France, il en faut des centaines de milliers), et des respirateurs de toute sorte (simples ventilateurs à oxygène en nombre énorme, des milliers voire dizaines de milliers de respirateurs avec intubation, et des centaines ou milliers d'appareils à oxygénation par membrane extra-corporelle). Et former absolument tous les personnels en rapport avec la médecine (au moins tous les médecins de toutes les spécialités, et tous les infirmiers) à l'utilisation de ces machines, pour que les anesthésistes-réanimateurs puissent se concentrer sur la supervision et la gestion des cas les plus complexes. Éventuellement appliquer la solution ① un mois ou deux le temps d'arriver à faire ça. Si tout ceci semble de l'ordre du ridiculement impossible (et je le pense), c'est dire l'ampleur de la montagne qu'il s'agit d'aplatir.

Sérieusement, il ne faut plus rêver aux 0.5% de taux de mortalité (1% des cas symptomatiques) : lorsque les hôpitaux seront débordés, cela sera plutôt 3% (soit 6% des cas symptomatiques). Donc, dans cette option, 3% de 20% de la population, mettons 0.5%, mourra — 350 000 personnes pour la France. Je sais que mes chiffres sont complètement sortis de mon chapeau (j'aurais pu dire le double), mais ils sont plausibles : ils donnent une idée des ordres de grandeur, ils permettent de se faire une idée de la catastrophe qui nous attend (et de nouveau, Angela Merkel s'est montrée encore plus pessimiste en évoquant 70%). Avec un pic à peut-être autour de 25 000 morts en une journée. Les mots manquent.

Je pense pourtant (et de nouveau c'est un choix atroce et ce n'est pas la peine de me rappeler à quel point il l'est) que c'est préférable à la fermeture des écoles et tous autres lieux de vie publique possiblement à perpétuité. Je pense que l'option ① maintenue trop longtemps n'aurait pas juste un coût économique et social tellement important qu'elle entraînerait indirectement la mort de plus d'individus encore, mais qu'elle conduirait à la transformation de la société en une dystopie post-apocalyptique, ou peut-être l'effondrement complet de toutes ses structures. C'est donc avec la plus grande horreur que, si j'étais chef d'État (et je n'ai jamais été aussi heureux de ne pas l'être), je choisirais l'option ②, gérer, avec la nuance que j'ai donnée ci-dessus qu'il faut quand même ralentir autant que possible même si ça ne suffira jamais, et chercher tous les moyens possibles pour augmenter les moyens qui seront toujours ridiculement insuffisants du système de soins.

Je crois comprendre qu'Emmanuel Macron a fait ce choix. Boris Johnson l'a fait de façon tout à fait claire, sa conférence de presse évoque explicitement l'immunité grégaire, et suggère une variante assez dure de l'option ②. Angela Merkel en évoquant le chiffre de 70% (pessimiste selon moi, je le répète) fait clairement référence à cette même option. Cela me fait le plus grand mal à écrire, mais je pense qu'ils ont raison (au moins sur l'idée générale). La Chine, mais même la Corée du Sud, sont dans l'impasse maintenant qu'elles ont choisi ①, et j'ai très peur de ce qui va leur arriver (même pour la Chine, ça peut être un instrument de contrôle entre les mains du pouvoir, mais ne plus pouvoir mettre les enfants à l'école est très très embêtant).

Mais ce dont j'ai encore plus peur, c'est du yoyo entre les choix. L'opinion publique a le plus grand mal à comprendre le dilemme : les gens disent regardez la Corée, l'épidémie régresse : pourquoi on ne peut pas faire pareil ? (eh oui, c'est vraiment difficile d'expliquer les choses). L'OMS elle-même a appelé à suivre l'option ① (probablement parce que ce sont des médecins avant tout, donc ils font passer la lutte contre la maladie en premier). On ne peut vraiment pas qualifier un des choix d'idiot. Mais une fois qu'on en a fait un, il faut s'y tenir : que va faire l'Italie maintenant ? L'épidémie va se tasser, et ensuite ? Si le bouclage sert à rétablir un petit peu d'ordre dans le système de santé, admettons : mais, sauf dans les toutes petites régions géographiques les plus touchées, le chemin parcouru vers un espoir d'immunité grégaire est encore minuscule par rapport au chemin restant à accomplir (c'est vraiment terrifiant), donc il n'y a que deux options, continuer en se disant que ce sera encore bien pire, ou s'arrêter et tous ces morts auront été en vain. (Parce que si on voulait vraiment suivre l'option ①, il fallait implémenter un bouclage complet du pays déjà il y a un mois, en se rendant bien compte que c'est peut-être pour toujours.)

Beaucoup de voix qualifient déjà de criminel le choix de gérer. L'homme politique qui le fait doit se rendre compte que sa carrière est terminée : on ne lui pardonnera jamais, ou peut-être seulement avec le recul de nombreuses années, d'avoir laissé mourir 0.5% de sa population, la propriété des dilemmes horribles est que le choix qu'on a fait semble toujours le mauvais puisqu'on n'a pas les horreurs de l'autre sous les yeux.

Bref, j'ai peur que, face à la révolte inévitable de l'opinion (qui crie qu'on sacrifie des vies à l'économie, ou qu'on joue à une horrible expérience scientifique sur un concept incertain), le choix effectué se transforme en regret, et qu'il y ait volte-face comme ça a peut-être été le cas en Italie. Et là on aura, en quelque sorte, le pire des deux options. (Mieux vaudrait une volte-face dans l'autre sens : prendre ① jusqu'à ce que l'opinion publique réclame la levée du blocage, auquel point elle sera peut-être prête à accepter ②.)

(Un blocage très bien ciblé dans le temps, juste au moment du pic de la pandémie, ce qui signifie qu'il faut prévoir ce dernier une douzaine de jours à l'avance, peut en revanche avoir un sens, parce que dès qu'on a franchi le seuil d'immunité grégaire on peut travailler à arrêter activement la pandémie. De même pour un blocage ciblé dans l'espace quand il y a des inégalités entre régions : concernant l'Italie, je comprends le principe d'une fermeture complète dans les provinces les plus durement touchées, parce que celles-ci ont possiblement atteint le point d'immunité grégaire, ou pourront l'atteindre en un temps raisonnable, mais le bouclage du pays entier est une volte-face.)

Comme je l'ai dit plus haut, je n'en dors plus (et je ne sais pas comment Macron, Johnson, Merkel et les autres, peuvent dormir en ce moment !).

Ça pourrait presque sembler préférable d'être complètement démunis : dans une société qui n'aurait ni les moyens d'implémenter un blocage sérieux, ni de système de soins digne de ce nom qui puisse se retrouver débordé, la question est vite vue : l'épidémie sera arrêtée par l'immunité, il n'y a pas de dilemme, juste beaucoup de morts. C'est comme ça que les grandes pandémies ont toujours fonctionné, jusqu'à celle de grippe en 1918 dont l'horreur est tout simplement inconcevable. Gérer, c'est reconnaître qu'on ne peut rien contre la nature déchaînée, on peut juste atténuer un peu le coup et pleurer d'envoyer ainsi les médecins au casse-pipe avec les moyens dérisoires dont on dispose. (Je l'ai déjà dit, mais dimensionner le système de soins pour pouvoir faire face à une telle crise signifierait avoir des lits vides à 90% en attendant la prochaine pandémie dont on ne sait pas quelle forme elle prendra : ce n'est pas un problème de moyens, même si plus de moyens auraient évidemment été souhaitables et que l'indigence de l'Hôpital public rende le combat plus dérisoire encore.)

Lâcher prise, donc, pour la société. Admettre que les médecins vont vivre le pire des enfers pendant quelques mois, et que le reste de la société se devra d'arriver à fonctionner comme elle peut, encaisser, avec la grande majorité des gens qui ne seront que très peu malades. (C'est vraiment ça qui est si étrange dans cette maladie, l'écart entre une majorité de cas complètement banals et un tout petit nombre de cas très graves, mais ce petit nombre suffisant déjà à submerger le système de santés.)

Il faut moi aussi que j'apprenne à lâcher prise sur ce sur quoi je n'ai aucun contrôle, et que j'arrête d'écrire des textes comme celui-ci, que je trouve le moyen de retrouver le sommeil et de continuer à vivre aussi normalement que je pourrai malgré l'hécatombe qui frappera forcément assez près de moi, voire très près, et malgré le bouleversement de tous mes repères familiers, les petits éléments de ma vie d'avant, les petits plaisirs comme le brunch dominical du bobo que je suis, petit élément d'une vie passée qui me semble maintenant tellement lointain et tellement futile. (Lâcher prise aussi sur le fait que je n'arriverai jamais à faire comprendre le dilemme à ceux qui ont décidé que telle ou telle option était évidemment la seule valable, même si mes petits textes peuvent aider un tout petit peu.)

J'ai pris rendez-vous chez un psychiatre pour voir s'il peut m'aider au moins à retrouver un semblant de sommeil et d'appétit. Je vais essayer de me trouver une hygiène de vie dans ce monde nouveau où je ne comprends pas ce que je fais. Je vais essayer de me laisser porter par ce courant qui m'emporte sans que je puisse m'y opposer.

Écrire cette entrée m'a fait verser assez de larmes : j'arrête. Tous mes vœux de courage et de force à tous les habitants de la Terre pour les mois qui viennent, et particulièrement aux médecins, aux infirmiers et tous ceux qui seront en première ligne dans un combat vraiment héroïque.

↑Entry #2641 [older| permalink|newer] / ↑Entrée #2641 [précédente| permalien|suivante] ↑

↓Entry #2640 [older| permalink|newer] / ↓Entrée #2640 [précédente| permalien|suivante] ↓

(mercredi)

Deux approches pour lutter contre une épidémie (contenir ou gérer : Charybde et Scylla)

Je ne sais pas pourquoi, en ce moment, l'épidémiologie intéresse plein de gens, alors je reviens à la charge en reproduisant (en français et en plus développé) un fil que j'ai écrit sur Twitter (ici sur Thread Reader). J'écrirai encore au moins une entrée pour parler de combien mon moral va très mal à cause de (mais pas uniquement de) cette histoire, mais comme une partie de ça vient de la constatation que « nous » avons le choix entre deux options absolument atroces, il faut que j'explique ce que sont ces deux options, telles que je les vois, pour faire face à une épidémie. (Pour ce que ça vaut, il y aura très peu de maths dans ce qui suit, contrairement à l'entrée précédente qui présupposait que le lecteur comprend ce qu'est une équation différentielle.) Peut-être que ça me fait du mal de me torturer à penser à ce genre de choses, mais je n'arrive vraiment pas à me distraire et ça a quand même un côté cathartique. (Mais si vous avez quelques remarques ne serait-ce qu'un peu optimistes à écrire en commentaires, elles seront les bienvenues, surtout si c'est pour me dire que je me trompe complètement.)

Voilà, c'est une idée que j'ai eu du mal à comprendre et qui est donc mal, voire pas du tout, reflétée dans les deux-trois dernières entrées autour de Covid-19 : l'idée qu'il y a deux principales approches pour gérer une épidémie. Je vous préviens qu'aucune des deux n'est réjouissante, et il s'agit de choisir entre deux maux quel est le moindre (ou éventuellement de faire un compromis entre les deux, mais il est possible que le compromis donne le pire des deux sur tous les plans ; ou éventuellement de chercher à faire l'une et d'échouer et de retomber sur l'autre en encore plus mal : ne négligeons pas les possibilités que ça se passe encore pire que prévu). Ces deux stratégies sont :

  1. ① (contenir) l'arrêter à tout prix, ou
  2. ② (gérer) la ralentir mais la laisser suivre son cours jusqu'à ce que l'immunité de la population la rende stabilisable.

De quoi s'agit-il ? Dans une population donnée (selon les comportements sociaux et individuels de la population et selon la nature et le mode de transmission de l'agent infectieux), l'infection a un certain nombre de reproduction (noté R, même si j'ai utilisé κ dans l'entrée précédente), qui est le nombre de personnes que chaque personne infectée infecte à son tour ; plus exactement, il y a un nombre « basique » de reproduction, R₀, c'est-à-dire si on ne fait rien de particulier pour retenir ou contrôler l'infection, et un nombre effectif en fonction de ce qu'on a fait, de l'immunité déjà installée, et de toutes sortes d'autres choses.

Si le nombre de reproduction est >1, chaque personne infectée en infecte plus qu'une, et le nombre de personnes infectées croît exponentiellement (ce qui ne veut pas dire que ça aille très vite : une infection qui durerait toute la vie mais où chaque personne infectée en contaminerait en moyenne une nouvelle tous les dix ans aurait un nombre de reproduction très élevé, mais l'exponentielle serait quand même lente : il n'empêche). Une croissance exponentielle ne peut pas durer indéfiniment si la population est finie : le nombre effectif de reproduction va forcément finir par tomber. Qu'est-ce qui fait qu'il diminue ?

Ce qui le fait baisser, ça peut être que les gens changent de comportement : le nombre de reproduction ne dépend pas que de l'infection mais aussi de comment les gens se comportent : si chacun reste cloîtré chez soi et ne rentre en contact avec personne sauf en portant une combinaison hazmat, le nombre de reproduction sera essentiellement zéro. Mais ça peut aussi être l'immunité : dans beaucoup d'infections, les personnes qui ont contracté l'infection, une fois guéries, deviennent immunes, et ne la reproduisent pas. Ça peut aussi être la mort, qui est une immunité ultime (encore que, certaines infections peuvent se transmettre par les cadavres, mais a priori on s'intéresse plutôt à la propagation d'une infection dans la population vivante). Je vais faire l'hypothèse que les personnes infectées et guéries sont immunes (ou au moins le sont en grande partie, et de façon assez durable ; ce n'est peut-être pas parfaitement vrai dans le cas de Covid-19, mais j'ai cru comprendre que les virologues pensaient quand même que ça restait au moins très largement vrai). Grosso modo, les deux stratégies s'appuient ① surtout sur le changement des comportements et ② surtout sur l'immunité mais temporairement sur le changement des comportements.

Le point clé à propos de l'immunité, ce n'est pas juste que les personnes immunisées n'attrapent pas la maladie : c'est surtout que les personnes immunisées ne transmettent pas la maladie. Donc en faisant l'hypothèse qu'une personne guérie est immunisée, elle est effectivement retirée de la population, pas seulement en tant que potentiel d'infection mais en tant que vecteur d'infection : l'infection détruit ses propres ponts, et les liens qu'elle peut utiliser pour se propager décroissent avec sa progression, ce qui, fatalement, la ralentit, c'est-à-dire, diminue son nombre de reproduction.

Plus la proportion de personnes rétablies est élevée, plus le nombre de reproduction sera bas à cause de l'immunité (cette baisse se cumule, bien sûr, à celle due à un éventuel changement des comportements, par exemple si les gens prennent peur et restent chez eux ou sont confinés par les autorités !).

Il existe une valeur critique du nombre de personnes immunes au-dessus de laquelle le nombre effectif de reproduction de l'épidémie passe en-dessous de 1, c'est-à-dire qu'elle commence à s'éteindre.

Ce seuil critique de population immune est celui qui détermine l'immunité grégaire : il n'est pas nécessaire que tout le monde soit immunisé pour que l'infection ne puisse pas progresser exponentiellement, il faut juste qu'une certaine fraction critique le soit.

Mais que vaut ce seuil à partir duquel il y a immunité grégaire et non-propagation de l'épidémie ? C'est, évidemment, la question que tout le monde se pose. Ce qui est sûr c'est que ça dépend hautement du nombre de reproduction.

Dans le modèle le plus simpliste, celui d'une population homogène avec des contacts aléatoires, le seuil à partir duquel se produit l'immunité grégaire vaut 1 − (1/R₀) où R₀ est le nombre basique de reproduction (c'est-à-dire 100% − (100%/R₀) pour ceux qui ont du mal avec les nombres entre 0 et 1 et qui préfèrent les pourcentages ; oui, j'avais promis pas de maths, mais là, quand même…). Donc par exemple si R₀ vaut environ 3 ça donnerait environ 2/3 ou ~65%. J'ai expliqué pourquoi dans le 2e paragraphe (mis en exergue) dans l'entrée précédente (et qui est indépendant du reste de celle-ci avec lequel elle n'a pas grand rapport).

Dans la réalité, le vrai nombre est certainement beaucoup plus petit (il n'y a pas besoin d'immuniser les 2/3 de la population pour qu'une épidémie dont le nombre effectif de reproduction d'une épidémie avec R₀=3 cesse de se propager). La raison est essentiellement à chercher dans la nature du graphe des contacts humains qui n'est pas du tout aléatoire mais hautement structuré (les personnes que vous renconterez aujourd'hui et avec qui vous avez une chance d'échanger une infection ne sont pas du tout des personnes aléatoires parmi la population humaine mais ont des chances d'être, au moins, très majoritairement du même pays). Il y a deux sous-raisons dont je n'ai pas les idées totalement claires sur si c'est deux facettes de la même ou deux raisons différentes : la première, c'est (a) que quand on retire une proportion suffisamment élevées de sommets d'un graphe (en l'occurrence celui des contacts humains), il cesse de « percoler », c'est-à-dire qu'on ne peut plus passer d'un sommet à un autre.

Pour la deuxième sous-raison, il faut évoquer le fait que l'immunité grégaire, en fait, ne dépend pas seulement du nombre de personnes immunes mais de la manière dont elles sont réparties dans la population : si une personne totalement isolée de tout le monde attrape l'infection par un coup de malchance invraisemblable, le fait qu'elle devienne immune ne nous aide pas beaucoup. Mais justement, ça tombe bien, (b) les infections ont tendance à infecter en premier les personnes qui sont hautement connectées dans le graphe, et en les rendant immunes, elle neutralise en premier les liens qui lui permettaient le plus facilement de se propager. Autrement dit, les premières personnes à être rendues immunes (quand c'est la propagation de l'épidémie elle-même qui confère l'immunité, et pas un vaccin appliqué à une certaine partie de la population) ne sont pas des personnes au hasard, ce sont justement les personnes dont l'immunité est la plus précieuse pour tout le monde.

À titre d'exemple si j'ai bien compris (et en petits caractères parce que ce sont des maths), si je suppose que la population est un réseau carré (plan) infini et que chaque personne infectée transmet l'infection à coup sûr à ses quatre voisins, le nombre de reproduction au tout début de l'épidémie vaut 4. Pourtant, (a) il faut retirer en gros 41% des nœuds du réseau et pas 3/4 pour qu'il cesse de percoler, c'est-à-dire qu'en vaccinant 41% de la population on empêcherait celle-ci de se propager loin, et (b) dès que l'épidémie elle-même se propage, son nombre de reproduction chute de façon vertigineuse, puisque la croissance n'est pas exponentielle, elle est seulement linéaire (on a un losange de carrés infectés faisant la frontière entre son intérieur formé de personnes rétablies et l'extérieur encore susceptible, et ce qui compte est le périmètre du losange, comme on me l'a fait remarquer).

Bref, à quel seuil critique faut-il s'attendre pour un R₀ valant environ 3 ? Je n'en sais rien, mais clairement moins que les ~70% prédits par la formule simpliste 1 − 1/R. Des épidémies passées avec des R₀ comparables ont touché « seulement » autour de 20% ou 30% de la population mondiale, donc c'est un chiffre plausible. Mais il ne faut pas s'attendre à beaucoup moins. Certainement pas moins que quelques pourcents.

Je souligne que ce seuil critique permettant le déclenchement de l'immunité grégaire n'est pas la même chose que la proportion des personnes qui seraient finalement infectées (= le taux d'attaque final) si on laisse l'infection complètement incontrôlée : ce dernier est plus élevé (j'ai calculé 94% dans l'entrée précédente avec un modèle simpliste pour R₀=3), parce que quand l'infection dépasse le seuil critique (son nombre de reproduction devient <1), elle ne s'arrête pas instantanément, il y a toujours des gens infectés, qui vont en infecter d'autres (mais un peu moins), et à leur tour d'autres (encore un peu moins), etc. C'est juste que les choses sont en phase de ralentissement. Le seuil critique n'est donc pas le taux d'attaque final, il est le taux d'attaque à partir duquel il devient stable d'arrêter l'épidémie : s'il reste des gens infectées, ce n'est pas grave, elles en infecteront un peu moins (faute de personnes susceptibles à contaminer), puis un peu moins, et ainsi de suite. Mais le seuil critique est le nombre vraiment important : il sépare la région où l'infection peut être contrôlée facilement de celle où tout cas aura tendance à partir en croissance exponentielle.

Donc, tant que le seuil critique d'immunité grégaire n'est pas atteint, contenir une épidémie sera terriblement difficile. Soit il faut détecter immédiatement chaque cas avant qu'il en contamine d'autres, soit il faut faire des changements importants aux comportements, habitudes ou structure sociale. Cela peut être par des mesures individuelles (combien de personnes on fréquente en une journée, quels contacts physiques on a avec eux, comment on se lave les mains, etc.) ou collectives (fermeture des écoles et des lieux publics, interdictions de rassemblements et réunions de groupes, restrictions sur les déplacements, etc.). Retenons que si le nombre de reproduction est de ~3 à la base, il « suffit » que chacun ait trois fois moins de contacts infectieux dans une journée pour qu'il passe en-dessous de 1 : par exemple, cela pourrait être ~1.5 fois moins de contacts et que la probabilité que chacun soit soit infectieux soit ~2 fois plus faible. Il ne faut pas se dire que le nombre de reproduction est une donnée de la maladie : c'est une donnée de la société dans laquelle elle s'inscrit. Le problème, bien sûr, c'est que changer la société est très difficile, et que les mesures de type fermeture des écoles et des lieux publics ont un coût social énorme.

Tout ceci étant dit, quelles sont les deux stratégies ?

La ① consiste à ne pas compter sur l'immunité. Faire baisser le nombre de reproduction en changeant les comportements, y compris par des mesures draconiennes d'ordre public (fermeture des lieux publics, interdiction des rassemblements, etc.), jusqu'à ce que ce nombre de reproduction soit nettement inférieur à 1, si bien que l'épidémie s'éteint. Le gros problème c'est que c'est instable : si on relâche ces mesures, le nombre de reproduction redevient >1 (on n'a fait que le diminuer artificiellement, donc temporairement), donc dès qu'il y a quelques personnes infectées, la croissance exponentielle repart. On risque donc de devoir appliquer ces mesures à perpétuité, parce qu'on découvrirait que dès qu'on les relâche, l'épidémie repart. (Bien sûr, on peut les rendre un peu moins draconiennes, il suffit de viser un nombre de reproduction légèrement inférieur à 1, voire légèrement supérieur en étant en état d'alerte pour redéployer les mesures dès qu'on détecte de nouveaux cas ; mais passer en-dessous de 1 demande probablement déjà des mesures assez sévères si la valeur normale est 3.) Avec cette technique, on ne résout jamais le problème sous-jacent à moins qu'il n'y ait plus une seule personne contaminée sur Terre, et ça, dans le cas de Covid-19, je pense qu'on a largement dépassé le point où on peut l'espérer. Au strict minimum, on doit maintenir les mesures jusqu'à ce que la pandémie soit en net déclin sur toute la Terre, et les avoir les mesures perpétuellement prêtes à être dégainées à la moindre résurgence dans le pays. Et là il faut considérer le coût social et économique de fermer les transports en commun, les écoles, les universités, tous les lieux de vie, etc., pendant une période qui pourrait s'étaler sur des mois, des années, ou à perpétuité (ou au minimum, revenir régulièrement et imprévisiblement).

La stratégie ② est un compromis entre ① et ne rien faire, jusqu'à ce que l'épidémie s'éteigne d'elle-même par immunité grégaire (ce qui est, après tout, la stratégie naturelle, si j'ose dire). L'idée est de laisser l'épidémie contaminer des gens, mais essayer de la rendre gérable : c'est-à-dire, le plus important, la ralentir, idéalement au point de laisser le système de soins arriver à traiter un peu les malades sans être complètement débordé par leur afflux. L'idée, donc, n'est pas d'éradiquer l'infection (et reconnaître qu'on n'y arrivera pas) mais de chercher à atteindre le seuil critique de l'immunité grégaire, après quoi on peut la contenir de façon stable. Le slogan dont on parle en ce moment, c'est Flatten The Curve (voyez le graphique sur ce tweet, il aide vraiment à comprendre) : applatir la courbe, lisser le pic, rendre l'épidémie gérable en l'étalant dans le temps sans pour autant l'arrêter complètement ; appuyer sur ralentir mais pas sur pause. En plus de ça, on peut espérer contrôler dans une certaine mesure qui est infecté, prendre des mesures qui protègent plus les personnes vulnérables (par exemple en fermant complètement les établissements pour personnes âgées jusqu'à ce qu'assez des autres aient été infectés pour qu'ils les protègent par leur propre immunité).

Mais il faut bien noter dans cette stratégie ② qu'on laisse des gens se faire infecter : pas directement, bien sûr, mais en ne prenant délibérément pas les mesures les plus draconiennes qu'on pourrait prendre, ce qui serait la stratégie ①.

Bref, ① = frapper le plus fort possible, rendre le nombre effectif de reproduction aussi petit que possible, et espérer arrêter complètement l'épidémie, mais se retrouver dans un état instable, tandis que ② = frapper juste assez fort possible pour que le système de santé puisse gérer, maintenir le nombre de reproduction proche de 1, et atteindre un état stable protecteur.

Les deux ne s'opposent pas toujours : si (et tant qu')on a un nombre de reproduction élevé, et si le système de santé se laisse complètement déborder, chose qu'il faut anticiper en se rappelant que l'épidémie est en train de croître exponentiellement et que toute mesure qu'on peut prendre n'aura effet qu'au mieux un temps d'incubation plus tard, les stratégies ① et ② imposent toutes les deux de prendre des mesures fortes de prévention de la contagion. La différence apparaît vraiment une fois qu'on découvre qu'on est effectivement capable de réduire le nombre de reproduction au-dessous de 1 (si on n'y arrive pas du tout, le dilemme est clos : on fait tout ce qu'on peut, l'épidémie passe et il y a beaucoup de morts, mais au moins on n'avait pas de dilemme moral à se poser !).

Bon, ces deux stratégies étant posées, laquelle est la meilleure ? Franchement, je n'en sais rien. (J'étais persuadé que ② était mieux, maintenant que j'ai regardé les chiffres de plus près, je n'en sais plus rien, je suis vraiment terrifié.) L'avenir est vraiment très sombre dans les deux cas. Mais je pense qu'il est important de les exposer clairement.

La stratégie ① a permis d'arrêter le SRAS (version 1), qui était significativement plus létal que Covid-19. (On peut dire que l'Humanité l'a échappé belle, je crois qu'on a trop peu conscience de combien de centaines de millions de vies auraient pu y passer, avec peut-être à la clé l'effondrement complet de la civilisation.) Mais le SRAS avait des caractéristiques (en ce qui concerne les symptômes, leur reconnaissabilité, la période d'incubation) qui permettait de le traquer plus facilement que son petit cousin, et même comme ça, ça n'a vraiment pas été facile.

La Chine a clairement choisi la stratégie ① dans sa lutte contre Covid-19, et a montré que c'était possible. La Corée du Sud semble montrer que c'est possible même dans le cadre d'une société démocratique (mais au prix de moyens énormes et passablement dystopiques eux aussi, quoique différemment de ce qu'a fait la Chine). Hong Kong, Taïwan et Singapour suggèrent eux aussi que ① est possible (avec cette fois-ci plutôt l'idée d'empêcher l'épidémie de prendre pied plutôt que de l'arrêter une fois qu'elle s'est déjà développée, c'est plus facile mais même pour ça il faut des mesures énergiques dont on se demande si elles pourront jamais être levées) ; je ne suis pas sûr de comprendre ce qui se passe au Japon, mais c'est sans doute semblable. La plupart de ces pays ont l'expérience du SRAS version 1 et misent sans doute sur la stratégie qui a permis d'y mettre fin. Mais voilà, la Chine semble se rendre compte maintenant qu'elle s'est coincée dans un cul-de-sac et ne sait pas comment redémarrer son appareil productif, comment lever les restrictions, sans que les efforts aient été vains. Combien de temps peut-on maintenir tout le pays à l'arrêt ? Combien cela coûte-t-il en termes de vies humaines ?

Peut-être que l'option ② est préférable, alors ? (Ou peut-être simplement qu'on échoue à mener ① et qu'on fait du mieux qu'on peut.) Je m'étais convaincu de ça, mais je me rends compte que la réalité de l'option ② est elle aussi horrible. Le slogan Flatten The Curve a l'air sympa jusqu'à ce qu'on se rende compte que la courbe doit être tellement étalée que l'option ② commence à ne pas être très différente de l'option ① si on ne veut pas sacrifier beaucoup beaucoup de vies.

Le problème est que pour rendre l'épidémie gérable, il faut atteindre le seuil critique que j'ai évoqué plus haut, et qui est peut-être de 20%. Ceci est un chiffre complètement sorti de mon chapeau, personne n'en sait rien, mais il est au moins vaguement plausible : en tout cas, on n'aura pas d'immunité intéressante avant au minimum une poignée de pourcents.

Or là on se rend compte que l'Italie croule sous la charge de l'infection dans son système de santé (pourtant moderne et raisonnablement bien équipé) alors que 0.02% de sa population est répertoriée comme infectée. À peine un cinquantième d'un pourcent. Alors je vous laisse réfléchir au temps qu'il faudrait pour atteindre 20% d'infectés en ne dépassant pas 0.02% pendant un mois : on n'est pas en train de lisser le pic, là, on est en train d'essayer de faire passer le Mont Everest sous un trou de souris.

Bon, il faut un peu nuancer la gravité de ce chiffre : d'abord, les cas répertoriés en Italie ne sont que les cas les plus graves, il y a beaucoup beaucoup d'infectés, une grande majorité, même, qui passent complètement sous le radar parce qu'ils sont asymptomatiques ou juste bénins et non comptabilisés. Sur la base de 800 morts, on peut estimer qu'il y a plus près de 80 000 cas que des 12 000 recensés, voire 150 000 infections y compris les asymptomatiques (or ce qui compte est plutôt le nombre de personnes infectées que de cas cliniquement manifestes) : donc on atteint plutôt 0.25% de la population italienne ; et en fait, il faut diviser par la population des régions les plus sévèrement touchées, voire des provinces ou disticts hospitaliers (quel que soit le bon terme). Peut-être qu'on atteint 1% ou plus. Il serait important d'essayer de savoir précisément : si quelqu'un (préférablement comprenant bien l'italien) peut essayer de trouver des chiffres précis ce serait intéressant. Mais bon, même en admettant que ce soit 1% et que les hospitalisations durent autour d'un mois, et qu'on veut atteindre 20% d'infectés, si on maintient l'infection à ce niveau-là, il faut imaginer que tous les hôpitaux du pays soient à ce stade de débordement. Pendant vingt mois. Tout en maintenant les mesures de confinement à un niveau suffisant pour empêcher l'épidémie de s'emballer, bien sûr (même si contrairement à l'option ① elles pourront progressivement être levées parce qu'au fur et à mesure que l'immunité progresse l'infection devient plus facile à contrôler). C'est gigantesque. Et c'est terrifiant.

Le problème est que nos systèmes de soins ne sont tout simplement pas dimensionnés pour des épidémies d'une telle ampleur (l'ampleur étant ici la proportion des cas qui nécessitent une hospitalisation ou, surtout, un passage prolongé en respiration artificielle). Le ~1% de létalité du Covid-19 ne serait pas franchement terrifiant à lui tout seul : ce qui l'est, c'est les ~5% qui ont besoin de soins intensifs et très lourds alors que le système de santé n'est tout simplement pas prévu pour une épidémie touchant une proportion significative de la population et nécessitant de tels soins. Je lis qu'il y a en France 75 lits de réanimation par million habitants (j'avais fait une erreur de division dans un commentaire en écrivant 7, ce qui rendait la chose encore plus désespérée, mais on va voir que même avec 75 le compte est très loin d'y être ; bien sûr, quand on parle de lits, je pense que ce qui importe, en fait, c'est le nombre de respirateurs) : je ne sais pas combien de temps les 5% des personnes ayant besoin de respiration artificielle en ont besoin en moyenne : apparemment ceux qui décèdent passent typiquement jusqu'à un mois en soins intensifs, mais je ne connais pas la typologie précise, et je suppose que certaines personnes étiquetées critiques passent nettement moins qu'un mois intubés. Néanmoins, si ne serait-ce que 1% de la population est infectée à un moment donné et que 5% de ceux-ci ont besoin de soins intensifs, c'est plutôt dans les 500 par million qu'on va chercher. Et quelque chose me laisse soupçonner que les 75 lits par million qu'a la France ne sont pas tous vides et tout prêts à recevoir les malades !

Je ne parle même pas des ~15% qui ont besoin d'une hospitalisation n'allant pas jusqu'aux soins intensifs : il me semble que la situation est légèrement moins critique à leur sujet, mais légèrement moins critique ne signifie pas que tout est rose pour autant.

On peut critiquer le manque de moyens de l'Hôpital public, et je suis le premier à signer ces critiques, mais face à une demande d'une telle ampleur, ce n'est plus tellement le manque de moyens qui est en cause : à moins d'imaginer un système hospitalier qui serait ~10× plus grand, avec des lits 90% vides et des médecins passant 90% de leur temps à se tourner les pouces en attendant que vienne l'épidémie du siècle, je ne vois pas comment on peut faire face.

Donc lisser la courbe jusqu'à rendre le système de santé capable de gérer la crise, ça commence à ressembler beaucoup à l'option ①. Ou disons, les deux commencent à ressembler à la solution pourrie se terrer dans un trou en espérant un miracle, sous la forme d'un vaccin, d'une thérapie symptomatique fulgurante, ou d'une construction en temps record de respirateurs (après, je ne sais pas juger : peut-être qu'en fait la chloroquine ça marche vraiment, après tout ; ou peut-être que les vétos ont des tonnes de respirateurs qui peuvent servir sur des humains quitte à signer la bonne paperasse ou bien qu'il y a moyen d'en bricoler trente-cinq mille en un mois avec trente-cinq mille fois trois bouts de ficelle).

Ajout : voir cependant une entrée ultérieure pour un petit espoir que la situation soit moins grave que prévue parce qu'on serait passés à côté d'un nombre gigantesque de cas.

À l'inverse, on peut pousser l'option ② plus loin (je ne sais pas s'il faut appeler ça ③ ou juste l'extrême de ②) en disant tant pis, il faut que l'épidémie passe : on va la ralentir comme on pourra, placarder encore plus fort le message qu'il faut se laver les mains, mais pas au prix de boucler complètement le pays de façon durable ; le système de soins sera complètement submergé, mais on va quand même lui donner un facteur 2 ou 3 de répit par rapport à si on ne faisait absolument rien pour contrôler l'épidémie, et il sauvera bien quelques vies. À ce compte-là, il faut réévaluer la létalité du Covid-19 à plutôt 5% que 1% (des cas cliniquement manifestes, cela fait peut-être 2.5% plutôt que 0.5% de toutes les infections), et donc compter sur un taux de mortalité final de ~0.5% de la population (si le taux d'attaque est de 20%). C'est-à-dire peut-être 350 000 morts en France en l'espace de quelques mois (contre peut-être 70 000 si le système de santé tient le coup).

Voilà le choix horrible devant lequel « nous » sommes. Enfin, devant lequel sont nos responsables politiques, dont j'espère au moins qu'ils ont conscience (et qu'on leur a clairement expliqué) de ce que sont ces deux options, sous une forme ou une autre. Je suis vraiment soulagé de ne pas avoir moi-même à faire ce choix, et de ne pas avoir la certitude que, quel que soit la route qui sera prise, elle leur sera lourdement reprochée parce que le chemin non suivi a toujours l'air plus rose (ou du moins, moins noir). Moi-même je ne sais vraiment pas ce que je souhaiterais ou quel est le moins pire. Quant à savoir ce qui va se passer, je parie plutôt sur l'option ② sous une forme assez dure (proche du ③ que j'évoque) : le fait que l'Italie ait laissé les choses aller jusque là avant de réagir (j'espère qu'ils étaient conscients que la réaction prendrait une bonne semaine à faire effet, et qu'ils savent extrapoler une exponentielle), que la France refuse encore de fermer les écoles, et qu'Angela Merkel ait avancé le chiffre de 70% de personnes finalement infectées (taux d'attaque qui, je le répète, est sans doute surestimé, mais qui donne une idée du scénario qu'elle a en tête et qui implique le décès d'au moins 300 000 personnes en Allemagne), tous ces éléments me le laissent plutôt penser. Aux États-Unis c'est encore plus clair : je ne sais même pas s'il est constitutionnellement possible d'y prendre des mesures restrictives comme en Italie, mais de toute façon l'accès aux respirateurs sera réservé aux plus riches et ceux-ci n'ont donc que très peu de motivation à ne pas laisser l'épidémie suivre son cours tandis que leurs portefeuilles dépendent du fait que l'économie continue à tourner.

Tout ça n'est pas la fin du monde (qui a survécu à la grippe de 1918 laquelle a tué plutôt dans les 2% ou 3% de la population mondiale alors que là je ne pense pas qu'on atteindra cette proportion), mais c'est vraiment un désastre majeur que nous avons devant nous quelle que soit le chemin exact par lequel nous le traversons. Je me suis moi-même laissé un peu embobiner par le slogan que ce n'est qu'une grosse grippe : ce slogan est trompeur à quatre comptes, d'abord parce que 10× plus de létalité c'est vraiment un ordre de grandeur au-dessus, ensuite parce que la létalité de 0.1% pour la grippe est une surmortalité lue indirectement dans les statistiques, c'est-à-dire qu'elle compte toutes sortes de décès seulement indirectement liées à la grippe elle-même (les décès directs causés par la grippe aux urgences sont plutôt de l'ordre de 0.002% des cas), mais surtout parce que le problème avec Covid-19 c'est vraiment le nombre de gens qui ont besoin de soins intensifs qu'il est extrêmement difficile d'imaginer qu'on puisse fournir en tel nombre, et que si le système de soins est débordé, ces gens-là mourront et le taux de létalité grimpe encore d'un facteur peut-être 5.

Ah, et au rayon des bonnes nouvelles, il faut aussi se rappeler que même si l'épidémie est contenue par immunité grégaire, elle ressurgira possiblement quand le virus aura assez muté pour que l'immunité ne soit plus efficace, voire, que la vague d'infections devienne saisonnière. (Il est cependant plausible, mais en aucun cas certain, que dans ce cas le virus deviendrait moins létal : les gens sont obsédés par les mutations des virus, mais il faut se rappeler que le but d'un virus n'est pas de nous tuer, c'est de se reproduire ; or les virus qui ont le plus de succès en la matière sont les rhinovirus qui ne sont pas une calamité.)

Quoi qu'il en soit, n'hésitons pas à répéter une fois de plus le message de bien se laver les mains, de faire attention où on tousse et d'éviter tous les contacts physiques de personne à personne : ce n'est pas une blague, cela peut avoir un impact significatif sur la reproduction de ce virus et ça au moins ce sont des mesures qu'on peut considérer comme définitives sans en souffrir comme une mise à l'arrêt du pays.

Ajout () : J'ai vraiment de plus en plus peur des conséquences sociales et sociétales de ce dilemme. Il me semble évident que la stratégie ① n'est pas tenable : il n'est pas imaginable d'éradiquer le virus dans tous les pays du monde, il y aura forcément des endroits où l'épidémie se limitera par l'immunité naturelle, donc, qui auront toujours des cas par-ci par-là, et à ce moment-là, à moins de fermer hermétiquement toutes les frontières, le virus fera régulièrement son chemin partout dans le monde ; or on ne peut pas imaginer vivre en état de lockdown permanent parce que dès qu'on le relâche les cas reprennent leur augmentation. Mais la stratégie ② « douce » est fonctionnellement équivalente (le flux de malades que peuvent encaisser les hôpitaux est tellement microscopique qu'on n'en aura jamais fini), et sa version « dure » n'est pas pas socialement acceptable : les gens voient les hôpitaux débordés et exigent des mesures exceptionnelles. Dès lors, où va-t-on ? Les gouvernements tergiversent : l'Italie aujourd'hui et demain je suppose la France ne voulaient pas tout boucler, mais doivent le faire sous la pression de l'impact des hôpitaux submergés ; mais une fois que c'est fait, on est complètement coincés avec un pays totalement bouclé et qu'on ne peut plus déboucler. Quelqu'un peut-il proposer ne serait-ce qu'une lueur d'espoir sur ce qui va se passer ?

↑Entry #2640 [older| permalink|newer] / ↑Entrée #2640 [précédente| permalien|suivante] ↑

↓Entry #2639 [older| permalink|newer] / ↓Entrée #2639 [précédente| permalien|suivante] ↓

(samedi)

Un tout petit peu d'épidémiologie mathématique

Dans l'entrée précédente, je soulevais entre autres la question de comment calculer (et de comment appeler !) le nombre, que j'y appelais r, de personnes qui sont finalement infectés par une épidémie (quelle que soit l'issue de cette infection) puisque c'est un des facteurs du produit f·r qui donnera le taux de mortalité due à l'infection (l'autre étant la proportion f des cas qui conduisent à un décès) ou de tout autre calcul analogue (comme g·r pour le nombre de cas graves où g est la proportion correspondante). Dans plusieurs mises à jour ultérieures de cette entrée, j'ai signalé que j'ai fini par apprendre que r s'appelle le taux d'attaque et un raisonnement simpliste pour l'estimer, que je reproduis ici parce que je vais vouloir le comparer à une estimation donnée par un modèle différent :

[Essentiellement recopié de ce fil Twitter :] Une amie m'a expliqué le rapport que je cherchais à comprendre entre le taux de reproduction de base R₀ (= nombre de personnes que chaque personne infectée infecte à son tour) et le taux d'attaque final r (= proportion de la population qui sera infectée à terme pendant l'épidémie) : dans le modèle le plus simpliste, c'est r = 1 − 1/R₀ ; en effet, tant que le taux de reproduction est >1, l'épidémie croît exponentiellement ; mais si une proportion r a déjà été infectée, le taux effectif de reproduction est ramené à R₀·(1−r) parce que, en supposant que les personnes déjà infectées sont immunisées et sont également réparties dans la population (j'ai bien dit, modèle simpliste !), seule une proportion 1−r est encore susceptible d'être contaminée ; donc l'épidémie cesse de progresser lorsque R₀·(1−r) redescend à 1, c'est-à-dire r = 1 − 1/R₀. C'est probablement la raison pour laquelle certains ont prédit r ~ 70% en l'absence de contre-mesures efficaces pour réduire R₀ qui a été initialement mesuré à R₀ ~ 3. Encore une fois, ceci est un modèle extrêmement simpliste.

Dans la suite, je vais noter plutôt κ que R₀ ce nombre de reproduction, parce que même si R₀ est la notation standard elle serait source de confusion dans le modèle SIR où la lettre R désigne les cas rétablis (guéris, recovered en anglais ; enfin, avec une drôle de définition de rétablis puisque dans le modèle qui va suivre on ne cherche pas à compter les décès et on les compte avec les guérisons). Par ailleurs, plutôt que le taux d'attaque final noté r ci-dessus (ce qui, par chance, colle bien, à la limite, avec l'usage de la lettre R que je viens d'évoquer), je vais m'intéresser plutôt à la proportion complémentaire s = 1−r, i.e., la proportion de la population qui échappe à l'épidémie, et dont le raisonnement simpliste que je viens de recopier prédit donc qu'il s'agit de 1/κ.

Maintenant, en suivant de près ce fil Twitter (ou ici sur Thread Reader), que je développe un peu un peu, je vais essayer d'expliquer la prédiction que fait un modèle basique en épidémiologie, le modèle SIR :

Le modèle SIR modélise une infection en traduisant l'évolution dans le temps de trois variables : s (susceptible) la proportion de la population qui n'a pas encore contracté l'infection (et qui est donc susceptible de l'attraper), i (infectée) la poportion de la population qui est actuellement infectée, et r (rétablie) la proportion de la population qui n'est plus infectée, que ce soit suite à une guérison ou un décès (cf. ci-dessus : on ne s'intéresse pas à la différence ici). On a s + i + r = 1 puisqu'il s'agit de trois parties exclusives et exhaustives : il y a donc seulement deux variables indépendantes. Le modèle fait toutes sortes d'hypothèses simplificatrices : notamment, que la population est constante (puisque les décès comptent parmi les guéris, ce n'est pas idiot), et surtout, que les personnes ayant contracté l'infection ne peuvent pas la contracter une seconde fois (soit parce qu'elles sont immunisées soit parce qu'elles sont décédées).

Il s'agit d'écrire une équation différentielle (non-linéaire, du premier ordre) portant sur ces variables. L'idée est d'écrire le type d'équations utilisées en cinétique chimique : imaginez qu'on aurait deux réactions chimiques, la réaction d'infection S + I → I + I (une personne infectée en infecte une autre) et la réaction de rétablissement, I → R (les personnes infectées se rétablissent toutes seules avec le temps, je rappelle une fois de plus que rétablir ici compte les décès, tout ce qui m'intéresse est que ces personnes ne puissent plus en contaminer d'autres). Ce qu'on fait en cinétique chimie (de façon ultra-simplifiée…) pour modéliser des réactions de type X + Y → Z est qu'on va écrire que l'occurrence d'une telle réaction, i.e., la variation de concentration due à cette réaction (qui va compter positivement dans la concentration de Z et négativement pour X et Y) est proportionnelle à une certaine constante cinétique (positive) fois le produit des concentrations de X et de Y à des puissances appelées l'ordre de la cinétique dans chacun de ces réactifs, typiquement 1. Dans le modèle épidémiologique SIR, les deux réactions d'infection et de rétablissement seront supposées d'ordre 1. On va appeler β et γ leurs constantes cinétiques respectives : les termes de vitesse de l'infection et du rétablissement seront donc β·i·s et γ·i respectivement. Autrement dit :

Si je note x′ la dérivée dx/dt par rapport au temps (t) de la variable x, les équations du modèle SIR seront :

  • s′ = −β·i·s
  • i′ = β·i·sγ·i
  • r′ = γ·i

(La somme de ces trois quantités fait évidemment zéro, comme il se doit puisqu'on doit conserver s+i+r=1 : comme en chimie, rien ne se crée, rien ne se perd, mais tout se transforme.) La première équation, donc, modélise le fait que la population non encore infectée décroît par la vitesse infection dans le temps β·i·s qui est proportionnelle à une constante β fois les proportions de personnes infectées i et susceptibles de l'être s : si l'on préfère, cela signifie qu'une personne susceptible a une probabilité β·i de devenir infectée par unité de temps (très petite) ; la troisième modélise le fait que les personnes infectées deviennent rétablies avec la vitesse γ·i : si l'on préfère, cela signifie qu'une personne infectée a une probabilité γ de devenir rétablie par unité de temps (très petite) ; et l'équation du milieu, donc, assure l'équilibre s+i+r=1.

La nouvelle (et énorme !) hypothèse simplificatice qu'on a faite en écrivant ces équations, c'est de supposer que le comportement « local » de l'épidémie et de la population ne change ni avec le temps ni avec le progrès de l'épidémie : la probabilité d'infection par rencontre S+I, ou de guérison, ne changent pas : ceci exclut, par exemple, le fait que la population changerait ses habitudes avec la progression de l'épidémie (prendrait des mesures prophylactique), que le système de santé soit débordé (ce qui jouerait possiblement sur le temps de guérison), que le pathogène mute pour devenir plus ou moins virulent, et toutes sortes d'autres scénarios sortant de notre modèle extrêmement basique.

Les constantes cinétiques β et γ ont pour grandeur l'inverse d'un temps : il s'agit essentiellement de l'inverse du temps espéré d'infection si toute la population est infectée et du temps espéré de guérison. Remarquons donc qu'en changeant l'échelle de temps on multiplie β et γ par la même constante : le seul paramètre sans dimension dans le modèle est le rapport κ := β/γ, qu'on interprète comme le nombre de personnes qu'une personne infectée infectera en moyenne dans une population entièrement susceptible avant d'être elle-même rétablie. Comme il s'agit du seul paramètre sans dimension, toute discussion doit se faire sur κ. C'est ce κ = β/γ qu'on appelle nombre de reproduction et qui est souvent noté R₀, mais que je préfère noter κ ici pour éviter la confusion avec la variable r.

Pour ce qui est des paramètres initiaux, on peut prendre ce qu'on veut, mais on prendra normalement r=0 (en fait, si r ne valait pas initialement 0, on pourrait diviser s et i par 1−r et multiplier β par cette quantité, pour se ramener à ce cas), et i=i₀ extrêmement petit (l'idée étant d'amorcer l'épidémie par un tout petit nombre de cas), ce qui permet de considérer que la valeur initiale s₀ de s est quasiment 1.

Les équations étant posées, que peut-on dire du comportement décrit par ce système ?

Le cas κ<1 étant peu intéressant (l'épidémie disparaît tout de suite, au moins si on est parti avec i₀ très petit), je vais prendre κ>1, c'est-à-dire β>γ.

Le départ de l'épidémie est très simple : tant que s est suffisamment proche de 1 pour être identifié à lui, on a i′ = (βγi qui vaut donc i₀·exp((βγt). Autrement dit, i croît exponentiellement avec une dérivée logarithmique βγ (ou si on veut, une constante de temps 1/(βγ), ou encore un temps de doublement ln(2)/(βγ)). Quant à r, il est donné en intégrant r′ = γ·i, soit r = i₀·(γ/(βγ))·(exp((βγt)−1) = i₀·(1/(κ−1))·(exp((βγt)−1) soit, quitte à négliger le −1, la même croissance exponentielle mais avec une valeur κ−1 fois plus petite.

On peut utiliser ce comportement pour tenter d'estimer les paramètres : βγ comme la pente logarithmique de la croissance exponentielle observée, et 1/γ comme la durée moyenne des symptômes (jusqu'à guérison ou décès) ; on devrait aussi pouvoir estimer κ−1 comme le rapport entre nombre de cas en cours et nombre de guéris+décès, mais dans la pratique ça marche très mal. Très grossièrement, dans l'épidémie de Covid-19 hors de Chine, on est en période de croissance exponentielle, avec une pente logarithmique de l'ordre de 0.2/j, et 1/γ de l'ordre de deux semaines, donc κ serait de l'ordre de 4 avec ces calculs. En fait, il est quand même plutôt de l'ordre de 3, parce que les guérisons ne se produisent vraiment pas selon un processus poisson mais plutôt en temps constant, ce qui justifie que la croissance exponentielle se fasse avec une pente logarithmique β plutôt que βγ initialement. Bref.

[Graphes des courbes s(t),i(t),r(t) pour β=3 et γ=1]Le modèle SIR prédit que la dérivée logarithmique de i vaut β·sγ, donc, si elle part de βγ quand toute la population est susceptible, elle devrait diminuer progressivement, s'annuler pour s = 1/κ (maximum de l'infection, donc) et ensuite devenir négative sans jamais pouvoir passer en-dessous de −γ. Le graphique ci-contre (tracé avec Sage en utilisant une méthode de Runge-Kutta d'ordre 4) montre l'allure des courbes, pour β=3 et γ=1 (donc κ=3), avec s tracé en vert, i en rouge et r en bleu.

Pour pouvoir calculer des quantités au pic de l'épidémie ou à sa limite quand t→+∞, il faut éliminer le temps dans les équations. Ceci se fait en divisant par r′ = γ·i les deux premières équations, soit

  • s′/r′ = −κ·s
  • i′/r′ = κ·s − 1

Or s′/r′ et i′/r′ s'interpètent comme ds/dr et di/dr respectivement (la fonction r est C¹ de dérivée strictement positive, on peut la prendre comme variable). Mais l'équation ds/dr = −κ·s se résout en s = s₀·exp(−κ·r), soit, puisqu'on part avec s₀ très proche de 1, s = exp(−κ·r), ce qui nous donne un lien reliant r et s.

Notamment, si on cherche la valeur du pic de l'épidémie (le moment où i est maximal, i.e., i′ s'annule), il est donné par s = 1/κ (d'après la valeur de i′) et donc r = ln(κ)/κ (en utilisant la relation qu'on vient de trouver) et ainsi i = 1 − (ln(κ)+1)/κ.

Maintenant, que dire des valeurs de s, i, r quand t→+∞ ? Manifestement, i→0 (démonstration : s et r ont des limites donc i en a une ; mais en regardant la troisième équation, r′ a une limite, qui ne peut pas être autre que 0 puisque r lui-même a une limite, donc i tend vers 0). Donc il y a deux quantités à déterminer, que je vais noter s et r (et, rapidement, s et r tout court). On a vu s = s₀·exp(−κ·r), donc notamment s = s₀·exp(−κ·r), mais par ailleurs r = 1 − s. En remplaçant l'une dans l'autre, on a l'équation s = s₀·exp(−κ·(1−s)). Avec s₀ très proche de 1, ceci devient s = exp(−κ·(1−s)).

J'écris maintenant simplement s et r pour s et r puisque je m'intéresse à ces limites en l'infini. Il s'agit donc de résoudre l'équation s = exp(−κ·(1−s)) pour trouver, en fonction du nombre de reproduction κ, la proportion s de la population qui reste non-infectée jusqu'au bout. (J'ai longtemps cru que le modèle SIR convergeait vers s=0, mais comme on va le voir, et comme c'est déjà clair sur cette équation, ce n'est pas le cas.) Encore une fois, si κ<1, ce n'est pas intéressant (l'épidémie s'arrête tout de suite, s vaut 1), donc prenons κ>1.

L'équation s = exp(−κ·(1−s)) n'a pas de solution avec des fonctions usuelles, mais elle en a une, à savoir s = −W(−κ·exp(−κ))/κ, en utilisant une fonction spéciale appelée fonction transcendante W de Lambert. Essentiellement, cette fonction est définie par le fait que w := W(z) vérifie w·exp(w) = z (il faut prendre la bonne branche complexe de cette fonction : disons qu'on parle ici, pour z≥−1/e réel, de l'unique solution réelle ≥−1 de l'équation w·exp(w) = z). La transformation de s = exp(−κ·(1−s)) en la bonne forme se fait simplement en notant que −κ·s·exp(−κ·s) = −κ·exp(−κ) d'où −κ·s est l'autre solution (à part −κ) de w·exp(w) = −κ·exp(−κ).

[Graphes des courbes −W(−κ·exp(−κ))/κ et 1/κ]Bref, le modèle SIR prédit que la proportion s de la population qui reste non-infectée jusqu'au bout vaut −W(−κ·exp(−κ))/κκ>1 est le nombre de reproduction. Comment cette fonction se comporte-t-elle ?

Et aussi, comment se compare-t-elle à l'estimation s = 1/κ citée au début de ce post ? En gros : c'est bien pire. Essentiellement, parce que le modèle SIR suit l'épidémie au-delà de son pic où κ·s=1 : elle a beau être en phase décroissante, elle continue à faire de nouvelles infections. Le graphique ci-contre montre les courbes donnant les valeurs s = −W(−κ·exp(−κ))/κ (en bleu) et s = 1/κ (en rouge) en fonction du nombre de reproduction κ.

Si le nombre de reproduction κ est juste un peu au-delà de 1, disons 1 + h avec h petit, alors s = −W(−κ·exp(−κ))/κ vaut 1 − 2·h + (8/3)·h² + O(h³). C'est en gros deux fois plus de cas que n'en donne l'estimation simpliste 1/κ soit 1 − h + h² + O(h³).

Mais surtout, si κ est grand, le développement W(z) = zz² + O(z³) donne s = −W(−κ·exp(−κ))/κ valant exp(−κ) + κ·exp(−2κ) + O(κ²·exp(−3κ)). Il y a bien une fraction s>0 qui reste non contaminée, mais elle décroît exponentiellement avec le nombre de reproduction κ.

Application numérique : pour κ≈3, le modèle SIR donne s = −W(−κ·exp(−κ))/κ ≈ 6% restant non-infectés, soit un taux d'attaque final de r ≈ 94% (et au moment du pic de l'épidémie, on a i ≈ 30% infectés contre s ≈ 33% encore susceptibles et r ≈ 37% rétablis). Je ne suis pas en train de dire que Covid-19 infectera 94% de la population mondiale (ou française), ni qu'au pic de l'épidémie il y aura 30% de malades ; outre que je suis mathématicien et pas épidémiologue, c'est ce que ferait une infection contre laquelle on ne prendrait aucune mesure et aucun changement de comportement, dans un modèle extrêmement simpliste, avec le paramètre κ≈3 qu'on a approximativement mesuré pour une phase non-contrôlée de l'épidémie. Néanmoins, cela donne une idée de ce que peut faire un nombre de reproduction de l'ordre de 3 (et je ne parle pas de la rougeole pour laquelle c'est plutôt de l'ordre de 15).

En un certain sens, en fait, la valeur simpliste 1/κ pour s est peut-être plus informative : c'est la valeur à laquelle on peut stabiliser l'épidémie : tant qu'on a une proportion r ≪ 1 − 1/κ de personnes immunisées (soit parce qu'elles ont déjà été contaminées ; mais cela pourrait être parce qu'on les a vaccinées si on a un vaccin), la situation est instable, l'épidémie peut (re)démarrer à tout moment, alors que si r ≫ 1 − 1/κ, la situation est stable, l'épidémie est contenue.

Il serait peut-être intéressant de voir ce que devient le modèle si on remplace le terme β·i·s par Β·i·(1−is partout, modélisant de façon simpliste le phénomène que les gens prennent peur et limitent leurs contacts au fur et à mesure que l'épidémie prend de l'ampleur (il y a peut-être une meilleure façon de modéliser ce phénomène, c'est juste ça qui me vient à l'esprit) ; on pourra encore moins calculer les limites faute d'avoir une forme sympathique pour la solution de ds/dr = −κ·(s+rsκ := Β/γ (Sage et Mathematica pensent que c'est exp(−½κ·r²) / (1 + (√(½πκ))·erf((√(κ/2))·r)), je vais dire que je les crois mais ce n'est pas très utilisable comme expression), mais on peut peut-être quand même en dire quelque chose.

Suite : voir cette entrée ultérieure pour une variation sur le modèle SIR où le rétablissement se fait en temps constant plutôt que selon un processus exponentiel.

↑Entry #2639 [older| permalink|newer] / ↑Entrée #2639 [précédente| permalien|suivante] ↑

↓Entry #2638 [older| permalink|newer] / ↓Entrée #2638 [précédente| permalien|suivante] ↓

(vendredi)

Quelques pensées supplémentaires sur Covid-19

Cette entrée fait suite à celle de lundi, pour ajouter, préciser ou rectifier quelques choses qui me semblaient trop longues pour constituer de simples notes ajoutées aléatoirement, mais toujours sur le même sujet — qui semble un peu être le seul sujet dont on peut parler en ce moment — et pour râler encore une fois d'être apparemment le seul à spéculer sur la valeur de certains paramètres.

Voir à la fin de cette entrée pour des mises à jour supplémentaires.

Mise à jour () : Comme je commence à avoir trop de liens d'information sur le sujet, je crée un fichier pour les rassembler.

Il est très difficile de se préparer mentalement à affronter un sujet (a) sur lequel il y a énormément d'inconnu, et (b) qui mérite une réaction située quelque part à mi-chemin (mais ce n'est justement pas clair où) entre ce n'est pas plus vraiment préoccupant que la grippe saisonnière et oh par Pluton c'est la fin du monde. Ces deux extrêmes seraient plus faciles à appréhender, mais là on est dans une teinte de gris délicate à cerner, surtout qu'on ne sait justement pas ce qu'elle sera. (Notez que je ne suis bien sûr pas en train de dire que je préférerais des nouvelles plus catastrophiques et plus certaines comme il y a un astéroïde de 50km qui va heurter la Terre de façon sûre ! Mais c'est un fait que je suis du genre d'esprit qui déteste l'incertitude.) On est dans le domaine de ce qui est trop grave pour être ignoré mais pas assez grave pour baisser complètement les bras : donc (on se dit qu')il faut faire quelque chose et ce n'est pas très clair quoi. Et avec ça la tentation de se réjouir de n'importe quelle annonce (par exemple sur l'efficacité de tel ou tel médicament).

Un certain nombre de gens va mourir, donc, ça c'est certain. Combien, c'est une grande inconnue. On est vraisemblablement dans le terrain intermédiaire suivant : vous n'allez probablement pas mourir (en notant bien que probablement n'est pas certainement, justement), mais vous connaissez probablement quelqu'un qui va mourir (mais on ne sait pas combien ni s'il faudra chercher loin cette connaissance). Peut-être que c'est ce qui frappera surtout les esprits : pas le nombre absolu de morts (qu'il se compte en centaines de milliers, en millions, ou en dizaines de millions) mais la mort de telle ou telle connaissance plus ou moins lointaine, ou de telle ou telle célébrité (les gens célèbres étant nettement plus âgés qu'un échantillon aléatoire, il y aura sans doute plus de morts chez eux en proportion : au hasard, peut-être que le pape, qui n'est pas un jeunot, qui a eu des problèmes de santé au poumon, et qui n'est pas du genre à s'isoler, succombera, ou bien la reine du Royaume-Uni, et cela donnera un visage à la pandémie).

Un peu comme les astronomes qui ont décomposé leur ignorance sur la vie extra-terrestre en produit de facteurs tous inconnus dans l'équation de Drake, je faisais pareil dans mon entrée de blog précédente : le nombre de morts sera f·r·N, où N est la population mondiale (ou celle de la région à laquelle on s'intéresse), ce nombre-là au moins est bien connu, il vaut à peu près 8 milliards, où r (taux d'infection — je ne sais pas si c'est le bon terme) est la proportion des gens qui seront infectés le virus (pendant l'intervalle de temps considéré, disons, l'année qui vient), c'est-à-dire que r·N est le nombre total de gens qui seront infectés, et où f (taux de létalité) est la proportion de ceux-ci qui en mourront (ou qui en mourront de complications directes). Ou, dans une interprétation probabiliste, r est votre probabilité d'être infecté, et f est votre probabilité d'en mourir sous (c'est-à-dire conditionnée par) cette hypothèse que vous ayez été infecté ; enfin, bien sûr, ça c'est pour un individu « générique », parce que pour un individu particulier, il faudrait parler d'un r et d'un f individuels, chacun pouvant avoir des facteurs personnels pour que l'un ou l'autre soit plus élevé (si vous êtes un hermite qui vit en autarcie complète, votre r individuel sera très bas, tandis que si vous êtes une personne âgée diabétique et qui respire mal votre f individuel sera très élevé, mais les deux peuvent être vrais en même temps et se compenser dans le produit f·r). Bref.

Mise à jour () : on me souffle en commentaire que r (et pas f !) s'appelle en français le taux de morbidité, encore que ce n'est pas clair à la lecture de l'article Wikipédia si taux de morbidité est le rapport du nombre de cas en cours sur la population totale ou le total cumulé du nombre de personnes ayant eu la maladie (au moins une fois), sachant que c'est de ce dernier que je veux parler, donc peut-être taux de morbidité cumulé ? On aurait alors f = taux de létalité, r = taux de morbidité (cumulé) et f·r = taux de fatalité, termes un peu inventés par le Club Contexte (et peut-être en faisant l'hypothèse que les personnes tombant malade deux fois sont très rares, sinon on ne sait pas si et où on doit les compter pour 1 ou 2). ⁂ Re-mise à jour () : je trouve aussi le terme de taux d'attaque pour le taux d'incidence cumulé. Ces termes sont vraiment très confus !

Évidemment, on ignore à la fois f et r ; en fait, même pour une maladie comme la grippe saisonnière dans un terrain bien observé comme la France, on ignore f et r (on connaît un peu mieux leur produit) : je trouve des valeurs allant de 0.05% à 0.5% pour le taux de létalité f de la grippe saisonnière. Pour Covid-19, j'écrivais dans l'entrée précédente qu'une estimation préliminaire (je pense que cet article de China CDC Weekly détaillant les cas jusqu'au 2020-02-11, est la source primaire) semblait donner f≈2% (proportion des cas conduisant à un décès) : mais en fait, peut-être est-ce un peu pessimiste. Notamment, dans la province du Guǎngdōng en Chine (celle qui enregistre le 2e plus grand nombre de cas après celle du Húběi), il y a à l'heure où j'écris 1348 cas rapportés, 7 morts et 935 rétablis, ce qui place le taux de létalité entre 7/1348 ≈ 0.5% et 7/935 ≈ 0.7% (l'intérêt de diviser par les rétablis est qu'on évite de sous-estimer la létalité parce que des gens ne seraient pas encore morts) : on n'est pas tellement loin de l'estimation haute pour la grippe saisonnière. On attire aussi mon attention sur le cas du bateau Diamond Princess qui a 634 cas recensés et 4 morts, soit 0.6% de létalité (sur une population qu'on peut pourtant soupçonner de ne pas être toute jeune), mais concernant ce bateau il y a deux nuances à apporter : 1º que je divise par le nombre total de cas (or le nombre de morts pourrait très bien croître encore ; ici il est trop tôt pour diviser par le nombre de personnes rétablies), et 2º les cas sont détectés par des tests systématiques, et incluent 328 cas asymptomatiques (si j'en crois l'article Wikipédia) alors qu'en Chine on n'a probablement pas détecté les asymptomatiques. Ce bateau est au moins intéressant parce qu'il nous permet de savoir qu'environ un tiersla moitié des cas sont asymptomatiques. Quoi qu'il en soit, à la louche, on peut estimer que f, dans un pays qui a un système de soins pas trop défaillant, est plutôt entre 0.5% et 1% qu'autour de 2% comme dans le foyer primaire d'infection (peut-être parce que le virus a muté pour devenir moins létal comme je le spéculais à la fin de mon autre entrée ; mais ça peut être pour d'autres raisons, comme un système de santé un peu mieux préparé). • Mise à jour () : une analyse mathématiquement soigneuse du taux de létalité et des cas asymptomatiques sur la base des données de ce bateau.

Si la proportion f des cas fatals est révisée à la baisse, c'est sans doute également vrai pour la proportion g des cas graves (quelle que soit la définition précise de grave), initialement estimée à ~15%. Mais là, les stats sont encore plus difficiles à trouver, et je ne me hasarderai pas à avancer un chiffre.

Mais la grande inconnue reste évidemment r (proportion des gens qui seront infectés le virus). Je tanne tout le monde pour essayer de savoir ce que les modèles épidémiologiques disent à son sujet, sans succès. Je n'arrive même pas à savoir comment on est censé l'appeler : je dis taux d'infection sur la base de cet article Wikipédia mais je ne suis pas certain que ce soit le bon terme. Tandis que f dépend surtout du mode d'action de l'infection et du système de santé, r dépend surtout du mode de transmission de l'infection et du système social : manifestement, si on s'isole tous dans des petites bulles hermétiques, la pandémie sera finie en trois semaines avec r proche de zéro, tandis que si on ne prend aucune mesure d'isolement, de quarantaine, ou de formes de prophylaxie, r sera beaucoup plus élevé… mais je sais pas ce qui joue ni si on peut espérer le prédire ou l'estimer à l'avance. Bien sûr, le fait que la population soit plus ou moins vaccinée (ce n'est pas le cas ici), ou ait des immunités préexistantes (c'est peut-être partiellement le cas ici) l'empêchant de contracter l'infection, va jouer sur r (pas juste parce que ces gens ne seront pas infectés mais aussi parce qu'ils bloqueront la propagation à d'autres).

Une digression mathématique pour présenter quelque chose qui me laisse perplexe. Je ne connais pas grand-chose aux probas, mais il y a une idée que j'ai retenue des phénomènes de percolation et de graphes aléatoires, c'est qu'il y a généralement un seuil critique de percolation : typiquement, et sans chercher à faire un énoncé précis, au-dessus d'un certain seuil de connexion (nombre ou proportion d'arêtes présentes), un graphe aléatoire a une composante connexe géante dans laquelle se trouvent presque tous les sommets. En prenant comme graphe aléatoire celui qui a comme sommets les personnes et comme arêtes les contacts qui pourraient conduire à une transmission infectieuse, je m'attendrais donc, en laissant naïvement mon intuition sur les graphes aléatoires s'exprimer, à prédire qu'une infection touche essentiellement tout le monde (r extrêmement proche de 1) si elle percole, c'est-à-dire, si elle ne s'arrête pas tout de suite. Or manifestement c'est faux. Ce que je disais dans mon billet de blog précédent : je ne comprends pas ce qui fait qu'une épidémie/pandémie s'arrête avant d'avoir touché essentiellement tout le monde. La meilleure piste d'explication que je voie est que le graphe ne serait pas du tout homogène : certains sommets sont intrinsèquement beaucoup plus connectés que d'autres (i.e., le bon modèle serait un modèle où la probabilité de présence d'une arête dépend fortement du sommet qu'on cherche à relier : peut-être qu'on commence à tirer au hasard un niveau de connexion pour chaque sommet et ensuite on tire au hasard les arêtes selon le niveau de connexion), si bien que l'épidémie pourrait percoler uniquement au sein des sommets les plus connectés, ceux-ci ayant une proportion strictement comprise entre 0 et 1 — ou quelque chose comme ça. Mais de nouveau, je ne connais rien aux probas, et je veux bien qu'on me corrige ou qu'on me donne de meilleures idées.

En tout état de cause, chercher à limiter ses contacts et à avoir une hygiène aussi bonne que possible n'est pas du tout inutile pour limiter la valeur de r, fût-ce la valeur « individuelle ».

La grippe saisonnière a l'air de toucher autour de 10% à 20% de la population chaque année. On pourrait s'imaginer que ça n'en touche pas plus parce que les autres sont immunisés d'une manière ou d'une autre, mais je ne pense pas : dans le cas de la grippe H1N1 « espagnole » de 1918, elle semble avoir touché une proportion comparable (peut-être 25%), et la pandémie de H1N1 de 2009, on estime aussi à 10% à 20% la valeur de r (si j'en crois l'article Wikipédia). Dans ce dernier cas, le taux de létalité n'était pas du tout élevé, donc on n'a pas pris beaucoup de précautions une fois passée la panique initiale. Comme Covid-19 a un taux de reproduction de base R₀ et un mode de transmission comparables à la grippe (encore une fois, le rapport entre r et R₀ m'échappe assez [mise à jour : dans le modèle le plus simpliste, r = 1 − 1/R₀, voir à la fin pour quelques explications supplémentaires] : R₀ est une base d'exponentielle alors que r est plutôt en rapport avec la percolation, mais le fait qu'ils soient comparables aide au moins à comparer les situations), on peut imaginer que r sera dans le même ordre de grandeur si on ne prend pas de mesure exceptionnelle. Pour ce qu'on peut faire, on a un point de données important : le fait que la Chine semble partie pour avoir réussi à stabiliser les cas autour de r≈0.15% (à savoir (66k+29k+3k) cas (actuels+rétablis+décédés) pour 59M habitants) dans la province du Húběi à l'origine de l'infection indique que c'est possible… au prix de mesures draconiennes. Mais je doute que tous les pays puissent ou veuillent appliquer de telles mesures, ce qu'il faudrait ensuite maintenir jusqu'à ce que la pandémie soit complètement endiguée au niveau mondial. Or les mesures draconiennes n'ont pas empêché la pandémie de s'exporter vers d'autres pays où elles ont créé de nouveaux foyers. Maintenant, si des mesures draconiennes stabilisent à r≈0.15% et que pas de mesures spéciales conduisent à r≈20% (chiffre pifométrique par comparaison avec la grippe comme je l'explique ci-dessus), qu'obtient-on avec des mesures seulement demi-draconiennes ou quart-de-draconiennes ? 5% peut-être ? Je n'en sais rien, mais j'ai peut-être été trop pessimiste dans l'entrée précédente en tablant sur 15%.

Mise à jour () : Cette simulation suggère que des mesures d'hygiène (en l'occurrence, se laver les mains plus soigneusement) auraient un impact pas seulement sur la vitesse de propagation de l'épidémie mais sur le taux d'infection r (taux d'attaque) final. Mais je ne suis pas du tout certain d'interpréter correctement.

Parlant de pessimisme excessif, je note en passant que je suis tombé sur ce podcast du New York Times dans lequel Donald G. Mcneil Jr. affirme : If you have 300 relatively close friends and acquaintances, six of them would die in a 2.5 percent mortality situation. Autrement dit, en utilisant la valeur de 2.5% de mortalité, il ignore complètement la valeur de r (ou la suppose implicitement égale à 1, ou confond f et f·r, je ne sais pas), comme si tout le monde attrapait une maladie, ce qui est manifestement faux. Dans le cas de la grippe de 1918, à peu près 2% ou 3% de la population mondiale est morte (mais plutôt 15% des malades) ; là on parle de maximum 2% des personnes infectées, ce qui n'a rien à voir, parce que même si on ne prend aucune mesure exceptionnelle, tout le monde ne l'attrapera pas !

Ajout (2020-03-05) : Parlant de la grippe de 1918, on trouve des chiffres assez contradictoires à son sujet, certains donnant un taux de létalité de ≲5% voire ≲2.5% ce qui a conduit à des affirmations selon lesquelles Covid-19 lui serait comparable. Mais il semble que les bons chiffres soient vraiment plus proches de 10% voire 20% de taux de létalité et autour de 2% ou 3% de la population mondiale (voir aussi cet article pour d'autres données à son sujet).

Bref, si je devais absolument me mouiller à sortir une estimation, compte tenu des données que j'ai actuellement, je dirais f≈0.7% et r≈5% (je pense plutôt aux pays européens, mais en fait, il y a des facteurs qui me suggèrent qu'il n'y aura pas tant d'inégalité que ça entre pays, par exemple les pays qui ont les meilleurs systèmes de santés ont aussi des chances d'avoir le plus de personnes âgées), ce qui fait f·r ≈ 0.04% ou 3 millions de morts dans le monde. Mais je garde quand même comme estimation haute (au sens on ne dépassera probablement pas ça, mais il est possible qu'on s'en approche) f≈2% et r≈15% soit f·r ≈ 0.3% ou 20 millions de morts. A contrario, s'il y a moins de 500 000 morts (niveau typique de la grippe saisonnière), on pourra dire qu'on a eu de la chance et/ou que la pandémie a été très bien gérée.

Mise à jour () : Ici sur Twitter un virologue évoque le fait que r n'atteindra probablement pas 70% et suggère plutôt autour de peut-être 30% ou moins. ⁂ Ah, Marc Lipsitch semble être la source des 70% : il suggère en fait 40%≲r≲70% et précise qu'il aurait dû ajouter, en l'absence de mesures de contrôle efficaces ; mais le reste de ce qu'il dit rend clair que c'est une estimation au doigt mouillé. ⁂ Re mise à jour () : Voir les additions à la fin de ce billet pour le rapport entre r et R₀.

L'autre question importante à se poser (et que, de même que la valeur de r, personne ne semble discuter), c'est quand tout ça va se produire. Pour l'instant, si on écarte la Chine, on est sur une croissance exponentielle de pente β valant autour de 0.15/j, c'est-à-dire de temps caractéristique 1/β en gros une semaine ; si on regarde les rétablissements en Chine (ce qui donne des informations sur l'état de l'épidémie environ 17j plus tôt et permet donc de savoir ce qui se passait avant que soient prises les mesures d'isolation), la pente la plus élevée était autour de 0.25/j. Donc, livrée à elle-même, l'épidémie multiplie par 10 le nombre de malades en environ 10 jours, tandis qu'avec les mesures prises par les différentes autorités, cela passe à plutôt 15 jours (log(10)/β). Actuellement, en Europe, on est à un petit millier de cas : c'est-à-dire que pour environ un mois, donc jusque vers début avril, le grand public peut essentiellement ignorer cette épidémie : il y aura moins de 0.1% de la population infectée, ce n'est pas la peine de s'affoler (ce qui ne veut pas dire qu'on ne puisse rien faire, cf. ci-dessous). Savoir combien de temps ça durera ensuite, évidemment, est une tout autre paire de manche, mais une chose est sûr, c'est que r ne peut pas dépasser 1, donc une croissance exponentielle de pente 0.15/j ne peut pas durer plus que quelques mois : fin mai, on y verra forcément plus clair (je ne dis pas que ce sera « fini », de toute façon le virus ne va pas disparaître, mais je ne vais pas redire encore une fois que je ne comprends pas comment les épidémies s'arrêtent à une certaine valeur de r).

Que peut-on faire de ce temps, à part espérer que les pouvoirs publics prennent la mesure du phénomène ? Peut-être des choses comme ceci :

  • s'habituer à appliquer des règles d'hygiène (comme : arrêter de serrer la main ou de faire la bise spontanément aux gens qu'on croise, se laver régulièrement les mains, noter mentalement toutes les fois qu'on touche une surface possiblement contaminée et qu'on se touche le visage après pour essayer de le faire le moins souvent possible, etc.) qui sont utiles en général et pourraient l'être encore plus dans quelques semaines, mais dont on n'a pas forcément la pratique ;
  • faire progressivement des réserves (d'aliments, de médicaments utiles, etc.) en prévision de possibles pénuries mais sans se ruer ni tomber dans l'excès (il ne s'agit pas de survivre à un hiver nucléaire) ;
  • annuler ce qui peut être annulé en matière de déplacements, réunions de groupes, etc., surtout pour tout ce qui tombe entre début avril et fin mai, ou prévoir ce qu'on fera si c'est annulé, et plus généralement prévoir tout ce qu'on peut pour minimiser les contacts notamment sur cette période ;
  • chercher à vérifier que les amis et proches se préparent aussi (et se renseigner sur ce qu'ils font et échanger des idées) ;
  • écrire des élucubrations dans son blog pour se donner l'impression qu'on fait quelque chose et pour se plaindre que personne ne donne les chiffres qu'on voudrait voir donnés ;
  • ne pas se ruer sur la chloroquine dont on n'a au mieux que quelques indications suggérant une possible efficacité et certainement pas une solution miracle, ni à plus forte raison vers n'importe quelle autre solution miracle ;
  • relire le roman dont est tiré la citation qui suit et qui, malgré son sens métaphorique assez transparent, peut aussi se lire au premier degré.

Les fléaux, en effet, sont une chose commune, mais on croit difficilement aux fléaux lorsqu'ils vous tombent sur la tête. Il y a eu dans le monde autant de pestes que de guerres. Et pourtant pestes et guerres trouvent les gens toujours aussi dépourvus. Le docteur Rieux était dépourvu, comme l’étaient nos concitoyens, et c’est ainsi qu'il faut comprendre ses hésitations. Quand une guerre éclate, les gens disent : Ça ne durera pas, c'est trop bête. Et sans doute une guerre est certainement trop bête, mais cela ne l'empêche pas de durer. La bêtise insiste toujours, on s'en apercevrait si l'on ne pensait pas toujours à soi. Nos concitoyens à cet égard étaient comme tout le monde, ils pensaient à eux-mêmes, autrement dit ils étaient humanistes : ils ne croyaient pas aux fléaux. Le fléau n'est pas à la mesure de l'homme, on se dit donc que le fléau est irréel, c'est un mauvais rêve qui va passer. Mais il ne passe pas toujours et, de mauvais rêve en mauvais rêve, ce sont les hommes qui passent, et les humanistes, en premier lieu, parce qu'ils n'ont pas pris leurs précautions. Nos concitoyens n'étaient pas plus coupables que d'autres, ils oubliaient d'être modestes, voilà tout, et ils pensaient que tout était encore possible pour eux, ce qui supposait que les fléaux étaient impossibles. Ils continuaient de faire des affaires, ils préparaient des voyages, et ils avaient des opinions. Comment aurait-ils pensé à la peste qui supprime l'avenir, les déplacements et les discussions ? Ils se croyaient libres et personne ne sera jamais libre tant qu'il y aura des fléaux.

— Albert Camus, La Peste

Mises à jour et compléments () : Je croule un peu sur les informations à ajouter, alors j'ai surtout créé un fichier pour les rassembler. Néanmoins, je peux ajouter quelques points supplémentaires en lien avec ce que j'ai évoqué plus haut :

  • Il semble bien que le bon terme pour r soit taux d'attaque (taux d'attaque final, peut-être ? en tout cas quelque chose en rapport avec ces mots). La terminologie épidémiologique est incroyablement merdique avec des mots comme taux qui désignent des choses sans aucun rapport (certains sont essentiellement une probabilité, d'autres sont essentiellement un nombre de personnes, d'autres sont homogènes à l'inverse d'un temps). Ceci (extrait du livre Principles of Epidemiology in Public Health Practice du CDC), notamment les sections 2 & 3, est encore ce que j'ai trouvé de moins mauvais pour les expliquer.
  • [Essentiellement recopié de ce fil Twitter :] Une amie m'a expliqué le rapport que je cherchais à comprendre entre le taux de reproduction de base R₀ (= nombre de personnes que chaque personne infectée infecte à son tour) et le taux d'attaque final r (= proportion de la population qui sera infectée à terme pendant l'épidémie) : dans le modèle le plus simpliste, c'est r = 1 − 1/R₀ ; en effet, tant que le taux de reproduction est >1, l'épidémie croît exponentiellement ; mais si une proportion r a déjà été infectée, le taux effectif de reproduction est ramené à R₀·(1−r) parce que, en supposant que les personnes déjà infectées sont immunisées et sont également réparties dans la population (j'ai bien dit, modèle simpliste !), seule une proportion 1−r est encore susceptible d'être contaminée ; donc l'épidémie cesse de progresser lorsque R₀·(1−r) redescend à 1, c'est-à-dire r = 1 − 1/R₀. C'est probablement la raison pour laquelle certains ont prédit r ~ 70% en l'absence de contre-mesures efficaces pour réduire R₀ qui a été initialement mesuré à R₀ ~ 3. Encore une fois, ceci est un modèle extrêmement simpliste. • Re mise à jour : voir l'entrée suivante pour un modèle moins simpliste (mais pas forcément plus juste pour autant !).
  • On peut encore analyser le nombre de reproduction (= nombre de personnes que chaque personne infectée infecte à son tour) comme produit d'un taux d'attaque secondaire (= probabilité qu'un « contact » avec une personne infectée cause une infection ; j'ai bien dit que la terminologie était merdique !) par un nombre de contacts pendant la période infectieuse, ce qui suggère deux pistes pour diminuer le nombre de reproduction : diminuer les contacts ou diminuer la probabilité qu'ils soient contaminants. (Si R₀~3, il s'agit pour endiguer l'épidémie d'avoir trois fois moins de contacts, ou qu'ils soient trois fois moins souvent contaminants, ou peut-être 1.7 fois moins de contacts qui soient 1.7 fois moins contaminants, ou quelque chose comme ça.) A priori j'ai tendance à dire que la Chine a pris des mesures largement excessives (voir ce documentaire d'Arte pour un reportage « de l'intérieur » à Pékin ; cela me donne l'impression de diminuer par un facteur largement plus que trois le nombre de contacts, sans même parler des mesures de non-contamination qui ont été prises en plus !) ; mais a contrario, le fait que le nombre de cas hors de Chine semble maintenant progresser selon une croissance exponentielle de pente β valant autour de 0.20/j, c'est-à-dire de temps caractéristique 1/β en gros 5j, pas tellement différente de ce qu'elle était en Chine avant que la moindre mesure soit prise, suggère que le monde hors de la Chine n'a vraiment pas pris des mesures suffisantes.
  • Ce rapport du CDC décrit un taux d'attaque secondaire (probabilité d'infecter lors d'un contact, donc) de 0.45% lors des contacts « proches » et 10.5% pour les membres de la maisonnée. Pour arriver à R₀ de l'ordre de 2 ou 3, faut-il vraiment croire qu'on ait ~500 contacts « proches » pendant une période d'incubation du virus ? Je trouve ça assez extraordinaire. À creuser, donc.
  • Pour ce qui est des mesures d'hygiène individuelles, comme on a encore environ un mois pour se préparer à une épidémie de grande ampleur, je suggère de s'habituer dès maintenant à jouer au petit jeu suivant dans le but de faire attention à toutes les fois où nous nous touchons le visage sans y prendre garde : il y a trois états dans le jeu, « mains propres », « mains sales » et « perdu » ; quand on se lave les mains (soigneusement !), on passe de « mains sales » à « mains propres » ; si on touche quoi que ce soit qui aurait pu être touché par quelqu'un d'autre, on passe de « mains propres » à « mains sales » ; si on se touche le visage dans l'état « mains sales », on a perdu. Le but du jeu est de voir combien de temps on arrive à tenir sans perdre !

↑Entry #2638 [older| permalink|newer] / ↑Entrée #2638 [précédente| permalien|suivante] ↑

↓Entry #2637 [older| permalink|newer] / ↓Entrée #2637 [précédente| permalien|suivante] ↓

(lundi)

Quelques pensées sur Covid-19

Depuis la fin janvier je répète à qui veut l'entendre que je ne crois pas du tout aux chances d'arriver à contenir une épidémie dont le taux de reproduction est nettement supérieur à 1 dès lors que celle-ci a pris un peu d'ampleur : il s'agit littéralement d'essayer d'arrêter une réaction en chaîne, et plus le temps passe plus ça devient difficile à cause du nombre de malades qui augmente (donc il est naïf de se dire hum, les choses vont peut-être s'améliorer si elles ne s'améliorent pas immédiatement suite aux mesures qu'on prend). Mais désormais je n'ai plus de doute : vu le nombre déjà assez important de cas de Covid-19 en-dehors de la Chine, et les mises en garde pas très rassurantes de l'OMS, à moins de croire que tous ces pays soient capables d'appliquer immédiatement des méthodes d'isolement encore plus efficaces que la Chine et que la Chine soit capable de rendre les siennes encore beaucoup plus efficaces, deux hypothèses qui ne me semblent complètement impossibles à croire, le mauvais génie s'est échappé de la bouteille et on ne pourra plus l'y faire rentrer. Si le seuil de pandémie n'est pas encore franchi, il le sera. La question est de savoir quelles conséquences elle aura, et ce qu'on peut y faire. (Les mesures d'isolement, notamment, même si elles n'ont plus de chances d'empêcher une pandémie, peuvent tout à fait avoir un intérêt s'il s'agit de la ralentir, c'est-à-dire de gagner du temps, si on arrive à savoir quoi faire du temps ainsi gagné.)

Mise à jour () : on me signale ce texte (publié avant-hier) écrit par un virologue et qui formule un certain nombre de conseils et méta-conseils sur la communication au public : il explique clairement, notamment, qu'il pense qu'il est temps d'arrêter de laisser croire le public qu'on pourra contenir la pandémie et qu'il faut maintenant lui donner des conseils sur comment s'y préparer et comment la gérer.

Je reconnais néanmoins ne pas bien comprendre la dynamique des épidémies. Les raisons, notamment, pour lesquelles la grippe saisonnière reste saisonnière, et pourquoi elle n'est pas permanente, m'échappent assez. (Certainement cela a un rapport avec le fait que l'aérosolisation du virus fonctionne plus ou moins bien selon l'humidité de l'air donc selon les saisons, d'une part, et d'autre part avec l'immunité déjà installée dans la population, mais les rapports précis ne sont pas clairs.) Qu'est-ce qui fait, notamment, qu'une épidémie reste contenue à un pays, et qu'une pandémie ne touche pas toute la population ? Qu'est-ce qui fait qu'elle s'arrête dans le temps ? Je n'ai pas les idées claires. Et notamment, quantitativement, je ne sais pas ce qui permet de prédire, i.e., de quels facteurs dépend, la proportion r des personnes qui seront finalement infectées. J'aimerais qu'on interroge un peu plus les épidémiologistes qui doivent avoir des modèles sur cette question (et doivent avoir essayé de fitter ces modèles sur les observations des dernières semaines !), parce qu'actuellement c'est vraiment le nombre crucial : essentiellement, votre probabilité d'attraper cette maladie.

Je vais quand même essayer de synthétiser quelques informations que j'ai pu glaner çà et là en ligne (dans des sources forcément très douteuses et souvent contradictoires, donc caveat lector), en pestant sur le fait que les choses ne soient pas présentées comme je le voudrais.

La grippe « espagnole » de 1918 (qui n'a d'espagnol que le nom, parce qu'elle venait probablement de Chine ou en tout cas d'Asie) a touché r≈25% de la population mondiale et a tué f≈15% de ces ~25% (si on compte les complications), c'est-à-dire f·r≈3% (chiffres hautement imprécis, les sources varient énormément, mais l'ordre de grandeur doit être raisonnable), représentant un nombre hallucinant de quelque chose comme 50 millions de morts. Pour la grippe saisonnière, de nos jours, le taux d'infection r (annuel) semble tourner autour de 10%, et le taux de létalité f parmi ces cas semble tourner autour de 0.05%, donc f·r≈0.005% de la population mondiale, ce qui représente quand même quelque chose comme 400 mille morts (par an). Dans le cas de Covid-19, une estimation préliminaire semble donner f≈2% (proportion des cas conduisant à un décès), même s'il y a espoir que ce soit surévalué ou que ça baisse ; quant à r, je viens de dire que je ne comprends pas de quoi il dépend, mais il restera certainement inférieur à celui de la grippe « espagnole » (le taux basique de reproduction semble comparable, et on peut quand même espérer que les mesures pour éviter la contamination soient plus efficaces qu'en 1918) : s'il est dans les 15%, on peut craindre que décède au cours de cette pandémie f·r≈0.3% de la population mondiale. Ça représente quand même quelque chose comme 20 millions de morts !

Ça m'agace un petit peu de me retrouver à faire ces calculs tout seul sur un coin de blog alors que ça devrait être les chiffres dont on discute (au lieu de compter les cas et les morts en Chine ou ailleurs, qui n'ont d'intérêt que comme entrée à un modèle qui permettrait d'estimer r et f), et alors qu'il y a des gens infiniment plus compétents que moi pour faire de telles estimations.

Ceci étant, si la mort de entre 0.1% et 1% de la population mondiale représente des dizaines de millions de morts, ce qui est gigantesque, on peut se dire que c'est parce que la population mondiale est gigantesque : finalement, ça veut dire que 99% voire 99.9% des gens ne meurent pas (soit parce qu'ils ne tombent pas malades, soit parce qu'ils tombent malade et guérissent), et dit comme ça c'est peut-être moins effrayant ; après tout, 0.8% de la population mondiale meurt chaque année de toutes causes confondues.

Mais bien sûr, les conséquences de la pandémie ne s(er)ont pas uniquement dans les morts qu'elle cause(ra). J'ai dit ci-dessus que je ne savais rien sur quoi penser du taux d'infection r, mais si on regarde le taux de létalité f de Covid-19, sa valeur estimée à ~2% cache beaucoup de chose. D'abord, il y a de grandes inégalités selon l'âge : sur la même base, pour un adulte de <50 ans en bonne santé dans un pays développé (si le système de santé n'est pas totalement submergé), il serait plutôt de l'ordre de grandeur de 0.2%, tandis que pour quelqu'un de ≥70 ans, ce serait plutôt dans les 15% (et il peut être énorme pour quelqu'un souffrant de conditions préexistantes comme diabète, problèmes cardiaques ou respiratoires). (Ceci étant, les retraités, par exemple, peuvent sans doute prendre plus de précautions pour s'isoler, ce qui donnerait un produit f·r moins inégal.)

Ensuite, « ne pas mourir » n'est pas la seule chose qu'on peut vouloir, et, par exemple, souffrir le martyr pendant deux-trois semaines sur un lit d'hôpital improvisé par un système de santé surchargé, en étant tenu en isolement et considéré comme un paria à cause de la peur de la contamination, ce n'est pas quelque chose que je souhaite à qui que ce soit. Les informations sur le tableau clinique sont assez sommaires, mais je lis qu'il y a g≈15% des cas qui sont graves (qu'est-ce que ça veut dire précisément ? et quel serait le chiffre correspondant pour la grippe saisonnière ?) et ~5% qui sont critiques : si on a chacun g·r≈3% de chances de tomber « gravement » malade (toujours en tablant sur r≈15% mais je n'en sais rien), c'est aussi assez inquiétant. Dans les cas typiques, la maladie semble durer 17 jours (entre les premiers symptômes et le rétablissement), autre information qu'il est étonnamment difficile de trouver en ligne.

Évidemment, un facteur significatif d'ignorance tourne autour du nombre de cas très mineurs (qui ne seraient pas diagnostiqués) voire complètement asymptomatiques : pour les estimer correctement, il faudrait que les autorités chinoises fissent des tests aléatoires dans la population des zones infectées, ce qu'elles n'ont pas fait, ou alors pas communiqué à ce sujet. On doit pouvoir avoir des estimations indirectes grossières (et/ou des bornes), cependant : soit par un raisonnement bayesien (en cherchant quelle est la probabilité que quelqu'un ayant des symptômes légers soit identifié comme ayant cette maladie précise), soit en extrapolant la proportion de cas à différents niveaux de gravité en comparant à des maladies analogues (je veux dire, je suppose que la proportion des cas fatals et critiques sur les cas graves doit donner une certaine estimation de la proportion des cas graves sur les cas bénins), soit en essayant de reproduire les observations dans des modèles épidémiologiques. (Ce texte écrit par l'équipe de John Hopkins responsable de l'outil graphique impressionnant déjà lié ci-dessus suggère, si je comprends bien, que le nombre réel de cas serait 5 à 10 fois plus élevé que le nombre de cas signalés ; mais cela date d'il y a un mois, et ils n'ont pas mis à jour leur modèle depuis, donc je ne sais pas s'ils maintiennent cette conclusion.) En un certain sens ce serait une bonne nouvelle, parce que cela signifie que le taux de létalité f serait plus faible qu'estimé (puisque les cas graves et a fortiori mortels se détectent bien mieux que les cas légers et a fortiori asymptomatiques), et pour autant le taux final d'infection r n'a pas spécialement de raison d'être plus élevé ; mais la contrepartie, c'est que cela rend encore plus difficilement crédible d'arriver à arrêter la réaction en chaîne.

Mise à jour () : Je vois passer cet article (Characteristics of and Important Lessons From the Coronavirus Disease 2019 (COVID-19) Outbreak in China — Summary of a Report of 72 314 Cases From the Chinese Center for Disease Control and Prevention) qui donne quand même des données un peu précises sur la répartition des cas par niveau gravité et d'autres données statistiques du même genre.

Ce qui est aussi très préoccupant, c'est de savoir comment les sociétés, des pouvoirs publics aux individus en passant par les autres structures de la société, vont réagir à une pandémie de cette nature. J'ai déjà parlé de mes inquiétudes quant à l'instabilité de nos sociétés. Or les dysfonctionnements à prévoir dus aux mises en quarantaine, aux fermetures (de frontières et autres structures), à la panique généralisée, et les problèmes en cascade que cela va causer, avec leurs répercussions économiques, sociales et politiques, tout ça m'inquiète énormément. Je ne crois pas que le monde va s'effondrer pour autant : mais si le taux de létalité f tournait autour de 20%, je serais vraiment très inquiet (en plus des chances de mourir directement, bien sûr), et il n'est pas du tout invraisemblable qu'un tel virus émerge dans les quelques décennies à venir ; peut-être que des historiens peuvent en dire plus sur la manière dont la grippe de 1918 a impacté la société (je suppose que c'est difficile à démêler de la première guerre mondiale), mais je pense que le monde d'un siècle plus tard est beaucoup plus interdépendant et que les conséquences sociétales seraient plus énormes.

Il y aura évidemment une saturation du système de santé déjà au bord de l'apoplexie faute de moyens (en France et dans de nombreux autres pays). Cette saturation veut dire qu'en plus des morts directement liés à l'épidémie il faudra compter ceux qui n'auront pas pu recevoir de traitement pour des problèmes de santé sans aucun rapport. (Sans parler de ceux qui, au cours d'un traitement pour de tels problèmes, contracteront Covid-2019 parce que le manque de moyens empêchera une isolation satisfaisante des malades. Et des surinfections nosocomiales.) Le silver lining pourrait être de persuader les politiques de l'importance de mettre de l'argent dans les hôpitaux, mais je ne sais pas si j'y crois vraiment, malheureusement.

Il y aura aussi peut-être des problèmes de ravitaillement. Je ne sais pas jusqu'où cela peut aller. Comment les choses se passent-elles à Wuhan ? Ajout () : il est donc probablement sensé de recommander au public de faire dorénavant des stocks de denrées non-périssables et de médicaments généralement utiles (et peut-être de masques chirurgicaux, cf. ci-dessous), mais sans se ruer pour éviter de créer déjà des pénuries (on peut juste prendre l'habitude d'acheter quelques aliments de réserve supplémentaires à chaque fois qu'on va faire les courses).

Au-delà de ça, on peut craindre des effets à plus long terme sur la société.

Je crains notamment un regain d'autoritarisme. Les démocraties occidentales sont déjà lourdement attirées par l'autoritarisme dès qu'on agite une peur même complètement irrationnelle (le terrorisme, par exemple, suscite des réactions complètement disproportionnées en France par rapport à sa dangerosité réelle de quelques centaines de morts en vingt ans) : alors une maladie qui peut faire des centaines de milliers de morts en France pourra bien servir à justifier tout ou n'importe quoi (vous savez, l'article super dangereux qu'on a laissé en numéro 16 de la Constitution française comme une espèce de mine prête à exploser l'état de droit ?). Une fois que quelqu'un prend un pouvoir, même pour une raison légitime, il ne veut jamais le lâcher (voyez la manière dont l'état d'urgence a été rendu permanent en France suite à quelques attentats vite érigés en tragédie nationale).

Et la panique va venir avec son propre lot de conséquences terrifiantes (insérer ici une citation célèbre de FDR) : on a déjà vu un déferlement de racisme contre les asiatiques, les choses changeront peut-être un petit peu quand la maladie sera installée dans le monde entier (encore que certains rappelleront toujours que ça a commencé en Chine), mais il faut s'attendre à toutes sortes de théories du complot (il y en a déjà), mouvements de rejet de la science, que sais-je encore. Tout ça laissera des traces durables, même quand la pandémie sera finie (ou qu'elle sera devenue saisonnière et qu'on s'y sera habitués — encore une fois, je ne sais pas ce qui fait qu'on tombe dans tel ou tel scénario).

Bon, si au moins la peur incite les gens à quelques mesures d'hygiène et à porter des masques… Là aussi, j'aimerais en savoir plus. J'ai cru comprendre quelque part (mais je veux bien plus d'information !) que ceux-ci offrent une protection à peu près nulle dans le sens de protéger celui qui le porte des virus qui pourraient venir de l'extérieur, par contre ils fournissent une protection assez sérieuse dans le sens de protéger l'extérieur si celui qui le porte est contagieux (noter qu'il peut très bien être asymptomatique, et donc l'ignorer lui-même). (Ajout () : c'est ce que confirme plus ou moins ce passage d'une FAQ mise en ligne par une virologue vulgarisatrice.) Si c'est correct, ça pose des questions intéressantes : les gens (qui sont globalement égoïstes) vont croire que les masques vont les protéger, mais peut-être vaut-il mieux les laisser croire ça pour qu'ils en portent et que ça peut effectivement contribuer à limiter la pandémie. Dans la mesure où les masques sont inefficaces, d'ailleurs, c'est apparemment parce qu'ils sont mal employés : il serait peut-être temps de mettre en ligne des vidéos expliquant comment les positionner correctement sur le visage, alors ! (Ajout : il y a quelques recommandations de l'OMS ici.)

Ajout () : En matière de conseils d'hygiène, outre les choses qu'on répète toujours (se laver les mains souvent ! éternuer dans son coude et pas dans sa main, et porter un masque si on tousse ou on éternue, cf. ci-dessus), et des choses de bon sens mais qu'il serait peut-être utile de dire un peu plus fort (éviter toutes sortes de rassemblement, arrêter de serrer la main et de faire la bise aux gens (ah, si ça pouvait être l'occasion de mettre fin à cette pratique sociale de se saluer par contacts physiques !)), il y en a un que je trouve intéressant, c'est de prendre l'habitude de remarquer mentalement toutes les fois qu'on se touche le visage (dans le but de minimiser ces occurrences).

J'avais une autre question à évoquer sur laquelle je n'ai pas les idées claires : j'ai tendance à imaginer qu'en prenant des mesures d'isolement et de quarantaine, on ne se contente pas de ralentir la propagation de la maladie, on introduit un mécanisme de sélection sur le virus, parce que les souches ou variantes les moins virulentes, donc les moins facilement détectables (et dont les malades seront le moins probablement mis à l'isolement), parviendront à se reproduire le plus facilement ; les mesures sanitaires introduiraient donc une pression sélective sur le virus pour causer les symptômes les plus légers possibles (et ce, pour n'importe quelle maladie, mais particulièrement dans ce cas où la maladie est nouvellement passée chez l'homme et où on prend des mesures vraiment exceptionnelles). Je serais donc tenté de prédire que la létalité devrait décroître avec le temps (pas juste qu'on la mesure plus faible parce qu'on découvrirait de nouveaux cas bénins, mais parce qu'objectivement ils deviendraient plus nombreux en proportion). Mais ce raisonnement est-il correct ? Il y a plusieurs hypothèses sous-jacentes qui ne sont pas forcément vérifiées : l'une est qu'il est effectivement physiologiquement possible, voire facile, pour le virus d'évoluer vers des formes moins virulentes (je n'ai aucune idée de si c'est le cas) ; une autre, plus subtile, est que les formes moins virulentes seraient effectivement en concurrence avec les plus virulentes (c'est-à-dire qu'elles seraient assez semblables pour conférer une immunité mutuelle) ; mais il y a peut-être d'autres hypothèses dont je ne me rends pas compte ou bien des fautes de raisonnement dans ce que j'ai écrit. Peut-être que l'effet est bien trop faible pour être détectable. Je n'en sais rien. • Mise à jour () : cet article (On the origin and continuing evolution of SARS-CoV-2) publié dans National Science Review semble confirmer que le mécanisme que j'évoque ci-dessus se produit. • Re mise à jour : On me signale que la notion de virulence (et donc la conclusion sur le mécanisme de sélection) utilisée dans cet article est à prendre avec des pincettes.

Mise à jour : une sorte de suite à cette entrée de blog ici.

↑Entry #2637 [older| permalink|newer] / ↑Entrée #2637 [précédente| permalien|suivante] ↑

↓Entry #2636 [older| permalink|newer] / ↓Entrée #2636 [précédente| permalien|suivante] ↓

(vendredi)

Nouvelles en vrac (lassitude, énervement, déménagements, moto, Fourier et Mandelbrot)

Voilà maintenant un mois que nous avons déménagé du rez-de-chaussée vers le 2e étage, et je ne me sens toujours pas « chez moi » dans ce nouvel appartement (au contraire, presque : plus le temps passe plus je ressens l'envie de rentrer « chez moi »). Nous avons certes réglé quelques uns des N problèmes qui se posaient (comme le robinet de la cuisine complètement déglingué que nous avons fait remplacer, et la salle de bain était insuffisamment chauffée où nous avons mis un petit chauffage d'appoint que nous allumons pour prendre nos douches), mais d'autres problèmes sont apparus ou devenus manifestes comme un voisin qui joue du piano quasiment tous les jours et qui commence sérieusement à me taper sur les nerfs[#]. Et en tout état de cause, même si nous avons déménagé les affaires vraiment importantes, il reste beaucoup de choses à faire ou à déplacer (ou des choses un peu pénibles, comme la machine à laver), et je suis vraiment fatigué[#2] de toute cette histoire.

[#] Il va falloir que je m'achète un casque à compensation de bruit avant de devenir fou (en ce moment, je « compense » en mettant ma propre musique assez fort pour couvrir la sienne, ce qui n'est pas une bonne idée pour plein de raisons, notamment parce que souvent je n'ai pas envie d'écouter de la musique, juste du silence). Je me demande ce que ces choses valent, et notamment ① si elles sont efficaces si je veux juste écouter du silence et ② si elles sont efficaces pour couvrir les sons faibles (le piano n'est pas trop fort, il est juste au-dessus de mon seuil d'audition — ce qui ne l'empêche pas de devenir insupportable à la longue — et je me demande si les casques à compensation de bruit ne seraient pas juste inopérants dans ce domaine, étant plutôt prévus pour couvrir des bruits importants).

[#2] J'ai plus ou moins renoncé à (ou au moins, reporté sine die) l'idée que j'avais de faire imprimer des cartes de Paris et de sa région pour mettre aux murs, par exemple : j'ai tellement de choses à faire avant et je manque d'énergie pour ce genre de trucs.

Et il reste surtout à vendre l'appartement du rez-de-chaussée, ce qui promet d'être aussi une opération fatigante. (Une voisine est intéressée, pour y loger sa mère, mais elle nous fait une offre très inférieure à ce que les agents immobiliers nous disent être le prix du marché.) Au minimum, il nous faut faire faire de petits travaux de peinture (il y a une trace d'un ancien dégât des eaux, maintenant réparé et complètement sec, mais qui ne fait pas très joli dans la cuisine). Ensuite, nous hésitons entre passer par une agence (qui prendra une commission assez énorme), ou bien essayer de trouver un acheteur nous-mêmes (par relations, par réseaux sociaux, ou par une petite annonce). Si par hasard quelqu'un est intéressé, ou connaît quelqu'un d'intéressé, par un deux-pièces de 40.24m², avec une terrasse de 16.90m² et un jardin de 45.53m² (si j'en crois les plans), en rez-de-chaussée d'un immeuble parisien de 5 étages datant de 1991, sur la Butte-aux-Cailles, il peut toujours se dénoncer. (La situation de l'immeuble est idéale, dans une rue tranquille mais très proche à la fois du centre Italie 2 et des restaurants et bars du quartier, à 10min à pied des stations Corvisart et Place d'Italie. La copropriété marche bien. L'appartement est un peu sombre mais très calme. Il faut prévoir quelques travaux de peinture et de changer une moquette, mais rien de substantiel n'est nécessaire.)

Du côté du déménagement de mon bureau à Palaiseau, la situation n'a guère évolué : il y a eu des progrès les quelques premiers jours mais, depuis, on ne sait pas bien ce qui se passe. Des ouvriers continuent d'arpenter les couloirs, et manifestement ils font des choses : mais ce que sont ces choses m'échappe totalement[#3], parce de ce que je vois rien ne bouge.

Pourtant, il y a plein de choses sur lesquelles j'aimerais bien voir du progrès ! On nous a promis une solution temporaire en attendant la pose de stores sur la façade sud (où est mon bureau, et où le soleil en journée empêche vraiment de lire un écran d'ordinateur orienté contre lui), mais même la solution temporaire ne se matérialise pas. L'allumage des lumières (qui est généralement automatique : la plupart des salles n'ont pas le moindre interrupteur ; mais même dans celles qui en ont, leur effet est, disons, incertain) reste très souvent aléatoire. Je réclame à qui veut l'entendre l'installation de tableaux blancs (ou mieux, noirs, mais ne rêvons pas) dans les salles de réunion qui sont dotées d'un équipement vidéo ultra-moderne mais pas de bêtes tableaux, parce que manifestement un crétin de décideur a pensé que les chercheurs, quand ils se réunissent pour discuter, ils se montrent juste des présentations PuissancePoints sur un écran (comme je soupçonne le crétin en question de faire à longueur de journée) : pour l'instant, tout ce que j'ai obtenu est que l'item « tableau blanc » figure dans le catalogue informatique des salles (avec la valeur « absent » pour les salles de réunion, donc…). Je me demande si le système d'ouverture des portes marchera un jour correctement (actuellement, nous devons « mettre à jour » nos badges d'accès tous les jours en arrivant, en bippant à un point de mise à jour, mais parfois la mise à jour ne fonctionne pas ; cf. ce fil Twitter). Je peste aussi contre les psychorigides du genre « hygiène et sécurité » (j'ai une dent contre cette catégorie particulière de nuisibles) qui ont décidé que certaines portes d'accès vers l'extérieur seraient sous alarme et donc interdites d'usage en circulation normale[#4]. Et même si ça ne concerne pas vraiment le bâtiment de Télécom, j'attends avec impatience la fin de la réalisation de la place qui se situe en face, la place Marguerite Perey (nommée en l'honneur de la découvreuse du francium), qui, pour l'instant, n'est qu'un champ de boue où, là aussi, des gens s'activent et font manifestement des choses, mais je ne vois pas de progrès détectable ; j'attends ça surtout parce que, quand la place sera finie, ce sera une source de boue importante en moins quand je viens en moto (cf. ci-dessous).

[#3] Il y a deux semaines, quelqu'un est rentré dans mon bureau (sans frapper, et alors que j'étais en slip parce que je me changeais de mes affaires de moto), il a fait deux secondes de peinture et il est reparti. Je me demande bien à quoi ça rime.

[#4] À l'ENS, il y avait une porte de sortie sur la rue Rataud que je mettais un point d'honneur à emprunter régulièrement, en déclenchant l'alarme à chaque fois, pour protester contre la décision complètement aberrante de mettre cette porte sous alarme. J'encourage vivement ce type d'action de désobéissance civile : surtout, n'hésitez pas à déclencher les alarmes des portes de sortie utiles, si ce mouvement prend de l'ampleur les imbéciles finiront peut-être par comprendre qu'il faut arrêter de fermer des portes à la circulation normale.

Ce n'est peut-être pas l'endroit idéal pour le mentionner, après m'être plaint incessamment que le transport entre Paris et Palaiseau était nul et que le bâtiment était mal foutu, mais l'équipe dont je fais partie ouvre un poste de professeur en cryptographie [il doit bien y avoir une version en français de l'annonce, mais je ne la trouve pas] : les personnes intéressés, ou les personnes qui connaissent des personnes susceptibles de l'être, peuvent se mettre en contact avec mon collègue et néanmoins amis Bertrand Meyer, comme indiqué dans l'offre d'emploi que je viens de lier.

Pour l'instant, j'ai dû faire à peu près ¾ de mes trajets domicile-travail en moto et ¼ en transports en commun. Mon idée initiale était de viser plutôt des proportions contraires (parce que j'aime certes beaucoup rouler en moto, mais je n'aime pas trop l'idée de risquer inutilement ma vie pour aller enseigner la transformée de Fourier), mais, même en écartant la grève historique de décembre-janvier, il faut avouer que c'est déprimant à quel point les transports en commun sont vraiment mauvais[#5]. De ce que j'ai observé pour l'instant, le plus mauvais, ce n'est pas tellement le RER B, mais l'espèce de bus navette pourri qui relie la gare de Massy-Palaiseau au plateau de Saclay en passant par un itinéraire improbablement inefficace que j'imagine censé plaire à tout le monde et qui, en fait, ne doit faire que des mécontents : il faudrait au minimum doubler ou tripler la fréquence de cette navette (ou mieux, doubler la fréquence et en même temps prévoir plusieurs lignes avec des trajectoires plus directes) pour obtenir une desserte correcte et adaptée à la densité du plateau. L'autre solution, consistant à rester dans le RER quelques arrêts de plus pour en descendre au Guichet et monter sur le plateau à pied par les escaliers, est plus satisfaisante comme promenade, mais prend encore plus de temps[#6]. (Finalement, j'ai tendance à prendre la navette pour aller au bureau et les escaliers pour en revenir : pas par flemme de monter les escaliers — d'ailleurs, les descendre est plutôt plus pénible pour les articulations — mais parce que je suis plus pressé à l'aller et qu'au retour monter dans le RER au Guichet augmente les chances d'avoir une place assise.)

[#5] Insérer ici un rant sur le fait que les grands génies qui ont cru bon de chercher à créer une Silicon Valley française sur le plateau de Saclay ont repoussé à plus tard le problème d'avoir des transports qui marchent, et les gens qui ont été exilés sur ledit plateau en font les frais. Et qui croit une seule seconde à l'idée que la ligne 18 du métro, censée desservir le plateau, sera vraiment construite un jour ? Elle a déjà été repoussée à une date mal spécifiée, et il faut être bien naïf pour penser que ce n'est pas une annulation qui ne se dit pas.

[#6] Je devrais peut-être envisager de m'acheter une trottinette électrique ou une roue électrique ou quelque chose comme ça, qui soit transportable dans le RER, et qui rendrait acceptable le temps de trajet entre le Guichet et mon bureau. Mais comme il y a un passage dans les bois, ce n'est pas évident que ce soit vraiment faisable.

On m'avait vendu les transports en commun en me disant mais tu verras, dans le RER, tu pourras bosser, donc ce ne sera pas du temps perdu. Le problème avec ça, c'est que d'une part, on est tellement serrés dans le RER que même si j'ai une place assise, je rechigne à déranger mes voisins en farfouillant dans mon sac pour y trouver un article de maths à lire, et d'autre part, de toute façon, le trajet en RER proprement dit ne prend qu'environ 20min sur un trajet d'environ 65min de porte à porte (énormément de temps est perdu à attendre le métro, changer du métro au RER, attendre le RER, changer du RER à la navette de bus, attendre la navette… et ce temps est fractionné de manière qu'il est difficile de s'en servir pour travailler). En fait, le temps pendant lequel je ne peux pas travailler dans le trajet en transports en commun reste supérieur à la durée du trajet en moto, donc l'argument de pouvoir travailler dans les transports est assez foireux. (En revanche, l'argument de moindre dangerosité, lui, est beaucoup plus convaincant.)

En moto, je mets entre 25min et 30min de porte à porte. C'est un peu trompeur de compter de porte à porte, parce que la moto fait perdre pas mal de temps à s'équiper avant, justement, de franchir la porte, mais j'ai réussi à optimiser un peu les choses jusqu'à ce que le changement d'appartement me fasse perdre cette optimisation ; d'ailleurs, quel que soit mon mode de transport, je perds pas mal de temps à rassembler tout mon attirail avant de sortir de l'appartement. Il faut peut-être plutôt compter quelque chose comme 45min pour la moto (contre 65min par les transports en commun, donc). J'ai la chance que le trajet aller pour moi (Paris→Palaiseau, donc) est dans quasiment n'importe quelle circonstance beaucoup plus fluide que le trajet retour (Palaiseau→Paris), sur lequel j'ai moins de contraintes et plus de flexibilité.

Il y a quand même au moins deux circonstances où je ne préfère clairement ne pas prendre la moto : l'une est quand je sais que je rentrerai à une heure de pic de circulation (ce qui me forcerait soit à faire de l'inferfile, et j'ai déjà expliqué que je n'aime vraiment pas ça, soit à prendre beaucoup de temps[#7] à rentrer) ; l'autre est quand il fait vraiment moche. Le problème du « vraiment moche » ce n'est pas juste la pluie en elle-même, c'est aussi la quantité hallucinante de boue sur le plateau à cause de tous les travaux partout : il suffit qu'il tombe quelques gouttes pour que, même en roulant très lentement et en faisant attention où je pose mes roues, j'arrive crotté comme si j'avais fait des heures de motocross à travers les bois (voir ici et là).

[#7] Bon, beaucoup de temps est relatif : même quand la circulation est très chargée, le pire temps de trajet renvoyé par Google pour une voiture n'atteint quasiment jamais les 65min typiques si je prends les transports en commun (en fait, il ne l'a dépassé essentiellement que pendant les grèves où il n'y avait, justement, pas de transports en commun).

Mais quand il n'y a ni circulation pénible ni mauvais temps ni boue ☺️ je continue à aimer énormément la moto[#8]. J'ai dépassé les 3000km au totaliseur du joujou que je me suis acheté en septembre (en cinq mois, ce n'est pas énorme, et en plus ils sont très inégalement répartis : 1200 + 700 + 500 + 200 + 400 ; mais bon, il paraît que c'est à peu près la moyenne annuelle du motard français) ; et quand le temps est beau je n'hésite pas à rentrer du bureau par un chemin plus long à travers la vallée de Chevreuse ou celle de la Bièvre, ou de faire une escale à la Vallée-aux-Loups à Châtenay-Malabry. (Il m'est d'ailleurs arrivé de croiser les élèves du mon ancienne auto-école.) L'an dernier je pestais contre le froid surtout que j'ai les doigts très fins et qui se refroidissent facilement, mais je me suis acheté des gants chauffants (des Five HG1 WP, modèle 2019 — je précise, parce que ce n'est pas évident, que Five est la marque, HG1 est le modèle, et que WP signifie quelque chose comme waterproof ; c'est mon seul bout d'équipement qui ne soit pas de Dainese, d'ailleurs), et, même si c'est un peu plus pénible à enfiler que des gants normaux, c'est vraiment incroyable à quel point ces choses marchent bien, au moins sous le froid relativement modéré qu'on a à Paris (ils ont trois niveaux de chauffe, mais je n'ai jamais eu besoin du plus élevé). Une mention aussi pour la sous-combinaison Dainese D-Core Thermo, qui est un peu ridicule à porter mais tellement efficace pour garder le chaud que ça ressemble à de la magie noire.

[#8] Aveu : j'ai même commencé à me poser la question de si je voudrai acheter une nouvelle moto (et le cas échéant, quoi) dans deux ans quand j'aurai le permis A complet. (C'est idiot pour plein de raisons, j'en suis conscient, la première étant que je n'ai encore jamais tourné la poignée des gaz à fond sur ma bécane. Mais bon, le poussinet s'est acheté un joujou à quatre roues puissant qui ne lui sert à rien, alors comment je suis censé vivre ma midlife crisis, moi ?)

Ça fait tout juste deux ans[#9] que j'ai eu le permis (voiture), et il faut avouer que, depuis environ trois mois, j'ai essentiellement arrêté de conduire la Tuture. Je l'ai prise une fois pour aller au bureau (un jour où il faisait trop moche pour que j'eusse envie de prendre la moto et j'étais parti trop tard pour avoir le temps de prendre le RER), j'ai abîmé le pare-choc contre un plot du trottoir à peu près cinq secondes après avoir pris le volant, le poussinet a tenu à faire réparer, ça lui a coûté quelques centaines d'euros, et ça m'a traumatisé, et maintenant je n'ose plus la conduire du tout. Surtout que je n'ai plus la motivation de devoir passer une épreuve de circulation au permis. Et plus le temps passe plus je me dis que si je conduis une voiture je vais avoir des mauvaises habitudes de motard dans la manière de passer les vitesses, d'oublier que le gabarit n'est pas le même, etc., donc plus le temps passe moins j'ose prendre un volant.

[#9] Je suis encore en permis probatoire, cependant (il dure trois ans maintenant). Aveu : je ne mets pas le disque A sur la moto (je ne sais même pas où je pourrais le mettre, d'ailleurs).

En ce moment, j'enseigne trois cours en parallèle : un cours d'Analyse de base aux élèves de première année de l'école (en gros la définition des espaces Lp, la notion de base de Hilbert, et quelques éléments de séries et de transformée de Fourier, surtout dans le cadre L²), et, pour des élèves de deuxième année dans des cursus spécialisés, un cours de théories[#10] des jeux (celui-là est rigolo à enseigner ; j'en ai déjà dit un mot et les notes de cours sont ici en PDF) et un cours de « courbes algébriques », c'est-à-dire une mini introduction à la géométrie algébrique (je n'ai actuellement pas de notes de cours écrites, parce que chaque année j'essaie une approche différente dans l'espoir d'en trouver une qui me satisfasse et qui ne noie pas les étudiants). Les années précédentes, ces cours étaient situés dans l'année de manière à ne pas se chevaucher (le cours d'Analyse avait lieu plus tôt), mais cette fois-ci je dois les mener tous les trois de front et c'est assez fatigant. (Des bizarreries d'organisation de l'école font que les cours de 2e année ont lieu de façon complètement périodique, en l'occurrence tous les lundi et mercredi matins pour ce qui est des miens, mais les cours de 1re année sont cadencés de façon totalement irrégulière, et je peux très bien avoir quatre séances du même cours la même semaine.)

[#10] Le s à théories, que j'ai dû me battre pour obtenir dans l'intitulé officiel du cours (parce que personne ne vérifie ce qui se fait comme contenu d'un cours, mais l'intitulé, lui, doit passer par environ douze commissions avant d'être approuvé), est là pour souligner le fait que je parle à la fois de théorie classique des jeux en forme normale (à la von Neumann, Morgenstern, Nash, — que beaucoup de gens appellent théorie des jeux tout court) et de théorie combinatoire des jeux (à la Sprague, Grundy, Berlemamp, Conway), en passant par une évocation des jeux de Gale-Stewart qui servent en logique, et un long interlude sur les ordinaux et les questions de terminaison. Ce que je trouve intéressant, c'est que personne ne met dans un même cours tous ces sujets différents qui ont quand même une thématique commune (et qui ont chacun une façon différente de pouvoir se relier à l'informatique théorique).

Je défends l'idée que les chercheurs devraient enseigner des sujets qui sont toujours un minimum écartés de leurs domaines de recherche (à nuancer, évidemment, selon le niveau de l'enseignement), pour que l'enseignant, tout en restant suffisamment expert pour répondre à toutes les questions des étudiants, garde en même temps assez de distance par rapport au sujet pour ne pas être tenté de trop étaler ses marottes, et de curiosité pour avoir lui-même quelque chose à y apprendre : je pense qu'on ne peut enseigner correctement que lorsqu'on a soi-même à apprendre. C'est peut-être pour cette raison que mon cours de géométrie algébrique me pose le plus de problème ! (Bon, en vrai, c'est parce que c'est un domaine hautement technique et qu'il est vraiment ardu d'y enseigner quelque chose sérieusement à des élèves qui n'ont jamais vu ni de géométrie projective élémentaire, ni de théorie de Galois, et qui n'ont pas forcément une intuition très développée de ce qu'est un idéal dans un anneau.) S'agissant de Fourier, non seulement c'est un vaste programme mais même en s'en tenant à des considérations d'Analyse (sans chercher à généraliser à d'autres Fourier) sur ℝ ou ℝ/ℤ, j'ai déjà expliqué que j'avais appris plein de choses[#11] en me renseignant sur le sujet dans la préparation de ce cours.

[#11] Un autre exemple dont je n'ai pris conscience qu'assez récemment : si je ne m'abuse, les séries de Fourier permettent d'identifier les distributions (à valeurs complexes) sur ℝ/ℤ aux suites (complexes) indicées par ℤ et à croissance au plus polynomiale, tandis que les hyperfonctions à la Satō (toujours sur ℝ/ℤ) s'identifieront aux suites indicées par ℤ et dont la partie indicée par ℕ ainsi que celle indicée par −ℕ sont toutes les deux les coefficients d'une série entière de rayon de convergence 1 : je trouve que ceci permet de bien comprendre en quoi, et dans quelle mesure, une hyperfonction est quelque chose de plus général qu'une distribution.

En « jouant » avec Fourier (j'ai déjà dit plein de fois que les maths sont faites pour qu'on joue avec et qu'on ne comprend les choses que si on y prend un peu plaisir), je suis retombé (ici et ) sur un calcul que j'avais déjà fait il y a longtemps et dont je me demande s'il a un nom classique : en utilisant la formule d'inversion de Möbius, on peut transformer la série de Fourier qui exprime une onde carrée ou triangulaire (disons) comme superposition d'ondes sinusoïdales de différentes périodes, en une série (au moins au sens L² — je ne sais pas bien quoi dire de la convergence ponctuelle[#11b]) qui exprime une onde sinusoïdale comme superposition d'ondes carrées ou triangulaires. Ce procédé est forcément très classique et a certainement un nom, mais je ne le connais pas, mais c'est rigolo (quoique pas entièrement plaisant) à entendre : voir les deux fils Twitter que je viens de lier pour une illustration sonore et visuelle.

[#11b] Correction () : En fait, je ne suis même pas sûr de pourquoi il y aurait convergence L² dans le cas d'un signal carré. La question est, donc, si s est la fonction 1-périodique qui vaut 1 entre 0 et ½ et −1 entre ½ et 1, pourquoi la somme des μ(ks(kx)/k, où k parcourt les entiers naturels impairs, tend vers (4/π)·sin(2πx) dans L²(ℝ/ℤ) (ce qui pose problème n'est pas la valeur mais la convergence). J'avais fait l'erreur de penser que les s(kx) sont deux à deux orthogonaux, j'avais même une « preuve » de ce fait utilisant le théorème chinois, or c'est juste faux ; ça n'empêche pas la valeur de la somme d'être la bonne « en un certain sens » et il est fort possible qu'il y ait convergence L², peut-être même presque partout, mais c'est beaucoup plus subtil : si on passe aux coefficients de Fourier, justement, cela dépendrait par exemple d'estimations sur ∑d|ndB (μ(d)) en fonction de n et indépendantes de B, qui ont elles-mêmes l'air possiblement liées à des bornes sur la fonction de Mertens. Bref, je retire cette affirmation : je crois juste pouvoir affirmer la convergence faible dans L².

Ajout () : Il y a certainement des choses intéressantes à dire (et à illustrer graphiquement et/ou acoustiquement) sur la comparaison entre cette écriture d'une onde sinusoïdale (ou d'un signal plus général) comme composition d'ondes carrées de différentes fréquences (non orthogonales !), avec la transformée de Hadamard qui utilise aussi des sortes d'ondes carrées, mais prend 2r ondes de fréquence 2r et s'arrange pour qu'elles soient orthogonales. À méditer.

Mais de fil en aiguille, à partir de Fourier, j'ai réactivé d'autres vieilles marottes : en fait, c'est parti de cette animation (qui n'a pas de rapport avec le fait que j'enseignais un cours sur le sujet, c'est juste une coïncidence) illustrant le concept de séries de Fourier, que j'ai un peu mal comprise (je pensais que la courbe était paramétrée avec uniquement des coefficients de Fourier d'indices positifs), ce qui m'a amené à me poser des questions sur la possibilité du paramétrage des courbes de cette façon (j'ai dumpé ça sur MathOverflow, et il faut encore que je trouve le temps de réfléchir à la réponse qui m'a été faite !) en lien avec le théorème de l'application conforme de Riemann, puis j'ai repensé au cas particulier du bord de l'ensemble de Mandelbrot car il s'avère que l'uniformisation conforme du complémentaire de l'ensemble de Mandelbrot se fait très bien, j'ai lu un article qui expliquait comment calculer les coefficients (John H. Ewing & Glenn Schober, The area of the Mandelbrot set, Numer. Math. 61 (1992) 59–72), j'ai implémenté le calcul et joué avec les coefficients obtenus (et au passage soumis une suite à l'OEIS), et tout ça m'a amené à me replonger dans toutes sortes de questions autour de l'ensemble de Mandelbrot que je n'avais jamais pris le temps de bien comprendre depuis l'époque (douze ans déjà ! <U+1F631 FACE SCREAMING IN FEAR>) où j'avais généré toutes sortes de vidéos de zooms.

J'ai notamment calculé toute une série d'animations d'évolutions d'ensembles de Julia lorsque leur paramètre se déplace dans le plan où vit l'ensemble de Mandelbrot (il est prévu que j'explique tout ça mieux Un Jour®, mais Zeus sait si ce Jour arrivera vraiment) : voir cette playlist YouTube (qu'il faut vraiment regarder en plein écran HD/1080p, ne serait-ce que parce que sinon on ne voit pas du tout le point rouge dans l'encadré en bas à gauche qui montre où est le paramètre…).

Mais surtout, j'essaie de comprendre (un peu mieux) la structure combinatoire de l'ensemble de Mandelbrot et des ensembles de Julia : il y a un très joli modèle, l'ensemble de Mandelbrot abstrait qui permet (au moins dans certains domaines ou sous une hypothèse conjecturale standard à savoir la connectivité locale) de décrire la manière dont est foutu l'ensemble de Mandelbrot, quelles lignes d'argument aboutissent où, comment sont agencés les bébés ensembles de Mandelbrot et tout ça, sans aucun calcul flottant/approximatif, uniquement en manipulant des objets combinatoires. L'ennui, c'est que le principal livre de référence sur le sujet (Invariant factors, Julia equivalences, and the (abstract) Mandelbrot set de Karsten Keller) est très difficile à lire (il empile des tonnes de notations qu'il ne daigne jamais rappeler pour le lecteur distrait, et ne donne quasiment aucun exemple ni aucun algorithme). Un lecteur de mon blog (enfin, un ancien lecteur, je ne sais pas s'il me suit encore) est l'auteur d'un algorithme qui permet de déterminer si les lignes d'arguments donnés par deux rationnels de dénominateur impair aboutissent au même point de l'ensemble de Mandelbrot (ce point est alors la racine d'une composante, et ce sont les deux façons d'y arriver depuis l'extérieur) ; mais je n'arrive pas à comprendre si on connaît un algorithme analogue pour les rationnels de dénominateur pair (qui aboutiront alors en un point de Misiurewicz) et je me noie un peu dans le livre de Keller.

On pourrait me reprocher d'écrire toutes sortes de choses sur Twitter au lieu de les écrire sur ce blog, mais je me noie complètement dans les entrées de blog que je dois écrire, que je commence à écrire, et qui prennent systématiquement des dimensions complètement démentielles. Parfois je m'exaspère moi-même avec ma capacité invraisemblable à tout transformer en un roman (d'autant plus que moi-même je déteste les romans interminables) : Twitter, au moins, m'oblige à faire court, mais apparemment n'a pas réussi à m'apprendre à faire court de façon plus systématique. J'avais commencé à écrire une entrée sur Game of Thrones (que le poussinet et moi avons récemment regardé — enfin, récemment au moment où j'ai commencé à écrire ladite entrée, ce n'est plus si récent maintenant), mais même un sujet aussi peu inspirant a quand même réussi à me faire aligner des kilomètres de mots, à tel point que je n'ai pas réussi à la finir (il faut dire qu'elle avait l'air un peu maudite, cette entrée : à chaque fois que je commençais à m'y remettre, quelque chose m'interrompait). Donc j'ai commencé une entrée de vulgarisation sur l'ensemble de Mandelbrot en me disant que j'allais vraiment en dire le strict minimum, et… mais comment est-ce que j'arrive à être assez con pour me dire que je pourrais réussir à écrire un texte court sur un sujet pareil ? Alors voilà, il a mis un pied dans le cimetière des entrées que je n'arrive décidément jamais à finir, et si je me lasse du sujet avant de l'avoir fini, il aura mis les deux pieds dedans.

Mais même cette entrée-ci, je pensais que j'allais juste écrire quelques phrases pour expliquer pourquoi je n'avais rien écrit ici depuis une éternité, et cette entrée elle-même a pris une taille complètement invraisemblable, je suis complètement crevé, je voulais me coucher il y a au moins deux heures, le poussinet en a marre de m'attendre pour aller au lit, bref, je me trouve moi-même vraiment insupportable et je termine en queue de poisson.

↑Entry #2636 [older| permalink|newer] / ↑Entrée #2636 [précédente| permalien|suivante] ↑

↓Entry #2635 [older| permalink|newer] / ↓Entrée #2635 [précédente| permalien|suivante] ↓

(jeudi)

Le poussinet et moi avons déménagé (de deux étages)

J'ai déjà expliqué que mon poussinet et moi avions acheté ensemble un appartement plus grand (au 2e étage) dans l'immeuble que nous occupions déjà (au rez-de-chaussée) et que nous nous demandions comment procéder au déménagement pour qu'il soit aussi peu douloureux que possible, sachant qu'un prêt-relais me permet de garder les deux appartements pendant un certain temps. Finalement, nous avons décidé de procéder de façon « progressive mais avec une étape atomique », c'est-à-dire en gros :

  • dans un premier temps, nous avons fait procéder à quelques travaux, essentiellement la pose d'une pompe à chaleur (qui peut servir de clim en été) pour avoir un chauffage plus économique, et souscrit à un abonnement fibre (chez OVH[#]) ; nous avons aussi fait quelques achats minimaux (comme des chaises Ikea) pour le nouvel appartement ;
  • dans une deuxième phase, nous avons transporté autant que possible ce qui n'était pas quotidiennement utile et qui pouvait être bougé sans besoin de meuble de rangement supplémentaire à l'arrivée : d'abord, tous les livres (puisque le nouvel appartement venait avec pas mal de rayonnages de bibliothèque fixés aux murs) et pas mal de vêtements, puis la paperasse et beaucoup de matériel informatique pas vraiment utile ainsi que des ustensiles de cuisine, le tout à grands renforts de bacs de rangement en plastique ; puis nous avons monté quelques étagères une fois que leur contenu avait déjà disparu, histoire qu'elles puissent servir à ranger autre chose ;
  • puis vient l'étape que je qualifie d'atomique parce qu'elle concerne les choses qui, selon moi, ne peuvent pas vraiment être séparées : nos lits, l'équipement essentiel de la cuisine (frigos, micro-onde, vaisselle de base), nos ordinateurs et les bureaux les supportant, quelques tables, et le nécessaire de toilette en gros équivalent à ce que nous emportons en voyage (nous avons aussi monté la télé pendant cette phase, même si ce n'était pas initialement prévu, parce que nous aimons bien regarder la TNT en dînant) ;
  • enfin, nous comptons monter des choses au fur et à mesure que nous nous rendons compte qu'elles sont utiles, et finalement trier tout le reste.

[#] Je ne souhaite pas particulièrement faire la pub d'OVH ici, dont je ne suis pas terriblement content et qui est vraiment cher, mais il semble que (excepté peut-être FDN mais je crois comprendre que nous n'étions pas éligible) c'est le seul opérateur fibre à Paris, ouvert aux particuliers, qui offre des choses qui me semblent être des exigences minimales de qualité (par exemple un bloc IPv6 fixe natif, en l'occurrence un /56 même si j'aurais préféré un /48, et la possibilité d'utiliser son propre routeur) et qui sont considérées comme des demandes de « pros » (je hais cet euphémisme ridicule). J'ai tellement entendu d'histoires d'horreurs sur Orange, SFR et Free que ce n'était vraiment pas question d'aller chez eux.

C'est l'étape « atomique » que nous avons faite hier (et qui nous a pris essentiellement toute la journée) : il reste encore beaucoup de choses dans l'ancien appartement (la machine à laver le linge, un bureau à moi, mon équipement moto, beaucoup d'affaires de toilette ou de ménage…), mais désormais nous habitons au deuxième étage avec les peluches, et nous y avons passé notre première nuit.

J'ai passé énormément de temps à faire fonctionner la connexion fibre (nous savions déjà qu'elle fonctionnait avec un « modem-routeur » fourni par l'hébergeur, mais nous voulions nous en passer pour avoir une configuration aussi proche que possible de ce que nous avions deux étages plus bas, à la renumérotation IP près), mais je ne vais pas m'appesantir là-dessus : disons juste si ça peut servir à quelqu'un que, pour le FTTH chez OVH en collecte Kosc, le PPPoE se fait directement sur le trunk Ethernet et pas, comme chez Orange, sur un VLAN (835) ; et pour pouvoir faire passer IPv6, il faut non seulement activer IPv6 depuis l'interface Web d'OVH mais aussi faire une requête DHCPv6 de délégation de préfixe sur l'interface PPP (ce n'était pas évident). Si vous ne savez pas ce que tous ces acronymes (PPPoE, VLAN et DHCP notamment) veulent dire, ce message n'est sans doute pas fait pour vous. 😁

J'ai aussi passé énormément de temps à simplement décâbler et recâbler les ordinateurs, d'ailleurs. J'espérais que le déménagement m'aiderait à réduire un peu le chaos de l'enchevêtrement de câbles et d'alimentations qui constitue notre installation informatique, mais visiblement, c'est raté : ça semble impossible de relier et d'alimenter trois gadgets sans que ce soit déjà le bordel. (Et une mention spéciale au passage pour les alims tellement larges que quand on les branche, les deux prises adjacentes de la multiprise deviennent inutilisables.)

Au-delà des câbles et des ordinateurs, l'idée que le déménagement nous aiderait à vivre dans un espace un peu mieux rangé est plutôt illusoire. À la limite, c'est même le contraire qui se produit : il est tellement fastidieux de bouger les choses et de décider où les mettre qu'on finit par les mettre au premier endroit venu, et l'organisation est bien pire à l'arrivée qu'au départ.

Tous ceux à qui nous avons parlé de ce déménagement (de ma maman et ma belle-maman jusqu'à l'employée du supermarché voisin à qui nous faisons régulièrement la causette, en passant par beaucoup de nos amis) nous ont félicités et promis que nous serions bien. Ça part évidemment d'un bon sentiment, mais je trouve cette injonction au bonheur un poil stressante, et peut-être d'autant plus stressante que c'est littéralement un problème de riche de dire en fait, non : on a l'impression d'être un ingrat qui ne mesure pas la joie qu'il devrait ressentir.

Le fait est que ce nouvel appartement, sans compter la baisse de niveau de vie qu'il m'aura coûté, pour l'instant, j'en vois surtout les inconvénients. C'est sans doute normal : pas loin de vingt ans d'occupation de mon appartement au rez-de-chaussée m'ont habitué à celui-ci (y compris à ses défauts) et tout changement ne peut être qu'un changement pour le pire. C'est le même phénomène qui fait que quand on change quelque chose dans un service public, disons par exemple un réseau de bus ou des horaires de train, on fait immédiatement plein de mécontents parce que leur utilisation routinière est perturbée, alors que les gens qui profiteront du changement n'apparaîtront qu'au fil du temps quand ils découvrent qu'il y a quelque chose de commode pour eux dans le nouveau système. Peut-être qu'il y a des choses qui seront mieux dans ce nouvel appartement, mais pour l'instant je ne les vois pas[#2], je vois surtout la salle de bain minuscule, le découpage des pièces mal fait, l'aération qui marche très mal, le temps rallongé si je me rends compte que j'ai oublié quelque chose en sortant, les interrupteurs insupportablement mal disposés, etc. Étant habitué à un appartement où je pouvais me balader à poil autant que je voulais parce qu'il n'y avait personne qui pût me voir, je me sens comme dans un panopticon et ça gâche tout plaisir qu'il pouvait y avoir à recevoir un peu plus de lumière du jour. On devrait avoir plus de place pour ranger les choses, mais en fait ce n'est pas vrai à cause de l'immense salon qui ne peut pas vraiment servir d'espace de stockage, et il y a déjà quantité de choses que je ne sais pas du tout où mettre.

[#2] Il y a deux choses qui pourraient passer pour des avantages (avantages très modérés eu égard au coût pour y arriver), c'est un bureau mieux rangé et une connexion Internet avec un meilleur débit (encore que même là il y a eu des choses sacrifiées, comme une adresse IPv6 mémorable ce que, franchement, j'estime peut-être plus important que le débit). Mais ces choses auraient pu être acquises sans changer d'appartement, donc ça ne compte pas.

En fait, je suis mentalement dans le même mode que quand j'occupe une chambre d'hôtel : je cherche mes marques, je prends énormément de temps à faire quoi que ce soit parce que toutes mes petites habitudes ont volé en éclat (du coup je me demande comment faire les choses les plus simples : je ne sais pas où poser ma serviette avant de prendre ma douche et après, par exemple), et j'ai vite hâte de revenir chez moi… sauf que là je suis chez moi et qu'il va falloir que je m'y fasse.

(Un signe que je ne me sens pas chez moi, c'est qu'instinctivement je garde mon portefeuille, mes clés et mon téléphone dans mes poches, comme je le fais tant que je suis dehors, alors que dans l'appartement que j'avais au rez-de-chaussée, la première chose que je faisais en rentrant était de les poser ; mais maintenant, je ne sais même pas où les poser.)

Bref, je suis très attaché à mes habitudes. Ce n'est pas que je sois hostile au changement (après tout, j'ai bien quitté ma chambre chez mes parents pour m'installer à Paris ; et plus récemment, le poussinet et moi avons fait un bon nombre de changements dans nos habitudes, par exemple celui d'utiliser nos week-ends pour nous balader en forêt date de 2018 et c'est un changement que j'ai accueilli avec plaisir) ; mais je déteste profondément le fait que le changement me soit imposé par l'extérieur au lieu que je puisse y procéder à mon rythme. Or là, pour le déménagement, il était difficile d'éviter une étape « atomique » comme je l'ai dit plus haut (alors que pour déménager de chez mes parents vers Paris, j'avais tout acheté en double et j'étais passé par une très longue phase où je dormais de plus en plus souvent à Paris si bien que j'avais véritablement deux « chez moi »).

Mais ce n'est pas tout : il y a aussi une forme d'attachement affectif à mon ancien appartement… pas à l'appartement lui-même, mais à tous les souvenirs qui sont attachés à ses murs, des souvenirs des moments heureux que j'y ai vécus. (Mon appartement fait un peu partie de moi comme l'explique très justement ce texte : il est normal que remplacer une partie de moi ne soit pas quelque chose d'anodin.) J'ai quitté mon bureau parisien (où je travaillais depuis 2010) avec une grosse boule dans le ventre, il n'est pas surprenant que je ressente quelque chose d'analogue vis-à-vis d'un lieu où j'ai passé encore beaucoup plus de temps. Quand je retourne pour chercher quelques affaires dans cet appartement qui ressemble maintenant plutôt à un chantier laissé après un cambriolage, j'ai une sensation qui s'apparente à celle qu'on éprouve lors de la disparition d'un être cher : celle de souvenirs qui se perdent, noyés comme des larmes dans la pluie.

↑Entry #2635 [older| permalink|newer] / ↑Entrée #2635 [précédente| permalien|suivante] ↑

↓Entry #2634 [older| permalink|newer] / ↓Entrée #2634 [précédente| permalien|suivante] ↓

(lundi)

Je range ma paperasse, et je me demande comment la trier

Méta / contexte : Je suis encore plus inhabituellement débordé en ce moment que d'habitude, surtout que j'ai bêtement utilisé les vacances de fin d'année pour essayer (sans grand succès) de me reposer plutôt que d'évacuer des choses que je devrais faire, qui me sont ensuite retombées dessus avec une certaine violence ; et j'ai mis de côté un certain nombre de choses que je voulais faire ou écrire sur ce blog (par exemple, même si j'aurais plein de choses à répondre aux commentaires, parfois intéressants, faits sur l'entrée précédente, et je le ferai peut-être un jour, je n'ai vraiment pas le temps en ce moment) ; c'est aussi là un intérêt de Twitter qu'il est souvent plus facile de trouver quelques secondes dans une file d'attente pour écrire 280 caractères que ce qu'il me faut pour pondre des pages sur ce blog. Cette entrée-ci, qui évoque un sujet de débordement en ce moment, a commencé comme une série de tweets, donc je me suis dit qu'elle devenait vraiment trop longue, donc je la convertit en entrée de blog, mais le style s'en ressent peut-être du coup.

Dans la perspective d'un déménagement imminent, j'ai trié ou retrié, pour les ranger correctement, des années de courrier, de documents et de paperasse (personnels et administratifs).

Globalement, ma méthode de tri est : une chemise par dossier (interlocuteur / sujet), et par ordre chronologique inverse au sein de la chemise. J'ai, par exemple, un dossier boulot, un dossier impôts, un dossier banque, un dossier médical, etc., et chacun est rangé chronologiquement en commençant par ce qui est le plus récent. L'intérêt est que c'est assez efficace à ranger, il suffit d'ouvrir la bonne chemise et de mettre tout en haut, et que ce n'est pas trop pénible pour retrouver les papiers ensuite. Mais si l'idée générale est bonne (je crois), il y a plein de détails douteux qui rendent malheureux le maniaque que je suis des typologies précises, et qui concrètement font que les papiers restent difficiles à retrouver même si on les a « bien » rangés.

Par exemple, dans un même dossier, j'ai souvent des documents avec une date bien précise (factures, relevés…) et d'autres ayant une validité très longue voire indéterminée (contrats, par exemple). Classer les deux ensemble pose problème pour retrouver les seconds : mettre mon contrat de travail à la date où il a été signé n'est pas forcément idéal s'il s'agit de pouvoir le retrouver facilement. Mais sinon, où ? Tout au début ? Tout à la fin ? Dans une chemise différente de celle où je mets mes bulletins de salaire ? Faire un dossier contrats semble tentant, mais c'est bizarre de ranger les contrats séparément sous prétexte que ce sont des contrats (d'autant qu'ils sont d'importance très inégale). Ou seulement un dossier contrats en cours et ensuite je classe à la date chronologique de (fin ? début ?) de contrat ? Est-ce que je range l'acte d'achat de l'appartement avec tous les documents relatifs aux prêts bancaires pour l'acheter ? Où est-ce que je mets le PACS conclu avec le poussinet ? Et bien sûr, la frontière entre les documents « ponctuels » et les documents « longue durée » n'est pas du tout nette. Ne parlons pas, d'ailleurs, de ce qui n'est pas daté (il y avait sans doute une date sur l'enveloppe, mais je n'ai pas gardé l'enveloppe) mais qui périme peut-être quand même un jour.

La manière de regrouper selon les interlocuteurs / dossiers pose aussi plein de problèmes dans les cas limites (est-ce que je fais un dossier retraite séparé du dossier boulot ? mais ça se recoupe beaucoup). J'ai un dossier banque, mais peut-être devrais-je avoir un dossier séparé pour chaque banque chez laquelle j'ai (ou ai eu) un compte, surtout que la banque la moins importante m'a le plus noyé sous les papiers. J'ai un dossier moto avec tout ce qui concerne l'achat, l'entretien, l'immatriculation du véhicule… mais l'assurance passe par la MAIF et est donc rangée avec l'assurance habitation. Aussi, est-ce que j'y mets aussi ce qui se rapporte à mon permis ? mes souvenirs d'auto-école ? En parallèle de mon boulot à Télécom, j'ai fait passer des concours des ENS pendant quelques années (2007–2010) : Est-ce que je range ces bulletins de salaire-là avec les autres juste par ordre chronologique ? ou est-ce que je fais un dossier séparé ?

Il y a des dossiers clos (comme le dossier thèse ou candidatures MdC 2006–2007 ou encore les cinglés qui ont imaginé que j'avais une dette envers eux — peut-être parce qu'on leur a donné un faux nom — et m'ont envoyé une société de recouvrement de créances) et d'autres qui ne le seront pas tant que je suis en vie (médical, impôts, courrier personnel) : j'ai tendance à diviser ces derniers par tranches chronologiques, mais ce n'est peut-être pas idéal. Est-ce qu'il vaut mieux faire un gros dossier médical ou est-ce que je subdivise par spécialité médicale ? (Si je cherche un examen ancien, ce n'est pas évident de retrouver par date, même si grâce au journal que je tiens, je dois pouvoir.)

En plus des documents qui me concernent nominativement, il y a des documents et livrets d'information (guide de tarifs bancaires, notices, ce genre de choses) : faut-il les ranger avec ? À la date où je les ai reçus ? Et les anciennes cartes de membre de quelque chose ? Aussi, j'ai pas mal de choses que je garde comme souvenirs personnels : la limite entre les documents administratifs et les documents personnels n'est pas toujours claire, et ça devient encore plus problématique pour le classement.

Il est souvent clair si un document me concerne moi ou concerne mon poussinet, mais pas toujours (dans le cas d'un achat ou contrat commun dont nous nous serions occupés de façon jointe et dont nous n'aurions qu'une copie), et de nouveau, ceci pose des problèmes de rangement, surtout que parfois, pour un même dossier, il peut avoir conservé certaines pièces et moi d'autres sans que ce soit toujours clair qui a qui ou selon quelle logique.

Et puis il y a des documents encore plus spéciaux, si j'ose dire. J'ai écrit un testament, par exemple, ainsi que des instructions à ouvrir s'il m'arrive un accident grave : par définition, ce n'est pas seulement moi qui vais devoir retrouver ces documents le cas échéant (même si je peux avoir à les retrouver por les détruire, réécrire, modifier, amender ou relire). Il se pourrait qu'il y ait plusieurs documents, possiblement de nature proche, que des amis m'ont demandé de conserver sous forme scellée et dont je ne connaîtrais pas le contenu ; et éventuellement avec des consignes (par exemple de discrétion) un peu contradictoires avec le rangement. Il se pourrait qu'il y ait des documents de nature stéganographique.

Informatiquement, ce que je ferais dans beaucoup de cas douteux, ce sont des liens symboliques (permettant au même fichier d'apparaître à plusieurs endroits où on pourrait avoir envie de le chercher), mais quand il s'agit de vrais documents papier, ce n'est pas évident ! (Je pourrais insérer un papier ad hoc disant le papier machin reçu à la date truc est rangé dans le dossier bidule, mais ce serait vite extrêmement fastidieux d'écrire ces papiers-liens, et plus encore de maintenir la cohérence.) Quant à tout numériser, c'est l'idéal, mais vu le temps que ça me prend de scanner une page, j'en aurais pour bien plus d'heures que je ne veux y consacrer. Je ne parle pas, d'ailleurs, du problème de s'y retrouver dans des archives qui sont moitié papier et moitié informatisés (par exemple, les arrêtés de détachement pris par le ministère de l'Éducation nationale pour me détacher à Télécom Paris me sont aléatoirement fournis sous forme papier — auquel cas je les scanne mais je garde quand même la version papier — ou sous forme scannée — que je n'imprime pas forcément).

Au-delà de ces problèmes si j'ose dire « logiques », dans le rangement, il y a aussi des problèmes « physiques ». J'utilise de simples chemises papier sans rabats (parce que les rabats à ouvrir et fermer à chaque nouveau papier étaient un facteur non négligeable dans ma flemme à ranger mes papiers ; mais aussi parce que les chemises à rabats supportent beaucoup moins bien que les bêtes papiers pliés qu'on les remplisse au-delà de leur capacité nominale ; et par ailleurs, les élastiques des chemises à rabats supportent assez mal le vieillissement). Mais le problème se pose de savoir quoi faire de ce qui n'a pas le format A4 réglementaire, soit que ce soit trop grand (ça ne rentre pas dans la chemise) soit que ce soit trop petit (ça rentre, mais ça tombe et se déclasse dès qu'on manipule les choses). Je n'ai pas trouvé, notamment, comment stocker les cartes postales, souvent jolies, que nous avons reçues d'un peu partout à l'époque où le poussinet en envoyait à plein d'amis dès qu'il bougeait quelque part (et de fait, quand on en envoie, les gens rendent la pareille) : elles ont des formats très différents, ne tiennent pas dans une pochette ni avec ni sans rabats, il faut sans doute que je trouve une boîte de la bonne taille.

Une fois les papiers rangés (plus ou moins logiquement) dans des chemises colorées (j'ai abandonné toute tentative d'avoir une logique au choix des couleurs), il faut ranger les chemises. Dans mon ancien appartement, j'utilisais des chemises à rabats et je me contentais de les empiler sur mon bureau ; problème : pour insérer quelque chose dans une chemise, il faut l'extraire de la pile, qui commence rapidement à ressembler à une tour de Pise. Cette fois, j'ai décidé d'utiliser des boîtes de rangement en plastique de 34cm × 23cm × 14cm (mon Carrefour local en vend un lot de 10 pour environ 15€, j'ai dévalisé leur stock) avec l'idée qu'il est sans doute plus simple d'empiler les chemises dans les boîtes et les boîtes sur les étagères ; mais c'est difficile de trouver une logique mémorisable pour quelle chemise va dans quelle boîte et qui garantit un remplissage raisonnable des boîtes. Je ne suis pas du tout convaincu, en revanche, par les cartons à papiers (qui pourraient remplacer les boîtes), ils sont trop pénibles à ouvrir ou fermer, et surtout, ils sont prévus pour un rangement vertical du papier qui me semble décidément moins pratique qu'un rangement horizontal (par exemple, la position verticale fait que le papier se déforme s'il n'y en a pas juste la bonne quantité dans le carton, les cartons ont tendance à tomber dès qu'on en prend un, bref, je ne suis pas fan).

Au final, j'ai fait… quelque chose. Qu'on pourrait temporairement qualifier de raisonnablement bien rangé, mais dont je sais pertinemment qu'en quelques mois ce sera de nouveau le chaos.

↑Entry #2634 [older| permalink|newer] / ↑Entrée #2634 [précédente| permalien|suivante] ↑

↓Entry #2633 [older| permalink|newer] / ↓Entrée #2633 [précédente| permalien|suivante] ↓

(vendredi)

Coda à l'entrée précédente : réaction à un commentaire

Cette entrée fait suite à la précédente où j'argumente que l'évaluation de la recherche, ou en tout cas la manière bureaucratique et déshumanisante dont cette évaluation est menée, est contre-productive aux buts qu'elle affiche elle-même. Il y a beaucoup de choses que j'aurais pu dire encore, sur le manque de moyens, sur les mécanismes d'attribution du peu de moyens qu'il y a, sur le manque de postes, sur les mécanismes de recrutement du peu de postes qu'il y a et la précarisation des jeunes chercheurs, sur la tenure track américaine, etc., mais je ne veux pas trop m'éterniser sur un sujet déjà pénible à évoquer, et il y a des gens qui le font mieux que moi, cf. par exemple ce fil Twitter sur la compétition et l'attrition ou celui-ci sur la précarisation. Mais il y a un commentaire qui a été posté sur l'entrée précédente qui appelle un certain nombre de réactions :

Il est aveuglant de clarté que vos pontifications grandiloquentes proviennent de vos propres lacunes: vous ne faites pas de recherche, n'en avez fait que peu et de qualité disons poliment: moyenne, et n'en ferez probablement plus.

Quoi d'étonnant alors que, sous couvert de nobles et grandioses principes généraux, vous soyez aussi opposé à toute évaluation de la recherche, dans un billet dont le ressort essentiel est l'invective?

— (Commentaire signé Luc et daté )

C'est intéressant déjà parce que si on voulait illustrer le concept d'attaque ad hominem (attaquer la personne qui soutient une opinion plutôt qu'attaquer l'argumentaire qui la porte), on pourrait difficilement faire mieux. (Il est d'ailleurs assez pétillant d'ironie de m'accuser d'avoir recours à l'invective dans un commentaire relevant de ce procédé ! OK, j'ai qualifié les remarques d'Antoine Petit de trolls, mais c'était justement pour ne pas accuser leur auteur de bêtise, et surtout, j'ai pris le soin d'y répondre assez longuement sur le fond.) Je ne sais d'ailleurs pas trop quoi faire de ce genre de commentaires : normalement, la modération que je pratique vise plutôt à effacer ce qui est hors sujet que les commentaires qui expriment un désaccord ou même me font des reproches (cf. par exemple des choses qui ont été écrites à propos de mon permis de conduire) ; heureusement, je suis rarement confronté à ce genre de dilemmes parce que j'ai la chance d'avoir des lecteurs qui, globalement, savent lire et écrire et surtout, réfléchir. Mais là, j'ai publié pour m'en servir comme exemple d'un certain nombre de choses que je veux dire.

Je ne sais rien sur l'auteur du commentaire en question, qui n'a pas eu l'élégance de me laisser un moyen de le contacter (fût-il lui-même anonyme), mais mon but ici n'est pas d'analyser la manière dont l'anonymat sur Internet favorise ou révèle la méchanceté. Il est tout à fait possible qu'il s'agisse d'un autre chercheur, peut-être d'un autre mathématicien, tant il est vrai que les chercheurs en général, et les matheux en particulier, ne sont pas toujours tendres envers les autres : même s'il faut certainement y voir pour bonne part une vérité incontournable sur la nature humaine, je pense que l'ambiance de compétition forcée dans la recherche plutôt que de coopération que je dénonce y est aussi pour beaucoup.

C'est sans doute une forme de syndrome de Stockholm qui fait que les chercheurs eux-mêmes viennent à s'emparer des moyens d'évaluation qui leur sont imposés, à les internaliser, et à se juger les uns les autres, ou à se juger eux-mêmes, selon ces moyens : grade académique, nombre de publications, récompenses et autres décorations, etc. Peut-être plus que l'évaluation externe, c'est cette internalisation de l'évaluation qui rend le procédé détestable et anxiogène. Ce qui ne veut pas dire que telle ou telle métrique est dénuée de signification statistique, mais nous devrions être scientifiquement assez perspicaces pour comprendre qu'une vérité statistique n'est que statistique et que la racine de toutes les injustices vient de l'application à des individus de vérités qui ne sont que statistiques.

Je pourrais donner quantités d'exemples d'absurdités, mais je me contenterai d'un seul, que je crois assez représentatif des jugements hâtifs qu'on peut faire sur la base de tels indicateurs, et comme la personne en question est décédée il n'est pas mal que quelqu'un parle pour lui[#]. Il s'agit de François Courtès, chercheur au CNRS en poste à Poitiers (spécialisé en représentations des groupes réductifs et correspondance de Langlands locale), qui continuait à fréquenter régulièrement l'ENS, sa bibliothèque et sa cour « aux Ernests » entre le moment où il y est entré comme élève (en 1988) et sa mort : il y était connu sous le surnom de TMOY et faisait partie du folklore local à divers titres (en plus de sa passion pour le Rubik's cube). Même parmi ceux qui trouvaient TMOY sympathique, et parmi certains membres du département de maths de l'ENS pendant que j'y étais, la rumeur courait qu'il ne faisait plus du tout de (recherche en) maths, rumeur sans doute basée sur le fait qu'il était plus souvent à Paris qu'à Poitiers (il ne faut pas faire les choses à Poitiers aimait-il plaisanter, mais je crois qu'il a sincèrement eu du mal à s'ajuster à cette affectation où il n'avait pas d'attache) et plus encore sur le fait que sa liste de publication, jusque vers 2006, se limitait au contenu de sa thèse (soutenue en 1996). Pourtant, il suffisait de jeter un œil sur ce que François écrivait en bibliothèque et en cour aux Ernests pour s'apercevoir qu'il travaillait, il suffisait de lui poser des questions sur les groupes réductifs pour se rendre compte qu'il réfléchissait sur le sujet (à titre personnel, il m'a d'ailleurs prodigué des explications assez éclairantes sur la notion de tore et de groupe quasi-déployé), et il suffisait de discuter avec ses collègues poitevins pour apprendre que sa présence dans la Vienne n'était pas fantomatique mais qu'il en a aidé plus d'un en échangeant des idées avec eux. Si ses publications ont connu un « trou » important et n'ont pas été très nombreuses même après (ce qui ne signifie pas qu'elles n'étaient pas significatives !), ce n'est ni la passion ni le travail ni les compétences qui lui manquaient : simplement, François ne rentrait pas bien dans le moule selon lequel on évalue les chercheurs, et sa carrière a été coupée abruptement par un accident fatal en 2016, laissant dans l'ombre ce qu'il pouvait avoir prévu de publier plus tard. Comme il était modeste et compartimentait sa vie entre différents groupes de connaissances, il n'était pas forcément facile de se rendre compte de son travail : c'est lors de ses funérailles, en discutant avec les membres du laboratoire de Poitiers qui étaient venus y assister, que j'ai pu prendre conscience que ses idées mathématiques avaient irrigué plus que les publications qu'il avait signées. Il n'était pas une star et n'aspirait pas à en devenir une, mais un chercheur honnête et sérieux plus intéressé par les maths que par les jugements qu'on pouvait porter sur lui. (Je renvoie à cette petite nécrologie à son sujet ; Cédric Villani avait aussi écrit un petit hommage plutôt touchant.)

[#] Il est bien sûr toujours délicat de parler pour un défunt : pour éviter tout malentendu, qu'il soit bien clair que je parle de lui et pour lui mais pas en son nom, et je ne prétends pas refléter ici d'autre opinion que la mienne. Je ne peux même pas dire avoir connu TMOY si bien que ça (qui eût pu le dire ? il était très réservé), et nous avions parfois eu des engueulades monumentales donc je ne partageais certainement pas son avis sur tout. Le hasard a simplement fait que j'ai dîné avec lui peu de temps avant sa mort et que j'étais un des rares anciens normaliens à pouvoir me déplacer pour ses obsèques, et je crois avoir un peu mieux compris ce personnage complexe à l'une et l'autre de ces occasions. Pour raconter une autre petite anecdote à son sujet, j'avais dirigé une blague potache en janvier 2006 en posant sur un des nouveaux amphithéâtres de l'ENS (qui n'avait pas de nom, et je ne sais pas s'il en a encore maintenant) une plaque amphithéâtre François Courtès en l'honneur de ce personnage incontournable de la maison : la blague, assurément un peu conne, n'avait pas beaucoup plu à l'intéressé et encore moins aux services logistiques de l'ENS, donc la plaque a disparu rapidement ; mais après la disparition de TMOY, il a été décidé sur l'impulsion d'une amie commune d'évoquer son souvenir par une petite plaque beaucoup plus discrète posée à l'endroit où il avait l'habitude de travailler en cour aux Ernests — pas un amphi mais un banc en rebord de fenêtre — et nous espérons que ce rappel modeste convient mieux à la mémoire de quelqu'un qui l'était (modeste).

Je ne veux pas m'appesantir, parce que je me méfie des autocritiques, sur mon cas personnel, qui est différent de celui que je viens d'évoquer (il n'y a pas deux chercheurs ayant la même approche de leur discipline) même s'il s'en rapproche sans doute par certains points. Mais puisque je suis visé par le commentaire que j'ai cité, il faut peut-être que je dise quand même quelque chose de mes idiosyncrasies, qui ne surprendront sans doute pas les lecteurs réguliers de ce blog : le fait que j'aie du mal à finir ce que je commence, par exemple, est difficile à nier, et mes cartons sont autant pleins de résultats mathématiques partiels, manquant de contexte, ou difficiles à motiver, que d'entrées de blog inachevées, mais il faut noter que je peux revenir parfois très longtemps plus tard sur ce que j'ai laissé de côté ; je m'éparpille : le fait que je m'intéresse à tout et n'importe quoi est aussi vrai au sein des mathématiques et pose véritablement problème dans un système qui encourage plutôt[#2] à la spécialisation et même à l'hyper-spécialisation ; et il est certainement vrai que je suis plus doué pour attaquer une question ciblée, ou en contraire pour en poser, que pour aborder un problème général avec ténacité et opiniâtreté ; comme il est vrai que j'ai tendance à redécouvrir des choses déjà connues (par malchance, bien sûr, mais cette malchance est certainement amplifiée mon éclectisme et la manière dont je sélectionne les problèmes ; j'avais raconté un cas ici). Enfin, sur un plan plus pratique, il y a l'aspect que je déteste voyager.

[#2] Comment est-on censé constituer et réunir un jury d'habilitation, notamment, quand on travaille dans trop de directions différentes, par exemple, ce n'est pas clair.

On peut bien sûr me dire (et c'est ce que ferait certainement le Luc de mon commentaire) tout ça, c'est ton problème, c'est à toi de d'adapter au monde et pas le contraire : si tu ne sais pas faire avec les contraintes, c'est que tu es un mauvais chercheur ; mais j'ai pourtant dans l'idée que la recherche en général bénéficie surtout d'une multitude d'approches (des gens qui se spécialisent dans un micro-domaine et des gens qui papillonnent ; des gens qui cherchent des questions et des gens qui cherchent à les résoudre ; des gens qui résolvent des problèmes et des gens qui les synthétisent ; des gens qui regardent les choses de façon top-down et d'autres de façon bottom-up ; et ainsi de suite).

Pour évoquer ne serait-ce qu'un seul cas concret, ce papier (qui rentre dans la catégorie sur le feu depuis longtemps) résulte d'une question sur le nombre chromatique du diagramme de Voronoï de réseaux euclidiens (née elle-même d'une tentative de vulgarisation) que j'ai soumise à des spécialistes de géométrie combinatoire et apparemment personne n'avait jamais considéré cette problématique : nous avons pu y travailler ensemble, et je pense que c'est bien parce que j'avais un regard extérieur et « éclectique » que la collaboration a été féconde : au-delà de la question elle-même, ce point de vue a été l'occasion de faire un lien assez inattendu avec un résultat de Serre sur le minimum du caractère de la représentation adjointe d'un groupe de Lie compact (et de demander à Serre de m'expliquer ce résultat et l'autorisation d'en publier la preuve !, comme quoi j'aurai au moins servi à ce qu'elle soit écrite quelque part) ; et la question (et notre papier) soulève elle-même d'autres problèmes intéressants justement par leur éclectisme :

  • Peut-on donner une valeur précise (en fonction de d) du nombre chromatique maximal du diagramme de Voronoï d'un réseau euclidien dans ℝd ? (Cf. le théorème 4.4 de notre texte et la discussion autour.)
  • Le problème suivant est-il décidable ? Donné un groupe abélien libre de type fini (enfin, ℤd, quoi), et un ensemble fini symétrique d'éléments non nuls qui l'engendre, calculer le nombre chromatique du graphe de Cayley de ce groupe pour cet ensemble de générateurs. Notamment (ce qui impliquerait une réponse positive à la décidabilité) : le nombre chromatique est-il forcément atteint pour un coloriage périodique ? (Cf. aussi cette question.)
  • Si Λ⊆ℝ24 désigne le réseau de Leech, identifié à son dual {x∈ℝ24 : ∀vΛ(v·x∈ℤ)}, et si f désigne la fonction (Λ-périodique) qui est la transformée de Fourier de la première couche Λ₂ := {vΛ : ‖v‖²=4} de Λ (de cardinal 196 560) de Λ, c'est-à-dire f(x) := ∑vΛ (exp(2iπv·x)), quel est le minimum de f, et où est-il atteint (je suppose en un trou de Λ) ? (Le maximum, bien sûr, vaut 196 560 et est atteint en 0.)
  • Sous quelle condition les valeurs critiques d'un caractère irréductible d'un groupe de Lie réel compact sont-elles toutes rationnelles ? Peut-on donner une démonstration uniforme et non calculatoire du fait que c'est vrai pour le caractère de la représentation adjointe ?

(N'hésitez pas à me contacter si vous connaissez une réponse — ou si vous trouvez un de ces problèmes intéressant et que vous voulez en discuter !)

Une des raisons pour lesquelles l'éclectisme pose problème, c'est que je ne connais pas forcément les personnes à aborder dans tous les domaines qui m'intéressent, et que je ne sais pas forcément bien débroussailler les questions (la collaboration dont je viens de parler a fonctionné parce que je connais bien Mathieu Dutour-Sikirić, mais c'est un peu un accident). C'est à ce titre que je pense qu'il y aurait énormément à tirer des technologies nouvelles pour créer des réseaux sociaux dédiés à la coopération scientifique (et mathématique en particulier) en dépassant le modèle unique « on se rencontre dans une conférence » (qui a son intérêt, je ne le nie pas, mais n'est pas le seul possible). J'estime que le site MathOverflow est extrêmement précieux dans ce sens, mais qu'il y a beaucoup d'autres choses encore faisables.

Parlant de MathOverflow (qui a un intérêt non seulement pour répondre à des questions, mais aussi pour se faire, par la négative, une idée de si une question est déjà bien connue, ou facile), j'ai posé pas mal de questions et apporté pas mal de réponses sur ce site, qui sont assez représentatives de la variété de mes centres d'intérêt[#3]. Est-ce une activité de recherche ? Je ne sais pas, mais c'est au moins une activité qui (comme, par exemple, le fait d'écrire des rapports sur des publications ou sur des thèses) rend service à d'autres services et qui n'est pas du tout « évaluée » positivement. (Pour que ce soit bien clair, je ne propose certainement pas d'utiliser le score sur MathOverflow dans les évaluations des matheux (l'idée me semble digne qu'on en rie, mais je me rappelle avoir vu quelqu'un proposer ça sérieusement), pas plus que je ne propose d'utiliser n'importe quel autre mécanisme d'évaluation donné : ce score est amusant en tant qu'imaginary Internet points à collectionner, mais il ne signifie rien ; en revanche, il ne faut pas trop s'imaginer que les autres bibliométriques valent tellement mieux que lui, et un monde dans lequel on reprocherait aux chercheurs en maths de ne pas avoir fait assez de contributions sur MathOverflow serait à peine plus absurde que le monde dans lequel l'évaluation est faite telle qu'elle est faite aujourd'hui.)

[#3] Mais si on croit Luc et que je ne fais plus de recherche, c'est sans doute une façon sophistiquée de faire semblant, n'est-ce pas ? Et même pas particulièrement maligne puisque personne ne va en tenir compte dans mes évaluations. <U+1F644 FACE WITH ROLLING EYES>

Mais j'en viens à un autre aspect du commentaire de Luc qui mérite une certaine attention, c'est la culpabilisation : je ne sais pas dans quelle mesure son commentaire était « seulement » une attaque ad hominem sur ce que j'écrivais ou doit aussi se comprendre comme un reproche, mais il y a clairement l'idée que non seulement je ne ferais plus de recherche mais, de plus, je le cacherais. Et c'est là révélateur d'un aspect du système d'évaluation des chercheurs qui mérite qu'on s'y attarde.

Comme je l'expliquais dans l'entrée précédente, les tire-au-flanc sont extrêmement rares ; ce qui existe, en revanche, ce sont les gens qui, à un point ou un autre de leur carrière, ont perdu le goût ou l'inspiration pour la recherche, ou bien pour leur domaine (et un des problèmes que je n'ai pas discuté est que, sans parler d'éclectisme comme le mien, changer de domaine alors qu'on est affecté à une équipe dans un laboratoire, etc., n'est pas facile). Cela n'a rien de déshonorant : il est normal que nos goûts et nos approches évoluent au cours de notre vie, et dans un métier où la motivation joue un rôle aussi sensible, il est normal qu'il y ait des hésitations et des crises de conscience. Ce qui est vraiment problématique, c'est de présenter ça comme quelque chose de déshonorant, de culpabiliser ces personnes, de les présenter comme des sortes de tares (avec des termes pseudo-euphémistiques comme par exemple non-publiant : j'ai pourtant donné ci-dessus l'exemple d'un chercheur non-publiant pendant dix ans qui n'avait pas du tout arrêté la recherche, et qui se rendait utile à d'autres), et, par voie de ricochet, les inciter à se cacher, à faire des publications bidon pour faire croire qu'ils font quand même de la recherche, bref, une approche dont tout le monde sort perdant.

Pourtant, la mission d'un chercheur, sans même parler d'un enseignant-chercheur, est plus large que la seule production de résultats scientifiques nouveaux. Ce n'est pas moi qui le dit, c'est l'article L411-1 du code de la Recherche (tant qu'il n'a pas encore été réécrit pour introduire le nouveau monde darwinien tant attendu) :

Les personnels de la recherche concourent à une mission d'intérêt national. Cette mission comprend :

  1. Le développement des connaissances ;
  2. Leur transfert et leur application dans les entreprises, et dans tous les domaines contribuant au progrès de la société ;
  3. La diffusion de l'information et de la culture scientifique et technique dans toute la population, et notamment parmi les jeunes ;
  4. La participation à la formation initiale et à la formation continue ;
  5. L'administration de la recherche ;
  6. L'expertise scientifique.

Un chercheur qui ne produit plus de connaissances peut néanmoins remplir utilement les missions énumérées aux autres items de cette liste : valorisation et diffusion du savoir, vulgarisation, enseignement, administration (j'ajouterais, même s'il n'est pas explicitement listé ici on peut néanmoins le penser impliqué, le travail de documentation, synthèse et bibliographie à destination d'autres chercheurs plus actifs dans la production de connaissances). Si au lieu de chercher à culpabiliser ces non-produisants ou autres non-publiants et les mener parfois à « faire semblant » on les accompagnait plus sereinement à reconsidérer leurs intérêts, à arrêter soit temporairement soit définitivement la recherche actives, et à contribuer à d'autres choses, la société aurait beaucoup plus à en tirer : des articles Wikipédia de meilleure qualité si on reconnaissait enfin sérieusement que l'écriture sur Wikipédia est une mission de service public essentielle, par exemple, ou un dépassement du principe de Peter si on choisissait les administrateurs de la recherche parmi les chercheurs qui ont vraiment envie de se lancer dedans. Quant aux enseignants-chercheurs, dont les missions sont encore plus nombreuses, la tentation est grande de les redéployer vers l'enseignement à plein temps, mais c'est oublier, justement, que les autres missions que je viens d'énumérer sont aussi les leurs, pas juste l'enseignement, et qu'il y a un problème avec le fait que l'enseignement soit considéré comme le fourre-tout en la matière (le problème, pour commencer, étant que l'enseignement est trop souvent (a) considéré comme une corvée comparativement à la recherche, et (b) moins bien « évalué », notamment pour le passage dans le corps des professeurs, que la recherche, alors qu'il s'agit exactement autant l'une que l'autre des missions centrales du métier ; mais j'ai trop de choses à dire à ce sujet pour pouvoir y rentrer maintenant).

Bref, la situation dans laquelle des chercheurs ou enseignants-chercheurs se sentent coupables et cachent le fait qu'ils ne produisent plus de nouveaux résultats ou ne publient plus, doit en général être considérée comme une faillite de ce système, de ses mécanismes d'évaluation et de son absence d'accompagnements adaptés, et pas des personnes en question.

Bon, finalement, le commentaire agressif dont je suis parti s'est révélé intéressant pour illustrer un certain nombre de points. Ce n'est pas tout ce qu'il y aurait à dire : d'autres réponses ont été faites par d'autres personnes dans les commentaires ; et il y aurait encore beaucoup de points à discuter (par exemple, faut-il s'opposer à toute forme d'évaluation ou peut-on en trouver qui soit adaptée au mode de fonctionnement de la recherche ? à ce sujet, j'ai tendance à dire que la charge est du côté de celui qui propose un mode d'évaluation, et que si on n'en trouve pas du tout, n'en avoir aucune n'est pas franchement un désastre), mais je commence à fatiguer vraiment, là. Quant au fait que ma recherche passée est de qualité moyenne, je encore suis assez compétent en maths pour savoir que seuls 50% des chercheurs peuvent faire partie des 50% les meilleurs, et je n'ai pas l'obsession de l'excellence qui anime les néodarwiniens ; mais si mon contradicteur mange l'hypothèse de Riemann au petit déjeuner, ou veut simplement nous montrer des exemples de résultats excellents, de lui-même ou d'autrui, qu'il n'hésite pas à les partager, je suis toujours preneur de choses à apprendre.

↑Entry #2633 [older| permalink|newer] / ↑Entrée #2633 [précédente| permalien|suivante] ↑

↓Entry #2632 [older| permalink|newer] / ↓Entrée #2632 [précédente| permalien|suivante] ↓

(jeudi)

Au sujet de la manie d'évaluer la recherche

Méta : Il y a des sujets sur lesquels il me démange d'écrire, mais en même temps je me rends compte que ce n'est probablement pas une bonne idée de m'y lancer parce que je vais en écrire des kilopages, ou m'énerver en écrivant, ou les deux à la fois, et au mieux ce sera indigeste, mal relu et peu convaincant (ou seulement convaincant pour les déjà-convaincus). Mais parfois la démangeaison l'emporte quand même. Dont acte. Il s'agit ici d'une sorte de continuation de cette entrée récente et/ou de ce fil Twitter, mais en essayant d'argumenter un peu plus précisément. (À part ça, je reconseille de lire les nouvelles Les dessous de paillasse d'Élodie Sabin-Teyssier que je recommandais déjà dans l'entrée que je viens de lier.)

Le déclencheur immédiat de mon énervement, quelque chose qui a fait bondir l'ensemble de la communauté des chercheurs français, a été une phrase récemment prononcée par le président du CNRS, Antoine Petit, qui défendait une loi de programmation de la recherche comme une loi ambitieuse, inégalitaire, oui, inégalitaire, une loi vertueuse et darwinienne, qui encourage les scientifiques, équipes, laboratoires, établissements les plus performants à l'échelle internationale, une loi qui mobilise les énergies (comprendre : nous voulons un environnement de recherche qui conduise à la survie du plus apte pour aboutir à une élite). La stupidité de cette phrase est tellement crasse, le niveau d'incompréhension qu'elle démontre tant de Darwin que des sciences sociales est si effarant que, sauf à placer son auteur à un tel niveau de bêtise, je ne peux formuler qu'une hypothèse, c'est qu'il s'agit d'un troll, d'une provocation destinée à faire réagir les chercheurs dans le cadre d'un calcul politique auprès de l'opinion publique : disqualifier d'avance ceux qui se plaindront de la loi comme des mauvais, des inaptes qui n'ont pas leur place dans ce monde darwinien, tandis que les bons, l'élite, sont ceux qui en bénéficient et vice versa. Réagir à cette phrase, s'indigner, donc, c'est déjà perdre à ce jeu pervers ; mais ne pas réagir, c'est perdre aussi : c'est un catch-22 qui a fait ses preuves en politique que d'abaisser le débat par les déclarations les plus répugnantes qui ne laissent le choix qu'entre perdre en réagissant ou perdre en se taisant. Je peux donc lier vers quelques réactions à cette phrase, par exemple celle-ci qui dissèque patiemment l'absurdité du concept de darwinisme social appliqué aux sciences, ou cette pétition, mais en gardant à l'esprit que c'est nourrir les trolls que de leur répondre, et ainsi perdre au jeu qu'ils nous proposent et où on ne peut que perdre.

Je suis un peu surpris, ceci dit, qu'aucune des réponses faites à Antoine Petit ne semble avoir évoqué l'expérience des poulets de Muir, qui montre de façon spectaculaire qu'en sélectionnant les individus les « meilleurs », les « plus productifs » (en l'occurrence, les poules pondant le plus d'œufs), on peut aboutir à une diminution considérable de la production recherchée — parce que ces individus[#] les plus productifs le sont au détriment de la coopération avec les autres, et que la compétition est finalement beaucoup plus nuisible à la production souhaitée : il faut manquer cruellement d'imagination pour ne pas se rendre compte qu'en sélectionnant les chercheurs « pondant » le plus de résultats on risque d'obtenir le même résultat qu'en sélectionnant les poules les plus productives, c'est-à-dire une compétition stérile et délétère à l'objectif recherché.

[#] Les résultats sont assez différents si, au lieu de sélectionner les individus, on sélectionne les groupes, mais sous l'hypothèse que ces groupes n'aient pas d'interaction entre eux (uniquement au sein de chaque groupe), donc l'applicabilité à la recherche de cette partie est hautement sujette à caution.

Je pourrais aussi reprendre des métaphores que j'aime bien. Comme celle, que j'ai déjà évoquée (dans un contexte un peu différent), du pommier, et de l'absurdité de l'idée de couper les racines qui ne produisent pas de fruits parce qu'on n'est intéressé que par les branches, qui produisent des fruits. (L'absurdité de la démarche sera sans doute plus évidente que dans le cas des poules : on comprend plus aisément que le pommier est un organisme vivant dont il est absurde de sélectionner telle partie par opposition à telle autre.) Ou encore celle-ci (que je vole à quelqu'un sur Twitter) : vouloir sélectionner la recherche d'excellence, c'est comme vouloir ne garder d'une montagne que son sommet. [Ajout () : Pour rendre cette jolie image un peu plus scientifique, on me suggère de signaler l'hypothèse Ortega selon laquelle l'essentiel du travail scientifique est contenu dans des contributions modestes.]

Mais encore une fois, c'est probablement perdre son temps que de jouer à réfuter ce genre d'idées : ceux qui les émettent n'y croient sans doute pas sérieusement, ils cherchent juste des tours de passe-passe pour faire croire au grand public qu'il y aura plus d'argent injecté dans la recherche (celle qui compte, la recherche d'excellence) tout en en mettant en réalité beaucoup moins. (Et si jamais le tour de passe-passe devient évident, comme la recherche s'inscrit dans la durée et les effets d'une augmentation ou diminution des crédits aussi, ce sera longtemps plus tard, quand ces administrateurs ou politiques ne seront plus là.)

D'autre part, la tension entre coopération et compétition est un phénomène beaucoup plus large que la situation du seul monde de la recherche, touchant à toutes les facettes de la société, de ses fondements en théorie des jeux et en biologie de l'évolution ou en éthologie et jusqu'à l'existence même de la société comme nous le rappellent, dans le camp « coopération », la troisième partie de la devise de la République française, fraternité, et dans le camp « compétition », une phrase emblématique de Margaret Thatcher, there is no such thing as society. Je préfère ne pas m'aventurer dans un débat aux termes si généraux, mais avons-le franchement : pour le cas de la recherche, je persiste personnellement dans le point de vue, inspiré d'une forme de positivisme peut-être naïf, selon lequel, collectivement, je conçois l'objectif de la recherche comme une forme de progrès qui doit bénéficier à l'Humanité tout entière, peut-être même à l'honneur de l'esprit humain, et, individuellement, je considère les autres chercheurs — qu'ils soient de domaines proches ou éloignés, de mon équipe ou d'un autre pays — comme des pairs avec lesquels je veux coopérer, fût-ce dans le cadre d'un débat scientifique où le désaccord n'est pas exclu, et non comme des rivaux qu'il s'agirait de battre à un classement quelconque de l'excellence. J'ai même la faiblesse de croire que ce point de vue, tout bisounours qu'il est dans le monde draconien de la recherche publish-or-perish du XXIe siècle et des lubies de l'impitoyable classement de Shanghaï, est néanmoins encore largement partagé par les chercheurs du monde entier, ou, si j'ose le dire avec une pointe d'ironie, les bons chercheurs.

Mais pour redescendre d'un cran en généralité, et en évitant de trop nourrir les trolls affamés du darwinisme académique de M. Petit, je voudrais dire quelque chose au sujet de l'évaluation. Car même si on ne va pas jusqu'à l'idée de punir les mauvais chercheurs improductifs (ce que devrait être la punition, d'ailleurs, n'est jamais très clair, ni comment elle va les remettre sur le droit chemin de la recherche d'excellence, celle qui permet de monter au classement de Shanghaï), bref, le bâton, même si on se contente d'envisager la carotte, c'est-à-dire l'idée de récompenser les bons chercheurs productifs (ceux qui propulsent l'établissement en haut du classement de Shanghaï), il reste cette idée de séparer les bons et les mauvais, et donc, d'évaluer. Et il n'est pas si facile de se rendre compte combien déjà cette idée-là est insidieuse : peut-être même plus insidieuse que l'idée du « monde darwinien » qui en est la prolongation logique, parce qu'elle paraît de bon sens et, si on ne parle que de carottes (récompenses), peut sembler passablement inoffensive. Je prétends que non, — et pas seulement à cause du germe de compétition qu'elle fait naître dans un monde où il est essentiel, pour la qualité du débat scientifique, que les participants soient des pairs et pas une hiérarchie.

Quoi de plus évident, en effet, de se dire qu'on va motiver les chercheurs, et ainsi les rendre plus productifs, en décorant l'excellence, peut-être en accordant une forme de gratification à ceux qui auront produit le plus de résultats (publications, brevets, que sais-je) ? Et quoi de plus naturel pour la société de vouloir évaluer la recherche qu'elle paye et mesurer combien elle produit ?

Le premier problème dans ce raisonnement concerne la notion de motivation et la manière dont elle agit. Penser qu'on va encourager les gens par des récompenses (ou à plus forte raison, par la peur d'une sanction) pour les rendre plus productifs présuppose le fait que le manque de productivité est lié à un manque de motivation (donc d'effort). Dans le cas de la recherche, je n'y crois pas une seule seconde. L'immense majorité des chercheurs aiment leur métier (c'est d'ailleurs aussi pour ça qu'ils se désolent de la manière dont ce métier évolue en une compétition) ; et ils aiment le sujet de leurs recherches. C'est banal de le dire, mais on ne devient pas chercheur, on ne renonce pas à des salaires souvent immensément plus grands auxquels on pourrait prétendre à ce niveau de qualification, par amour de l'argent. On le devient avant tout par une combinaison entre l'idéalisme de penser qu'on contribue au progrès de l'Humanité et la simple curiosité intellectuelle de savoir comment le monde est fait (et, pour un enseignant, de faire partager ce savoir). J'en veux notamment pour preuve qu'il s'agit d'un des seuls métiers du monde où il existe une statut d'émérite, c'est-à-dire un chercheur qui est à la retraite et qui sans recevoir de salaire supplémentaire continue à exercer les fonctions de chercheur qu'il avait lors de sa carrière active. Je renvoie aussi à ce fil Twitter, ou plutôt à celui du message que je cite, où un certain nombre de chercheurs ont fait essentiellement la même réponse que moi : si j'étais payé inconditionnellement, je continuerais à faire le même travail. Je ne dis pas ça pour prétendre que les chercheurs seraient désintéressés par l'argent ou la reconnaissance, ce n'est évidemment pas le cas, mais ce qui est vrai est que n'est pas pour ça qu'ils font leur recherche, et si la motivation première ne suffit pas, ajouter de l'argent ou des honneurs n'aidera pas ; d'ailleurs, en matière d'honneurs, le principal honneur qui vaut est celui de la reconnaissance par les pairs qui vient avec un résultat important.

Mais ce n'est pas tout : il y a une série d'expériences d'économie comportementale qui m'a énormément marqué quand j'en ai entendu parler dans un livre de Dan Ariely et dont je n'ai malheureusement pas la référence précise (mais voici un texte où il en parle, et peut-être qu'un de mes petits elfes va la retrouver pour moi ; mise à jour () : il s'agit probablement du problème de la bougie), en tout cas elle est d'une très grande pertinence ici, et elle est essentiellement la suivante (de ce que j'en ai retenu). On demande aux sujets de l'expérience de réaliser une certaine tâche, à savoir résoudre un problème (comme une petite énigme), et pour certains (tirés au hasard) il y a une récompense à la clé, plus ou moins importante : le résultat de l'expérience est que ceux à qui on a promis une récompense réussissent moins bien que ceux à qui on n'en a pas promis ; et même, plus la récompense promise est élevée, plus elle a un impact négatif important sur la résolution du problème. On peut avancer différentes explications pour ce phénomène, la plus évidente étant le stress induit par la perspective de la récompense (car il n'y a pas que les bâtons qui provoquent le stress, il y a aussi les carottes !) qui s'opposerait à la sérénité propice à la réflexion. Le fait est que certaines tâches ne subissent pas le même effet, et sont réussies d'autant plus efficacement s'il y a une récompense à la clé : ce sont essentiellement les tâches qui ne requièrent pas de créativité. Je laisse au lecteur le soin de se demander si la créativité est quelque chose qui peut intervenir dans la recherche scientifique (divulgâchis : oui). Notons par ailleurs, pour ceux qui proposeraient des récompenses sous une forme non financière (distinctions, décorations…), que la pression de la reconnaissance sociale semble pouvoir avoir le même effet négatif.

Tout ceci est évidemment à prendre avec des pincettes, parce qu'on ne peut pas simplement transposer le résultat d'une expérience simple de ce genre (avec des humains ou encore moins avec des poules) dans un contexte social. Mais cela suggère au moins de se méfier de l'« évidence » selon laquelle en offrant des récompenses on motive les gens et qu'on les rend ainsi plus productifs. (Une autre raison de proposer des récompenses peut être un simple désir d'équité, mais à ce sujet, je répète que le principal honneur qui accompagne un résultat scientifique est généralement la fierté de l'avoir obtenu et peut-être la reconnaissance académique qu'on en tirera : ce système se construit lui-même et, s'il n'est pas exempt de problèmes, il n'est pas spécialement nécessaire d'y ajouter.) J'ai peur que beaucoup des administrateurs de la recherche et hommes politiques confrontés à gérer ce dossier soient pour ainsi dire incapables de comprendre qu'on puisse avoir une motivation intrinsèque à faire son métier et à vouloir travailler dans la sérénité plutôt que dans le stress.

Mais l'autre facette du phénomène que je dois évoquer, c'est l'ensemble des effets pervers qu'ont le processus d'évaluation quel qu'il soit, et le système de carottes et bâtons qui l'accompagne.

Il y a un mécanisme social très général et très important qui est la loi de Campbell suivante : Plus un indicateur social quantitatif est utilisé comme aide à la décision en matière de politique sociale, plus cet indicateur est susceptible d'être manipulé et d'agir comme facteur de distorsion, faussant ainsi les processus sociaux qu'il est censé surveiller. (Penser à tous les effets pervers provoqués quand, par exemple, on commence à récompenser les policiers selon le nombre d'arrestations ou d'affaires élucidées.) Dans le cas de la recherche, cela donne la situation suivante : si on part d'un indicateur, disons bibliométrique (nombre de publications, nombre de pages de publications, nombre total de citations, h-index) qui a priori n'est pas idiot, et qu'on l'utilise pour évaluer les chercheurs d'une manière qui a un impact sur leur carrière les incitant à le maximiser, ils vont faire tout leur possible pour maximiser cet indicateur, ce qui détruira son utilité : si on évalue au nombre de publications les chercheurs publieront autant d'articles insignifiants qu'ils le pourront, si on les évalue à la page ils délaieront autant que possible, si on les évalue à la citation ils se citeront entre copains, etc. Attendre des effets bénéfiques est naïf comme je l'ai expliqué ci-dessus au sujet des motivations et du stress, mais attendre des effets négatifs est prévisible, et c'est ce qu'on observe effectivement.

La publication scientifique est ce qu'il y a de plus sérieux, parce que c'est le moyen par lequel les chercheurs communiquent leurs résultats entre eux, i.e., coopèrent : en l'utilisant comme base d'évaluation, on l'a transformée en moyen de compétition, et on l'a pervertie : on a créé les incitations perverses à manipuler la bibliométrie, à multiplier les publications insignifiantes, à falsifier les résultats d'expériences. C'est un dommage irréparable. Les chercheurs de ce début de XXIe siècle publient, selon moi, beaucoup trop : ils ne publient pas parce qu'ils ont quelque chose d'important à faire connaître à leur communauté, ils publient, et parfois trichent pour publier, parce qu'ils y sont incités par les effets pervers d'un système d'évaluation absurde. En voulant un système d'évaluations censément pour obtenir de la meilleure science, on a sérieusement endommagé l'utilité d'un des rouages essentiels de la science (et s'il n'est pas ruiné plus complètement que ça, c'est seulement parce que l'honnêteté intellectuelle continue de prévaloir contre ces incitations perverses, c'est en dépit d'elles et pas grâce à elles).

Il ne sert à rien de chercher à contourner le problème en modifiant le mécanisme d'évaluation (remplacer le nombre de publications par des systèmes plus subtils à base de citations, par exemple) : tout système d'évaluation ayant un impact sur les carrières créera forcément ces incitations perverses : on réussira à ruiner les bibliographies plus ou moins comme on a ruiné le contenu des articles, mais on ne pourra pas éviter la loi de Campbell sous une forme ou une autre. (La seule possibilité d'évaluation qui ne conduise pas à ce type d'effets consiste à évaluer de façon purement observatoire, c'est-à-dire sans rétroaction sur les personnes évaluées : ce n'est pas une idée idiote, cela peut servir à l'orientation de la recherche à haut niveau, mais je m'écarte du sujet.)

Mais les dommages de l'évaluation ne s'arrêtent pas à la loi de Campbell et à son jeu d'incitations perverses. Je dois aussi mentionner la quantité phénoménale d'efforts dépensés en pure perte pour cette évaluation ou pour tous les contrôles administratifs qui l'accompagnent : des rapports que personne ne lira, des CV et listes de publications qui doivent être joints à tout et n'importe quoi. Mais aussi toute la paperasse qui accompagne le demi-frère de l'évaluationite : la « recherche par projets » (la différence en principe est que le projet est un jugement a priori sur une recherche à venir tandis que l'évaluation concerne une recherche passée ; dans la pratique, ça ne change pas grand-chose, parce que prévoir la recherche à venir est souvent tellement absurde qu'on utilise les résultats passés pour demander des financements pour l'avenir). Je ne veux pas rentrer trop dans les détails de ce sujet-là, mais la quantité d'efforts déployée pour quémander des sommes souvent miséreuses et qui sont finalement octroyées, aléatoirement, selon des critères opaques et absurdes, et après des formalités administratives délirantes, tout ça est un gâchis tellement ridicule de temps humain de gens qui pourraient l'employer à faire de la recherche que ce serait vraiment drôle si ce n'était pas triste. (Je ne dis pas que le système de financement par projet n'a aucune place défendable dans la recherche, notamment pour des dépenses importantes avec des investissements matériels importants ; mais il devrait selon moi faire partie d'une palette plus large de financements où chaque chercheur permanent, en plus de son salaire, ainsi que chaque laboratoire et chaque structure intermédiaire, disposerait aussi d'un minimum de moyens discrétionnaires avec un contrôle administratif léger, — le genre de choses qui ont essentiellement disparu devant l'obsession de tout contrôler.)

Ajout () : Un autre phénomène que je comptais évoquer dans cette entrée et qui m'est complètement sorti de la tête en l'écrivant, c'est l'effet de Matthieu (ou de l'accumulation des avantages), qui est fortement lié à un des thèmes qui me sont chers, celui de la reproductibilité du succès : dès lors qu'on commence à récompenser les chercheurs qui obtiennent des résultats, en oubliant que le succès est avant tout une question de moyens et de chance, on crée un effet de boule de neige conduisant à une sorte de star-system plus ou moins aléatoire (comme, par exemple, sur les réseaux sociaux par le biais de l'effet auto-entretenu des recommandations et des vues) qui s'oppose à la variété des points de vue et à la discussion entre égaux nécessaires au bon fonctionnement du monde académique.

L'enjeu de tout ça, c'est simplement la liberté intellectuelle des chercheurs. Ne pas avoir peur d'être mal évalué, ne pas devoir justifier le moindre bouquin acheté par un formulaire en trois exemplaires signé et tamponné par cinq chefs de structures ou évalué par deux rapporteurs, bref, le fait de pouvoir agir un peu indépendamment, c'est la condition sine qua non de la liberté académique et de la créativité qui va avec l'audace d'explorer des sujets pas forcément immédiatement productifs ou pas forcément dans l'air du temps. A contrario, en voulant tout évaluer et tout contrôler, on pousse tout le monde à faire la même chose comme des lemmings. Au moment où j'écris, par exemple, les lemmings informaticiens veulent tous faire de l'IA (du machine learning, en fait), ou des sciences des données : on va envoyer un nombre incalculable de doctorants dans cette direction parce que c'est ce que tout le monde veut faire, jusqu'au jour où la girouette de la mode académique aura tourné dans une autre direction et les derniers de ces doctorants se retrouveront avec une spécialité qui d'un seul coup n'intéressera plus personne. Ces détestables effets de mode ne sont bien sûr pas exclusivement dus à la manie de l'évaluation, mais ils sont amplifiés par elle, parce que tout le monde veut courir dans la direction « porteuse », la direction où il y a des sous et de bonnes évaluations, celle où on ne prend pas de risque, bref, la direction où tout le monde va ; et le chercheur qui aurait le courage de manifester son indépendance en pointant du doigt que ces modes sont des montagnes de bouse de taureau peut craindre pour sa carrière.

En vérité, la bonne recherche nécessite des chercheurs indépendants. Indépendants même du jugement les uns des autres. (Ce qui ne signifie pas qu'on renonce à la notion de publication revue par les pairs, même s'il y a peut-être lieu de se demander comment elle doit évoluer pour s'adapter aux nouvelles technologies et mettre fin à la rapacité des éditeurs et au star-system de certaines revues. Mais la publication revue par les pairs n'est pas la seule forme de contribution scientifique possible.)

Je crois qu'une des obsessions qui sous-tendent l'évaluationite est la peur qu'il y aurait des chercheurs qui ne feraient rien, et profiteraient simplement de leur salaire et de la possibilité de voyager de conférence en conférence à travers le monde sans rien contribuer d'utile. Il faut donc répondre brièvement à cette peur : oui, cela existe, mais c'est extrêmement rare, parce que le parcours pour arriver à un poste permanent de chercheur est tellement difficile et décourageant pour un salaire finalement bien ingrat qu'il est essentiellement impossible d'y arriver sans une certaine forme de vocation pour le sujet dans lequel on se propose de travailler, et au final il ne doit pas y avoir plus de chercheurs tire-au-flanc que de prêtres catholiques qui se feraient ordonner juste pour toucher le traitement. L'immense majorité des chercheurs mal « évalués » par les mécanismes simplistes mis en place, par exemple ceux qui publient très peu, sont, en réalité, utiles de toutes sortes d'autres manières à l'édifice collectif qu'est la science (qu'ils fassent de la vulgarisation ou de l'enseignement ou une autre forme de diffusion des savoirs, qu'ils servent d'intermédiaire entre différentes disciplines, qu'ils fassent profiter leurs collègues de leur culture scientifique, etc.). La hantise du tire-au-flanc conduit en fait à une injustice envers ce type de profils atypiques. Mais là aussi, j'ai peur que beaucoup d'administrateurs de la recherche et d'hommes politiques aient le plus grand mal à comprendre qu'on puisse être laissé sans contrôle et néanmoins se comporter de façon honnête.

Au final, ce que la société doit se demander, et elle doit le faire lucidement, c'est quel est le rapport bénéfice-risque de l'évaluation de la recherche (ou, sous sa forme la plus extrême, de la compétition provoquée entre les chercheurs) : vaut-il mieux un monde de la recherche dominé par la coopération entre pairs, quitte à supporter quelques tire-au-flanc, qui mène une recherche libre, parfois audacieuse, pas toujours optimale, mais généralement motivée par le bien commun, ou au contraire un monde d'évaluation et de compétition, où le temps passé à faire de la recherche est détourné sous forme de stress, de paperasse, de course à la dernière mode, et parfois de falsification de résultats pour monter dans les classements ? Je pense que ma façon de poser la question montre suffisamment clairement ce que j'en pense.

Suite : voir aussi l'entrée suivante.

↑Entry #2632 [older| permalink|newer] / ↑Entrée #2632 [précédente| permalien|suivante] ↑

↓Entry #2631 [older| permalink|newer] / ↓Entrée #2631 [précédente| permalien|suivante] ↓

(Thursday)

My relation to English, bilingualism, and this blog

For a change, this blog entry will be in English, and will be about this very fact; or rather, about the fact that it is unusual, because I very rarely write in English here nowadays. Even though I had started this blog (in 2003) with the intention of making it bilingual (in the sense that some posts would be in English, others in French, and still others translated in both languages), I really can't say I kept this “promise”, and the present entry is a kind of apology, excuse, or at least, explanation, for that fact. Yesterday I rewrote the introductory blurb displayed, before the content itself, at the top of various pages (e.g., the page listing the most recent entries), and the last remnants of this old pretense of bilingualism have been swept away. But why?

Before I get into this, I need to say something about my personal relation to English, how I learned the language, and how well I speak it. I had written something about this in this other entry, also in English and also about English, but I should elaborate a bit. And by elaborate a bit, I mean make an epic rant of it.

Well, it's Complicated®. One tends to classify speakers of a language into “native” and “non-native” categories. The Simple English Wikipedia (there is a kind of irony here) suggests the criteria for being classified as a “native” speaker are some combination (logical conjunction?) of the following:

  1. the speaker learnt the language in childhood,
  2. mastery of idiomatic forms of the language,
  3. comprehension of regional and social variance,
  4. fluent, spontaneous production and comprehension of discourse.

I think I can tick all four boxes, but each time with a slight caveat.

How did I learn English? My father is an English-speaking Canadian (he was born in Saskatoon and grew up mainly in Ontario), who moved to Europe in the early '60's, and learned French there, and also met my mother, who is French and whose native language is French. I have dual Canadian and French citizenship. For some reason (which they themselves are not able to adequately explain, but which is certainly related to the way society has evolved in how it considers bilingualism), my parents only spoke French to me when I was a toddler. However, when I was 8, we moved to Toronto for the 1984–1985 academic year, and I attended third grade in (the English-speaking) Cottingham public school, Summerhill, Toronto. I remember there having been some discussion as to whether I would attend a French-language school, an English-language one, or a bilingual one: I was offered the choice, and I opted for the English one, which was mere minutes' walk away from where we lived, after we had ascertained that the schoolteacher had some knowledge of French and that she was able and willing to help me learn English. (And I owe a lot to Mrs. Marr, who, indeed, made a lot of efforts getting me to speak English very quickly, and also realized that I didn't need any of the math classes she taught and let me use that time to improve my English instead. It also helped that my fellow schoolchildren were very welcoming toward the stranger that I was and readily accepted me as one of their peers. Perhaps the only time I regretted my choice of going to an English-speaking school was the very first day of class, when the teacher had forgotten that she had a French pupil in class, I realized that I understood almost nothing of what was being said or asked of us, did not dare walk up to the desk and ask, and ended up just crying on the spot. But once this slight initial trauma had passed, all went well.)

I did have some slight exposure to English before the age of 8, not only because I must have heard my father speak the language (just not at me), but also because, in preparation to the move to Toronto, my parents enrolled me in a private English class in Orsay. I guess the teacher must have been British, my memories are obviously quite vague on the subject. Anyway, I had very rudimentary knowledge of English before then[#], but I only really learned it in 1984.

[#] There was a point when — I must have been around 6 — someone asked me whether I spoke English, and, ever the logician, I answered my German is better. Which meant that I must have known two words of English and three words of German, so it was technically accurate (the best kind of accurate, they say).

Is 8 young enough to be considered childhood in the sense of the aforementioned first bullet point? Probably, but with a caveat to the effect that English is still only the second language I learned.

When I look back upon that time, it seems that my transition from “not speaking English” to “speaking English fluently” was astonishingly fast[#2]. I don't know exactly when the school year began, but I understood very little English at this point, yet by the time of Halloween, so a mere two months later, it seems I was getting along fine trick-or-treat-ing in the neighborhood.

[#2] I should mention at this point, however, that I am fully unconvinced by the theory that, in identical circumstances, children learn languages much faster and more easily than adults. I may seem to be contradicting my own evidence, but the crucial qualifier is in identical circumstances: not only do children have generally more time to devote to the learning of a new language, but also, when they make what prescriptivists would call mistakes, adults step in and correct them, or their fellow children make fun of them, and they are forced to learn quickly: this is simply not the case when adults learn a foreign language, because it is impolite for other adults to constantly interrupt and correct them (and the other adults generally have other things to do than help them learn the language). See also this video, which makes a number of good points, for various bits of evidence against the idea that kids learn languages faster than adults.

From that point on, and even after we had returned to France, I spoke English with my father, at least when my mother wasn't around. I also read a lot in English, both fiction and non-fiction, and learned a lot of vocabulary by reading.

But there are two issues with learning new vocabulary through books. One is that, since English has essentially no relation between the written and spoken form, I often didn't know how to pronounce the words I learned and generally didn't bother to check in a dictionary (and my guesses were occasionally wildly wrong: for example, for a long time I thought genuine was pronounced /ɡəˈnaɪn/ instead of /ˈdʒɛnjuˌɪn/). Another issue is that I only learned whichever words were likely to come up in the books I read: since there was a lot of heroic fantasy, I learned a lot of quaint or obsolete words, sometimes with a faux medieval flavor (Tolkien's The Lord of the Ring and its second-rate epigones use some deliberately archaic manners of speech, whence I learned nouns like liege, conjunctions like lest, adverbs like hither and so on). But only few of the “normal, everyday” words which most native speakers learn in the course of their daily lives beyond third grade level: to this day I'm still not comfortable with the names of kitchen utensils in English (and as for the names of trees and various categories of animals, in my mind they are lumped in big categories like, well, tree). To give a random example, I learned the very common word bollard only very recently. Similarly, since I didn't attend high school or university in an English-speaking country, I'm unfamiliar with many of the terms specific to this context beyond the basic ones like test, grade and homework (which I guess are common to elementary school anyway).

Films are probably better than books in this regard: for one, they don't just teach you words, they also teach you how to pronounce them (spelling is rarely the issue, and subtitles can be used when it is); and for another, the language used tends to be more idiomatic than that found in print. But before DVD's came long, it wasn't so easy to watch movies in their original language, and even once DVD's existed, original language subtitles were rarely available.

Learning English after French, I've also had a number of difficulties with “false friends”. Not so much in cases where cognate/analogous French and English words have completely different meanings (deception vs. déception, for example, or injury vs. injure), as these are noticeable enough that one inevitably ends up learning them, but rather in the far more numerous cases where the two words do indeed have a similar meaning but with a slightly different nuance or connotation, which can cause subtle and hard-to-detect misunderstandings (to demand vs. demander). Perhaps even more delicate is the wealth of French words which sound like they exist in English, which do exist in English (because English, you know, is a hoarder and has all the words), which do have the same essential meaning as in French, but are exceedingly rare or sound very pedantic: so even if I'm careful and look up the word in a dictionary, the dictionary will tell me that, yes, the word exists, then I go ahead and use it and it sounds weird to English speakers because, who says that? (there are probably much better examples than this, but remuneration has essentially the same meaning as rémunération in French, but the latter is fairly common whereas the former is about ten times rarer if I believe Google Ngrams; the same is true for ludic versus ludique: apparently ludic is so rare in English that someone on Reddit thought it was a typo).

So we move to point number 2, mastery of idiomatic forms. Well, my English is fairly idiosyncratic… but so is my French! There is a lot of English that got its way into my French, and there are imports from mathematical terminology, from computer terms and geeks' jargon, from memes and private jokes, and so on; I also like to deliberately jump from one level of formality to another, sometimes within the same sentence, just to break expectations about formality; generally speaking, my French is a bizarre mix of everything I can get my hands on, and in a state of permanent redesign. And the same holds true for my English. Sometimes I'm being unidiomatic because I'm not sure what the most common way of phrasing something might be: but often I'm deliberately using an unidiomatic turn of phrase because I like it, because it appeals to my sense of logic or creativity, or simply to piss off grammar nazis. Because no matter how well or how little I speak a language, I always like playing with it. For example, if English has the word insofar, you bet I'm going to feel free to use the analogous question inhowfar (= to what extent), not caring if it's an unidiomatic calque of the German inwiefern (in the same way as insofern corresponds to insofar): I love that German word and there's no way I'm not importing it into my English. Similarly, you bet that if hitherto exists in a temporal sense, you can bet I'm also going to use thitherto and whitherto (or from hencefrom: thencefrom and whencefrom). You get the picture. Anyway, reading this entry will give a broad idea of how I express myself in English.

Can I be idiomatic if I try? To some extent, certainly. How much exactly, I'm not sure. English idiom is a fickle thing, not only does it vary from English-speaking country to English-speaking country but there are so many non-native English speakers who bring their own language's phrases into the mix, that I end up being confused about a great many things, and I wonder if everyone doesn't feel the same. Even more so for English than for French, when I start hesitating about the most idiomatic phrase (e.g., in the circumstances or under the circumstances?), the more I think about it, the more confused I become (and often it turns out that neither dictionaries nor Google Ngrams can offer a clear answer).

Point number 3: regional and social variance? Another tricky one. I'm obsessed with phonetics, and I've spent a lot of time learning from Wells's series of books on The Accents of English, so as far as accents and regional pronunciations go, I think I have a decent grasp of variations — at least as good as the average native English speaker, say: I may not be able to reliably recognize a Scottish accent from an Irish one, but neither, I'm sure, can most Americans.

My own accent is a strange thing. Logically I “should” have a Canadian accent… except, not really. Part of this probably comes from having learned spoken English at the same time as I was learning written English. For example, I didn't acquire the characteristic Canadian raising (viz., the fact that Canadians pronounce the MOUTH and PRICE diphthongs with a first vowel that is distinctly higher = more closed, when the diphthong in question precedes a voiceless consonant, e.g., clout and price have a raised first vowel whereas cloud and prize do not; this is caricatured by Americans describing Canadians as pronouncing about as a boot which is a completely inaccurate depiction); probably because I could see the written form so I understood clout and cloud or price and prize as having the same vowels, so I pronounced them that way. Later on, when I learned about Canadian raising, I made a conscious effort to acquire it, so now I have it, but you could say I have it artificially. This is the trouble about learning about phonetics: you become tempted to alter your own accent, and then you have to decide whither to take it, which is not an easy decision when—as in my case—there is no really obvious “baseline”. A more bizarre example of idiosyncrasies in my pronunciation is the fact that I don't have the Mary–marry–merry merger which Canadian anglophones are supposed to have, and, in a sense, I don't have a specific SQUARE vowel, I think: I pronounce Mary, marry and merry with the FACE, TRAP and DRESS vowels regardless of the following ‘r’; I didn't try to change this because it is useful, in studying phonetics, to have as few mergers as possible, and I made a conscious effort to revert the cot–caught merger that I had (just like, in French, I reverted the brin–brun merger of my native pronunciation). Similarly, I don't have a full for–four merger, which I think Toronto is “supposed to” have. Add to this that there are a number of words which I pronounced “incorrectly”, or, to use a less prescriptivist term, “unusually”, for a very long time, and there are probably still many more: I pronounced bury as it was written until I learned for most people it is homophonous with berry (but later I realized that my father did the same, so it's probably not a result of my having learned spoken English by the time I knew how to write, but rather a family oddity); I pronounced iron as it is written until I learned that the standard pronunciation is as if it were written iorn (but then, there are native English speakers who pronounce iron to rhyme with Byron: former British PM Gordon Brown does this); and until very recently I pronounced year with the NURSE vowel rather than the far more common NEAR vowel. So anyway, my accent is not really from anywhere in particular, it is a mix of a Canadian substrate with a few accidental oddities and a number of geeky decisions to say things in a particular way. That being said, I think I can make at least a passable imitation of an RP accent (that would probably fool most Americans) as well as of a generic American accent; and even if I speak without any conscious effort to imitate this or that accent, native English speakers generally categorize me as a native English speaker (at least judging from the number of people who have asked me, after a short discussion, whether I was American).

A few things along the same lines can be said of my spelling. I consider color and colour, or gray and grey, or center and centre, or disk and disc to be completely interchangeable and equally correct, so I really don't care which one I use; but since whenever I use a spell-checker it is generally configured for American spelling by default, I tend to favor (favour?) that one. For some words I have preferences, though: I like recognize better than recognise but analyse better than analyze.

As for social variance, I can probably get away with saying that it is practically nonexistent in Canada. I can spot a few social variants in British English, but certainly not up to what is described in this remarkable Wikipedia page.

On to point 4, fluent, spontaneous production and comprehension of discourse. As far as comprehension goes, I feel comfortable saying that I understand English, in written or spoken form, just as well as French: I don't think I have any particular difficulty understanding puns or plays on words, for example. As for expressing myself, I'm slightly more at ease in French, but it depends on circumstances. Whenever I try to write something ever-so-slightly poetic, I actually find English even more natural than French, because English always seems to have just the right word: as I wrote in a previous entry, English is a wanton word hoarder with a fetish for the heirlooms of Papa German and Mama French, so if you view the words as the colors on the language's palette, English gives you much more nuance at a cheap price. In the end, if we compare two of my little fragments in which I chose my words with some care and which are in a similar tone, say this one in English and this one in French, I don't think there's much difference (you're allowed to think that I'm a terrible writer, but I contend to being an equally terrible writer in English and in French 😉). But if I don't take the time to choose my words with care, e.g., if I wish to write something long, then I generally find that the sentences flow more easily in French than in English where I'm constantly asking myself wait, is that really idiomatic?; similarly, when speaking English (which I now rarely have the occasion to do), I can clearly feel, at least during the first hour or so, that my English has become rusty and that my thoughts are annoyingly faster than my mouth can process them.

However, there is one important criterion which the Simple English Wikipedia that I copied above does not mention and which, in my mind, is the most important one in deciding whether a speaker's language is “their own” or feels alien to them: do they think their own inner thoughts in that language? I mean: whichever language(s) your inner voice talks in (whether during internal monologue or internal dialogue), barring any deliberate effort to think in a foreign language, is (are) the language(s) you feel “at home” in. And I don't mean which language you dream in: dreaming is something different, I have dreams in German occasionally, but I've never thought in German except as part of a self-inflicted exercise where I deliberately tried to think in German to see how it went (spoiler: it didn't go very well).

Clarification (): I realize that my point in bringing this up is made very unclear by the way I phrased it, so let me elucidate: this “inner voice” criterion is not supposed to supplement or replace the criteria given above for defining a native speaker, but rather, to define a possibly different and IMO more interesting/relevant category of speakers than native ones, namely those whom I might be tempted to call owner speakers, viz., those who sufficienty feel that the language is theirs that they use it to express their own thoughts. That is: I'm not proposing to use the “inner voice” as a way to test whether a speaker is a native speaker, I'm proposing to use these owner speakers instead of native speakers in any study or statement which might have focused on native speakers. A problem with this definition, however, is that not everyone has an “inner voice”, as is pointed to me in the comments and as this unscientific poll illustrates: so a question would be to find a definition which matches (at least reasonably well) for people who do have an inner voice, but which applies to everyone.

And as far as that criterion goes, I think in English about as frequently as I think in French. But it really depends on what I'm thinking about: abstract thought will generally be in English, so when I'm thinking about math, for example, it tends to be in English (except for mental arithmetic!, which I do in French); this is even more true about computers since most of the computer jargon doesn't even exist in French; but thoughts about my daily life are almost invariably in French, e.g., if I'm trying to remember the items in my grocery shopping list, there's no way they will pop in my mind in English (I'm not even sure how one would say something like yaourt nature in English, maybe unflavored yogurt, but such things are virtually nonexistent in North America). For some reason, if I swear because something angers me, the swearing is typically in English (is this because during my childhood I frequently heard my father swear—in English—and almost never my mother?), except if there's someone else around with whom I've been speaking French just before. Also, my erotic thoughts tend to be in English, which is inexplicable given that I didn't read a lot of erotica in English (nor in any language, for that matter).

All of this having been said,—why did I now more or less stop writing blog entries in English?

Ideally, what I would have liked to do is make everything bilingual: write every single entry in both languages. I tried to do this on occasion, and boy is it a pain. First, I just hate translating in general: once my thoughts have taken form in a particular language, the effort to rephrase them in another language, even one I know very well, is considerable, and always leaves me unsatisfied (if I stick to a very literal translation, it sounds profoundly unidiomatic; but if I try to rephrase my thoughts in a more natural way in the target language, then I think, hey, maybe this is a better way of saying it, and I start back-translating it into the formerly-source language, wash, rinse, repeat). Also, by the time I finish writing a blog entry, and often long before I finish, I grow tired of the subject and, having dumped my thoughts to written form, want to move on to something else: rereading them all over again to translate is just way beyond my patience. But there is another factor at play: oftentimes I will make some corrections, additions or various other small changes to previously published entries (whenever they are substantial I will flag them as addition, correction, update or something of the sort, with a timestamp if relevant; but when correcting minor typos or just rephrasing a thought without any substantial change, I simply edit stealthily): keeping several different languages in sync (the translation/update confluence problem, as I like to call it) is exasperatingly tedious. Merely rewriting the tiny blurb displayed at the top of this blog, while keeping it bilingual, has proved amazingly annoying as I made various edits and amendments and changed my mind a few times as to what I was going to say (although, to be honest, part of the difficulty is that I wanted to keep slightly different versions for the recent entries pages, the monthly archive pages, the index of all entries, and the per-category pages). What I think might help making multilingual pages bearable to write is a process of semi-automated translation, where the author offers occasional hints to the automatic translator (embedded inside the HTML text!) as to how a particular word, phrase or sentence is to be translated, while still leaving most of the work to the computer gnomes.

So, full bilingualism being ruled out, what remains?

Well, there are certain entries that I think would be very strange to write in English, because they concern elements of my daily life that I'm really not used to expressing in English, and sometimes don't even know the words for (or the words may not even really exist). Recently I embarked upon the epic tale of getting my motorcycle driver's license and telling all about it through prodigiously boring blog entries: this is about a French license, and while the general categories (e.g., A2) are standardized in the European union, the details of the practical tests aren't (most EU countries would probably have some form of written/theoretical test, then an off-road test and an on-road one, but the specific code, plateau and circulation tests I was talking about were the French ones); and to an American reader the whole thing would have made even less sense. We may think of English as globish, i.e., the world's lingua franca, but for culturally specific facts and items, it would only work as such by importing a large number of terms from the specific culture being referred to. And, symmetrically, these entries would be most likely to interest French people or at least people who understand French (I admit this argument is flaky since about the same time I complained that I found it hard to get information on driver's licenses in other EU countries; but still, if I try to find information about how to get my French driver's license or read accounts of people who got it, I'm going to google in French, not in English).

Now I could still write a mixture of English and French blog entries, writing in French about things in my daily life which are somehow specific to France or the French-speaking world (or French cultural references) or simply about which I more naturally think in French, and in English for more abstract things that aren't tied to a specific culture, e.g., mathematics, philosophy, linguistics. I guess this was my initial (albeit not so precisely articulated) plan. The problem is, it doesn't work so well with the readership; or rather, I believe on the basis of my limited evidence that it doesn't.

Most people aren't fully bilingual. This is the sad reality of the tower of Babel we live in. I spent far too many lines of this blog post trying to discuss (and agonizing over) whether I should consider myself fully bilingual, but most people have a marked preference for reading in their first language, even if they have a decent command of one or more other languages. This I can certainly sympathize with: even though I can read German well enough to understand the meaning of, say, a news article or a Wikipedia page or a typical blog post, it takes effort (and time!): more effort than I'm generally willing to put into it unless I'm quite certain, from the start, that I will get something interesting out of it. A tweet in German I can certainly deal with. An epic 500-page rant about an obscure technical point, the like of which I am wont to write in this blog… not so much. And I suspect the same holds true for many of my readers whose native language is French. (The actual evidence is limited, though, being based mostly on the amount of feedback I got in the comments back in the time when I did write such entries in English.) As for people who speak English better than they speak French, most of them probably speak very little French or none at all, and I suspect most of those would be put off by a blog roughly half of whose entries would be in a language they didn't understand. (Yes, they can always use Google Translate or various other translation tools, but in practice I think the translator's broken syntax and word confusions rapidly become irritating.)

At various points in my blogging history I made an effort to gain a more diverse readership, but these efforts always failed: empirical evidence always pointed to the fact that most of my readers were French, and these people preferred content written in French, while English speakers who did not also understand French fairly well were very difficult to lure into reading my ramblings about Life, the Universe and Everything.

The Right Thing® to do would probably have been to open two separate blogs, one in English and one in French, written in such a way that one could follow just the one, or just the other, or both, and perhaps post a short summary of entries from one into the other, or some such setup. But not only does this require a lot of effort, it also goes against my natural “brain dumping” tendencies: for the same reason that I don't want to separate my blog into a math blog and a non-math blog (or a scientific blog and a non-scientific one, or any like distinction), because my blog is my personal brain dump, full of cross-domain references and links which are part of my overarching sense of Oneness, I also don't want to split my blog entries by language. I care to some extent about my readership (and making their life easier), but only insofar as it doesn't impede my primary brain-dumping mission or require considerable effort on my part.

So you can see the conundrum, and how it got me to write essentially just in French. The only exceptions being entries that for which I have a specific reason for writing in English (like this one) or which would make little sense in French (e.g., my English pronunciation poll), and also my “gratuitous literary fragments” when they sprout in my mind in English (and nobody reads these anyway ☹️).

So far the same phenomenon hasn't happened on Twitter: I still find myself tweeting in both English and French in roughly similar proportion. (Of the tweets I wrote that are not retweets and not replies, roughly 55% were in English, 42% in French, and the remaining 3% other or undecided, based on the language detection by Twitter itself, which may be unreliable; of replies specifically, including self-replies, roughly 40% were in English and 56% in French, with the remaining 4% other or undecided; and of (native) retweets by me, 62% were in English, 32% were in French, and 6% other or undecided.) But I do notice that the number of my followers whom I suspect of being primarily French-speaking seem to outnumber all the others (this is just an overall impression, not based on any precise stats), so maybe things will change. (Already the stats which I gave in this paragraph suggest that, while I try to start conversations and share content more frequently in English, I get dragged into conversations in French more often than in English.)

↑Entry #2631 [older| permalink|newer] / ↑Entrée #2631 [précédente| permalien|suivante] ↑

↓Entry #2630 [older| permalink|newer] / ↓Entrée #2630 [précédente| permalien|suivante] ↓

(vendredi)

Sur la réforme 2020 du permis moto, le permis en général, et questions adjacentes

Méta (voire méta-méta) : Oh non, encore une entrée sur la moto ! En fait, pas tellement, puisque cette fois je vais parler des modalités du permis, mais laissez-moi d'abord expliquer pourquoi je tenais à écrire ça.

Méta (donc) : A priori le sujet ne me concerne plus puisque j'ai non seulement obtenu mon permis mais même fini par recevoir le bout de plastique qui l'atteste. Mais puisque, comme le documentateur frénétique que je suis, j'ai fait le boulot de service public, dans des entrées passées (à commencer par celle-ci) de décrire les épreuves comme j'aurais voulu qu'on me les expliquât, je me suis dit que mon devoir de service public s'étendait jusqu'à décrire aussi la réforme qui se profile à l'horizon (et qui a la conséquence irritante pour moi que ce boulot de service public aura été, en fait, assez inutile) : donc j'ai cherché à trouver des informations sur cette réforme (documentées de façon éparse et parfois incohérente entre des sources pas du tout officielles comme des vidéos YouTube), en me disant que j'allais les rassembler en une page écrite et trouvable sur Google avec une recherche comme réforme permis moto 2020 ou réforme permis A2 ou quelque chose comme ça ; et puis là, je suis tombé dans un monde parallèle où cette page existait déjà (alors que j'avais cherché, je vous jure !), et bien sûr c'est FlatFab de moto-securite.fr qui l'a écrite et il vous dit tout sur la réforme du permis A2 en 2020 (dans une page bien écrite et beaucoup plus complète que tout le reste de ce que j'ai trouvé, et dont le principal reproche qu'on peut lui faire est qu'il parle aussi de précédentes réformes donc on risque de croire que ce n'est pas la bonne ou de s'embrouiller). Du coup, cette entrée-ci n'avait plus de raison d'être, mais comme j'avais commencé à l'écrire et à ranter sur des sujets annexes, vous vous doutez bien que ce n'est pas ce qui allait m'arrêter de faire des phrases interminables.

Bref, n'ayant plus vraiment à faire le boulot de décrire cette réforme, je vais surtout évoquer quelques réflexions qu'elle m'inspire.

Mais pour rappeler quand même de quoi il s'agit, la forme actuelle, i.e., avant réforme 2020 (et depuis 2013), du permis A2 français (celui que j'ai obtenu et qui permet, à partir de 18 ans, de conduire des motocyclettes de puissance « intermédiaire » c'est-à-dire essentiellement ≤35kW) est la suivante : il comporte trois épreuves :

  • une épreuve théorique générale (l'ETG ou épreuve de code, j'avais raconté ça ici), commune à tous les permis français (et qu'on est dispensé de repasser si on a obtenu un permis dans les 5 dernières années, le code lui-même étant valable 5 ans) : il s'agit d'un QCM de 40 questions illustrées de photos ou de diapositives, portant sur des points de réglementation, de conduite d'une voiture, ou des questions générales de sécurité, et pour réussir l'épreuve il s'agit d'obtenir au moins 35 questions justes sur 40 ;
  • une épreuve hors-circulation (l'épreuve de plateau, j'avais raconté ça ici), elle-même subdivisée en cinq exercices (où on dispose de deux essais pour les trois du milieu) :
    • déplacement de la moto sans l'aide du moteur (ou poussette) + contrôle de l'état du véhicule (ou vérifications),
    • test de maîtrise à allure réduite (ou [parcours] lent),
    • test de maîtrise à allure plus élevée, partie freinage d'urgence,
    • test de maîtrise à allure plus élevée, partie évitement,
    • interrogation orale (ou fiches) ;
    chacun de ces cinq exercices est noté A, B ou C, sauf le premier qui ne peut être noté que A ou B, le C est éliminatoire, et la réussite de l'épreuve de plateau étant acquise lorsque le candidat obtient au moins deux A et aucun C ; le résultat est connu sur-le-champ ;
  • une épreuve de circulation, sur route (et très semblable à l'épreuve correspondante du permis voiture (B), mais avec un barème un peu différent ; j'avais raconté ça ici), notée sur 27 selon diverses catégories (la plupart pouvant donner lieu aux notes 3, 2, 1, 0 ou E, ce dernier étant éliminatoire) : pour réussir l'épreuve, il s'agit d'obtenir au moins 17/27 sans aucun E éliminatoire ; les résultats sont connus deux jours plus tard, et la date de début de validité du permis est celle de l'épreuve de circulation réussie (même si le plastique est reçu quelques mois plus tard).

Ces trois épreuves doivent être validées successivement : on ne peut se présenter à l'épreuve de plateau qu'une fois le code acquis, et à l'épreuve de circulation qu'une fois le code et le plateau acquis. Le code, une fois acquis, est valable pour une durée de cinq ans ou cinq présentation de chaque type d'épreuve (c'est-à-dire que cinq échecs au plateau ou cinq échecs à la circulation invalident le code qui doit alors être repassé) ; le plateau, lui, est valable pour seulement trois ans mais sans limitation de nombre de passages à l'épreuve de circulation (si on échoue cinq fois, on doit repasser le code, mais le plateau reste valable). [correction () :] Le code, une fois acquis, est valable pour une durée de cinq ans ou cinq présentation des deux types d'épreuves confondues (c'est-à-dire que cinq échecs aux deux épreuves pratiques réunies invalident le code qui doit alors être repassé) ; le plateau, lui, est valable pour seulement trois ans ou cinq présentations de l'épreuve de circulation (mais même si on doit repasser le code avant, le plateau éventuellement acquis reste valable dans ces limites). Je crois comprendre que le contenu de ce paragraphe ne sera pas modifié par la réforme, mais rien n'est certain.

En l'état actuel, le taux de réussite pour le permis A2 est de 64% à l'épreuve de plateau et 91% à l'épreuve de circulation ; pour comparaison, il est de 57% au permis B (chiffres pour 2017, France entière : source ici).

Les points essentiels de la réforme 2020 sont les suivants :

  • l'épreuve de code générale est remplacée par une épreuve de code spéciale moto (ETM : épreuve théorique moto), dont les modalités devraient rester, pour le reste, essentiellement les mêmes (40 questions sous forme de QCM), la différence essentielle étant qu'on posera des questions sur la circulation à moto plutôt qu'au volant d'une voiture, et le contenu recouvrera au moins le contenu des « fiches » d'avant la réforme ;
  • l'épreuve de plateau sera ramenée à un seul exercice, combinant le parcours lent, le freinage d'urgence, le slalom et l'évitement du plateau avant réforme, plus encore quelques demi-tours pour lier tout ça et quelques modifications marginales, en un unique parcours (long et compliqué !) noté en une seule fois ; les « fiches » sont supprimées (remplacées par l'ETM), et la « poussette » les vérifications sont déplacées à l'épreuve de circulation [mise à jour () : finalement, il semble que la poussette soit maintenue au plateau (et simplifiée), alors que les vérifications disparaissent complètement] ;
  • l'épreuve de circulation sera rallongée, de nouveaux éléments seront notés (la poussette et les vérifications, mais aussi la maîtrise de la trajectoire de sécurité dans les virages : le total de points serait probablement porté à 31, avec peut-être l'exigence d'obtenir au moins 23 ou 24 sur 31, tout ça semble encore mal défini) [mise à jour () : finalement, il semble que le total reste de 27, sans élément de notation supplémentaire, mais que le minimum pour réussir soit élevé à 21/27].

Il n'est pas clair quand cette réforme entrera en vigueur : on parlait du 1er janvier 2020, elle a été repoussée au moins au 1er mars, et peut-être au 1er juin [mise à jour () : finalement, il semble que ce soit le 1er mars, l'ETM étant mise en place immédiatement, et les nouvelles épreuves de plateau tout-en-un commençant le 18 mars]. Peut-être que certains des points évoqués ci-dessus seront redéfinis ou modifiés d'ici là, mais les grandes lignes devraient être les mêmes. Des mesures de transition seront probablement mises en place : vraisemblablement, les candidats inscrits avant la mise en place de la réforme auront pendant six mois(?) le droit de se présenter à l'épreuve de plateau avec un code général (ETG) et pas un code spécifique moto (ETM).

Il y a eu des rumeurs d'autres changements, comme le fait que les examinateurs puissent (ou doivent ?) eux-mêmes rouler à moto pour suivre les candidats, mais je suppose que ce sont des idées qui ont été lancées en l'air et qui n'ont abouti à rien.

Pour plus de détails, je renvoie à la page de FlatFab déjà liée ci-dessus, [ajout () :] cette page sur motoblouz.com et cette vidéo YouTube, ainsi que celle-ci qui présente spécifiquement le nouveau parcours plateau. [Voir aussi le fil Twitter qui finit ici.] [Mise à jour () : cette vidéo publiée récemment m'a permis de préciser/corriger certains points évoqués ci-dessus.] [Mise à jour () : encore une vidéo sur le sujet (avec le fondateur de l'auto-école où j'ai passé mon peris), qui précise un certain nombre de choses, et on voit notamment brièvement, à partir de 26′17″, défiler les documents explicatifs de la partie plateau.] [Mise à jour () : encore une vidéo qui défend l'idée que ce nouveau permis n'est pas plus dur.] Ce sont là mes sources principales (plus quelques discussions avec mes moniteurs pendant mes heures de conduite, et quelques autres vidéos YouTube par exemple celle-ci), et on peut se demander quelles sont leurs sources. Un mot à ce sujet :

Ça m'exaspère un peu que l'Administration elle-même soit muette sur cette réforme : même si rien n'est encore officiellement acté (au sens où aucun arrêté n'a été pris pour modifier les modalités de l'épreuve), ça me semble normal d'attendre un minimum de transparence sur les changements à venir. Autrement dit, je trouve qu'on serait en droit d'attendre un dossier officiel sur le site Web de la Sécurité Routière qui explique les modalités de la réforme et les enjeux auxquels elle essaye de se confronter, qui détaille les changements et explique leurs raisons, qui décrive précisément les nouvelles épreuves et le calendrier de leur mise en place, et qui précise les nouvelles consignes de notation. (Y compris, si tout n'est pas encore décidé, en précisant les points qui restent à définir.) Or il n'en est rien : les infos sont communiquées de façon officieuse à des représentants des auto-écoles (et peut-être quelques journalistes spécialisés) dans des réunions qui ne sont pas publiques, et on n'a que des rumeurs qui fuitent sur des forums ou des vidéos YouTube (voire des commentaires de telles vidéos).

Tout ça est vraiment problématique, parce que même si on peut prétendre que la réforme concerne avant tout les auto-écoles, et que les candidats seront de toute façon informés par elles, ce n'est pas vrai :

  • il est en principe possible de passer le permis A2 en candidat libre (faire ça dans les règles doit être sacrément compliqué pour toutes sortes de raisons, entre la difficulté de trouver une assurance, la nécessité de faire acheminer la moto d'examen et de trouver quelqu'un pour conduire le véhicule suiveur, mais c'est possible et des gens le font), et ces candidats libres ont autant que les élèves des auto-écoles le droit d'être tenus informés et de ne pas découvrir soudainement que l'épreuve qu'ils ont préparée n'est plus la bonne ;
  • les futurs inscrits, qui se renseignent parce qu'ils envisagent de passer le permis, ont aussi le droit de savoir à quelle sauce ils seront mangés, surtout pendant une période de transition où il est encore possible de s'inscrire à temps pour passer le permis « ancienne formule » (ou en bénéficiant de mesures transitoires) ;
  • et enfin, la manière dont on forme n'importe quelle catégorie d'usagers de la route est un sujet qui concerne tous les usagers de la route, donc en pratique, tout le monde (par exemple, les cyclistes ont le droit de se sentir concernés par la question de savoir si on enseigne bien aux apprentis motards à ne pas prendre les pistes cyclables ou empiéter sur les sas vélos aux feux rouges, et c'est précisément quelque chose qui devrait être mieux enseigné avec l'introduction d'un code spécial moto).

Bref, même si l'ordre juridique n'impose rien à l'Administration à part publier l'arrêté pertinent, il me semble vraiment souhaitable qu'elle fasse preuve de plus de transparence dans les travaux préparatoires. Je me suis déjà plaint qu'il était vraiment difficile d'obtenir des informations sur la manière dont étaient faites les questions de l'épreuve théorique générale, je vais pouvoir faire les mêmes remarques sur l'épreuve théorique moto quand elle apparaîtra, et sur l'ensemble du processus de décision.

La moindre des choses serait de se demander (et donc, pour l'Administration d'expliquer) pourquoi on fait une telle réforme. La motivation sous-jacente, je suppose, c'est que les chiffres de la sécurité routière concernant les accidents à moto ne sont pas bons, et surtout, baissent beaucoup moins que ceux concernant les accidents en voiture (je n'ai plus la source sous la main, donc je dis ça de mémoire, mais l'idée est là). D'où deux points d'action évidents (là aussi, c'est moi qui interprète) :

  • renforcer l'enseignement théorique avec un code spécial moto (qui mettrait en lumière les spécificités du véhicule plutôt que les enseigner au travers de « fiches » mal aimées),
  • rendre plus importante l'épreuve de circulation par rapport à celle de plateau.

Actuellement (avant réforme), l'épreuve de circulation est largement perçue comme une formalité : avec un taux de réussite au-delà de 90% (ce qui est quand même paradoxal eu égard à l'accidentologie que je viens d'évoquer), elle est considérée comme allant de soi, en tout cas pour les candidats qui ont déjà le permis B ; beaucoup d'auto-écoles (mais ce n'était pas le cas de la mienne) la prennent à la légère et se contentent souvent d'une seule séance de circulation, et même si on cherche des conseils en ligne (texte ou vidéo) sur la préparation du permis moto, il y en a plein sur le plateau et quasiment rien sur la circulation. C'est vraiment le plateau qui est perçu comme la partie difficile et significative du permis moto. (J'en veux pour preuve le nombre de messages que j'ai vus çà et là dont la teneur était quelque chose comme ça y est, j'ai eu mon plateau ! passage de la circulation prévu pour <tel mois>, et ensuite je m'achète <tel modèle de moto>, comme si l'échec à la circulation était à peine imaginable.)

Pourtant, de ce que j'ai compris des causes des accidents à moto, il s'agit beaucoup plus souvent de fautes de circulation (mauvaise prise d'information ou mauvaise anticipation des réactions des autres usagers) que de fautes de maniement du véhicule (et même parmi les fautes de maniement du véhicule, les plus courantes sont des sorties de virage, qui ne concernent pas vraiment un point enseigné sur le plateau). La réforme vise donc, de ce que je comprends, à corriger un peu ce déséquilibre, et on ne peut que l'applaudir : la partie « circulation » du permis A2 deviendra à la fois plus longue et plus difficile que celle du permis B (et il est certainement normal d'être plus exigeant à moto), et ne sera donc plus prise comme de la rigolade, même par ceux qui ont déjà le permis B.

Ceci étant, la réforme de la partie plateau laisse un peu perplexe. L'objectif, là, est de gagner du temps lors des passages sans vraiment alléger l'épreuve ; mais le résultat est un parcours extrêmement compliqué où on doit enchaîner dans le bon ordre un nombre incroyable de tours, demi-tours et autres passages entre des points imposés, et je suis persuadé qu'il y aura beaucoup de recalés pour fautes de parcours. On aura tendance à dire tout de même, le candidat est censé avoir passé au moins une douzaine d'heures de préparation de cet exercice, il peut bien mémoriser sans se tromper un parcours de quelques minutes, fût-il un peu complexe !, mais en fait, entre le dépaysement de se retrouver sur un plateau qu'on ne connaît pas, et le stress de l'examen, les fautes de parcours ne sont pas rares, déjà avec la formule actuelle, alors la formule trois-parcours-en-un qui est proposée risque d'être bien plus que trois fois pire. (Or s'il y a une compétence qu'on n'est pas censé être en train de tester, c'est la mémoire du candidat.) L'autre problème posé par un parcours unique et si compliqué, c'est de savoir comment les auto-écoles vont pouvoir le préparer : il me semble que la configuration standard actuelle (c'est ce que nous avions) est d'avoir en parallèle sur le terrain d'entraînement un plateau configuré pour le parcours lent et un autre pour les parcours rapides, ce qui permet de tourner assez vite (sur le parcours rapide, un seul élève passe en même temps ; sur le lent, on peut en avoir deux en parallèle sans trop de mal) ; avec ce nouveau parcours unique assez long à faire de bout en bout, il sera beaucoup plus difficile de ne pas se marcher sur les pieds (se rouler sur les roues ? enfin, vous me comprenez).

Quant à la réforme de la partie circulation, il faut se demander si les centres d'examens ne seront pas un peu submergés. La théorie est qu'on économise autant de temps sur la partie plateau qu'on en ajoute sur la partie circulation, mais dans la réalité ça ne se passera pas comme ça, les créneaux beaucoup plus longs seront plus compliqués à placer.

Par ailleurs, si cette réforme du permis A2 est certainement bienvenue pour la sécurité de tous, elle exacerbe une certaine contradiction entre la difficulté (accrue) du permis A2 et le fait que :

  • essentiellement aucune formation n'est demandée pour conduire un deux-roues motorisé de ≤125cm³ (motocyclette légère), i.e., l'équivalence du permis A1 : juste deux ans d'ancienneté du permis B et une formation de 7h en auto-école (non validée par un examen) ;
  • de même[#], il n'y a pas, en France, de nouvelle épreuve pour passer du permis A2 (motocyclettes de puissance intermédiaire) au permis A (toutes motos)[#2] : juste deux ans d'ancienneté du permis A2 et une formation de 7h en auto-école (non validée par un examen).

[#] Malgré la similarité formelle entre les deux points qui précèdent, le Club Contexte signale une différence importante, qui est que l'autorisation de conduire une moto de ≤125cm³ avec le permis B + 2 ans d'ancienneté + formation de 7h est une équivalence nationale du permis A1 qui n'est pas une vraie mention A1 sur le permis et n'est pas valable dans les autres pays, tandis que la passerelle vers le permis A qui s'obtient maintenant uniquement (voir la note suivante) avec le permis A2 + 2 ans d'ancienneté + formation de 7h, est, pour sa part, un vrai permis A, valable dans tous les pays qui ont la distinction entre catégories A2 et A, et notamment toute l'Union européenne.

[#2] Jusqu'en 2016 (éclaircissement : je veux dire, juste avant 2016, et en fait, depuis 2013, parce qu'avant c'était encore différent, cf. les commentaires) on pouvait passer directement le permis A si on était âgé d'au moins 24 ans. Depuis 2016, le permis A ne peut s'obtenir que par ce système : 2 ans d'ancienneté du permis A2 et une formation complémentaire (le A2 est donc en pratique une sorte de version probatoire du A même si, comme le signale la note précédente, le A est une vraie mention au permis qui nécessite de refaire le bout de plastique).

S'agissant du premier point, on peut arguer qu'il est un peu bizarre de rendre le permis A2 plus exigeant tout en donnant à tour de bras l'équivalence du permis A1 étant donné que les scooters sont quand même, en ville, ceux qui conduisent le plus mal (j'ai déjà dit tout le mal que je pensais des scooters ? ah oui, je l'ai déjà dit). La réponse d'un de mes moniteurs moto quand je lui ai demandé ce qu'il en pensait a été : oui, mais si on retirait le droit de conduire un scooter avec juste deux ans d'ancienneté du permis B, les gens conduiraient sans permis et ce serait encore pire : c'est un peu déprimant, mais il a sans doute raison.

Une autre incohérence dans le même genre est que les gens qui passent vraiment le permis A1 (c'est-à-dire des jeunes entre 16 et 18 ans, parce qu'au-delà ça n'a aucun intérêt de passer le A1 dont les épreuves sont exactement les mêmes que celles du A2 avec juste une moto de ≤125cm³) doivent repasser… exactement les mêmes épreuves[#3] quand ils passent le permis A2, mais que la même logique ne vaut pas pour passer du A2 au A. Il faudrait savoir : soit ça a un intérêt de revérifier les mêmes compétences sur une moto plus puissante, soit ça n'en a pas ; personnellement, je n'en sais rien, mais il est bizarre que la réponse soit différente pour A1→A2 et A2→A. (Bon, avec cette réforme, les détenteurs récents du permis A1 seront au moins dispensés de repasser l'épreuve théorique moto.)

[#3] Idem, pour passer du permis B1 (quadricycles lourds à moteur) au permis B, on doit tout repasser. Ce qui explique sans doute qu'essentiellement personne ne passe le permis B1 (221 candidats dans toute la France en 2017, soit même pas 0.015% de l'ensemble des candidats du groupe B).

Je ne sais pas, donc, si conduire une moto plus puissante est intrinsèquement plus difficile ou si elles sont juste plus dangereuses parce qu'on est plus tenté de faire des conneries avec. (La seule fois où j'ai eu une moto de 125cm³ entre les jambes, ça ne m'a pas semblé plus facile qu'une 500cm³, plutôt le contraire, même, je n'arrêtais pas de caler en ville et sur l'autoroute je ne me sentais pas du tout rassuré à cause du manque de réserve d'accélération.)

Quoi qu'il en soit, il y aurait une raison naturelle de faire un vrai examen lors du passage du permis A2 au permis A (comme c'est le cas pour ceux qui ont le permis A1 quand ils veulent passer le A), ce serait de vérifier que, deux ans plus tard, les élèves n'ont pas trop oublié les règles de circulation. Un de mes moniteurs moto me disait que, quand il enseigne la formation passerelle A2→A, il constate beaucoup de pertes de bonnes habitudes de circulation acquises deux ans plus tôt. L'idée de mettre un vrai examen à ce moment-là serait donc d'utiliser le changement de catégorie de puissance comme prétexte pour recontrôler les règles de circulation. Certes, moi personnellement ça m'ennuierait bien de devoir re-re-re-passer un permis, et sans doute de découvrir que je dois encore y passer 244 823 040 heures, mais je pense quand même que ce serait une mesure sensée. Mais, en l'état des projets, la réforme annoncée du permis concerne uniquement le A2 et pas la passerelle A2→A qui resterait acquise par une simple formation de 7h après 2 ans de permis A2.

Je me suis plusieurs fois dit que je devais faire le tour des pays européens pour chercher à savoir les modalités de délivrance de leurs permis de conduire (de toutes les catégories) : parce que si les catégories (AM, A1, A2, A, B1, B, C1, C, D1, D, BE, C1E, D1E et DE, regardez les pictogrammes au dos du bout de plastique — et, non, il n'y a pas de B1E et ça me perturbe) sont normalisées au niveau européen, les modalités d'accès à ces catégories ne le sont pas du tout. Malheureusement, c'est assez difficile d'avoir accès à ces informations, surtout si on ne sait pas lire 24 langues différentes. Il y a bien sûr des points communs (presque toujours au moins une épreuve théorique et au moins une épreuve pratique, et, s'agissant de la moto, en fait deux épreuves pratiques, une hors circulation et une en circulation), mais énormément de différences dans les détails. De ce que je comprends, dans la plupart des autres pays européens, on peut passer directement le permis A (comme c'était le cas en France avant 2016), en revanche, si on a déjà le A2, on n'obtient pas le A par une simple formalité ; et, qui sait, il y a peut-être même des pays où le permis B1 a une raison d'être, comment savoir…

↑Entry #2630 [older| permalink|newer] / ↑Entrée #2630 [précédente| permalien|suivante] ↑

Only the 20 most recent entries were included above. Continue to older entries.

Seules les 20 plus récentes entrées ont été incluses ici. Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]