David Madore's WebLog: Covid-19

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., celle écrite en dernier est en haut). Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Cette page-ci rassemble les entrées de la catégorie Covid-19 : il y a une liste de toutes les catégories à la fin de cette page, et un index de toutes les entrées. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the latest written is on top). Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. This page lists entries in category Covid-19: there is a list of all categories at the end of this page, and an index of all entries. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Entries with category Covid-19 / Entrées de la catégorie Covid-19:

↓Entry #2661 [older| permalink|newer] / ↓Entrée #2661 [précédente| permalien|suivante] ↓

(jeudi)

Où en est-on avec la covid et cette seconde vague ?

Il y a quelques mois, alors que la première vague de covid-19 était en cours en France et pour l'essentiel en Europe (voire dans le monde), j'avais tenté quelques spéculations sur ce qui arriverait par la suite. Maintenant qu'une seconde vague épidémique est en train de se produire, il est temps de revisiter ces spéculations.

(Petite note typographique et linguistique : on m'a convaincu de retirer la majuscule à covid, qui effectivement n'en mérite pas plus que la grippe ou le rhume. Pour ce qui est du genre grammatical de ce mot en français, j'ai décidé d'écrire de façon plus ou moins aléatoire le ou la, et même pas de manière cohérente au sein d'un texte, juste pour provoquer les gens qui ont un avis très tranché sur cette question, c'est-à-dire, ceux qui n'arrivent pas à comprendre le concept de l'un ou l'autre se dit ou se disent en matière de langage.)

Les choses sur lesquelles j'ai eu raison, ou je pense avoir eu raison, dans ce texte (mais bon, elles n'étaient pas bien difficiles à voir et j'étais loin d'être le seul à les dire) est qu'il y aurait environ 30 000 morts lors de la première vague, que les mécanismes de suivi des contacts seraient un échec complet (mais je n'ai pas été clair : je pensais au suivi par smartphone, pas au traçage manuel), que le nombre et la disponibilité des tests serait amélioré mais resterait insuffisant, que ce qui marcherait le mieux est la distanciation sociale causée par la peur, et, qu'au bout d'un moment, il y aurait une seconde vague, mais progressant plus lentement que la première et avec une létalité moindre[#0]. Il y a des points qui restent encore tout à fait incertains ou discutables. J'écrivais qu'on en saurait de plus en plus de choses sur les modes réels de contamination, ce qui est partiellement vrai, mais ça reste décevant : il semble que les peurs de contamination par les surfaces (qui ont conduit à mettre du gel hydro-alcoolique partout) étaient exagérées (se laver les mains régulièrement est bien, mais il n'est pas utile de désinfecter ses courses en rentrant du supermarché), mais concernant la transmission du virus dans l'air ou l'efficacité du port des masques on reste scandaleusement ignorants (cf. aussi ceci). Le principal point sur lequel j'ai eu tort, c'est quand j'écris que la seconde vague commencerait peu après la levée du confinement : il a fallu deux ou trois mois (ce n'est pas très clair quand il faut la faire commencer), je pensais que ça viendrait plus vite. J'ai trouvé ça vraiment mystérieux que l'épidémie s'obstinait à ne pas repartir en juin, puis en juillet, et même encore début août.

[#0] Ajout () : Dans mon texte d'avril, j'écrivais comme les protocoles médicaux seront un peu mieux rodés, les options thérapeutiques un peu mieux connues et les mystères entourant la maladie un peu dissipés, cette seconde vague enregistrera un taux de létalité plus faible. Il y a d'autres raisons à la létalité plus faible (population touchée plus jeune notamment, cf. ci-dessous), mais il semble bien que la meilleure prise en charge joue un rôle important.

Maintenant je pense que mon analyse était substantiellement correcte : l'immunité acquise lors de la première vague n'était pas suffisante pour arrêter durablement l'épidémie ; elle a été suppléée pendant un temps par le fait que les gens ont pris peur (pour eux ou pour leurs proches) et se sont tenus à distance les uns des autres ; mais cette peur s'est largement dissipée et, fatalement, l'épidémie reprend (en commençant par ceux qui ont le moins peur, donc globalement les moins à risque, ce qui est plutôt une bonne chose car en devenant immuns ils protégeront les autres).

Globalement, je ne crois pas du tout, et je l'ai plusieurs fois répété ici, à l'idée qu'on puisse arrêter durablement une épidémie par des mesures comportementales (distanciation sociale, par exemple) : à moins d'éradiquer complètement le pathogène, ce qui n'est plus envisageable s'agissant de SARS-CoV-2 (alors qu'on a apparemment réussi pour SARS-CoV-1), l'épidémie repartira toujours, parce que les mesures comportementales tiennent un petit moment, puis les gens reprennent leurs habitudes. Qu'on cherche à imposer ces changements par la contrainte (le confinement en étant le cas le plus violent) ou par la pédagogie, ce n'est pas tenable dans la durée — ou alors il faut arriver à un changement réel des mentalités voire de la société, mais celui-ci prend plus de temps que l'épidémie n'en laisse. Il me semble donc inévitable que l'épidémie persiste jusqu'à ce qu'il y ait suffisamment d'immunisés pour qu'elle reflue. (Ce nombre est vraiment difficile à calculer pour les raisons que j'ai déjà expliquées. Mais comme de toute façon on continue à n'avoir qu'une très mauvaise idée du nombre d'immunisés, que les tests sérologiques IgG ne détectent que très mal, parce que l'immunité c'est compliqué et que tout le monde ne fait pas des anticorps, connaître ce seuil ne servirait pas tant que ça.)

Bien sûr, on peut espérer qu'un vaccin aide à atteindre ce nombre d'immuns (la vitesse à laquelle le développement se fait est assez impressionnante, il faut bien le dire), mais je pense que c'est surestimer à la fois la vitesse à laquelle on peut les développer + tester + distribuer, l'efficacité qu'auront sans doute les premiers vaccins et surtout la proportion de la population qu'on arrivera à vacciner, que d'espérer que ce soit un game changer spectaculaire.

La manie actuelle, en France et dans un certain nombre d'autres pays, c'est de tout miser sur les masques. C'est tout de même assez ironique vu qu'on nous expliquait il y a quelques mois que les masques ne serviraient à rien pour le grand public bien portant. On est passé d'un extrême à l'autre, et, comme souvent, la vérité est quelque part entre les deux. Le port du masque est certainement une bonne idée en général, mais comme pour les autres mesures comportementales, je pense qu'on ne peut pas compter dessus à long terme : pour aplatir un peu un pic épidémique, cela fait sens, mais imaginer que tout le monde portera un masque en public en permanence jusqu'à ce qu'un vaccin miracle arrive, et peut-être à tout jamais parce que rien ne dit que vaccin arriver vraiment, c'est vraiment avoir perdu contact avec la réalité.

Je suis globalement assez sceptique sur le fait que le port du masque par le grand public change énormément la dynamique de l'épidémie. Néanmoins, à l'intérieur c'est probablement une bonne idée (surtout quand il s'agit de parler à quelqu'un, une condition qu'on ne souligne pas assez). À l'extérieur, en revanche, ça me semble idiot car non seulement inutile mais plausiblement contre-productif : voir ce fil Twitter [lien Twitter direct] pour l'aspect idiot ainsi que celui-ci [lien Twitter direct] pour l'aspect contre-productif. Quand on en vient à l'imposer même à moto sous le casque (où ce n'est pas juste ridicule, c'est dangereux à cause de la buée provoquée), on atteint un niveau d'absurde qui est vraiment impressionnant (je n'arrive pas à savoir si l'imbécile qui a pris cette décision ne s'est simplement pas rendu compte de ce qu'il faisait, ou s'il s'en est rendu compte et qu'il a persisté : toujours est-il que ça n'a pas, à ma connaissance, été corrigé depuis, alors que ça a été à moitié fait pour les vélos).

À la limite, comme je l'explique dans ces fils Twitter, ce qui m'embête n'est pas tant qu'on impose le port du masque dans des conditions absurdes : c'est surtout que les autorités françaises soient tellement en mode panique qu'elles prennent des mesures dénuées de sens. Je ne sais pas si elles font ça parce qu'elles pensent vraiment que ça servira à quelque chose que les Parisiens portent le masque dans la rue, ou si elles le font parce qu'elles veulent montrer à leur électorat qu'elles font quelque chose, mais les deux sont assez terrifiants. Et évidemment, comme elles ne savent faire que ça, que ces mesures soient de nouveau prises à coup d'amendes, de peur du gendarme et de culpabilisation. Ce qui m'embête plus largement, c'est qu'il n'y a aucune prise en compte du fait que les masques sont gênants à porter, et on ne convainc pas quelqu'un de faire quelque chose, surtout pas durablement, si on s'obstine dans le déni quant à ce qui lui pose problème. Et ce qui me terrifie, c'est qu'à force de faire n'importe quoi, et que rien ne marche, on en revienne à confiner (peut-être pas la France, mais possiblement les régions les plus touchées, et notamment l'Île-de-France). Je vais y revenir.

{{{ Digression : S'il y a bien quelque chose que cette crise a exposé à vif, c'est à quel point il nous est difficile de nous rendre compte des souffrances les uns des autres, et, à cause de ça, de nous entendre sur la valeur relative des sacrifices dans les inévitables compromis qu'il faut mener.

C'est peu dire que j'ai mal vécu le confinement, mais ce qui m'a frappé aussi est combien j'ai eu du mal à faire passer cette idée que ma liberté m'est précieuse et que je souffre d'en être privé par la force, alors même que d'autres trouvaient fantastique de pouvoir faire une « pause », une « respiration », et l'occasion de faire plein de pain ou d'apprendre le georgien ; et ce, même auprès de gens qui sont très proches de moi : même des gens qui ne doutaient pas que je souffrisse, qui empathisaient avec moi au sens où mon traumatisme pouvait les émouvoir, ne parvenaient généralement pas pour autant à comprendre cette douleur, c'est-à-dire à se faire une représentation mentale raisonnablement précise de ses causes ou de son mécanisme. Et de façon générale, l'idée que le confinement était aussi un mal (peut-être un moindre mal mais néanmoins un mal), et je ne parle pas de mal économique mais de mal humain, personnel et social, n'avait pas sa place dans le discours national, à cause de l'héroïsation publique du personnel soignant qui voulait que les seules souffrances dignes d'être évoquées étaient celles des malades et de ceux qui les sauvaient, mais aussi à cause de cette dichotomie honteusement fallacieuse qui voulait faire croire qu'on avait un choix entre protéger des vies et protéger l'économie. (J'ai l'intention de revenir sur tout ça dans un autre texte que je veux consacré au confinement, mais comme c'est aussi douloureux de revenir en parler je procrastine.)

Et j'ai été moi-même pris à ce même piège, si j'ose dire, à ne pas arriver à comprendre le ressenti des autres, parce que je considérais comme totalement évident que l'obligation de porter un masque (même quand elle est ridicule, comme en extérieur) était « évidemment » un simple désagrément, un moindre mal que toute forme de confinement, et j'ai pris conscience du fait que, non, il y a des gens pour qui le port du masque est bien plus qu'un désagrément mineur, et qu'on ne doit pas simplement les ignorer.

Le monde s'est divisé avec une terrifiante facilité entre deux camps opposés, avec à un bout des complotistes dont les plus extrêmes nient purement et simplement l'existence du covid et/ou pensent que les vaccins sont une technique de Bill Gates pour contrôler le monde, et à l'autre ceux qui sont persuadés que le virus va tous nous tuer (ou au moins nous laisser d'affreuses séquelles pendant toute notre vie) et que la seule solution est de l'éradiquer complètement, ces deux camps s'accusant mutuellement des pires crimes. Cette polarisation s'est inexplicablement alignée selon un axe politique (aux États-Unis c'est très clair, puisque Donald Trump a joué son complotiste-en-chef, tous ceux qui s'opposent à lui se sont sentis obligés de soutenir n'importe quelle mesure d'endiguement en prétendant que le contraire sacrifiait les vies à l'économie ; mais, a priori, on aurait tout aussi bien pu avancer le discours, tout aussi simpliste et pas plus faux, que le confinement consistait à sacrifier les pauvres pour sauver les vieux[#]). C'est aussi parce que nous avons tellement de mal à nous parler et à entendre le véritable appel, c'est-à-dire souvent la souffrance, qui se cache derrière un alignement politique, que cette polarisation s'est faite aussi facilement. La science, évidemment, a été la première à en pâtir (et j'ai déjà fait remarquer que l'épidémiologie ne s'y attendait sans doute pas, alors que l'économie connaît cette situation depuis longtemps), à commencer par la notion d'immunité grégaire, qui est devenue tellement chargée politiquement qu'il vaut mieux ne plus jamais utiliser ce terme.

[#] Éclaircissement () : Ceci est un slogan, qui porte en lui une part de vérité (on s'est beaucoup préoccupé de sauver les personnes âgées, oubliant les conséquences sur les moins favorisés), mais qui, comme tout slogan, la déforme en la simplifiant, donc ça dépend surtout comment on l'interprète. Ce qui m'intéresse n'est pas de me positionner dessus : c'est de remarquer que le slogan sauvons les vies, pas l'économie (con comme tout slogan) a marché et pas il ne faut pas sacrifier les pauvres pour sauver les vieux, pour structurer une polarisation gauche-droite.

Finalement, comment arbitrer entre quelqu'un qui a peur de perdre un proche et quelqu'un qui souffre d'être enfermé ? C'est terrible, et je ne sais pas ; ce qui est sûr, cependant, c'est que ce n'est ni en niant une de ces souffrances, ni en traitant l'arbitrage comme évident, ou en le refusant au contraire, qu'on y arrivera. Mais mettons fin à cette digression. }}}

Bref.

Quelle sera l'ampleur de cette seconde vague en France ? C'est évidemment difficile à prédire ! Déjà on ne sait même pas postdire l'ampleur de la première.

Quelques ordres de grandeur pour fixer les idées (et signaler notre ignorance), néanmoins :

Officiellement, la première vague a vu de l'ordre de 150k contaminations, avec un pic à 4500/j. En réalité ces chiffres sont sous-estimés d'un facteur probablement de l'ordre de 50 (estimation vraiment à la louche : comme on n'a jamais fait d'échantillonage aléatoire digne de ce nom et que les enquêtes de séroprévalence ratent énormément d'infections, je l'ai mentionné ci-dessus, on n'en sait pas grand-chose), c'est-à-dire peut-être 10M de contaminations avec un pic à 250k/j. Le taux de croissance (la constante de la croissance exponentielle, i.e., la dérivée logarithmique) du nombre de cas était de l'ordre de 0.29/j la première semaine de mars, descendant à 0.18/j la semaine suivante, puis 0.12/j la suivante, et le pic est arrivé encore une ou deux semaines après. (Quand j'écris 0.29/j, c'est 29 centinépers par jour, mais comme ces chiffres sont assez grossiers on peut faire comme s'il s'agissait d'une augmentation de 29% par jour — en fait 33%.) Cette baisse importante étant antérieure au confinement, il est peu probable que le confinement ait joué un rôle très important dans la dynamique de l'épidémie (en tout cas au moment où on aurait voulu qu'il fût utile). Quant aux morts, elles ont été de l'ordre de 30k au total (là aussi il y a un doute, mais c'est plutôt sur la question de ce que ça signifie que de mourir de covid), avec un pic à un peu moins de 1000/j. Le taux de létalité sur les cas officiellement recensés était autour de 20%, soit en vrai 0.4% si on croit à mon facteur 50 sur les contaminations réelles.

Actuellement, en France, on recense officiellement un nombre de nouvelles contaminations autour de 7500/j (et il y a des gens qui paniquent parce que 7500>4500 : c'est plus que lors du premier pic). Ce nombre est sans doute toujours sous-estimé, mais certainement pas d'un facteur 50 : à la louche j'imagine autour de 2, parce que quasiment tous les symptomatiques doivent se faire tester mais assez peu d'asymptomatiques (évidemment il y a plein de gens qui viennent se faire tester sans raison, et qui sont négatifs, mais ils n'interviennent pas trop). Le taux de croissance était autour de 0.04/j sur la semaine passée, en baisse par rapport à la semaine précédente (0.05/j) et encore avant (0.06/j) : on est déjà dans un régime sous-exponentiel. Le nombre de décès continue à être noyé dans le bruit de fond, autour de 15/j. Le taux de létalité sur les cas officiellement recensés, si on pense qu'il y a autour de 12 jours entre le recensement et le décès, est autour de 0.3%, soit 0.15% si on croit à mon facteur 2 sur les contaminations réelles. La raison pour ce taux de létalité réduit (même en tenant compte de l'énorme augmentation du nombre de tests) est incertaine : population touchée plus jeune, probablement, meilleure prise en charge, et dépistage plus précoce, mais il est aussi possible qu'il y ait un nombre non-négligeable de réinfections qui ne donneraient pas de cas clinique parce que les personnes touchées seraient déjà fonctionnellement immunes mais déclencheraient quand même le test PCR ; et bien sûr, il ne faut pas oublier qu'il y a certainement des gens qui se font tester plusieurs fois et qui comptent plusieurs fois dans les statistiques.

Tout ceci permet-il de prédire l'ampleur de cette seconde vague ? Pas vraiment. Extrapoler à la louche la baisse observée du taux de croissance (de ~0.01/j/semaine) suggère qu'on en aurait pour encore quelques (quatre ?) semaines, et que le nombre de contamination recensés quotidiennement monterait à peut-être 12k/j avant de retomber graduellement (pour un cumul autour de 450k sur cette seconde vague ; et peut-être autour de 1500 décès). C'est une possibilité optimiste, mais je serais surpris qu'un si faible nombre de contaminations puisse vraiment avoir un gros effet auto-stabilisant (même si on compte un facteur 2 comme je le suggérais, ça reste moins d'un million, ce qui est peu dans une population de 67M, évidemment, l'hétérogénéité, en l'occurrence le fait que les contaminations soient concentrées dans quelques grandes villes). On peut aussi se dire que si la première vague a fait décroître le nombre de reproduction de 3 à 1.5 (vraiment à la louche, comme tout ce que je dis), la deuxième n'a qu'à faire le tiers de la taille de la première pour arriver à le baisser de 1.5 à en-dessous de 1 (plus durablement ! cette fois-ci), donc s'attendre à peut-être autour de 3M de contaminations vraies et peut-être 5000 décès supplémentaires. Manifestement, ces deux prédictions ne collent pas, il y a à peu près un facteur 3 entre elles. Mais elles donnent peut-être quand même une petite idée de ce qu'on peut attendre.

On peut aussi comparer différents pays européens, mais l'exercice est hasardeux : tous semblent avoir une forme de seconde vague, sauf la Suède (ce qui me conforte dans l'idée que le confinement, comme n'importe quelle mesure comportementale, n'a fait que repousser à plus tard des contaminations qui restent inévitables), et il y a vaguement une tendance à ce qu'elle soit d'autant plus forte que la première a été supprimée ; mais au-delà de ça, les différences entre pays me semblent assez inexplicables et il faudrait une expertise sociologique et géographique que je n'ai pas (et qu'en fait je pense que personne n'a) pour essayer de leur donner un sens. Ce n'est même pas évident de trouver l'information précise de ce qu'ont été les réactions publiques dans les différents pays (rien que pour la France, j'ai un mal fou à savoir quelle est la règle du jour). Il est cependant un peu rassurant, au moins, de constater que dans certains pays la seconde vague paraît déjà avoir atteint un pic, ou du moins un plateau, sans être montée à une ampleur énorme, et surtout, avec un nombre de décès qui reste partout très faible. (Je pense à la Belgique ou à l'Allemagne ; mais le Portugal est aussi intéressant parce que la courbe des décès, qui ne suit d'ailleurs que très mal celle des contaminations, présente une succession de bosses de plus en plus faibles.)

Bref, je ne me hasarderai pas à faire de prévision plus précise que ça, mais je reste prudemment optimiste sur le fait que la seconde vague n'atteindra pas l'ampleur de la première, ni en nombre de décès, ni en nombre d'hospitalisations, ni même en nombre de contaminations (réel), et que comme en plus sa progression restera plus lente, il n'y a pas à craindre une saturation complète des services d'urgence. Ma prédiction de 70 000 morts (toutes vagues réunes), faite en avril, pourrait bien être encore pessimiste.

Ce sur quoi je suis beaucoup moins serein, c'est de savoir si le gouvernement français, ou les Français en général, ont compris que beaucoup de mesures de type fermeture des écoles, fermeture de tel ou tel type de commerce, ou à plus forte raison emprisonnement de la population à domicile, ne font que mettre l'épidémie en pause temporaire, à un coût absolument exorbitant, et que si cela peut se défendre en cas de saturation du système de soin, elles n'ont aucun sens sinon. (On peut l'excuser par le brouillard de l'incertitude, mais le confinement décrété en mars était à la fois monstrueusement excessif et beaucoup trop long : il n'est pas du tout clair qu'il ait eu un effet si important au moment où on l'espérait, en revanche il a tellement retardé la seconde vague qu'elle survient à un moment où les Français risquent d'avoir moins de vitamine D, et surtout, elle pourrait chevaucher la grippe hivernale si on cherche à retarder encore plus.)

Ce qui est sûr, c'est que le gouvernement français n'a pas compris que c'est nuisible de gesticuler, de changer d'avis sans arrêt, aussi bien sur les grandes lignes (l'épidémie ne touchera sûrement pas la France, nous continuerons d'aller au théâtre — ah, finalement, si ! tous en résidence surveillée !, ou bien les masques ne servent à rien — ah, finalement, si ! on va les rendre obligatoires partout !) que sur les plus petites (masque à l'intérieur ! — non, dans certains quartiers, ce sera aussi à l'extérieur ! — oh, et puis masque dans tout Paris ! — bon, OK, pas pour les cyclistes), sans même attendre de voir l'effet éventuel de la mesure précédente. J'ai l'impression qu'il n'y a que la Suède qui a vraiment su adopter une approche consistant à ne pas changer d'avis et à ne prendre que des mesures qu'on peut tenir dans la durée (j'ai déjà mentionné cette interview qui l'explique bien), et, justement, s'y tenir. Malheureusement, la polarisation du débat évoquée dans la digression ci-dessus fait que la Suède est désormais considérée par beaucoup (surtout depuis que Donald Trump, dans son délire lunatique, l'a montrée en exemple, et une certaine frange de l'extrême-droite européenne après lui) comme le pays paria, le pays qui a juste laissé mourir les gens : comme je le disais, la science a été la première à pâtir de tout ça.

Bref, c'est déjà assez compliqué de prédire ce que fera le virus, mais ce que sera la prochaine lubie du gouvernement, je n'en sais rien, et eux-même le savent sans doute encore moins. Vivre avec cette épée de Dalmoclès au-dessus de la tête ne m'est pas du tout agréable.

Éclaircissement () : Comme j'ai écrit de façon un peu provocatrice qu'il fallait ne rien faire contre la covid (et j'ai été surpris de découvrir que c'est ce que le gouvernement a effectivement choisi…), je devrais préciser qu'il y a quand même quelques types de mesures qui selon moi font sens :

  • celles qu'on pourra tenir indéfiniment (comme arrêter de se faire la bise),
  • celles, limitées dans le temps, visant à provoquer une pause ou un ralentissement temporaires de l'épidémie si les hôpitaux (ou quelque chose du genre) sont en menace de surcharge (surcharge qui augmenterait catastrophiquement la mortalité),
  • celles, limitées dans l'espace au niveau d'un cluster ou plus exactement, dans une zone qui semble représenter une anomalie statistique par rapport à ce qu'on attend comme contaminations,
  • et celles qui visent à protéger de façon différentielle les personnes les plus vulnérables, le temps que le pic épidémique passe.

↑Entry #2661 [older| permalink|newer] / ↑Entrée #2661 [précédente| permalien|suivante] ↑

↓Entry #2654 [older| permalink|newer] / ↓Entrée #2654 [précédente| permalien|suivante] ↓

(samedi)

Quelques considérations de graphes aléatoires pour l'épidémiologie

Même si mon moral est moins mauvais, je continue à avoir beaucoup de mal à faire autre chose que de l'épidémiologie. Du coup, je vais en parler encore une fois, pour présenter une approche différente du calcul du taux d'attaque, qui permet cette fois-ci d'illustrer (par des considérations théoriques plutôt que des simulations numériques) certains effets d'hétérogénéité. (Il s'agit d'une traduction+développement de ce que j'ai écrit dans ce fil Twitter [lien direct Twitter] ainsi que celui-ci [lien direct Twitter], et secondairement, de ce fil [lien direct Twitter] plus ancien.) Mais je commence par quelques remarques d'ordre méta sur ces effets d'hétérogénéité et les épidémiologistes de fauteuil (si ça ne vous intéresse pas, sautez après).

On (un des auteurs !) a enfin fini par me pointer du doigt un livre (et donc une référence citable !) où étaient traitées les probématiques épidémiologiques qui me préoccupaient : il s'agit de Mathematics of Epidemics on Networks (From Exact to Approximate Models) d'István Z. Kiss, Joel C. Miller et Péter L. Simon (Springer 2017). Non seulement il traite exactement tout ce que je voulais voir traité, mais la présentation est vraiment très agréable pour le mathématicien que je suis : les énoncés sont précis, les approximations sont expliquées avec soin, les notations ne sont pas trop pénibles, bref, je le recommande très vivement. (Quel dommage que toutes les bibliothèques soient fermées… Si seulement il y avait un site web — qui pourrait par exemple porter le nom en anglais d'une bibliothèque et du premier livre de la Bible — où on pourrait trouver les PDF de ce genre de choses. Ah non, zut, ce serait illégal, parce qu'on a des lois à la con qui empêchent la diffusion des connaissances. Mais pardon, je digresse.)

Il y aurait peut-être à analyser la raison pour laquelle j'ai réussi à passer à côté de cet excellent ouvrage jusqu'à tout récemment. (Il est possible qu'on me l'ait déjà suggéré et que je sois quand même passé à côté de la suggestion, parce que le mot networks ne m'inspirait pas : en fait, il s'agit de graphes, il y a apparemment des gens qui, parce qu'ils ont une approche un peu différente, parlent de réseaux pour parler de graphes, et notamment de graphes aléatoires, ce qui est leur droit mais ça ne facilite pas la communication. J'aimerais quand même bien comprendre, par exemple, pourquoi si on recherche Galton-Watson "attack rate" dans Google, les deux premières réponses sont de moi, alors que ça a quand même l'air d'être des termes très naturels à rechercher dans le contexte de la propagation des épidémies, et d'ailleurs le livre que je viens de mentionner devrait être dans les résultats, et beaucoup plus haut qu'un tweet à moi.) Mais je ne vais pas m'étendre là-dessus, en tout cas pas maintenant.

Bref, toujours est-il que j'ai été soulagé de voir que tout un tas de phénomènes que je voulais voir étudiés, et que j'avais au moins en partie redécouverts, comme ce que je vais décrire ci-dessous, étaient effectivement étudiés quelque part, et que j'aurai des références citables à montrer. J'ai l'habitude de redécouvrir des résultats connus, je dirais même que ça fait partie du fonctionnement normal de la science, et quand je l'apprends je suis plutôt content que mon intuition ne soit pas complètement à côté de la plaque.

En revanche, je demeure perplexe quant au fait que ces phénomènes soient bien connus ou non des épidémiologistes. Il y a deux prépublications qui sont sorties récemment, une sur l'arXiv (par des matheux) et une autre sur medRxiv (par des épidémiologistes plus médecins, ça se voit au fait qu'ils déposent sur medRxiv et n'utilisent pas TeX ☺️), qui font tous les deux la même observation, évidemment formulée et argumentée de façon plus précise, que j'écrivais dans cette entrée de blog ou de façon concise dans ce tweet (en mars) : l'épidémie va atteindre, et donc immuniser, les personnes les plus connectées en premier, ce qui fait que l'hétérogénéité des contacts contribue à réduire le seuil d'immunité à partir duquel elle se met à régresser (le premier de ces documents calcule 43%, ce qu'il ne faut pas, à mon avis, prendre comme une prédiction mais comme un ordre de grandeur grossier de l'effet qu'on peut attendre). D'un côté, il semble que ce type d'effet ait été étudié depuis 1980 (au plus tard). Mais de l'autre, un épidémiologiste renommé (Marc Lipsitch) semble considérer que c'est intéressant et vaguement nouveau, et il y en a qui n'ont pas reçu le message (et ce n'est qu'un exemple parmi d'autres où j'ai vu affirmer, y compris de la part de personnes qui sont des épidémiologistes ou qui ont une formation proche, que puisque R₀~3 on doit atteindre ~70% d'immunisés pour que l'épidémie régresse). Donc il y a, au minimum, un problème de communication. Ce n'est pas très grave, maintenant j'ai au moins quelque chose d'un peu plus crédible (un PDF !) à citer pour contester cette idée (et le fait que Marc Lipsitch prenne ça au sérieux est bien puisque c'est lui qui est à l'origine, d'avoir popularisé le chiffre de 70% comme taux d'attaque, même s'il l'a immédiatement nuancé). Mais ça reste un peu pénible d'avoir l'impression d'être le crackpot qui vient contredire les experts qui ont dit que c'était 70%. (Un peu quand comme l'OMS a fait une communication un peu hâtive en affirmant qu'il n'y avait aucun signe que l'infection par le Covid-19 confère une quelconque forme d'immunité, alors que quand même, si, il y a des raisons de le penser : ce n'est vraiment pas une position confortable que de tenir le discours je ne suis pas du tout médecin, mais je vais quand même remettre l'OMS à sa place sur une question de médecine. Bon, je digresse encore.)

PS : D'ailleurs, on me souffle que j'ai peut-être contribué à diffuser ces idées. Tant mieux si c'est le cas.

[Taux d'attaque d'une épidémie avec R₀=2.5 en fonction de l'écart-type du nombre de contacts]J'en viens à ce dont je voulais vraiment parler : un modèle basé sur la percolation dans des graphes aléatoires et permettant de modéliser (de façon simpliste !) la manière dont la variance du nombre de contacts infectieux modifie le taux d'attaque d'une épidémie à nombre de reproduction R₀ donné. C'est ce que représentent les courbes ci-contre, en l'occurrence pour R₀=2.5 (contacts infectieux par individu en moyenne), avec l'écart-type σ du nombre de contacts infectieux en abscisse, et en ordonnée le taux d'attaque prédit (en bleu par un modèle basé sur un graphe orienté, en rouge par un modèle symétrique) : je veux expliquer un peu comment lire ces courbes et comment elles ont été calculées.

L'idée est qu'on va modéliser l'épidémie non plus comme un processus dynamique traduit par une équation différentielle (comme dans le modèle SIR classique ou une équation différentielle à délai comme dans la variante que j'avais étudiée plus tard) mais comme un parcours (un phénomène de percolation) dans un « graphe infectieux ». L'avantage est de pouvoir modéliser des phénomènes un peu plus fins, ici l'hétérogénéité des contacts ; l'inconvénient est qu'on perd complètement la notion du temps, toute la dynamique de l'épidémie, il faut faire l'hypothèse (évidemment irréaliste en vérité — mais forcément pessimiste) que cette dynamique ne change pas au cours du temps (notamment, le nombre de reproduction est une constante), et on ne peut que calculer une seule chose, à savoir le taux d'attaque final, c'est-à-dire la proportion de la population qui se fait infecter (sans qu'on puisse dire quand). Comme j'aime bien le rappeler, quand on a affaire à un phénomène complexe, il faut multiplier les approches, étudier une complexité à la fois, essayer des modèles simples, voire simplistes, qui permettent de bien cerner l'effet de chacune de ces complications, avant d'envisager un modèle plus complexe et réaliste. Donc ici on supprime la complication « dynamique » et on rajoute la complication « hétérogénéité » (mais on va heureusement trouver la même prédiction lorsque les deux complications sont absentes ! à savoir le taux d'attaque final prédit par le modèle SIR au point que j'appelle le point de Poisson dans ce qui suit). Dans tous les cas, on travaille sur des hypothèses simplistes sur le fait que l'immunité acquise est permanente : une fois un individu rétabli, il cesse d'être infectieux et ne pourra plus le redevenir.

Je rappelle, donc, que le modèle SIR classique prédit, pour un nombre de reproduction R₀=κ (j'utiliserai de façon quasi interchangeables les notations R₀ et κ ici), un taux d'attaque (= proportion de la population qui est infectée à la fin de l'épidémie) donné par la formule exacte 1 + W(−κ·exp(−κ))/κ où W est une fonction spéciale (la fonction transcendante W de Lambert, ou logarithme-produit), et approximativement 1 − exp(−κ) pour κ grand (et 2(κ−1) si κ est juste un peu supérieur à 1). Il prédit aussi un pic épidémique avec un taux d'attaque à ce moment (qu'on appelle le seuil d'immunité grégaire) à 1 − 1/κ, mais ce n'est pas celui qui va m'intéresser ici (il va juste recevoir une mention au passage), c'est vraiment le taux d'attaque final que je veux : entre les deux il y a un overshoot, simplement parce que l'épidémie continue à progresser même si elle est en phase de ralentissement.

Ici on va faire complètement autrement : on définit un graphe de contamination (commençons par la variante orientée), dont les sommets sont les individus de la population considérée, et avec la propriété que les personnes infectées par l'épidémie sont toutes celles qui sont atteignables depuis le « patient zéro » x₀, i.e., tous les z pour lesquels il existe un chemin orienté, représentant une chaîne de contamination possible, x₀ → x₁ → ⋯ → z, dans le graphe. La définition exacte de ce que sont les arêtes xy du graphe est un petit peu épineuse : ce ne sont pas juste les contacts potentiels, ni même les contacts réels, ni les contacts réels potentiellement infectieux, mais les contacts potentiellement infectieux pendant une période d'infectiosité de x, je vais y revenir. Le fait est que le nombre moyen d'arêtes xy sortant d'un sommet x, i.e., le degré sortant moyen (moyenné sur l'ensemble des sommets), et qui est aussi le nombre moyen d'arêtes xy aboutissant à un sommet y, i.e., le degré entrant moyen, est ce qu'on appelle le nombre de reproduction κ=R₀, de l'épidémie. L'idée est donc de chercher des moyens de calculer le taux d'attaque, c'est-à-dire la proportion des sommes accessibles depuis x₀, en fonction du degré moyen et d'informations sur la distribution des degrés (entrants et/ou sortants) : pour ça, bien sûr, il faut faire des hypothèses sur la manière dont le graphe est construit, selon un modèle de graphe aléatoire. Sauf qu'en fait, on ne construit pas vraiment le graphe (qui de toute façon est aléatoire, donc pas très intéressant), on utilise des résultats venus des probabilités, de la théorie des graphes aléatoires, qui donnent des informations sur la taille des composantes de graphes aléatoires, et notamment des formules pour calculer (l'espérance de) la taille de la « composante géante », en fonction de la distribution des degrés utilisée en entrée du modèle de graphe aléatoire. Au final, il y a une formule assez simple (que je vais expliquer) permettant de calculer cette taille d'après la fonction génératrice de la distribution de probabilité des degrés ; puis il faut faire une hypothèse sur la distribution utilisée permettant de jouer sur la variance.

Pour résumer, on modélise conceptuellement l'épidémie par un graphe « qui contamine qui », on fait l'hypothèse que ce graphe ressemble à un graphe aléatoire construit selon un certain modèle de graphe aléatoire faisant intervenir une distribution de probabilité sur les degrés (entrants et/ou sortants) des sommets, on a une formule permettant, dans ce cadre, de calculer le nombre attendu de sommets qui seront accessibles depuis x₀, et on applique cette formule à une distribution de probabilités dont on peut ensuite faire bouger la variance.

Une distribution de probabilités qui va jouer un rôle proéminent ici est la distribution de Poisson qui correspond à la variance σ²=κ (sur mes courbes ci-dessus, c'est le point (1.581, 0.893) où les courbes rouge et bleue se croisent : σ=1.581 est la racine carrée de κ=2.5), et dont il va donc falloir que je reparle. Je souligne d'ores et déjà son importance, d'une part parce que c'est le point où on retrouve le taux d'attaque (89.3% pour un nombre de reproduction de 2.5) prédit par le modèle classique SIR, et d'autre part parce que ça a été une source de confusion fréquente quand j'ai parlé de cette histoire, les gens s'imaginent que si tout le monde se comporte de la même manière les degrés ont une variance nulle (et me demandent pourquoi mes courbes donnent 1 en σ=0) alors que la variance « de base », si j'ose dire, c'est celle de la distribution de Poisson (on peut aller en-dessous mais c'est bizarre). Un autre point qui va jouer un rôle, plus secondaire, c'est celui qui correspond à la distribution géométrique, donnant la variance σ²=κ(κ+1) (soit σ = √(κ(κ+1)) ≈ κ, ce qui peut entraîner une confusion avec la distribution de Poisson !), (2.958, 0.600) sur ma courbe bleue, pour l'instant je me contente de le mentionner pour qu'on ne le confonde pas avec l'autre.

Je précise que je vais commettre des approximations mathématiques dans ce qui suit, qui me vaudraient certainement les foudres de Nicolas Bourbaki. À titre d'exemple, comme je considère un graphe avec un nombre très important de sommets (auquel je ne vais même pas me fatiguer à donner un nom), je vais confondre allègrement le degré moyen d'un sommet et l'espérance de la distribution selon laquelle les degrés ont été tirés, ou bien la variance du degré avec la variance de la distribution de probabilités selon laquelle ils sont tirés : cette confusion dans l'exposition est motivée par la loi des grands nombres, mais à la limite ce n'est même pas le problème, ici (de toute façon, ce qui compte est bien l'espérance et la variance de la distribution à partir de laquelle on a tiré les degrés, le graphe lui-même n'est pas intéressant, il n'importe que pour l'intuition) ; et je commettrai des approximations bien plus graves que ça et des « démonstrations » en agitant les mains : je fournirai cependant des pointeurs vers des théorèmes mathématiques plus précis.

Reprenons. On veut ignorer complètement le temps qui passe (mais bien sûr obtenir quand même une description correcte de l'état final !, en faisant l'hypothèse que la dynamique reste constante dans le temps) et modéliser l'épidémie par un graphe de contamination. (Considérer ce graphe suppose qu'on laisse, conceptuellement, l'épidémie se dérouler jusqu'à son terme, et on peut ensuite définir le graphe et calculer des choses dessus.) Quel est ce graphe, au juste ? (Je commence par le cas orienté, parce qu'il me semble plus naturel et plus simple à décrire.)

Les sommets du graphe (je dirai parfois aussi les nœuds) sont les individus. Mais la définition d'une arête xy est un peu subtile. Si x est infecté au cours de l'épidémie, alors les arêtes xy sortant de x pointent vers les individus y qui ont été contaminés par x ou qui seraient contaminés s'ils sont effectivement susceptibles (si y est déjà infecté, ou déjà immun, on fait quand même pointer une arête xy s'ils ont un contact tel que y aurait été infecté s'il n'était pas déjà infecté ou immun). Autrement dit, il s'agit des contacts potentiellement infectieux qu'a x au cours de sa période d'infectiosité. Mais si x n'est jamais infecté, on va quand même définir des arêtes xy : pour ça, on choisit une période d'infectiosité typique (c'est-à-dire selon la loi de probabilité que suit effectivement l'infectiosité des personnes infectées) pour x, et on trace les contacts qui seraient infectieux pendant cette période si x était infectieux. Ça peut sembler vraiment bizarre de faire ça, mais je vais expliquer la raison.

Bref, une arête du graphe, et je dirai simplement un contact infectieux xy, est un contact entre x et y qui ① a lieu pendant une période d'infectiosité typique pour x, et, si x est effectivement infecté à un moment donné, sa période d'infectiosité réelle, ② peu importe que y soit susceptible (=infectable) ou non, et ③ qui rendrait y infecté si y était susceptible.

Pourquoi cette définition tarabiscotée (que j'ai mis beaucoup de temps à éclaircir dans ma tête) ? Si on s'intéresse à la propagation de l'épidémie, pourquoi ne pas simplement mettre une arête xy si x infecte y et basta ? La raison est que dans ce cas le graphe ne ressemblerait pas à un graphe aléatoire facilement modélisable : les personnes infectées tard dans l'histoire de l'épidémie en infectent moins autour d'eux parce que plus de gens autour d'eux sont immuns, donc le degré des sommets loin de x₀ serait plus faible que celui des sommets proches de x₀ et cela rendrait le calcul plus difficile à modéliser (comme chaque y aurait au plus une arête entrante, le degré entrant moyen serait exactement le taux d'attaque qu'on cherche à calculer ! au lieu que ce soit le nombre de reproduction à partir duquel on cherche à mener le calcul) : on préfère avoir une arête xy même si y n'est plus infectable, de façon à ce que chaque x infecté ait le même degré sortant typique (aux hétérogénéités intrinsèques près, qu'on cherche justement à étudier !), et il reste vrai que les sommets accessibles à partir de x₀ sont les personnes qui se font infecter ; ceci explique qu'on ne se limite pas aux y qui sont susceptibles. Quant qu fait qu'on ne se limite pas aux x qui sont effectivement infectés, la raison est analogue : on veut pouvoir raisonner sur le degré moyen sans avoir à distinguer les individus infectés et ceux qui ne le sont pas (puisque le but est justement de calculer la proportion qui se fait infecter, on ne veut pas avoir à la connaître a priori). Comme on a fait l'hypothèse d'indépendance du temps qui assure que le nombre de personnes potentiellement infectées par x ne dépend pas de la période infectieuse choisie, seulement de sa durée, on peut prendre une période essentiellement quelconque (mais si x est effectivement infecté, on prendra la vraie pour pouvoir relier ce graphe à la réalité).

Bref, la définition du graphe étant posée, les personnes effectivement infectées sont celles qui sont accessibles depuis le patient zéro x₀ (ou, en fait, depuis un sommet « typique ») par un chemin menant jusqu'à elle.

Je rappelle que le degré sortant d'un sommet x dans un graphe orienté est le nombre de ses voisins sortants, c'est-à-dire le nombre d'arêtes xy partant de x (en disant ça je suppose implicitement que mon graphe n'a pas d'arêtes multiples : je n'ai pas été terriblement clair à ce sujet dans la définition des arêtes, mais ce n'est pas très important parce que mon modèle de graphe aléatoire ne va pas en produire pour un nombre important de sommets : je travaille toujours dans des conditions de « mélange parfait » des individus). Symétriquement, le degré entrant d'un sommet u est le nombre de ses voisins entrants, c'est-à-dire le nombre d'arêtes xy aboutissant à y.

Le degré sortant de x est donc le nombre de personnes contaminées par x, ou qui le seraient si elles étaient effectivement susceptibles, dans la mesure où x est effectivement infectieux à un moment donné (et si ce n'est pas le cas, on fait comme s'il l'était, et on compte sur une période arbitraire). Le degré entrant de y est le nombre de personnes qui contamineraient y si elles sont effectivement infectieuses et que y est encore susceptible à ce moment, mais en comptant aussi les personnes non infectieuses (pendant une période d'infectiosité arbitrairement choisies pour elles).

Voici un fait évident mais essentiel : le degré sortant moyen égale le degré entrant moyen. (C'est un argument que les matheux appellent un double comptage : on compte les arêtes soit en les regroupant par leur source, soit en les regroupant par leur cible.) Ce nombre moyen s'appelle le nombre de reproduction de l'épidémie (normalement il y a un nombre de reproduction en fonction du temps, mais ici je fais justement l'hypothèse d'une dynamique stationnaire), noté R₀ et que je préfère noter κ.

En revanche, si on ne peut pas étudier les variations en fonction du temps, on peut étudier les variations entre individus, les écarts à la moyenne, c'est-à-dire, la variance. Je rappelle que la variance σ² (d'une quantité, resp. variable aléatoire) est la moyenne (resp. espérance) des carrés des déviations à la moyenne (resp. espérance), et que l'écart-type σ est la racine carrée de la variance, c'est-à-dire la moyenne quadratique des écarts à la moyenne. Plus la variance (ou ce qui revient au même, l'écart-type) est élevée, plus les valeurs tendent à être dispersées autour de la moyenne.

Bref, même si R₀=2.5 signifie que chaque personne est la source (ou la cible !) de 2.5 contacts infectieux en moyenne, certains en feront moins (ou pas du tout) et d'autres en feront plus. Une variance de 0 signifierait que tout le monde en fait exactement autant (ce qui, s'agissant de 2.5, est manifestement impossible).

Les individus ayant un degré sortant nettement plus élevé que la moyenne (et qui sont effectivement infectieux) ont été appelés supercontaminateurs : leur existence augmente la variance des degrés sortants. Bien sûr, avoir des gens qui en contaminent beaucoup d'autres augmente aussi la moyenne ! Mais à moyenne donnée fixée, une variance élevée signifie qu'il y a des supercontaminateurs et, forcément, des subcontaminateurs (voire non-contaminateurs).

Ce qui peut être surprenant est que ⓐ bien que les degrés sortants et entrants aient la même moyenne, leur variance n'a aucune raison de coïncider et leur distribution n'a pas de rapport particulier à part la moyenne, et ⓑ bien que l'épidémie se propage en suivant les arêtes orientées, donc d'un sommet vers ses voisins sortants, c'est pourtant la variance et la distribution des degrés entrants qui importe pour calculer le taux d'attaque (la propagation ultime). Je vais essayer plus bas d'expliquer pourquoi.

(La variance et distribution des degrés sortants est importante pour quelque chose d'autre, à savoir la probabilité de non-extinction de l'épidémie. Il existe, en fait, une symétrie parfaite entre degrés entrants et taux d'attaque d'une part et degrés sortants et probabilité de non-extinction de l'autre : en effet, le taux d'attaque est la proportion des sommets accessibles depuis un ensemble raisonnable de sommets initiaux, alors que la probabilité de non-extinction est la proportion de sommets (pouvant servir de patient zéro) depuis lesquels on peut atteindre un ensemble raisonnable de sommets finaux. Mais on parle ici d'une épidémie qui, de toute évidence, ne s'est pas éteinte rapidement, donc les degrés sortants ne nous intéressent plus.)

On peut donc être amené à s'intéresser, plutôt qu'aux supercontaminateurs (dont le degré sortant est très élevé), aux supersusceptibles(?), c'est-à-dire les personnes dont le degré entrant est très élevé. J'ai attiré l'attention sur ce concept dans un fil Twitter [lien direct Twitter] un peu ancien, mais le concept a été mal compris (il est vrai qu'il est subtil !), on a pensé que je disais que les supersusceptibles étaient un problème, ou quelque chose dont on doit s'inquiéter, ou sur quoi on devrait essayer d'agir : donc rappelons que dans la mesure où on parle de l'effet de la variance à moyenne donnée (on varie un paramètre à la fois, merci !), si on augmente le nombre de supercontaminateurs ou de supersusceptibles, on augmente aussi le nombre de subcontaminateurs ou subsusceptibles.

Le concept de degré sortant d'une personne x est assez clair. Le concept de degré entrant de y est plus subtil, parce que l'existence d'une arête xy dépend du fait que x (et pas y) est dans sa phase infectieuse, ce qui n'est pas vraiment du ressort de y. Néanmoins, bien sûr, il y a des caractéristiques de y qui vont jouer sur ce degré. D'abord simplement le nombre de contacts de y : si quelqu'un a beaucoup de contacts, son degré entrant comme sortant va avoir tendance à être plus élevé (mais cette symétrie va être une raison de se pencher éventuellement sur des graphes non-orientés où la distinction entre degré entrant et sortant disparaît). Ensuite, il peut y avoir des différences de comportement jouant de façon partiellement asymétrique : certains sont plus attentifs à l'hygiène ou à la distanciation sociale : cela peut jouer sur les degrés entrant et sortant (si ces mesures évitent de contaminer les autres comme d'être soi-même contaminé) ou seulement l'un (et on peut imaginer que beaucoup de gens cherchent avant tout à se protéger : quelqu'un qui porte un masque FFP2 avec valve dès qu'il sort va sans doute avoir un degré entrant beaucoup plus faible que sortant). Enfin, il peut y avoir des raisons médicales : pour certaines infections (et je ne sais pas si c'est le cas du Covid-19), il y a des individus beaucoup plus susceptibles que d'autres, c'est-à-dire facilement infectés, comme il peut y avoir des individus beaucoup plus infectieux : ceci va jouer respectivement sur les degrés entrants et sortants.

Mais il y aussi une forme de variance « basique » (intrinsèque, naturelle), et qui est celle d'un processus de Poisson : il faut que je souligne ça, parce que ça a causé une certaine confusion, plusieurs personnes m'ayant posé des questions au sujet du point σ=0 de mes courbes, pensant spontanément (et c'est naturel) que si tout le monde se comporte de la même manière, on obtient σ=0, alors qu'en fait on obtient la variance de Poisson σ²=κ. Expliquons informellement ce qu'est un processus de Poisson : imaginez que vous ayez un million de personnes et un million de boîtes, et vous demandez aux gens de mettre des boules, autant qu'ils veulent, tirées d'un énorme sac, dans des boîtes, comme ils veulent. On observe que chaque personne place 2.5 boules en moyenne dans l'ensemble des boîtes : c'est le degré sortant moyen ; donc chaque boîte contiendra en moyenne 2.5 boules (degré entrant moyen). Mais même si les boîtes sont absolument identiques et que les participants les choisissent aléatoirement (uniformément), il y aura (évidemment !) des variations aléatoires dans le nombre de boules dans les boîtes. En fait, le nombre de boules dans une boîte suivra (asymptotiquement) une distribution de Poisson de moyenne 2.5 et de variance σ²=2.5. On peut prendre ça comme définition d'un processus de Poisson de moyenne κ : si on place N·κ boules aléatoirement (uniformément et indépendamment) dans N boîtes, le nombre de boules dans une boîte suivra, dans la limite N→∞, une distribution de Poisson de moyenne κ (et sa variance égale sa moyenne). Maintenant, si certaines boîtes sont plus attirantes que d'autres (et donc certaines moins attirantes), cela augmentera la variance, mais pour passer en-dessous de la variance de Poisson, il faut quelque chose d'inhabituel (par exemple, que les gens regardent à l'intérieur des boîtes pour faire leur choix).

Pour une épidémie, si les gens se comportent tous à l'identique et se font contaminer au hasard, on obtient donc une distribution de Poisson sur les contacts infectieux reçus, et σ²=R₀. Faire moins de variance que ça serait bizarre et peu naturel pour une épidémie. (Mais je donne quand même un exemple : l'« infection par la mortalité », où (presque ?) tout le monde se fait infecter par exactement deux personnes, ses parents, donc R₀=2 (dans une population stationnaire), σ=0, et le taux d'attaque est de 100% puisque tout le monde est mortel ; le graphe est simplement l'arbre généalogique de la population. Noter que si la variance des degrés entrants est nulle, celle des degrés sortants est probablement élevée, je la soupçonne d'être nettement au-dessus de celle du processus de Poisson.)

Bref, le point où σ²=R₀ (soit (1.581, 0.893) sur les courbes que j'ai tracées), avec la famille de distributions que je dois encore expliquer, est ce que j'appellerai le point de Poisson : tout le monde se comporte de façon identique, les contacts sont aléatoires, les degrés entrants sont distribués selon un processus de Poisson, et le taux d'attaque qu'on trouve (par le mode de calcul que je dois encore expliquer !) coïncide avec le taux d'attaque 1 + W(−κ·exp(−κ))/κ prédit par le modèle SIR classique (ou sa variante à rétablissement en temps constant), et ce n'est pas un hasard, on peut construire un modèle (SIR sochastique en temps continu sur un graphe complet de taille tendant vers l'infini) qui relie ces deux description (l'espérance de la proportion de sommets contaminés suivra les équations différentielles du SIR classique, tandis que le graphe des contaminations reproduira le modèle que je cherche à décrire ici, ce qui fait le pont entre les deux).

Maintenant, il n'y a pas que la variance des degrés sortants qui importe, il y a la distribution précise des degrés, et il y a en plus, comme toile de fond, le modèle de graphe aléatoire. [Je suis un peu embêté pour décider dans quel ordre raconter tout ça, donc je vais suivre l'ordre de mes fils Twitter, quitte à me répéter, en disant d'abord les choses de façon plus informelle, puis en rentrant dans plus de détails mathématiques.]

J'ai choisi une famille de distributions (sur les entiers naturels) qui permette de faire bouger la variance σ² (ou ce qui revient au même, l'écart-type σ, qui sert d'abscisse pour mes courbes) à espérance κ donnée, et qui inclut la distribution de Poisson qui est manifestement de la plus grande importance ici, comme cas limite, et inclut aussi la distribution géométrique dont j'ai des raisons de penser qu'elle est aussi assez naturelle, comme cas particulier : il s'agit de la famille des distributions binomiales, ou plus exactement, la distribution binomiale pour σ²<κ, et la distribution binomiale négative (ou de Pólya) pour σ²>κ (avec Poisson comme cas limite σ²=κ, et géométrique comme cas particulier σ²=κ(κ+1)). La partie σ²<κ est un petit peu tirée par les cheveux, mais de toute façon j'ai déjà dit qu'elle n'est pas très naturelle et pas très intéressante : elle est juste incluse pour l'élégance mathématique des courbes.

Bref, la courbe bleue représentée plus haut est un taux d'attaque modélisé comme (l'espérance de) la proportion des sommets accessibles, depuis un sommet x₀ pour lequel cette proportion est importante, dans un graphe orienté aléatoire construit (selon un modèle que je n'ai pas encore décrit précisément) avec une distribution des degrés entrants suivant une des distributions décrites au paragraphe précédent, pour la moyenne κ=2.5 et l'écart-type σ en abscisse. Et la courbe rouge ? C'est la même chose mais avec un graphe non-orienté : c'est la taille de la composante connexe géante d'un graphe aléatoire construit (selon le modèle aléatoire dit de la configuration de Bollobás, ou de Molloy-Reed), avec une distribution des degrés de moyenne κ=2.5 et d'écart-type σ en abscisse toujours dans cette même famille. Je décrirai plus bas comment je fais le calcul en pratique (avec des points fixes de fonctions génératrices).

L'explication intuitive de l'allure des deux courbes l'une par rapport à l'autre, c'est que dans la courbe rouge (graphe non-orienté), si x infecte y, comme tout est symétrique, il y a une probabilité plus élevée que y ait un degré élevé, donc il infectera à son tour plus de sommets, tandis que dans la courbe bleue (graphe orienté), si x infecte y, alors y a une probabilité plus élevée d'avoir un degré entrant élevé, mais les degrés entrants et sortants ne sont pas corrélés, donc il n'y a pas de raison particulière pour que y infecte plus de sommets à son tour.

Les deux modèles sont très simplistes (encore une fois, une complexité à la fois !), mais j'ai tendance à penser que le modèle orienté est plus réaliste pour décrire les effets de la variance due à des raisons médicales intrinsèques (différences de susceptibilité), tandis que le modèle non-orienté serait plus réaliste pour des effets de la variance due à des raisons sociales (où si on a plus de contacts entrants on a aussi plus de contacts sortants).

La question épineuse, bien sûr, c'est de savoir combien de variance il faut attendre. Comme je l'ai dit, on attend au moins à σ²≥κ (la variance de Poisson), i.e., σ≥√κ, mais combien plus ? Je n'en sais rien ! Au-delà du point de Poisson σ²=κ, il y a un autre point qui me semble assez naturel, c'est le point σ²=κ(κ+1) correspondant à une distribution géométrique. Dans le cas des degrés sortants, la distribution géométrique est assez naturelle : le modèle SIR classique suppose que le temps de rétablissement suit une distribution exponentielle, et on obtient alors une distribution géométrique sur les degrés sortants (alors qu'elle reste poissonnienne sur les degrés entrants ! c'est quelque chose qui m'avait causé une certaine confusion). Pour les degrés entrants je ne vois pas vraiment de justification à une distribution géométrique, mais j'observe que la valeur obtenue (pour la courbe bleue, i.e., dans le cas du graphe orienté) à ce point σ=√(κ(κ+1)), coïncide avec la valeur 1 − 1/R₀ prédite comme seuil d'immunité grégaire (= taux d'attaque au maximum des infectés) dans le modèle SIR classique : je n'ai pas d'explication directe à cette égalité, mais ce n'est sans doute pas une coïncidence, et je me dis qu'il y a probablement une explication faisant intervenir la distribution géométrique. En tout cas, ceci suggère que σκ n'est pas un ordre de grandeur déraisonnable.

Notons qu'il n'y a rien d'absurde ou logiquement contradictoire à ce qu'on ait, pour une variable aléatoire positive comme un nombre de contacts, un écart-type σ supérieur à la moyenne κ : cela peut sembler bizarre de dire que chaque personne a 2.5 ± 5.0 contacts infectieux alors que le nombre de contacts est positifs, mais cela signifie simplement qu'il y a des valeurs très élevées et assez de valeurs petites (y compris 0 : les personnes recevant 0 contacts infectieux ne seront, de toute évidence, pas infectées) pour compenser la moyenne. La distribution sera très asymétrique, mais cela peut arriver.

Mais bien sûr, le fait que ce soit logiquement possible ne signifie pas que ce soit réaliste. Je ne sais pas si c'est le cas. Je ne suis ni sociologue ni médecin, et même ceux qui le sont n'ont pas de données précises sur les contacts, encore moins les contacts infectieux : mesurer R₀ est déjà assez dur, la variance sortante sera sans doute plus dur, et la variance entrante encore plus ! Je dirais qu'on ne doit pas s'attendre à avoir σ nettement supérieur à κ(=R₀), mais je ne saurais pas en dire plus.

Bref, mes courbes doivent simplement être prises comme une indication du fait que la variance dans le nombre de contacts a de l'importance, et comme un ordre de grandeur de l'importance possible de cet effet, mais guère plus. Ce n'est certainement pas une prédiction.

J'en viens maintenant à des explications mathématiquement plus précises (mais toujours loin d'être rigoureuses !) sur le calcul des courbes.

Je rappelle que le principe est de modéliser la propagation de l'épidémie par un graphe aléatoire sur lequel on va regarder la proportion des sommets accessibles depuis un sommet x₀ (permettant effectivement d'accéder à une proportion importante de sommets, i.e., dans la composante géante pour le cas non-orienté). On cherche donc des formules permettant de calculer (l'espérance de) cette proportion pour un modèle de graphe aléatoire un peu crédible permettant de spécifier la distribution des degrés entrants et/ou sortants.

Dans le cas non-orienté, ce modèle de graphe aléatoire est classique : c'est le modèle de la configuration (de Bollobás), ou de Molloy-Reed, décrit ici sur Wikipédia. La construction est assez naturelle : partant de l'ensemble des sommets (dont je suppose évidemment qu'il est très grand, je vais vouloir le faire tendre vers l'infini), on tire au hasard (et indépendamment) le degré de chaque sommet selon la distribution imposée, on crée autant d'« amorces » d'arêtes, autour du sommet en question, que ce degré qu'on vient de tirer, puis on crée les arêtes en tirant aléatoirement de façon répétée (uniformément et indépendamment) deux amorces, qu'on remplace par une arête reliant les deux sommets en question. (Il faut éventuellement décider quelque chose pour écarter le cas des arêtes multiples ou des arêtes reliant un sommet à lui-même, mais ce n'est pas important pour un nombre de sommets tendant vers l'infini alors que la distribution est de moyenne (et de variance ?) finie.) Je pense que c'est une façon vraiment intuitive de construire un graphe dont on veut fixer la distribution des degrés (tellement naturelle que je l'ai non seulement redécouverte, mais redécouverte au moins deux fois, et certainement plein de gens l'ont fait, d'ailleurs le fait qu'elle ait plusieurs noms le suggère). La formule permettant de calculer la taille de la composante géante dans ce modèle est « bien connue » et je vais la décrire plus bas.

Dans le cas orienté, je ne sais pas si le modèle a un nom, mais il est à peu près aussi naturel et évident que ce que je viens de dire. Si on veut juste spécifier la distribution des degrés sortants, on peut faire la chose suivante : on tire au hasard (et indépendamment) le degré sortant de chaque sommet selon la distribution imposée, on crée autant d'« amorces sortantes » d'arêtes, autour du sommet en question, que ce degré qu'on vient de tirer, puis on crée les arêtes en tirant aléatoirement de façon répétée (uniformément et indépendamment) une amorces sortante comme source et un sommet aléatoire comme cible, qu'on remplace par une arête reliant la source vers la cible. La distribution des degrés sortants sera celle spécifiée, tandis que la distribution des degrés entrantes sera poissonnienne. Il y a une formule permettant de calculer la proportion de sommets accessibles dans ce modèle depuis un sommet x₀ menant effectivement à une proportion importante de sommets, et la probabilité que ce soit le cas. Symétriquement, on peut spécifier la distribution des degrés entrants. Pour spécifier à la fois les distributions entrante et sortante (de même moyenne), la généralisation évidente consiste à faire la même chose avec des amorces entrantes et sortantes (il faudra bidouiller quelque chose, par exemple conditionner, pour que le nombre total d'amorces entrantes et sortantes coïncide, mais ça ne doit pas être important quand le nombre de sommets tend vers l'infini) : je pense que, sous des hypothèses raisonnables, la même formule marche encore dans ce cadre, mais je n'ai pas de preuve, juste une intuition par analogie avec les cas que je viens de décrire.

Essayons d'être plus précis. Je rappelle que si pi est une distribution de probabilité sur ℕ (c'est-à-dire que p₀,p₁,p₂,… sont des nombres réels positifs de somme 1, où pi est la probabilité ℙ(X=i) que la variable aléatoire X vaille i selon cette loi), la fonction génératrice associée est la série formelle G(z) := ∑i pi·zi dont la valeur en z est l'espérance 𝔼(zX) de zX. Manifestement, G est positive, strictement croissante et strictement convexe, vérifie G(1)=1, et G′(1) = ∑i pi·i est l'espérance 𝔼(X) de la distribution considérée. (On remarquera aussi, à toutes fins utiles, que la donnée de G permet de retrouver les pi, puisque pi est la valeur de la dérivée i-ième de G en 0, divisée par i!.)

Je rappelle aussi ce qu'est un processus de Galton-Watson basé sur une distribution de probabilité pi comme je viens de dire : on construit un arbre aléatoire, en partant de la racine et, pour chaque nœud qui n'a pas encore été traité, en lui donnant (indépendamment de tous les autres) un nombre de fils tiré au hasard selon la distribution spécifiée. La probabilité d'extinction du processus de Galton-Watson est la probabilité que cet arbre soit fini (le processus s'éteint en un nombre fini de générations). Il y a une formule simple pour la calculer : c'est le plus petit point fixe de G, c'est-à-dire le plus petit u tel que G(u)=u (en se rappelant que G(1)=1 et que, par stricte convexité, il ne peut exister qu'au plus deux points fixes, et il est facile de voir qu'il y en a deux si et seulement si G′(1)<1, c'est-à-dire 𝔼(X)<1). Une explication avec les mains est que, si on appelle u la probabilité d'extinction (en partant d'un seul nœud, donc), la probabilité d'extinction en partant de k nœuds est uk, or un nœud a une probabilité pk de donner k nœuds, d'où il résulte (en distinguant selon le nombre de fils de la racine) que u = ∑k pk·uk, c'est-à-dire exactement G(u)=u. Ou, si on préfère, et pour voir que c'est le plus petit, autant faire les choses directement à l'endroit : la probabilité d'extinction en r générations est Gr(0) (où Gr = GG∘⋯∘G est l'itérée r-ième) comme on le voit en distinguant tous les cas selon le nombre de descendants possibles de chaque nœud impliqué, et cette itération répétée converge bien vers le plus petit point fixe.

Ceci étant rappelé, pour un nombre de sommets tendant vers l'infini, le taux d'attaque (c'est-à-dire la taille relative de la composante-sortante-géante) dans le graphe orienté aléatoire dont la distribution des degrés entrants est donnée par les pi coïncide avec la probabilité de non-extinction 1−u du processus de Galton-Watson construit sur la distribution pi en question. Voici une explication intuitive de ce fait : pour déterminer si un sommet aléatoire z est atteint par l'épidémie, on trace en arrière les sommets qui auraient pu le contaminer, c'est-à-dire les voisins entrants de z, puis les voisins entrants de celui-ci, et ainsi de suite à rebours : comme le nombre de sommets est très grand, il s'agit initialement d'un processus de Galton-Watson (on ne retombe pas deux fois sur le même sommet), et la probabilité que ce processus ne s'éteigne pas est la probabilité qu'il atteigne un ensemble géant de sommets, donc le patient zéro. (Symétriquement, la probabilité de non-extinction de l'épidémie coïncide avec la probabilité de non-extinction du processus de Galton-Watson construit sur la distribution des degrés sortants.)

Tout ça est dit de façon extrêmement informel, mais le théorème précis est le théorème 4 de l'article The strong giant in a random digraph de Mathew Penrose, au moins si une des deux distributions impliquées est de Poisson (je conjecture que la généralisation évidente est valable, mais avec mon niveau en probas je n'ai aucun espoir d'arriver à le prouver).

Bref, pour calculer ce taux d'attaque 1−u on a juste à chercher le plus petit point fixe u de la fonction génératrice G de la distribution des degrés entrants.

Qu'en est-il pour le cas non-orienté ? La formule pour la composante connexe géante d'un graphe aléatoire construit selon le modèle de la configuration est très semblable, mais juste un petit peu plus compliquée : on introduit la fonction G₁(z) := G′(z)/G′(1) où G′(z) = ∑i i·pi·zi−1 est la dérivée de G ; c'est-à-dire que G₁ est la fonction génératrice associée à la distribution de probabilités i·pi / (∑j j·pj). Si u est le plus petit point fixe de G₁, la taille recherchée est 1−G(u) — du moins si ceci est >0 c'est-à-dire si u<1. Voici une explication intuitive de ce fait : comme dans le cas orienté, pour déterminer si un sommet aléatoire z est atteint par l'épidémie (appartient à la composante connexe géante), on trace les sommets qui auraient pu l'y mettre, c'est-à-dire les voisins de z, puis les voisins de celui-ci, et ainsi de suite : (pour un nombre de sommets très grand) ceci constitue un processus très semblable à un processus de Galton-Watson, mais avec une différence à la génération racine. En effet, dès lors qu'on a suivi une arête pour arriver à un sommet, ce sommet n'est plus un sommet aléatoire mais un sommet aléatoire pondéré par le fait d'avoir une arête qui y mène, c'est-à-dire choisi avec une distribution de probabilités proportionnelle au degré de chaque sommet, et le degré d'un tel sommet est justement i·pi / (∑j j·pj) dont la fonction génératrice est G₁ : on retrouve donc un processus de Galton-Watsons sur G₁, coiffé par G.

Encore une fois, ceci est très informel, et je n'ai pas parlé de l'hypothèse de criticité (si G₁′(1)<1, il n'y a pas de composante connexe géante). Un théorème précis est énoncé dans l'article The Size of the Giant Component of a Random Graph with a Given Degree Sequence de Molloy & Reed (théorème 1), mais le décodage en ce que je viens de dire n'est pas complètement évident. Pour une discussion plus lisible et plus informelle, je renvoie à Random graphs with arbitrary degree distributions and their applications de Newman, Strogatz & Watts (ils donnent aussi des résultats sur les graphes orientés, mais sans preuve ni référence à une preuve, et je n'ai pas l'impression qu'il y ait le cadre que j'ai évoqué ci-dessus).

Bref, pour calculer ce taux d'attaque 1−G(u) on a juste à chercher le plus petit point fixe u de la fonction G₁ dérivée-renormalisée de la fonction génératrice G de la distribution des degrés, et appliquer G.

À ce stade, on peut complètement oublier les graphes et travailler avec les fonctions génératrices :

  • La distribution de Poisson d'espérance κ a pour variance σ²=κ, et est donnée par pi = exp(−κκi/i!, ce qui correspond à la fonction génératrice G(z) = exp(−κ(1−z)), et on a G₁(z) = G(z) = exp(−κ(1−z)). Pour κ≥1, le plus petit point fixe u de G (ou de G₁, du coup), est −W(−κ·exp(−κ))/κ (avec pour W la fonction de Lambert), ce qui donne le taux d'attaque 1−u = 1 + W(−κ·exp(−κ))/κ, qui est le même que prédit par le modèle SIR classique. (Pour κ≤1, le plus petit point fixe de G est 1, le taux d'attaque prédit est 0 : l'épidémie ne peut pas démarrer.)
  • La distribution géométrique d'espérance κ a pour variance σ²=κ(κ+1), et est donnée par pi = κi/(κ+1)(i+1), ce qui correspond à la fonction génératrice G(z) = 1/(κ+1−κz), et on a G₁(z) = 1/(κ+1−κz)². Pour κ≥1, le plus petit point fixe u de G, est 1/κ, ce qui donne le taux d'attaque 1−u = 1 − 1/κ (dans le cas orienté), qui est le même que le seuil d'immunité grégaire prédit par le modèle SIR classique. Comme je l'ai dit plus haut, je ne sais pas s'il y a une explication à ce fait, mais je suppose que ce n'est pas une coïncidence. Pour le cas orienté, le plus petit point fixe de G₁ vaut (κ+2−√(κ(κ+4)))/(2κ), ce qui n'est pas très intéressant, et le taux d'attaque 1−G(u) prédit est (3−√((κ+4)/κ))/2. Tout ça est un cas particulier (r=1) du point suivant.
  • La distribution de Pólya (binomiale négative) d'espérance κ et de variance σ²>κ a pour fonction génératrice G(z) = (r/(r+κκ·z))r = (κ/(σ²−(σ²−κz))(κ²/(σ²−κ))r = κ²/(σ²−κ). On a G₁(z) = (r/(r+κκ·z))r+1 = (κ/(σ²−(σ²−κz))(κ²/(σ²−κ))+1. Il n'y a pas de formule simple particulière pour le plus petit point fixe de G ou G₁, mais il se calcule aisément.
  • La distribution binomiale d'espérance κ et de variance σ²<κ a pour fonction génératrice G(z) = ((nκ+κ·z)/n)n = ((σ²−(κσ²)·z)/κ)(κ²/(κσ²))n = κ²/(κσ²). On a G₁(z) = ((nκ+κ·z)/n)n+1 = ((σ²−(κσ²)·z)/κ)(κ²/(κσ²))+1. Il n'y a pas de formule simple particulière pour le plus petit point fixe de G ou G₁, mais il se calcule aisément. (Il y a une asymétrie agaçante, cependant, entre ce cas et le précédent, à savoir que pour la loi binomiale, n a besoin d'être entier, histoire d'obtenir des probabilités positives, alors que pour la loi binomiale négative, r n'a pas besoin de l'être. Donc mes courbes devraient en fait être en pointillés dans le domaine σ²<κ, les pointillés devenant de plus en plus denses en s'approchant du point de Poisson σ²=κ. Mais ce n'est pas très important, de toute façon ce domaine n'est pas très réaliste et est juste inclus pour la complétude des courbes, alors pourquoi ne pas ajouter des probabilités négatives tant qu'à faire. 😁)

Mes courbes sont donc obtenues simplement en faisant varier σ à κ=2.5 fixé, et à chaque fois, en calculant le plus petit point fixe u de G ou G₁ et en traçant 1−G(u). Le source Sage est ici, il est beaucoup plus court que toutes les explications que je viens de donner.

↑Entry #2654 [older| permalink|newer] / ↑Entrée #2654 [précédente| permalien|suivante] ↑

↓Entry #2652 [older| permalink|newer] / ↓Entrée #2652 [précédente| permalien|suivante] ↓

(mercredi)

Je coule

Le but intrinsèque de ce texte est de me permettre de voir un peu plus clair dans mes pensées et émotions avant d'en parler à un psychiatre. Mais le but extrinsèque, et pas moins important, à partager ainsi ce que je ressens, est que cette description puisse en aider d'autres qui partageraient les mêmes difficultés à se sentir moins seuls, et à ceux qui ne les partagent pas de les comprendre peut-être un peu (au risque de m'exposer à recevoir une pluie de conseils-reproches).

J'étais parti sur l'idée que le confinement nous mettait dans une certaine égalité, certainement pas quant aux circonstances matérielles, mais, au moins à circonstances matérielles identiques, quant aux épreuves psychologiques qu'il représentait — pas que j'imaginasse que nous réagirions identiquement à ces épreuves, mais qu'au moins les mécanismes de base étaient les mêmes. Je mesure maintenant combien cette idée est erronée : non seulement certains ne semblent pas vivre les circonstances actuelles comme une incarcération, mais ils ont l'air nombreux, peut-être la majorité, voire la majorité écrasante. Et je ne parle même pas des témoignages du genre j'adore ça ! (accompagnés d'explications sur le fait qu'ils profitent de leur forteresse de solitude et du temps qu'ils ont pour cuire des quantités invraisemblables de pain ou apprendre enfin la grammaire géorgienne). On peut certainement s'en féliciter, mais cela laisse ceux d'entre nous pour qui confinement n'est qu'un euphémisme irritant pour emprisonnement, face à la difficulté de faire comprendre ce ressenti basique, et assez désemparés de ne pas savoir comment expliquer le fait que la liberté est quelque chose qu'on ne perd pas sans peine. Et ne sachant trop de quelle manière expliquer que les petits messages gentillets du style pendant ce confinement, je vais vous montrer chaque jour une photo de mon jardin (ou du pain que j'ai fait, ou de la grammaire géorgienne que je suis en train d'étudier), si bien intentionnés qu'ils soient, sont rapidement insupportables tellement ils nous paraissent à côté de la plaque.

Je n'ai, évidemment, aucun moyen fiable de mesurer précisément ce que les gens ressentent, et mon entourage est certainement biaisé de toutes sortes de manière (mais on s'attendrait plutôt, a priori, à ce qu'il fût biaisé dans le même sens que moi). Des informations aussi fondamentales que l'augmentation du taux de suicide en France depuis le 17 mars, sont introuvables (j'ai cru voir passer une information suggérant un facteur ×10, mais je ne retrouve plus, et de toute façon la personne qui disait ça ne donnait aucune source crédible, c'était quelque chose comme un ressenti au doigt mouillé sur le nombre d'interventions des urgences pour ce type de causes). Pour penser que je suis dans la minorité, je me base donc uniquement sur de l'anecdotique comme des témoignages d'amis et des choses pas du tout scientifiques comme ce sondage sur Twitter et les réponses qui y ont été faites.

Ma première réaction dans cette crise a été celle de l'angoisse, principalement l'angoisse de l'inconnu, par rapport à l'épidémie elle-même, à la réaction de la société, au désastre social et économique qui suivrait, à la possibilité d'un effondrement systémique suite à l'une ou l'autre, à l'anéantissement de tant de rêves et espoirs pour l'avenir (et, au passage, de mes finances), et à ma propre réaction face à tout ça : j'ai décrit cette phase ici ici ; j'ai consulté un psychiatre pendant cette phase, qui m'a prescrit un anxiolytique (et un somnifère puisque j'avais aussi perdu le sommeil), que je n'ai essentiellement pas utilisé (juste deux ou trois fois le somnifère) parce que cette phase est passée d'elle-même. À l'anxiété a succédé le courroux, dirigé contre toutes sortes de décisions à mon avis stupides, et contre l'incompétence fondant ces décisions (ce n'est pas le propos ici de détailler). Avec cette hargne générale est aussi venue une irritabilité excessive, dont mon poussinet a injustement fait plus d'une fois les frais. Cette phase est aussi largement passée : je n'ai plus de peur, je n'ai plus de colère, je n'ai plus l'énergie pour soutenir ces émotions : je suis maintenant simplement abattu. (Je suppose qu'il y a du vrai dans le modèle de Kübler-Ross.)

En plus de tout ça, je souffre d'un certain degré d'empathie : de tant de vies et de rêves brisés, soit par la maladie elle-même, soit par tous les bouleversements qu'elle a et va entraîner dans nos sociétés. Le nombre de morts ne m'affecte qu'intellectuellement (comme Staline ne l'a peut-être jamais dit, la mort d'un homme est une tragédie, la mort d'un million est une statistique) : ce qui m'affecte ce sont les récits individuels, ces gens qui avaient des projets pour la vie et des espoirs pour l'avenir, qui peut-être venaient de traverser une période difficile et commençaient à espérer la montagne passée quand soudainement cette crise surgie de nulle part vient faire que tout s'effondre. (Ne serait-ce que les restaurants que le poussinet et moi aimions fréquenter, dont nous connaissions souvent les propriétaires, et dont sans doute la moitié ne rouvriront jamais ; ou l'auto-école qui m'a dispensé un zillion d'heures de cours de voiture et de moto, petite entreprise familiale dont je connais le patron, le papa du patron, et pas mal du personnel : sera-t-elle encore là dans un an ?)

Rien de tout ça n'est constant, évidemment. J'arrive occasionnellement à m'en distraire. Mon moral fait des yoyos. Mais les embellies sont trompeuses, ce ne sont que des oublis passagers. (Insérer ici le dessin de Sempé [je ne le trouve pas en ligne] représentant un personnage expliquant à son psy : Quand je suis déprimé, les raisons pour lesquelles je le suis sont profondes, essentielles, fondamentales. Il m'arrive d'être heureux, bien sûr. Mais les raisons pour lesquelles je suis heureux sont si futiles, si ténues, que ça me déprime.) Une difficulté apparentée, que la parenthèse qui précède illustre peut-être, c'est que j'ai une certaine capacité à donner l'illusion d'être drôle, ou d'avoir de la répartie, capacité derrière laquelle je me cache souvent parce que j'ai une certaine répugnance à exposer crûment mes émotions, et qu'à cause de ça on ne me prend pas au sérieux quand je vais mal. (Dans le même ordre d'idées, je sais qu'on m'a souvent dit que je donnais l'impression d'être calme et mesuré, ce qui me fait rire jaune vu que je sais à quel point je suis colérique et impulsif.)

La stratégie la plus évidente était simplement d'attendre que ça passe. Kick the can down the road, comme on le dit. Vu que ce qui me fait souffrir actuellement est l'emprisonnement, il suffit d'attendre que celui-ci se finisse… non ? Non, d'abord parce que la date de fin est sans arrêt reportée : et chaque report me fait l'effet d'un nouveau coup de poignard, car à chaque date annoncée j'ai la faiblesse et la stupidité d'y croire, et évidemment c'est à chaque fois un nouveau mensonge. Non, car à l'emprisonnement succédera un avenir à peine moins sombre, et la réalisation du fait que ma vie d'avant, tous les petits plaisirs sur lesquels je fondais mon équilibre psycho-affectif et qui se sont envolés en mars 2020, cette vie d'avant est complètement détruite pour bien plus longtemps que la seule période d'emprisonnement, et il n'est pas acquis qu'elle puisse jamais ressusciter. (J'étais déjà très mal avant que le gouvernement mette toute la population française en arrêt à domicile, et même si cette mesure a énormément accéléré la spirale noire dans laquelle j'étais engagé, elle n'est pas seule en cause.) Et la stratégie de simplement tout repousser à plus tard ne fait que m'ensevelir sous une épaisse couche de culpabilité pendant que je me recroqueville autour de mon malheur que je rumine. (Je vais revenir sur la culpabilité.)

Pour essayer de faire comprendre mon état mental actuel, la meilleure comparaison que j'aie trouvée est celle du marteau-piqueur. (Comme une sorte d'intrusion dans la réalité d'une métaphore qui n'aurait pas compris qu'elle devait rester métaphorique, il y a eu, le 10 mars, des gens qui sont venus, je ne sais pas pourquoi, détruire une bonne partie du macadam du trottoir de ma rue, et j'ai été réveillé de jour-là par des bruits de chantier atteignant les 70dB au sonomètre chez moi, et qui ont duré toute la matinée. C'est ce qui m'inspire cette analogie.) Le marteau-piqueur c'est mon cerveau qui me répète sans arrêt je n'en peux plus de cette cage ! je veux sortir ! je veux bouger ! je veux m'aérer ! je veux faire du sport ! — et tous les conseils du genre lis un livre pour te distraire, regarde un film, essaie de travailler pour penser à autre chose, etc., butent sur le fait que, lire un livre, regarder un film, travailler, quand on a un marteau-piqueur dans la tête, ça ne marche pas. On ne veut qu'une chose, c'est que le marteau-piqueur s'arrête. On ne pense qu'à une chose, c'est que ce truc est insupportable. On arrive peut-être à s'en distraire une minute, mais on y revient toujours, tant qu'il donne ses coups répétés et insistants. On donnerait n'importe quoi pour que le marteau-piqueur cesse, mais on n'a pas la force d'y faire quoi que ce soit, alors on finit juste avec la tête dans un oreiller à crier pitié.

(L'ironie de la chose, parce que le destin a indiscutablement une forme d'ironie, c'est que j'aurais sans doute beaucoup mieux vécu l'emprisonnement par le passé : avant que je ne découvre le plaisir que je pouvais avoir à faire de la musculation, à visiter les parcs et jardins et forêts de l'Île-de-France, à rouler en moto, etc. Le David Madore ado geek asocial détestant le sport aurait peut-être adoré avoir un prétexte pour rester cloîtré deux mois chez lui, et tous les efforts que j'ai faits depuis pour avoir une vie plus saine me font maintenant souffrir.)

À un certain stade de la crise, j'ai vaguement réussi à convertir une partie de cette énergie de colère et de désespoir en quelque chose d'un peu plus productif : j'ai appris un peu d'épidémiologie (et même un tout petit peu de virologie, d'immunologie et de médecine en général), j'ai analysé la crise comme je le pouvais (voir quelques entrées antérieures sur de blog : ici, , , , , et encore  ; ou encore des fils Twitter que je n'ai pas traduits en français comme celui-ci, celui-là et encore celui-là). J'ai cru identifier un certain nombre de ce qui me semblent être des limitations méthodologiques sérieuses de l'approche utilisée par les modèles épidémiologiques qui sous-tendent les décisions politiques pendant cette crise, et notamment :

  • l'absence de prise en compte de l'hétérogénéité sociale de la population (autrement que sur des critères d'âge et éventuellement de géographie), reflétée tout au plus dans de malheureuses matrices de mélange entre compartiments qui sont malgré tout traités comme homogènes chacun séparément ; et la mauvaise compréhension du fait que la lecture de données épidémiques agrégées sur l'ensemble de la population surpondère les sous-catégories où la reproduction est la plus rapide [je décris ce problème parmi d'autres ici sur ce blog, ainsi que dans la partie 🄱 de ce fil Twitter [lien Twitter direct]] ;
  • l'absence de prise en compte du fait que les contacts entre individus ne sont pas aléatoires mais qu'un petit nombre de contacts récurrents pour chaque individu (foyer, famille, amis, collègues) va représenter la majorité des contaminations, limitant la capacité de diffusion à un graphe de degré limité [je décris ce problème ici sur ce blog, phénomène (2a), ainsi que dans ce fil Twitter [lien Twitter direct], notamment tweets nº10, 11, 19, 21, 36, 37] ;
  • l'absence de prise en compte de l'effet de célébrité et du fait que les personnes ayant un grand nombre de contacts seront infectées avant les autres, réduisant ainsi la diffusion ultérieure de l'épidémie, et en particulier l'interaction entre ce phénomène et celui de l'item précédent [je décris ce problème ici sur ce blog, phénomène (2b), ainsi que dans ce fil Twitter [lien Twitter direct], notamment tweets nº12, 13, 20, 22, 40, 41] ;
  • l'incompréhension du fait que la variance des contacts infectieux reçus par un individu a un impact bien plus important que la variance des contacts infectieux émis (alors que beaucoup de modèles épidémiologiques jouent à essayer de faire varier l'infectiosité des individus et se penchent sur le problème des super-contaminateurs, le problème dual est bien plus pertinent), ou au moins que les deux doivent être pris en compte [je n'ai pas décrit ce phénomène sur ce blog, mais dans ce fil Twitter [lien Twitter direct]] ;

— et plus généralement la mauvaise prise en compte d'informations venant des domaines de la théorie des graphes et des probabilités (et surtout de leur intersection, les graphes aléatoires). En fait, je pensais au début que ces points (sauf peut-être le dernier) devaient être évidents pour tout le monde et que les modèles utilisés les ignoraient parce que leur but était de calculer autre chose, et j'ai pris conscience progressivement qu'en fait, non, il y a un véritable manque de recul par rapport à tout ça.

Seulement voilà, certains m'ont fait savoir que je n'étais pas épidémiologiste (même pas spécialiste des graphes aléatoires) et que je devais laisser les experts s'exprimer dans leur domaine d'expertise, et fermer ma gueule de non-spécialiste. Que j'étais un armchair epidemiologist, voire un crackpot complet, qui parce qu'il a lu quelques articles sur le sujet s'imagine comprendre un domaine dont il ignorait tout il y a deux mois, et pouvoir donner des leçons aux experts de ce domaine. (Et indubitablement, dans une crise pareille, il y a plein de gens qui se découvrent tout d'un coup une expertise miraculeuse en tout et sur tout. Ce qui donne lieu à des moqueries comme illustrées par ce tweet.) De toute façon, les experts sont bien trop occupés par toutes les sollicitations qui leur tombent dessus pour répondre à mes objections, mais sans doute ont-ils des réponses.

Déjà en général, la combativité ne fait pas partie de mes attributs. Je suis colérique, mais ma colère n'a aucune endurance. Je ne sais pas me battre pour mes idées. Si on me dit de fermer ma gueule, ce que je fais le plus facilement est de baisser les bras. De toute façon, quand je travaille à comprendre le monde, c'est surtout pour le comprendre pour moi, je fais parfois un effort pour l'expliquer aux autres parce que ça m'aide à mieux le comprendre, mais je n'ai aucun appétit pour les disputes avec les gens qui pensent que j'ai tort ou qui refusent de m'écouter.

Et en ce moment, bien sûr, le découragement est encore considérablement plus prononcé. Quel intérêt, en fait, d'essayer d'attirer l'attention sur des limitations dans les modèles épidémiologiques ? Les experts que je critique sont débordés, je n'ai aucun espoir d'arriver à me faire écouter d'eux même si j'arrivais à les convaincre que je ne suis pas un crackpot, et je n'ai plus aucune énergie pour tout ça. Je n'ai déjà même plus la force de répondre aux mails de mes amis qui me donnent ou prennent des nouvelles, je n'ai certainement pas celle de me faire entendre de gens dont je critiquerais la démarche scientifique. Et même si j'y arrivais, ça n'aurait aucun intérêt. Je ne pense pas qu'on puisse faire un modèle mathématique correct d'une épidémie humaine (et je soupçonne que l'hubris de le penser vient de l'expérience des épizooties, pour lesquelles des modèles simples doivent assez bien marcher parce qu'aucun des phénomènes sociologiques que je pointe du doigt ci-dessus ne se produit) : donc, est-ce vraiment grave si on raisonne sur des modèles erronés ?

Finalement, je m'en fous. Je n'ai pas la force de mener une croisade à ce sujet.

Je crois que les gens se méprennent souvent sur la démarche des scientifiques, enfin, je ne sais pas pour les autres, mais au moins pour ce qui est de la mienne : je ne fais pas des maths parce que c'est mon métier, encore moins pour me faire connaître, je ne fais pas vraiment des maths parce que je cherche à connaître la réponse à telle ou telle question, je ne fais même pas vraiment des maths parce que j'aime ça (même si, le plus souvent, en temps normal, c'est le cas) : je fais des maths parce que je n'arrive pas à faire autrement, c'est juste comme ça que mon cerveau fonctionne, c'est mon mode de pensée spontané dès que je réfléchis sur tout un tas de choses. Mais si les maths en sont la forme la plus fréquente, je n'ai pas forcément beaucoup de contrôle sur l'objet de mes pensées. Je dis ça pour répondre à ceux, et ils sont nombreux, qui m'ont enjoint de profiter de cet emprisonnement pour faire des maths : c'est un peu bizarre, comme conseil, c'est comme me dire d'en profiter pour manger, certainement je ne vais pas arrêter de manger, mais je vais manger quoi ? des sucreries, sans doute, parce que c'est ce qu'il y a de plus facile, de plus rapide, de plus séduisant. Newton a développé le calcul infinitésimal, découvert ses lois du mouvement de la gravitation, et sa théorie de la lumière et de la couleur, pendant qu'il était reclus au manoir de Woolsthorpe pendant que la grande peste bubonique dévastait Londres (où elle a tué peut-être le quart de la population entre 1665 et 1666) : je ne sais pas si c'était pour Newton un plaisir ou une nécessité, si c'était pour lui des sucreries intellectuelles, mais le fait est que je ne suis certainement pas un Newton. Donc à part l'épidémiologie, en matière de sucrerie mathématique, j'ai voulu me distraire en regardant quelque chose d'un peu reposant, j'ai fait un programme qui simule le mouvement de points sur la surface d'une sphère qui se repoussent selon la loi de Coulomb, c'est joli et un peu envoûtant à regarder, j'ai appris deux-trois choses (comme le fait qu'il n'y a pas d'analogue pour la mécanique en géométrie sphérique du centre de gravité en géométrie euclidienne, et que même le problème à deux corps y est terriblement compliqué), j'ai regardé la manière dont les points s'arrangent si on ajoute des frottements pour qu'ils s'arrêtent, puis j'en ai eu marre et j'ai laissé tomber cette sucrerie-là. Le marteau-piqueur est trop difficile à ignorer.

Bref, je ne sais pas comment des gens font pour travailler productivement dans ces conditions. Je n'en suis pas du tout capable. Encouragé par le mensonge initial que l'emprisonnement ne durerait pas trop longtemps (cf. ci-dessus), j'ai commencé par repousser un certain nombre de choses que je devais faire (kick the can down the road) en espérant que j'arriverais à remonter la pente, mais ça allait de plus en plus mal, et le fait de repousser m'a fait culpabiliser, maintenant j'en suis au point où je n'ose même plus lire mon mail professionnel.

Je sais que j'ai, de façon générale, une capacité épouvantablement mauvaise à faire face à l'adversité : ma réaction face aux difficultés est toujours de renoncer et de subir. Sans doute les seules batailles que j'aie remportées dans la vie l'ont été par pure chance, parce que ma technique préférée de combat est la capitulation. Ceci pose un remarquable problème de bootstrap si le but est précisément de combattre ma tendance à capituler devant l'adversité.

En tout état de cause, je n'arrive plus à rien faire. Je me lève, le marteau-piqueur est là, je n'arrive à rien faire, je culpabilise parce que je n'arrive à rien faire, je déjeune, je n'arrive à rien faire, je culpabilise un peu plus, je dîne, et je me couche en espérant que tout ceci ne soit qu'un mauvais rêve qui va passer, ou au contraire en espérant profiter d'un peu de liberté dans mes rêves, voire, ne pas me réveiller du tout. Et je me réveille en constatant que, malheureusement, ce n'est pas un mauvais rêve, le marteau-piqueur est toujours là. Et les journées se suivent et se ressemblent comme celles du personnage joué par Bill Murray dans Groundhog Day : des petites différences de forme, mais la sensation d'être pris dans une boucle infinie dans laquelle il n'existe aucune sorte de progrès.

Et la culpabilisation est un mécanisme incroyablement fort pour m'empêcher de me relever. Elle prend toutes sortes de formes.

D'abord, il y a la culpabilisation concernant le confinement. C'est devenu une sorte de sport national : montrer du doigt les gens qui ne respectent pas bien le confinement, les Parisiens qui ont fui en province au début ou qui espèrent partir en vacances, ceux qui font leur jogging, ceux qui font que le confinement se relâche, les irresponsables, dont on laisse comprendre qu'ils ont des morts sur la conscience. Alors voilà, oui, plusieurs fois, j'ai craqué, le poussinet et moi sommes sortis clandestinement faire une promenade dans des forêts que nous appréciions tellement dans l'ancien monde, et nous le referons certainement, même si cette expérience, bien que réconfortante, était en même temps passablement traumatisante à cause de cette culpabilisation doublée d'une peur de l'autorité (que les rapports nombreux de brutalité policière n'aident pas à dissiper).

Ensuite, il y a la culpabilisation concernant les idées autour du confinement : non seulement on est sommé de le respecter, mais on est aussi sommé d'y croire, d'être persuadé qu'on sauve des vies ainsi. Il ne suffit pas que nous soyons prisonniers, il faut encore que nous soyons des prisonniers heureux de faire notre part de sacrifice au salut commun. Alors voilà, je n'adhère pas à cette nouvelle religion nationale : je suis persuadé que l'approche suivie n'est pas la bonne : on aura beau essayer de tricher le Covid-19 des morts qu'il réclame, ce sera un échec, tout ce qu'on parviendra à faire, tout ce qu'on est parvenu à faire avec cette manœuvre, c'est de retarder un peu, à un coût exorbitant, ce qui va arriver de toute manière. Mais c'est une opinion qu'on n'a pas le droit d'exprimer sous peine d'être classé avec les gens qui, comme Donald Trump et les spectateurs de Fox News, pensent à l'économie avant de penser aux gens ou sont carrément persuadés que le virus est une sorte de complot. (Pour référence, voici quelqu'un avec qui je suis d'accord.)

Puis il y a la culpabilisation autour des conditions matérielles. Voilà : j'habite un appartement confortable et spacieux, avec un accès Internet qui marche du tonnerre, j'ai un supermarché juste en face de la rue, je ne manque de rien, je n'ai pas d'enfants à gérer, et j'ai le culot de me plaindre ! Indubitablement, je me sens morveux de me plaindre, alors qu'il y a des gens qui vivent dans des conditions réellement épouvantables (ce mini-documentaire est à cet égard édifiant) : mais l'argument ça pourrait être bien pire et il y a des gens pour qui ça l'est est toujours un mauvais argument, ne serait-ce que parce qu'il peut se retourner en ça pourrait être bien mieux et il y a des gens pour qui ça l'est, et de toute façon ce n'est pas le propos : je ne me plains pas des conditions matérielles de mon emprisonnement, je me plains de l'emprisonnement lui-même — une prison dorée reste malgré tout une prison, et d'ailleurs, dans la théorie pénale, que je sache, c'est bien la privation de liberté elle-même qui est censée servir de punition (punition que je considère maintenant comme cruelle, inhumaine et dégradante), pas la circonstance additionnelle que les prisons françaises sont surpeuplées, infectes, mal équipées et mal entretenues.

Ensuite il y a la culpabilisation du fait de partager mon malheur et de ne pas souffrir en silence. Nous sommes tous, après tout, dans le même bateau, et moi qui n'ai pas de légitimité particulière à me plaindre je me sens mal de jouer le rabat-joie face à ces gens qui sont ravis de profiter de ce moment pour faire du pain ou apprendre le géorgien. Je me sens particulièrement mal de faire subir à mon poussinet mes crises de sanglot où je n'arrive plus qu'à m'allonger sur le lit, prendre une peluche entre les bras, me mettre en position fœtale et ne plus bouger : je suis désolé qu'il ait à subir ça alors qu'il n'y est pour rien, et qu'il soit tout désemparé de ne pas pouvoir me réconforter.

Puis il y a la culpabilisation du fait d'être l'épidémiologiste de fauteuil qui prétend corriger les experts alors qu'il ne savait rien du sujet il y a deux mois. (Je l'ai évoqué ci-dessus.) Et de fait, je m'inquiète d'avoir viré crackpot sur le sujet, et vu mon état mental déplorable, je ne peux pas vraiment l'exclure.

Et enfin, bien sûr, il y a la culpabilisation du fait de ne plus arriver à travailler, accentuée par le fait que d'autres gens, manifestement, y arrivent (y compris au prix d'efforts héroïques pour faire, par exemple, un enseignement de qualité à travers une infrastructure inadaptée et bricolée à la dernière minute). Je vais voir comment me faire arrêter pour, au moins, régulariser ma situation, mais il est sûr que cela ne fera pas disparaître cette sensation de culpabilité.

Bref, je vais chercher à retourner voir un psychiatre, sans doute le même que j'ai consulté il y a un mois et demi, pour lui raconter ce que je viens de dire (et d'autres choses que je ne veux pas écrire ici) ; mais d'une part les circonstances actuelles font que ce n'est pas facile, d'autre part, les psys n'ont pas de baguette magique, mon poussinet est opposé par principe au fait que je prenne des médicaments (il a l'air de considérer les benzodiazépines et antidépresseurs comme le Mal incarné), et, si j'aurais peut-être des bénéfices à tirer d'une thérapie non-médicamenteuse à long terme, la vitesse hallucinante à laquelle mon état émotionnel s'est effondré et les circonstances parfaitement claires de cette dégradation laissent penser que le rétablissement ne peut passer que par la levée de ces circonstances, et je me demande bien dans quel état je serai quand Paris sera libéré (ce qui risque fort de ne pas se produire le 11 mai vu que Paris est un des départements les plus touchés par l'épidémie).

Ce n'est pas illégitime, dans une perspective utilitariste, de considérer que les dépressions et suicides qui seront causés par le confinement sont un dommage collatéral acceptable dans la lutte contre le Covid-19 (je parle en général : pour ma part je ne sais pas si je suis techniquement déprimé, et ce n'est d'ailleurs pas une question très intéressante ; je ne pense pas que je vais me suicider, au moins tant qu'il y a un espoir raisonnable que je puisse un jour reprendre une vie que je considère comme normale, et cet espoir n'est pas complètement mort). Après tout, même si le taux de suicide est effectivement décuplé, devenant ainsi comparable à ce qu'il est en prison, cela ne représentera qu'une quinzaine de milliers de personnes sur deux mois en France : c'est moins que le nombre de décès dus au Covid-19 sur la période, et nettement moins que le nombre dont on pense qu'on a évité. Néanmoins, si ce calcul utilitariste est mené, la moindre des choses serait qu'il le fût de façon transparente : qu'on dise clairement, on choisit de sacrifier tant de personnes (ou tant de personnes·années de vie) parce qu'on pense pouvoir en sauver plus. À l'heure actuelle, je n'ai pas l'impression que ce choix soit présenté dans ces termes, puisque les statistiques sur le suicides ne sont même pas menées dans le bulletin épidémiologique de l'agence nationale de santé publique (tout au plus apprend-on que 18% des Français présentent des symptômes de dépression reflétés par un score >10/21 sur la Hospital Anxiety and Depression Scale, mais on ignore malheureusement la valeur pré-épidémique). Et j'ai l'impression qu'il y a une réticence à justifier des choix de façon utilitariste (une sorte de slogan selon lequel on doit absolument et à tout prix sauver toute vie humaine, qui est patentement faux et même mensonger si on fait semblant d'ignorer toute une catégorie de victimes). À tout le moins, il serait bon de chercher à arrêter la culpabilisation infantilisante qui ne sauve personne et qui participe de façon particulièrement douloureuse à la spirale de la dépression.

Mise à jour : entrée suivante.

↑Entry #2652 [older| permalink|newer] / ↑Entrée #2652 [précédente| permalien|suivante] ↑

↓Entry #2651 [older| permalink|newer] / ↓Entrée #2651 [précédente| permalien|suivante] ↓

(dimanche)

Regard sur le passé et nouvelles spéculations pour l'avenir

S'il y a des gens qui sont tentés de trouver que je suis un bon analyste de la crise, je tiens à rappeler, comme preuve que ce n'est pas le cas, que le mois dernier j'avais proposé un certain nombre de scénarios possibles (et encore ici) qui se sont tous révélés faux, au moins pour autant qu'on puisse en juger à ce stade-là. Ce n'est pas anormal, on ne peut pas prévoir l'avenir. Ce qui n'interdit pas pour autant d'essayer, ne serait-ce que pour tromper la peur de l'inconnu et la douleur d'être prisonnier (ou simplement parce que le cerveau refuse tout simplement de faire autre chose, ce qui est mon cas en ce moment).

C'est aussi intéressant de faire des prédictions pour analyser a posteriori ses erreurs. Il me semble que la principale faute que je retiens de mes analyses passées ne concerne pas l'aspect épidémiologique (même s'il y en a : je pensais qu'on verrait beaucoup plus vite et plus nettement les effets du confinement, alors qu'en fait, les contaminations ont traîné plus longtemps que je pensais ; aussi, j'ai pensé que le taux de létalité serait bien plus clairement lisible qu'il ne l'est, même à ce stade-là), mais plutôt l'aspect sociétal.

Au tout début de l'épidémie (voir autour d'ici ; je crois que c'est ici que je l'ai dit en premier, mi-février), je prévoyais quelque chose comme 0.1% à 1% de morts (c'est-à-dire entre l'équivalent de 1 mois et 1 an de mortalité toutes causes, ou entre 100 000 et 500 000 morts en France), étalé sur une période de trois à six mois. J'ai essayé de me préparer mentalement à ça (par exemple en essayant d'estimer combien de personnes je connais et d'imaginer différents scénarios où une sur mille, ou une sur cent, décède aléatoirement). Mais pour ce qui est de mon erreur, je pensais honnêtement que la société l'accepterait (pas dans l'indifférence, certainement pas pour 1%, mais 0.1% je le pensais vraiment) : la grippe de 1918 a tué autour de 3% (de l'ensemble de la population mondiale) et il n'y a pas eu confinement généralisé de l'ensemble de la planète, pas même des parties qui n'étaient pas occupée par la guerre ; les grippes de 1957 et 1968 ont fait des dizaines de milliers de morts en France (le nombre exact est très incertain) et il semble qu'on l'ait peu remarqué sur le moment et qu'on s'en souvienne à peine maintenant ; donc sur la base de ces données historiques je me suis dit que ça se passerait un peu pareil. Je me suis dit que si la mortalité était de 0.1% cela ferait un treizième mois de mortalité, ou dix fois celle de la grippe saisonnière ; et que même 1% la société l'accepterait encore avec résignation.

Le moins qu'on puisse dire, donc, est que j'étais complètement (mais vraiment complètement) à côté de la plaque en ce qui concerne aversion de notre société au risque et à la mort. (Pour comparer aux chiffres de 0.1% à 1% que je viens d'évoquer, la France a actuellement officiellement une mortalité cumulée de 0.025% par Covid-19, l'Espagne de 0.04%, et on ne peut pas dire que ce soit bien accepté.)

C'est-à-dire, donc, que j'ai vu l'épidémie venir depuis bien longtemps, mais je n'ai pas du tout vu le confinement venir. Fin février, je pensais encore que le confinement c'était bon pour un régime autoritaire comme la Chine mais que l'Europe ne ferait jamais quelque chose de ce genre. Je ne dis pas que je pensais qu'on ne ferait rien : mais que le mouvement d'aplatir la courbe se contenterait d'interdire les rassemblements, de fermer les écoles et certains lieux publics comme les bars et cinémas, de prendre des mesures d'hygiène publique supplémentaires, et que ce serait à peu près tout (bon, je ne pensais pas non plus qu'il y aurait une pénurie de masques aussi grave et aussi durable) ; jusqu'à ce qu'on atteigne le pic épidémique avec un nombre de morts dans la fourchette que j'ai dite. À partir du moment où l'Italie a imposé un confinement généralisé à sa population, comme je ne m'étais pas du tout préparé à cette idée, quelque chose s'est cassé en moi et j'ai multiplié les crises d'angoisse. J'étais notamment paniqué par la possibilité[#] d'un effondrement systémique complet (qui tuerait, lui, pas 0.1% ou 1% mais quelque chose comme 99.9% de la population humaine) si le monde s'arrêtait complètement : je suis un peu rassuré qu'il n'ait pas eu lieu, même si je n'exclus pas que la crise économique qui va suivre provoque quand même cet effondrement avec retard.

[#] Pour les gens qui ont du mal avec les nuances, quand je dis la possibilité, je ne suis pas en train de dire que ça va se produire, ni que je pense que ça va se produire, ni que je le pensais à ce moment-là. Je dis que je pensais que la probabilité me semblait très désagréablement élevée. Disons peut-être 5% : si je pense que quelque chose a 5% de chances de se produire, ce n'est pas en me disant tiens, tu vois ! ça ne s'est pas produit (voyez ce que j'écrivais ici ou bien plus tôt ici sur la difficulté de donner un sens à des probabilités quand on fait des prédictions, en l'occurrence électorales). Mais si j'estime à 5% la probabilité de causer la mort de 99.9% de la population humaine c'est bien plus inquiétant que la mort certaine de 0.1% à 1% de cette population. Maintenant je révise cette estimation à seulement 1% ou 2% : ça reste toujours très préoccupant.

Je me suis aussi fait avoir (et me suis senti profondément trahi) quand les dirigeants français ont annoncé successivement, à quelques jours d'intervalle, le (fermeture des écoles et universités, encouragement au télétravail, déprogrammation des interventions médicales non urgentes), le (fermeture de tous les commerces et lieux publics non jugés indispensables) et enfin le (confinement à domicile) des mesures incroyablement différentes dans leur niveau de restriction, et ce malgré l'absence de toute donnée nouvelle justifiant ces changements d'attitude : donc là aussi, j'ai eu la naïveté de penser que les mesures annoncées solennellement au jour J reflétaient un choix effectué par le gouvernement et qu'il ne changerait pas d'avis le surlendemain, puis le surlendemain du surlendemain pour finalement faire comme en Chine. (Disons que si vous allez voir votre médecin pour une maladie, qu'il vous prescrit juste du repos et du paracétamol et que quatre jours plus tard sans nouvel examen ou résultat d'examen il vous dit que vous devez faire une opération lourde en urgence, vous êtes en droit de vous demander pourquoi il ne vous a pas dit ça au début.) Si je vois une trahison à propos du premier tour des élections municipales, c'est bien ça : pas qu'il ait eu lieu, mais qu'à cause de lui on ait caché les vraies mesures en annonçant des mesurettes et en laissant penser qu'on s'arrêterait là.

Tout ça pour dire que, même si j'ai clairement annoncé à tout le monde dès février que c'était évident que la Chine n'arriverait pas à contenir l'épidémie et que cette dernière arriverait en Europe, je ne suis quand même pas bon du tout pour prévoir l'avenir. (Je ne suis pas en mauvaise compagnie. Asimov aimait bien rappeler, quand on chantait ses louanges comme visionnaire, qu'il avait prédit que personne n'escaladerait jamais l'Everest… sept mois après la première ascension réussie de l'Everest.)

Mais ça ne m'interdit pas pour autant de réessayer. Voici donc mes nouvelles spéculations pour l'avenir, en essayant d'être plutôt optimiste : encore une fois, il s'agit simplement de ce que mon pipotron suggère comme plausible, un scénario sur lequel j'ancre mes perspectives pour l'avenir, et dont il sera intéressant d'analyser combien je me serai trompé, ce ne sont absolument pas des prédictions scientifiques et je n'ai pas de manuel de psycho-histoire en cours d'écriture.

(Activation du pipotron.)

Au cours des prochains 24 jours, si le confinement tient à peu près, le nombre de morts quotidien du Covid-19 en France va décroître graduellement jusqu'à environ 200 par jour, amenant le total jusqu'à un peu en-dessous de 30 000. À ce stade-là, environ 10% ou 15% de la population du pays aura été infectée[#2] (plus dans les sous-populations à haute contagiosité) et sera, pour l'essentiel, immune[#3]. Si les Français décident de braver les interdictions (ce qui semble de plus en plus probable, et on n'a pas assez de policiers pour en mettre derrière chacun), ce sera un peu plus sur chacun de ces nombres. Peut-être jusqu'à 20% d'infectés ? Cela ne suffira pas, et de loin, à constituer une immunité grégaire (concept éminemment périlleux à définir, et notamment plus complexe que la formule 1 − 1/R) au sens où on pourrait relâcher toute mesure de distanciation sociale, mais cela aidera néanmoins.

[#2] Nombre de cas et de morts estimés sur la base d'une décroissance de 6%/j environ. Nombre d'infectés estimés sur la base de 30 000 morts divisés par un taux de létalité parmi toutes les infections autour de 0.35% trouvé par ces gens-là. Mais je répète que tout ça n'est que ce que suggère mon pipotron.

[#3] Je sais que maintenant on ne peut plus dire immun sans qu'il y ait des gens qui vous disent une variante de l'ImMuNiTé Ça Ne MaRcHe PaS ! (sous différentes variantes : il y a eu des cas de réinfections, on ne sait pas combien de temps ça dure, etc. ; exemple A, exemple B, exemple C). Le problème principal est que les gens confondent l'affirmation il y a des gens chez qui l'immunité provoquée par la maladie semble être insuffisante et on n'a pas de preuve qu'elle dure très longtemps avec ça ne marche pas du tout et ça ne dure pas du tout : et que les gens oublient qu'il y a maintenant tellement de cas de gens infectés et même rétablis que si seulement 1% d'entre eux ont une immunité insuffisante, ça va suffire pour faire des titres sensationnels alors que les gens qui ont une bonne immunité après une première infection, par définition, on ne les voit pas. Je n'aime pas renvoyer à la presse généraliste sur ce genre de sujets, mais je trouve que cet article de Time et celui-ci de Libération font bien le point. (Évidemment, s'il n'y a que 70% des gens infectés qui sont immunisés, et/ou si cette immunité ne dure qu'un an, c'est une bien mauvaise nouvelle ; mais si on en est à imaginer des scénarios catastrophes on peut aussi imaginer celui où le virus mute et devient beaucoup plus létal lors de sa seconde vague et que les gens immunisés lors de la première ont bien de la chance d'être protégés lors de la seconde, comme cela s'est produit avec la grippe en 1918 : dans un tel scénario, limiter la propagation du virus serait une terrible erreur : au bout d'un moment, on ne peut pas toujours prévoir le pire.)

L'Europe va progressivement relâcher ses mesures de confinement (l'Autriche et le Danemark ont déjà ouvert la danse ; la Suède n'en a jamais pris ; je ne sais pas ce que la France fera exactement le 11 mai[#4], l'ouverture des écoles sera probablement retardée, mais il est peu vraisemblable qu'elle reste exactement dans l'état actuel dès lors qu'une date a été annoncée et que d'autres pays auront fait des pas). On tentera de mettre en place des mécanismes de suivi des contacts, mais ces mécanismes seront un échec complet, parce que l'aspect technique aura été mal fait (déjà les gens qui lancent de telles applications n'arrivent pas à s'entendre, ni à développer quelque chose d'ouvert et transparent) et parce que l'Europe n'est pas la Corée. On améliorera le nombre et la disponibilité des tests, mais ils resteront toujours insuffisant, et de même pour les masques. En revanche, ce qui marchera le mieux est simplement que les gens auront pris peur et maintiendront des efforts assez importants de distanciation sociale (pas tous, mais ceux qui font le moins d'efforts feront justement partie de ceux qui auront été déjà contaminés). Et aussi, on connaîtra progressivement de plus en plus de choses sur les modes réels de contamination, ce qui permettra de cibler les efforts et les recommandations sur ceux qui sont les plus importants. Bref, l'épidémie repartira à la hausse après la levée du confinement, mais à un rythme beaucoup plus modéré que début mars.

[#4] Le plus important à mes yeux, et ce sur quoi je m'inquiète donc le plus, est qu'on ait de nouveau le droit de circuler[#5] à peu près librement sans avoir à remplir un formulaire délibérément pénible et humiliant. Le plus important économiquement est sans doute de rouvrir les commerces non « essentiels ». Manifestement il y a des variations entre pays dans l'ordre dans lequel les choses ont été classées : j'ai retenu qu'un pays européen, mais je ne sais plus lequel, avait rouvert les restaurants (mais pas les bars, et évidemment avec des règles assez strictes) avant de rouvrir les écoles, alors que la France parle de faire le contraire. Mais la vraie question épineuse va être celle de savoir comment sont gérés les transports en commun, parce que pour pratiquer la distanciation sociale dans la ligne 13 du métro parisien toujours bondée et indispensable à tant de monde, bon courage.

[#5] Enfin, pas le droit mais la permission : comme je l'ai souligné ici, si on peut vous retirer un droit c'est que vous n'avez jamais eu ce droit, donc le droit de circuler n'existait, en fait, pas, seulement l'illusion de ce droit. (Pour savoir dans quels pays il existe vraiment il faudrait trouver ceux où les gouvernements ont expliqué qu'ils recommandaient le confinement mais qu'il serait ultra vires pour eux de l'ordonner : y en a-t-il ?)

Il y aura donc un nouveau pic épidémique, commençant peu de temps après la levée du confinement, mais nettement plus lent que le premier. Selon les pays, il sera plus ou moins important : évidemment il aura tendance à être d'autant plus important que le confinement aura été mené tôt lors du premier (supprimant l'acquisition d'immunité), mais il y aura aussi des différences intrinsèques entre pays. Néanmoins, comme les protocoles médicaux seront un peu mieux rodés, les options thérapeutiques un peu mieux connues et les mystères entourant la maladie un peu dissipés[#6], cette seconde vague enregistrera un taux de létalité plus faible. (Contrairement à la grippe, qui en 1918 était revenue beaucoup plus létale lors de la seconde vague, il ne devrait pas y avoir de mutation significative du virus.) En France, étant bien entendu que j'invente complètement ces chiffres, le Covid-19 contaminera de nouveau 10% de la population et tuera encore une dizaine de milliers de personnes. Certains pays mettront de nouveau en place un confinement, mais ils seront moins nombreux que la première fois (car le premier aura donné des résultats mitigés rendant l'opinion publique plus sceptique quant à cette approche ; parce que la vitesse du nouveau pic aura moins tendance à submerger les services d'urgence ; et parce que l'économie ira tellement mal qu'on ne pourra tout simplement plus se le permettre). Il y aura sans doute encore un troisième pic, puis peut-être un quatrième, mais de moindre ampleur, et finalement le Covid-19 deviendra une maladie endémique jusqu'à ce que peut-être un vaccin soit mis sur le marché. Au final, en France, le nombre de morts s'élèvera à environ 70 000 (officiellement dénombrés : en réalité plutôt près du double si on se base sur la surmortalité), les autres pays d'Europe s'en sortant soit mieux soit moins bien mais de façon guère différente. La mortalité dans le monde, en revanche, sera gigantesque parce qu'en Inde elle tournera autour de 1%, ce qui représente déjà 15 millions de morts.

[#6] Il y a une piste dont je voudrais bien savoir ce qu'elle apporte réellement comme espoir, ce n'est pas la choloroquine ni un quelconque antiviral, mais la sérothérapie (injection d'anticorps d'un patient convalescent chez un autre patient). J'ai vu des articles plutôt encourageants, mais en ce moment on voit 1001 articles annonçant une percée décisive à travers 1001 remèdes miracles, et manifestement le remède miracle n'existe pas. Bref, je ne sais pas à quel point la sérothérapie marche, mais ce « remède »-là a au moins un avantage immense par rapport à toute molécule de synthèse, c'est que la disponibilité du remède croît assez bien avec ses besoins : presque par définition, dans une épidémie, on ne risque pas de tomber en problème d'approvisionnement.

En revanche, la crise économique qui va suivre sera d'une ampleur sans précédent, et le nombre de morts (ou plutôt la perte d'espérance de vie) qu'elle causera[#7] sera nettement supérieur à ce qui aura été causé par la maladie. Et ce, sans compter les effets à travers le changement climatique (les transports en commun vont être délaissés pour la voiture individuelle, d'autant plus que le prix du pétrole aura temporairement plongé ; et comme cela va se produire notamment en Chine, l'impact sur le climat sera désastreux, compensant très largement le petit effet bénéfique d'une baisse temporaire d'activité économique). Je vois également des conséquences très sombres sur les libertés individuelles et la démocratie. On peut toujours espérer voir un silver lining ici ou là, mais je suis vraiment sceptique (certains espéraient, par exemple, que le Covid-19 empêcherait la réélection de Trump à la Maison-Blanche : cela semble plutôt parti pour le contraire, sauf s'il devait personnellement mourir de la maladie ; je suis tout aussi incrédule quand certains espèrent qu'on verra une réorientation de l'économie vers plus de services publics ou quelque chose de ce genre : elle sera tellement à genoux que je m'attends plutôt à des décisions comme une baisse de salaire et retraite de 15% de tous les fonctionnaires sauf hospitaliers ou policiers).

[#7] On remarquera, pour reprendre la comparaison que je faisais dans la précédente entrée de ce blog, que les économistes sont plus prudents que les épidémiologistes : ils n'ont pas osé annoncer un chiffre à ce sujet (ils font des prévisions en termes de PIB perdu, mais ne traduisent pas ça en coût humain) alors que les épidémiologistes, qui n'en savent pas plus, n'hésitent pas à faire des prévisions en nombres de morts. C'est tout à l'honneur des économistes de ne pas avancer des chiffres tirés de leur chapeau, mais l'inconvénient est que cela encourage le public à oublier que, oui, les crises économiques se traduisent aussi par une perte d'espérance de vie et pas juste les crises sanitaires. J'ai tenté un ordre de grandeur sur la base de la corrélation entre PIB et espérance de vie : il est clair que ce calcul ne vaut rien, mais il suggère au moins qu'il n'y a pas particulièrement de raison de penser que la crise économique serait moins grave que la crise sanitaire.

(Fin d'activation du pipotron.)

Voilà, maintenant il n'y a plus qu'à attendre pour savoir dans quelle mesure j'aurai été ridiculement à côté de la plaque avec ces prévisions.

↑Entry #2651 [older| permalink|newer] / ↑Entrée #2651 [précédente| permalien|suivante] ↑

↓Entry #2650 [older| permalink|newer] / ↓Entrée #2650 [précédente| permalien|suivante] ↓

(mardi)

Méfions-nous de la modélisation « mathématique » des épidémies

Je vois passer de plus en plus de gens qui expliquent qu'une modélisation épidémiologique produite par Imperial College ou une étude de l'INSERM montre que ceci-cela. Je voudrais attirer l'attention sur l'extrême prudence avec laquelle il faut lire les résultats de toutes les modélisations épidémiologiques, et rappeler les limites de l'exercice. Prudence dont ne font d'ailleurs pas toujours preuve les gens qui annoncent ces résultats : mon but n'est certainement pas de traiter les épidémiologistes de charlatans, mais de souligner que :

  • nous ne disposons d'aucune sorte de modèle capable de prédire l'avenir avec un quelconque degré de fiabilité (à la fois par manque de données à mettre en entrée de ces modèles et par difficulté intrinsèque dans la modélisation), seulement de montrer quelques unes des possibilités qualitatives, et
  • ce n'est pas pour autant que ces modèles ne servent à rien, simplement il ne faut pas les utiliser comme des boules de cristal.

Bref, mon message principal en tant que mathématicien est que les épidémiologistes ne sont pas Hari Seldon, et que tout le monde doit avoir ce fait en tête (eux-mêmes comme ceux qui lisent leurs rapports). Ce qui ne veut pas dire qu'ils n'ont pas de messages importants à faire passer, ni que les modèles mathématiques n'ont rien à nous dire, ils sont très importants pour naviguer entre les possibles, mais il faut apprendre à faire preuve de la même prudence épistémologique que vis-à-vis de l'utilisation des mathématiques en économie ou en sociologie, et pour l'instant ce n'est pas gagné.

Cette entrée de blog est une version développée (et traduite en français) de ce fil Twitter [lien Twitter direct]. Il peut être utile de commencer par lire ce que j'ai écrit dans cette entrée-ci (qui est elle-même un développement+traduction de ce fil Twitter [lien Twitter direct]) où j'attire l'attention sur l'importance des effets des structures sociales locales qu'aucun modèle épidémiologique ne prend sérieusement en compte (voire, du tout).

Bref, je voudrais expliquer pourquoi l'utilisation de modèles pour simuler les épidémies ne marche tout simplement pas quand il s'agit de prédire l'avenir (et pourquoi ça ne signifie pas que ces modèles sont inutiles). Et aussi pourquoi le nombre de reproduction (dont tout le monde s'est mis à parler) est une quantité très problématique.

Quand une épidémie commence, on voit une croissance exponentielle bien prévisible. Ce qu'on voudrait que nos modèles nous disent, c'est quand et comment cette croissance exponentielle va ralentir puis s'arrêter, combien de personnes seront infectées, et combien mourront. Désolé, mais ça ne marchera pas.

Bien sûr que nous avons un modèle simpl(ist)e qui décrit une épidémie simple avec une contagiosité constante dans une population homogène avec mélange parfait entre individus. Ce modèle s'appelle SIR et il est la base de la base en épidémiologie : j'en ai parlé sous l'angle mathématique dans cette entrée de blog, puis j'ai parlé d'une variante (où le rétablissement se fait en temps constant) dans celle-ci, et j'ai écrit une note plus technique comparant les deux variantes.

Et bien sûr SIR vient avec toutes sortes de variantes plus sophistiquées, comme SEIR qui ajoute une période d'incubation, ou des variantes compartimentées par âge, géographie, etc. Et on peut crée des modèles stochastiques (basés sur des simulations d'un grand nombre d'individus plutôt que des équations différentielles). Mais dans toutes ces variantes, on a un certain nombre de problèmes fondamentaux, soit dans les modèles et ce qu'ils prennent en compte, soit dans les données qu'on peut leur fournir en entrée.

D'abord, il y a les inconnues sur le plan médical. J'en parle dans l'entrée précédente, mais rappelons quelques zones d'ombre. On ne sait toujours pas la chose la plus importante, à savoir combien il y a réellement de cas de Covid-19, et combien d'asymptomatiques. Des tests sont en train d'être fait, des tests aléatoires apparaissent timidement, mais pour l'instant les résultats vont dans tous les sens, semblent se contredire de façon impressionnante, et suggèrent donc surtout qu'il y a beaucoup plus d'inconnues qu'on ne le pensait. Et bien sûr, le nombre de cas étant inconnu (et, dans une moindre mesure, le nombre de décès l'est aussi), le taux de létalité l'est également. Des estimations varient de 0.1% à plus de 5%, ce qui donne une idée de l'étendue de notre ignorance ! En fait, le taux de létalité dépend sans doute de toutes sortes de facteurs (médicaux comme le mode de transmission ou la dose contaminante, et bien sûr démographiques, sociologiques, économiques). Les choses ne sont pas franchement meilleures du côté de la contagiosité ou du nombre de reproduction (je vais revenir sur le nombre de reproduction).

(Les difficultés que je viens de décrire sont assez bien exposées ici par FiveThirtyEight et ici sous forme de bande dessinée par Zach Weinersmith. Mais elles sont loin d'être toute l'histoire, et c'est aussi le reste que je veux souligner ici.)

Maintenant, ce que SIR nous dit, c'est quelque chose comme l'épidémie a une croissance exponentielle jusqu'à ce qu'il y ait une immunité significative qui la ralentit, et alors elle fait un pic. Si on ne sait pas combien de cas on a en vrai, on ne connaît pas le degré d'immunité, donc le modèle ne nous dit pas grand-chose.

Alors on pense peut-être mais justement, je vais peut-être pouvoir lire le niveau d'immunité depuis la courbe des cas passés et la manière dont elle s'infléchit. Mais non : d'une part, la courbe est beaucoup trop bruitée pour qu'on puisse lire autre chose qu'une vitesse de croissance exponentielle grossière (et même ça, on la lit mal) ; et d'autre part, la croissance exponentielle peut ralentir pour des tas de raisons différentes non gérées par le modèle, comme des mesures extérieures (confinement) ou un changement de comportement spontané par exemple sous l'effet de la peur (je vais y revenir).

Et ce n'est toujours pas la fin de l'histoire. Je veux encore expliquer que même si les gens ne changeaient pas du tout leurs habitudes (ce qui élimine les inconnues comportementales) et même si on connaissait exactement le nombre d'infections et le taux de létalité (ce qui élimine les inconnues médicales), il y aurait encore trop d'inconnues à cause des effets sociaux. Détaillons, parce que ça c'est une catégorie de problèmes dont on ne parle pas assez parce que trop de gens n'ont que SIR dans la tête.

Encore une fois, j'ai parlé de ces aspects dans une entrée passée (qui est elle-même un développement+traduction de ce fil Twitter [lien Twitter direct]), où j'ai expliqué pourquoi ces effets sociaux peuvent (en principe !) dramatiquement diminuer le taux d'attaque, mais je veux présenter les choses ici sous un angle différent en insistant sur la manière dont ils rendent les prévisions essentiellement impossibles.

Expérience de pensée. Considérons la même épidémie dans deux pays différents et idéalisés, disons de même population totale. Dans le pays A, la population est assez homogène, l'épidémie suit le modèle SIR de façon assez précise ; dans le pays B, la population est divisée en deux sous-populations : la (sous-)population B₁ se comporte comme le pays A (l'épidémie y a la même dynamique), mais dans la population B₂ elle a une contagiosité bien plus faible parce que ces gens ont moins de contacts entre eux. La division entre B₁ et B₂ pourrait être géographique (p.ex., population urbaine et rurale) mais elle pourrait aussi suivre des catégories sociales (organisation familiale, type d'habitat, travail, mode de transport, que sais-je encore) : mon but est juste de montrer en comparant deux situations simples qu'on peut complètement faire échouer les prédictions d'un modèle.

Bref, quand on observe ce qui se passe avec l'épidémie dans les deux pays, au début, A et B se comportent de la même manière. Seulement, dans le pays A, l'épidémie infecte tout le pays alors que dans le pays B elle infecte seulement la sous-population B₁ et ne va essentiellement nulle part dans B₂ : mais la différence ne saute pas aux yeux, parce que la croissance exponentielle est la même (une croissance exponentielle sur 50 millions d'habitants ou sur 10 de ces 50 millions, c'est toujours une croissance exponentielle…), et les stats publiées ne permettent pas forcément de voir la distinction entre B₁ et B₂. (Bien sûr, si la distinction est aussi évidente qu'une distinction géographique du genre urbain/rural, ça va se voir assez facilement, mais si c'est une distinction liée à des facteurs socio-économiques plus subtils on risque de ne pas du tout pouvoir la détecter dans les données.) Bref, on s'imagine que A et B se comportent pareil, et on lit les paramètres épidémiologiques (contagiosité, nombre de reproduction) sur cette base.

Seulement voilà qu'on atteint le point où, dans le pays B, la sous-population B₁ atteint une immunité significative et l'épidémie ralentit, tandis que dans A elle continue au même rythme parce qu'il faut que tout le pays atteigne une immunité suffisante. Et du coup, au bout du compte, on se retrouve avec des taux d'attaques très différents : dans A l'épidémie infectera x% de la population comme prédit par SIR alors que dans B elle infectera seulement x% de B₁ (et presque rien de B₂) ce qui fait beaucoup moins que x% de l'ensemble ! Le modèle qui marchait très bien au début cesse brutalement de marcher dans le pays B, alors qu'il continue à marcher dans A, parce qu'on ignorait une subdivision sociale importante, qu'on ne pouvait pas lire dans la courbe des cas au début de l'épidémie.

Ceci, bien sûr, est hautement simplifié (mon but est simplement de montrer par l'absurde qu'il n'est pas possible de faire des modèles qui marcheront sur la base d'observations plus grossières que les structures sociales pertinentes), mais cela donne un exemple de ce qui peut se passer.

Notamment, quand on parle du nombre de reproduction d'une épidémie, c'est un nombre synthétique, tellement synthétique qu'il en devient presque dénué de sens : l'épidémie progresse dans différentes sous-populations avec des dynamiques différentes, en gros selon des exponentielles. Mais dans une somme d'exponentielles, on ne voit que l'exponentielle qui a la croissance la plus rapide, les autres sont perdues dans le bruit de celle-ci. Donc quand on dit qu'on observe un nombre de reproduction de 3 (disons), ce que ça veut vraiment dire, c'est que au sein de la sous-population qui subit la croissance la plus rapide de l'épidémie le nombre de reproduction a cette valeur : ça ne nous dit essentiellement rien sur la taille de cette sous-population ou la valeur du nombre de reproduction dans d'autres sous-populations, et on ne peut pas lire ces informations sur les statistiques de nombres de cas.

Donc à moins d'avoir accès à des données géographiques et socio-économiques extrêmement fines sur les personnes infectées (ce que nous n'avons pas, on a à peine quelques informations sur l'âge et le sexe), on n'a simplement aucun moyen de savoir comment l'épidémie se propage différemment dans différentes sous-populations et, du coup, comment elle évoluera à l'avenir. (Tout ceci n'a rien à voir avec les inconnues d'ordre médical évoquées plus haut.)

Et ces problèmes d'imprédictibilité sont encore accentué par le fait que, évidemment, les gens modifient leurs comportements en réponse aux informations qu'ils entendent (et leur peur de l'épidémie) et pas juste en fonction de ce que les autorités leur ordonnent (confinement par exemple). Donc si on voit la croissance exponentielle ralentir, il est essentiellement impossible de savoir si c'est parce qu'une sous-population commence à devenir significativement immunisée, ou simplement parce que les gens changent leurs comportements, ou une combinaison de ça.

Et inutile de dire qu'il n'y a aucune modélisation satisfaisante de comment les gens réagissent à une épidémie et changent leurs comportements, ou quels effets ces changements auront sur la contagiosité de l'épidémie.

Dois-je rappeler que, s'agissant du Covid-19, on ne sait même pas comment, dans quelles circonstances, et chez qui la plupart des infections se produisent ? (Contacts directs de personne à personne, contaminations par les surfaces, contaminations par l'air, contaminations par les aliments…) Donc même si on avait une mesure fiable de combien de la réduction des contacts professionnels, ou amicaux, ou dans les transports, on ne saurait pas pour autant en déduire l'effet sur la contagiosité.

Bref, pour résumer, essayer de prédire une épidémie avec des modèles est un peu comme essayer de prédire la météo deux semaines à l'avance en utilisant juste la mesure de la température dans quelques grandes villes. Ah, et les thermomètres ne sont même pas calibrés de la même manière ! (Parce que, bien sûr, différents pays ou états ont des manières complètement différentes de tester, de mesurer le nombre de cas et le nombre de décès, et de publier leurs statistiques ; et la documentation de ces informations est confuse. Quel chaos !)

Si un modèle est trop simple, il rate des choses essentielles et donnera des résultats faux. Alors bien sûr on peut essayer de construire un modèle hautement sophistiqué qui tiendra compte de tout : mettre un zillion de paramètres différents pour tenir compte des sous-populations géographiques et socio-économiques, des réactions comportementales à l'épidémie, des complexités médicales (comme la gravité des cas et des variations de contagiosité qui vont avec), de la prise en charge hospitalière, de la publication des statistiques, des échanges internationaux et des cas importés, bref, la totale.

Mais au final on se retrouve à modéliser toute la société, et il y a une raison pour laquelle la psycho-histoire n'existe pas : quand il a trop de paramètres, un modèle devient inutilisable pour faire des prévisions : on peut l'ajuster à n'importe quelle observation en réglant les paramètres. (Grosso modo, un modèle ne doit pas avoir plus de quantité d'information dans ses paramètres qu'il n'y en a dans les observations qu'on lui soumettra. Or, s'agissant de l'épidémie, les observations sont tellement bruitées qu'elles ont très peu d'information vraiment utile.)

Tout ceci ne signifie pas que les modèles sont inutiles : ils sont inutiles pour faire des prévisions de ce qui va se produire ; mais ils sont utiles pour comprendre les sortes de phénomènes qui peuvent se produire. Même si on n'a que des observations pourries de thermomètres pourris, on peut théoriser toutes sortes de choses intéressantes sur la météo (comme ce qu'est un anticyclone et comment il aura tendance à se comporter). Par exemple, j'ai expliqué à travers des modèles-jouets liés ci-dessus que les effets sociaux peuvent diminuer le taux d'attaque et un rétablissement en temps constant aura tendance à rendre le pic épidémique plus haut et serré (par rapport au modèle SIR) : ce sont des effets généraux, je ne peux pas prédire par combien (surtout pour le premier), mais ces effets sont importants à noter et à comprendre.

Mais tous ceux qui font tourner des simulations épidémiques sur ordinateur, aussi sophistiqués que soient leurs modèles (voire d'autant plus que leurs modèles sont sophistiqués et ont plein de paramètres) devraient faire preuve de la plus extrême modestie en mettant en avant les prévisions de leurs modèles comme des indications de ce qui va se passer. Et ce même s'ils ont eu raison par le passé : après tout, le modèle trivial qui prédit une croissance exponentielle illimitée sera correct jusqu'à un certain point où tout d'un coup il cesse de l'être — toute la difficulté est de prédire ce point, et on ne peut peut-être pas faire mieux qu'une vague intuition.

De même, toute personne utilisant le terme nombre de reproduction devrait garder à l'esprit qu'il est à peu près aussi informatif que la température moyenne sur l'ensemble de la Terre quand on parle de météo : on ne sait pas pour quelle sous-population on le mesure, ni ce qui l'influence. (Et aussi, je n'en peux plus de tous ces gens qui affirment sans nuance que le seuil d'immunité grégaire est autour de 60%–70% sur la base d'un nombre de reproduction de 3 et du modèle SIR homogène complètement faux.)

Maintenant, ce qui m'inquiète surtout avec tout ça, c'est que les hommes politiques risquent d'écouter les épidémiologistes qui parlent le plus haut et fort des qualités de leur modèle, et/ou ceux qui ont une réputation de grands pontes (ce sont souvent les mêmes), comme les hommes politiques ont tendance à écouter les infectiologues qui parlent le plus haut et fort des qualités de leur remède miracle préféré et/ou ont une réputation de grands pontes. Or les gens les moins modestes ne sont pas forcément les plus compétents.

Je pense, comme je l'ai suggéré en introduction, qu'il est assez pertinent de comparer l'épidémiologie à l'économie ou à la sociologie (qui ne sont d'ailleurs pas si éloignées) plutôt que, disons, à la climatologie comme je l'ai peut-être malheureusement suggéré dans ce qui précède (comparaison qui a du sens pour d'autres raisons) : il s'agit de modéliser des phénomènes humains profondément complexes dont certains aspects, mais pas tous, se laissent bien mettre en équations. Les modèles mathématiques ont tout à fait leur place dans toutes ces disciplines, il ne faut pas en avoir peur ni les refuser par principe : mais il faut être bien conscient de leurs limites, à la fois leurs limites intrinsèques, leurs limites dues aux limitations des données et observations qu'on peut leur fournir en entrées, et leurs limites dues aux présupposés de ceux qui les développent ou appliquent.

Sur ce dernier point, je veux souligner qu'il existe des économistes plus ou moins à gauche ou à droite sur le spectre politique, et ils ont tendance à trouver des modèles qui confortent leurs opinions politiques préexistantes. (Bien sûr, on peut espérer que la causation ait lieu plutôt dans l'autre sens, que leurs opinions politiques découlent de ce que leurs modèles leur disent, mais qui y croit.) Ce n'est pas forcément damnant, mais ça doit justement nous aider à nous rappeler la limite de ces modèles. Je pense qu'il en va de même des épidémiologistes : qu'il en existe des confiniens et des immunitaristes et que leurs modèles vont, comme par hasard, montrer surtout les avantages des stratégies de type ① contenir ou ② mitiger. Encore une fois, ce n'est pas forcément damnant, il faut juste se rappeler que le modèle n'est pas la vérité révélée mais incorpore une bonne partie des présupposés de ceux qui l'ont développé.

Mais la différence avec l'économie ou la sociologie est que nous avons collectivement appris (du grand public aux politiques, en passant par les chercheurs eux-mêmes), au moins dans une certaine mesure, à évaluer avec prudence ce que disent les économistes et sociologues et à nous rappeler qu'ils peuvent être orientés politiquement : alors que, s'agissant de l'épidémiologie, notre capacité à mettre en doute et en perspective n'est sans doute pas bien développée — nous sommes, si j'ose dire, immunologiquement naïfs vis-à-vis des préjugés et autres limitations des modèles des épidémiologistes autant que nous le sommes vis-à-vis du nouveau virus. Nous n'avons aucune habitude du fait que l'épidémiologie occupe un terrain aussi exposé médiatiquement, — ces gens sont des médecins ou des mathématiciens, professions entourées d'un certain préjugé de respectabilité ou de fiabilité, ils ont des méthodes qui ont l'air sérieuses (des équations différentielles ! des statistiques bayesiennes !), — du coup, nous avons tendance à leur faire confiance : ce qui n'est pas injustifié, heureusement, mais cette confiance peut dépasser la précaution que toutes ces prévisions demandent. Et la même chose vaut pour les épidémiologistes eux-mêmes, portés tout d'un coup sur le devant de la scène mondiale, et qui doivent à la fois livrer des prévisions que tout le monde leur réclame anxieusement, et se montrer meilleurs qu'une armée de charlatans amateurs qui réclament l'attention sur leurs innombrables variations autour de SIR : même s'ils ont développé une certaine réserve vis-à-vis de leurs propres résultats et de ceux des autres, les journalistes seront loin d'avoir cette même réserve. Le cocktail est épistémologiquement explosif.

Regardons un petit exemple pour illustrer les difficultés que je signale : le dernier rapport du laboratoire EPIcx de l'INSERM concernant l'Île-de-France. Pas que ce rapport soit plus problématique que les autres, mais il se trouve que tout le monde m'en parle en ce moment, alors je vais utiliser cet exemple.

Sur quoi se basent-ils donc ? Essentiellement un modèle SEIR (dans une variante stochastique) avec trois compartiments (sous-populations) par tranches d'âge (enfants, adultes, seniors), et une typologie assez complexe des stades de la maladie (période d'incubation, période présymptomatique mais infectieuse, période symptomatique) et des niveaux de symptômes (asymptomatiques, pauci-symptomatiques, moyennement symptomatiques, nécessitant une hospitalisation, nécessitant réanimation…), avec une modélisation assez fine du processus hospitalier. L'aspect médical de la simulation est donc assez raffiné — ce qui ne l'empêche pas de buter contre le problème que j'ai déjà mainte fois signalé qu'on ne sait toujours pas grand-chose sur la proportion de malades et de symptomatiques ! et qu'il leur faut donc choisir leurs chiffres parmi plein d'études contradictoires. L'aspect sociologique, lui, est complètement ignoré : de ce que je comprends, chacune des populations (enfants, adultes, seniors) est traitée comme complètement homogène et toute la sociologie est ramenée à des matrices de mélange entre ces populations selon les mesures de distanciation appliquées (et qui sont évaluées comme ils le peuvent). Aucune sorte de modélisation de la taille des familles n'est effectuée, par exemple (la contamination intra-familiale est simplement une composante de la contamination en général, comme si les contacts familiaux avaient lieu aléatoirement au sein d'une population homogène ; pourtant, la taille des ménages c'est au moins quelque chose sur quoi on a des données), aucune distinction entre travailleurs et télétravailleurs, aucune catégorisation selon l'usage des transports en commun, aucune catégorisation selon le nombre de contacts sociaux dont j'ai souligné l'importance, etc. Je n'arrive même pas à savoir s'ils ont fait une modélisation géographique. Il n'est même pas très clair, à la lecture du rapport, à partir de quoi ils estiment que le confinement réduit les contacts de 80%, j'ai l'impression qu'il s'agit d'une estimation à vue d'œil sur la croissance des cas (mais ce qui ignore le fait qu'une composante de la réduction de la croissance est liée à des mesures de distanciation spontanée de la population). Bref, énormément de limitations.

Ce qui n'est pas, encore une fois, un reproche grave — ni même un reproche tout court. Comme je l'ai dit plus haut, il est tout simplement impossible de faire un modèle complet. C'est normal.

Mais cela doit nous rappeler que les choix des phénomènes modélisés (ici, tout ce qui est médical est rendu avec une certaine finesse, ce qui est sociologique ne l'est pas du tout), et dans une certaine mesure les choix des paramètres parmi des estimations contradictoires, dépend des présupposés des modélisateurs. Donc en aucun cas les conclusions de leur modèle ne peuvent être considérées comme des prédictions, seulement des possibilités. (Ce qui ne m'empêche pas d'y croire globalement !) Le problème n'est pas dans les limitations du modèle, le problème est dans le langage utilisé dans la formulation des conclusions, qui ne fait pas preuve de la prudence séant à ce niveau d'incertitude (p.ex., intensive forms of social distancing are required présuppose à la fois que leurs estimations sont correctes et qu'on ait décidé de ne pas viser une immunité collective). Et si les auteurs du rapport sont certainement au courant des limitations de leur modèle, il aurait été de bon ton de les développer, parce que je ne pense pas que beaucoup de lecteurs fassent spontanément l'analyse que je viens d'expliquer dans les paragraphes précédents.

Il y a un autre problème qu'il faut que je discute (parce qu'il est en rapport, sinon avec ce que j'ai dit ci-dessus, au moins avec l'honnêteté de l'épidémiologie en tant que discipline), à la fois concernant le rapport de l'équipe de l'INSERM que contre celui d'Imperial College que j'avais évoqué ici. Disons que j'ai un reproche conditionnel à faire : je ne sais pas s'il faut le faire, j'espère que ce n'est pas le cas, mais si c'est le cas il est très grave à mes yeux.

Le problème est que je ne vois pas où est le code source de leur modélisation (je veux dire, le programme qui a servi à la calculer, et les données fournies en entrée). Je veux être prudent, donc, parce qu'il est possible (probable ?) que j'aie simplement mal regardé, et si on me signale qu'il fallait juste chercher à tel endroit, je me contente de dire ce n'était franchement pas très clairement indiqué ! (les mots source code ou équivalents devraient apparaître dans le rapport, il devrait y avoir un lien clair depuis la page web du labo, etc.).

En revanche si le code source n'est pas du tout rendu public, alors je dis franchement : cette attitude est indigne de chercheurs ou de scientifiques. En effet, le propre de la démarche scientifique est d'être reproductible : la sortie d'une modélisation n'a aucune valeur si on ne fournit pas les moyens de refaire cette modélisation (c'est-à-dire à la fois le programme utilisé pour la modélisation, et toutes les données qui lui ont été fournies en entrées). C'est bien de fournir une vague description du modèle utilisé (le nombre de compartiments de la population, les constantes de mélange, etc.) et de tracer quelques courbes que le modèle a produit en sortie, mais ça ne suffit en aucune manière (ne serait-ce que parce qu'il y a toujours des choses qui seront peu claires sur la description, par exemple quelle est la distribution de probabilité sur le temps de rétablissement ? j'ai montré que ça avait beaucoup d'importance).

Si tout un chacun ne peut pas faire tourner lui-même la simulation, jouer avec les paramètres et explorer ce que leur variation a pour effet, le modèle n'a pas de valeur scientifique et je considère qu'aucun journal ne devrait accepter de le publier. J'espère donc que j'ai simplement mal regardé et que le code source est disponible sur un GitHub que je n'ai pas vu. (En tout cas, j'attire l'attention sur le fait que dans la modélisation des effets sociaux que j'ai écrite il y a quelque temps, et dont je rappelle qu'elle ne prétend pas faire la moindre prédiction mais uniquement montrer des tendances, j'ai bien fourni le code source utilisé pour mes simulations.)

↑Entry #2650 [older| permalink|newer] / ↑Entrée #2650 [précédente| permalien|suivante] ↑

↓Entry #2649 [older| permalink|newer] / ↓Entrée #2649 [précédente| permalien|suivante] ↓

(mercredi)

La confusion est toujours totale

Mon moral ne s'améliore pas, bien au contraire. Au sentiment d'injustice à être maintenu prisonnier et la sensation d'oppression qui va avec (et qui est en train d'engendrer une véritable haine de mon appartement et de mon quartier) s'ajoute de façon de plus en plus pressante la conviction que la levée du confinement va être une catastrophe et qu'on s'achemine vers un monde épouvantable qui combinera le pire de tous les tableaux : l'horreur dystopienne de mesures de contrôle qui n'auront cependant aucun effet réel sur l'épidémie, le désastre d'une crise économique sans précédent que ces mesures vont causer (et qui causera possiblement bien plus de morts que la maladie), et le désastre sanitaire de l'épidémie elle-même qui n'a fait que commencer. Je continue à ne pas arriver à penser à autre chose. Et plein de petits malheurs s'ajoutent aux grandes angoisses : je ne vais pas en faire la liste, mais une petite humiliation particulièrement malvenue m'est arrivée aujourd'hui quand j'ai voulu mettre sur l'arXiv (le dépôt mondial de prépublications scientifiques en physique, maths, informatique, etc.) une version proprement rédigée de la dernière note de ce blog par laquelle j'espérais au moins apporter une petite contribution intéressante à l'épidémiologie (avec, en plus, des remarques sur quelques liens intéressants avec la théorie des graphes orientés aléatoires) et que cette note a été rejetée par l'arXiv — je ne savais même pas que c'était possible de se faire rejeter par l'arXiv — me privant ainsi de la minuscule satisfaction de donner la moindre visibilité à cette très petite contribution. (Mise à jour () : j'ai quand même mis la note sur HAL.)

Bon, essayons de faire un peu le point sur ce qu'on sait, ou plutôt, sur ce qu'on continue à ne pas savoir du tout.

Les informations rapportées par les tests concernant le Covid-19 continuent à être complètement mystifiantes. J'ai expliqué la semaine dernière l'importance de faire des tests aléatoires, couplés à des sondages symptomatiques à grande échelle, pour pouvoir mesurer l'étendue de l'épidémie : quelques tests aléatoires ou para-aléatoires (volontaires) ont été menés çà et là, mais malheureusement sans méthodologie claire. (Par exemple, certains utilisent uniquement des tests sérologiques encore en développement : du coup, on ne connaît pas du tout leur fiabilité et le résultat est inutilisable ; alors que si on menait, sur le même échantillon, des tests virologiques et sérologiques, on aurait au moins un recoupement possible sur la base de l'hypothèse que la proportion d'infectés actuels sur les infectés historiques peut plus ou moins approximativement se déduire des statistiques d'hospitalisation en supposant que la proportion d'hospitalisation ne varie pas trop ; et idéalement reprendre les mêmes personnes régulièrement permettrait de comprendre un peu la fiabilité des tests.) Ces tests semblent donner, en outre, des résultats complètement incohérents les uns avec les autres (par exemple quand il s'agit d'estimer le nombre d'asymptomatiques) : des endroits à peu près également touchés (en nombre de morts, de cas cliniques enregistrés) enregistrent des taux de positivité complètement différents. Un bled italien a relevé un taux de positifs hallucinant parmi les donneurs de sang, qui étaient asymptomatiques, mais ce bled enregistre aussi beaucoup de morts malgré un nombre de cas plutôt faible, donc au final on ne sait vraiment pas quoi conclure à part qu'on n'y comprend rien mais qu'il y a sans doute des tests qui ne valent rien. Et en plus de la mauvaise qualité technique et méthodologique des tests, il y a la mauvaise qualité du retour d'information, souvent relayée par des journalistes qui n'y comprennent rien et qui déforment encore plus les choses. Bref, à ce stade, tout semble scientifiquement inexploitable. Je ne sais pas si ça a des chances de s'améliorer.

[Évolution relative statistiques Covid-19 en Île-de-France]Côté statistiques, les choses ne sont pas franchement moins confuses. Je calcule régulièrement un graphe comme celui ci-contre, qui représente grosso modo l'évolution relative, i.e., essentiellement la dérivée logarithmique, des cas de Covid-19 en Île-de-France. Plus exactement, les points rouges représentent, pour chaque jour (compté depuis le ) l'augmentation quotidienne du nombre de personnes hospitalisées pour Covid-19 en Île-de-France (départements 75, 92, 93, 94, 77, 78, 91, 95) divisée par le nombre lui-même (bref, (N[J]−N[J−1])/N[J] si N[J] est le nombre d'hospitalisés au jour J), et la courbe bleu foncé représente la même chose en lissant au préalable le logarithme du nombre N[J] d'hospitalisés avec une régression par processus gaussien (et, dans les faits, en laissant sklearn.gaussian_process.GaussianProcessRegressor faire sa magie), bref, c'est une sorte d'interpolation pour tenter d'effacer les fluctuations aléatoires ; les points orange et la courbe bleu clair représentent la même chose mais au lieu du nombre d'hospitalisés il s'agit de la somme cumulée sur les 10 derniers jours du nombre de passages aux urgences pour suspicion de Covid-19 (pourquoi 10 ? parce que pour les gens qui sont hospitalisés c'est le temps typique qu'ils y passent, donc c'est un proxy comparable aux données hospitalières). Le code utilisé pour générer le graphe est ici (librement basé sur du code qu'on m'a fourni sur Twitter). Grosso modo, le pic épidémique correspond au moment où les courbes passent dans les valeurs négatives (le nombre d'hospitalisés ou de malades diminue) : les points rouges et la courbe bleu foncé montrent l'évolution des cas graves (hospitalisés) tandis que les points orange et la courbe bleu clair donnent une idée approximative de l'évolution des cas moins graves. Ce que tout cela signifie au juste n'est pas clair, bien sûr (et notamment pourquoi il y a un tel écart entre ces deux courbes), mais il est clair qu'on est en voie de traverser un pic épidémique en Île-de-France.

Mais parmi les choses qui ne sont pas claires, il y a les raisons pour lesquelles ces courbes sont orientées à la baisse (c'est-à-dire que l'épidémie décélère au sens logarithmique) depuis assez longtemps. Le confinement a certainement un effet, mais je m'attendais à voir le confinement apparaître comme une rupture assez nette, sinon une discontinuité au moins une variation assez forte et resserrée, dans ces courbes, or ce n'est pas le cas. Le confinement a été décrété en France à partir du , c'est-à-dire le jour 22 sur mon graphique, et on s'attend à ce que ses effets se manifestent environ 12 jours après (parce que la période d'incubation est d'environ 5j et qu'il faut encore 7j pour que les symptômes deviennent graves quand ils le deviennent), donc autour du jour 34, or si on voit bien une baisse dans ces eaux-là, elle ne semble faire que continuer une baisse bien entamée avant. Je vois au moins trois pistes d'explication possibles, mais aucune n'est très convaincante : (a) la saturation d'une ressource (à commencer par les lits d'hôpital), mais là aussi je m'attendrais à une variation un peu plus brutale, pas à une pente gentiment régulière sur les deux courbes, (b) des changements de comportement indépendamment du confinement, mais je suis surpris qu'ils aient pu se produire aussi tôt, ou enfin (c) une immunité s'installant, sinon chez la population en générale, au moins chez les sous-populations qui sont les plus exposées à l'épidémie (par exemple ceux qui ont le plus grand nombre de contacts), mais que ce phénomène ait pu commencer de façon non-négligeable dès le début du mois de mars semble très surprenant. Au final, je ne sais pas quoi penser, et je n'ai certainement toujours pas de vision claire de ce que peut être la part d'immunité installée et la part d'effet de la distanciation sociale.

Les modèles épidémiologiques comme SIR (voir ici et ) sont évidemment incroyablement simplistes dans leur description soit le nombre de reproduction est >1 et l'épidémie progresse exponentiellement, soit il est <1 et elle régresse exponentiellement. J'ai déjà insisté sur l'importance de la structure sociale locale, mais le même type de phénomènes se reproduit à toutes sortes de niveaux : on ne peut pas considérer qu'on a affaire à une population homogène mais à une multitude de sous-populations (par zone géographique et par catégorie socio-économique ou socio-professionnelle), avec des interactions complexes, chacune ayant sa propre dynamique épidémiologique, qui interagit avec les autres. Comme une somme d'exponentielles est dominée par la plus rapide de toutes, on détecte avant tout la contamination des sous-populations où le virus se propage le mieux, ce qui conduit à surestimer en pratique le nombre de reproduction (disons qu'on ne voit que sa frange la plus élevée) : cela se voit assez bien au niveau géographique quand on parle de clusters, par exemple dans les grandes villes, mais le même phénomène peut se produire sur d'autres dimensions moins facilement observables que les dimensions spatiales (notamment sociologiques). Si l'épidémie commence à saturer une sous-population parce qu'elle devient immunisée, la croissance exponentielle va décélérer jusqu'à être dominée par une autre sous-population qui n'a pas encore saturé. C'est une raison pour laquelle on peut s'attendre à une diminution graduelle, éventuellement avec des paliers, de la vitesse de croissance exponentielle. Mais, encore une fois, je ne sais pas si c'est ce qui explique effectivement ce qu'on observe.

Et bien sûr, le confinement ne réduit pas les contacts de toutes les personnes de façon uniforme : lui aussi va avoir plus ou moins d'effet dans des sous-populations distinctes (il n'a pas d'effet au sein d'un même foyer, pour commencer), donc on s'attend à voir la dynamique se modifier de façon assez imprévisible et être dominée par une nouvelle sous-population où la reproduction serait la plus rapide. (On peut tout à fait imaginer, et cela se produira peut-être, que le nombre de cas reparte à la hausse, mais moins vite, parce que la sous-population qui avait précédemment la croissance la plus forte de l'épidémie serait passée en régime où elle régresse, mais qu'une autre sous-population qui était précédemment moins sujette à contagion, bénéficierait très peu du confinement et deviendrait celle qui a la croissance dominante de l'épidémie.) Tout cela sera extrêmement difficile à lire.

Médicalement, il y a apparemment un certain nombre de signes que la gravité de la maladie serait peut-être liée soit au mode de contamination soit à la dose contaminante ou à leur multiplication. Cela expliquerait notamment le fait très préoccupant que le personnel soignant ait apparemment plus de chances de développer des formes graves du Covid-19 (étant plus exposé, plus souvent exposé, et exposé à des formes elles-mêmes plus graves) ; ou encore que les contaminations en groupe aient aussi tendance à être plus graves. Ceci pourrait aussi expliquer certaines anomalies dans les statistiques, comme l'extrême variabilité des taux de létalité observés si la létalité ne dépend pas seulement de l'état du patient (âge et précondition) de la donnée a été contaminé mais de la manière dont la contamination a eu lieu (qui peut dépendre de toutes sortes de paramètres sociologiques). Mais cela rend encore plus difficile la compréhension de l'état réel d'avancement de l'épidémie. Ou la décision de ce qu'on doit faire de cette information (on pourrait imaginer de laisser les gens se faire contaminer par des doses faibles, dans l'espoir qu'elles développent des formes bénignes voire asymptomatiques, comme dans la variolation, une forme de pseudo vaccination, mais ce serait très difficile de calibrer l'opération et encore faut-il que les personnes puissent savoir qu'elles ont été contaminées et s'isoler ensuite). Toujours est-il qu'on peut s'attendre à ce que la dynamique des formes graves de la maladie (et donc la fraction des cas graves) ne coïncide pas précisément avec celle des formes plus bénignes, même en tenant compte des paramètres démographiques. Par exemple, il est assez plausible que les régions ou sous-populations ayant le plus de cas dans l'absolu aient aussi la plus grande proportion relative de cas graves.

Une autre question médicale qui est pas mal ouverte, c'est l'étendue de l'immunité conférée par la maladie, et notamment par ses formes bénignes voire asymptomatiques, ainsi que sa durée dans le temps, et aussi le danger que dans certains cas l'immunité acquise soit en fait dangereuse (par facilitation par les anticorps). Je vois passer sur Twitter pas mal de gens qui aiment (se) faire peur en expliquant qu'il y a des cas de réinfection par le Covid-19, voire que les réinfections seraient plus graves que les premières infections (parce que le système immunitaire s'emballerait). Je ne suis pas du tout expert, mais ça ressemble beaucoup à du fearmongering. De ce que j'ai compris de l'avis des experts, ces histoires de réinfections sont sans doute des faux rétablissements (les tests ne sont pas terriblement fiables, ou plutôt, les prélèvements sont difficiles à mener, donc un test négatif ne prouve pas qu'il n'y a plus d'infection), parce qu'il est difficilement crédible qu'un virus qui aurait été éliminé par le système immunitaire parvienne à réinfecter en un intervalle de quelques jours : on a des expériences sur le singe qui montrent que l'infection, au moins chez eux, au moins en général, confère bien une immunité, et il y a des indices que c'est le cas chez l'homme même en cas d'infection peu grave ; cet article et ce fil Twitter font un peu le point. Mais surtout, s'il n'est pas exclu qu'il y ait pu avoir des réinfections, y compris avec une seconde infection plus grave que la première, ils ne doivent pas être statistiquement très significatifs, parce qu'au stade où en est l'épidémie, on aurait énormément de tels cas sous la main si ça se produisait avec une certaine fréquence (il y a 300k patients guéris officiellement recensés, c'est-à-dire clairement identifiés, la plupart doivent être dans des endroits où le virus circule largement, donc facilement 1% doivent avoir au moins subi une tentative de réinfection de la part du virus, ça devrait faire 3000 cas de réinfection : si ne serait-ce que 10% conduisaient à une seconde infection et qu'elle était plus grave, ça se saurait vraiment). Il est possible que si la seconde infection a lieu elle soit plus grave que la première, mais de toute évidence ça doit rester rare. Comme en outre le virus ne semble pas accumuler de mutation significative, il est peu probable qu'il y ait, comme pour la dengue, différentes souches dont l'immunité à certaines aggraverait l'infection par d'autres (d'autant que ce mécanisme n'est pas connu des autres coronavirus).

Le confinement, de toute évidence, ne pourra pas être maintenu indéfiniment. Ce qui va se passer quand il sera levé, ne serait-ce que progressivement, est la grande inconnue, qui dépend avant tout de l'immunité installée, dont je viens d'expliquer qu'on n'en savait rien tant les tests sont actuellement inexploitables, tant elle dépend de considérations sociologiques compliquées, et tant les questions médicales sous-jacentes sont elles-mêmes confuses. J'ai un certain espoir qu'il y ait assez d'immunité dans les sous-populations où la reproduction du virus est la plus facile, et qu'en outre la levée du confinement n'implique pas un retour au statu quo ante dans les habitudes, pour qu'au moins on ne retrouve pas une croissance exponentielle au rythme assez impressionnant de 0.2/j qu'on observait avant le confinement. Mais la question qui demeure est de savoir si on sera plutôt dans un régime de croissance exponentielle (fût-il plus lent) ou de décroissance exponentielle. Et l'autre question, c'est ce que vise le gouvernement.

Je ne vais pas en rajouter une couche avec mes histoires théoriques de stratégies ① et ②, donc je vais présenter les choses un peu différemment : on peut imaginer soit ❶ d'attendre jusqu'à ce qu'il n'y ait essentiellement aucun nouveau cas, et relâcher le confinement seulement à ce moment-là, puis espérer traquer tous les cas qui apparaîtraient et les empêcher de donner lieu à de nouvelles contaminations, et ce, plus rapidement qu'ils apparaissent : c'est ce qu'essaie de faire la Chine, c'est ce que fait la Corée avec un certain succès (mais que je ne crois pas transposable en Europe à cause de la plus grande difficulté de contrôler les frontières, à cause du manque de moyens technologiques, et à cause de différences sociétales fortes) ; ou bien ❷ de relâcher un petit peu le confinement quand les urgences seront moins saturées (par exemple après une semaine de baisse), quitte à ce qu'il y ait un nouveau pic, mais moins important, et de relâcher progressivement à chaque fois que les urgences désaturent, de manière à y garder un flux tout juste gérable, le fameux flatten the curve, qui produit, dans les faits, un plateau épidémique plutôt qu'un pic. (Vous voyez ? J'ai changé ma présentation et j'ai même changé la façon dont les numéros sont écrits.) Les deux approches sont périlleuses : la ❶ peut échouer parce qu'on perd le contrôle de l'épidémie, et alors tout le temps passé à la ramener à quasi zéro aurait été pour rien, la ❷ demande énormément de finesse dans le relâchement du confinement alors qu'on ne contrôle que très mal ce que les gens feront et qu'on ne sait pas quel effet les mesures auront (et qu'on ne l'observe que deux semaines plus tard, et encore, très mal ! comme je l'ai montré plus haut). Et les deux peuvent très mal tourner ou devenir quasiment impossibles à mener si l'épidémie est plus contagieuse ou plus répandue qu'on le pensait.

Ce que vont (chercher à) faire les gouvernements européens est toujours entouré de la plus grande confusion. L'Autriche et le Danemark parlent déjà de relâcher le confinement, même l'Italie fait des signes dans ce sens, ce qui suggère plutôt l'approche ❷ puisque visiblement on est loin de l'extinction de l'épidémie. Ce petit clip d'Arte décrit aussi clairement l'approche ❷ (mais les journalistes n'ont pas vraiment de raison d'en savoir plus que moi). Cependant on reçoit encore des signes assez contradictoires. Pas mal de discussions autour de la collecte des données des mobiles, par exemple, ce qui relève plus de l'approche ❶ (et j'ai bien peur qu'on se retrouve avec tout l'arsenal dystopien de cette approche sans que cet arsenal soit utile parce que l'épidémie ne se laisserait pas si facilement maîtriser). Beaucoup de gens sur Twitter sont fermement persuadés qu'on adoptera l'approche ❶ : voir par exemple ce fil Twitter (qui est intéressant parce que dans le premier message on y entend le chef du service des maladies infectieuses de la Pitié, le professeur Caumes, et le journaliste qui l'interviewe, parler de mater, casser ou éradiquer l'épidémie, visiblement l'approche ❶), et je crois que l'OMS continue à pousser dans cette direction.

Mais je pense qu'il y a une certaine confusion pour plusieurs raisons. La principale est cette idée qu'il faut absolument 60% ou je ne sais combien de contaminés pour qu'il y ait une immunité grégaire, et donc que l'approche ❷ consiste absolument à infecter 60% de la population. La réalité, comme je l'ai exposé à de nombreuses reprises y compris ci-dessus, est bien plus complexe : ce chiffre de 60% suppose une population homogène, ce qu'elle n'est pas, et suppose que les comportements resteront les mêmes, ce qu'ils ne feront pas ; en fait, dès lors qu'on passe un pic épidémique, c'est qu'on a atteint un seuil d'immunité grégaire vis-à-vis des circonstances où ce pic se produit (puisque l'épidémie commence à régresser), l'enjeu n'est pas tant de savoir si on l'a atteint à 60% ou 30% ou 10% mais dans quel mesure on l'a artificiellement abaissé par des mesures prises au forceps et qui ne pourront pas durer dans le temps (comme un confinement). L'idée confuse sous-jacente est que des gens proposeraient de forcer l'épidémie à infecter un maximum de personnes (histoire d'atteindre la fameuse immunité grégaire), au lieu de simplement ne pas faire tous les efforts possibles pour la supprimer. Or je ne pense pas que qui que ce soit propose sérieusement une telle chose. Bref, ce que vise l'approche ❷ n'est pas une immunité grégaire définie par un chiffre absolu, mais surtout de pouvoir relâcher la pression sociale (retrouver un fonctionnement à peu près normal des transports en commun et lieux publics, par exemple) sans que l'épidémie explose immédiatement.

En tout état de cause, je trouve exaspérante l'attitude de culpabilisation moralisatrice exercée vis-à-vis de ceux qui ne respectent pas le confinement ou dont les attitudes se relâchent (voir par exemple ce mini sujet de France 24). Sur l'aspect extrêmement malsain de cette attitude dénonciatrice, je rejoins totalement ce fil Twitter. Mais sur le fond, je veux aussi souligner à quel point c'est justement un mécanisme d'équilibre par rétroaction qui fonde l'approche que j'ai numérotée ❷ ci-dessus qu'il y ait un « relâchement » progressif, et pas forcément décrété par en haut, des attitudes au fur et à mesure que l'épidémie semble régresser (relâchement qui provoquera sans doute une nouvelle recrudescence, donc une atténuation de ce relâchement, etc., avec des oscillations dont on ne sait pas combien elles seront amorties) : au lieu de le condamner, on peut se réjouir du fait que, si ce relâchement est assez progressif (et il a l'air de l'être !), ce sont les personnes qui ont elles-mêmes choisi de s'exposer qui participeront à l'immunité de groupe protégeant les plus vulnérables. Donc si l'approche ❷ est bien celle qui est visée, il ne faut pas se lamenter qu'il y ait un relâchement tant qu'il reste progressif et modéré.

Globalement, comme je le disais au début de cette entrée et comme je l'ai dit à plusieurs reprises, je suis extrêmement pessimiste sur ce qui va se passer pour nos sociétés. Au moins l'épidémie elle-même, on peut estimer qu'elle fera quelque part entre 0.05% et 1% de morts dans les pays européens selon la facilité avec laquelle elle se laisse contenir, c'est une fourchette bien large mais qui représente une known unknown ; les crises économique, politique, sociétale et internationale qui vont suivre, en revanche, je ne vois aucune borne supérieure à mettre sur leur gravité, tant je ne suis pas complètement persuadé qu'il n'y aura pas un effondrement systémique de la société (il me semble peu probable, mais beaucoup moins improbable que je voudrais l'imaginer). J'ai vu beaucoup de gens se moquer de la crise économique avec un dessin des dinosaures qui voient arriver l'astéroïde qui va les tuer et qui s'exclament oh shit! the economy!, dessin sans doute censé se moquer des personnes qui mettent l'économie avant l'humain ou quelque chose de ce genre, mais, outre l'objection triviale que le Covid-19 tuera moins d'humains en proportion que l'événement crétacé-paléogène, je crois que ces gens oublient combien de souffrance et de morts une crise économique peut engendrer. Et même si on ne veut pas mettre l'économie avant l'humain, le regain d'autoritarisme politique qui va inévitablement suivre l'empressement avec lequel la société a accepté comme un seul homme les mesures censées la « protéger » et réclame plutôt qu'elles soient encore plus dures, me semble suffisamment terrifiant. L'avenir de la démocratie et de l'état de droit sont plus sombres que jamais.

↑Entry #2649 [older| permalink|newer] / ↑Entrée #2649 [précédente| permalien|suivante] ↑

↓Entry #2648 [older| permalink|newer] / ↓Entrée #2648 [précédente| permalien|suivante] ↓

(jeudi)

Sur une variante à temps de rétablissement constant du modèle épidémiologique SIR

Il y a quatre éternités semaines, quand nous n'étions pas encore maintenus prisonniers chez nous, j'ai parlé ici du modèle épidémiologique SIR, le plus basique qui soit. Je rappelle brièvement les principes qui le définissent :

  • l'immunité acquise est permanente, les individus sont successivement S (susceptibles, c'est-à-dire jamais infectés donc susceptibles de l'être), I (infectés et infectieux) et R (rétablis, c'est-à-dire guéris ou morts) (il existe toutes sortes de variantes, par exemple le modèle SEIR ajoutant un état E (exposé) pour les individus infectés mais non encore infectieux) ;
  • la population est homogène (fongible) avec mélange parfait dans les contacts (j'ai parlé ici de l'effet de modifier cette hypothèse) ;
  • la contamination et le rétablissement se font selon une cinétique d'ordre 1, c'est-à-dire que la contamination se fait proportionnellement aux proportions d'infectés et de susceptibles (avec une constante cinétique β), et que le rétablissement se fait proportionnellement à la proportion d'infectés (avec une constante cinétique γ).

Rappelons brièvement ce que j'ai exposé la dernière fois. Les équations de ce modèle SIR basique, que j'appellerai (*) pour m'y référer plus tard, sont les suivantes (il s'agit d'un système d'équations différentielles ordinaires non-linéaire, du premier ordre et autonomes) :

  • s′ = −β·i·s
  • i′ = β·i·sγ·i
  • r′ = γ·i
  • (s+i+r=1)

s,i,r≥0 sont les proportions de susceptibles, d'infectieux et de rétablis dans la population ; les solutions de ces équations ne semblent pas pouvoir s'exprimer en forme close, mais on peut exprimer s en fonction de r (à savoir s = exp(−κ·r) dans les conditions exposées ci-dessous).

Je rappelle les principales conclusions que j'avais exposées dans mon entrée sur ce modèle (*), en supposant qu'on parte d'une population presque entièrement susceptible avec une proportion infinitésimale d'infectés (plus exactement, on s'intéresse aux solutions pour lesquelles s→1 quand t→−∞) ; on notera κ := β/γ le nombre de reproduction, que je suppose >1 :

  • tant que s reste très proche de 1 (si on veut, t→−∞), les proportions i et r croissent comme des exponentielles de pente logarithmique βγ = β·((κ−1)/κ), avec un rapport 1/(κ−1) entre les deux, autrement dit comme i = c·exp((βγt) = c·exp(β·((κ−1)/κt) et r = c·(γ/(βγ))·exp((βγt) = c·(1/(κ−1))·exp(β·((κ−1)/κt) (ergotage : dans l'entrée sur le sujet, j'avais mis un −1 aux exponentielles pour r, parce que je voulais partir de r=0, mais je me rends compte maintenant qu'il est plus logique de partir d'une solution où i/r tend vers une constante en −∞, cette constante étant κ−1) ;
  • au moment du pic épidémique (maximum de la proportion i d'infectés), on a s = 1/κ et i = (κ−log(κ)−1)/κ et r = log(κ)/κ ;
  • quand t→+∞, la proportion i tend vers 0 (bien sûr) et s tend vers Γ := −W(−κ·exp(−κ))/κ (en notant W la fonction de Lambert) l'unique solution strictement comprise entre 0 et 1 de l'équation Γ = exp(−κ·(1−Γ)) (qui vaut 1 − 2·(κ−1) + O((κ−1)²) pour κ proche de 1, et exp(−κ) + O(κ·exp(−2κ)) pour κ grand), tandis qu'évidemment r, lui, tend vers 1−Γ.

Je veux ici explorer la modification d'une hypothèse de ce modèle (*), celle qui concerne le rétablissement. Quand j'écris ci-dessus que le rétablissement se fait proportionnellement à la proportion d'infectés (avec une constante cinétique γ), au niveau individuel, cela signifie la chose suivante :

Pendant chaque intervalle de temps de longueur (durée) dt très courte, la probabilité qu'un individu infecté (I) se rétablisse (I→R) vaut γ·dt et ce, indépendamment d'un individu à l'autre et d'un instant à l'autre.

Autrement dit, le temps de rétablissement d'un individu infecté donné suit une distribution de probabilité exponentielle d'espérance 1/γ.

Autant l'hypothèse analogue sur la cinétique de la contamination est relativement plausible (si on admet le principe éminemment discutable d'une population homogène et du mélange parfait !), autant l'hypothèse sur le temps de rétablissement est médicalement insensé : on est en train de dire que si vous êtes malade, votre probabilité de guérir (ou d'ailleurs, de mourir) ne dépend pas de l'avancement de votre maladie mais est la même pendant la première heure que pendant la 1729e (si tant est que vous soyez encore malade à ce stade-là). Une maladie ne se comporte pas comme ça !

Cherchons donc à remplacer cette hypothèse par une autre, tout aussi simpliste, mais néanmoins un peu plus proche de la réalité médicale, celle du rétablissement en temps constant.

Un individu infecté (I) se rétablit toujours au bout du même temps T après son moment d'infection.

Autrement dit, le temps de rétablissement d'un individu infecté donné suit une distribution de Dirac concentrée en T (qui est, du coup, son espérance).

Je vais appeler (†) (que je dois encore expliciter) le modèle SIR construit sur l'hypothèse que je viens de dire au lieu de celle qui précède. Je répète que les deux sont extrêmement simplificatrices et invraisemblables dans la réalité, mais l'hypothèse de temps constant est nettement moins fausse ou irréaliste que celle de temps à distribution exponentielle (surtout que ce qui compte vraiment est le temps pendant lequel la personne est infectieuse en pratique) : on pourrait chercher des hypothèses plus fines et moins simplistes (par exemple la somme d'une constante et d'une variable à distribution exponentielle ; ou une distribution de Weibull ou que sais-je), mais mon propos est juste de comparer (*) et (†) pour voir ce qui change et avoir au moins une idée du sens dans lequel la modélisation est affectée par le changement d'une distribution exponentielle vers une constante.

Alors pour commencer, quelles sont les nouvelles équations ? Le terme d'infection β·i·s ne va pas être modifié, mais le terme de guérison, lui, va l'être : au lieu d'avoir une proportion γ·i des infectés qui guérissent par unité de temps, on va faire guérir tous ceux qui étaient nouvellement infectés il y a T unités de temps. Comment exprimer ceci ? Eh bien, si je note fT la fonction f translatée de T, c'est-à-dire fT(t) := f(tT), le terme représentant les guérisons à l'instant t est donné par les celui représentant les infection à l'instant tT, c'est-à-dire β·(i·s)T = β·iT·sT. Autrement dit, mon système devient :

  • s′ = −β·i·s
  • i′ = β·i·sβ·iT·sT
  • r′ = β·iT·sT
  • (s+i+r=1)

Ce n'est plus un système d'équations différentielles mais d'équations différentielles à retard, c'est-à-dire que la dérivée imposée des fonctions à un instant donné ne dépend pas seulement de leurs valeurs à cet instant mais aussi de celles à un ou plusieurs instants dans le passé. Je ne sais essentiellement rien sur ces équations ; en particulier, j'ignore ce qu'il y a comme résultat d'existence et d'unicité de solutions : on peut toujours essayer d'imposer les valeurs de s et i sur un intervalle de largeur T, disons [−T;0] et utiliser les équations pour en déduire ces valeurs en [0;T], puis en [T;2T] et ainsi de suite, mais ce procédé n'a aucun intérêt si on ne trouve pas moyen de faire en sorte que les valeurs se recollent correctement aux extrémités communes de ces intervalles, c'est-à-dire les multiples de T ; or mon but est de trouver des solutions qui soient régulières partout (au moins C, si possible analytiques), pas quelque chose de recollé sur les multiples de T. Le même problème fait qu'il n'est pas évident de simuler numériquement une telle équation, faute de savoir comment la démarrer : la notion même de valeur initiale n'a pas de sens clair comme elle en a pour les équations différentielles.

J'étais très pessimiste quant à la possibilité de résoudre explicitement ce système (†) qui a l'air plutôt plus compliqué que (*) (lequel n'admet apparemment déjà pas de solution explicite). Un peu miraculeusement, et à ma grande surprise, j'y suis quand même arrivé (après un temps assez invraisemblable passé à explorer toutes sortes de techniques de calcul, et en étant à chaque fois à deux doigts d'abandonner).

Pour ceux qui se demandent comment j'ai trouvé les solutions qui suivent, j'ai commencé par me pencher sur le cas où s vaut constamment 1 (c'est-à-dire que i et r sont infinitésimaux), ce qui linéarise le système, et il est alors raisonnable d'en chercher des solutions à croissance exponentielle, ce qui est assez facile (on obtient ce que je décris ci-dessous comme comportement à i et r petits) ; j'ai ensuite eu l'idée de chercher en général des séries formelles en cette exponentielle, j'ai calculé les premiers coefficients de cette série pour savoir si la série avait au moins des chances de converger, et j'ai constaté que miraculeusement ces coefficients avaient une forme extrêmement simple que je pouvais sommer explicitement, d'où les expressions rationnelles-exponentielles qui suivent.

(Ce qui suit est essentiellement un développement de cette question+réponse sur MathOverflow et ce petit fil Twitter. La réponse MathOverflow est peut-être plus commode pour lire les formules, d'ailleurs, que mon HTML basique dans ce qui suit.)

Voici la solution explicite que j'ai trouvée : pour l'exprimer, il faut que j'introduise les notations

  • κ := β·T le nombre de reproduction, que je suppose toujours >1 ;
  • Γ := −W(−κ·exp(−κ))/κ, comme évoqué plus haut, l'unique solution strictement comprise entre 0 et 1 de l'équation Γ = exp(−κ·(1−Γ)), qui sera la limite de s quand t→+∞ (aussi bien dans le modèle (†) que (*)) ;
  • X := exp(β·(1−Γt), fonction exponentielle du temps dans laquelle les solutions seront exprimées (changement de variable ; remarquer que soustraire T à t revient à multiplier X par Γ, ce qui est bien l'intérêt du changement de variable en question) ;

par ailleurs, c sera un paramètre réel strictement positif arbitraire (qui sert simplement à translater les solutions dans le temps).

Les solutions que j'ai trouvées sont alors données par :

  • s = ((1−Γ)² + Γ·c·X) / ((1−Γ)² + c·X)
  • i = ((1−Γ)⁴·c·X) / (((1−Γ)² + c·X) · ((1−Γ)² + Γ·c·X))
  • r = (Γ·(1−Γc·X) / ((1−Γ)² + Γ·c·X)

(Comme pour (*), je m'intéresse uniquement aux solutions pour lesquelles s→1, c'est-à-dire que i et r tendent vers 0, quand t→−∞. Si on veut des solutions plus générales, on peut multiplier i et r par une même constante, quitte à multiplier β par l'inverse de cette constante.)

On a exprimé s,i,r comme des fonctions rationnelles d'une fonction exponentielle X du temps t. Les dénominateurs sont strictement positifs puisque (1−Γ)² + c·X et (1−Γ)² + Γ·c·X sont des sommes de quantités strictement positives ; les numérateurs sont eux aussi strictement positifs ; et comme s+i+r=1 comme on peut vérifier avec un petit calcul, on a bien affaire à des proportions comme souhaitées. Pour vérifier qu'elles satisfont aux équations demandées, il s'agit simplement de dériver chacune par rapport à t, ce qui revient à dériver par rapport à X et multiplier par β·(1−ΓX, et vérifier qu'on trouve bien le terme de droite souhaité (en utilisant le fait que soustraire T à t revient à multiplier X par Γ).

Sous cette forme, cette solution n'est évidemment pas très parlante ! Mais pour y voir plus clair, on peut mener la même étude que pour (*) en regardant le comportement des solutions trouvées à (†) pour t→−∞, au niveau du pic épidémique, et enfin pour t→+∞ :

  • tant que s reste très proche de 1 (si on veut, t→−∞), les proportions i et r croissent comme des exponentielles de pente logarithmique β·(1−Γ), avec un rapport Γ/(1−Γ) entre les deux, autrement dit comme i = c·exp(β·(1−Γt) et r = c·(Γ/(1−Γ))·exp(β·(1−Γt) ; qualitativement, la phase de croissance exponentielle est plus rapide (à infectiosité β et nombre de reproduction κ donnés !) dans le modèle (†) que dans le modèle (*), et le rapport rétablis/infectés pendant cette phase est plus faible ;
  • au moment du pic épidémique (maximum de la proportion i d'infectés), qui se produit pour c·X = (1−Γ)²/√Γ (mais peu importe puisque c'est un temps complètement arbitraire), on a s = √Γ et i = (1−√Γ)² et r = (√Γ)·(1−√Γ) ; qualitativement, le pic épidémique est plus haut et plus resserré (à infectiosité β et nombre de reproduction κ donnés !) dans le modèle (†) que dans le modèle (*) ;
  • quand t→+∞, la proportion i tend vers 0 (bien sûr) et s tend vers Γ, tandis qu'évidemment r, lui, tend vers 1−Γ : ce sont exactement les mêmes valeurs que dans le modèle (*) (à nombre de reproduction κ donné).

Voici des courbes illustrant deux épidémies modélisées par les modèles (*) et (†) avec les mêmes paramètres β et κ (en l'occurrence β=3, un temps de rétablissement espéré de 1, donc nombre de reproduction κ=3, et ceci conduit à Γ≈0.034, c'est-à-dire un taux d'attaque final de 96.6%, je ne réexplique pas pourquoi l'hypothèse de mélange parfait, commune à mes deux modèles, conduit à des taux d'attaques irréalistement élevés, ce n'est pas le propos ici). Les deux courbes du haut utilisent le modèle SIR classique (*) avec rétablissement selon un processus exponentiel (ici γ=1), tandis que les deux du bas utilisent le modèle SIR modifié (†) que je viens d'exposer avec rétablissement en temps constant (ici T=1). Les deux courbes de gauche sont en échelle linéaire, les deux de droite en échelle logarithmique :

Échelle linéaireÉchelle logarithmique
Modèle (*)
(rétablissement en
processus exponentiel)
[Graphe linéaire des courbes s(t),i(t),r(t) dans le modèle (*) pour β=3 et γ=1] [Graphe log des courbes s(t),i(t),r(t) dans le modèle (*) pour β=3 et γ=1]
Modèle (†)
(rétablissement en
temps constant)
[Graphe linéaire des courbes s(t),i(t),r(t) dans le modèle (†) pour β=3 et T=1] [Graphe log des courbes s(t),i(t),r(t) dans le modèle (†) pour β=3 et T=1]

(Le code Sage que j'ai utilisé pour les générer, et qui ne présente aucun intérêt particulier, est ici.)

Puisque l'origine des temps est arbitraire, je l'ai placée au niveau du pic épidémique, ce qui aide à la comparaison. Rappelons par ailleurs que le seul vrai paramètre est le nombre de reproduction κ (le paramètre β peut s'absorber en faisant un changement d'échelle du temps).

La mauvaise nouvelle, donc, si l'objectif est de flatten the curve, est que l'hypothèse (†) (plus réaliste !) de guérison en temps constant fait tout le contraire, elle resserre et amplifie le pic (tout ceci étant dit à infectiosité, nombre de reproduction et taux d'attaque constants). On peut néanmoins y voir une sorte de contrepartie : l'infection prédite par le modèle (†) paraît plus terrifiante que ce qu'elle est réellement, au sens où sa croissance initiale laisse présager (si on l'interprète selon le modèle (*)) un nombre de reproduction et donc un taux d'attaque plus importants que ce qu'ils sont réellement.

Alors que dans le modèle (*) le pic épidémique a d'abord une croissance exponentielle de pente logarithmique βγ = β·(1−1/κ) puis une décroissance exponentielle de pente logarithmique β·Γγ = β·(Γ−1/κ) (sur mon graphique, 2.000 puis −0.821), dans le modèle (†) le pic est parfaitement symétrique, avec une croissance exponentielle de pente logarithmique β·(1−Γ) suivie d'une décroissance exponentielle de pente opposée (sur mon graphique, 2.821 puis −2.821). Une morale de l'histoire est qu'il est difficile de lire le nombre de reproduction à partir de la pente logarithmique de la partie exponentielle de l'épidémie ! Il faut une information assez fine non seulement sur le taux de rétablissement moyen mais aussi sur sa distribution.

Le rapport entre le nombre d'infectieux et le nombre de rétablis, pendant la phase de croissance exponentielle, est beaucoup plus important dans le modèle (†) (à savoir (1−Γ)/Γ) que dans le modèle (*) (à savoir κ−1) : sur mon graphique (κ=3), ce rapport est de 15.8 dans le modèle (†) et 2 dans le modèle (*). Mais on peut aussi exprimer ce fait différemment en considérant le retard des rétablis sur les infectés+rétablis, c'est-à-dire combien de temps il faut attendre pour avoir un nombre de rétablis égal au nombre d'infectés+rétablis à un moment donné (toujours pendant la phase de croissance exponentielle) : ce retard est de κ·log(κ)/(β·(κ−1)) dans le cas (*) et de T = κ/β dans le cas (†) ; il serait intéressant de comparer ces deux fonctions de κ, mais j'avoue manquer un peu de patience, là ; sur mes graphiques, ce retard est de 0.549 pour le modèle (*) et évidemment 1.000 pour le modèle (†).

Reste à dire un mot sur le nombre de reproduction κ. D'abord pour justifier la manière dont je l'ai défini (β/γ dans le cas (*) et β·T dans le cas (†)) : la définition classique est le nombre de personnes moyen qu'une personne donnée infecte avant d'être rétablie, dans une population entièrement susceptible. Dans mes deux modèles, une personne infectée au milieu d'une population entièrement susceptible infecte β·dt autres personnes par unité de temps dt (c'est la définition de β) ; ceci étant simplement proportionnel au temps qu'elle restera infectieuse, l'espérance de ce nombre vaut simplement β fois l'espérance du temps qu'elle restera infectieuse, c'est-à-dire 1/γ dans le cas (*) et T dans le cas (†). Maintenant, pouvait-on prévoir a priori que le taux d'attaque final en fonction de κ serait le même, 1−Γ = 1 + W(−κ·exp(−κ))/κ, dans les modèles (*) et (†) ? Et si oui, quelle hypothèse sur la distribution de probabilité du processus de rétablissement assure ce fait ? Là, j'avoue ne pas du tout savoir, je ne connais sans doute pas assez de probas pour m'exprimer clairement. (Je suis tenté de chercher à exprimer le processus de contamination de manière indépendante du temps, en fonction d'une sorte de génération comme je l'avais fait dans mes modèles stochastiques, pour espérer que le comportement soit identique dans les deux cas, mais je n'arrive pas à exprimer ni même définir les choses correctement.)

↑Entry #2648 [older| permalink|newer] / ↑Entrée #2648 [précédente| permalien|suivante] ↑

↓Entry #2647 [older| permalink|newer] / ↓Entrée #2647 [précédente| permalien|suivante] ↓

(lundi)

De l'importance (et du manque) de tests aléatoires pour mesurer l'épidémie

L'idée, promue par le Dr. Tedros, commence à faire son chemin de l'importance des tests pour lutter contre l'épidémie de Covid-19. Mais une idée que je ne vois pas assez souvent développée et qui est très importante, c'est qu'il ne faut pas seulement des tests sur les malades ou les cas suspects, il faut aussi des tests aléatoires non biaisés. Ces tests ne jouent pas du tout le même rôle : les tests sur les malades permettent d'orienter le traitement et, éventuellement, la recherche de contacts (pour traquer l'épidémie) ; les tests sur cas suspects permettent de confiner sélectivement et, là aussi, pour la recherche de contacts (pour traquer l'épidémie). Les tests aléatoires ont un rôle complètement différent : ils servent à mesurer l'étendue réelle de l'épidémie, à savoir par quel facteur le nombre de cas officiels est sous-évalué (tout est possible à ce stade, probablement entre ×10 et ×100 mais même ça n'est pas certain), et donc, à quel taux de létalité s'attendre et quelle sera la charge de pic sur les hôpitaux. Il s'agit d'une mesure absolument essentielle que nous n'avons pas. Nous progressons à l'aveugle et prenons des décisions en l'ignorance des données les plus importantes (et forcément, ces décisions deviennent hautement confuses).

Rappelons qu'il y a plusieurs sortes de tests : des tests virologiques de type rtPCR (voir ici pour une petite explication du principe) avec une variante automatisée rapide (voir autour de ce fil Twitter), qui détectent le virus lui-même, et des tests sérologiques (en gros, de ce que j'ai compris : plus compliqués à développer initialement, mais ensuite plus simples à appliquer, plus rapides, mais aussi moins fiables ; voir autour de ce fil Twitter) qui détectent la réponse du système immunitaire (les anticorps contre le virus). On a besoin des tous ces types de tests (ne serait-ce que pour savoir à la fois qui est actuellement infectieux et qui a été immunisé). Mais je ne connais pas grand-chose à tout ça, et en tout état de cause, ceci est orthogonal au problème de la population qu'on teste : malades, cas suspects, échantillon aléatoire. Moi je veux parler des échantillons aléatoires, et tous les types de test disponibles seront les bienvenus sur eux.

J'ai été très déçu que, pendant la conférence de presse d'avant-hier, le ministre de la Santé français, Olivier Véran, qui a longuement parlé de tests, n'ait pas dit un mot sur les tests aléatoires. Comment cela se fait-il ?

Je comprends qu'il y a toutes sortes de problèmes. D'abord, il n'est pas facile de constituer un échantillon aléatoire sur une population : et il n'est pas facile de convaincre cet échantillon de se laisser mettre un écouvillon tellement profondément dans le nez qu'ils auront l'impression que ça traverse leur cerveau, alors même qu'ils ne se sentent pas malades. Néanmoins, je pense que proposer un test gratuit (voire rémunéré !) à des volontaires, et contrôler (puis égaliser) toutes sortes de données sociologiques peut aider à approcher un échantillon aléatoire : les instituts de sondage ont l'habitude de ce type de méthodes. D'ailleurs, il peut être intéressant de coupler ces tests avec des questionnaires (quelqu'un m'a proposé celui-ci) qui seraient posés à la fois aux personnes testées et à un échantillon plus large histoire d'avoir un échantillon virtuel plus large même si beaucoup moins fiable.

Il y a aussi le problème de la fiabilité des tests (qui, de ce que je comprends, provient plus du problème de collecter l'échantillon que de celui de faire la PCR). Je n'ai pas de bonne réponse à ça, si ce n'est que même un mauvais point de données est mieux que l'absence totale de données dans laquelle on nage actuellement. Évidemment, ce serait encore mieux de pouvoir faire à la fois des tests virologiques et sérologiques sur l'échantillon aléatoire, mais mon point est que déjà quelques tests PCR aideraient énormément.

Autre objection : on manque déjà de tests pour les malades. Indéniablement, mais il semble que la France pratique actuellement autour de 5000 tests par jour sur des malades ou cas suspects, et détourner ne serait-ce que 1/50 de cette ressource, c'est-à-dire 100/j, pour faire des tests aléatoires dans les régions les plus touchées, fournirait déjà un début de commencement d'idée de l'ampleur de l'épidémie (je vais développer ci-dessous pour l'ordre de grandeur). Il n'y a donc pas de raison d'attendre la possibilité de faire plus de tests pour commencer les tests aléatoires !

Enfin, il y a la réponse mais il y a tellement peu de gens infectés que c'est comme chercher une aiguille dans une botte de foin. C'est peut-être vrai, mais, justement, on n'en sait rien. Voici un point de données, quasiment le seul qu'on ait, quasiment le seul test aléatoire non biaisé qui ait été réalisé, qui suggère qu'il n'en est rien :

L'Islande a réalisé il y a quelques jours un test à peu près aléatoire à grande échelle (eu égard à la population islandaise !), en testant environ 2% de toute sa population, à savoir 6163 personnes. Pour ça, elle a utilisé une cohorte qui avait été constituée pour des analyses génétiques, la cohorte deCODE. De cet échantillon, pas loin de 1%, à savoir 52 sur 6163 (source officielle du gouvernement islandais ici) a testé positif au SARS-CoV-2. Ce qui suggère qu'environ 3000 Islandais auraient été positifs au moment de ce test. Ce qui rend cet échantillon extrêmement intéressant, c'est qu'au même moment, l'Islande n'enregistrait qu'un seul mort de Covid-19 (sur 360k habitants, donc), et depuis il s'en est ajouté un deuxième au moment où j'écris ; et seulement 1020 cas recensés par des moyens plus conventionnels (et ayant néanmoins recours à des tests très nombreux). Ces chiffres sont à prendre avec énormément de pincettes, mais ils vont au moins dans le sens de suggérer que le taux d'attaque est largement sous-évalué même dans un pays comme l'Islande qui teste beaucoup (et, du coup, que le taux de létalité ne serait pas si élevé que ça). Mais pour ce qui est de mon propos ici, le cas de l'Islande suggère que même dans un pays qui n'enregistre que 0.0006% de mortalité au Covid-19, on peut déjà avoir un taux d'attaque mesurable par des tests aléatoires pas si massifs que ça.

Il est donc tout à fait possible que dans les départements français les plus touchés, comme le Haut-Rhin, et a fortiori dans les endroits les plus touchés de ces départements, le taux d'attaque, et même le taux d'infection actuellement détectables, soit facilement autour de 20%, peut-être encore beaucoup plus. Dès lors, il n'est pas déraisonnable de chercher à le mesurer par des tests aléatoires (ne serait-ce que pour confirmer ou infirmer ce chiffre). Je ne parle pas de faire des tests aléatoires dans toute la population française, mais des tests aléatoires dans les endroits les plus touchés, pour comparer la valeur qui y sera mesurée avec les chiffres officiels et avoir une idée de combien ceux-ci sont sous-estimés.

Rappelons que si le taux réel de positifs est de p et qu'on effectue N mesures aléatoires fiables, on obtient un nombre de positifs qui a une espérance de p·N et une variance de p·(1−pN, donc une erreur relative de √((1−p)/(p·N)). Pour p≈20% et N≈1000, ceci donne une erreur tout à fait acceptable de 6% sur la valeur de p (et si p n'est pas du tout de l'ordre de 20%, ce sera une information également importante). Plutôt que de faire 1000 tests en une journée, il est probablement plus opportun d'en faire 100 par jour pendant une dizaine de jours : cela donnera une moins bonne précision sur la valeur (difficile à quantifier), mais une meilleure information sur son évolution dans le temps (de nouveau, il s'agit de fournir des chiffres à mettre en regard des chiffres officiels relevés avec les mêmes méthodes que jusqu'à présent, ainsi que d'autres données comme celles du réseau Sentinelles, pour se faire une idée de combien de cas ils ratent).

Je suis donc totalement convaincu de l'utilité d'essayer, dès maintenant, et sans attendre les tests sérologiques, de lancer des campagnes de tests aléatoires, ne serait-ce qu'avec les moyens modestes dont on dispose actuellement, quitte à les amplifier par la suite. Malheureusement, je n'ai pas l'oreille du ministère de la Santé, mais si quelqu'un sait comment l'obtenir, ce qui précède est le meilleur argumentaire que je puisse fournir.

Je tire l'idée (pas juste de l'intérêt des tests aléatoires, qui est assez évidente, bien sûr, mais surtout du fait que ce n'est pas déraisonnable d'essayer de les mener) de cette interview de l'épidémiologiste et méthodologiste John Ioannidis de Stanford (que je n'ai pas fini de regarder, mais je parle ici de ce qu'il raconte tout au début, notamment autour de 9′18″ ; ce que j'en ai vu, en tout cas, est absolument remarquable et je pense déjà pouvoir recommander cette vidéo — et je remercie beaucoup celui qui me l'a signalée).

Ajout : on me signale cette interview de Josselin Garnier pour France Info qui comme moi appelle à ce que la France réalise des tests aléatoires pour estimer le nombre de porteurs asymptomatiques.

↑Entry #2647 [older| permalink|newer] / ↑Entrée #2647 [précédente| permalien|suivante] ↑

↓Entry #2646 [older| permalink|newer] / ↓Entrée #2646 [précédente| permalien|suivante] ↓

(mercredi)

On navigue à l'aveugle, et je vais de plus en plus mal

Mon moral fait des yoyos terribles. Je vais parler d'un peu tout dans le désordre, et parfois de façon très émotionnelle, voire agressive, je présente d'avance mes excuses mais je suis émotionnellement à bout.

Mon moral fait des yoyos terribles, donc. Dans mes meilleurs moments, je trouve des raisons d'espérer que la situation n'est pas si grave que ça. Selon principalement trois points : ⓐ qu'il y aurait encore beaucoup plus de cas non-détectés que ce qu'on pensait, probablement des cas difficilement détectables avec les tests actuels, si bien que le taux de létalité serait beaucoup plus bas qu'initialement estimé, ⓑ que le taux d'attaque final serait relativement modéré, en tout cas beaucoup plus faible que les 80% prédits par des modèles simplistes, mais bon, ça, je le pense depuis le début, et ⓒ que la Lombardie approcherait du pic épidémique et que ce serait peut-être bien un pic largement « naturel », dû à l'immunité plus qu'au confinement ; ces trois points vont largement ensemble, et si on y croit on peut espérer un pic épidémique en Lombardie dans peut-être une semaine ou deux et ensuite une vraie décrue de l'épidémie, pas uniquement due au confinement, et donc un espoir de retour à la normale à un horizon pas trop lointain (il faut estimer pour combien de temps les autres régions d'Europe en ont, mais ce n'est pas énorme, dès que l'une sera tirée d'affaire, les autres suivront en bon ordre) ; avec, dans ce scénario optimiste, une mortalité d'ensemble qui ne dépasserait probablement pas 0.1% de la population, peut-être même moins dans les pays où la démographie est plus favorable qu'en Italie, donc peut-être moins de 50 000 morts en France, c'est nettement mieux que ce que je pensais au tout début. (Il y a une étude d'épidémiologistes d'Oxford qui avance carrément le scénario selon lequel une majorité de la population aurait déjà été infectée. Cette étude a l'air un peu bizarre — c'est limite s'ils ne partent pas de l'hypothèse en question pour arriver à la conclusion qu'elle est valable — et il semble qu'ils veulent juste susciter le débat sur cette question — mais c'est intéressant que des gens probablement compétents la prennent au sérieux.) Bref, j'ai des moments d'optimisme.

Puis je retombe dans le pessimisme. L'argument selon lequel beaucoup de mes connaissances ont eu des symptômes grippaux a un potentiel énorme pour être un pur biais d'observation (ou l'effet de l'hypocondrie, ou de différences de mode de vie parce qu'on reste longtemps dans des appartements souvent poussiéreux et insalubres) ; toutes ces célébrités et ces hommes politiques testés positifs peuvent tout à fait être le résultat d'effets sociaux que j'explique moi-même ; l'argument de la recrudescence des cas de grippe est plus convaincant, mais ne représente pas forcément une sous-détection si énorme du nombre de cas (peut-être autour de ×15 à ×30, mais je tablais déjà sur des chiffres de l'ordre de ×10 dans mes calculs d'ordres de grandeur) ; et le ralentissement en Lombardie peut tout à fait déjà être le résultat du confinement (le fait qu'il soit indétectable en Sicile étant simplement lié au fait que le signal y est beaucoup plus bruité). Beaucoup de spécialistes ont l'air de croire que les tests sont forcément plutôt fiables et de ne pas adhérer à l'idée qu'il y aurait un groupe énorme de gens très peu symptomatiques et ne déclenchant pas les tests. Et en un rien de temps, mais raisons d'espérer disparaissent. Je ne sais plus quoi croire.

Ce qui me décourage le plus, en fait, ce sont les gens qui affirment, et il y en a beaucoup, et à un certain niveau ils finissent par me convaincre, regardez, le confinement marche(ra) : comme si on allait tous rester tranquillement chez nous pendant le passage d'un orage, et remettre le nez dehors une fois l'orage terminé. Mais une épidémie ne fonctionne pas comme ça, j'ai peur que les gens le croient, mais ce n'est pas une force externe qui se déchaîne, l'épidémie est en nous, si on s'isole elle se résorbe, si on ressort elle réapparaît (exemple). Si le confinement marche, si c'est lui et non l'immunité qui cause et limite le pic épidémique, je l'ai expliqué à de nombreuses reprises, on est complètement dans la merde parce qu'on n'a aucune stratégie de sortie de crise. Même pas de piste de stratégie. Même pas de début de commencement de piste de stratégie, à part des mots lancés au hasard comme des tests dont on n'a pas les moyens (la France n'a pas les moyens de fournir des masques à ses soignants, même les écouvillons manquent pour effectuer des prélèvements rhino-pharyngés, alors effectuer des tests virologique ou sérologique en grand nombre, ça ressemble un peu à une utopie… et même avec ces tests, la stratégie coréenne, souvent érigée en exemple, repose sur une approche globale de la société qui me semble inapplicable en Europe, sans parler de mesures extrêmement liberticides comme le traçage des téléphones mobiles pour repérer les contacts). Si le confinement marche bien, on ne voit pas comment on pourrait le lever, ou au minimum, comment on pourrait le lever sans tomber dans une dystopie juste un peu plus light (mais plus durable) que le confinement lui-même. Et personne n'a fait le moindre progrès sur cette question.

Et je suis complètement effondré quand j'entends des gens discuter de ce qu'ils feront ou ce qui se passera quand le confinement sera levé, comme si cela impliquait un retour à la normale : sans doute, oui, que le confinement finira par être levé dans un mois ou deux, parce que ça deviendra vraiment impossible et intolérable de faire autrement, mais, si on n'a pas acquis d'immunité de groupe significative, l'idée d'un retour à la « normale » est simplement impossible : on aura peut-être de nouveau le droit de sortir un petit peu de chez nous, mais ce sera très très très loin de la « normale » (c'est un peu ce qui se passe actuellement en Chine). Rappelons que si le virus a un nombre de reproduction de 3, en l'absence d'immunité importante, il faut passer 2/3 du temps en confinement pour le contenir, et encore, ça c'est en supposant que le confinement est 100% efficace.

Peut-être ce qui me fait le plus mal au moral, ce sont ces articles, qui ont un énorme succès dans certains cercles, d'un certain Tomas Pueyo (dont je rappelle à toutes fins utiles qu'il n'est pas plus compétent que moi sur le sujet, c'est-à-dire peut-être qu'il est aussi compétent que tous les experts comme je le disais plus haut). Il a commencé par en écrire un sur le fait qu'il fallait agir vite, dont le message principal est que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ, ce qui est effectivement quelque chose de très juste et de très important (et ne sais pas si le conseil scientifique du gouvernement en a bien conscience vu qu'ils parlent déjà de renforcer le confinement alors qu'il est tout simplement impossible d'en juger les effets à ce stade). Puis il a viré au partisan enthousiaste des solutions consistant à arrêter l'épidémie (ce que j'appelais les stratégies ①) et fait preuve de la plus hallucinante mauvaise foi dans sa façon d'exposer les choses, c'est-à-dire que la présentation des stratégies de mitigation (②) est faite sous le jour le plus noir et les hypothèses les plus pessimistes, tandis que pour ce qui est de ses stratégies préférées, tout est rose au point qu'il invente purement et simplement des chiffres de ce que pourraient être les mesures appliquées pendant ce qu'il appelle la danse (or c'est bien dans la danse qu'est tout le problème).

Dans tous les cas, même dans le scénario résolument optimiste où l'épidémie est massivement sous-évaluée ou bien où on arriverait inexplicablement à contrôler les choses avec un confinement limité dans le temps, les dommages causés à notre société seront irréparables. L'empressement avec lequel la société a accepté, sans broncher, sans qu'une voix discordante se fasse entendre, des mesures dignes de ce qu'il y a trois mois j'aurais qualifié de ridicule fiction dystopienne, au motif qu'il faut sauver des vies, est absolument terrifiant. Le fait de découvrir, pour commencer, que les gouvernements ont ce pouvoir que de mettre toute la population en arrêt à domicile, sans même avoir besoin de passer par une loi, est déjà en soi une blessure dont la démocratie ne se relèvera jamais : on savait déjà que le prétexte bidon du terrorisme justifiait des entraves démesurées aux libertés publiques (confinement à domicile sans procès pour des personnes arbitrairement qualifiées de « dangereuses », par exemple, justement), mais on a franchi un bon nombre d'ordres de grandeur. Peu importe que ç'ait été fait avec les meilleures intentions du monde, peu importe que ç'ait été le moins mauvais choix dans les circonstances. Un droit, dit un adage classique, ce n'est pas quelque chose qu'on vous accorde, c'est quelque chose qu'on ne peut pas vous retirer : nous savons donc, maintenant, que le droit de circuler librement était une illusion : quand le confinement sera levé (et il le sera probablement, un jour, sous une forme), ce fait restera. Le monde ancien est mort.

Pour ce qui est des conséquences politiques plus larges, je suis assez d'accord avec les inquiétudes formulées dans ce fil ou cet article de blog.

Que les choses soient bien claires parce que je sais qu'il y a des gens qui préparent déjà leurs hommes de paille à faire brûler : je ne suis certainement pas en train de dire que poursuivre le but d'une distanciation sociale forte de la population n'est pas une bonne idée, au moins transitoirement. Par exemple pour se donner le temps d'y voir plus clair (amasser des données scientifiques, développer des tests virologiques et sérologiques et les pratiquer aléatoirement pour mesurer l'ampleur de l'épidémie, rechercher toutes les options thérapeutiques et prophylactiques, etc.) ou de parer au plus pressé (remédier aux pénuries les plus pressantes, faire un plan de bataille, réorganiser ce qui peut l'être, permettre aux soignants qui tomberont malades en premier d'avoir le temps de guérir et de revenir immunisés, etc.). Il n'y a aucun plan d'action raisonnable qui ne passe pas par un minimum de mesures telles que l'interdiction de rassemblements de groupes, la fermeture de toutes sortes de lieux publics, une obligation de déployer le télétravail là où il peut l'être, etc. ; et il est raisonnable de chercher à aller encore plus loin que ce minimum, pour que les gens s'évitent vraiment à bonne distance — mais la question qui devrait faire débat, et qui n'a fait l'objet d'aucun débat, c'est quels sont les moyens qu'on doit s'accorder pour ce but.

C'est un peu la différence entre dire que la connerie humaine est un problème, chose qui fera sans doute consensus, et vouloir prendre un décret contre la connerie, qui me semble une mauvaise idée pour toutes sortes de raisons : ce n'est pas parce que je serais contre un tel décret que je serais favorable à la connerie. C'est juste que je ne confonds pas je suis contre X et je suis favorable à n'importe quelle mesure de lutte contre X (je pensais avoir déjà expliqué mille et une fois sur ce blog l'importance de ne pas perdre le sens de ce que les logiciens appellent les modalités, mais je ne retrouve plus).

Le problème fondamental sous-jacent pour apprécier les moyens déployés, c'est qu'on ne sait pas quelle est la stratégie visée. On m'a accusé de trop être braqué sur la dichotomie que j'ai évoquée entre les stratégies que j'ai appelées ① et ② (ou Charybde et Scylla) : je conviens que le confinement peut aussi avoir pour but, je l'écris ci-dessus et je l'ai déjà dit plusieurs fois, de juste gagner du temps (encore faudrait-il faire quelque chose avec ce temps gagné, et je n'ai pas entendu dire que la France fabriquait des respirateurs et des lits d'hôpitaux à toute la force de son appareil de production). Mais ce qui me fait le plus peur c'est qu'en fait il n'y ait juste aucune stratégie. Je n'ai même pas l'impression qu'il y ait prise de conscience du fait qu'il faut faire des choix. J'ai l'impression qu'on réagit juste dans l'immédiat : surcharge du système de santé ⇒ confinons tout le monde, sans chercher à nous demander s'il y a un plan, ou un début de commencement de plan, pour sortir de l'impasse. J'ai vaguement quelques sursauts d'espoir quand le ministre de la Santé ou ses sous-fifres parlent d'aplatir la courbe (ce qui est une stratégie qui se tient, c'est essentiellement ce que j'ai appelé ②), mais je n'ai toujours pas la certitude s'il s'agit de mots prononcés au hasard ou s'ils ont effectivement compris ce que ça veut dire (parce que ce plan suppose de ne pas confiner trop, i.e., de ne pas faire comme en Chine, et je n'ai vu aucun début de commencement de signe que quelqu'un de haut placé ait pigé ce fait). J'avais vaguement un petit espoir qu'il y ait des cerveaux qui fonctionnent derrière les décisions prises quand j'ai appris que le gouvernement avait réuni un conseil scientifique pour lui suggérer des mesures, mais on a entendu des gens de ce conseil scientifique admettre qu'ils avaient recommandé le confinement parce qu'ils avaient été pris de court par la vitesse de l'épidémie (je ne sais plus la formulation exacte, ni lequel a dit ça, mais quelqu'un va sans doute me la retrouver), ce qui suggère qu'ils n'ont pas le niveau scientifique pour extrapoler une exponentielle, et ça, ça me fait vraiment très très peur s'il s'agit de guider le pays dans une crise aussi énorme. Donc je ne crois plus du tout à l'existence d'une stratégie autre que celle du cervidé pris dans les phares d'une voiture. Et je suis vraiment terrifié.

À un niveau plus large, d'ailleurs, je suis assez désabusé quant au niveau scientifique des spécialistes en épidémiologie, dont je remarque trop souvent qu'ils arrivent (de façon certes plus précise et mieux argumentée, mais pas fondamentalement différente) aux mêmes conclusions que j'ai exprimé dans mon blog des jours ou des semaines plus tôt. (Par exemple, le papier d'Imperial qui a fait beaucoup parler de lui, cf. ici, ne fait que reprendre la dichotomie que j'ai exposée au moins une semaine plus tôt sur Twitter, avant même que le Royaume-Uni ne commence à parler d'immunité grégaire ; ses calculs de nombre de morts ne sont pas franchement plus sophistiqués que ceux qu'on peut faire avec un modèle très simple ou en fait simplement en multipliant deux nombres — et le problème d'instabilité si on tente de supprimer l'épidémie est une évidence que je répète à tout le monde depuis belle lurette.) Je pourrais être fier de moi, mais je n'ai pas envie d'être fier de moi, j'ai envie de croire qu'il y a des gens qui voient beaucoup plus loin que moi et qui ont une petite idée de où nous allons et de ce que nous pourrions faire !

Des entraves énormes ont été mises à toute vie personnelle, en revanche, le contrôle sur les employeurs est minimal, par exemple : apparemment, sauver des vies justifie qu'on anéantisse la vie personnelle des Français mais il ne faut surtout pas trop toucher leur vie professionnelle. On en arrive à la situation absurde et incroyablement injuste où certains voudraient sortir de chez eux et n'en ont pas le droit, tandis que d'autres voudraient avoir le droit de rester protégés chez eux mais n'en ont pas non plus la possibilité (sauf à perdre leur emploi).

Au-dessus de ça, les modalités d'application du confinement ne sont pas moins absurdes. Comme quelqu'un l'a très justement dit sur Twitter, le gouvernement a perdu de vue le but (la distanciation sociale) pour se focaliser sur le moyen (le confinement). Une mesure de distanciation tout à fait sensée aurait été de rendre obligatoire la distance de 2m entre les personnes dans tout lieu public, et de verbaliser ceux qui s'approchent inutilement des autres, et par ailleurs d'inciter les gens à rester chez eux (sans contrainte personnelle mais avec un fort contrôle des employeurs qui prétendent avoir besoin de faire venir leurs employés). Mais on se doute bien que quand ils sont munis de la légitimité apparente de sauver des vies, les enthousiastes de l'autoritarisme n'allaient pas s'en tenir là. On en arrive maintenant à des formulaires de dérogation de plus en plus humiliants, et on discute de la distance et du temps maximal auxquels on a le droit de s'éloigner de chez soi. Formulaires qu'il faut d'ailleurs remplir à l'encre indélébile sous peine d'amende si on essayait d'en réutiliser un (là ça ressemble tellement à quelque chose tiré de Kafka que ce serait drôle si ce n'était pas tragique). On en vient à interdire le vélo de loisir, chose pour laquelle il n'a été donné aucune forme de justification, alors qu'il est facile de se tenir à bonne distance des autres quand on est en vélo ; on en vient à la mise en place d'un couvre-feu dans certaines villes alors que rationnellement il vaut mieux étaler le plus possible les heures où les sorties sont autorisées pour qu'il y ait le moins de monde à un moment donné : s'il fallait démontrer que ceux qui prennent ces décisions n'ont aucune fin rationnelle en tête, c'est la meilleure preuve possible. Encore un autre problème est que les règles sont appliquées selon le bon vouloir très aléatoire et très arbitraire des agents de police chargés de les appliquer, ce qui cause des injustices et une insécurité juridique incroyables.

Mais, comme me l'a suggéré une amie, l'absurdité de toutes ces règles vise sans doute un autre objectif, qui est le détournement de culpabilité. Le vrai scandale, c'est l'impréparation de la France face à une épidémie qui était éminemment prévisible jusque dans son timing pour quiconque sait extrapoler une exponentielle. Le scandale de fond, c'est le manque de moyens de l'hôpital public (ou, dans une autre ligne d'idées, le manque de moyens des transports publics qui sont en permanence bondés, favorisant la transmission de toutes sortes d'infections). Et le scandale immédiat, c'est le manque de masques qu'on cherche à cacher derrière l'idée que les masques ne servent à rien pour le grand public. (Il y a aussi l'histoire des élections municipales dont le premier tour n'a pas été reporté — ceci dit, je pense qu'on monte un peu trop cet épisode en épingle et je soupçonne que le nombre de contaminations à cette occasion a été très faible.) Alors pour distraire l'attention de tous ces scandales, on en crée un autre : tout est la faute de ces irresponsables qui osent s'aventurer à plus de 1km de chez eux, ou faire un tour en vélo dans un endroit où ils ne rencontreront personne, ou sortir acheter du Coca-Cola (ou des serviettes hygiéniques !) au lieu de limiter aux courses essentielles. On fustige à la fois ceux qui achètent trop (ils créent des pénuries !) et ceux qui n'achètent pas assez (ils sortent sans raison !). Le Français moyen est placé dans la position de l'âne de la fable de la Fontaine, 135€ d'amende à la clé.

Maintenant, pour ne pas blâmer que les dirigeants, l'incohérence de la réaction des Français est également digne de commentaire. D'un côté, il semble que tout le monde applaudisse les mesures de confinement (un sondage qui ne vaut certainement rien mais qui donne quand même une petite idée, prétend que 93% des Français y sont favorables). Mais d'un autre côté, si c'est effectivement vrai que tout le monde comprend et approuve la nécessité de tenir ses distances… ce n'est pas la peine de rendre les choses obligatoires ! Si 90% de la population respecte les mesures de distanciation, que ce soit par sens du devoir civique ou par peur personnelle ou n'importe quelle combinaison de tout ça, ça suffit très largement à stopper la progression de l'épidémie (le papier d'Imperial qui a été si souvent cité partait du principe que 75% suivraient la consigne, laquelle serait facultative : donc on ne peut pas m'accuser d'inventer moi-même mes compétences en épidémiologie). La conclusion que j'en tire, c'est que l'immense majorité des Français réclame qu'on impose à tous des mesures qu'elle n'est pas prête à tenir spontanément par elle-même : c'est ce qu'on appelle de l'hypocrisie.

Il est légitime de se demander dans quelle mesure la distanciation devrait être considérée comme une décision individuelle. À part le cas réellement problématique des rapports professionnels, et à part la scandaleuse pénurie de masques, il me semble que chacun peut se protéger personnellement avec un assez bon niveau de sécurité sans avoir à attendre des autres que de ne pas lui tousser dessus. (Je pense qu'on a tendance à surestimer un peu l'infectiosité de ce virus : pour mémoire : si 10% de la population était contagieuse, ce qui est est probablement encore surévalué, quelqu'un qui ne prendrait aucune précaution particulière, si j'en crois le rythme de 0.2/j où progressait l'exponentielle avant le confinement, l'attraperait en 50 jours environ.) Une personne isolée n'a donc pas grand-chose à craindre, en fait. Mais admettons que ce ne soit pas une décision individuelle mais collective, il reste encore qu'on pourrait considérer que, dans cette décision collective, les gens sont amenés à voter avec leurs pieds : si on se contente d'une recommandation de distanciation sociale et que les gens ne la suivent pas, c'est qu'ils votent avec leurs pieds pour le risque des conséquences de ce choix, aussi bien individuelles que collectives.

Mais au lieu de nous poser sérieusement ces questions, au lieu d'envisager de développer une distanciation sociale fondée sur une combinaison entre responsabilité morale, choix collectif et protection personnelle, nous avons sauté dans les bras de l'autoritarisme avec une indicible et mâle volupté.

Je tourne un peu en rond, là, j'en suis conscient. Les pensées tournent en rond dans ma tête comme je tourne en rond dans mon appartement. Parlons un peu de moi-même, parce que je ne vais vraiment pas bien.

Il y a d'abord le confinement lui-même qui est dur. Je souffre énormément de ne plus pouvoir sortir, moi qui aimais tellement me promener entre les arbres dans les forêts d'Île-de-France. Je souffre de l'injustice profonde de l'interdiction de telles promenades alors qu'il est tellement facile de tenir ses distances en forêt (il y a dix jours, quand j'ai fait la dernière, j'ai pu vérifier expérimentalement qu'il n'y avait aucune difficulté à garder 2m d'écart avec tout le monde, même quand les autres ne font aucun effort de leur côté). Je souffre de voir ce soleil radieux dehors et de ne pas pouvoir en profiter, moi qui comptais les jours jusqu'à l'arrivée du printemps après un hiver interminablement pluvieux, moi qui m'étais promis de faire mille et une balades dès que le temps le permettrait. Je souffre de toutes d'autres lacérations psychologiques provoquées par les éclats de ma vie ancienne qui a explosé en vol : de tous ces moments où je continue à penser à ce que j'aurais fait, ce que j'aurais pu faire, si j'avais été libre, avant de me rappeler que je ne le suis plus du tout, — de tous ces petits plaisirs qui ne sont plus que des souvenirs qui me narguent cruellement quand j'y repense.

(Je suis maintenant pleinement convaincu, même si je le pensais déjà depuis longtemps, que la prison est une forme de torture psychologique digne du Moyen-Âge (enfin, façon de parler, parce qu'au Moyen-Âge, justement, il me semble qu'on n'emprisonnait pas beaucoup). Mes conditions sont incomparablement meilleures qu'une prison et déjà je n'en peux plus.)

(Et sinon, je pense qu'à un moment où un autre, quand je ne tiendrai vraiment plus, je vais faire le confinement buissonnier et fuguer dans la forêt pour une après-midi. Je suis preneur de vos avis sur la meilleure façon d'y arriver en ayant le moins de chances possibles de me faire prendre : à quel moment, par quel chemin, et éventuellement en prévoyant quel prétexte.)

Mon équilibre émotionnel était largement basé sur la présence réconfortante et rassurante des habitudes quotidiennes qui rythmaient ma vie ancienne. Il n'en reste plus rien. Je ne sais plus à quoi me raccrocher. Je perds complètement pied. Par moments je deviens colérique avec mon poussinet.

Je n'arrive pas à penser à autre chose. Je ne parviens plus à faire des maths si ce n'est pas de l'épidémiologie. Je n'arrive quasiment plus à regarder un film ou un documentaire : tout ce qui ne parle pas du Covid-19 me semble tellement insignifiant que je suis incapable de rentrer dedans, et tout ce qui en parle ne fait qu'empirer mon angoisse.

Je n'imagine absolument pas comment je vais pouvoir tenir un mois ou deux comme ça.

Si au moins y avait, au bout, l'espoir d'un retour à une forme de normalité, s'il y avait de la lumière au bout du tunnel, je trouverais sans doute la force en moi de traverser le tunnel, mais tant que je n'ai pas le moindre indice que qui que ce soit sait où nous allons, la seule lumière que j'aperçois c'est celle des maigres espoirs que j'ai rappelés au début de cette entrée, et je me demande si elle n'est pas complètement dans mon imagination.

Et encore !, tout ce désespoir, c'est en faisant totalement abstraction de l'inquiétude liée à la maladie elle-même (vous remarquerez que je n'en parle pas du tout), comme si moi-même et mes proches en étions totalement invulnérables — chose qui n'est évidemment pas le cas. Si cette inquiétude devait s'y ajouter, je n'imagine pas comment je pourrais la gérer.

(À un certain moment, j'en étais presque à supplier mes amis que j'estime intelligents mais si tu ne désespères pas complètement, toi, c'est bien que tu dois avoir une idée de comment les choses pourraient ne pas tourner trop mal ?, mais comme personne n'était capable de répondre à cette question, j'ai fini par conclure que tout le monde a une capacité que je n'ai pas pour faire abstraction des catastrophes don on ne voit aucune issue.)

Voilà où j'en suis, et je ne pense pas que ça va s'améliorer.

↑Entry #2646 [older| permalink|newer] / ↑Entrée #2646 [précédente| permalien|suivante] ↑

↓Entry #2645 [older| permalink|newer] / ↓Entrée #2645 [précédente| permalien|suivante] ↓

(mardi)

Sur l'impact de la structure du graphe social dans le taux d'attaque des épidémies

Je suis vraiment débordé (le temps que je passe à me documenter sur l'épidémie et à répondre aux présentations biaisées et autres conneries sur Twitter représente une surcharge de travail absolument énorme qui s'ajoute au fait que tout est devenu tellement plus long et compliqué dans ma vie, je ne vais pas pouvoir tenir longtemps comme ça), donc je me contente ici de reproduire en français ce que j'ai écrit dans un fil Twitter :

Il s'agit d'expériences numériques sur l'influence de la structure du graphe social sur le taux d'attaque des épidémies (taux d'attaque = le nombre de personnes infectées cumulé pendant l'épidémie).

Rappelons la situation basique : j'ai déjà écrit ici sur mon blog (et ici en anglais sur Twitter) sur ce que prédit le modèle épidémiologique SIR au sujet du taux d'attaque. En bref, il prédit un taux d'attaque énorme : 89% (de la population touchée) pour un nombre de reproduction de 2.5. (La formule, comme je l'ai expliqué, est 1 + W(−κ·exp(−κ))/κ = 1 − exp(−κ) + O(κ·exp(−2κ)) où κ est le nombre de reproduction. Par ailleurs, il faut bien différencier ce taux d'attaque du seuil d'immunité grégaire qui, lui, vaut, 1 − 1/κ, et qui est le taux d'infectés à partir duquel l'épidémie commence à régresser, c'est-à-dire le taux d'attaque au pic épidémiologique.)

Or les épidémies réelles ne semblent pas avoir des taux d'attaque aussi énormes, même avec des nombres de reproduction de l'ordre de ce que je viens de dire. Bien sûr, on connaît mal le taux d'attaque même a posteriori, mais (malgré une absence d'immunité préalable aux souches) il semble que les grippes de 1918 et 1957 aient infecté autour de 30% de la population à différents endroits, pas franchement autour de 90%.

Alors que se passe-t-il ? Mon explication est que SIR, étant un modèle basé sur des équations différentielles, ne connaît qu'une seule chose, c'est la proportion de la population qui est susceptible, infectée et rétablie, et pas où ces personnes sont ni comment elles interagissent socialement.

Autrement dit, un tel modèle suppose un « mélange parfait » : tout individu a la même probabilité d'infecter n'importe quel autre individu. Ce n'est bien sûr pas du tout le cas dans la réalité. En réalité, une bonne proportion des contaminations suit un graphe social (famille, amis, collègues).

Même les modèles plus sophistiqués qui stratifient la population par catégories d'âge (disons) supposent toujours un mélange parfait dans chaque catégorie. Je soupçonne que c'est la raison pour laquelle le papier d'Imperial obtient un taux d'attaque si élevé (j'en ai déjà parlé dans cette entrée, voir aussi ce fil Twitter).

Alors, comment peut-on prendre en compte le fait que les contaminations suivent des graphes sociaux, et que doit-on en attendre ? Je m'attendais, et je voulais tester, deux effets apparentés mais distincts :

Le premier effet est que si l'épidémie doit suivre les liens d'un graphe social de connectivité relativement modeste (chacun n'ayant qu'un petit nombre de parents/amis/collègues par rapport à toute la population), elle va s'étouffer plus rapidement, même pour un nombre de reproduction donné, par rapport au cas de mélange aléatoire : c'est ce que j'ai essayé de dire ici sur Twitter ainsi que dans cette entrée dans la phrase la première [sous-raison] c'est (a) que quand on retire une proportion suffisamment élevées de sommets d'un graphe (en l'occurrence celui des contacts humains), il cesse de « percoler », c'est-à-dire qu'on ne peut plus passer d'un sommet à un autre. Ce phénomène est, en effet, lié à des questions de seuil de percolation dans les graphes (qui est, en gros, la proportion des sommets, ou des arêtes selon la définition, qu'il faut retirer aléatoirement à un graphe pour qu'il cesse d'avoir une composante connexe géante) : l'idée est que quand suffisamment de personnes (=sommets, =nœuds) sont immunisées, l'épidémie ne peut plus se propager d'un point à un autre : même avec l'hypothèse de mélange parfait le nombre d'immunisés ralentit l'épidémie, mais le seuil de percolation suggère qu'une proportion plus faible d'immunisés peut arrêter complètement la propagation (et, probablement, on la ralentit plus vite avant de l'arrêter complètement).

Le second phénomène est différent : non seulement il doit suffire de retirer relativement peu de nœuds pour arrêter l'épidémie (comme je viens de l'expliquer), mais en plus l'épidémie va retirer (c'est-à-dire infecter et rendre immuns) en premier les nœuds les plus « précieux » à sa propre propagation, parce que ce sont les nœuds les plus connectés, les « célébrités ». C'est ce que j'ai essayé d'exprimer ici et  (+ tweet suivant) sur Twitter, ainsi que dans la même entrée que mentionée dans la phrase (b) les infections ont tendance à infecter en premier les personnes qui sont hautement connectées dans le graphe, et en les rendant immunes, elle neutralise en premier les liens qui lui permettaient le plus facilement de se propager.

Tout ça n'est que mon intuition ! Maintenant, voyons si je peux modéliser ces phénomènes, pour au moins montrer qu'ils existent. Je ne vais pas chercher à quantifier les effets (il y a tout simplement trop de paramètres avec lesquels jouer), seulement d'illustrer qu'ils peuvent exister et semblent jouer dans la direction que je pensais.

J'ai donc écrit un petit programme Perl qui simule un modèle épidémique SEIR stochastique. SEIR, ça signifie que les nœuds (les individus) passent entre quatre états, S = susceptible = non-infecté, puis E = exposé = en incubation, puis I = infectieux et enfin R = rétabli = immunisé ou mort. Stochastique, ça signifie que plutôt que modéliser les choses avec des équations différentielles, je prends un grand nombre de nœuds (300 000 dans mes expériences) et les contaminations ont lieu au hasard. Ça rend les calculs non-reproductibles, mais cela permet de gérer des situations bien plus complexes qu'avec des équations différentielles.

Pour simplifier, mon programme postule qu'un nœud une fois infecté, il passe par les étapes E, I, R en un temps constant. Spécifiquement, les paramètres que j'ai utilisés sont qu'à partir de l'infection on passe 5 pas de temps dans l'état E puis 25 pas de temps dans l'état I, avant de passer enfin dans l'état R. (En fait je pense que c'est plus réaliste que le modèle SIR sur équations différentielles, qui suppose que le rétablissement suit un processus exponentiel de paramètre γ : or personne ne guérit en un tout petit nombre de jour ; donc les deux sont simplifiés, mais je pense que cette simplification de temps constant est plutôt meilleure. Si on essaie d'imaginer une épidémie comparable à Covid-19, ce que je ne prétends pas vraiment faire, il faut se dire que le pas de temps vaut à peu près un demi-jour.)

On peut ensuite jouer à faire varier la manière dont l'infection a lieu, selon plusieurs scénarios :

  1. À une extrême, on a la situation purement aléatoire, c'est-à-dire de mélange parfait : chaque nœud infectieux (I), à chaque pas de temps, a une certaine probabilité d'infecter un autre nœud purement aléatoire. Sans aucune structure sociale. Ceci est très proche du modèle S(E)IR sur équations différentielles, et je m'attends à un taux d'attaque similaire.
  2. À l'autre extrême, on peut restreindre les infections à suivre les arêtes d'un graphe sociale. Mais ce graphe peut lui-même être construit de différentes manières :
    1. On peut prendre un graphe aléatoire à peu près homogène ayant une certaine connectivité moyenne : un modèle pour le construire est de le créer sommet par sommet, et, à chaque fois, de connecter le sommet nouvellement construit à un certain nombre de sommets préexistants tirés au hasard. Ceci fournit un graphe sans nœuds hautement connectés, i.e., sans « célébrités ». (En fait, le cas de mélange parfait est équivalent à cette construction où on connecte chaque nœud à tous les autres. Mais je suppose ici implicitement que la connectivité moyenne est faible devant le nombre total de nœuds !)
    2. Ou on peut prendre un graphe avec un « effet de célébrité », selon une construction donnant un petit nombre de nœuds hautement connectés et une décroissance essentiellement en loi de puissance de la connectivité des sommets. Il y a un modèle standard pour ça, c'est le modèle de Barabási-Albert (Emergence of Scaling in Random Networks, Science 286 (1999), 509–512) : en gros, en modifiant à peine leur construction, ce que modèle fait est de construire le graphe nœud par nœud comme au point précédent, mais en choisissant cette fois les nœuds auxquels relier un nœud nouvellement créé proportionnellement à la connectivité qu'ils ont déjà, ce qui revient à tirer non pas un nœud au hasard mais une arête au hasard dont on prend aléatoirement un des deux sommets. Ceci donne un graphe ayant un très haut effet de célébrité à cause du fait que les nœuds déjà hautement connectés ont tendance à devenir encore plus hautement connectés au fur et à mesure que le graphe croît (avec un phénomène d'invariance d'échelle) ; ce phénomène reproduit des effets en loi de puissance observés dans de nombreux types de phénomènes sociaux réels, comme expliqué dans l'article de Barabási et Albert. Bien sûr, ce modèle est très criticable, et probablement pas idéal pour modéliser les rapports sociaux réels, donc pas idéal pour simuler une épidémie, mais mon but est simplement de tester la manière dont différents effets, comme la célébrité, ont un impact, donc on va faire avec ça.

Bref. Mon programme est capable de suivre ces trois modes, ou n'importe quelle combinaison de ceux-ci (mais dans mes simulations, je vais suivre ces trois scénarios extrêmes). Le code source est ici (c'est du Perl, il y a d'abondants commentaires au début expliquant le fonctionnement général et comment s'en servir ; essentiellement, il faut régler les paramètres à travers les constantes au début du programme, je n'ai pas eu le temps de faire des choses plus raffinées).

Il y a cependant un autre problème qu'on doit régler avant de comparer des taux d'attaques dans ces différents scénarios : que doit-on garder constant ? Mon programme prend en entrée des paramètres numériques tels qu'une probabilité de contagion par pas de temps et par lien ; mais ça, ce n'est pas quelque chose qu'on peut observer directement ! Les deux choses qu'on peut espérer observer dans une épidémie, ce sont des choses comme :

  • Le taux de croissance du nombre d'infectés avec le temps, pendant la phase exponentielle de l'infection, c'est-à-dire le facteur d'augmentation, par unité de temps, du nombre I d'infectés (plus tant de pourcents par jour), ou, pour être un peu plus précis, sa dérivée logarithmique (= dérivée de log(I), c'est-à-dire I′/I, rapport entre l'augmentation absolue I′ par unité de temps, et le nombre absolu I). Problème, ce taux de croissance dépend lui-même du temps.
  • Le nombre de reproduction. Et encore, ce nombre-là lui-même est délicat à observer ! Dans le modèle SIR à équations différentielles, si les paramètres sont β (taux d'infection) et γ (taux de rétablissement), le taux de croissance de l'exponentielle, au début de l'infection, vaut βγ, tandis que le nombre de reproduction vaut κ = β/γ. Mais ceci n'est pas facile à transposer à d'autres modèles !, notamment si le rétablissement ne suit pas un processus exponentiel. Et j'avoue ne pas bien comprendre ce que calculent réellement les épidémiologues et statisticiens quand ils annoncent un certain nombre de reproduction. Pour estimer ce nombre dans mon modèle, je suis parti d'une définition plus théorique : j'étiquette chaque individu infecté par une génération d'infection, qui vaut 0 pour les individus initialement contaminés, et g+1 pour les individus infectés par des individus de la génération g. Alors le nombre de reproduction devrait être la base de la croissance exponentielle selon g du nombre d'individus infectés de la génération g. Problème, il dépend fortement de g.

Ce que j'ai fait pour estimer le taux de croissance et le nombre de reproduction est de chercher la plus forte pente (du log du nombre d'infectés en fonction, dans un cas, du temps et dans l'autre, de la génération) entre deux points suffisamment espacés (j'ai arbitrairement choisi 20 pas de temps pour la pente dans le temps, et 2 générations pour la pente en générations), et ayant au moins pour valeur la racine carrée du nombre de nœuds pour éviter les bizarreries liées au tout début de l'infection. C'est un peu du bidouillage, mais il faut bien choisir quelque chose à comparer.

Bref. J'ai pris chacun des trois scénarios décrits ci-dessus ((1) mélange parfait aléatoire, (2a) diffusion selon un graphe homogène, et (2b) diffusion selon un graphe avec fort effet de célébrité) et, à chaque fois, j'ai réglé les paramètres de manière à produire des nombres de reproduction proches et des taux de croissance comparables, et à chaque fois j'ai observé le taux d'attaque final et le taux d'attaque au pic de l'épidémie (ainsi que différentes autres statistiques). J'ai cherché à être conservateur : par exemple, pour affirmer que les effets sociaux diminuent le taux d'attaque par rapport au mélange parfait, je cherche des valeurs des paramètres sur un graphe social qui donnent un taux de croissance et un nombre de reproduction au moins égaux à ce que je fixe pour le cas de mélange aléatoire, et qui donnent quand même un taux d'attaque plus faible.

Bref, voici quelques simulations ! À chaque fois je montre trois images : la première est la courbe de l'évolution de l'épidémie en fonction du temps (sachant, de nouveau, que la durée d'incubation est de 5 pas de temps et qu'on est ensuite infectieux pendant 25 pas de temps — ces valeurs sont identiques sur toutes mes simulations), avec une échelle logarithmique en ordonnée ; la deuxième est le nombre d'infectés par génération d'infectés, toujours avec une échelle logarithmique en ordonnée ; et la troisième donne un certain nombre de statistiques produites par le programme, dont celles qui m'intéressent le plus sont : d'une part les paramètres à contrôler, à savoir le pic du nombre de reproduction et le pic de la pente logarithmique (= taux de croissance) du nombre d'infectés dans le temps ; et d'autre part les paramètres à mesurer, à savoir le taux d'attaque final, et le taux d'attaque au moment du pic d'infectés (ce qui donne une idée du seuil d'immunité grégaire comme je l'ai expliqué plus haut).

Première simulation (ci-dessous) selon le scénario (1), c'est-à-dire avec mélange parfait (sans aucun graphe social) : les paramètres choisis donnent un nombre de reproduction de 2.44 et un taux de croissance des infectés de 0.062 par pas de temps, pour un taux d'attaque final de 89% et un taux d'attaque au pic de l'épidémie de 67%. Ce taux d'attaque de 89% est très proche de ce que prédit le modèle SIR pour un nombre de reproduction de 2.44 (à savoir 88%), ce qui conforte l'idée qu'on est très proche de ce modèle, et/ou que ma mesure du nombre de reproduction est à peu près sensée.

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Deuxième simulation (ci-dessous) selon le scénario (2a), c'est-à-dire selon un graphe à peu près homogène, ici avec un degré moyen de 10 (je rappelle que le nombre de nœuds est de 300 000) : les paramètres choisis donnent toujours un nombre de reproduction de 2.44, un taux de croissance des infectés un peu plus élevé de 0.073 par pas de temps, et pourtant, on trouve un taux d'attaque final plus faible de 60%, et un taux d'attaque au pic d'infectés de 39%.

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Cette simulation semble donc conforter l'intuition sur le premier effet que j'ai exprimée plus haut, à savoir que forcer l'épidémie à suivre un graphe social de connectivité modeste, va diminuer considérablement le taux d'attaque, même pour un nombre de reproduction donné (et/ou même pour une croissance donnée avec le temps lors de la phase exponentielle de l'épidémie).

Combien peut-on compter sur cette effet dans la vraie vie ? Je n'en ai aucune idée ! Mon modèle prétend juste montrer que l'effet existe, pas montrer son ampleur. Mais je crois comprendre qu'il semble vrai que beaucoup si ce n'est la grande majorité des infections suivent un lien social (famille, ami, collègue) plutôt que des rencontres aléatoires. Ceci pourrait donc aider à expliquer que des épidémies réelles s'arrêtent bien avant un taux d'attaque de l'ordre de 90%.

Enfin, une simulation (ci-dessous) selon le scénario (2b), c'est-à-dire selon un graphe qui est cette fois-ci extrêmement « social » avec un effet de célébrité fort. Le degré moyen est toujours de 10, mais le nombre de nœuds ayant au moins k voisins décroît, dans la partie à régime en loi de puissance, en C·k−2 : les vrais graphes sociaux dans la vraie vie ne sont probablement pas aussi extrêmes ! Mais le but étant uniquement d'explorer le sens de l'effet et de tester mon intuition, voyons ce qui se produit :

[Courbe de l'épidémie dans le temps] [Nombre d'infectés par génération] [Statistiques sur l'épidémie]

Avec des paramètres donnant un nombre de reproduction (générationnel, comme toujours) comparable et même un peu plus élevé, de 2.50, et un taux de croissance pendant la phase exponentielle encore un peu plus élevé, 0.092 par unité de temps, on trouve néanmoins un taux d'attaque final très modéré, autour de 35%, et possiblement une immunité grégaire à partir de 23%. Ceci semble donc corroborer l'intuition que j'exprimais quant au second effet mentionné ci-dessus, à savoir que le fait pour l'épidémie d'attaquer en premier lieu les célébrités va diminuer son taux d'attaque final.

Encore une fois, je ne sais pas à quel point cet effet fonctionne dans la vraie vie ! Je prétends juste montrer qu'il peut influencer dans le sens que j'ai dit. Mais je remarque quand même qu'on a très rapidement entendu parler d'énormément de célébrité et de personnalités politiques infectées par le Covid-19 : il y a sans doute deux raisons qui jouent, l'un étant qu'ils peuvent se faire tester plus facilement que le vulgum pecus (mais si c'est la seule explication, cela va dans le sens de montrer que le nombre de cas serait sous-évalué), l'autre étant celui que je viens d'expliquer (qui diminuerait donc le taux d'attaque) ; dans les deux cas, c'est plutôt une bonne nouvelle.

↑Entry #2645 [older| permalink|newer] / ↑Entrée #2645 [précédente| permalien|suivante] ↑

↓Entry #2644 [older| permalink|newer] / ↓Entrée #2644 [précédente| permalien|suivante] ↓

(vendredi)

Le nombre de cas de Covid-19 serait-il massivement sous-évalué ? (Ce serait une bonne nouvelle…)

Voici enfin quelque chose qui ressemble à une bonne nouvelle. Je ne sais pas combien j'ose y croire, parce que j'ai un peu peur de me laisser aller à trop espérer et d'être déçu, mais il y a des éléments très significatifs : il semble que la grippe soit en recrudescence… sauf que cette « grippe », ce serait en fait le Covid-19, qui serait énormément plus fréquent que ce qu'on imagine. Pourquoi serait-ce une bonne nouvelle ? Reprenons au début.

Commençons par l'anecdotique.

La semaine dernière, le poussinet a eu une sorte de rhume, plutôt typique mais avec quelques symptômes inhabituels (comme un goût sucré persistant dans la bouche). Évidemment, il s'est inquiété et si c'était le Covid-19 ? ; je lui ai fait remarquer que le nombre de cas était encore extrêmement faible rapporté à la population française, et que même s'il est largement sous-estimé et qu'il faut multiplier encore par un facteur de croissance de l'exponentielle entre les premiers symptômes et le moment où un cas est recensé, ça n'apparaissait toujours vraiment pas probable, surtout que son rhume collait quand même très peu avec les symptômes de Covid-19 (pas de fièvre, pas de fatigue, pas de maux de tête) et quand même bien avec un rhume classique (nez qui coule, toux plutôt grasse). J'ai fini par le convaincre. Mais entre temps nous avons demandé à un certain nombre d'amis s'ils n'avaient pas eu des symptômes particuliers ces derniers temps…

…et le nombre de réponses a été hallucinant. Plein de gens, mais vraiment plein (peut-être 20% d'un échantillon aléatoire, même si c'est vraiment difficile de compter parce qu'on obtient plus facilement des réponses positives que négatives), et, ce qui est important, des gens indépendants (par exemple des connaissances par un forum informatique qui ne se voient que rarement en vrai et n'ont pas de raison d'être des contaminations croisées) m'ont signalé avoir eu des symptômes grippaux très modérés, souvent juste un ou deux jours, ces derniers temps. Qui une toute petite poussée de fièvre, qui une toux sèche inhabituelle, qui une grande fatigue un jour, et ainsi de suite. Des symptômes qui sont assez inhabituels pour qu'on se dise tiens, c'est bizarre, mais pas assez importants pour qu'on consulte, et puis ils passent, et on n'y pense plus jusqu'à ce que je pose la question. Certains ont eu des cas plus sérieux : un ami qui fait de l'anosmie complète, un autre qui a eu une grosse fièvre avec une grande fatigue et difficulté à se concentrer pendant plusieurs jours. Sur Twitter aussi, je vois plein de gens dire des choses comme ah, j'ai de la fièvre… bon, espérons que ce n'est qu'une grippe. Faut-il vraiment espérer que ce ne soit qu'une grippe ?

Moi-même, hier, j'ai eu une forme de toux sèche, légère mais très inhabituelle (ni la toux grasse que j'ai en fin de rhume, ni la toux sèche qui lui succède ensuite quand je sens bien que j'ai la gorge iritée, mais l'impression déplaisante d'avoir quelque chose à sortir qui ne vient vraiment pas). Puis cette impression est passée, je me suis dit que c'était probablement la poussière de l'appartement où je n'ai pas l'habitude de rester confiné, ou simplement l'effet nocebo dû au stress, et je n'y ai plus repensé, sauf qu'un peu avant 20h j'ai eu un énorme coup de fatigue, avec une grande difficulté à me concentrer sur quoi que ce soit. Je ne sais pas quoi en penser. (Je note qu'en ce qui me concerne, je suis vacciné contre la grippe.)

Bon, tout ça c'est de l'anecdotique, même si c'est de l'anecdotique qui commence à devenir frappant quand mon poussinet et moi avons vu s'accumuler les réponses d'amis et collègues qui nous disaient avoir fait une grippounette.

Mais alors regardons des données moins anecdotiques. Plein de pays ont des réseaux de surveillance de la grippe qui enregistrent le nombre de consultations de médecins pour syndromes grippaux (ILI : Influenza-Like Infection). Et là on constate que, au moins en France, en Suisse, en Belgique, à New York (cf. les graphes de ce fil Twitter), alors que l'épidémie de grippe était en phase de recul, il y a ces derniers jours une nette recrudescence de consultations pour syndromes grippaux, comme si un nouveau pic de grippe arrivait. Or la grippe saisonnière ne fait jamais deux pics : elle vient, elle culmine, elle repart. (Une épidémie peut faire plusieurs pics si, par exemple, les gens prennent peur et s'isolent, avant qu'assez d'immunité se soit installée dans le pays, puis ressortent quand ils ont l'impression que le danger est passé. Mais ceci n'est pas du tout le cas pour la grippe. Au contraire, les mesures anxiogènes autour de Covid-19 devraient plutôt avoir un effet accélérant la fin de l'épidémie de grippe.) Si ce n'est pas la grippe, quel autre virus pourrait être responsable de nouveaux cas de grippe un peu partout ?

Non, en fait, ce n'est pas si simple : il y a une autre explication naturelle, c'est que les gens s'inquiètent plus et se surveillent plus, donc remarquent des symptômes qui en temps normal ne l'auraient pas été, ou encore qu'ils font une forme d'hypocondrie. J'ai du mal à croire que ça puisse être d'une telle ampleur (mes amis me décrivent des symptômes légers mais inhabituels d'après eux ; et ceux qui vont consulter un médecin ont probablement des symptômes un peu plus que complètement anecdotiques).

Cette prépublication (par Pierre-Yves Boëlle, du réseau Sentinelles de surveillance de la grippe en France) rapporte une corrélation significative, à travers les régions françaises, entre l'excès à la normale du nombre de consultation pour syndromes grippaux et le nombre de cas de Covid-19 rapportés dans la région, ainsi qu'une croissance de ceux-ci dans le temps ayant une pente logarithmique compatible avec la progression de l'épidémie de Covid-19. Il semble assez peu vraisemblable qu'un effet purement psychologique se comporte de cette manière (même si tout cela est très difficile à quantifier). Le texte signale que le réseau Sentinelles a eu des tests positifs au Covid-19 parmi les échantillons prélevés aléatoirement pour analyse de différents virus (il ne donne malheureusement pas le nombre, qui n'est probablement pas assez significatif pour qu'on puisse en tirer quelque conclusion que ce soit à part « il y a des cas »).

Bref, tout ça n'est pas une preuve absolue, mais il y a des indices qui commencent à devenir très forts que beaucoup de syndromes grippaux bénins sont en fait des cas de Covid-19.

En quoi est-ce que ça remet en cause beaucoup de chose qu'on croyait ? Cela suggère un ordre de grandeur vraiment différent du nombre de cas. L'article de Boëlle estime à 84 par 100 000 habitants l'excès du nombre de consultations pour syndromes grippaux, en semaine 2020-W10, sur l'ensemble de la France, c'est-à-dire 59 000 consultations supplémentaires sur cette semaine, alors que les cas nouveaux de Covid-19 officiellement recensés sur cette semaine étaient de 1000 environ, qu'il faut probablement multiplier par un facteur 2 ou 3 avant de comparer, pour tenir compte du fait qu'il y a quelques jours (pendant lesquels la croissance exponentielle continue…) entre le moment où un cas est au niveau qui amène la personne à consulter et le moment où il est au niveau qui l'amène éventuellement à l'hôpital et où on ferait un test. Je me doutais bien que la grande majorité des infections n'étaient pas testées (j'utilisais l'ordre de grandeur de ×10 tiré du recollement d'estimations très grossières), mais là on est vraiment au-delà de ce que je pensais. Ou pour le dire autrement, comme il semble que la mort se produise généralement autour d'une semaine après les premiers symptômes, sur ces 59 000 consultations supplémentaires suspectes en 2020-W10, seules 100 sont mortes de Covid-19 en 2020-W11, ce qui fait une létalité autour de 0.2% parmi les cas suffisamment graves pour justifier une consultation chez un médecin, dont on peut eux-mêmes penser qu'ils sont encore loin de représenter l'ensemble des infections (la plupart des amis que j'ai évoqués plus haut ne sont pas allés voir un médecin ! évidemment, rien ne dit qu'ils avaient Covid-19, et évidemment ils ont tendance à être plus jeunes que la médiane, mais c'est une idée à garder à l'esprit).

En quoi serait-ce une bonne nouvelle ? En ce que cela suggère que la létalité aurait été fortement surestimée. Il faut se dire qu'on a affaire à un iceberg (qui grossit !) : on n'en voit que la partie émergée (les morts, les cas de détresse respiratoire aiguë, et d'autres cas assez graves pour être traités par les services d'urgence et faire l'objet d'un test qui sera comptabilisé dans les statistiques s'il est positif). Mais on ignore la taille de la partie submergée (les cas qui se présentent comme une grippe banale, voire une grippounette, peut-être même une absence totale de symptômes). Si on ne regarde que la partie émergée, l'iceberg est très inquiétant, parce qu'il va grossir jusqu'à des proportions démesurées. Mais si la partie submergée est assez grosse, c'est que nous sommes bien plus avancés qu'on le pensait dans l'infection, et le seuil d'immunité n'est plus forcément si loin. I.e., l'aplatissement de la courbe nécessaire pour traverser l'épidémie ne semble plus aussi invraisemblablement inatteignable.

Le nombre de décès et de cas graves est évidemment ce qu'il est. Le débordement des services d'urgences où il a lieu est un fait incontestable et qui appelle au minimum à ce qu'on ralentisse fortement l'épidémie, mais la différence est que cette situation représenteraient une épidémie déjà bien avancée et pas le tout début du bout de son nez. Ce serait incontestablement une bonne nouvelle.

Pour dire les choses autrement, si on suppose que chez 90% de la population (chiffre complètement pifométrique) l'infection au Covid-19 ne produit que des symptômes tellement modérés que personne ne se rend compte de rien, et peut-être que ces personnes ne sont que très faiblement infectieuses, et que leur charge virale reste trop faible pour que les tests soient fiables auprès d'eux, cela ne changera pas beaucoup la dynamique connue de l'épidémie jusqu'à présent, sauf que c'est comme si la population à infectée était dix fois plus faible, et avec elle le nombre de morts à prévoir.

Si tout ça est juste, il me semble clair que la stratégie d'« aplatir la courbe » (celle que j'appelais ②), et pas celle de chercher à arrêter à tout prix l'épidémie (celle que j'appelais ①), est la bonne. On a toujours un choix[#] entre Charybde et Scylla, mais Scylla est moins horrible que ce qui était initialement prévu. Bien sûr, pour l'instant, on navigue à vue et il est trop tôt pour essayer de savoir de combien.

[#] Enfin, à supposer qu'on ait un choix, parce qu'il n'est pas clair que le niveau maximal de confinement acceptable pour la population soit suffisant pour ramener le nombre de reproduction en-dessous de 1… Quand je regarde les données pour le village italien de Lodi, qui est confiné depuis le 2020-02-23, j'ai l'impression qu'on tourne autour de 1 (ces chiffres sont malheureusement très difficiles à lire parce qu'il ne semble pas que le nombre de cas actifs soit publié, seulement le nombre de cas cumulé).

Quelques remarques, cependant. Le nombre de cas ne peut pas avoir été trop lourdement sous-estimé : la Corée du Sud contrôle son épidémie par une campagne de tests massifs : s'il y avait trop de cas presque asymptomatiques mais testant positifs, ça se refléterait sur leur taux de létalité qui n'est pas si bas que ça ; et s'il y avait trop de cas presque asymptomatiques testant négatifs, leur stratégie pour retrouver les contaminations ne marcherait pas, sauf si ces personnes ne sont pas du tout contagieuses : c'est pour ça que l'hypothèse à avancer est que ces cas en questions sont presque asymptomatiques, sont généralement négatifs aux tests, et sont peu contagieux. Cette hypothèse pose toujours un problème, qui est qu'il y a eu des événements de contamination de groupe où un grand nombre de personnes ont été contaminées parmi la population présente, ce qui laisse penser que le taux d'asymptotiques ne peut pas être trop bas. Mais l'hypothèse a été avancée (voir par exemple ici) que toutes les contaminations ne se valent pas : la gravité pourrait dépendre du nombre de contacts, des doses infectantes, et/ou de la voie d'infection : ceci expliquerait que les événements supercontaminateurs ne représenteraient pas des statistiques habituelles.

L'autre point crucial à souligner, c'est que tout ce que j'ai dit n'est une bonne nouvelle que si les contaminations presque asymptomatiques sont néanmoins assez pour conférer une immunité. Là je ne suis pas du tout qualifié pour m'exprimer, mais cette analyse semble suggérer qu'on peut être prudemment optimiste à ce sujet.

Et bien sûr, il faut garder à l'esprit dans tout ça qu'un facteur énorme à prendre en compte, c'est combien les personnes âgées sont touchées par l'épidémie. Voir cet excellent article qui analyse le cas de l'Italie par rapport à la Corée (la plus grosse différence dans le taux de létalité semble venir du nombre de personnes âgées infectées). Si on veut utiliser comme stratégie d'aplatir la courbe, il faut aussi prendre garder à protéger plus soigneusement les personnes âgées que les jeunes.

↑Entry #2644 [older| permalink|newer] / ↑Entrée #2644 [précédente| permalien|suivante] ↑

↓Entry #2643 [older| permalink|newer] / ↓Entrée #2643 [précédente| permalien|suivante] ↓

(mardi)

Bon, quelle sera la stratégie suivie en France et en Europe ? Et comment va se dérouler la suite ?

Je suis tombé sur cette modélisation effectuée par la Imperial College Covid-19 Response Team et publiée hier teste l'effet de différentes mesures sociales sur l'épidémie de Covid-19 au Royaume-Uni. Il semble qu'une étude du même genre a été fournie à la France mais pas rendue publique.

Le fait qu'ils évoquent 500 000 morts au Royaume-Uni si on ne fait rien risque de faire beaucoup parler. Je pense pour ma part que cette chiffre est exagérément pessimiste : le taux d'attaque final qu'ils prédisent, à savoir 81% de la population en tablant pour un nombre de reproduction R₀=2.4, est très proche de la valeur calculée par SIR, ce qui me suggère qu'il s'agit probablement d'un modèle de ce type, avec des raffinements pour la catégorisation par âge mais pas de vraie structure de graphe social (dont les effets atténueraient beaucoup le taux d'attaque final comme je l'ai déjà expliqué). Je pense en fait que le but des auteurs n'était pas de prédire le taux d'attaque mais simplement de montrer l'effet relatif sur celui-ci de différentes mesures de distanciation et isolation, dont on peut penser que ça ne dépend pas trop de la structure sociale complexe. Donc je pense qu'il ne faut pas tabler sur 81% de contaminés et 500 000 morts au Royaume-Uni même si on ne fait absolument rien, mais ça donne une idée de l'ampleur du problème.

Cependant, ce qui m'intéresse surtout est qu'ils confirment, presque exactement comme je l'expliquais, ce que je dis depuis longtemps, à savoir l'existence d'une dichotomie importante entre les pistes ① et ②, qu'ils formulent de la manière suivante (dans le même ordre que moi) :

Whilst our understanding of infectious diseases and their prevention is now very different compared to in 1918, most of the countries across the world face the same challenge today with COVID-19, a virus with comparable lethality to H1N1 influenza in 1918. Two fundamental strategies are possible2:

(a) Suppression. Here the aim is to reduce the reproduction number (the average number of secondary cases each case generates), R, to below 1 and hence to reduce case numbers to low levels or (as for SARS or Ebola) eliminate human-to-human transmission. The main challenge of this approach is that NPIs [Non-Pharmaceutical Interventions] (and drugs, if available) need to be maintained – at least intermittently - for as long as the virus is circulating in the human population, or until a vaccine becomes available. In the case of COVID-19, it will be at least a 12-18 months before a vaccine is available3. Furthermore, there is no guarantee that initial vaccines will have high efficacy.

(b) Mitigation. Here the aim is to use NPIs (and vaccines or drugs, if available) not to interrupt transmission completely, but to reduce the health impact of an epidemic, akin to the strategy adopted by some US cities in 1918, and by the world more generally in the 1957, 1968 and 2009 influenza pandemics. In the 2009 pandemic, for instance, early supplies of vaccine were targeted at individuals with pre-existing medical conditions which put them at risk of more severe disease4. In this scenario, population immunity builds up through the epidemic, leading to an eventual rapid decline in case numbers and transmission dropping to low levels.

The strategies differ in whether they aim to reduce the reproduction number, R, to below 1 (suppression) – and thus cause case numbers to decline – or to merely slow spread by reducing R, but not to below 1.

In this report, we consider the feasibility and implications of both strategies for COVID-19, looking at a range of NPI measures. It is important to note at the outset that given SARS-CoV-2 is a newly emergent virus, much remains to be understood about its transmission. In addition, the impact of many of the NPIs detailed here depends critically on how people respond to their introduction, which is highly likely to vary between countries and even communities. Last, it is highly likely that there would be significant spontaneous changes in population behaviour even in the absence of government-mandated interventions.

We do not consider the ethical or economic implications of either strategy here, except to note that there is no easy policy decision to be made. Suppression, while successful to date in China and South Korea, carries with it enormous social and economic costs which may themselves have significant impact on health and well-being in the short and longer-term. Mitigation will never be able to completely protect those at risk from severe disease or death and the resulting mortality may therefore still be high. Instead we focus on feasibility, with a specific focus on what the likely healthcare system impact of the two approaches would be. We present results for Great Britain (GB) and the United States (US), but they are equally applicable to most high-income countries.

Il est donc clair que les gouvernements français et britannique ont reçu le message que ces deux stratégies existent, Charybde et Scylla. Le document discute (c'est son but principal) quelques manières de rendre ② un peu moins horrible (et montre qu'on peut réduire le nombre de morts d'un facteur 2 et le nombre de lits de réanimation d'un facteur 3 environ en réduisant le taux d'attaque — qui restera largement au-dessus du seuil de l'immunité grégaire), confirme que ① est complètement instable (dans leur analyse, si on confine toute la population du Royaume-Uni pendant cinq mois, l'épidémie disparaît, et à peine un mois plus tard elle est de nouveau là), et évoque quelques façons de rendre ① plus subtil, comme celle où les mesures de confinement sont déclenchées automatiquement dès que le seuil d'occupation des lits d'hôpital dépasse un certain niveau, mais bon, il est clair que cela implique de passer quand même environ deux tiers des mois en confinement jusqu'à la découverte d'un hypothétique vaccin. Bref, sous n'importe quelle forme le dilemme reste atroce (j'ai évoqué des thèmes et variations hier en cherchant ce que je trouvais de moins noir).

Je reste persuadé que cette étude est pessimiste : on doit pouvoir atteindre un taux d'attaque encore plus bas que le 40% qu'ils estiment sous les meilleures méthodes d'aplatissement de la courbe si on tient compte des effets de structuration sociale (encore une fois, les effets qui ont fait que je ne sais combien d'hommes politiques ont été infectés en premier : ils sont hautement connectés, donc les retirer du graphe a un vite impact très fort) : c'est peut-être de la méthode Coué, mais je crois assez fort au 20% que me souffle mon intuition. Ils sont aussi possiblement pessimistes sur le nombre de cas asymptomatiques ou bénins : d'après un article paru hier dans Science (Substantial undocumented infection facilitates the rapid dissemination of novel coronavirus (SARS-CoV2)), seulement 14% des infections de l'épidémie initiale du Húběi auraient été recensés (parmi lesquels 14% et 5% étaient classés comme sérieux ou critiques d'après l'article The Epidemiological Characteristics of an Outbreak of [Covid-19] (CDC Weekly), tableau 1 page 4) ce qui suggère que peut-être seulement 2% (resp. 1%) de toutes les infections nécessitent une hospitalisation, respectivement un passage en réanimation alors qu'ils se basent sur 4.4% environ. Troisième source de pessimisme, ou plutôt, présentation pessimiste : ils ne tiennent pas compte de la possibilité tout de même énorme de créer de nouveaux lits d'hôpital par réaffection, ou plus exactement, ils comparent juste leurs courbes au nombre de lits disponibles actuellement (même pas le nombre de lits total, alors comme les lits sont pleins à environ 90%, évidemment, ça paraît vite énorme). Dernier point : comme ils sont épidémiologues et pas sociologues, ils ne peuvent pas s'exprimer sur la chance que l'épidémie et la peur qui va avec conduise la population à durablement voire définitivement changer certaines habitudes (serrage de mains, attention portée à l'hygiène) qui modifierait le nombre de reproduction.

Bref, je les crois pessimistes (et pourtant je ne vois pas les choses en rose). Mais qui sait si le conseil scientifique réuni par le gouvernement français aura la même analyse ?

Et surtout que décideront Emmanuel Macron et les autres gouvernements européens quand on leur aura expliqué qu'ils ont le choix entre la mort de centaines de milliers de personnes (avec une part énorme de personnes âgées) et un confinement dont on ne voit aucune issue ? Voilà la question dont dépend notre sort à tous (au moins en Europe : aux États-Unis, ça va être chacun pour soi).

Je ne pense pas qu'on puisse imaginer une seconde que la France se laisse confiner indéfiniment comme la Chine, ni qu'Emmanuel Macron (ou Angela Merkel, ou Boris Johnson, etc.) ait l'idée de tuer ainsi complètement ce qui reste de l'économie. Ni même confiner régulièrement deux mois sur trois comme le papier le suggère. Je ne les vois pas non plus accepter trop facilement de laisser mourir des centaines de milliers de morts ou qu'on puisse les accuser de ne rien avoir fait. Le confinement était donc logique. Mais la question est celle de savoir ce qui se passe ensuite.

Pendant dix à quinze jours, il est évident que le nombre de cas officiels ne va faire qu'augmenter, exponentiellement, à un rythme à peu près constant (en exp(0.21·t), c'est-à-dire +24% par jour, ou encore un doublement tous les 3.2 jours, un décuplement tous les 10.8 jours), car je rappelle que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ. Le confinement total de l'Italie ne pourra donc se voir sur les chiffres officiels qu'autour de samedi, et celui de la France qu'autour de samedi 28 : à ce moment-là, dans les chiffres officiels, la France aura 85 000 cas recensés environ, mais ce chiffre-là est prévisible ; il est aussi évident que la pente logarithmique va baisser quand apparaîtra l'effet de la nouvelle mesure, mais toute la question est : à quel point ? Si le rythme des contaminations passe au-dessous de celui des guérisons (ce qui demande de passer de 0.21 à 0.06 environ), le nombre de cas ouverts va décroître et l'épidémie se résorber ; sinon, elle continuera à croître, juste un peu moins vite.

À Wǔhàn, l'épidémie s'est résorbée, mais au prix d'un confinement vraiment draconien. Je ne sais pas si celui à l'italienne ou à la française peut suffire. Je suppose que l'idée de commencer par 15 jours était de se donner le temps de réfléchir. Peut-être aussi de frapper l'opinion publique avec la gravité de la crise. Et peut-être surtout d'avoir cette information de l'effet d'une telle mesure de confinement sur le nombre de reproduction.

Maintenant, je pense qu'il va se passer la chose suivante, en continuant à essayer d'être optimiste comme je peux, mais sans invoquer non plus de miracle :

(Scénario I.) Au bout de 15 (ou peut-être 30) jours de confinement de tous les Français, le nombre de cas ouverts étant à peu près en stagnation (ou en légère recrue), Emmanuel Macron fera une allocution solennelle expliquant qu'il lève le côté impératif et contraignant des mesures, parce qu'on ne peut pas empêcher indéfiniment les gens de vivre et que l'État ne peut pas être derrière chacun, mais qu'il appelle à la responsabilité de tous pour continuer à prendre le même soin de rester autant que possible chez eux, s'abstenir des contacts physiques et de respecter les gestes barrière, à ne voir leurs amis qu'avec la plus grande parcimonie et à éviter tout contact avec les personnes âgées. (Les écoles resteront fermées pour un moment, ainsi que beaucoup de lieux publics, mais les restaurants et cafés auront le droit d'ouvrir à condition de respecter des règles extrêmement restrictives sur la séparation des convives et le lavage de la vaisselle.) Cela ne suffira pas, évidemment, mais cela ralentira au moins pas mal la courbe des contaminations : pas seulement sous l'effet de la responsabilisation, mais aussi sous celui de la peur (et aussi du fait que les moins prudents auront été infectés en premier et seront devenus immuns). L'épidémie va donc progresser à un rythme nettement ralenti mais néanmoins positif. Pendant le confinement (ou plutôt pendant les 12 jours qui vont suivre), le système de santé aura eu le temps de parer au plus pressé (monter des hôpitaux de campagne dans des hôtels et des stades), mais surtout les médecins malades auront eu le temps d'acquérir l'immunité, et peut-être qu'on aura pu improviser des lits et des respirateurs. Grâce à la diminution de la vitesse de reproduction, le pic épidémiologique sera à la fois aplati et étendu dans le temps (durant en gros six mois au lieu de trois et infectant peut-être seulement 15% de la population, causant seulement 50 000 morts). Au bout d'un moment, ce pic premier étant passé, les mauvaises habitudes reviendront (et on aura rouvert les écoles), et il y aura un deuxième pic, qui sera cependant plus plat parce que beaucoup de gens auront déjà l'immunité (pas assez pour qu'il y ait immunité grégaire, mais assez pour ralentir nettement), et on sera mieux préparés. Enfin, on mettra au point un vaccin pour protéger les personnes âgées qui auront eu la force de rester enfermées chez elles pendant des mois. (Bonus : on entre dans une ère où l'hôpital public, et les services publics en général, sont massivement revalorisés, et Donald Trump n'est pas réélu président des États-Unis soit parce qu'il est devenu massivement impopulaire à cause des morts incroyablement nombreux suite à on inaction, soit simplement parce qu'il est décédé du Covid-19.)

Voilà à peu près ce que je peux offrir de plus optimiste en restant vaguement réaliste à la fois sur l'épidémiologie, la sociologie des Français et la psychologie du président. Si vous avez mieux, je suis toujours preneur. (Pour du très pessimiste, c'est trop facile : il suffit d'imaginer que l'immunité ne dure qu'un mois et le vaccin impossible, et que le syndrome interstitiel provoqué par le virus devienne de plus en plus probable à chaque infection, et vous avez la recette parfaite de la fin du monde.)

↑Entry #2643 [older| permalink|newer] / ↑Entrée #2643 [précédente| permalien|suivante] ↑

↓Entry #2642 [older| permalink|newer] / ↓Entrée #2642 [précédente| permalien|suivante] ↓

(lundi)

Essayons d'imaginer quelques scénarios avec au moins une lueur d'espoir

Comme je l'écrivais dans l'entrée précédente, je suis complètement paniqué par la pandémie de Covid-19, et réfléchir sur le sujet me fait sans doute du mal. Je vais essayer d'imaginer quelques scénarios possibles en m'efforçant de ne pas pencher vers l'apocalypse : supposons que les choses ne se passent pas trop mal, comment cela est-il possible ?

L'état actuel des choses en France est que le gouvernement a ordonné la fermeture de tous les commerces « non-essentiels » (apparemment, « essentiel » signifie : magasins d'alimentation, pharmacies, stations essence, banques, bureaux de tabac et de presse ; et apparemment aussi, magasins de bricolages, ce qui me soulage un peu parce que j'avais peur qu'ils soient oubliés de la liste).

Il y a une chose dont il faut bien se rendre compte (c'est un point très important, expliqué sur cet article qui a beaucoup circulé, mais je n'aime pas trop cet article pour d'autres raisons), c'est que l'effet d'une mesure prise au jour J ne se verra, sur les chiffres officiels du nombre de malades, qu'au jour J+12 environ, parce que les infections contractées le jour J montrent leurs premiers symptômes typiquement vers J+3 et envoient les gens à l'hôpital, si c'est le cas, vers J+12 (tout ceci est très approximatif, mais c'est l'idée). Depuis aujourd'hui, la pente logarithmique du nombre de personnes infectieuses a donc forcément dû baisser, celle du nombre de symptomatiques baissera dans environ trois jours, mais on ne le saura toujours pas, et celle du nombre de personnes arrivant à l'hôpital baissera dans environ 12 jours. Et la question super importante, c'est : de combien ? Et y a-t-il moyen de le savoir à l'avance ? J'imagine que les gens qui conseillent le gouvernement cherchent tous les moyens d'y arriver, et j'espère qu'ils le pourront. (La piste la plus prometteuse me semble être de demander aux généralistes de faire des tests aléatoires sur les cas de syndromes grippaux, ou au moins de rapporter ces nombres, sachant qu'ils verront généralement ces malades avant leur passage à l'hôpital. Le rapport du nombre est fait, j'en suis sûr ; les tests aléatoires, je ne sais pas, mais j'espère.)

On entre ensuite dans des scénarios très différents selon que le nombre de nouveaux cas, dans une douzaine de jours, va commencer à baisser, continuer à augmenter mais plus lentement, ou rester à peu près constant (ce qui est probablement le scénario le plus souhaitable). Et bien sûr, la question est de savoir ce que le gouvernement va viser (essayer absolument d'obtenir la décroissance, accepter une explosion juste un peu ralentie, ou tenter de viser le point magique où les nouveaux cas stationnent).

Une chose qui m'a redonné un peu le moral, c'est d'apprendre qu'en 1956–1958 l'épidémie de « grippe asiatique » (de type A-H2N2) a par beaucoup de points ressemblé à la pandémie actuelle : avec une létalité autour de 1% en France (par pneumonie virale plus que par complications bactériennes), elle a causé autour de 100 000 morts [mise au point () : en fait, ce chiffre semble contesté, et la source n'est pas claire : écouter ce podcast de CheckNews pour Libération pour des précisions, qui affirme que c'était plutôt ≤25 000], soit environ 0.2% de la population, chiffres qui ne sont pas trop loin de mes estimations raisonnablement optimistes pour Covid-19 ; et je suppose que beaucoup de ces gens passaient par les hôpitaux, qui ont été complètement débordés. Le pays a donc déjà vécu ça, et ne s'en souvient pas si bien (je connaissais l'épidémie, mais pas son taux de létalité). Mais à l'époque, il ne semble pas que des mesures de confinement aient été prises.

Je vois de plus en plus les mesures de confinement extrêmes visant ce que j'avais appeler la stratégie ①, c'est-à-dire, comme en Chine, arrêter à tout prix l'épidémie, comme une réaction d'orgueil contre la nature : c'est dire nous allons arrêter la tempête, coûte que coûte ! ; mais le fléau exige son tribut en vies humaines : il exige ses 30%, peut-être 20%, peut-être 50% (je ne crois pas du tout au 70%) de la population de contaminés. Il ne se laissera pas si facilement tricher de son dû. On peut négocier sur qui, sur comment et sur quand, mais on ne peut pas négocier sur le nombre, sauf à trouver un vaccin, lequel ne viendra jamais à temps. Nous devons tous nous préparer à perdre des proches. Nous devons comprendre qu'il est vain de s'imaginer que la médecine moderne puisse sauver des vies à une telle échelle : nous devons considérer que nos moyens médicaux sont à peine meilleurs qu'en 1957 ou même 1918, parce que les appareils magiques qui sauvent bien plus de vies ne sont disponibles qu'en toute petite quantité.

Les rumeurs selon lesquelles le gouvernement français pourrait décréter, demain, un confinement total de la population, me glacent le sang. D'abord parce que je crois que ce serait une très lourde erreur (on ne pourra jamais sortir du confinement sans que l'épidémie reparte, et on n'aura rien gagné sauf lourdement traumatiser les personnes confinées), et parce que l'effet sur mon moral sera encore plus grave, moi qui ai sans arrêt besoin de soleil et qui attendais ce printemps avec tant d'espoir après un hiver interminablement gris et pluvieux. Mais j'ai promis de chercher les scénarios avec une lueur d'espoir.

Inspiré par le commentaire de Cigaes dans l'entrée précédente, je cherche à élargir mes idées au-delà des pistes ① et ② que j'avais évoquées.

Scénario A. Le gouvernement prend rapidement des mesures de confinement très fortes, mais elles ne sont que temporaires, pas destinées à arrêter complètement l'épidémie mais à gagner du temps dans le but de rassembler les forces et donner tous les moyens supplémentaires possibles aux équipes médicales : réquisition de tout ce qui peut servir d'hôpital et de lits pour ces hôpitaux, moyens extraordinaires pour fabriquer à une vitesse incroyable des masques et bouteilles à oxygène, des ventilateurs bird, peut-être aussi des appareils à oxygénation par membrane extra-corporelle, pour en bricoler avec des bouts de ficelle ou pour en récupérer partout où on peut (y compris jusqu'à ceux prévus à usage vétérinaire) ; parallèlement, pour ce qui est du personnel, on forme en extrême urgence tous les médecins du pays, les étudiants en médecine, les infirmiers, et peut-être même jusqu'aux dentistes, pharmaciens et vétérinaires (pour gérer les cas les plus simples) à ce qu'il faut savoir pour traiter au mieux les cas modérés et laisser les plus graves aux plus spécialistes. On arrive ainsi à garder un taux de létalité pas beaucoup plus grand que 1% même avec un nombre gigantesque de malades en même temps. On relâche les mesures de confinement, l'épidémie repart, elle ne touche au final que 15%, et on s'en tire avec seulement 0.15% de morts. L'économie et la société sont très très durement secouées, mais finissent par s'en remettre.

Scénario B. On ne prend que des mesures de confinement modérées, pour ralentir l'épidémie sans pour autant chercher à la limiter. Néanmoins, les gens finissent par prendre peur et se confinent eux-mêmes dans une certaine mesure, et de plus, ils adoptent durablement une meilleure hygiène : ceci diminue le nombre de reproduction. De cette manière, seulement 10% de la population est touchée. Le système de soins est totalement submergé, on doit décider qui vit et qui meurt, le taux de létalité tourne autour de 3%, mais on (la société) finit par accepter que c'est un pêché d'orgueil que d'espérer sauver tout le monde. L'épidémie tue 0.3% de la population. Elle revient peut-être en une seconde vague parce que les changements des habitudes ne sont que temporaires, mais cette fois-là on est mieux préparés, on a peut-être un vaccin, ou peut-être effectué les préparations évoqués au scénario A. L'économie et la société s'en remettent. C'est le scénario le plus probable pour un retour à la « normale » assez rapide.

Scénario C₁. Le gouvernement prend des mesures de confinement sévères, l'épidémie régresse, mais la population se révolte et finit par décider qu'emprisonner tout le monde chez soi est pire que de voir mourir peut-être 1% de la population. On est ramené à un des scénarios précédents.

Scénario C₂. Le gouvernement prend des mesures de confinement sévères, l'épidémie finit par disparaître, il lève des mesures, l'épidémie repart immédiatement à partir de cas importés ou mal détectés, et la population finit par comprendre le dilemme et la suite est comme en C₁.

Scénario D. Le gouvernement commence par prendre des mesures de confinement sévères jusqu'à ce que l'épidémie disparaisse presque complètement, puis les relâche progressivement, deux semaines par deux semaines, en ayant les yeux rivés sur la vitesse à laquelle les nouveaux cas se multiplient. On finit par atteindre le niveau de confinement un peu réduit qui donne un nombre de reproduction du virus presque exactement égal à 1. La société doit s'habiter à vivre sans écoles, sans restaurants, sans musées, sans aucun lieu public, et à ce que tous les rassemblements soient interdits et que des policiers surveillent régulièrement le respect des distances de sécurité dans les rues et autres espaces publics, mais il n'est pas totalement interdit de sortir de chez soi (il y a peut-être des horaires ou des jours à respecter). Les transports en commun sont autorisés uniquement à condition du port d'une combinaison de protection, ou au minimum, d'un masque approprié, pour tous les usagers. L'économie s'effondre complètement mais finit par se retructurer autour d'autres pôles (encore plus d'importance étant donnée aux communications et au virtuel). Le nombre de morts de l'épidémie est extrêmement faible. On tombe dans un monde dystopien, mais on apprend à l'accepter et à vivre avec, et c'était le prix à payer pour sauver tous ces gens. (C'est le plus optimiste que j'arrive à trouver pour la piste ①. C'est la voie que semblent prendre la Chine, la Corée et d'autres.)

Scénario E. Un peu comme le scénario D, i.e., confinement un petit peu réduit, mais seulement le temps de développer un vaccin (mais du coup, il n'y a pas de restructuration de l'économie, ni d'acceptation de la nouvelle normalité, seulement un très très long moment à passer dans une société dystopienne).

Scénario F. Un peu comme le scénario D, i.e., confinement un petit peu réduit, mais à la différence que le nombre de reproduction est maintenu aussi proche que possible de 1 avec juste assez de malades à tout moment pour que le système de santé puisse les encaisser ; au bout d'assez longtemps, soit on a atteint un niveau d'immunité permettant de lever le confinement (progressivement), soit on trouve un vaccin et alors on retombe sur le scénario E.

Scénario G (ajout  : suggéré par « @/2 » en commentaire, un peu modifié/précisé par mes soins). Mesures de confinement énergiques donnant un pic épidémique à environ 1% de la population, ce qui produit une immunité grégaire dans certaines régions mais pas sur l'ensemble du territoire. Une fois l'épidémie disparue du pays (qui devra garder ses frontières extrêmement surveillées avec les voisins qui ne sont pas dans la même situation), on peut relâcher le confinement en étant prêts à faire du confinement local extrêmement agressif et du traçage de contacts à la moindre apparition d'un nouveau cas. La société apprend à vivre avec des bouclages réguliers de villes ou régions entières à cause de la détection d'un cas de Covid-19.

Scénario H (ajout  : suggéré par « jean » en commentaire, reformulé par mes soins). Comme le scénario G, mais en utilisant des tests extrêmement massifs en plus du traçage de contacts, comme solution temporaire en jusqu'au développement d'un vaccin, si on y arrive.

Voilà à peu près le tour de mes idées un tout petit peu optimistes. Si vous en avez d'autres, vous pouvez les poster en commentaire, ou écrire quel scénario vous paraît le plus désirable, d'une part, et le plus probable, d'autre part. (J'ai tendance à dire que A ou B est le plus désirable et que C₂ est le plus probable)

↑Entry #2642 [older| permalink|newer] / ↑Entrée #2642 [précédente| permalien|suivante] ↑

↓Entry #2641 [older| permalink|newer] / ↓Entrée #2641 [précédente| permalien|suivante] ↓

(samedi)

Je choisis Scylla, et je suis complètement terrifié

Je suis complètement terrifié. Je fonds en larmes régulièrement, je ne dors quasiment plus, ma digestion est complètement déréglée, et cela empire de jour en jour (même s'il y a des hauts et des bas : un moment j'arrive à lâcher prise, le moment suivant je repense à ce qui va arriver et l'angoisse me glace). Le poussinet et moi nous communiquons mutuellement notre peur et même l'amplifions parfois dans nos tentatives pour chercher du réconfort l'un auprès de l'autre en parlant de ce qui va arriver. Je n'ose pas trop aller vers mes autres amis pour ne pas déverser ma propre angoisse sur celle qu'ils peuvent déjà avoir (ou, s'ils ont la chance de ne pas en avoir, leur transmettre la mienne).

J'essaie de m'accrocher aux branches : je pense que la société ne va probablement pas s'effondrer (mais elle va être secouée comme elle ne l'a jamais été depuis la seconde guerre mondiale), et que je ne vais probablement pas mourir (en tout cas pas du virus, peut-être d'un paroxysme d'angoisse), mon poussinet non plus, et beaucoup de mes proches non plus. Donc ce n'est pas la fin du monde. Mais c'est indéniablement la pire crise de notre génération. Socialement, politiquement, psychologiquement, économiquement, il y aura un avant et un après Covid-19. Je ne sais pas ce qu'il restera des petits éléments confortables de ma vie quotidienne dans le monde d'après.

Est-ce que je peins le tableau trop noir ? Je ne sais pas. Peut-être que cette entrée de blog paraîtra grotesquement catastrophiste dans un an ou deux. Je prends sans hésiter le risque du ridicule, j'accueille même le ridicule à bras ouverts si les choses se déroulent moins mal que ce que je crains. Faites que je sois ridicule !, j'en serai tellement heureux. Faites que dans cinq ans je sois le premier à rire de mes prévisions d'apocalypse.

Écrire tout ceci me fait du mal, j'en suis conscient, donc je vais essayer que cette entrée-ci soit la dernière où je rumine sur le sujet. (Déjà j'ai hésité à commencer cet article de blog en me disant que je me faisais du mal au lieu de trouver la catharsis, et que je pouvais faire du mal à ceux qui me liraient.) Mais parler d'autre chose me semble tellement difficile, tellement futile, que je bloque complètement. Je vais peut-être mettre ce blog en pause, probablement me déconnecter de Twitter qui ne fait qu'alimenter ma terreur, je ne sais pas encore.

J'écrivais dans le billet précédent que je voyais deux pistes pour lutter contre une épidémie, un dilemme atroce entre deux options horribles, dilemme qui commence tout doucement à faire son chemin dans l'opinion, mais souvent en braquant le choix vers une seule de ces options présentée comme évidemment la bonne : or il n'y en a pas de bonne, les deux sont horribles, et la personne qui pense qu'on doit évidemment préférer celle-ci ou celle-là n'a (je pense) rien compris à la situation.

Les options sont : ① (contenir, qu'on pourrait aussi appeler le chêne), c'est-à-dire arrêter l'épidémie à tout prix, ou ② (gérer, le roseau), la ralentir mais en la laissant suivre son cours jusqu'à ce qu'elle s'arrête d'elle-même. Je renvoie à l'entrée précédente pour les explications plus détaillées notamment sur le concept d'immunité grégaire.

Les deux sont atroces. Gérer, cela signifie qu'une proportion significative de la population, peut-être 20% si on est optimiste (des gens disent 70% mais même moi qui panique je ne crois pas à ça comme je l'ai expliqué), sera infectée. Au bas mot 0.5% de ces gens mourront, c'est-à-dire 75 000 personnes en France. Mais en fait beaucoup plus, parce que ralentir cache une horrible vérité : si on ralentissait vraiment au point que le système de santé arrive à gérer sereinement les choses (comme le suggère le slogan Flatten The Curve), à supposer qu'on y arrive, cela prendrait de nombreuses années voire des décennies de blocage, et on retombe sur un autre nom pour l'autre solution, qui est de tout bloquer.

Contenir : tout bloquer, c'est-à-dire plus d'écoles, plus de transports en commun, plus de lieux de vie commune, plus de restaurants, cafés, cinémas, théâtres, plus aucune vie économique au-delà du minimum vital, comme en Italie en ce moment, et ce pendant un temps indéfini : jusqu'à trouver un vaccin, qu'on arrive à le produire et qu'on puisse le répandre au monde entier, au moins, ce dont on imagine difficilement que ça puisse prendre moins de deux ans, et peut-être indéfiniment parce que le vaccin n'est pas toujours techniquement possible. En attendant, vivre dans la terreur perpétuelle du fléau qui peut se faire réapparaître son affreux visage dès que le blocage est un peu desserré.

Gérer : ralentir certes un peu l'épidémie avec des fermetures partielles, mais en sachant que ça ne suffira jamais assez pour que le système de santé tienne le choc. Ce choc est tellement énorme qu'il est presque impossible à visualiser : si ~20% de la société doit être infectée, que 2.5% de ces infectés doivent passer en réanimation (j'estime à 50% les cas asymptomatiques, et je prends 5% des cas symptomatiques), cela fait 5000 personnes passant en réanimation pour chaque million d'habitant. Dans un pays raisonnablement bien équipé comme la France, il y a 75 lits de réanimation par million d'habitant : en réquisitionnant tout ce qui peut servir (salles de réveil, salles d'opération, vieux respirateurs ou appareils bricolés avec trois bouts de ficelle), on peut peut-être espérer passer à 150. Donc ~30 personnes à passer dans chaque lit+respirateur : s'il faut ne serait-ce qu'une semaine de réa par personne, ce qui semble très optimiste, cela fait 25 semaines : il faut lisser l'épidémie sur six mois, à supposer qu'on ait un contrôle si fin. Six mois encore pires que la crise actuelle en Italie, mais dans le pays tout entier — dans le monde entier. Ou bien trois mois d'une crise encore deux fois pire que ça, et seulement la moitié des malades trouveront un lit, les autres mourront sans soins, et les médecins devront choisir qui vit et qui meurt.

Ou bien sinon : le blocage complet qui ne pourra être levé qu'à la faveur de la découverte d'un vaccin providentiel.

Ces deux options sont glaçantes. Celui qui émet une préférence d'emblée, sans être horrifié par la monstruosité d'un tel choix, a complètement loupé le roman. (Encore une fois, je renvoie au billet précédent pour des explications plus précises sur pourquoi on doit faire ce choix.)

Je me suis torturé pour savoir laquelle me semblait la moins horrible, et je pense finalement que c'est de gérer (la ②). J'ajouterais la nuance : mobiliser absolument tous les moyens de l'État pour construire, fabriquer ou réquisitionner en un temps record, et peu importent les coûts, des hôpitaux préfabriqués, des lits de fortune (pour la France, il en faut des centaines de milliers), et des respirateurs de toute sorte (simples ventilateurs à oxygène en nombre énorme, des milliers voire dizaines de milliers de respirateurs avec intubation, et des centaines ou milliers d'appareils à oxygénation par membrane extra-corporelle). Et former absolument tous les personnels en rapport avec la médecine (au moins tous les médecins de toutes les spécialités, et tous les infirmiers) à l'utilisation de ces machines, pour que les anesthésistes-réanimateurs puissent se concentrer sur la supervision et la gestion des cas les plus complexes. Éventuellement appliquer la solution ① un mois ou deux le temps d'arriver à faire ça. Si tout ceci semble de l'ordre du ridiculement impossible (et je le pense), c'est dire l'ampleur de la montagne qu'il s'agit d'aplatir.

Sérieusement, il ne faut plus rêver aux 0.5% de taux de mortalité (1% des cas symptomatiques) : lorsque les hôpitaux seront débordés, cela sera plutôt 3% (soit 6% des cas symptomatiques). Donc, dans cette option, 3% de 20% de la population, mettons 0.5%, mourra — 350 000 personnes pour la France. Je sais que mes chiffres sont complètement sortis de mon chapeau (j'aurais pu dire le double), mais ils sont plausibles : ils donnent une idée des ordres de grandeur, ils permettent de se faire une idée de la catastrophe qui nous attend (et de nouveau, Angela Merkel s'est montrée encore plus pessimiste en évoquant 70%). Avec un pic à peut-être autour de 25 000 morts en une journée. Les mots manquent.

Je pense pourtant (et de nouveau c'est un choix atroce et ce n'est pas la peine de me rappeler à quel point il l'est) que c'est préférable à la fermeture des écoles et tous autres lieux de vie publique possiblement à perpétuité. Je pense que l'option ① maintenue trop longtemps n'aurait pas juste un coût économique et social tellement important qu'elle entraînerait indirectement la mort de plus d'individus encore, mais qu'elle conduirait à la transformation de la société en une dystopie post-apocalyptique, ou peut-être l'effondrement complet de toutes ses structures. C'est donc avec la plus grande horreur que, si j'étais chef d'État (et je n'ai jamais été aussi heureux de ne pas l'être), je choisirais l'option ②, gérer, avec la nuance que j'ai donnée ci-dessus qu'il faut quand même ralentir autant que possible même si ça ne suffira jamais, et chercher tous les moyens possibles pour augmenter les moyens qui seront toujours ridiculement insuffisants du système de soins.

Je crois comprendre qu'Emmanuel Macron a fait ce choix. Boris Johnson l'a fait de façon tout à fait claire, sa conférence de presse évoque explicitement l'immunité grégaire, et suggère une variante assez dure de l'option ②. Angela Merkel en évoquant le chiffre de 70% (pessimiste selon moi, je le répète) fait clairement référence à cette même option. Cela me fait le plus grand mal à écrire, mais je pense qu'ils ont raison (au moins sur l'idée générale). La Chine, mais même la Corée du Sud, sont dans l'impasse maintenant qu'elles ont choisi ①, et j'ai très peur de ce qui va leur arriver (même pour la Chine, ça peut être un instrument de contrôle entre les mains du pouvoir, mais ne plus pouvoir mettre les enfants à l'école est très très embêtant).

Mais ce dont j'ai encore plus peur, c'est du yoyo entre les choix. L'opinion publique a le plus grand mal à comprendre le dilemme : les gens disent regardez la Corée, l'épidémie régresse : pourquoi on ne peut pas faire pareil ? (eh oui, c'est vraiment difficile d'expliquer les choses). L'OMS elle-même a appelé à suivre l'option ① (probablement parce que ce sont des médecins avant tout, donc ils font passer la lutte contre la maladie en premier). On ne peut vraiment pas qualifier un des choix d'idiot. Mais une fois qu'on en a fait un, il faut s'y tenir : que va faire l'Italie maintenant ? L'épidémie va se tasser, et ensuite ? Si le bouclage sert à rétablir un petit peu d'ordre dans le système de santé, admettons : mais, sauf dans les toutes petites régions géographiques les plus touchées, le chemin parcouru vers un espoir d'immunité grégaire est encore minuscule par rapport au chemin restant à accomplir (c'est vraiment terrifiant), donc il n'y a que deux options, continuer en se disant que ce sera encore bien pire, ou s'arrêter et tous ces morts auront été en vain. (Parce que si on voulait vraiment suivre l'option ①, il fallait implémenter un bouclage complet du pays déjà il y a un mois, en se rendant bien compte que c'est peut-être pour toujours.)

Beaucoup de voix qualifient déjà de criminel le choix de gérer. L'homme politique qui le fait doit se rendre compte que sa carrière est terminée : on ne lui pardonnera jamais, ou peut-être seulement avec le recul de nombreuses années, d'avoir laissé mourir 0.5% de sa population, la propriété des dilemmes horribles est que le choix qu'on a fait semble toujours le mauvais puisqu'on n'a pas les horreurs de l'autre sous les yeux.

Bref, j'ai peur que, face à la révolte inévitable de l'opinion (qui crie qu'on sacrifie des vies à l'économie, ou qu'on joue à une horrible expérience scientifique sur un concept incertain), le choix effectué se transforme en regret, et qu'il y ait volte-face comme ça a peut-être été le cas en Italie. Et là on aura, en quelque sorte, le pire des deux options. (Mieux vaudrait une volte-face dans l'autre sens : prendre ① jusqu'à ce que l'opinion publique réclame la levée du blocage, auquel point elle sera peut-être prête à accepter ②.)

(Un blocage très bien ciblé dans le temps, juste au moment du pic de la pandémie, ce qui signifie qu'il faut prévoir ce dernier une douzaine de jours à l'avance, peut en revanche avoir un sens, parce que dès qu'on a franchi le seuil d'immunité grégaire on peut travailler à arrêter activement la pandémie. De même pour un blocage ciblé dans l'espace quand il y a des inégalités entre régions : concernant l'Italie, je comprends le principe d'une fermeture complète dans les provinces les plus durement touchées, parce que celles-ci ont possiblement atteint le point d'immunité grégaire, ou pourront l'atteindre en un temps raisonnable, mais le bouclage du pays entier est une volte-face.)

Comme je l'ai dit plus haut, je n'en dors plus (et je ne sais pas comment Macron, Johnson, Merkel et les autres, peuvent dormir en ce moment !).

Ça pourrait presque sembler préférable d'être complètement démunis : dans une société qui n'aurait ni les moyens d'implémenter un blocage sérieux, ni de système de soins digne de ce nom qui puisse se retrouver débordé, la question est vite vue : l'épidémie sera arrêtée par l'immunité, il n'y a pas de dilemme, juste beaucoup de morts. C'est comme ça que les grandes pandémies ont toujours fonctionné, jusqu'à celle de grippe en 1918 dont l'horreur est tout simplement inconcevable. Gérer, c'est reconnaître qu'on ne peut rien contre la nature déchaînée, on peut juste atténuer un peu le coup et pleurer d'envoyer ainsi les médecins au casse-pipe avec les moyens dérisoires dont on dispose. (Je l'ai déjà dit, mais dimensionner le système de soins pour pouvoir faire face à une telle crise signifierait avoir des lits vides à 90% en attendant la prochaine pandémie dont on ne sait pas quelle forme elle prendra : ce n'est pas un problème de moyens, même si plus de moyens auraient évidemment été souhaitables et que l'indigence de l'Hôpital public rende le combat plus dérisoire encore.)

Lâcher prise, donc, pour la société. Admettre que les médecins vont vivre le pire des enfers pendant quelques mois, et que le reste de la société se devra d'arriver à fonctionner comme elle peut, encaisser, avec la grande majorité des gens qui ne seront que très peu malades. (C'est vraiment ça qui est si étrange dans cette maladie, l'écart entre une majorité de cas complètement banals et un tout petit nombre de cas très graves, mais ce petit nombre suffisant déjà à submerger le système de santés.)

Il faut moi aussi que j'apprenne à lâcher prise sur ce sur quoi je n'ai aucun contrôle, et que j'arrête d'écrire des textes comme celui-ci, que je trouve le moyen de retrouver le sommeil et de continuer à vivre aussi normalement que je pourrai malgré l'hécatombe qui frappera forcément assez près de moi, voire très près, et malgré le bouleversement de tous mes repères familiers, les petits éléments de ma vie d'avant, les petits plaisirs comme le brunch dominical du bobo que je suis, petit élément d'une vie passée qui me semble maintenant tellement lointain et tellement futile. (Lâcher prise aussi sur le fait que je n'arriverai jamais à faire comprendre le dilemme à ceux qui ont décidé que telle ou telle option était évidemment la seule valable, même si mes petits textes peuvent aider un tout petit peu.)

J'ai pris rendez-vous chez un psychiatre pour voir s'il peut m'aider au moins à retrouver un semblant de sommeil et d'appétit. Je vais essayer de me trouver une hygiène de vie dans ce monde nouveau où je ne comprends pas ce que je fais. Je vais essayer de me laisser porter par ce courant qui m'emporte sans que je puisse m'y opposer.

Écrire cette entrée m'a fait verser assez de larmes : j'arrête. Tous mes vœux de courage et de force à tous les habitants de la Terre pour les mois qui viennent, et particulièrement aux médecins, aux infirmiers et tous ceux qui seront en première ligne dans un combat vraiment héroïque.

↑Entry #2641 [older| permalink|newer] / ↑Entrée #2641 [précédente| permalien|suivante] ↑

↓Entry #2640 [older| permalink|newer] / ↓Entrée #2640 [précédente| permalien|suivante] ↓

(mercredi)

Deux approches pour lutter contre une épidémie (contenir ou gérer : Charybde et Scylla)

Je ne sais pas pourquoi, en ce moment, l'épidémiologie intéresse plein de gens, alors je reviens à la charge en reproduisant (en français et en plus développé) un fil que j'ai écrit sur Twitter (ici sur Thread Reader). J'écrirai encore au moins une entrée pour parler de combien mon moral va très mal à cause de (mais pas uniquement de) cette histoire, mais comme une partie de ça vient de la constatation que « nous » avons le choix entre deux options absolument atroces, il faut que j'explique ce que sont ces deux options, telles que je les vois, pour faire face à une épidémie. (Pour ce que ça vaut, il y aura très peu de maths dans ce qui suit, contrairement à l'entrée précédente qui présupposait que le lecteur comprend ce qu'est une équation différentielle.) Peut-être que ça me fait du mal de me torturer à penser à ce genre de choses, mais je n'arrive vraiment pas à me distraire et ça a quand même un côté cathartique. (Mais si vous avez quelques remarques ne serait-ce qu'un peu optimistes à écrire en commentaires, elles seront les bienvenues, surtout si c'est pour me dire que je me trompe complètement.)

Voilà, c'est une idée que j'ai eu du mal à comprendre et qui est donc mal, voire pas du tout, reflétée dans les deux-trois dernières entrées autour de Covid-19 : l'idée qu'il y a deux principales approches pour gérer une épidémie. Je vous préviens qu'aucune des deux n'est réjouissante, et il s'agit de choisir entre deux maux quel est le moindre (ou éventuellement de faire un compromis entre les deux, mais il est possible que le compromis donne le pire des deux sur tous les plans ; ou éventuellement de chercher à faire l'une et d'échouer et de retomber sur l'autre en encore plus mal : ne négligeons pas les possibilités que ça se passe encore pire que prévu). Ces deux stratégies sont :

  1. ① (contenir) l'arrêter à tout prix, ou
  2. ② (gérer) la ralentir mais la laisser suivre son cours jusqu'à ce que l'immunité de la population la rende stabilisable.

De quoi s'agit-il ? Dans une population donnée (selon les comportements sociaux et individuels de la population et selon la nature et le mode de transmission de l'agent infectieux), l'infection a un certain nombre de reproduction (noté R, même si j'ai utilisé κ dans l'entrée précédente), qui est le nombre de personnes que chaque personne infectée infecte à son tour ; plus exactement, il y a un nombre « basique » de reproduction, R₀, c'est-à-dire si on ne fait rien de particulier pour retenir ou contrôler l'infection, et un nombre effectif en fonction de ce qu'on a fait, de l'immunité déjà installée, et de toutes sortes d'autres choses.

Si le nombre de reproduction est >1, chaque personne infectée en infecte plus qu'une, et le nombre de personnes infectées croît exponentiellement (ce qui ne veut pas dire que ça aille très vite : une infection qui durerait toute la vie mais où chaque personne infectée en contaminerait en moyenne une nouvelle tous les dix ans aurait un nombre de reproduction très élevé, mais l'exponentielle serait quand même lente : il n'empêche). Une croissance exponentielle ne peut pas durer indéfiniment si la population est finie : le nombre effectif de reproduction va forcément finir par tomber. Qu'est-ce qui fait qu'il diminue ?

Ce qui le fait baisser, ça peut être que les gens changent de comportement : le nombre de reproduction ne dépend pas que de l'infection mais aussi de comment les gens se comportent : si chacun reste cloîtré chez soi et ne rentre en contact avec personne sauf en portant une combinaison hazmat, le nombre de reproduction sera essentiellement zéro. Mais ça peut aussi être l'immunité : dans beaucoup d'infections, les personnes qui ont contracté l'infection, une fois guéries, deviennent immunes, et ne la reproduisent pas. Ça peut aussi être la mort, qui est une immunité ultime (encore que, certaines infections peuvent se transmettre par les cadavres, mais a priori on s'intéresse plutôt à la propagation d'une infection dans la population vivante). Je vais faire l'hypothèse que les personnes infectées et guéries sont immunes (ou au moins le sont en grande partie, et de façon assez durable ; ce n'est peut-être pas parfaitement vrai dans le cas de Covid-19, mais j'ai cru comprendre que les virologues pensaient quand même que ça restait au moins très largement vrai). Grosso modo, les deux stratégies s'appuient ① surtout sur le changement des comportements et ② surtout sur l'immunité mais temporairement sur le changement des comportements.

Le point clé à propos de l'immunité, ce n'est pas juste que les personnes immunisées n'attrapent pas la maladie : c'est surtout que les personnes immunisées ne transmettent pas la maladie. Donc en faisant l'hypothèse qu'une personne guérie est immunisée, elle est effectivement retirée de la population, pas seulement en tant que potentiel d'infection mais en tant que vecteur d'infection : l'infection détruit ses propres ponts, et les liens qu'elle peut utiliser pour se propager décroissent avec sa progression, ce qui, fatalement, la ralentit, c'est-à-dire, diminue son nombre de reproduction.

Plus la proportion de personnes rétablies est élevée, plus le nombre de reproduction sera bas à cause de l'immunité (cette baisse se cumule, bien sûr, à celle due à un éventuel changement des comportements, par exemple si les gens prennent peur et restent chez eux ou sont confinés par les autorités !).

Il existe une valeur critique du nombre de personnes immunes au-dessus de laquelle le nombre effectif de reproduction de l'épidémie passe en-dessous de 1, c'est-à-dire qu'elle commence à s'éteindre.

Ce seuil critique de population immune est celui qui détermine l'immunité grégaire : il n'est pas nécessaire que tout le monde soit immunisé pour que l'infection ne puisse pas progresser exponentiellement, il faut juste qu'une certaine fraction critique le soit.

Mais que vaut ce seuil à partir duquel il y a immunité grégaire et non-propagation de l'épidémie ? C'est, évidemment, la question que tout le monde se pose. Ce qui est sûr c'est que ça dépend hautement du nombre de reproduction.

Dans le modèle le plus simpliste, celui d'une population homogène avec des contacts aléatoires, le seuil à partir duquel se produit l'immunité grégaire vaut 1 − (1/R₀) où R₀ est le nombre basique de reproduction (c'est-à-dire 100% − (100%/R₀) pour ceux qui ont du mal avec les nombres entre 0 et 1 et qui préfèrent les pourcentages ; oui, j'avais promis pas de maths, mais là, quand même…). Donc par exemple si R₀ vaut environ 3 ça donnerait environ 2/3 ou ~65%. J'ai expliqué pourquoi dans le 2e paragraphe (mis en exergue) dans l'entrée précédente (et qui est indépendant du reste de celle-ci avec lequel elle n'a pas grand rapport).

Dans la réalité, le vrai nombre est certainement beaucoup plus petit (il n'y a pas besoin d'immuniser les 2/3 de la population pour qu'une épidémie dont le nombre effectif de reproduction d'une épidémie avec R₀=3 cesse de se propager). La raison est essentiellement à chercher dans la nature du graphe des contacts humains qui n'est pas du tout aléatoire mais hautement structuré (les personnes que vous renconterez aujourd'hui et avec qui vous avez une chance d'échanger une infection ne sont pas du tout des personnes aléatoires parmi la population humaine mais ont des chances d'être, au moins, très majoritairement du même pays). Il y a deux sous-raisons dont je n'ai pas les idées totalement claires sur si c'est deux facettes de la même ou deux raisons différentes : la première, c'est (a) que quand on retire une proportion suffisamment élevées de sommets d'un graphe (en l'occurrence celui des contacts humains), il cesse de « percoler », c'est-à-dire qu'on ne peut plus passer d'un sommet à un autre.

Pour la deuxième sous-raison, il faut évoquer le fait que l'immunité grégaire, en fait, ne dépend pas seulement du nombre de personnes immunes mais de la manière dont elles sont réparties dans la population : si une personne totalement isolée de tout le monde attrape l'infection par un coup de malchance invraisemblable, le fait qu'elle devienne immune ne nous aide pas beaucoup. Mais justement, ça tombe bien, (b) les infections ont tendance à infecter en premier les personnes qui sont hautement connectées dans le graphe, et en les rendant immunes, elle neutralise en premier les liens qui lui permettaient le plus facilement de se propager. Autrement dit, les premières personnes à être rendues immunes (quand c'est la propagation de l'épidémie elle-même qui confère l'immunité, et pas un vaccin appliqué à une certaine partie de la population) ne sont pas des personnes au hasard, ce sont justement les personnes dont l'immunité est la plus précieuse pour tout le monde.

À titre d'exemple si j'ai bien compris (et en petits caractères parce que ce sont des maths), si je suppose que la population est un réseau carré (plan) infini et que chaque personne infectée transmet l'infection à coup sûr à ses quatre voisins, le nombre de reproduction au tout début de l'épidémie vaut 4. Pourtant, (a) il faut retirer en gros 41% des nœuds du réseau et pas 3/4 pour qu'il cesse de percoler, c'est-à-dire qu'en vaccinant 41% de la population on empêcherait celle-ci de se propager loin, et (b) dès que l'épidémie elle-même se propage, son nombre de reproduction chute de façon vertigineuse, puisque la croissance n'est pas exponentielle, elle est seulement linéaire (on a un losange de carrés infectés faisant la frontière entre son intérieur formé de personnes rétablies et l'extérieur encore susceptible, et ce qui compte est le périmètre du losange, comme on me l'a fait remarquer).

Bref, à quel seuil critique faut-il s'attendre pour un R₀ valant environ 3 ? Je n'en sais rien, mais clairement moins que les ~70% prédits par la formule simpliste 1 − 1/R. Des épidémies passées avec des R₀ comparables ont touché « seulement » autour de 20% ou 30% de la population mondiale, donc c'est un chiffre plausible. Mais il ne faut pas s'attendre à beaucoup moins. Certainement pas moins que quelques pourcents.

Je souligne que ce seuil critique permettant le déclenchement de l'immunité grégaire n'est pas la même chose que la proportion des personnes qui seraient finalement infectées (= le taux d'attaque final) si on laisse l'infection complètement incontrôlée : ce dernier est plus élevé (j'ai calculé 94% dans l'entrée précédente avec un modèle simpliste pour R₀=3), parce que quand l'infection dépasse le seuil critique (son nombre de reproduction devient <1), elle ne s'arrête pas instantanément, il y a toujours des gens infectés, qui vont en infecter d'autres (mais un peu moins), et à leur tour d'autres (encore un peu moins), etc. C'est juste que les choses sont en phase de ralentissement. Le seuil critique n'est donc pas le taux d'attaque final, il est le taux d'attaque à partir duquel il devient stable d'arrêter l'épidémie : s'il reste des gens infectées, ce n'est pas grave, elles en infecteront un peu moins (faute de personnes susceptibles à contaminer), puis un peu moins, et ainsi de suite. Mais le seuil critique est le nombre vraiment important : il sépare la région où l'infection peut être contrôlée facilement de celle où tout cas aura tendance à partir en croissance exponentielle.

Donc, tant que le seuil critique d'immunité grégaire n'est pas atteint, contenir une épidémie sera terriblement difficile. Soit il faut détecter immédiatement chaque cas avant qu'il en contamine d'autres, soit il faut faire des changements importants aux comportements, habitudes ou structure sociale. Cela peut être par des mesures individuelles (combien de personnes on fréquente en une journée, quels contacts physiques on a avec eux, comment on se lave les mains, etc.) ou collectives (fermeture des écoles et des lieux publics, interdictions de rassemblements et réunions de groupes, restrictions sur les déplacements, etc.). Retenons que si le nombre de reproduction est de ~3 à la base, il « suffit » que chacun ait trois fois moins de contacts infectieux dans une journée pour qu'il passe en-dessous de 1 : par exemple, cela pourrait être ~1.5 fois moins de contacts et que la probabilité que chacun soit soit infectieux soit ~2 fois plus faible. Il ne faut pas se dire que le nombre de reproduction est une donnée de la maladie : c'est une donnée de la société dans laquelle elle s'inscrit. Le problème, bien sûr, c'est que changer la société est très difficile, et que les mesures de type fermeture des écoles et des lieux publics ont un coût social énorme.

Tout ceci étant dit, quelles sont les deux stratégies ?

La ① consiste à ne pas compter sur l'immunité. Faire baisser le nombre de reproduction en changeant les comportements, y compris par des mesures draconiennes d'ordre public (fermeture des lieux publics, interdiction des rassemblements, etc.), jusqu'à ce que ce nombre de reproduction soit nettement inférieur à 1, si bien que l'épidémie s'éteint. Le gros problème c'est que c'est instable : si on relâche ces mesures, le nombre de reproduction redevient >1 (on n'a fait que le diminuer artificiellement, donc temporairement), donc dès qu'il y a quelques personnes infectées, la croissance exponentielle repart. On risque donc de devoir appliquer ces mesures à perpétuité, parce qu'on découvrirait que dès qu'on les relâche, l'épidémie repart. (Bien sûr, on peut les rendre un peu moins draconiennes, il suffit de viser un nombre de reproduction légèrement inférieur à 1, voire légèrement supérieur en étant en état d'alerte pour redéployer les mesures dès qu'on détecte de nouveaux cas ; mais passer en-dessous de 1 demande probablement déjà des mesures assez sévères si la valeur normale est 3.) Avec cette technique, on ne résout jamais le problème sous-jacent à moins qu'il n'y ait plus une seule personne contaminée sur Terre, et ça, dans le cas de Covid-19, je pense qu'on a largement dépassé le point où on peut l'espérer. Au strict minimum, on doit maintenir les mesures jusqu'à ce que la pandémie soit en net déclin sur toute la Terre, et les avoir les mesures perpétuellement prêtes à être dégainées à la moindre résurgence dans le pays. Et là il faut considérer le coût social et économique de fermer les transports en commun, les écoles, les universités, tous les lieux de vie, etc., pendant une période qui pourrait s'étaler sur des mois, des années, ou à perpétuité (ou au minimum, revenir régulièrement et imprévisiblement).

La stratégie ② est un compromis entre ① et ne rien faire, jusqu'à ce que l'épidémie s'éteigne d'elle-même par immunité grégaire (ce qui est, après tout, la stratégie naturelle, si j'ose dire). L'idée est de laisser l'épidémie contaminer des gens, mais essayer de la rendre gérable : c'est-à-dire, le plus important, la ralentir, idéalement au point de laisser le système de soins arriver à traiter un peu les malades sans être complètement débordé par leur afflux. L'idée, donc, n'est pas d'éradiquer l'infection (et reconnaître qu'on n'y arrivera pas) mais de chercher à atteindre le seuil critique de l'immunité grégaire, après quoi on peut la contenir de façon stable. Le slogan dont on parle en ce moment, c'est Flatten The Curve (voyez le graphique sur ce tweet, il aide vraiment à comprendre) : applatir la courbe, lisser le pic, rendre l'épidémie gérable en l'étalant dans le temps sans pour autant l'arrêter complètement ; appuyer sur ralentir mais pas sur pause. En plus de ça, on peut espérer contrôler dans une certaine mesure qui est infecté, prendre des mesures qui protègent plus les personnes vulnérables (par exemple en fermant complètement les établissements pour personnes âgées jusqu'à ce qu'assez des autres aient été infectés pour qu'ils les protègent par leur propre immunité).

Mais il faut bien noter dans cette stratégie ② qu'on laisse des gens se faire infecter : pas directement, bien sûr, mais en ne prenant délibérément pas les mesures les plus draconiennes qu'on pourrait prendre, ce qui serait la stratégie ①.

Bref, ① = frapper le plus fort possible, rendre le nombre effectif de reproduction aussi petit que possible, et espérer arrêter complètement l'épidémie, mais se retrouver dans un état instable, tandis que ② = frapper juste assez fort possible pour que le système de santé puisse gérer, maintenir le nombre de reproduction proche de 1, et atteindre un état stable protecteur.

Les deux ne s'opposent pas toujours : si (et tant qu')on a un nombre de reproduction élevé, et si le système de santé se laisse complètement déborder, chose qu'il faut anticiper en se rappelant que l'épidémie est en train de croître exponentiellement et que toute mesure qu'on peut prendre n'aura effet qu'au mieux un temps d'incubation plus tard, les stratégies ① et ② imposent toutes les deux de prendre des mesures fortes de prévention de la contagion. La différence apparaît vraiment une fois qu'on découvre qu'on est effectivement capable de réduire le nombre de reproduction au-dessous de 1 (si on n'y arrive pas du tout, le dilemme est clos : on fait tout ce qu'on peut, l'épidémie passe et il y a beaucoup de morts, mais au moins on n'avait pas de dilemme moral à se poser !).

Bon, ces deux stratégies étant posées, laquelle est la meilleure ? Franchement, je n'en sais rien. (J'étais persuadé que ② était mieux, maintenant que j'ai regardé les chiffres de plus près, je n'en sais plus rien, je suis vraiment terrifié.) L'avenir est vraiment très sombre dans les deux cas. Mais je pense qu'il est important de les exposer clairement.

La stratégie ① a permis d'arrêter le SRAS (version 1), qui était significativement plus létal que Covid-19. (On peut dire que l'Humanité l'a échappé belle, je crois qu'on a trop peu conscience de combien de centaines de millions de vies auraient pu y passer, avec peut-être à la clé l'effondrement complet de la civilisation.) Mais le SRAS avait des caractéristiques (en ce qui concerne les symptômes, leur reconnaissabilité, la période d'incubation) qui permettait de le traquer plus facilement que son petit cousin, et même comme ça, ça n'a vraiment pas été facile.

La Chine a clairement choisi la stratégie ① dans sa lutte contre Covid-19, et a montré que c'était possible. La Corée du Sud semble montrer que c'est possible même dans le cadre d'une société démocratique (mais au prix de moyens énormes et passablement dystopiques eux aussi, quoique différemment de ce qu'a fait la Chine). Hong Kong, Taïwan et Singapour suggèrent eux aussi que ① est possible (avec cette fois-ci plutôt l'idée d'empêcher l'épidémie de prendre pied plutôt que de l'arrêter une fois qu'elle s'est déjà développée, c'est plus facile mais même pour ça il faut des mesures énergiques dont on se demande si elles pourront jamais être levées) ; je ne suis pas sûr de comprendre ce qui se passe au Japon, mais c'est sans doute semblable. La plupart de ces pays ont l'expérience du SRAS version 1 et misent sans doute sur la stratégie qui a permis d'y mettre fin. Mais voilà, la Chine semble se rendre compte maintenant qu'elle s'est coincée dans un cul-de-sac et ne sait pas comment redémarrer son appareil productif, comment lever les restrictions, sans que les efforts aient été vains. Combien de temps peut-on maintenir tout le pays à l'arrêt ? Combien cela coûte-t-il en termes de vies humaines ?

Peut-être que l'option ② est préférable, alors ? (Ou peut-être simplement qu'on échoue à mener ① et qu'on fait du mieux qu'on peut.) Je m'étais convaincu de ça, mais je me rends compte que la réalité de l'option ② est elle aussi horrible. Le slogan Flatten The Curve a l'air sympa jusqu'à ce qu'on se rende compte que la courbe doit être tellement étalée que l'option ② commence à ne pas être très différente de l'option ① si on ne veut pas sacrifier beaucoup beaucoup de vies.

Le problème est que pour rendre l'épidémie gérable, il faut atteindre le seuil critique que j'ai évoqué plus haut, et qui est peut-être de 20%. Ceci est un chiffre complètement sorti de mon chapeau, personne n'en sait rien, mais il est au moins vaguement plausible : en tout cas, on n'aura pas d'immunité intéressante avant au minimum une poignée de pourcents.

Or là on se rend compte que l'Italie croule sous la charge de l'infection dans son système de santé (pourtant moderne et raisonnablement bien équipé) alors que 0.02% de sa population est répertoriée comme infectée. À peine un cinquantième d'un pourcent. Alors je vous laisse réfléchir au temps qu'il faudrait pour atteindre 20% d'infectés en ne dépassant pas 0.02% pendant un mois : on n'est pas en train de lisser le pic, là, on est en train d'essayer de faire passer le Mont Everest sous un trou de souris.

Bon, il faut un peu nuancer la gravité de ce chiffre : d'abord, les cas répertoriés en Italie ne sont que les cas les plus graves, il y a beaucoup beaucoup d'infectés, une grande majorité, même, qui passent complètement sous le radar parce qu'ils sont asymptomatiques ou juste bénins et non comptabilisés. Sur la base de 800 morts, on peut estimer qu'il y a plus près de 80 000 cas que des 12 000 recensés, voire 150 000 infections y compris les asymptomatiques (or ce qui compte est plutôt le nombre de personnes infectées que de cas cliniquement manifestes) : donc on atteint plutôt 0.25% de la population italienne ; et en fait, il faut diviser par la population des régions les plus sévèrement touchées, voire des provinces ou disticts hospitaliers (quel que soit le bon terme). Peut-être qu'on atteint 1% ou plus. Il serait important d'essayer de savoir précisément : si quelqu'un (préférablement comprenant bien l'italien) peut essayer de trouver des chiffres précis ce serait intéressant. Mais bon, même en admettant que ce soit 1% et que les hospitalisations durent autour d'un mois, et qu'on veut atteindre 20% d'infectés, si on maintient l'infection à ce niveau-là, il faut imaginer que tous les hôpitaux du pays soient à ce stade de débordement. Pendant vingt mois. Tout en maintenant les mesures de confinement à un niveau suffisant pour empêcher l'épidémie de s'emballer, bien sûr (même si contrairement à l'option ① elles pourront progressivement être levées parce qu'au fur et à mesure que l'immunité progresse l'infection devient plus facile à contrôler). C'est gigantesque. Et c'est terrifiant.

Le problème est que nos systèmes de soins ne sont tout simplement pas dimensionnés pour des épidémies d'une telle ampleur (l'ampleur étant ici la proportion des cas qui nécessitent une hospitalisation ou, surtout, un passage prolongé en respiration artificielle). Le ~1% de létalité du Covid-19 ne serait pas franchement terrifiant à lui tout seul : ce qui l'est, c'est les ~5% qui ont besoin de soins intensifs et très lourds alors que le système de santé n'est tout simplement pas prévu pour une épidémie touchant une proportion significative de la population et nécessitant de tels soins. Je lis qu'il y a en France 75 lits de réanimation par million habitants (j'avais fait une erreur de division dans un commentaire en écrivant 7, ce qui rendait la chose encore plus désespérée, mais on va voir que même avec 75 le compte est très loin d'y être ; bien sûr, quand on parle de lits, je pense que ce qui importe, en fait, c'est le nombre de respirateurs) : je ne sais pas combien de temps les 5% des personnes ayant besoin de respiration artificielle en ont besoin en moyenne : apparemment ceux qui décèdent passent typiquement jusqu'à un mois en soins intensifs, mais je ne connais pas la typologie précise, et je suppose que certaines personnes étiquetées critiques passent nettement moins qu'un mois intubés. Néanmoins, si ne serait-ce que 1% de la population est infectée à un moment donné et que 5% de ceux-ci ont besoin de soins intensifs, c'est plutôt dans les 500 par million qu'on va chercher. Et quelque chose me laisse soupçonner que les 75 lits par million qu'a la France ne sont pas tous vides et tout prêts à recevoir les malades !

Je ne parle même pas des ~15% qui ont besoin d'une hospitalisation n'allant pas jusqu'aux soins intensifs : il me semble que la situation est légèrement moins critique à leur sujet, mais légèrement moins critique ne signifie pas que tout est rose pour autant.

On peut critiquer le manque de moyens de l'Hôpital public, et je suis le premier à signer ces critiques, mais face à une demande d'une telle ampleur, ce n'est plus tellement le manque de moyens qui est en cause : à moins d'imaginer un système hospitalier qui serait ~10× plus grand, avec des lits 90% vides et des médecins passant 90% de leur temps à se tourner les pouces en attendant que vienne l'épidémie du siècle, je ne vois pas comment on peut faire face.

Donc lisser la courbe jusqu'à rendre le système de santé capable de gérer la crise, ça commence à ressembler beaucoup à l'option ①. Ou disons, les deux commencent à ressembler à la solution pourrie se terrer dans un trou en espérant un miracle, sous la forme d'un vaccin, d'une thérapie symptomatique fulgurante, ou d'une construction en temps record de respirateurs (après, je ne sais pas juger : peut-être qu'en fait la chloroquine ça marche vraiment, après tout ; ou peut-être que les vétos ont des tonnes de respirateurs qui peuvent servir sur des humains quitte à signer la bonne paperasse ou bien qu'il y a moyen d'en bricoler trente-cinq mille en un mois avec trente-cinq mille fois trois bouts de ficelle).

Ajout : voir cependant une entrée ultérieure pour un petit espoir que la situation soit moins grave que prévue parce qu'on serait passés à côté d'un nombre gigantesque de cas.

À l'inverse, on peut pousser l'option ② plus loin (je ne sais pas s'il faut appeler ça ③ ou juste l'extrême de ②) en disant tant pis, il faut que l'épidémie passe : on va la ralentir comme on pourra, placarder encore plus fort le message qu'il faut se laver les mains, mais pas au prix de boucler complètement le pays de façon durable ; le système de soins sera complètement submergé, mais on va quand même lui donner un facteur 2 ou 3 de répit par rapport à si on ne faisait absolument rien pour contrôler l'épidémie, et il sauvera bien quelques vies. À ce compte-là, il faut réévaluer la létalité du Covid-19 à plutôt 5% que 1% (des cas cliniquement manifestes, cela fait peut-être 2.5% plutôt que 0.5% de toutes les infections), et donc compter sur un taux de mortalité final de ~0.5% de la population (si le taux d'attaque est de 20%). C'est-à-dire peut-être 350 000 morts en France en l'espace de quelques mois (contre peut-être 70 000 si le système de santé tient le coup).

Voilà le choix horrible devant lequel « nous » sommes. Enfin, devant lequel sont nos responsables politiques, dont j'espère au moins qu'ils ont conscience (et qu'on leur a clairement expliqué) de ce que sont ces deux options, sous une forme ou une autre. Je suis vraiment soulagé de ne pas avoir moi-même à faire ce choix, et de ne pas avoir la certitude que, quel que soit la route qui sera prise, elle leur sera lourdement reprochée parce que le chemin non suivi a toujours l'air plus rose (ou du moins, moins noir). Moi-même je ne sais vraiment pas ce que je souhaiterais ou quel est le moins pire. Quant à savoir ce qui va se passer, je parie plutôt sur l'option ② sous une forme assez dure (proche du ③ que j'évoque) : le fait que l'Italie ait laissé les choses aller jusque là avant de réagir (j'espère qu'ils étaient conscients que la réaction prendrait une bonne semaine à faire effet, et qu'ils savent extrapoler une exponentielle), que la France refuse encore de fermer les écoles, et qu'Angela Merkel ait avancé le chiffre de 70% de personnes finalement infectées (taux d'attaque qui, je le répète, est sans doute surestimé, mais qui donne une idée du scénario qu'elle a en tête et qui implique le décès d'au moins 300 000 personnes en Allemagne), tous ces éléments me le laissent plutôt penser. Aux États-Unis c'est encore plus clair : je ne sais même pas s'il est constitutionnellement possible d'y prendre des mesures restrictives comme en Italie, mais de toute façon l'accès aux respirateurs sera réservé aux plus riches et ceux-ci n'ont donc que très peu de motivation à ne pas laisser l'épidémie suivre son cours tandis que leurs portefeuilles dépendent du fait que l'économie continue à tourner.

Tout ça n'est pas la fin du monde (qui a survécu à la grippe de 1918 laquelle a tué plutôt dans les 2% ou 3% de la population mondiale alors que là je ne pense pas qu'on atteindra cette proportion), mais c'est vraiment un désastre majeur que nous avons devant nous quelle que soit le chemin exact par lequel nous le traversons. Je me suis moi-même laissé un peu embobiner par le slogan que ce n'est qu'une grosse grippe : ce slogan est trompeur à quatre comptes, d'abord parce que 10× plus de létalité c'est vraiment un ordre de grandeur au-dessus, ensuite parce que la létalité de 0.1% pour la grippe est une surmortalité lue indirectement dans les statistiques, c'est-à-dire qu'elle compte toutes sortes de décès seulement indirectement liées à la grippe elle-même (les décès directs causés par la grippe aux urgences sont plutôt de l'ordre de 0.002% des cas), mais surtout parce que le problème avec Covid-19 c'est vraiment le nombre de gens qui ont besoin de soins intensifs qu'il est extrêmement difficile d'imaginer qu'on puisse fournir en tel nombre, et que si le système de soins est débordé, ces gens-là mourront et le taux de létalité grimpe encore d'un facteur peut-être 5.

Ah, et au rayon des bonnes nouvelles, il faut aussi se rappeler que même si l'épidémie est contenue par immunité grégaire, elle ressurgira possiblement quand le virus aura assez muté pour que l'immunité ne soit plus efficace, voire, que la vague d'infections devienne saisonnière. (Il est cependant plausible, mais en aucun cas certain, que dans ce cas le virus deviendrait moins létal : les gens sont obsédés par les mutations des virus, mais il faut se rappeler que le but d'un virus n'est pas de nous tuer, c'est de se reproduire ; or les virus qui ont le plus de succès en la matière sont les rhinovirus qui ne sont pas une calamité.)

Quoi qu'il en soit, n'hésitons pas à répéter une fois de plus le message de bien se laver les mains, de faire attention où on tousse et d'éviter tous les contacts physiques de personne à personne : ce n'est pas une blague, cela peut avoir un impact significatif sur la reproduction de ce virus et ça au moins ce sont des mesures qu'on peut considérer comme définitives sans en souffrir comme une mise à l'arrêt du pays.

Ajout () : J'ai vraiment de plus en plus peur des conséquences sociales et sociétales de ce dilemme. Il me semble évident que la stratégie ① n'est pas tenable : il n'est pas imaginable d'éradiquer le virus dans tous les pays du monde, il y aura forcément des endroits où l'épidémie se limitera par l'immunité naturelle, donc, qui auront toujours des cas par-ci par-là, et à ce moment-là, à moins de fermer hermétiquement toutes les frontières, le virus fera régulièrement son chemin partout dans le monde ; or on ne peut pas imaginer vivre en état de lockdown permanent parce que dès qu'on le relâche les cas reprennent leur augmentation. Mais la stratégie ② « douce » est fonctionnellement équivalente (le flux de malades que peuvent encaisser les hôpitaux est tellement microscopique qu'on n'en aura jamais fini), et sa version « dure » n'est pas pas socialement acceptable : les gens voient les hôpitaux débordés et exigent des mesures exceptionnelles. Dès lors, où va-t-on ? Les gouvernements tergiversent : l'Italie aujourd'hui et demain je suppose la France ne voulaient pas tout boucler, mais doivent le faire sous la pression de l'impact des hôpitaux submergés ; mais une fois que c'est fait, on est complètement coincés avec un pays totalement bouclé et qu'on ne peut plus déboucler. Quelqu'un peut-il proposer ne serait-ce qu'une lueur d'espoir sur ce qui va se passer ?

↑Entry #2640 [older| permalink|newer] / ↑Entrée #2640 [précédente| permalien|suivante] ↑

↓Entry #2639 [older| permalink|newer] / ↓Entrée #2639 [précédente| permalien|suivante] ↓

(samedi)

Un tout petit peu d'épidémiologie mathématique

Dans l'entrée précédente, je soulevais entre autres la question de comment calculer (et de comment appeler !) le nombre, que j'y appelais r, de personnes qui sont finalement infectés par une épidémie (quelle que soit l'issue de cette infection) puisque c'est un des facteurs du produit f·r qui donnera le taux de mortalité due à l'infection (l'autre étant la proportion f des cas qui conduisent à un décès) ou de tout autre calcul analogue (comme g·r pour le nombre de cas graves où g est la proportion correspondante). Dans plusieurs mises à jour ultérieures de cette entrée, j'ai signalé que j'ai fini par apprendre que r s'appelle le taux d'attaque et un raisonnement simpliste pour l'estimer, que je reproduis ici parce que je vais vouloir le comparer à une estimation donnée par un modèle différent :

[Essentiellement recopié de ce fil Twitter :] Une amie m'a expliqué le rapport que je cherchais à comprendre entre le taux de reproduction de base R₀ (= nombre de personnes que chaque personne infectée infecte à son tour) et le taux d'attaque final r (= proportion de la population qui sera infectée à terme pendant l'épidémie) : dans le modèle le plus simpliste, c'est r = 1 − 1/R₀ ; en effet, tant que le taux de reproduction est >1, l'épidémie croît exponentiellement ; mais si une proportion r a déjà été infectée, le taux effectif de reproduction est ramené à R₀·(1−r) parce que, en supposant que les personnes déjà infectées sont immunisées et sont également réparties dans la population (j'ai bien dit, modèle simpliste !), seule une proportion 1−r est encore susceptible d'être contaminée ; donc l'épidémie cesse de progresser lorsque R₀·(1−r) redescend à 1, c'est-à-dire r = 1 − 1/R₀. C'est probablement la raison pour laquelle certains ont prédit r ~ 70% en l'absence de contre-mesures efficaces pour réduire R₀ qui a été initialement mesuré à R₀ ~ 3. Encore une fois, ceci est un modèle extrêmement simpliste.

Dans la suite, je vais noter plutôt κ que R₀ ce nombre de reproduction, parce que même si R₀ est la notation standard elle serait source de confusion dans le modèle SIR où la lettre R désigne les cas rétablis (guéris, recovered en anglais ; enfin, avec une drôle de définition de rétablis puisque dans le modèle qui va suivre on ne cherche pas à compter les décès et on les compte avec les guérisons). Par ailleurs, plutôt que le taux d'attaque final noté r ci-dessus (ce qui, par chance, colle bien, à la limite, avec l'usage de la lettre R que je viens d'évoquer), je vais m'intéresser plutôt à la proportion complémentaire s = 1−r, i.e., la proportion de la population qui échappe à l'épidémie, et dont le raisonnement simpliste que je viens de recopier prédit donc qu'il s'agit de 1/κ.

Maintenant, en suivant de près ce fil Twitter (ou ici sur Thread Reader), que je développe un peu un peu, je vais essayer d'expliquer la prédiction que fait un modèle basique en épidémiologie, le modèle SIR :

Le modèle SIR modélise une infection en traduisant l'évolution dans le temps de trois variables : s (susceptible) la proportion de la population qui n'a pas encore contracté l'infection (et qui est donc susceptible de l'attraper), i (infectée) la poportion de la population qui est actuellement infectée, et r (rétablie) la proportion de la population qui n'est plus infectée, que ce soit suite à une guérison ou un décès (cf. ci-dessus : on ne s'intéresse pas à la différence ici). On a s + i + r = 1 puisqu'il s'agit de trois parties exclusives et exhaustives : il y a donc seulement deux variables indépendantes. Le modèle fait toutes sortes d'hypothèses simplificatrices : notamment, que la population est constante (puisque les décès comptent parmi les guéris, ce n'est pas idiot), et surtout, que les personnes ayant contracté l'infection ne peuvent pas la contracter une seconde fois (soit parce qu'elles sont immunisées soit parce qu'elles sont décédées).

Il s'agit d'écrire une équation différentielle (non-linéaire, du premier ordre) portant sur ces variables. L'idée est d'écrire le type d'équations utilisées en cinétique chimique : imaginez qu'on aurait deux réactions chimiques, la réaction d'infection S + I → I + I (une personne infectée en infecte une autre) et la réaction de rétablissement, I → R (les personnes infectées se rétablissent toutes seules avec le temps, je rappelle une fois de plus que rétablir ici compte les décès, tout ce qui m'intéresse est que ces personnes ne puissent plus en contaminer d'autres). Ce qu'on fait en cinétique chimie (de façon ultra-simplifiée…) pour modéliser des réactions de type X + Y → Z est qu'on va écrire que l'occurrence d'une telle réaction, i.e., la variation de concentration due à cette réaction (qui va compter positivement dans la concentration de Z et négativement pour X et Y) est proportionnelle à une certaine constante cinétique (positive) fois le produit des concentrations de X et de Y à des puissances appelées l'ordre de la cinétique dans chacun de ces réactifs, typiquement 1. Dans le modèle épidémiologique SIR, les deux réactions d'infection et de rétablissement seront supposées d'ordre 1. On va appeler β et γ leurs constantes cinétiques respectives : les termes de vitesse de l'infection et du rétablissement seront donc β·i·s et γ·i respectivement. Autrement dit :

Si je note x′ la dérivée dx/dt par rapport au temps (t) de la variable x, les équations du modèle SIR seront :

  • s′ = −β·i·s
  • i′ = β·i·sγ·i
  • r′ = γ·i

(La somme de ces trois quantités fait évidemment zéro, comme il se doit puisqu'on doit conserver s+i+r=1 : comme en chimie, rien ne se crée, rien ne se perd, mais tout se transforme.) La première équation, donc, modélise le fait que la population non encore infectée décroît par la vitesse infection dans le temps β·i·s qui est proportionnelle à une constante β fois les proportions de personnes infectées i et susceptibles de l'être s : si l'on préfère, cela signifie qu'une personne susceptible a une probabilité β·i de devenir infectée par unité de temps (très petite) ; la troisième modélise le fait que les personnes infectées deviennent rétablies avec la vitesse γ·i : si l'on préfère, cela signifie qu'une personne infectée a une probabilité γ de devenir rétablie par unité de temps (très petite) ; et l'équation du milieu, donc, assure l'équilibre s+i+r=1.

La nouvelle (et énorme !) hypothèse simplificatice qu'on a faite en écrivant ces équations, c'est de supposer que le comportement « local » de l'épidémie et de la population ne change ni avec le temps ni avec le progrès de l'épidémie : la probabilité d'infection par rencontre S+I, ou de guérison, ne changent pas : ceci exclut, par exemple, le fait que la population changerait ses habitudes avec la progression de l'épidémie (prendrait des mesures prophylactique), que le système de santé soit débordé (ce qui jouerait possiblement sur le temps de guérison), que le pathogène mute pour devenir plus ou moins virulent, et toutes sortes d'autres scénarios sortant de notre modèle extrêmement basique.

Les constantes cinétiques β et γ ont pour grandeur l'inverse d'un temps : il s'agit essentiellement de l'inverse du temps espéré d'infection si toute la population est infectée et du temps espéré de guérison. Remarquons donc qu'en changeant l'échelle de temps on multiplie β et γ par la même constante : le seul paramètre sans dimension dans le modèle est le rapport κ := β/γ, qu'on interprète comme le nombre de personnes qu'une personne infectée infectera en moyenne dans une population entièrement susceptible avant d'être elle-même rétablie. Comme il s'agit du seul paramètre sans dimension, toute discussion doit se faire sur κ. C'est ce κ = β/γ qu'on appelle nombre de reproduction et qui est souvent noté R₀, mais que je préfère noter κ ici pour éviter la confusion avec la variable r.

Pour ce qui est des paramètres initiaux, on peut prendre ce qu'on veut, mais on prendra normalement r=0 (en fait, si r ne valait pas initialement 0, on pourrait diviser s et i par 1−r et multiplier β par cette quantité, pour se ramener à ce cas), et i=i₀ extrêmement petit (l'idée étant d'amorcer l'épidémie par un tout petit nombre de cas), ce qui permet de considérer que la valeur initiale s₀ de s est quasiment 1.

Les équations étant posées, que peut-on dire du comportement décrit par ce système ?

Le cas κ<1 étant peu intéressant (l'épidémie disparaît tout de suite, au moins si on est parti avec i₀ très petit), je vais prendre κ>1, c'est-à-dire β>γ.

Le départ de l'épidémie est très simple : tant que s est suffisamment proche de 1 pour être identifié à lui, on a i′ = (βγi qui vaut donc i₀·exp((βγt). Autrement dit, i croît exponentiellement avec une dérivée logarithmique βγ (ou si on veut, une constante de temps 1/(βγ), ou encore un temps de doublement ln(2)/(βγ)). Quant à r, il est donné en intégrant r′ = γ·i, soit r = i₀·(γ/(βγ))·(exp((βγt)−1) = i₀·(1/(κ−1))·(exp((βγt)−1) soit, quitte à négliger le −1, la même croissance exponentielle mais avec une valeur κ−1 fois plus petite.

On peut utiliser ce comportement pour tenter d'estimer les paramètres : βγ comme la pente logarithmique de la croissance exponentielle observée, et 1/γ comme la durée moyenne des symptômes (jusqu'à guérison ou décès) ; on devrait aussi pouvoir estimer κ−1 comme le rapport entre nombre de cas en cours et nombre de guéris+décès, mais dans la pratique ça marche très mal. Très grossièrement, dans l'épidémie de Covid-19 hors de Chine, on est en période de croissance exponentielle, avec une pente logarithmique de l'ordre de 0.2/j, et 1/γ de l'ordre de deux semaines, donc κ serait de l'ordre de 4 avec ces calculs. En fait, il est quand même plutôt de l'ordre de 3, parce que les guérisons ne se produisent vraiment pas selon un processus poisson mais plutôt en temps constant, ce qui justifie que la croissance exponentielle se fasse avec une pente logarithmique β plutôt que βγ initialement. Bref.

[Graphes des courbes s(t),i(t),r(t) pour β=3 et γ=1]Le modèle SIR prédit que la dérivée logarithmique de i vaut β·sγ, donc, si elle part de βγ quand toute la population est susceptible, elle devrait diminuer progressivement, s'annuler pour s = 1/κ (maximum de l'infection, donc) et ensuite devenir négative sans jamais pouvoir passer en-dessous de −γ. Le graphique ci-contre (tracé avec Sage en utilisant une méthode de Runge-Kutta d'ordre 4) montre l'allure des courbes, pour β=3 et γ=1 (donc κ=3), avec s tracé en vert, i en rouge et r en bleu.

Pour pouvoir calculer des quantités au pic de l'épidémie ou à sa limite quand t→+∞, il faut éliminer le temps dans les équations. Ceci se fait en divisant par r′ = γ·i les deux premières équations, soit

  • s′/r′ = −κ·s
  • i′/r′ = κ·s − 1

Or s′/r′ et i′/r′ s'interpètent comme ds/dr et di/dr respectivement (la fonction r est C¹ de dérivée strictement positive, on peut la prendre comme variable). Mais l'équation ds/dr = −κ·s se résout en s = s₀·exp(−κ·r), soit, puisqu'on part avec s₀ très proche de 1, s = exp(−κ·r), ce qui nous donne un lien reliant r et s.

Notamment, si on cherche la valeur du pic de l'épidémie (le moment où i est maximal, i.e., i′ s'annule), il est donné par s = 1/κ (d'après la valeur de i′) et donc r = ln(κ)/κ (en utilisant la relation qu'on vient de trouver) et ainsi i = 1 − (ln(κ)+1)/κ.

Maintenant, que dire des valeurs de s, i, r quand t→+∞ ? Manifestement, i→0 (démonstration : s et r ont des limites donc i en a une ; mais en regardant la troisième équation, r′ a une limite, qui ne peut pas être autre que 0 puisque r lui-même a une limite, donc i tend vers 0). Donc il y a deux quantités à déterminer, que je vais noter s et r (et, rapidement, s et r tout court). On a vu s = s₀·exp(−κ·r), donc notamment s = s₀·exp(−κ·r), mais par ailleurs r = 1 − s. En remplaçant l'une dans l'autre, on a l'équation s = s₀·exp(−κ·(1−s)). Avec s₀ très proche de 1, ceci devient s = exp(−κ·(1−s)).

J'écris maintenant simplement s et r pour s et r puisque je m'intéresse à ces limites en l'infini. Il s'agit donc de résoudre l'équation s = exp(−κ·(1−s)) pour trouver, en fonction du nombre de reproduction κ, la proportion s de la population qui reste non-infectée jusqu'au bout. (J'ai longtemps cru que le modèle SIR convergeait vers s=0, mais comme on va le voir, et comme c'est déjà clair sur cette équation, ce n'est pas le cas.) Encore une fois, si κ<1, ce n'est pas intéressant (l'épidémie s'arrête tout de suite, s vaut 1), donc prenons κ>1.

L'équation s = exp(−κ·(1−s)) n'a pas de solution avec des fonctions usuelles, mais elle en a une, à savoir s = −W(−κ·exp(−κ))/κ, en utilisant une fonction spéciale appelée fonction transcendante W de Lambert. Essentiellement, cette fonction est définie par le fait que w := W(z) vérifie w·exp(w) = z (il faut prendre la bonne branche complexe de cette fonction : disons qu'on parle ici, pour z≥−1/e réel, de l'unique solution réelle ≥−1 de l'équation w·exp(w) = z). La transformation de s = exp(−κ·(1−s)) en la bonne forme se fait simplement en notant que −κ·s·exp(−κ·s) = −κ·exp(−κ) d'où −κ·s est l'autre solution (à part −κ) de w·exp(w) = −κ·exp(−κ).

[Graphes des courbes −W(−κ·exp(−κ))/κ et 1/κ]Bref, le modèle SIR prédit que la proportion s de la population qui reste non-infectée jusqu'au bout vaut −W(−κ·exp(−κ))/κκ>1 est le nombre de reproduction. Comment cette fonction se comporte-t-elle ?

Et aussi, comment se compare-t-elle à l'estimation s = 1/κ citée au début de ce post ? En gros : c'est bien pire. Essentiellement, parce que le modèle SIR suit l'épidémie au-delà de son pic où κ·s=1 : elle a beau être en phase décroissante, elle continue à faire de nouvelles infections. Le graphique ci-contre montre les courbes donnant les valeurs s = −W(−κ·exp(−κ))/κ (en bleu) et s = 1/κ (en rouge) en fonction du nombre de reproduction κ.

Si le nombre de reproduction κ est juste un peu au-delà de 1, disons 1 + h avec h petit, alors s = −W(−κ·exp(−κ))/κ vaut 1 − 2·h + (8/3)·h² + O(h³). C'est en gros deux fois plus de cas que n'en donne l'estimation simpliste 1/κ soit 1 − h + h² + O(h³).

Mais surtout, si κ est grand, le développement W(z) = zz² + O(z³) donne s = −W(−κ·exp(−κ))/κ valant exp(−κ) + κ·exp(−2κ) + O(κ²·exp(−3κ)). Il y a bien une fraction s>0 qui reste non contaminée, mais elle décroît exponentiellement avec le nombre de reproduction κ.

Application numérique : pour κ≈3, le modèle SIR donne s = −W(−κ·exp(−κ))/κ ≈ 6% restant non-infectés, soit un taux d'attaque final de r ≈ 94% (et au moment du pic de l'épidémie, on a i ≈ 30% infectés contre s ≈ 33% encore susceptibles et r ≈ 37% rétablis). Je ne suis pas en train de dire que Covid-19 infectera 94% de la population mondiale (ou française), ni qu'au pic de l'épidémie il y aura 30% de malades ; outre que je suis mathématicien et pas épidémiologue, c'est ce que ferait une infection contre laquelle on ne prendrait aucune mesure et aucun changement de comportement, dans un modèle extrêmement simpliste, avec le paramètre κ≈3 qu'on a approximativement mesuré pour une phase non-contrôlée de l'épidémie. Néanmoins, cela donne une idée de ce que peut faire un nombre de reproduction de l'ordre de 3 (et je ne parle pas de la rougeole pour laquelle c'est plutôt de l'ordre de 15).

En un certain sens, en fait, la valeur simpliste 1/κ pour s est peut-être plus informative : c'est la valeur à laquelle on peut stabiliser l'épidémie : tant qu'on a une proportion r ≪ 1 − 1/κ de personnes immunisées (soit parce qu'elles ont déjà été contaminées ; mais cela pourrait être parce qu'on les a vaccinées si on a un vaccin), la situation est instable, l'épidémie peut (re)démarrer à tout moment, alors que si r ≫ 1 − 1/κ, la situation est stable, l'épidémie est contenue.

Il serait peut-être intéressant de voir ce que devient le modèle si on remplace le terme β·i·s par Β·i·(1−is partout, modélisant de façon simpliste le phénomène que les gens prennent peur et limitent leurs contacts au fur et à mesure que l'épidémie prend de l'ampleur (il y a peut-être une meilleure façon de modéliser ce phénomène, c'est juste ça qui me vient à l'esprit) ; on pourra encore moins calculer les limites faute d'avoir une forme sympathique pour la solution de ds/dr = −κ·(s+rsκ := Β/γ (Sage et Mathematica pensent que c'est exp(−½κ·r²) / (1 + (√(½πκ))·erf((√(κ/2))·r)), je vais dire que je les crois mais ce n'est pas très utilisable comme expression), mais on peut peut-être quand même en dire quelque chose.

Suite : voir cette entrée ultérieure pour une variation sur le modèle SIR où le rétablissement se fait en temps constant plutôt que selon un processus exponentiel.

↑Entry #2639 [older| permalink|newer] / ↑Entrée #2639 [précédente| permalien|suivante] ↑

↓Entry #2638 [older| permalink|newer] / ↓Entrée #2638 [précédente| permalien|suivante] ↓

(vendredi)

Quelques pensées supplémentaires sur Covid-19

Cette entrée fait suite à celle de lundi, pour ajouter, préciser ou rectifier quelques choses qui me semblaient trop longues pour constituer de simples notes ajoutées aléatoirement, mais toujours sur le même sujet — qui semble un peu être le seul sujet dont on peut parler en ce moment — et pour râler encore une fois d'être apparemment le seul à spéculer sur la valeur de certains paramètres.

Voir à la fin de cette entrée pour des mises à jour supplémentaires.

Mise à jour () : Comme je commence à avoir trop de liens d'information sur le sujet, je crée un fichier pour les rassembler.

Il est très difficile de se préparer mentalement à affronter un sujet (a) sur lequel il y a énormément d'inconnu, et (b) qui mérite une réaction située quelque part à mi-chemin (mais ce n'est justement pas clair où) entre ce n'est pas plus vraiment préoccupant que la grippe saisonnière et oh par Pluton c'est la fin du monde. Ces deux extrêmes seraient plus faciles à appréhender, mais là on est dans une teinte de gris délicate à cerner, surtout qu'on ne sait justement pas ce qu'elle sera. (Notez que je ne suis bien sûr pas en train de dire que je préférerais des nouvelles plus catastrophiques et plus certaines comme il y a un astéroïde de 50km qui va heurter la Terre de façon sûre ! Mais c'est un fait que je suis du genre d'esprit qui déteste l'incertitude.) On est dans le domaine de ce qui est trop grave pour être ignoré mais pas assez grave pour baisser complètement les bras : donc (on se dit qu')il faut faire quelque chose et ce n'est pas très clair quoi. Et avec ça la tentation de se réjouir de n'importe quelle annonce (par exemple sur l'efficacité de tel ou tel médicament).

Un certain nombre de gens va mourir, donc, ça c'est certain. Combien, c'est une grande inconnue. On est vraisemblablement dans le terrain intermédiaire suivant : vous n'allez probablement pas mourir (en notant bien que probablement n'est pas certainement, justement), mais vous connaissez probablement quelqu'un qui va mourir (mais on ne sait pas combien ni s'il faudra chercher loin cette connaissance). Peut-être que c'est ce qui frappera surtout les esprits : pas le nombre absolu de morts (qu'il se compte en centaines de milliers, en millions, ou en dizaines de millions) mais la mort de telle ou telle connaissance plus ou moins lointaine, ou de telle ou telle célébrité (les gens célèbres étant nettement plus âgés qu'un échantillon aléatoire, il y aura sans doute plus de morts chez eux en proportion : au hasard, peut-être que le pape, qui n'est pas un jeunot, qui a eu des problèmes de santé au poumon, et qui n'est pas du genre à s'isoler, succombera, ou bien la reine du Royaume-Uni, et cela donnera un visage à la pandémie).

Un peu comme les astronomes qui ont décomposé leur ignorance sur la vie extra-terrestre en produit de facteurs tous inconnus dans l'équation de Drake, je faisais pareil dans mon entrée de blog précédente : le nombre de morts sera f·r·N, où N est la population mondiale (ou celle de la région à laquelle on s'intéresse), ce nombre-là au moins est bien connu, il vaut à peu près 8 milliards, où r (taux d'infection — je ne sais pas si c'est le bon terme) est la proportion des gens qui seront infectés le virus (pendant l'intervalle de temps considéré, disons, l'année qui vient), c'est-à-dire que r·N est le nombre total de gens qui seront infectés, et où f (taux de létalité) est la proportion de ceux-ci qui en mourront (ou qui en mourront de complications directes). Ou, dans une interprétation probabiliste, r est votre probabilité d'être infecté, et f est votre probabilité d'en mourir sous (c'est-à-dire conditionnée par) cette hypothèse que vous ayez été infecté ; enfin, bien sûr, ça c'est pour un individu « générique », parce que pour un individu particulier, il faudrait parler d'un r et d'un f individuels, chacun pouvant avoir des facteurs personnels pour que l'un ou l'autre soit plus élevé (si vous êtes un hermite qui vit en autarcie complète, votre r individuel sera très bas, tandis que si vous êtes une personne âgée diabétique et qui respire mal votre f individuel sera très élevé, mais les deux peuvent être vrais en même temps et se compenser dans le produit f·r). Bref.

Mise à jour () : on me souffle en commentaire que r (et pas f !) s'appelle en français le taux de morbidité, encore que ce n'est pas clair à la lecture de l'article Wikipédia si taux de morbidité est le rapport du nombre de cas en cours sur la population totale ou le total cumulé du nombre de personnes ayant eu la maladie (au moins une fois), sachant que c'est de ce dernier que je veux parler, donc peut-être taux de morbidité cumulé ? On aurait alors f = taux de létalité, r = taux de morbidité (cumulé) et f·r = taux de fatalité, termes un peu inventés par le Club Contexte (et peut-être en faisant l'hypothèse que les personnes tombant malade deux fois sont très rares, sinon on ne sait pas si et où on doit les compter pour 1 ou 2). ⁂ Re-mise à jour () : je trouve aussi le terme de taux d'attaque pour le taux d'incidence cumulé. Ces termes sont vraiment très confus !

Évidemment, on ignore à la fois f et r ; en fait, même pour une maladie comme la grippe saisonnière dans un terrain bien observé comme la France, on ignore f et r (on connaît un peu mieux leur produit) : je trouve des valeurs allant de 0.05% à 0.5% pour le taux de létalité f de la grippe saisonnière. Pour Covid-19, j'écrivais dans l'entrée précédente qu'une estimation préliminaire (je pense que cet article de China CDC Weekly détaillant les cas jusqu'au 2020-02-11, est la source primaire) semblait donner f≈2% (proportion des cas conduisant à un décès) : mais en fait, peut-être est-ce un peu pessimiste. Notamment, dans la province du Guǎngdōng en Chine (celle qui enregistre le 2e plus grand nombre de cas après celle du Húběi), il y a à l'heure où j'écris 1348 cas rapportés, 7 morts et 935 rétablis, ce qui place le taux de létalité entre 7/1348 ≈ 0.5% et 7/935 ≈ 0.7% (l'intérêt de diviser par les rétablis est qu'on évite de sous-estimer la létalité parce que des gens ne seraient pas encore morts) : on n'est pas tellement loin de l'estimation haute pour la grippe saisonnière. On attire aussi mon attention sur le cas du bateau Diamond Princess qui a 634 cas recensés et 4 morts, soit 0.6% de létalité (sur une population qu'on peut pourtant soupçonner de ne pas être toute jeune), mais concernant ce bateau il y a deux nuances à apporter : 1º que je divise par le nombre total de cas (or le nombre de morts pourrait très bien croître encore ; ici il est trop tôt pour diviser par le nombre de personnes rétablies), et 2º les cas sont détectés par des tests systématiques, et incluent 328 cas asymptomatiques (si j'en crois l'article Wikipédia) alors qu'en Chine on n'a probablement pas détecté les asymptomatiques. Ce bateau est au moins intéressant parce qu'il nous permet de savoir qu'environ un tiersla moitié des cas sont asymptomatiques. Quoi qu'il en soit, à la louche, on peut estimer que f, dans un pays qui a un système de soins pas trop défaillant, est plutôt entre 0.5% et 1% qu'autour de 2% comme dans le foyer primaire d'infection (peut-être parce que le virus a muté pour devenir moins létal comme je le spéculais à la fin de mon autre entrée ; mais ça peut être pour d'autres raisons, comme un système de santé un peu mieux préparé). • Mise à jour () : une analyse mathématiquement soigneuse du taux de létalité et des cas asymptomatiques sur la base des données de ce bateau.

Si la proportion f des cas fatals est révisée à la baisse, c'est sans doute également vrai pour la proportion g des cas graves (quelle que soit la définition précise de grave), initialement estimée à ~15%. Mais là, les stats sont encore plus difficiles à trouver, et je ne me hasarderai pas à avancer un chiffre.

Mais la grande inconnue reste évidemment r (proportion des gens qui seront infectés le virus). Je tanne tout le monde pour essayer de savoir ce que les modèles épidémiologiques disent à son sujet, sans succès. Je n'arrive même pas à savoir comment on est censé l'appeler : je dis taux d'infection sur la base de cet article Wikipédia mais je ne suis pas certain que ce soit le bon terme. Tandis que f dépend surtout du mode d'action de l'infection et du système de santé, r dépend surtout du mode de transmission de l'infection et du système social : manifestement, si on s'isole tous dans des petites bulles hermétiques, la pandémie sera finie en trois semaines avec r proche de zéro, tandis que si on ne prend aucune mesure d'isolement, de quarantaine, ou de formes de prophylaxie, r sera beaucoup plus élevé… mais je sais pas ce qui joue ni si on peut espérer le prédire ou l'estimer à l'avance. Bien sûr, le fait que la population soit plus ou moins vaccinée (ce n'est pas le cas ici), ou ait des immunités préexistantes (c'est peut-être partiellement le cas ici) l'empêchant de contracter l'infection, va jouer sur r (pas juste parce que ces gens ne seront pas infectés mais aussi parce qu'ils bloqueront la propagation à d'autres).

Une digression mathématique pour présenter quelque chose qui me laisse perplexe. Je ne connais pas grand-chose aux probas, mais il y a une idée que j'ai retenue des phénomènes de percolation et de graphes aléatoires, c'est qu'il y a généralement un seuil critique de percolation : typiquement, et sans chercher à faire un énoncé précis, au-dessus d'un certain seuil de connexion (nombre ou proportion d'arêtes présentes), un graphe aléatoire a une composante connexe géante dans laquelle se trouvent presque tous les sommets. En prenant comme graphe aléatoire celui qui a comme sommets les personnes et comme arêtes les contacts qui pourraient conduire à une transmission infectieuse, je m'attendrais donc, en laissant naïvement mon intuition sur les graphes aléatoires s'exprimer, à prédire qu'une infection touche essentiellement tout le monde (r extrêmement proche de 1) si elle percole, c'est-à-dire, si elle ne s'arrête pas tout de suite. Or manifestement c'est faux. Ce que je disais dans mon billet de blog précédent : je ne comprends pas ce qui fait qu'une épidémie/pandémie s'arrête avant d'avoir touché essentiellement tout le monde. La meilleure piste d'explication que je voie est que le graphe ne serait pas du tout homogène : certains sommets sont intrinsèquement beaucoup plus connectés que d'autres (i.e., le bon modèle serait un modèle où la probabilité de présence d'une arête dépend fortement du sommet qu'on cherche à relier : peut-être qu'on commence à tirer au hasard un niveau de connexion pour chaque sommet et ensuite on tire au hasard les arêtes selon le niveau de connexion), si bien que l'épidémie pourrait percoler uniquement au sein des sommets les plus connectés, ceux-ci ayant une proportion strictement comprise entre 0 et 1 — ou quelque chose comme ça. Mais de nouveau, je ne connais rien aux probas, et je veux bien qu'on me corrige ou qu'on me donne de meilleures idées.

En tout état de cause, chercher à limiter ses contacts et à avoir une hygiène aussi bonne que possible n'est pas du tout inutile pour limiter la valeur de r, fût-ce la valeur « individuelle ».

La grippe saisonnière a l'air de toucher autour de 10% à 20% de la population chaque année. On pourrait s'imaginer que ça n'en touche pas plus parce que les autres sont immunisés d'une manière ou d'une autre, mais je ne pense pas : dans le cas de la grippe H1N1 « espagnole » de 1918, elle semble avoir touché une proportion comparable (peut-être 25%), et la pandémie de H1N1 de 2009, on estime aussi à 10% à 20% la valeur de r (si j'en crois l'article Wikipédia). Dans ce dernier cas, le taux de létalité n'était pas du tout élevé, donc on n'a pas pris beaucoup de précautions une fois passée la panique initiale. Comme Covid-19 a un taux de reproduction de base R₀ et un mode de transmission comparables à la grippe (encore une fois, le rapport entre r et R₀ m'échappe assez [mise à jour : dans le modèle le plus simpliste, r = 1 − 1/R₀, voir à la fin pour quelques explications supplémentaires] : R₀ est une base d'exponentielle alors que r est plutôt en rapport avec la percolation, mais le fait qu'ils soient comparables aide au moins à comparer les situations), on peut imaginer que r sera dans le même ordre de grandeur si on ne prend pas de mesure exceptionnelle. Pour ce qu'on peut faire, on a un point de données important : le fait que la Chine semble partie pour avoir réussi à stabiliser les cas autour de r≈0.15% (à savoir (66k+29k+3k) cas (actuels+rétablis+décédés) pour 59M habitants) dans la province du Húběi à l'origine de l'infection indique que c'est possible… au prix de mesures draconiennes. Mais je doute que tous les pays puissent ou veuillent appliquer de telles mesures, ce qu'il faudrait ensuite maintenir jusqu'à ce que la pandémie soit complètement endiguée au niveau mondial. Or les mesures draconiennes n'ont pas empêché la pandémie de s'exporter vers d'autres pays où elles ont créé de nouveaux foyers. Maintenant, si des mesures draconiennes stabilisent à r≈0.15% et que pas de mesures spéciales conduisent à r≈20% (chiffre pifométrique par comparaison avec la grippe comme je l'explique ci-dessus), qu'obtient-on avec des mesures seulement demi-draconiennes ou quart-de-draconiennes ? 5% peut-être ? Je n'en sais rien, mais j'ai peut-être été trop pessimiste dans l'entrée précédente en tablant sur 15%.

Mise à jour () : Cette simulation suggère que des mesures d'hygiène (en l'occurrence, se laver les mains plus soigneusement) auraient un impact pas seulement sur la vitesse de propagation de l'épidémie mais sur le taux d'infection r (taux d'attaque) final. Mais je ne suis pas du tout certain d'interpréter correctement.

Parlant de pessimisme excessif, je note en passant que je suis tombé sur ce podcast du New York Times dans lequel Donald G. Mcneil Jr. affirme : If you have 300 relatively close friends and acquaintances, six of them would die in a 2.5 percent mortality situation. Autrement dit, en utilisant la valeur de 2.5% de mortalité, il ignore complètement la valeur de r (ou la suppose implicitement égale à 1, ou confond f et f·r, je ne sais pas), comme si tout le monde attrapait une maladie, ce qui est manifestement faux. Dans le cas de la grippe de 1918, à peu près 2% ou 3% de la population mondiale est morte (mais plutôt 15% des malades) ; là on parle de maximum 2% des personnes infectées, ce qui n'a rien à voir, parce que même si on ne prend aucune mesure exceptionnelle, tout le monde ne l'attrapera pas !

Ajout (2020-03-05) : Parlant de la grippe de 1918, on trouve des chiffres assez contradictoires à son sujet, certains donnant un taux de létalité de ≲5% voire ≲2.5% ce qui a conduit à des affirmations selon lesquelles Covid-19 lui serait comparable. Mais il semble que les bons chiffres soient vraiment plus proches de 10% voire 20% de taux de létalité et autour de 2% ou 3% de la population mondiale (voir aussi cet article pour d'autres données à son sujet).

Bref, si je devais absolument me mouiller à sortir une estimation, compte tenu des données que j'ai actuellement, je dirais f≈0.7% et r≈5% (je pense plutôt aux pays européens, mais en fait, il y a des facteurs qui me suggèrent qu'il n'y aura pas tant d'inégalité que ça entre pays, par exemple les pays qui ont les meilleurs systèmes de santés ont aussi des chances d'avoir le plus de personnes âgées), ce qui fait f·r ≈ 0.04% ou 3 millions de morts dans le monde. Mais je garde quand même comme estimation haute (au sens on ne dépassera probablement pas ça, mais il est possible qu'on s'en approche) f≈2% et r≈15% soit f·r ≈ 0.3% ou 20 millions de morts. A contrario, s'il y a moins de 500 000 morts (niveau typique de la grippe saisonnière), on pourra dire qu'on a eu de la chance et/ou que la pandémie a été très bien gérée.

Mise à jour () : Ici sur Twitter un virologue évoque le fait que r n'atteindra probablement pas 70% et suggère plutôt autour de peut-être 30% ou moins. ⁂ Ah, Marc Lipsitch semble être la source des 70% : il suggère en fait 40%≲r≲70% et précise qu'il aurait dû ajouter, en l'absence de mesures de contrôle efficaces ; mais le reste de ce qu'il dit rend clair que c'est une estimation au doigt mouillé. ⁂ Re mise à jour () : Voir les additions à la fin de ce billet pour le rapport entre r et R₀.

L'autre question importante à se poser (et que, de même que la valeur de r, personne ne semble discuter), c'est quand tout ça va se produire. Pour l'instant, si on écarte la Chine, on est sur une croissance exponentielle de pente β valant autour de 0.15/j, c'est-à-dire de temps caractéristique 1/β en gros une semaine ; si on regarde les rétablissements en Chine (ce qui donne des informations sur l'état de l'épidémie environ 17j plus tôt et permet donc de savoir ce qui se passait avant que soient prises les mesures d'isolation), la pente la plus élevée était autour de 0.25/j. Donc, livrée à elle-même, l'épidémie multiplie par 10 le nombre de malades en environ 10 jours, tandis qu'avec les mesures prises par les différentes autorités, cela passe à plutôt 15 jours (log(10)/β). Actuellement, en Europe, on est à un petit millier de cas : c'est-à-dire que pour environ un mois, donc jusque vers début avril, le grand public peut essentiellement ignorer cette épidémie : il y aura moins de 0.1% de la population infectée, ce n'est pas la peine de s'affoler (ce qui ne veut pas dire qu'on ne puisse rien faire, cf. ci-dessous). Savoir combien de temps ça durera ensuite, évidemment, est une tout autre paire de manche, mais une chose est sûr, c'est que r ne peut pas dépasser 1, donc une croissance exponentielle de pente 0.15/j ne peut pas durer plus que quelques mois : fin mai, on y verra forcément plus clair (je ne dis pas que ce sera « fini », de toute façon le virus ne va pas disparaître, mais je ne vais pas redire encore une fois que je ne comprends pas comment les épidémies s'arrêtent à une certaine valeur de r).

Que peut-on faire de ce temps, à part espérer que les pouvoirs publics prennent la mesure du phénomène ? Peut-être des choses comme ceci :

  • s'habituer à appliquer des règles d'hygiène (comme : arrêter de serrer la main ou de faire la bise spontanément aux gens qu'on croise, se laver régulièrement les mains, noter mentalement toutes les fois qu'on touche une surface possiblement contaminée et qu'on se touche le visage après pour essayer de le faire le moins souvent possible, etc.) qui sont utiles en général et pourraient l'être encore plus dans quelques semaines, mais dont on n'a pas forcément la pratique ;
  • faire progressivement des réserves (d'aliments, de médicaments utiles, etc.) en prévision de possibles pénuries mais sans se ruer ni tomber dans l'excès (il ne s'agit pas de survivre à un hiver nucléaire) ;
  • annuler ce qui peut être annulé en matière de déplacements, réunions de groupes, etc., surtout pour tout ce qui tombe entre début avril et fin mai, ou prévoir ce qu'on fera si c'est annulé, et plus généralement prévoir tout ce qu'on peut pour minimiser les contacts notamment sur cette période ;
  • chercher à vérifier que les amis et proches se préparent aussi (et se renseigner sur ce qu'ils font et échanger des idées) ;
  • écrire des élucubrations dans son blog pour se donner l'impression qu'on fait quelque chose et pour se plaindre que personne ne donne les chiffres qu'on voudrait voir donnés ;
  • ne pas se ruer sur la chloroquine dont on n'a au mieux que quelques indications suggérant une possible efficacité et certainement pas une solution miracle, ni à plus forte raison vers n'importe quelle autre solution miracle ;
  • relire le roman dont est tiré la citation qui suit et qui, malgré son sens métaphorique assez transparent, peut aussi se lire au premier degré.

Les fléaux, en effet, sont une chose commune, mais on croit difficilement aux fléaux lorsqu'ils vous tombent sur la tête. Il y a eu dans le monde autant de pestes que de guerres. Et pourtant pestes et guerres trouvent les gens toujours aussi dépourvus. Le docteur Rieux était dépourvu, comme l’étaient nos concitoyens, et c’est ainsi qu'il faut comprendre ses hésitations. Quand une guerre éclate, les gens disent : Ça ne durera pas, c'est trop bête. Et sans doute une guerre est certainement trop bête, mais cela ne l'empêche pas de durer. La bêtise insiste toujours, on s'en apercevrait si l'on ne pensait pas toujours à soi. Nos concitoyens à cet égard étaient comme tout le monde, ils pensaient à eux-mêmes, autrement dit ils étaient humanistes : ils ne croyaient pas aux fléaux. Le fléau n'est pas à la mesure de l'homme, on se dit donc que le fléau est irréel, c'est un mauvais rêve qui va passer. Mais il ne passe pas toujours et, de mauvais rêve en mauvais rêve, ce sont les hommes qui passent, et les humanistes, en premier lieu, parce qu'ils n'ont pas pris leurs précautions. Nos concitoyens n'étaient pas plus coupables que d'autres, ils oubliaient d'être modestes, voilà tout, et ils pensaient que tout était encore possible pour eux, ce qui supposait que les fléaux étaient impossibles. Ils continuaient de faire des affaires, ils préparaient des voyages, et ils avaient des opinions. Comment aurait-ils pensé à la peste qui supprime l'avenir, les déplacements et les discussions ? Ils se croyaient libres et personne ne sera jamais libre tant qu'il y aura des fléaux.

— Albert Camus, La Peste

Mises à jour et compléments () : Je croule un peu sur les informations à ajouter, alors j'ai surtout créé un fichier pour les rassembler. Néanmoins, je peux ajouter quelques points supplémentaires en lien avec ce que j'ai évoqué plus haut :

  • Il semble bien que le bon terme pour r soit taux d'attaque (taux d'attaque final, peut-être ? en tout cas quelque chose en rapport avec ces mots). La terminologie épidémiologique est incroyablement merdique avec des mots comme taux qui désignent des choses sans aucun rapport (certains sont essentiellement une probabilité, d'autres sont essentiellement un nombre de personnes, d'autres sont homogènes à l'inverse d'un temps). Ceci (extrait du livre Principles of Epidemiology in Public Health Practice du CDC), notamment les sections 2 & 3, est encore ce que j'ai trouvé de moins mauvais pour les expliquer.
  • [Essentiellement recopié de ce fil Twitter :] Une amie m'a expliqué le rapport que je cherchais à comprendre entre le taux de reproduction de base R₀ (= nombre de personnes que chaque personne infectée infecte à son tour) et le taux d'attaque final r (= proportion de la population qui sera infectée à terme pendant l'épidémie) : dans le modèle le plus simpliste, c'est r = 1 − 1/R₀ ; en effet, tant que le taux de reproduction est >1, l'épidémie croît exponentiellement ; mais si une proportion r a déjà été infectée, le taux effectif de reproduction est ramené à R₀·(1−r) parce que, en supposant que les personnes déjà infectées sont immunisées et sont également réparties dans la population (j'ai bien dit, modèle simpliste !), seule une proportion 1−r est encore susceptible d'être contaminée ; donc l'épidémie cesse de progresser lorsque R₀·(1−r) redescend à 1, c'est-à-dire r = 1 − 1/R₀. C'est probablement la raison pour laquelle certains ont prédit r ~ 70% en l'absence de contre-mesures efficaces pour réduire R₀ qui a été initialement mesuré à R₀ ~ 3. Encore une fois, ceci est un modèle extrêmement simpliste. • Re mise à jour : voir l'entrée suivante pour un modèle moins simpliste (mais pas forcément plus juste pour autant !).
  • On peut encore analyser le nombre de reproduction (= nombre de personnes que chaque personne infectée infecte à son tour) comme produit d'un taux d'attaque secondaire (= probabilité qu'un « contact » avec une personne infectée cause une infection ; j'ai bien dit que la terminologie était merdique !) par un nombre de contacts pendant la période infectieuse, ce qui suggère deux pistes pour diminuer le nombre de reproduction : diminuer les contacts ou diminuer la probabilité qu'ils soient contaminants. (Si R₀~3, il s'agit pour endiguer l'épidémie d'avoir trois fois moins de contacts, ou qu'ils soient trois fois moins souvent contaminants, ou peut-être 1.7 fois moins de contacts qui soient 1.7 fois moins contaminants, ou quelque chose comme ça.) A priori j'ai tendance à dire que la Chine a pris des mesures largement excessives (voir ce documentaire d'Arte pour un reportage « de l'intérieur » à Pékin ; cela me donne l'impression de diminuer par un facteur largement plus que trois le nombre de contacts, sans même parler des mesures de non-contamination qui ont été prises en plus !) ; mais a contrario, le fait que le nombre de cas hors de Chine semble maintenant progresser selon une croissance exponentielle de pente β valant autour de 0.20/j, c'est-à-dire de temps caractéristique 1/β en gros 5j, pas tellement différente de ce qu'elle était en Chine avant que la moindre mesure soit prise, suggère que le monde hors de la Chine n'a vraiment pas pris des mesures suffisantes.
  • Ce rapport du CDC décrit un taux d'attaque secondaire (probabilité d'infecter lors d'un contact, donc) de 0.45% lors des contacts « proches » et 10.5% pour les membres de la maisonnée. Pour arriver à R₀ de l'ordre de 2 ou 3, faut-il vraiment croire qu'on ait ~500 contacts « proches » pendant une période d'incubation du virus ? Je trouve ça assez extraordinaire. À creuser, donc.
  • Pour ce qui est des mesures d'hygiène individuelles, comme on a encore environ un mois pour se préparer à une épidémie de grande ampleur, je suggère de s'habituer dès maintenant à jouer au petit jeu suivant dans le but de faire attention à toutes les fois où nous nous touchons le visage sans y prendre garde : il y a trois états dans le jeu, « mains propres », « mains sales » et « perdu » ; quand on se lave les mains (soigneusement !), on passe de « mains sales » à « mains propres » ; si on touche quoi que ce soit qui aurait pu être touché par quelqu'un d'autre, on passe de « mains propres » à « mains sales » ; si on se touche le visage dans l'état « mains sales », on a perdu. Le but du jeu est de voir combien de temps on arrive à tenir sans perdre !

↑Entry #2638 [older| permalink|newer] / ↑Entrée #2638 [précédente| permalien|suivante] ↑

↓Entry #2637 [older| permalink|newer] / ↓Entrée #2637 [précédente| permalien|suivante] ↓

(lundi)

Quelques pensées sur Covid-19

Depuis la fin janvier je répète à qui veut l'entendre que je ne crois pas du tout aux chances d'arriver à contenir une épidémie dont le taux de reproduction est nettement supérieur à 1 dès lors que celle-ci a pris un peu d'ampleur : il s'agit littéralement d'essayer d'arrêter une réaction en chaîne, et plus le temps passe plus ça devient difficile à cause du nombre de malades qui augmente (donc il est naïf de se dire hum, les choses vont peut-être s'améliorer si elles ne s'améliorent pas immédiatement suite aux mesures qu'on prend). Mais désormais je n'ai plus de doute : vu le nombre déjà assez important de cas de Covid-19 en-dehors de la Chine, et les mises en garde pas très rassurantes de l'OMS, à moins de croire que tous ces pays soient capables d'appliquer immédiatement des méthodes d'isolement encore plus efficaces que la Chine et que la Chine soit capable de rendre les siennes encore beaucoup plus efficaces, deux hypothèses qui ne me semblent complètement impossibles à croire, le mauvais génie s'est échappé de la bouteille et on ne pourra plus l'y faire rentrer. Si le seuil de pandémie n'est pas encore franchi, il le sera. La question est de savoir quelles conséquences elle aura, et ce qu'on peut y faire. (Les mesures d'isolement, notamment, même si elles n'ont plus de chances d'empêcher une pandémie, peuvent tout à fait avoir un intérêt s'il s'agit de la ralentir, c'est-à-dire de gagner du temps, si on arrive à savoir quoi faire du temps ainsi gagné.)

Mise à jour () : on me signale ce texte (publié avant-hier) écrit par un virologue et qui formule un certain nombre de conseils et méta-conseils sur la communication au public : il explique clairement, notamment, qu'il pense qu'il est temps d'arrêter de laisser croire le public qu'on pourra contenir la pandémie et qu'il faut maintenant lui donner des conseils sur comment s'y préparer et comment la gérer.

Je reconnais néanmoins ne pas bien comprendre la dynamique des épidémies. Les raisons, notamment, pour lesquelles la grippe saisonnière reste saisonnière, et pourquoi elle n'est pas permanente, m'échappent assez. (Certainement cela a un rapport avec le fait que l'aérosolisation du virus fonctionne plus ou moins bien selon l'humidité de l'air donc selon les saisons, d'une part, et d'autre part avec l'immunité déjà installée dans la population, mais les rapports précis ne sont pas clairs.) Qu'est-ce qui fait, notamment, qu'une épidémie reste contenue à un pays, et qu'une pandémie ne touche pas toute la population ? Qu'est-ce qui fait qu'elle s'arrête dans le temps ? Je n'ai pas les idées claires. Et notamment, quantitativement, je ne sais pas ce qui permet de prédire, i.e., de quels facteurs dépend, la proportion r des personnes qui seront finalement infectées. J'aimerais qu'on interroge un peu plus les épidémiologistes qui doivent avoir des modèles sur cette question (et doivent avoir essayé de fitter ces modèles sur les observations des dernières semaines !), parce qu'actuellement c'est vraiment le nombre crucial : essentiellement, votre probabilité d'attraper cette maladie.

Je vais quand même essayer de synthétiser quelques informations que j'ai pu glaner çà et là en ligne (dans des sources forcément très douteuses et souvent contradictoires, donc caveat lector), en pestant sur le fait que les choses ne soient pas présentées comme je le voudrais.

La grippe « espagnole » de 1918 (qui n'a d'espagnol que le nom, parce qu'elle venait probablement de Chine ou en tout cas d'Asie) a touché r≈25% de la population mondiale et a tué f≈15% de ces ~25% (si on compte les complications), c'est-à-dire f·r≈3% (chiffres hautement imprécis, les sources varient énormément, mais l'ordre de grandeur doit être raisonnable), représentant un nombre hallucinant de quelque chose comme 50 millions de morts. Pour la grippe saisonnière, de nos jours, le taux d'infection r (annuel) semble tourner autour de 10%, et le taux de létalité f parmi ces cas semble tourner autour de 0.05%, donc f·r≈0.005% de la population mondiale, ce qui représente quand même quelque chose comme 400 mille morts (par an). Dans le cas de Covid-19, une estimation préliminaire semble donner f≈2% (proportion des cas conduisant à un décès), même s'il y a espoir que ce soit surévalué ou que ça baisse ; quant à r, je viens de dire que je ne comprends pas de quoi il dépend, mais il restera certainement inférieur à celui de la grippe « espagnole » (le taux basique de reproduction semble comparable, et on peut quand même espérer que les mesures pour éviter la contamination soient plus efficaces qu'en 1918) : s'il est dans les 15%, on peut craindre que décède au cours de cette pandémie f·r≈0.3% de la population mondiale. Ça représente quand même quelque chose comme 20 millions de morts !

Ça m'agace un petit peu de me retrouver à faire ces calculs tout seul sur un coin de blog alors que ça devrait être les chiffres dont on discute (au lieu de compter les cas et les morts en Chine ou ailleurs, qui n'ont d'intérêt que comme entrée à un modèle qui permettrait d'estimer r et f), et alors qu'il y a des gens infiniment plus compétents que moi pour faire de telles estimations.

Ceci étant, si la mort de entre 0.1% et 1% de la population mondiale représente des dizaines de millions de morts, ce qui est gigantesque, on peut se dire que c'est parce que la population mondiale est gigantesque : finalement, ça veut dire que 99% voire 99.9% des gens ne meurent pas (soit parce qu'ils ne tombent pas malades, soit parce qu'ils tombent malade et guérissent), et dit comme ça c'est peut-être moins effrayant ; après tout, 0.8% de la population mondiale meurt chaque année de toutes causes confondues.

Mais bien sûr, les conséquences de la pandémie ne s(er)ont pas uniquement dans les morts qu'elle cause(ra). J'ai dit ci-dessus que je ne savais rien sur quoi penser du taux d'infection r, mais si on regarde le taux de létalité f de Covid-19, sa valeur estimée à ~2% cache beaucoup de chose. D'abord, il y a de grandes inégalités selon l'âge : sur la même base, pour un adulte de <50 ans en bonne santé dans un pays développé (si le système de santé n'est pas totalement submergé), il serait plutôt de l'ordre de grandeur de 0.2%, tandis que pour quelqu'un de ≥70 ans, ce serait plutôt dans les 15% (et il peut être énorme pour quelqu'un souffrant de conditions préexistantes comme diabète, problèmes cardiaques ou respiratoires). (Ceci étant, les retraités, par exemple, peuvent sans doute prendre plus de précautions pour s'isoler, ce qui donnerait un produit f·r moins inégal.)

Ensuite, « ne pas mourir » n'est pas la seule chose qu'on peut vouloir, et, par exemple, souffrir le martyr pendant deux-trois semaines sur un lit d'hôpital improvisé par un système de santé surchargé, en étant tenu en isolement et considéré comme un paria à cause de la peur de la contamination, ce n'est pas quelque chose que je souhaite à qui que ce soit. Les informations sur le tableau clinique sont assez sommaires, mais je lis qu'il y a g≈15% des cas qui sont graves (qu'est-ce que ça veut dire précisément ? et quel serait le chiffre correspondant pour la grippe saisonnière ?) et ~5% qui sont critiques : si on a chacun g·r≈3% de chances de tomber « gravement » malade (toujours en tablant sur r≈15% mais je n'en sais rien), c'est aussi assez inquiétant. Dans les cas typiques, la maladie semble durer 17 jours (entre les premiers symptômes et le rétablissement), autre information qu'il est étonnamment difficile de trouver en ligne.

Évidemment, un facteur significatif d'ignorance tourne autour du nombre de cas très mineurs (qui ne seraient pas diagnostiqués) voire complètement asymptomatiques : pour les estimer correctement, il faudrait que les autorités chinoises fissent des tests aléatoires dans la population des zones infectées, ce qu'elles n'ont pas fait, ou alors pas communiqué à ce sujet. On doit pouvoir avoir des estimations indirectes grossières (et/ou des bornes), cependant : soit par un raisonnement bayesien (en cherchant quelle est la probabilité que quelqu'un ayant des symptômes légers soit identifié comme ayant cette maladie précise), soit en extrapolant la proportion de cas à différents niveaux de gravité en comparant à des maladies analogues (je veux dire, je suppose que la proportion des cas fatals et critiques sur les cas graves doit donner une certaine estimation de la proportion des cas graves sur les cas bénins), soit en essayant de reproduire les observations dans des modèles épidémiologiques. (Ce texte écrit par l'équipe de John Hopkins responsable de l'outil graphique impressionnant déjà lié ci-dessus suggère, si je comprends bien, que le nombre réel de cas serait 5 à 10 fois plus élevé que le nombre de cas signalés ; mais cela date d'il y a un mois, et ils n'ont pas mis à jour leur modèle depuis, donc je ne sais pas s'ils maintiennent cette conclusion.) En un certain sens ce serait une bonne nouvelle, parce que cela signifie que le taux de létalité f serait plus faible qu'estimé (puisque les cas graves et a fortiori mortels se détectent bien mieux que les cas légers et a fortiori asymptomatiques), et pour autant le taux final d'infection r n'a pas spécialement de raison d'être plus élevé ; mais la contrepartie, c'est que cela rend encore plus difficilement crédible d'arriver à arrêter la réaction en chaîne.

Mise à jour () : Je vois passer cet article (Characteristics of and Important Lessons From the Coronavirus Disease 2019 (COVID-19) Outbreak in China — Summary of a Report of 72 314 Cases From the Chinese Center for Disease Control and Prevention) qui donne quand même des données un peu précises sur la répartition des cas par niveau gravité et d'autres données statistiques du même genre.

Ce qui est aussi très préoccupant, c'est de savoir comment les sociétés, des pouvoirs publics aux individus en passant par les autres structures de la société, vont réagir à une pandémie de cette nature. J'ai déjà parlé de mes inquiétudes quant à l'instabilité de nos sociétés. Or les dysfonctionnements à prévoir dus aux mises en quarantaine, aux fermetures (de frontières et autres structures), à la panique généralisée, et les problèmes en cascade que cela va causer, avec leurs répercussions économiques, sociales et politiques, tout ça m'inquiète énormément. Je ne crois pas que le monde va s'effondrer pour autant : mais si le taux de létalité f tournait autour de 20%, je serais vraiment très inquiet (en plus des chances de mourir directement, bien sûr), et il n'est pas du tout invraisemblable qu'un tel virus émerge dans les quelques décennies à venir ; peut-être que des historiens peuvent en dire plus sur la manière dont la grippe de 1918 a impacté la société (je suppose que c'est difficile à démêler de la première guerre mondiale), mais je pense que le monde d'un siècle plus tard est beaucoup plus interdépendant et que les conséquences sociétales seraient plus énormes.

Il y aura évidemment une saturation du système de santé déjà au bord de l'apoplexie faute de moyens (en France et dans de nombreux autres pays). Cette saturation veut dire qu'en plus des morts directement liés à l'épidémie il faudra compter ceux qui n'auront pas pu recevoir de traitement pour des problèmes de santé sans aucun rapport. (Sans parler de ceux qui, au cours d'un traitement pour de tels problèmes, contracteront Covid-2019 parce que le manque de moyens empêchera une isolation satisfaisante des malades. Et des surinfections nosocomiales.) Le silver lining pourrait être de persuader les politiques de l'importance de mettre de l'argent dans les hôpitaux, mais je ne sais pas si j'y crois vraiment, malheureusement.

Il y aura aussi peut-être des problèmes de ravitaillement. Je ne sais pas jusqu'où cela peut aller. Comment les choses se passent-elles à Wuhan ? Ajout () : il est donc probablement sensé de recommander au public de faire dorénavant des stocks de denrées non-périssables et de médicaments généralement utiles (et peut-être de masques chirurgicaux, cf. ci-dessous), mais sans se ruer pour éviter de créer déjà des pénuries (on peut juste prendre l'habitude d'acheter quelques aliments de réserve supplémentaires à chaque fois qu'on va faire les courses).

Au-delà de ça, on peut craindre des effets à plus long terme sur la société.

Je crains notamment un regain d'autoritarisme. Les démocraties occidentales sont déjà lourdement attirées par l'autoritarisme dès qu'on agite une peur même complètement irrationnelle (le terrorisme, par exemple, suscite des réactions complètement disproportionnées en France par rapport à sa dangerosité réelle de quelques centaines de morts en vingt ans) : alors une maladie qui peut faire des centaines de milliers de morts en France pourra bien servir à justifier tout ou n'importe quoi (vous savez, l'article super dangereux qu'on a laissé en numéro 16 de la Constitution française comme une espèce de mine prête à exploser l'état de droit ?). Une fois que quelqu'un prend un pouvoir, même pour une raison légitime, il ne veut jamais le lâcher (voyez la manière dont l'état d'urgence a été rendu permanent en France suite à quelques attentats vite érigés en tragédie nationale).

Et la panique va venir avec son propre lot de conséquences terrifiantes (insérer ici une citation célèbre de FDR) : on a déjà vu un déferlement de racisme contre les asiatiques, les choses changeront peut-être un petit peu quand la maladie sera installée dans le monde entier (encore que certains rappelleront toujours que ça a commencé en Chine), mais il faut s'attendre à toutes sortes de théories du complot (il y en a déjà), mouvements de rejet de la science, que sais-je encore. Tout ça laissera des traces durables, même quand la pandémie sera finie (ou qu'elle sera devenue saisonnière et qu'on s'y sera habitués — encore une fois, je ne sais pas ce qui fait qu'on tombe dans tel ou tel scénario).

Bon, si au moins la peur incite les gens à quelques mesures d'hygiène et à porter des masques… Là aussi, j'aimerais en savoir plus. J'ai cru comprendre quelque part (mais je veux bien plus d'information !) que ceux-ci offrent une protection à peu près nulle dans le sens de protéger celui qui le porte des virus qui pourraient venir de l'extérieur, par contre ils fournissent une protection assez sérieuse dans le sens de protéger l'extérieur si celui qui le porte est contagieux (noter qu'il peut très bien être asymptomatique, et donc l'ignorer lui-même). (Ajout () : c'est ce que confirme plus ou moins ce passage d'une FAQ mise en ligne par une virologue vulgarisatrice.) Si c'est correct, ça pose des questions intéressantes : les gens (qui sont globalement égoïstes) vont croire que les masques vont les protéger, mais peut-être vaut-il mieux les laisser croire ça pour qu'ils en portent et que ça peut effectivement contribuer à limiter la pandémie. Dans la mesure où les masques sont inefficaces, d'ailleurs, c'est apparemment parce qu'ils sont mal employés : il serait peut-être temps de mettre en ligne des vidéos expliquant comment les positionner correctement sur le visage, alors ! (Ajout : il y a quelques recommandations de l'OMS ici.)

Ajout () : En matière de conseils d'hygiène, outre les choses qu'on répète toujours (se laver les mains souvent ! éternuer dans son coude et pas dans sa main, et porter un masque si on tousse ou on éternue, cf. ci-dessus), et des choses de bon sens mais qu'il serait peut-être utile de dire un peu plus fort (éviter toutes sortes de rassemblement, arrêter de serrer la main et de faire la bise aux gens (ah, si ça pouvait être l'occasion de mettre fin à cette pratique sociale de se saluer par contacts physiques !)), il y en a un que je trouve intéressant, c'est de prendre l'habitude de remarquer mentalement toutes les fois qu'on se touche le visage (dans le but de minimiser ces occurrences).

J'avais une autre question à évoquer sur laquelle je n'ai pas les idées claires : j'ai tendance à imaginer qu'en prenant des mesures d'isolement et de quarantaine, on ne se contente pas de ralentir la propagation de la maladie, on introduit un mécanisme de sélection sur le virus, parce que les souches ou variantes les moins virulentes, donc les moins facilement détectables (et dont les malades seront le moins probablement mis à l'isolement), parviendront à se reproduire le plus facilement ; les mesures sanitaires introduiraient donc une pression sélective sur le virus pour causer les symptômes les plus légers possibles (et ce, pour n'importe quelle maladie, mais particulièrement dans ce cas où la maladie est nouvellement passée chez l'homme et où on prend des mesures vraiment exceptionnelles). Je serais donc tenté de prédire que la létalité devrait décroître avec le temps (pas juste qu'on la mesure plus faible parce qu'on découvrirait de nouveaux cas bénins, mais parce qu'objectivement ils deviendraient plus nombreux en proportion). Mais ce raisonnement est-il correct ? Il y a plusieurs hypothèses sous-jacentes qui ne sont pas forcément vérifiées : l'une est qu'il est effectivement physiologiquement possible, voire facile, pour le virus d'évoluer vers des formes moins virulentes (je n'ai aucune idée de si c'est le cas) ; une autre, plus subtile, est que les formes moins virulentes seraient effectivement en concurrence avec les plus virulentes (c'est-à-dire qu'elles seraient assez semblables pour conférer une immunité mutuelle) ; mais il y a peut-être d'autres hypothèses dont je ne me rends pas compte ou bien des fautes de raisonnement dans ce que j'ai écrit. Peut-être que l'effet est bien trop faible pour être détectable. Je n'en sais rien. • Mise à jour () : cet article (On the origin and continuing evolution of SARS-CoV-2) publié dans National Science Review semble confirmer que le mécanisme que j'évoque ci-dessus se produit. • Re mise à jour : On me signale que la notion de virulence (et donc la conclusion sur le mécanisme de sélection) utilisée dans cet article est à prendre avec des pincettes.

Mise à jour : une sorte de suite à cette entrée de blog ici.

↑Entry #2637 [older| permalink|newer] / ↑Entrée #2637 [précédente| permalien|suivante] ↑


List of all categories / Liste de toutes les catégories: glf, math, phys, ego, html, gay, relig, philo, polit, lex, libri, lang, unicode, cinema, linux, comp-hw, econom, auto-moto, gardinia, meta

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]