Bon, je reconnais franchement que j'écris cette entrée-ci parce que nous sommes le 30 avril et que si je n'en publie pas en avril mon moteur de blog va générer une page de mois vide et ce sera tout moche. (Là il est même minuit passé, c'est-à-dire que nous sommes le 1er mai, mais je m'autorise à date une entrée d'un jour donnée jusqu'au moment où je me couche.) Je me suis demandé si j'allais écrire un billet avec juste du lorem ipsum mais ce serait quand même vraiment abusé alors je vais juste en mettre comme titre. À la place, je vais faire un petit tour de quelques choses que je n'ai pas écrites ou faites, et que vous n'allez pas lire parce que le titre vous aura donné l'impression que c'était juste du remplissage.
J'avais commencé il y a plusieurs semaines à écrire un texte sur l'utilitarisme, un principe que dans la pandémie en cours nous ne pouvons pas nous permettre le luxe de refuser, et donc pour me plaindre de tous ces gens qui affirment que c'était clairement la bonne décision de confiner le pays il y a un an, ou qu'il faudrait recommencer comme l'an dernier, mais qui sont incapable de (ou refusent de) répondre à la question d'à partir de combien de morts évités — au moins en ordre de grandeur — ils pensent que le confinement est une bonne option. (Le plus souvent est qu'ils mettent en avant des principes selon lesquels la vie humaine n'a pas de prix, ce qui rend alors inexplicable le fait qu'on n'applique pas le même remède à chaque épisode grippal. Ma réponse personnelle à la question que je viens d'énoncer est que deux mois de confinements de 67M de personnes sont justifiables s'ils sauvent au moins quelque part entre 100 000 et 1 000 000 de vies, je justifie le chiffre bas ici par une expérience de pensée et le haut par un calcul du nombre de personnes·années perdues ; dans les deux cas je ne crois pas une seule seconde à un tel bénéfice.) Mais en fait, écrire tout ça me fatigue au plus haut point, donc j'ai abandonné en route.
J'ai aussi voulu écrire une suite à mon billet sur le SIR hétérogène pour expliquer ce qu'on peut dire, mathématiquement, dans le cadre de SIR à deux (ou en fait N) variants, avec une distribution quelconque de susceptibilité jointe entre les deux variants (c'est-à-dire notamment qu'on peut les supposer corrélées, ou indépendantes, ou n'importe quoi entre les deux). En fait, il n'y a pas grand-chose à dire de plus par rapport au cas d'un seul variant, si ce n'est qu'on ne peut pas éliminer les variables f (maintenant au nombre de deux) en valeur de s et qu'il n'y a plus de calcul simple du taux d'attaque. Un résumé succinct est ici, un choix raisonnable de distribution jointe de susceptibilité est évoqué ici, et quelques illustrations numériques sont données dans ce fil ainsi que ceux qu'il cite (oui, c'est Twitter, donc c'est un peu confus avec des références qui se croisent dans tous les sens), et le code Sage pour les reproduire est là (parce que moi, contrairement aux épidémiologistes-modélisateurs français, je montre mon code… ce serait d'ailleurs intéressant de le réécrire en JavaScript pour avoir une page interactive permettant de simuler des évolutions d'épidémie en jouant avec les paramètres). Ceci étant, l'aspect mathématique n'étant pas énormément plus intéressant que le cas d'un seul variant, et comme mon billet à ce sujet n'a pas l'air d'avoir passionné les masses, je ne me sentais pas terriblement motivé pour faire une resucée à deux variants.
Sauf peut-être à ranter sur l'obstination assez impressionnante à laquelle les épidémiologistes-modélisateurs[#] persistent à ignorer toutes les formes d'hétérogénéité dans leurs modèles et ne semblent pas se rendre compte que c'est là faire une hypothèse extrêmement forte sur l'épidémie, qu'ils ne prennent même pas la peine de justifier ou défendre — et ça devient encore plus aberrant quand il y a deux variants en jeu, parce que leur dogme d'homogénéité les conduit à penser que forcément la surcontagiosité d'un variant sur un autre est une constante, ce qui est maintenant clairement réfuté par l'observation, et pourtant ils continuent à répéter les mêmes chiffres devenus presque absurdes avec l'obstination d'une pendule arrêtée.
[#] J'utilise ce terme pour parler de gens comme Neil Ferguson ou Simon Cauchemez, par opposition à d'autres comme, disons, Pieter Trapman, qui semblent avoir compris la futilité des modèles prédictifs et font tout autre chose.
Pour expliquer un minimum de quoi il est question : si on a deux variants d'une même maladie, et si les personnes susceptibles à l'un et à l'autre ne sont pas parfaitement corrélées, chacun va infecter en premier les personnes relativement plus susceptibles à ce variant, et notamment, si un variant est globalement plus infectieux que l'autre, il va réduire son propre avantage en infectant (donc en immunisant) en premier les personnes plus susceptibles à lui. (C'est donc la variante relative entre deux variants du phénomène que j'avais évoqué dans le billet précédent sur un seul variant — et de nombreuses fois avant — que l'hétérogénéité de susceptibilité réduit le taux d'attaque ou le seuil d'immunité collective d'une épidémie en immunisant en premier les personnes les plus susceptibles : ici, dans cette forme relative, elle conduit à réduire l'avantage d'infectiosité du variant plus infectieux.) Les expériences numériques liées ci-dessus montrent que c'est mathématiquement possible, et cela colle assez bien, au moins dans les grandes lignes, à ce qu'on observe dans le cas de la covid où les variants qui semblaient terriblement plus infectieux au début ont fait pschittt dès qu'ils ont atteint une proportion relativement importante des infections, donc c'est une possibilité sérieuse pour expliquer ce phénomène, mais les épidémiologistes-modélisateurs continuent obstinément à faire des modèles où ils prennent une surinfectiosité constante dans le temps, qui donnent donc des prévisions apocalyptiques.
Et surtout, ce qui est épatant, c'est que cela revient aussi à nier un des faits fondamentaux de la biologie, qui est que la sélection naturelle des mutations tend à sélectionner non pas une adaptation absolue et générale (il n'y a pas, dans la biosphère, un organisme qui soit le plus apte de tous dans un sens absolu, ça n'a pas de sens) mais une adaptation à une niche particulière. Donc au lieu de s'imaginer que le variant machin-truc a trouvé une façon d'être plus infectieux dans l'absolu, on devrait plutôt commencer par s'imaginer qu'il a trouvé, au sein de la population humaine, une niche qui n'avait pas encore été colonisée, exactement ce dont je parle. (Pour que l'effet mathématique que je viens d'évoquer fonctionne, il n'y a pas besoin que cette niche soit spécialement identifiable comme « les jeunes » : cela pourrait être une obscure mutation génétique dans les récepteurs ACE-2 qui ferait que tel variant serait plus adapté à infecter telle sous-population — cela suffirait à changer complètement la dynamique de l'épidémie.)
Plus généralement, j'ai fait un petit fil sur quelques unes des hypothèses que ces épidémiologistes-modélisateurs prennent sans le dire (ce dont je viens de parler est essentiellement l'item Ⓒ de cette liste), qui vient un peu compléter ce que j'avais dit il y a quelques mois (où je parlais surtout des items Ⓐ/Ⓑ et Ⓔ). Tout ça commence à faire beaucoup et je ne comprends pas qu'on continue à écouter tellement ces gens qui se trompent de façon répétée, dont on peut tout à fait expliquer pourquoi ils se trompent, et qui persistent à refaire les mêmes erreurs. Et quand leurs prédictions ne se réalisent pas, au lieu d'en conclure qu'ils ont eu tort, ils en prétendent transformer leurs erreurs en nouvelles découvertes. Je ne comprends vraiment pas comment on peut en arriver à un tel niveau soit d'incompétence soit d'imposture scientifique. (Je ne sais pas duquel il s'agit. J'avait été absolument sidéré par un article de Libération censé défendre Simon Cauchemez et qui finalement produisait pas mal l'effet contraire.) Notons que, par contraste, la vie doit être vraiment dure pour ceux qui ont gardé leur intégrité scientifique et dont, par conséquent, on n'entend pas le nom.