David Madore's WebLog: 2025-11

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., la plus récente est en haut). Cette page-ci rassemble les entrées publiées en novembre 2025 : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the most recent is on top). This page lists the entries published in November 2025: there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Entries published in November 2025 / Entrées publiées en novembre 2025:

↓Entry #2838 [older| permalink|newer] / ↓Entrée #2838 [précédente| permalien|suivante] ↓

(dimanche)

Les interfaces graphiques sont (souvent) une fausse bonne idée

Méta : Ce billet d'humeur est un peu un test : je me suis donné un temps limité pour écrire, avec interdiction de m'éterniser dessus, pour voir ce que ça donne en termes de longueur. J'ai pris un sujet qui traînait depuis longtemps dans ma TOBLOG-list (ou TORANT-list, peut-être plutôt), je ne sais pas s'il est vraiment passionnant, mais on va faire avec.

Pour communiquer des documents pédagogique à nos élèves, Télécom Paris met à la disposition des enseignants un outil (enfin, un site Web, une webapplication) appelé Moodle qui est censé nous simplifier la vie : pour rendre un document public (par exemple des notes de cours), il suffit en principe de se connecter au site et au cours visé, de cliquer sur deux-trois trucs, uploader le document, et hop, les étudiants pourront le voir. Pareil, si on veut écrire un petit texte explicatif, on peut le saisir directement dans un outil graphique qui permet de mettre du gras, de l'italique, de créer des liens, ce genre de choses, sans avoir à taper du HTML. C'est censé être plus facile pour tout le monde.

Je donne cet exemple précis, mais le phénomène est universel depuis 30–40 ans en informatique : tout outil, tout programme, un tant soit peu grand public, doit prendre la forme d'un « cliquodrome » (tiens, ce mot n'existe apparemment qu'en français), c'est-à-dire un outil tellement simple qu'il puisse être utilisé par Monsieur Toutlemonde, sans avoir à taper des commandes ou éditer des fichiers.

Alors je ne nie pas que les interfaces graphiques puissent avoir leur intérêt[], et je ne nie certainement pas qu'une interface texte puisse être complètement merdique, mais dans beaucoup de cas je trouve que vouloir à tout prix une interface graphique est une fausse bonne idée et qu'on perd plus de temps à s'en servir qu'à apprendre un outil textuel.

[] Voici quelques éléments qui justifient qu'une interface graphique puisse se justifier à mes yeux : quand les personnes qui s'en servent ne s'en serviront pas souvent (notamment si beaucoup la découvrent pour la première fois) et n'ont aucune chance d'avoir des tâches répétitives à faire avec ; et quand la tâche est intrinsèquement graphique. Je ne me plains pas, par exemple, que la borne de commande de MacDonald's soit une interface graphique !

Dans le cas de notre Moodle, par exemple, si j'ai plein de documents à mettre en ligne d'un coup, je me retrouve à faire toute une petite danse idiote pour chacun de ces documents : cliquer sur ajouter une activité ou ressource, sélectionner le type fichier, lui donner un nom (qui est généralement un copier-collé du précédent avec un truc ou deux à changer), cliquer sur déposer des fichiers, prendre la sous-option déposer un fichier (parce qu'il y a plein d'autres options pour les fichiers partagés, ou déjà déposés sur le site ou que sais-je encore), recliquer encore sur le bouton déposer, choisir le fichier dans l'interface graphique de mon navigateur, cliquer une énième fois sur déposer (pour confirmer le dépôt), puis sur enregistrer et revenir au cours, et encore, je vais sans doute me rendre compte que le fichier n'est pas apparu au bon endroit et que je dois glisser pour le replacer ailleurs, que le glisser-déplacé marche mal dans le navigateur ; et je dois recommencer tout ça pour le document suivant. S'il y a juste un document ou deux à déposer, ce n'est pas trop pénible : si on veut en mettre vingt d'un coup, c'est vraiment fastidieux. Et si je veux ajouter une petite description sur chaque document avec, par exemple, un bout de texte écrit en gras, je vais devoir jouer au copier-coller (revenir au document précédent, sélectionner la description utilisée la dernière fois), me refarcir la mise en gras (parce qu'évidemment elle passe mal au copier-coller) à chaque fois.

Et ce n'est pas tout : quand on doit accomplir ce genre de tâches répétitives, on prend vite des réflexes procéduraux sur l'endroit où cliquer dans la partie répétitive. Mais les interfaces graphiques sont souvent mal conçues pour ça : le truc affiché peut souvent changer pour des raisons triviales (l'outil a décidé que vous utilisiez souvent telle fonction, donc il décide de vous la montrer en premier en pensant vous faire gagner du temps… ou le navigateur a changé un peu de taille, ou un texte déborde d'une ligne sur une autre… manque de chance, ça change toute la disposition et du coup ça casse l'habitude que vous pensiez avoir prise).

Voici donc une première raison de ne pas aimer les interfaces graphiques : elles simplifient peut-être les manipulations uniques pour les débutants, mais en contrepartie, elles compliquent les manipulations répétitives en rendant l'automatisation quasi impossible.

Or c'est un fait que les ordinateurs sont souvent associés à des tâches répétitives, et ce, de façon ambivalente : d'un côté ils devraient nous simplifier leur automatisation (c'est bien le but !), mais de l'autre, ils sont souvent la source même des choses répétitives que nous devons faire.

Quand je dois réaliser une tâche répétitive sur une ligne de commande Unix, je sais faire : j'ai plein d'outils à ma disposition pour répéter la même chose de façon efficace ; même sans aller jusqu'à écrire un vrai programme (script) qui répète la commande, simplement la préparer dans un éditeur de texte, faire du recherche-remplacement ou saisir rapidement les modifications au clavier, ou utiliser des macros de l'éditeur, pour finalement recopier l'ensemble des lignes de commande qu'on aura préparées, tout ça va extrêmement vite. Donc si je pouvais utiliser une commande du genre moodle --course-id foobar --section 2 --add-activity --type file --name "Corrigé du contrôle ${year}" --upload-file corrige-${year}.pdf (j'invente complètement la syntaxe) pour chaque valeur de ${year}, ce serait beaucoup plus efficace pour moi que de devoir me battre avec une interface graphique censée me « simplifier » la vie. Oui, une telle ligne est un peu compliquée à préparer une fois, mais l'intérêt est qu'une fois qu'on sait ce dont on a besoin, on peut la réutiliser sans réfléchir de façon très efficace, alors qu'avec une interface graphique il faut toujours refaire la même danse.

(Je précise Moodle semble bien avoir des outils permettant de s'en servir en ligne de commande, mais c'est uniquement pour l'administrateur, et je ne suis pas administrateur du Moodle mis en place par mon employeur. Donc je ne pense pas que je puisse mettre à jour les sites pédagogiques de mes cours via des lignes de commande.)

Idem quand il s'agit d'éditer un fichier : oui, c'est peut-être plus fastidieux a priori de devoir taper quelque chose du genre ceci est en <b>gras</b> pour mettre un bout de texte en gras, mais l'avantage du texte brut est qu'on sait exactement comment il interagit avec l'éditeur, comment il se comporte pour le copier-coller, ce que ça signifie de comparer des versions du document et d'afficher les différences entre elles. Mon éditeur a tout ce qu'il faut (notamment un système de macros puissant) pour faciliter l'automatisation, la recherche-remplacement ou la gestion des versions quand il s'agit d'un fichier à éditer constitué d'une succession simple de caractères Unicode, mais dès qu'il y a des contenus plus riches, les outils sont considérablement plus merdiques. Et surtout, on n'a plus vraiment le choix de l'outil : si je veux éditer un fichier texte brut, je peux choisir l'éditeur qui me plaît ; par exemple, si je veux éditer un fichier Word, je dois utiliser Word ou éventuellement LibreOffice, mais en tout cas mes choix sont nettement plus limités.

Et encore, je postule ici que j'ai affaire à des interfaces graphiques pas trop mal conçues. Mais quand il s'agit d'outils développés au sein d'une organisation, ou sous-traitées à des développeurs incompétents qui n'ont aucune notion des bonnes pratiques en interfaces homme-machine, c'est plutôt la petite boutique des horreurs. Je n'ai pas tant à me plaindre de l'interface de Moodle en elle-même, qui n'est pas catastrophique en tant qu'interface graphique, mais celles qui nous servent à, par exemple, déclarer nos jours de congés (ou, pire, à alimenter notre compte épargne-temps), à ouvrir un ticket de maintenance auprès des services logistiques, à déclarer nos activités d'enseignement, etc., sont des abominations même quand on n'a pas de tâches répétitives à accomplir dedans. Parce que, oui, ça fait aussi partie du problème des interfaces graphiques qu'elles sont difficiles à programmer, et que quand c'est mal fait ça peut être une abomination.

Mais il n'y a pas que la réalisation des tâches répétitives que l'interface graphique rend pénible. Il y a encore au moins deux autres choses que je dois mentionner.

D'abord, la sauvegarde de l'état complet et l'examen de celui-ci. Je veux dire que quand j'interagis avec un programme via des lignes de commande et des fichiers texte de configuration, je peux normalement (enfin, je devrais pouvoir) compter sur le fait que ces lignes de commande et fichiers sont la totalité de ce qui détermine le comportement du programme. Dans une interface graphique, il est impossible de voir tout l'état à la fois, et souvent impossible de le sauvegarder de façon décente. Si j'ai un problème, je dois chercher les réglages dans tous les menus et tous-menus (il n'y a souvent pas d'outil de recherche du texte dans les menus) ; si je veux communiquer à quelqu'un d'autre tous les changements de réglages que j'ai faits, je dois les examiner à la main ou lui envoyer des captures d'écran effectuées laborieusement, au lieu de pouvoir envoyer un fichier de configuration unifié. Si je veux sauvegarder une configuration dont je suis content pour pouvoir éventuellement y revenir plus tard, je n'ai pas d'autre choix que de noter manuellement tous les réglages que j'ai faits. Ne parlons pas de quelque chose comme « trouver tous les changements que j'ai faits entre <telle date> et <telle date> ». Tout ça est tellement (inutilement) fastidieux ! D'autant que les ordinateurs sont justement censés nous simplifier ce genre de choses.

Et je ne parle même pas du fait que les interfaces graphiques ont tendance à avoir un état opaque, unique, dont on ne sait jamais très bien quelles manipulations vont l'affecter de façon permanente (parfois il y a un bouton annuler, mais on ne sait jamais vers quoi il revient) : pas possible d'ouvrir un état secondaire, pour tester, et revenir à l'état principal si on n'est pas content du test. Si on fait un changement dans les réglages, paf, il est effectif immédiatement, on n'a pas de « mode de test », de possibilité d'annuler en bloc ou quoi que ce soit du genre.

Enfin, il y a un autre aspect qui me semble très important et rarement discuté : dans une interface textuelle (lignes de commande ou fichiers de configuration), il y a toujours moyen de commenter ce qu'on fait, pour expliquer à soi-même (ou à d'autres avec qui on collabore) pourquoi on a modifié ce réglage, pourquoi on a fait ce choix, pourquoi il ne faut pas y toucher, ce genre de choses. Les commentaires sont une méta-information cruciale. Les interfaces graphiques ne permettent pas de laisser des commentaires sur ce qu'on fait. (Pas que ce soit structuralement impossible, certes, on pourrait très bien imaginer une interface graphique qui permette d'ajouter des commentaires sur chacun de ses propres réglages, de rechercher dedans, etc. Mais en pratique, je n'ai jamais vu ça, et même s'il y a peut-être quelques outils où ça existe, le problème des interfaces graphiques est aussi qu'elles sont idiosyncratiques : chaque outil a la sienne, donc il faudrait redévelopper ça N fois. Les fichiers de configuration, par contraste, ont plein de conventions sur les commentaires, mais on peut être quasi certain que chacun a une façon d'en mettre.)

L'idéal, évidemment, c'est quand un même outil peut être utilisé à la fois de façon graphique (pour ceux qui veulent s'en servir rapidement et sans apprendre) et de façon textuelle, et surtout, que le pont entre les deux façons de s'en servir est bien fait : qu'à chaque fois qu'on en a un usage graphique, il va expliquer comment on aurait pu produire le même résultat en ligne de commande (ou en éditant un fichier), que les commentaires ajoutés dans un fichier de configuration textuel sont affichés dans la version graphique, sont préservés par la modification dans l'interface graphique mais peut-être avec un commentaire supplémentaire modifié dans l'interface graphique à <telle date>, bref, c'est l'idéal, mais à condition que ce soit bien fait, et je ne connais en gros pas un seul exemple de cas où ce soit bien fait.

Alors oui, c'est tellement à la mode (depuis ~40 ans, hein… je ne parle pas d'une mode récente) de dire que c'est aux ordinateurs de s'adapter aux humains et pas le contraire, et qu'on va faire des trucs simples et utilisables par tout le monde, mais en fait je pense que c'est une forme de populisme d'essayer de rentre les outils (faussement) intuitifs avec des interfaces graphiques partout, et que la perte de productivité à cause de cette fausse bonne idée a été colossale, sans compter l'idée désastreuse qu'il n'y a pas besoin d'apprendre l'informatique quand on ne va pas travailler en informatique.

Tout le monde, un jour ou un autre, aura une tâche répétitive à accomplir sur un ordinateur. Si pour faire 50 fois la même chose votre interface vous oblige à répéter 50 fois les mêmes gestes, votre interface est une merde. Et c'est probablement le cas.

↑Entry #2838 [older| permalink|newer] / ↑Entrée #2838 [précédente| permalien|suivante] ↑

↓Entry #2837 [older| permalink|newer] / ↓Entrée #2837 [précédente| permalien|suivante] ↓

(vendredi)

L'étrange cas de la formule de Koide

J'ai déjà fait des billets dans ce blog, notamment ici, (et avant, ici) et dans une certaine mesure ceci sur la physique des particules. Mon but n'est pas de revenir là-dessus[#], mais de parler un peu de quelque chose qui est soit une curiosité soit un mystère de la physique des particules : la formule de Koide.

[#] D'ailleurs, si vous voulez de meilleures explications que les miennes, John Baez (un physicien assez connu, quoique moins connu que, dans un tout autre domaine, sa cousine, et avec lequel j'eus d'ailleurs interagi à l'époque de Twitter) a commencé à faire une série de vidéos YouTube de semi-vulgarisation du modèle standard : les trois premières parties sont là 1, 2 et 3.

[Tableau des particules élémentaires]Rappelons un peu le contexte (je renvoie aux liens ci-dessus pour plus d'explications et de détails) : le « modèle standard » de la physique des particules est une théorie (ou peut-être qu'on devrait dire une réunion de diverses théories) qui représente notre meilleure compréhension de la physique fondamentale à l'exclusion[#2] de la gravitation. Ce modèle décrit le comportement et les interactions d'une petite ménagerie[#3] de particules qu'on pense élémentaires. Dans la ménagerie, il y a des particules de force, ou « bosons »[#4], qui ne m'intéressent pas ici, et des particules de matière, ou « fermions ». Ces fermions élémentaires viennent en trois « générations » ou « familles » (la légère, la moyenne et la lourde), et dans chaque génération, il y a quatre particules : un lepton chargé (de charge −1), un neutrino (sans charge), un quark négatif (de charge −1⁄3) et un quark positif (de charge +2⁄3). Si vous êtes perdus, voyez le schéma récapitulatif que j'avais fait et que je reproduis ci-contre à droite : je parle ici du quadrant supérieur droit de ce schéma, et c'est surtout sa première ligne (celle des leptons chargés) qui va m'intéresser.

[#2] On a une bonne théorie de la gravitation (la relativité générale), une bonne théorie de la physique des particules (le modèle standard), et ces deux théories sont incompatibles de plein de manières. Il y a des théories qui prétendent les réconcilier, mais elles n'ont absolument aucune base expérimentale.

[#3] On peut trouver qu'il y en a beaucoup (trop ?), mais c'est déjà moins chaotique que le zoo florissant qu'était le monde des « hadrons » (particules qu'on comprend maintenant comme formées de quarks et pas élémentaires) avant la découverte des quarks.

[#4] Ce sont : le photon (γ), les bosons W± et Z⁰, les gluons, auxquels on aimerait pouvoir ajouter un graviton que j'ai imprudemment fait apparaître sur mon schéma (toutes celles que je viens de lister étant des bosons dits de jauge), ainsi que le boson de Higgs qui est encore un peu à part.

Parmi ces particules, les trois qui nous intéressent vraiment sont les trois leptons chargés : ce sont l'électron (e⁻), le muon (μ⁻) et le tau(on) (τ⁻). L'électron est un composant fondamental de la matière qui nous entoure, c'est lui qui est responsable en gros de toute la chimie ; le muon et le tau sont des cousins plus lourds de l'électron, on ne les voit pas dans la vie courante parce qu'ils se désintègrent (en respectivement 2.2×10−6 s et 2.9×10−13 s environ), néanmoins les muons sont un composant important des rayons cosmiques. Les trois particules en question ont des masses très différentes : la masse de l'électron (valeurs précises ici ou ici) vaut, selon les unités que vous préférez, environ 5.49×10−4 unités de masse atomique, ou 0.511 MeV, ou encore 9.11×10−31 kg ; la masse du muon (valeurs précises ici ou ici) vaut environ 207 fois celle de l'électron, et celle du tau (valeurs précises ici ou ici) environ 3480 fois celle de l'électron (16.8 fois celle du muon, ou environ 1.91 unités de masse atomique).

Ces nombres ne sont pas du tout prédits par le modèle standard. Revenons un petit peu en arrière à ce sujet.

Le modèle standard est une théorie qui marche très bien. (À ma connaissance, il n'y a pas une seule expérience à l'échelle microscopique — notamment, ne faisant pas intervenir la gravitation — qui entre en désaccord expérimental clair avec les prédictions du modèle standard. Régulièrement on entend parler d'indices de physique au-delà du modèle standard, mais il me semble que ça fait toujours pschitt.) En fait, le modèle standard marche trop bien, et c'est un problème, parce qu'il est profondément insatisfaisant pour toutes sortes de raisons.

Un problème du modèle standard est qu'il y a toutes sortes[#5] de constantes magiques dedans qu'il n'explique pas — qu'il ne prétend pas expliquer — ce sont juste des paramètres du modèle, qui valent ce qu'ils valent. (Ces paramètres sont, notamment, les masses d'à peu près toutes les particules dans la ménagerie, ou du moins des choses qui permettent de les calculer, ainsi que des « constantes de couplage », mais aussi d'autres paramètres comme les paramètres de Cabibbo-Kobayashi-Maskawa et ceux de Pontecorvo-Maki-Nakagawa-Sakata.) Il y a aussi le fait qu'il y a trois générations de leptons et quarks : pourquoi précisément trois ? On peut construire des théories analogues avec n'importe quel nombre de générations (je crois que ce n'est même pas indispensable qu'il y ait autant de générations de leptons que de quarks), donc ce n'est pas une prédiction, c'est un paramètre. Plus fondamentalement, pourquoi est-ce qu'on a toute cette petite ménagerie de particules (bizarrement bien organisée côté fermions, et bizarrement ad hoc côté bosons) dont plein d'entre elles ne « servent à rien » au sens où elles n'apparaissent pas dans la matière qui nous entoure. (Comme I. Rabi s'est exclamé à propos de la découverte du muon : Who ordered that?)

[#5] Une vingtaine (en ne comptant que les nombres sans dimension, parce que tout ce qui a une dimension n'est pas une vraie constante de la nature et peut être rendu égal à 1 en choisissant les bonnes unités). John Baez ici en compte 26, mais c'est pour toute la physique, donc pour le modèle standard je retirerais la constante cosmologique (qui ne fait pas partie du modèle standard) ainsi qu'un paramètre de masse (parce que sans gravitation il n'y a pas d'unité naturelle de masse), donc je dirais 24. Mais on peut ajouter d'autres choses, comme l'angle du vide de la chromodynamique quantique (qui expérimentalement semble valoir exactement zéro, mais le modèle standard lui permet d'être non-nul, donc faut-il dire que c'est un paramètre qui expérimentalement vaut zéro, ou qu'il n'existe pas ?), ou des possibles masses de Majorana des neutrinos (on ne sait pas s'ils en ont, mais ils pourraient). Voici un autre décompte, qui arrive à 19 sans dimensions, mais c'est parce qu'il prend des neutrinos de masse nulle.

Les physiciens ont inventé toutes sortes de théories qui expliquent (ou pourraient expliquer, ou prétendent pouvoir expliquer) toutes sortes de choses laissées inexpliquées par le modèle standard, parfois juste parce que ces théories sont mathématiquement agréables. Malheureusement, il n'a pas le moindre commencement de raison expérimentale[#6] de penser que ces théories soient justes.

[#6] La vulgarisatrice Sabine Hossenfelder aime beaucoup se moquer des gens qui ont perdu tout contact avec la réalité expérimentale et qui, sur la base de considérations d'esthétique mathématique, n'arrêtent pas d'échafauder des nouvelles théories prédisant toutes sortes de nouvelles particules (par exemple la « supersymétrie » qui propose carrément de doubler le nombre de particules), en arguänt que ces théories satisfont bien l'impératif poppérien d'être réfutables puisqu'on peut chercher les particules qu'elles prédisent, mais quand la nature n'a pas envie de se conformer à leur sens de l'esthétique et que les dites particules refusent obstinément d'apparaître dans les accélérateurs, au lieu de considérer la théorie comme réfutée, on trouve un moyen de la modifier pour la sauver quand même (en fait ces particules nouvelles ont une masse plus importante que nous croyions !), et un prétexte pour réclamer un accélérateur de particules encore plus puissant. Je trouve qu'elle (Sabine) est un peu inutilement caustique, et elle s'est fait beaucoup d'ennemis, mais sur le fond, la critique est légitime : la physique des particules s'est tellement détachée de la nécessité de répondre à des questions expérimentales qu'on peut parler de crise épistémologique. Il n'y a vraiment aucune raison de croire à la véracité physique de choses comme la supersymétrie ou les théories grandes unifiées ou la théorie des cordes (et j'inclus ici la théorie de mon papa, la géométrie non commutative, mais lui au moins avait le bon goût de ne pas prétendre faire des prédictions expérimentales).

Alors bien sûr on peut se résigner au fait que peut-être le modèle standard est la fin de la physique (gravitation exclue, quand même) et qu'il n'y a rien de plus à dire, et que le monde est spécifié par ~20 paramètres qui sont ce qu'ils sont et ça n'a pas de sens de se demander[#7] pourquoi ils ont justement ces valeurs-là.

[#7] Ou peut-être qu'on peut se dire on a de la chance que ces paramètres permettent la vie ! — si comme moi vous trouvez cette réflexion un peu stupide, c'est probablement que vous croyez au moins un peu au principe anthropique, cf. ici. Mais savoir dans quelle mesure notre univers est typique parmi ceux qui permettent la vie est une question complètement non-résolue.

Zut, je commence à partir dans des digressions et des digressions sur les digressions, alors venons-en enfin à la formule de Koide. C'est une étrange coïncidence numérique apparente entre certains de ces paramètres, à savoir les masses de l'électron, du muon et du tau. Et la question à 42 zorkmids, c'est si cette formule est une coïncidence, ou si elle reflète quelque chose de profond.

La formule est généralement présentée ainsi (et je vais dire que ce n'est sans doute pas la meilleure façon de la voir) :

me + mμ + mτ ( me1/2 + mμ1/2 + mτ1/2 ) 2 2 3

— où me désigne la masse de l'électron, mμ celle du muon et mτ celle du tau (dans n'importe quelle unité puisque la formule est homogène, cf. ci-dessous).

Expérimentalement, ça semble vrai. Si je rentre les masses expérimentales de l'électron, du muon et du tau dans la formule, je trouve 0.6666645 ± 0.0000051 (l'incertitude vient presque entièrement de celle sur la masse du tau).

Pour être bien clair, il n'y a aucune théorie derrière cette formule[#8] : c'est une constatation. Maintenant, est-ce que c'est un hasard, ou est-ce qu'elle signifie quelque chose ?

[#8] Historiquement, il semble qu'il y en avait une. Mais cette théorie a été falsifiée. La formule, cependant, demeure.

D'abord, je trouve qu'elle est très mal écrite : l'expression ci-dessus peut sembler totalement arbitraire (et la valeur de 2/3 pas moins). Au lieu de prendre la somme et la somme des racines carrées des masses de l'électron, du neutrino et du tau, il vaut mieux y penser comme des moyennes. C'est-à-dire réécrire la formule de Koide (en multipliant par 3 l'expression ci-dessus) comme :

moyenne1 ( me , mμ , mτ ) moyenne1/2 ( me , mμ , mτ ) 2

— où moyennep ( x1 , , xk ) := ( 1k ( x1p + + xkp ) ) 1/p désigne la moyenne d'ordre p (une expression mathématique quand même très courante). Je ne comprends pas pourquoi on ne l'écrit pas comme ça, ce qui est quand même sacrément plus parlant.

↑Entry #2837 [older| permalink|newer] / ↑Entrée #2837 [précédente| permalien|suivante] ↑

↓Entry #2836 [older| permalink|newer] / ↓Entrée #2836 [précédente| permalien|suivante] ↓

(mercredi)

L'impossible question de la genèse des idées

En lisant un texte d'histoire des maths je repensais à la question épineuse de raconter l'histoire des idées. Quelques réflexions à ce sujet. (Comme je me cherche à faire des billets moins interminables, je vais essayer de ne pas partir dans tous les sens. Divulgâchis : ça ne va que médiocrement marcher.)

Un des problèmes généraux de l'Histoire est que non seulement il faut enquêter pour retrouver les faits eux-mêmes, mais, même si on est d'accord sur les faits (par exemple, pour l'histoire des idées : qui a écrit quoi à quel moment), il faut encore débattre de leur interprétation, ce qui peut tomber dans un débat sémantique très glissant. (Là normalement vous vous attendez tous à ce que je fasse un lien vers ce billet-ci, mais en fait je suis plutôt tenté d'en faire un vers celui-là.)

Un exemple typique serait d'essayer de démêler les causes d'un événement : du point de vue de la physique, la notion de cause n'a pas de sens[#], ou, dans la mesure où elle en a, elle n'est pas celle qui est pertinente pour l'historien : si un papillon en 1850 avait battu ses ailes un tout petit peu différemment, François-Ferdinand d'Autriche ne serait pas né (au moins, quelqu'un de très différent serait né, et qui aurait une chance sur deux d'être une fille), ainsi que plein d'autres des acteurs majeurs en 1914, et la première guerre mondiale n'aurait peut-être pas eu lieu (à ce moment-là[#2]), ou du moins les choses auraient été très différentes ; pourtant, personne ne qualifierait sérieusement (en tout cas dans le contexte de l'Histoire) le moindre battement d'aile de papillon en 1850 de cause de la première guerre mondiale. Mais comme, du coup, il n'y a aucune définition claire de ce qu'est une cause, deux historiens pourront toujours débattre sur le fait que tel ou tel fait soit ou non une cause de tel ou tel événement, même s'ils sont d'accord sur exactement tous les faits. Et comme on ne peut pas rejouer l'histoire, il n'y a aucun moyen de trancher les questions conditionnelles du style si ceci s'était passé différemment, alors cela serait arrivé (à la limite c'est un problème encore différent : même si on pouvait, on ne saurait quand même pas pour autant ce qu'est une cause).

[#] Voyez par exemple cette vidéo pour une explication.

[#2] Les petits malins feront remarquer qu'il est très vraisemblable qu'il y ait une guerre mondiale un jour, quelle que soit sa forme, et que s'il y a une guerre mondiale il y a forcément une première guerre mondiale, donc la cause de la première guerre mondiale est l'inévitabilité de conflits mondiaux. (Et donc que ce qu'on cherche quand on cherche les causes de la première guerre mondiale ne sont pas les raisons de l'existence d'une première guerre mondiale mais du fait qu'elle se soit produite sous une forme bien précise à un moment bien précis.) Les encore plus malins feront remarquer que la première guerre mondiale a en fait eu lieu de 1756 à 1763 donc ses causes sont à chercher avant ce moment-là. Je blague, mais c'est un peu une illustration de ce que je cherche à dire : parler de causes de la première guerre mondiale est épineux quand, pour des raisons différentes, on ne sait proprement définir ni cause ni première guerre mondiale.

Mais le flou autour de la notion de cause d'un événement n'est pas le seul exemple. Il y aussi, et c'est ce que je veux évoquer ici, le flou autour de la notion de l'origine d'un concept. L'histoire des idées est particulièrement casse-gueule : parce que pour faire l'histoire d'une idée, il faut attribuer des limites à cette idée, et ces limites sont encore plus floues que quand on peut se rattacher à des faits matériels.

Ce que je veux dire, c'est que répondre à une question comme qui est la première personne à avoir construit une machine à vapeur ? est déjà délicat parce qu'il faut définir ce que c'est qu'une machine à vapeur, et probablement les toutes premières[#3] ne sont pas identiques à la façon dont le truc s'est standardisé (donc ce que nous — post révolution industrielle — appelons maintenant une machine à vapeur) ; mais c'est encore plus pour une question comme qui est la première personne à avoir formulé le principe de la conservation de l'énergie ?[#4], parce que c'est encore plus difficile de donner des contours à une idée qu'à un objet.

[#3] Concrètement, donc : est-ce que vous considérez l'éolipyle de Héron d'Alexandrie (au premier siècle avant notre ère) comme une machine à vapeur ? Ce n'est pas une question sur les faits, c'est une question sur les contours des notions.

[#4] La Marquise du Châtelet ? Julius von Mayer ? Albert Einstein ? Tout dépend ce qu'on appelle la conservation de l'énergie : ces trois personnes et d'autres ont apporté une contribution essentielle dans l'idée d'énergie telle que nous la concevons maintenant, et c'est ensuite une décision essentiellement arbitraire que de dire qu'à partir de tel degré de maturation de l'idée c'« est » la conservation de l'énergie alors qu'avant, non.

Retracer l'histoire d'une idée (scientifique, disons) c'est souvent comme essayer de retracer l'histoire du bateau de Thésée : l'idée est passée par la tête de plein de gens successivement, qui l'ont chacun modifiée un petit peu jusqu'à ce qu'on arrive à la conception moderne, et décider qui dans la chaîne est le découvreur est un exercice assez arbitraire (et peut-être un chouïa futile).

Il arrive, évidemment, qu'une idée scientifique apparaisse assez soudainement (et même comme ça, ça peut être chez plusieurs personnes indépendamment, comme la notion d'évolution par sélection naturelle, qui a été imaginée par Wallace à peu près simultanément avec Darwin) ; mais le plus souvent c'est le résultat d'une longue maturation dont les étapes finales peuvent être les parties émergées de l'iceberg.

J'y pense notamment si je veux évoquer un tout petit peu de l'histoire de la calculabilité (dans le cadre d'un cours que je donne à Télécom) : qui a inventé le concept d'algorithme ? de calculabilité ? de programme ? d'ordinateur ? La réponse à toutes ces questions est toujours ça dépend ce que vous entendez par là exactement, et si on peut citer plein de noms (al-H̱wārizmī, Babbage, la comtesse de Lovelace, Gödel, Church, Turing, von Neumann… parmi plein d'autres), il n'y en a pas un qui répond clairement à une de ces questions.

Mais je veux surtout mentionner ici une sorte de débat récurrent entre mathématiciens et historiens des mathématiques (je suppose que ce n'est pas spécifique aux maths, mais c'est ce que je connais) quand on tente de retracer l'histoire d'un concept. Je trouve que ce débat est assez bien expliqué dans l'introduction de cet article d'Amir Asghari consacré à la question (par ailleurs passionnante) de l'histoire de la notion d'équivalence (comme dans relation d'équivalence) en mathématiques, et qui évoque un débat entre le mathématicien Christopher Zeeman et l'historien David Fowler sur la conception de rapport et de proportionnalité dans le livre V des Éléments d'Euclide.

De façon très sommaire (très schématique et stéréotypée), le mathématicien qui s'intéresse à l'histoire d'un concept mathématique a tendance à chercher à le réduire à une idée-clé, et rechercher qui, historiquement, lui semble avoir eu cette idée-clé. Ceci implique souvent une importante réinterprétation de l'histoire à la lumière de notre compréhension présente des mathématiques[#5] : le découvreur de l'idée-clé n'avait parfois aucune idée de ce qu'il faisait, mais quand on repense à ses idées avec l'éclairage du présent, on peut dire rétrospectivement : c'est lui, à ce moment-là, qui a débloqué tel blocage intellectuel qui empêchait d'arriver à une conception claire de tel concept. Je ne dis pas que le mathématicien simplifie forcément l'histoire des idées au point d'attribuer chaque concept à un unique découvreur, mais disons que ce qui l'intéresse avant tout c'est la genèse de la version abstraite de l'idée, revue avec les yeux d'aujourd'hui, et débarrassée de la confusion de sa formulation historique. La recherche du germe qui deviendrait, ultérieurement, le concept dont on parle. C'est dans ce sens que, par exemple, Galois est l'inventeur de ce que nous appelons maintenant la théorie de Galois, alors que la théorie de Galois faite par Galois était quand même sérieusement différente de la théorie de Galois enseignée de nos jours[#6]. Et Fourier n'a pas non plus montré l'existence d'un isomorphisme isométrique entre ℓ² et L²(ℝ/ℤ).

[#5] Parfois cette réinterprétation va tellement loin qu'elle en devient un peu comique, comme cette blague de géomètres algébristes selon laquelle au VIIe siècle avant notre ère, Thalès de Milet a montré que les espaces de configurations de matroïdes sont universels au sens des motifs de Grothendieck. (Cette phrase est, en fait, une version paraphrasée, tronquée et caricaturée d'une remarque de Laurent Lafforgue dans Chirurgie des Grassmanniennes. Il écrit plus précisément (page 3 dans la version prépubliée) : Comme Ofer Gabber l'a fait remarquer à l'auteur (citant en particulier le livre [Artin, Geometric Algebra (1957)]), il résulte trivialement du théorème de Thalès que tout schéma intègre de type fini sur ℤ contient comme ouvert un espace […] de configurations de points dans le plan projectif. En effet, le théorème de Thalès dit que la multiplication et l'addition, donc aussi tout polynôme à coefficients entiers, se modélisent par des relations d'alignement dans le plan. […Il résulte] de ces remarques que [les espaces de configurations] sont universels au sens des motifs et ont des singularités arbitraires. Donc en fait, Lafforgue n'attribue pas ce résultat tel quel à Thalès ; néanmoins, résumer le théorème de Thalès en expliquant qu'il dit que les relations polynomiales sur ℤ se modélisent par des relations d'alignement dans le plan est assez typique de la réinterprétation par les mathématiciens d'un résultat passé, que Thalès n'aurait évidemment pas reconnu, si tant est qu'il est l'auteur du théorème qu'on lui attribue. Le trivialement, suggérant que le théorème de Thalès est la partie difficile de tout ce qui est raconté est aussi assez hilarant comme stéréotype de la manière dont un mathématicien brillant s'exprime. J'avais déjà évoqué ce passage dans ce billet passé.)

[#6] Je ne sais plus si j'avais raconté ça sur ce blog, mais quand, en 1998, nous avions demandé à Luc Illusie (nous étant un certain nombre d'élèves de 2e année de l'ENS qui avions suivi son cours de géométrie algébrique en DEA à Orsay) comment il comptait expliquer la théorie de Galois en première année à l'ENS (où il avait été chargé du cours d'Algèbre II), il nous avait répondu quelque chose comme ceci : oh, je vais juste faire quelque chose de très simple : pour moi la théorie de Galois c'est l'équivalence entre le topos étale sur un corps et le topos des ensembles sous l'action continue du groupe de Galois absolu de ce corps. Nous avions beaucoup rigolé, mais, après coup, certains d'entre nous ont beaucoup moins rigolé, et ont admis qu'Illusie avait évidemment parfaitement raison, et que l'équivalence entre le topos étale sur un corps et le topos des Γ-ensembles (avec Γ le groupe de Galois absolu — profini — de ce corps) « est » bien le contenu essentiel, le résumé conceptuel et la substantifique moëlle de la théorie de Galois. Ceci étant, il n'y a pas besoin d'être historien pour savoir que Galois ne pensait évidemment pas en ces termes. (Pour être un peu moins anachronique, on peut parler de théorie de Galois-Grothendieck, ou de théorie de Galois dans sa reformulation par Grothendieck.) En tout cas, c'est un bon exemple de ce dont je parle : les matheux partent d'une idée-clé (ici celle de Galois), cherchent à la transformer et la retravailler jusqu'à prendre sa forme la plus générale possible qui soit satisfaisante à leurs yeux, et considèrent que c'est toujours le même bateau de Thésée alors que les historiens lèvent les yeux au ciel.

À l'inverse, ce qui intéresse l'historien des mathématiques, c'est comment tel ou tel personnage écrivait ou voyait les choses avec le langage et le point de vue de l'époque. L'Histoire cherche justement à éviter la réinterprétation du passé par le présent (même si ce n'est évidemment pas possible de s'affranchir complètement du présent) : il est saugrenu pour l'historien de prétendre qu'Euclide parlait de relations d'équivalences ou de nombres réels (ou que Galois parlait d'équivalence entre topos).

Ce serait idiot de prétendre qu'un de ces points de vue est meilleur que l'autre. Ce sont juste deux façons différentes de voir le monde (et le passé), avec des buts différents. L'historien peut reprocher au mathématicien de réécrire créativement l'histoire ; et le mathématicien aura beau jeu de répondre que ce qui l'intéresse, lui, n'est, justement, pas l'histoire pour elle-même, mais les idées mathématiques qu'elle nous a apportées. À l'inverse, le mathématicien peut reprocher à l'historien de rater la forêt parce qu'il ne voit que les arbres (ou de rater l'arc pour les pierres) : de tellement se focaliser sur l'incarnation précise d'une idée à un moment donné qu'on ne voit plus la genèse de l'idée à travers ses métamorphoses ; et l'historien aura beau jeu de répondre que tout ça est une reconstruction ex post facto.

Dans un cas on s'intéresse à la genèse historique d'une idée (ce qui s'est réellement passé dans le monde réel), dans l'autre cas à sa genèse intellectuelle (le chemin dans le monde abstrait des idées, qui aboutit à ce concept). L'un cherche à tracer l'histoire réelle du bateau de Thésée, l'autre l'inscrit dans une construction mentale qui permet de mieux comprendre le bateau même s'il ne retrace pas le cours précis de son évolution. Ce qui est normal car le but de l'historien est de documenter le passé historique tandis que celui du mathématicien est de comprendre et de prendre du recul sur les maths (donc quand un mathématicien fait de l'histoire des maths c'est souvent un prétexte pour explorer différents points de vue sur une idée mathématique).

Évidemment, ce que je viens de raconter est très sommaire et très caricatural, et la distinction entre ces deux points de vue n'est jamais parfaitement tranchée, mais la tendance n'en est pas moins réelle.

Un exemple du phénomène peut se voir dans l'histoire de la calculabilité : tous les matheux ou informaticiens qui font un cours de calculabilité disent tout le temps que l'indécidabilité du problème de l'arrêt est un théorème dû à Turing (c'est même le théorème central de Turing, expliquera-t-on). Et pourtant, si on va chercher ce qu'a vraiment écrit Turing, il ne parle pas du tout du problème de l'arrêt. Cet exemple est décrit avec plus de détails ici dans un exposé par Joel David Hamkins. Du point de vue des historiens, c'est une réécriture de l'histoire : si Turing n'a pas démontré ce résultat, on ne doit pas dire que Turing a démontré l'indécidabilité du problème de l'arrêt. Du point de vue du mathématicien, ce qui compte est que Turing a démontré un résultat qui est maintenant à peu près évidemment équivalent à celui de l'indécidabilité du problème de l'arrêt : comme l'indécidabilité du problème de l'arrêt est le résultat étalon grâce auquel on démontre toutes sortes de résultats d'indécidabilité en calculabilité, ce qui importe n'est pas que Turing ait démontré ce résultat négatif précis, mais un résultat qui pouvait tenir ce rôle — mathématiquement, la séparation entre ce que nous appelons maintenant les degrés de Turing 0 et 0′. Et savoir qui a vraiment démontré en premier l'indécidabilité du problème de l'arrêt n'a pas énormément d'intérêt (je ne sais d'ailleurs pas la réponse) : c'est juste la reformulation moderne de l'idée essentielle de Turing, donc c'est à lui qu'on attribue ce résultat[#7].

[#7] Fondamentalement, le problème est de savoir quand deux théorèmes ou deux preuves doivent être considérés comme équivalents, problème auquel on n'a pas de réponse. Pour expliquer pourquoi les matheux trouvent que les historiens pinaillent, je peux imaginer le dialogue imaginaire suivant : un mathématicien explique qu'Untel a prouvé <tel théorème> ; un historien rétorque que pas du tout ; le mathématicien répond que, si, c'est page tant de tel article ; l'historien dit que, non, les notations sont différentes : si on change les lettres, ce n'est pas le même théorème. Où est la limite : changer les notations ? remplacer une implication par sa contraposée ? simplifier l'énoncé en introduisant une définition qui n'était pas dégagée au moment où l'énoncé a été fait ? à quel moment est-ce que ce n'est plus le même théorème ?

Encore une fois, les deux points de vue sont légitimes. Ce qui est vrai, cependant, c'est qu'il est quand même important de dire clairement duquel on se place, et de ne pas tenir d'affirmation fausse. Il faut donc trouver des tournures de langage permettant de dire de manière raisonnablement claire et précise ce qu'on cherche à dire, et ne pas mentir sur l'Histoire. Le mot essentiellement est une possibilité (l'indécidabilité du problème de l'arrêt est essentiellement un théorème de Turing), on peut peut-être faire mieux ou plus précis (Turing a démontré un résultat qui, rétrospectivement, est essentiellement équivalent à l'indécidabilité du problème de l'arrêt a l'avantage d'expliciter le fait que c'est une réinterprétation rétrospective du passé, qui s'assume comme telle).

Bon, je m'arrête ici parce que sinon je vais m'enliser. Ce billet se place au rang 295 (sur 2836) des entrées de ce blog en longueur décroissante, donc ma tentative pour faire un peu court n'est toujours pas un franc succès.

↑Entry #2836 [older| permalink|newer] / ↑Entrée #2836 [précédente| permalien|suivante] ↑

↓Entry #2835 [older| permalink|newer] / ↓Entrée #2835 [précédente| permalien|suivante] ↓

(samedi)

Insomnies et réseau du mode par défaut (et ce blog)

Les billets de ce blog deviennent insupportablement longs, et je cherche le moyen de me forcer à écrire des choses plus courtes, à ne pas prendre un sujet sur lequel j'ai un million de choses à dire et à le décortiquer par le menu. Je vais donc faire un effort délibéré pour écrire des entrées plus courtes (divulgâchis : je sens gros comme une maison que ça ne va pas marcher).

Pourquoi ne pas en profiter pour revenir un peu sur le processus mental qui me conduit à écrire ici. (Ça va recouper ce que j'ai déjà dit dans ce billet mais tant pis.)

Généralement ça commence la nuit. Je suis assez facilement victime d'insomnies. Mes insomnies peuvent avoir plein de raisons, physiques (comme une narine obstinément bouchée) ou externes (par exemple un bruit qui me gêne), mais certaines sont clairement endogènes : mon cerveau a simplement décidé que ce n'était pas le moment de dormir.

J'ai tenté plein de choses, avec plus ou moins de succès, pour gérer ces insomnies : soit pour m'en débarrasser (comme modifier mes heures de lever ou de coucher, ou prendre quelque chose qui m'aide à dormir[#]), soit au contraire pour les utiliser pour faire quelque chose (c'est-à-dire me lever et lire, voire travailler, donc accepter une forme polyphasique de sommeil, tout en pestant contre une société dont les rythmes rendent compliqué de vivre comme ça).

[#] Vous n'imaginez pas, là, tout l'héroïsme de retenue dont je fais preuve en ne commençant pas une digression avec cinq ou six notes détaillant par le menu toutes mes conclusions au sujet des tisanes, de la mélatonine, de la doxylamine, etc.

Mais une autre approche que je commence à admettre est peut-être simplement d'assumer mes insomnies comme telles, et d'arrêter de considérer que c'est forcément un problème, mais de reconnaître que c'est un temps qui n'est pas complètement perdu.

Après tout il s'agit d'un moment que j'ai pour moi, seul avec mes pensées, sans que rien ne vienne les interrompre, sans aucune distraction, sans obligation, sans un truc à faire, sans un accès Internet qui me pousse à aller toutes les cinq minutes regarder si quelqu'un n'a pas écrit quelque chose de rigolo sur Bluesky ou s'il n'y a pas une question passionnante sur MathOverflow. (Parce que, oui, pendant la nuit, j'arrive à résister à la tentation de toucher à mon smartphone, même quand je fais des heures d'insomnie.)

Et tout ça est précieux.

Il s'agit d'une forme de repos mental. Enfin, peut-être que repos n'est pas le bon terme, mais disons, de jachère. Ce n'est pas pareil que le sommeil, et ma fatigue si je dois me lever après cinq heures de sommeil et trois d'insomnie me rappelle que ces dernières ne sont pas fongibles en les premières, mais ce n'est pas pour autant inutile.

Il y a un truc que les neurologistes appellent le réseau du mode par défaut qui peut être très grossièrement résumé comme l'ensemble de régions cérébrales qui sont actives lorsque le cerveau est éveillé mais au repos, ou, encore plus grossièrement, ce à quoi on pense quand on ne se concentre sur rien. Je ne sais pas dans quelle mesure c'est correct d'identifier ce à quoi je pense pendant mes insomnies à l'œuvre du mode par défaut ; mais je repense à un article de vulgarisation que j'ai lu quelque part (à moins que ce soit une vidéo, je ne retrouve plus) qui avançait la thèse suivante : qu'à cause de notre mode de vie contemporain bourré de sollicitations et de distractions intempestives, nous laissions trop peu de temps au mode par défaut de notre cerveau. Soit nous nous concentrons, soit nous cherchons une distraction, mais nous avons trop peur de nous ennuyer. Or l'ennui, prétendait cet article, peut être bénéfique (et en tout cas, ce n'est pas une bonne idée de chercher à le tuer à tout prix), parce que ce réseau du mode par défaut a une fonction neurologique.

C'est certainement ce que je recherche quand je sors faire une balade (si je suis avec le poussinet, nous parlons ensemble, mais pas toujours, il y a aussi de longs silences, pendant lesquels je laisse mon esprit se balader lui aussi). Là aussi j'essaie de résister, pas toujours avec succès, à la tentation de sortir mon téléphone[#2]. Parfois je pense à quelque chose de précis (une question de maths, par exemple), mais souvent je laisse le cours de mes idées vagabonder où il veut.

[#2] Le poussinet est encore bien moins bon que moi à ce jeu-là. Quand nous nous baladons ensemble, il n'arrête pas de sortir son téléphone, et même la nuit, au lit, il le fait souvent.

Et si c'est plaisant en se promenant dans la nature, il n'y a pas de raison que ce soit insupportable quand je suis dans un lit bien douillet.

Maintenant c'est sûr que ça a tendance à tourner, et c'est plus le cas la nuit que pendant une balade, vers des pensées obsédantes, souvent inquiétantes. (L'article évoqué plus haut signalait justement, si je me rappelle bien, que c'était possiblement un mécanisme du cerveau pour se préparer à affronter des situations pénibles.) Quelque chose de simplement agaçant en temps normal peut devenir lancinant[#3] quand on le rumine pendant une insomnie.

[#3] Pour donner une idée par un exemple, j'ai le souvenir d'avoir fait une insomnie pendant laquelle j'étais extrêmement malheureux que l'Internet Archive n'archive plus ce blog, et je me demandais ce que j'allais faire, et si j'allais être obligé de passer à HTTPS et comment j'allais gérer la myriade de soucis que ça me causerait.

Le terme ruminer me semble assez approprié, et c'est évidemment difficile de dire si les ruminations sont la cause de l'insomnie ou si l'insomnie est la cause des ruminations (ou les deux, en cercle vicieux).

Et donc, parfois, pendant ces moments d'insomnie, je m'imagine expliquant quelque chose à un interlocuteur imaginaire, en gros comme je le fais dans les billets de ce blog. Généralement, le matin, si je n'ai pas carrément oublié de quoi il s'agissait, je me dis que le sujet n'était vraiment pas tellement intéressant, que je n'ai rien à dire dessus et que je ne comprends pas pourquoi il m'a autant obsédé. C'est peut-être une surréaction dans ce sens qui fait que j'écarte trop les billets de blog un peu courts sur lesquels je n'ai pas énormément à dire. Mais parfois je consens[#4] quand même à noter le sujet dans un fichier TOBLOG (cf. ce que disais tantôt), et, s'il revient vraiment souvent, je vais me sentir mentalement acculé à le mettre enfin par écrit. Or je me dis maintenant que c'est le fait d'être trop sélectif quant aux billets « sur lesquels je n'ai pas énormément à dire », de trop me dire que c'est juste une obsession nocturne passagère, qui fait que ceux que je trouve finalement poussé à écrire sont aussi ceux qui sont les plus longs (et sur lesquels j'ai réfléchi pendant des heures et des heures d'insomnie, donc j'ai plein de choses à dire).

[#4] Il y a comme une sorte de négociation avec moi-même : une partie de mon cerveau nocturne accepte d'arrêter de ruminer telle ou telle idée seulement si je note sur un papier le sujet dont il était question, que je vais, le lendemain matin, ajouter dans mon fichier TOBLOG. Parfois j'ai un peu la même sensation que dans cette note de Boulet (sauf que dans son cas il semble dire qu'il se rendort immédiatement).

Voilà, et comme ce qui fait souvent que mes billets de blog deviennent pénibles pour moi à écrire c'est que je perds l'intérêt pour le sujet au fur et à mesure que je le couche par écrit, si bien que je ne sais pas comment finir, je vais m'en tenir là pour celui-ci, qui aura quand même réussir à se placer au rang 648 (sur 2835) des entrées de ce blog en longueur décroissante, donc je n'ai même pas réussi à faire plus court que la médiane.

↑Entry #2835 [older| permalink|newer] / ↑Entrée #2835 [précédente| permalien|suivante] ↑

↓Entry #2834 [older| permalink|newer] / ↓Entrée #2834 [précédente| permalien|suivante] ↓

(jeudi)

Une devinette et des méditations sur les « degrés de co-Turing »

Devinette mathématique (pas très difficile !) : Vous avez accès à un oracle omniscient auquel vous pouvez poser (de façon illimitée) des questions à réponse oui/non. Mais évidemment il y a une arnaque : au lieu de répondre oui ou non, l'oracle code sa réponse. Plus exactement, pour chaque question, il va vous donner la réponse sous forme d'une machine de Turing. Pour dire oui, il va vous présenter une machine de Turing qui s'arrête ; et pour non, il va vous présenter une machine de Turing qui ne s'arrête pas. Vous êtes limité par la thèse de Church-Turing, donc n'avez pas de moyen pour savoir en général si une machine de Turing s'arrête ou pas. (L'oracle, lui, peut évidemment répondre à cette question, puisqu'il est omniscient ; mais comme il vous donnera la réponse de façon codée, vous n'êtes pas plus avancé.) L'oracle cherche à vous embêter : il veut vous empêcher de récupérer des informations utiles de ses réponses. Problème : pouvez-vous forcer l'oracle à vous révéler des choses utiles, ou peut-il s'arranger pour rendre ses réponses complètement inutiles ?

(Si vous trouvez que c'est mathématiquement trop vague parce que je parle d'oracle omniscient sans définir ce terme, je vais présenter des versions beaucoup plus précises plus bas. Mais celle-ci me semble quand même raisonnablement claire et assez parlante pour attirer la curiosité et expliquer de quoi il est question.)

Cette devinette n'est pas trop difficile, et j'encourage à y réfléchir, ne serait-ce que pour comprendre pourquoi la suite m'intéresse. En tout cas, il ne suffit pas de dire il n'y a pas moyen calculable de résoudre le problème de l'arrêt (ce qui est, certes, vrai) pour avoir répondu au problème. Voici la réponse (cliquez ici pour la faire apparaître) :

Réponse (à la devinette facile) :

Maintenant, modifions la devinette pour la rendre plus difficile en empêchant la stratégie utilisée dans la réponse ci-dessus :

Devinette mathématique (beaucoup plus difficile !) : Comme précédemment, vous avez accès à un oracle omniscient auquel vous pouvez poser (de façon illimitée) des questions à réponse oui/non. Et comme précédemment, au lieu de répondre oui ou non, l'oracle code sa réponse. Mais cette fois, pour chaque question, il va vous donner la réponse sous forme de deux machines de Turing. Pour dire oui, il va vous donner deux machines de Turing dont l'une s'arrête et l'autre pas ; et pour non, il va vous donner deux machines de Turing qui soit s'arrêtent toutes les deux soit aucune ne s'arrête. Tout le reste est comme dans a devinette précédente : vous êtes limité par la thèse de Church-Turing, et l'oracle cherche à vous embêter. Problème : pouvez-vous forcer l'oracle à vous révéler des choses utiles, ou peut-il s'arranger pour rendre ses réponses complètement inutiles ?

Je n'ai pas la solution à cette devinette, et elle m'obsède un peu (je tourne autour de plein de variations autour d'elle, mais je n'ai vraiment aucune idée de comment l'attaquer). Donc j'essaie de la balancer dans la nature (i.e., sur le Web) dans l'espoir que quelqu'un ait une idée intelligente. (Comme je vais le dire plus bas, c'est une variation sur cette énigme que j'ai posée ici et sur MathOverflow.)

Le but de la suite de ce billet est de tourner autour du pot de cette devinette : comme le font les mathématiciens qui ne savent pas répondre à une question, ils la formalisent, donc je vais expliquer comment on peut imaginer définir une notion en quelque sorte « duale » de la notion (habituelle) des degrés de Turing, les degrés de co-Turing (ou de coTuring ? Coturing ? coturne ?), et que la devinette ci-dessus s'inscrirait dans le cadre de cette notion. Mais je ne sais malheureusement à peu près rien dire à son sujet, donc c'est un peu du formalisme pour formaliser, mais j'espère au moins convaincre que la question est bien définie (elle a un sens mathématique précis) et au moins raisonnablement naturelle.

[Je précise que ce qui précède a été pour l'essentiel écrit avant ce qui suit, ce qui peut expliquer la présentation un peu étrange.]

Le but de ce billet, donc, est pour moi de réfléchir tout haut à une définition qui m'a traversé l'esprit : ce n'est pas vraiment de faire de la vulgarisation. Si vous ne connaissez pas un peu la théorie de la calculabilité, passez votre chemin (lisez plutôt ceci, ou bien, si vous voulez quelque chose de plus costaud, ça ou ça).

Bref. Je me suis rendu compte qu'il y a une notion en quelque sorte « duale » de la réduction de Turing, qui ne semble pas du tout avoir été étudiée. Je vais essayer de donner la définition de plusieurs manières différentes, de dire quelques propriétés évidentes, et de poser des questions auxquelles je ne sais pas répondre.

☞ Définition informelle de la « réduction de co-Turing »

Je commence par rappeler :

Si A,B⊆ℕ, on dit que A est Turing-réductible à B lorsqu'on peut répondre à la question est-ce que mA ? en posant librement des questions est-ce que nB ?, par un processus calculable.

Ceci est dit de façon informelle, mais je pense que c'est assez parlant. Mais formulons les choses un peu différemment en introduisant une terminologie un peu idiote : si A⊆ℕ, je vais dire qu'un m∈ℕ est un A-codage de oui lorsque mA, et que c'est un A-codage de non lorsque mA (autrement dit, un A-codage d'un booléen c est un m tel que c = 1A(m), en notant 1A la fonction indicatrice de A). Avec cette terminologie, on peut dire (toujours informellement) :

On dit que A est Turing-réductible à B lorsqu'on peut, par un processus calculable. A-décoder un booléen, à condition d'être librement capable de B-décoder des booléens.

En encore plus court : A est Turing-réductible à B lorsque la capacité de B-décoder les booléens permet (calculablement !) de A-décoder les booléens. I.e., je postule la capacité de B-décoder et j'obtiens la capacité de A-décoder.

De façon symétrique, je propose la définition suivante (dite de façon informelle, et que je vais rendre précise ensuite) :

Si A,B⊆ℕ, on dira que A est co-Turing-réductible à B lorsqu'on peut, par un processus calculable, répondre à n'importe quelle question booléenne de façon B-encodée, à condition d'être librement capable d'obtenir la réponse à n'importe quelle question booléenne de façon A-encodée.

En encore plus court : A est co-Turing-réductible à B lorsque la capacité de A-encoder des booléens cachés permet (calculablement !) de B-encoder des booléens cachés. (Attention ! il s'agit de booléens cachés, cf. ci-dessous pour plus d'explications.) I.e., je postule la capacité de A-encoder et j'obtiens la capacité de B-encoder.

Dit comme ça, j'espère que c'est clair pourquoi la notion que je propose est en quelque sorte duale de la notion de réduction de Turing : d'où le terme de réduction de co-Turing.

Entendons-nous bien : quand je parle d'encoder un booléen, il s'agit de booléens cachés. Encoder un booléen connu c'est toujours évident : une fois qu'on a un m₀∉A et un m₁∈A, il suffit de renvoyer l'un ou l'autre, et ceci est toujours calculable. (On peut objecter oui mais si je ne connais pas de tels m₀ et m₁ ? mais ce n'est pas ce dont je veux parler ici : ma partie étant fixée, et ni vide ni pleine, ces m₀ et m₁ existent et des algorithmes écrits avec eux existent aussi ; d'ailleurs, peut-être que je devrais postuler une fois pour toutes que 0∉A et que 1∈A.)

Mon problème, donc, c'est que quelqu'un (qu'on va appeler Merlin plus bas) a choisi un booléen et ne me l'a pas dit, et moi j'ai le droit de lui poser n'importe quelle question (portant sur son booléen caché ou sur « n'importe quoi ») mais il me répond de façon A-codée ; et mon but c'est de produire un B-codage du booléen choisi.

Note : Je dois signaler que j'ai « inversé » la réduction par rapport à ce qu'on pourrait peut-être imaginer, de manière à ce que les ensembles les plus « difficiles » soient toujours réductibles aux ensembles les plus « faciles », ce qui rend la comparaison avec d'autres réductions tout de même plus naturelle, mais du coup ça peut sembler à l'envers (A est co-Turing-réductible à B lorsque la capacité de A-encoder des booléens cachés permet calculablement de B-encoder des booléens cachés). Évidemment, cette « inversion » va se sentir dans toutes les autres versions de la définition.

☞ Définition avec des jeux à trois joueurs

Pour rendre la définition précise, le mieux est d'introduire des jeux à trois joueurs. J'ai évoqué ce type de jeux dans ce billet passé (qui est une tentative de semi-vulgarisation de cet article), mais je vais redire le nécessaire. Les règles générales (toujours valables) de ce type de jeu sont les suivantes :

Il y a trois joueurs, Arthur, Nimué et Merlin. Arthur et Nimué font équipe contre Merlin. Ils jouent dans l'ordre suivant : Merlin, Arthur, Nimué, Merlin, Arthur, Nimué, etc., jusqu'à ce qu'Arthur mette fin à la partie. Nimué et Merlin voient tous les coups précédemment joués par tous les joueurs ; Arthur ne voit que les coups explicitement déclarés visibles d'Arthur. De plus, Arthur devra jouer selon une stratégie calculable (alors que les deux autres joueurs n'ont pas de telle limitation). Le jeu continue jusqu'à ce qu'Arthur y mette fin en faisant une « annonce » : si cette annonce est correcte (selon les modalités spécifiques du jeu), Arthur et Nimué gagnent ; s'il fait une annonce incorrecte, ou qu'il n'en fait jamais (y compris si sa stratégie censée être calculable ne renvoie pas de coup à jouer, par exemple parce qu'elle ne termine pas), alors Arthur et Nimué ont perdu ; et bien sûr, si un joueur ne respecte pas les contraintes du coup, alors il perd immédiatement.

En gros, il faut imaginer ça comme un jeu de communication : Nimué essaie de passer de l'information à Arthur, mais elle ne peut pas communiquer directement avec Arthur, elle ne peut le faire qu'à travers Merlin, qui essaie de leur mettre des bâtons dans les roues. La question qu'on va se poser, c'est si Arthur et Nimué ont moyen d'avoir une stratégie commune pour gagner contre Merlin.

↑Entry #2834 [older| permalink|newer] / ↑Entrée #2834 [précédente| permalien|suivante] ↑

Continue to older entries. / Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2025 Jan 2025 Feb 2025 Mar 2025 Apr 2025 May 2025 Jun 2025 Jul 2025 Aug 2025 Sep 2025 Oct 2025 Nov 2025
2024 Jan 2024 Feb 2024 Mar 2024 Apr 2024 May 2024 Jun 2024 Jul 2024 Aug 2024 Sep 2024 Oct 2024 Nov 2024 Dec 2024
2023 Jan 2023 Feb 2023 Mar 2023 Apr 2023 May 2023 Jun 2023 Jul 2023 Aug 2023 Sep 2023 Oct 2023 Nov 2023 Dec 2023
2022 Jan 2022 Feb 2022 Mar 2022 Apr 2022 May 2022 Jun 2022 Jul 2022 Aug 2022 Sep 2022 Oct 2022 Nov 2022 Dec 2022
2021 Jan 2021 Feb 2021 Mar 2021 Apr 2021 May 2021 Jun 2021 Jul 2021 Aug 2021 Sep 2021 Oct 2021 Nov 2021 Dec 2021
2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020 May 2020 Jun 2020 Jul 2020 Aug 2020 Sep 2020 Oct 2020 Nov 2020 Dec 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]