David Madore's WebLog: Quelques méditations sur la physique fondamentale

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

↓Entry #2192 [older| permalink|newer] / ↓Entrée #2192 [précédente| permalien|suivante] ↓

(lundi)

Quelques méditations sur la physique fondamentale

Avertissement : Mon intention initiale dans cette entrée était de dresser un petit bilan de l'état de la physique fondamentale tel que je le comprends (en tant que mathématicien qui voit ça de loin comme de la culture générale scientifique), avant de partir dans quelques méditations philosophiques voire métaphysiques à ce sujet, et notamment sur la question des constantes fondamentales (sans dimension) de la physique et de la « raison » de leur valeur (et sur le principe anthropique). Comme d'habitude, j'ai écrit, au cours de plusieurs week-ends, quelque chose de beaucoup plus long que ce que je pensais (et, j'en ai bien peur, un peu vaseux). J'espère néanmoins que cette entrée plutôt décousue se lit assez bien « en diagonale », c'est-à-dire que le fait de sauter un passage qu'on trouve ennuyeux et/ou incompréhensible ne devrait pas empêcher de passer à la suite.

Structure : Pour dire les choses sommairement, la physique fondamentale est celle qui cherche à trouver les lois fondamentales qui gouvernent l'Univers, c'est-à-dire celles qui déterminent, au niveau le plus intime, tous les phénomènes physiques — ce qu'on appelle aussi familièrement la théorie du tout. Mon but est ici d'exposer un petit peu quelles facettes on connaît d'une éventuelle théorie du tout à travers un cube de théories physiques (dont les trois axes sont la gravitation, les phénomènes quantiques et les vitesses proches de la lumière) : je dois m'attarder sur la théorie quantique des champs avant de pouvoir décrire le « sommet manquant » du cube, la gravitation quantique (relativiste) ; mais le sujet auquel je voulais surtout arriver avec cette présentation, à propos de la « théorie du tout » c'est celui des constantes fondamentales, autrement dit, combien de nombres sans dimension admet-on dans une théorie censée décrire l'Univers ? — et ceci amène forcément à parler un peu du principe anthropique.

Je voudrais aussi en profiter pour signaler cette vidéo (suite ici) d'une conférence grand public tenue assez récemment à Cornell par Nima Arkani-Hamed (qui est très bon vulgarisateur) sur la philosophie de la physique fondamentale : je n'ai pas encore eu le temps de l'écouter complètement, mais ce que j'en ai entendu semble très intéressant, et rejoindre beaucoup des questions que j'évoque ici.

[Voir aussi l'entrée suivante au sujet des choses dont j'aurais voulu parler mais pour lesquelles je n'ai pas eu le temps et on pourrait rêver que j'en aie le temps un jour.]

Ajout : voir cette entrée ultérieure pour quelque chose d'apparenté.

Un « cube » de théories physiques

Pour synthétiser de façon un peu sommaire, je vais organiser les « niveaux » de physique selon un cube, dont un sommet sera appelé la physique classique (que je désignerai aussi par le code : c=∞, =0, G=0). Cette physique classique peut se compliquer selon trois directions essentiellement orthogonales, constituant les trois axes de mon cube figuré : l'introduction de la gravitation (que je noterai : G>0), l'étude des petites échelles qui font apparaître des phénomènes quantiques (>0), et l'observation de vitesses proches de la lumière (c<∞). Les trois sommets adjacents à la physique classique sont donc : la gravitation classique introduite par Newton (c=∞, =0, G>0), la mécanique quantique de Schrödinger et Heisenberg (c=∞, >0, G=0), et la relativité restreinte d'Einstein (c<∞, =0, G=0). Il s'agit là de théories maintenant très bien comprises, mathématiquement et physiquement, et dont chacune est validée par une montagne d'expériences.

Si on introduit simultanément deux complications par rapport à la physique classique, on définit trois théories qui sont : la gravitation newtonienne quantique (c=∞, >0, G>0), la relativité générale (c<∞, =0, G>0), et la théorie quantique des champs relativiste (c<∞, >0, G=0). Il faut que j'en dise quelques mots.

La première de ces trois théories (théorie de Schrödinger-Newton) a été peu étudiée, mais il n'y a guère de doute ou de difficulté à son sujet, vu qu'il n'y a aucun obstacle mathématique ou physique particulier à décrire des particules massives, sujettes à l'équation de Schrödinger, qui interagissent par la loi de Newton (cela peut cependant déjà donner des conséquences intéressantes). Si cette théorie n'a pas donné de prédiction expérimentale notoire, c'est simplement à cause de la difficulté à observer des effets gravitationnels au niveau quantique (essentiellement car la gravitation se manifeste aux grandes échelles et la physique quantique aux petites échelles) : il n'y a pas de raison de la remettre en question.

La seconde, la relativité générale d'Einstein, est une théorie mathématique satisfaisante (vu qu'il s'agit principalement de géométrie riemannienne, c'est-à-dire la théorie des espaces courbes), et elle a été validée par une quantité impressionnante d'expériences qui ont disqualifié la grande majorité de ses théories concurrentes. La relativité générale est la théorie reine de l'astrophysique et de la cosmologie.

La troisième, la théorie quantique des champs (relativiste), est un cadre général dans lequel s'inscrivent plusieurs théories praticulières : d'une part l'électrodynamique quantique (QED) et sa généralisation en théorie électrofaible, et d'autre part la chromodynamique quantique (QCD), ces théories formant ensemble le Modèle standard. Ces théories ont été abondamment vérifiées par l'expérience (dont la plus récente et fort médiatique confirmation expérimentale de l'existence du boson de Higgs, qui était nécessaire pour faire fonctionner le secteur électrofaible du Modèle standard). On est cependant sur un terrain plus glissant. D'une part parce que ces théories sont insatisfaisantes d'une part sur un plan mathématique (la chromodynamique quantique est probablement mathématiquement cohérente, encore que c'est plus ou moins un problème à $1000000 de le démontrer rigoureusement ; l'électrodynamique quantique est probablement incohérente et ne peut pas survivre à des échelles d'espace arbitrairement petites : elle ne peut donc pas être, en soi, une théorie fondamentale). D'autre part à cause de problèmes essentiellement esthétiques : le Modèle standard est une construction fortement ad hoc dans laquelle on a mis juste ce qu'il fallait pour décrire les particules qu'on observait comme fondamentales (et les forces qui les relient : la force électrofaible, la force liée au boson de Higgs, et la force forte), sans vraiment qu'il y ait un ordre d'ensemble — en un certain sens, cette théorie est plus descriptive que prédictive, et il y a beaucoup de constantes magiques qui interviennent dedans dont la valeur ne peut venir que de l'expérience (alors que, par contraste, la relativité générale n'en a aucune). Je vais revenir longuement sur ces choses ci-dessous.

Le huitième sommet du cube nous manque : on ne sait pas former une théorie cohérente de la gravitation quantique relativiste (c<∞, >0, G>0), c'est-à-dire qui sache prédire les phénomènes quantiques et relativistes faisant intervenir la gravitation. Comme je l'ai expliqué, on sait faire deux quelconques parmi les trois, mais pas les trois à la fois. Je ne parle même pas de validation expérimentale : on ne sait pas décrire une théorie mathématiquement cohérente qui admette les trois théories précédentes comme limites nonrelativiste (c→∞), classique (→0) et sans gravitation (G→0). (Voici donc un exemple d'un de mes thèmes préférés : une interaction à trois.) Comment cela se fait-il ?

(Une longue digression sur la théorie quantique des champs relativiste)

Pour y voir plus clair, je devrais modifier un peu la direction « quantique » de mon cube : il y a en fait deux niveaux de « quantique ».

Première et seconde quantifications

La première quantification prend une physique de particules ponctuelles et remplace celles-ci par des vibrations de champs : par exemple, on pourrait dire que les équations de Maxwell de l'électromagnétisme, qui fait apparaître la lumière comme une onde où alternent champs électriques et magnétiques oscillants, sont la première quantification d'une description de la lumière comme des petites billes ; mais en général, la première quantification fait référence à l'équation de Schrödinger, qui est le type de champ décrivant les particules de matière (disons, pour fixer les idées, un électron non-relativiste). Au cours de cette transformation, la position d'une particule cesse d'être bien définie puisqu'une onde est généralement étalée dans l'espace, et sa quantité de mouvement cesse aussi d'être bien définie puisqu'une onde est généralement étalée dans l'espace des fréquences spatiales ; une inégalité mathématique reliant l'« étalement » d'une fonction et de sa transformée de Fourier devient un phénomène physique, le principe d'incertitude, affirmant qu'il est impossible de définir en même temps exactement la position et la quantité de mouvement d'une particule. (Et du coup, si on connaît très précisément la position d'une particule à un moment, on ne connaît pas sa position un peu plus tard, parce que la quantité de mouvement était très mal connue.) Par ailleurs, si on impose une certaine condition de périodicité (par exemple en faisant orbiter un électron autour d'un proton dans un atome), alors, pour la même raison que les modes vibratoires d'une corde fixée à ses extrémités sont déterminés par le nombre entier de ventres et de nœuds de la corde, la quantité de mouvement (ou dans mon exemple, plutôt, l'énergie et le moment angulaire) de la particule ne peut plus varier librement mais doit venir par quantités entières — d'où le nom de quantification.

La seconde quantification prend les champs issus de la première quantification (ou issus de rien du tout, si on ne veut pas considérer les équations de Maxwell comme une quantification de particules de lumière) et les quantifie à leur tour, pour fabriquer la théorie quantique des champs. Grossièrement, si on imagine que ces champs ressemblent initialement à des vibrations d'une chaîne ou d'un tissu élastique (fictifs, et vibrant dans un espace abstrait), on remplace cette chaîne ou ce tissu par son analogue quantique. Ceci signifie notamment que les champs subissent à leur tour un principe d'incertitude (on ne peut pas définir en même temps exactement la valeur d'un champ et une de ses dérivées ; et du coup, si on connaît très précisément la valeur du champ à un moment, on ne connaît pas sa valeur un peu plus tard, parce que la dérivée était très mal connue). Mais surtout, que leurs modes vibratoires sont quantifiés : la lumière ne peut venir que par des quantités entières d'un mode vibratoire fondamental, appelé le photon. On voit donc réapparaître les particules que la première quantification avait fait disparaître — les particules sont des vibrations d'un champ, mais ce champ ne peut vibrer que sous forme de particules, c'est la dualité onde-corpuscule. (Note : je dois signaler que le terme de seconde quantification est critiqué, notamment parce que les équations de Maxwell ne sont pas vraiment une première quantification de quoi que ce soit : voir par exemple cette explication. Je trouve néanmoins qu'il est utile de garder cette terminologie pour décrire de quoi on parle, même s'il faut garder en tête qu'on n'est pas vraiment en train de faire deux fois la même procédure.)

La seconde quantification n'a pas de rapport a priori avec la relativité : on peut faire de la seconde quantification dans un contexte non-relativiste — ce qui est d'ailleurs très utile en physique des solides, où les modes de vibration d'un cristal, c'est-à-dire les ondes sonores dans celui-ci, peuvent ainsi devenir des pseudoparticules appelées phonons, lorsque le cristal est considéré comme quantique. Il y a néanmoins une raison pour laquelle la relativité et la seconde quantification vont ensemble : la mécanique quantique relativiste est incohérente. On peut expliquer ce fait de la manière suivante : quand on considère les interactions entre l'électromagnétisme (donc les photons) et les électrons avec une énergie élevée, à savoir lorsque cette énergie dépasse celle qui correspond (par la formule E=mc²) à la masse de deux électrons, il peut y avoir création d'une paire électron+positron (le positron étant l'antiparticule de l'électron) recevant l'énergie excessive du photon, ou inversement, annulation d'une telle paire, c'est-à-dire que le nombre de particules n'est pas fixé : or la « simple » mécanique quantique ne peut pas décrire les situations où il y a création ou annulation de particules, c'est précisément le domaine de la théorie quantique des champs. La relativité, à travers l'équivalence masse-énergie, impose donc la « seconde » quantification. Notamment, dans le cas de l'électromagnétisme, si on peut se contenter dans le cas non-relativiste de considérer l'interaction d'électrons (décrits par l'équation de Schrödinger) avec un champ « classique » (c'est-à-dire en fait avant « deuxième quantification ») décrit par les équations de Maxwell classiques, dès qu'on envisage des vitesses relativistes ou des énergies proches de l'équivalence masse-énergie de la masse d'un électron, il faut travailler dans le cadre de la seconde quantification, l'électrodynamique quantique.

Difficultés mathématiques

La théorie quantique des champs relativiste est, comme je le disais plus haut, une théorie mathématiquement douteuse. En tant que mathématicien, j'ai toujours été très frustré en essayant de la comprendre : la plupart des présentations s'adressent à des gens qui veulent apprendre à utiliser la théorie mais ne disent pas, fondamentalement, ce qu'elle est. Même si on conçoit parfaitement qu'il y ait des difficultés mathématiques qu'on ne sait pas résoudre, je trouve vraiment insupportable le peu d'effort qui est fait à simplement expliciter ce que sont ces difficultés mathématiques, ce qu'on conjecture être formalisable, ce qu'on conjecture ne pas l'être, etc., et comment on devrait pouvoir, au moins en principe, espérer formaliser la théorie — cet effort n'est essentiellement jamais fait. Non seulement le problème n'est pas sans doute pas résolu, mais personne ne vous dit même ce qu'on sait résoudre, ou, fondamentalement, quel est le problème.

Par exemple, n'importe quel livre de mécanique classique vous fera clairement comprendre ce qui décrit l'état du monde en mécanique classique (la donnée de la position et de la vitesse de toutes les particules, ou, si on admet des objets solides, de leur orientation et vitesse angulaire ; et ces choses-là évoluent selon des équations différentielles ordinaires), ou encore en théorie classique des champs (la donnée des champs, qui sont des fonctions sur l'espace, et qui évoluent selon une certaine équation au dérivées partielles) ; mais essayez un peu de comprendre ce qui décrit l'état du monde en théorie quantique des champs, et vous verrez que ce n'est essentiellement jamais dit (un vecteur dans un espace de Hilbert ? qui évolue dans le temps ? qui satisfait une équation différentielle ? quoi encore ?). En cherchant bien, on croit vaguement trouver qu'il existe des choses appelées axiomes de Wightman censées rendre mathématiquement rigoureuse la théorie quantique des champs : et que les lois de la physique seraient en principe reformulables sous forme de certaines équations aux dérivées partielles (en nombre infini mais dénombrable et régulièrement fabriquées) sur des fonctions (enfin, des distributions) appelées les fonctions de corrélation, que les physiciens calculent en pratique, avec des intégrales de chemin ou des manipulations de diagrammes de Feynman. (Quant à l'état du monde, il serait décrit par un vecteur dans un espace de Hilbert plus ou moins défini par ces fonctions ; et on peut en déduire tout le passé et le futur parce que les fonctions de corrélation décrivent les évolutions de tous les mondes possibles.) Quelque chose comme ça. Je crois. Peut-être. Si j'ai bien compris.

Il faut cependant que je mentionne deux livres qui me semblent sortir de l'ordinaire, tous les deux par un auteur dont le nom commence par ‘Z’. Le premier est le remarquable (petit) livre d'A. Zee, Quantum Field Theory in a Nutshell, qui porte très bien son nom : il est très bon pour ce qui est de présenter efficacement le sens physique des choses sans entrer dans des calculs lourds et pénibles — c'est vraiment le meilleur livre que je connaisse pour ce qui est d'expliquer la théorie quantique des champs. Mais il ne satisfera pas complètement le mathématicien. Le second est sans doute plus censé répondre à ce problème, c'est le monumental traité en trois volumes (plus d'autres prévus encore) d'E. Zeidler, Quantum Field Theory (A Bridge Between Mathematicians and Physicists) (I. Basics in Mathematics and Physics, II. Quantum Electrodynamics et III. Gauge Theory) : un livre vraiment très complet, mais qui a tendance à partir dans le brain dump de tout ce que l'auteur sait, si bien qu'à la fin c'est vraiment trop brouillon et on ne s'y retrouve plus. (Je dois cependant dire que je sympathise avec ce problème…)

L'approche traditionnelle de la théorie quantique des champs est celle qu'on appelle perturbative : si on veut calculer, par exemple, l'interaction entre deux électrons envoyés l'un sur l'autre, on aura une zéroième approximation dans laquelle ils n'interagissent tout simplement pas ; puis une première dans laquelle on ajoute la possibilité qu'ils échangent un photon (l'interaction électromagnétique se traduit, dans le cadre de la théorie quantique des champs, au moins dans cette approche perturbative, par un échange de photons « virtuels ») ; puis une seconde où ils peuvent échanger deux photons, mais il se peut aussi que le photon ait la fantaisie, en chemin, de se transformer en une paire électron-positron qui s'annule un peu plus tard pour redevenir un photon ; et ainsi de suite. Chaque terme de cette série d'approximations est représenté par un certain nombre de diagrammes stylisés appelés diagrammes de Feynman qui symbolisent les différentes interactions entre les particules qui interviennent dans l'histoire, et sur lesquels diagrammes des règles de calculs sont établies en fonction de la description de la théorie. Cette série représente un développement asymptotique du résultat final en fonction du nombre d'interactions qui ont lieu, donc en fonction de la force de ces interactions, ce qu'on appelle la constante de couplage ; par exemple, dans le cas des interactions électromagnétiques, la constante en question est la constante de structure fine, qui représente essentiellement la charge de l'électron — ou son carré, peu importe — dans les unités naturelles, et qui vaut environ 1/137.036 : comme cette constante est (nettement) plus petite que 1, l'approche perturbative a des chances de réussir, alors que dans le cas des interactions dites fortes, elle ne peut pas réussir (sauf à monter en haute énergie/température) puisque la constante de couplage est supérieure à 1. Il y a des difficultés avec cette approche perturbative, même quand on peut l'appliquer : d'une part, il est assez certain que la série diverge (mais ce n'est pas forcément un problème si on y pense comme un développement asymptotique : il y a des fonctions bien définies et finies dont le développement asymptotique diverge parce qu'elles ne sont pas analytiques à l'origine ; ce n'est même pas un problème pour obtenir des approximations en pratique). D'autre part, une évaluation naïve montre qu'à peu près chacun des termes de la série est infini : en fait, ils ne sont infinis que si on les exprime en fonction de quantités physiquement dénuées de sens (comme la « charge d'un électron en l'absence de toute autre interaction »), mais si on fait bien attention à exprimer toutes les quantités physiquement mesurables en fonction d'autres quantités physiquement mesurables, on peut faire disparaître les infinis dans le processus qu'on appelle la renormalisation (je renvoie au livre de Zee cité ci-dessus pour une très bonne explication de ce que c'est). Au moins pour certaines théories.

Dans cette approche perturbative, l'électrodynamique quantique (théorie quantique des champs relativiste pour l'électromagnétisme) a donné des résultats remarquablement précis, la plus célèbre étant la prévision de l'anomalie du moment magnétique dipolaire de l'électron à dix chiffres significatifs validés par l'expérience — ce qui devrait en soi suffire à convaincre que même si cette théorie est mathématiquement suspecte, elle est indéniablement correcte à un certain niveau. Pourtant, comme je le disais plus haut, il est vraisemblable qu'elle soit, en fait, incohérente comme théorie fondamentale parce qu'à des énergies gigantesques (ou, ce qui revient plus ou moins au même, sur des échelles extrêmement petites) elle fait apparaître un résultat infini qui semble vraiment en être un : ce qu'on appelle le pôle de Landau. Voici une situation pour le moins désagréable.

On peut donc chercher une approche non-perturbative. Notamment, on peut faire des calculs sur des réseaux (réseaux au sens du mot anglais lattice, pas network), c'est-à-dire discrétiser l'espace-temps, auquel cas la théorie devient gérable et mathématiquement bien définie, et espérer que si le pas du réseau est assez petit la théorie « converge » en un certain sens. C'est une approche qui marche pour la chromodynamique quantique (théorie des interactions fortes entre quarks et gluons) pour laquelle, comme je l'ai dit, la théorie perturbative ne peut pas marcher aux basses énergies/températures, et on a pu faire quelques prévisions avec elle comme le spectre de masses des hadrons (particules composées de quarks, d'antiquarks et de gluons) : les calculs en question sont numériquement très difficiles, si bien qu'on ne sait en faire que depuis assez récemment, et on doit faire toutes sortes d'approximations (comme l'égalité de la masse des quarks légers, la taille des réseaux utilisés, etc.) qui donnent des résultats de qualité très variable selon la particule, donc c'est nettement moins impressionnant que les résultats de l'électrodynamique quantique ; c'est cependant assez pour qu'on puisse raisonnablement dire qu'on a affaire à une confirmation expérimentale. A contrario, pour l'électrodynamique quantique, pour laquelle je disais plus haut que l'approche perturbative marche très bien malgré l'absence de fondement mathématique, les calculs sur réseau ne marchent pas vraiment, et on pense d'ailleurs que si on faisait tendre vers 0 le pas du réseau la théorie dégénérerait vers la théorie triviale (sans interactions), ce qui est une autre manifestation de l'incohérence mathématique représentée par le « pôle de Landau ».

Pour résumer, la théorie quantique des champs est une bête un peu étrange : le tout est mathématiquement bien compris, certains secteurs sont vraisemblablement bien définis mathématiquement, encore qu'on ne sache pas le prouver rigoureusement, d'autres sont probablement incohérents, encore qu'on ne sache pas le montrer non plus, et pourtant on sait mieux faire des calculs avec les secteurs probablement incohérents qu'avec ceux qui ne le sont pas !

Une des difficultés est, en fait, qu'on ne sait pas vraiment réduire le problème : comme le dit un adage souvent répété, en gravitation classique le problème à trois corps est trop difficile pour être résolu exactement, en relativité générale même le problème à deux corps est trop compliqué pour être résolu exactement (deux corps en orbite émettent des ondes gravitationnelles qui leur font perdre de l'énergie et la situation devient très difficile à analyser), mais en théorie quantique des champs, même le vide, ou « problème à zéro corps », est trop compliqué pour être résolu exactement (parce que le vide, en fait, peut se polariser spontanément en n'importe quel type de particules, et d'ailleurs, concrètement, le vide se comporte comme quelque chose d'assez compliqué avec un diagramme des phases et ce genre de choses ; d'ailleurs, même la question de la stabilité du vide devient un problème subtil).

Gravitation quantique ?

Je reviens à la gravitation, et au sommet manquant du cube. Je ne vais pas en dire grand-chose parce que je n'y connais pas grand-chose, mais je peux quand même tenter une petite synthèse.

Les théories à marier : le Modèle standard et la relativité générale

[Tableau des particules élémentaires]Le Modèle standard de la théorie des particules décrit les interactions des particules de matière (fermions : leptons et quarks) avec les forces fondamentales (bosons : le photon qui véhicule l'électromagnétisme, les W± et Z0 qui véhiculent la force faible, les gluons qui véhiculent la force forte, et le Higgs qui véhicule une force ad hoc dite de type Yukawa). On peut trouver que ce modèle est bricolé et inélégant, mais à part pour la masse des neutrinos (qu'il est facile d'ajouter au modèle), il est pour l'instant conforme à l'expérience (peut-être même trop conforme), et toutes les particules supplémentaires qui ont été prédites pour rendre le Modèle standard plus élégant ou symétrique (voire supersymétrique) ont pour l'instant refusé de se manifester. Il y a cependant un morceau que le Modèle standard omet complètement, c'est le huitième sommet de mon cube : la gravitation quantique (je veux dire ce que j'ai appelé plus haut la deuxième quantification, même si ici on ne peut pas vraiment dire qu'il y ait eu une première quantification de la gravitation, donc je reconnais que le terme est malheureux).

La relativité générale (contrairement à la théorie de Newton) prédit que la gravitation peut former des ondes, un peu comme les ondes électromagnétiques, et se propageant comme elles à la vitesse « de la lumière » : seulement, au lieu d'être constituées de champs électromagnétiques oscillants, elles sont constituées de champs gravitationnels oscillants (cette oscillation est quadrupolaire alors que les ondes électromagnétiques sont de nature dipolaire ; par ailleurs, les fréquences où on s'attend à trouver des rayonnements gravitationnels intéressants sont plutôt beaucoup plus faibles que celles où on trouve des rayonnements électromagnétiques intéressants). Ces ondes sont extrêmement « faibles » ou plutôt, extrêmement faiblement couplées à la matière : à moins d'avoir affaire à des situations exceptionnelles comme deux étoiles à neutron en orbite rapprochée ou deux trous noirs entrant en collision, la quantité d'énergie émise sous forme d'ondes gravitationnelles est presque toujours négligeable. (C'est aussi la raison pour laquelle on n'a toujours pas réussi à les observer directement : on a cependant réussi à observer les effets de la part d'énergie perdue sous forme d'ondes gravitationnelles dans l'orbite entre deux pulsars.)

Pour obtenir une théorie de la gravitation quantique relativiste, il faut réussir à quantifier ce rayonnement gravitationnel, c'est-à-dire décrire la gravitation au moyen de la particule associée : le graviton (qui est à la gravitation ce que le photon est à l'électromagnétisme — une unité minimale d'excitation du champ). Vu qu'on n'a même pas réussi à observer directement la version classique de cette vibration, le fait d'arriver à observer directement la particule quantique « graviton » est, disons, mal partie. (Ce qui n'empêche pas de pouvoir a priori dire des choses sur le graviton : par exemple, il n'a pas de masse, parce que s'il en avait le champ gravitationnel décroîtrait exponentiellement plutôt que quadratiquement, donc en fait on a une mesure phénoménalement précise de la nullité de la masse du graviton ; d'autre part il doit avoir « spin 2 », ce qui mesure le moment angulaire intrinsèque qu'il véhicule, et qui est lié au fait que les ondes gravitationnelles sont quadrupolaires.) Globalement, on a donc peu de chances d'arriver à avoir des observations expérimentales pour guider la recherche d'une bonne théorie.

Le plus proche qu'on sache faire, c'est de la gravitation « semi-classique », c'est-à-dire une interaction entre des particules quantiques et un champ gravitationnel classique. C'est une théorie dont on sait qu'elle est fausse, et qui n'est d'ailleurs même pas cohérente (des raisons détaillées sont expliquées ici), mais c'est encore la chose la plus proche qu'on sache faire du huitième sommet de mon cube, et notamment il est très difficile de mettre en place la moindre expérience qui permettrait de falsifier cette théorie dont on sait qu'elle est fausse (pour essentiellement la raison qu'il est extraordinairement difficile d'observer un graviton : la faiblesse de la gravitation). C'est notamment dans ce cadre de gravitation semi-classique que Hawking a fait ses prévisions sur l'évaporation quantique des trous noirs (même si celle-ci, que je comprenne, n'est pas rigoureusement prouvé même dans cette théorie bâtarde).

Pourquoi est-ce difficile ?

Quelle est la difficulté à quantifier la gravitation ? On peut en évoquer plusieurs aspects. Contrairement aux autres forces qui interagissent chacun seulement avec les particules ayant la charge correspondante (le photon interagit avec les particules chargées électriquement, le W et le Z avec les particules ayant de l'isospin faible ou de l'hypercharge faible, le gluon avec les particules « colorées », le Higgs avec les particules ayant de la « charge de Higgs » qui se manifeste en pratique sous la forme d'une masse), la gravitation interagit avec toute forme d'énergie, bref, avec tout (y compris d'ailleurs avec elle-même). D'autre part, contrairement à l'électromagnétisme pour lequel on peut définir une « constante de couplage » α ≈ 1/137.036 (mesurant la force des interactions dans les unités naturelles), il n'y a rien d'analogue pour la gravitation faute de « charge » naturelle pour la gravitation (la constante de Newton G définit juste l'échelle, mais il n'y a rien à quoi la comparer) ; or la manière dont la « renormalisation » fait disparaître des infinis en théorie quantique des champs, c'est en redéfinissant la constante de couplage pour les absorber, et ce tour de passe-passe n'est pas possible avec la gravitation.

Il y a aussi, si j'ose dire, une incompatibilité d'humeur assez grave : pour la relativité générale, la gravitation n'est pas une force ou une interaction, c'est simplement le reflet de la courbure de l'espace-temps : les particules, en l'absence de force, vont « aussi droit que possible » (=suivent des géodésiques) dans un espace-temps courbe, et c'est ça qui donne l'impression d'une « force » gravitationnelle. Pour la théorie quantique des champs, en revanche, chaque champ correspond à une particule, et il doit donc y avoir un graviton. Ces points de vue sont assez difficiles à réconcilier. A priori, ce n'est qu'une question de présentation (seules comptent la réalité physique mesurable et les équations mathématiques, pas la manière dont on les décrit avec les mains) ; mais en fait, les choses vont plus loin. En relativité générale, la notion de distance dans l'espace-temps (voire la notion d'espace-temps tout court, et sa topologie) n'est pas vraiment dissociable de la gravitation : il n'y a pas un espace-temps préexistant sur lequel la gravitation se superposerait (c'est ce qu'on appelle la background independence, l'indépendance du fond, de la relativité) ; la théorie quantique des champs, au contraire, a envie de considérer les champs dans l'espace-temps (plat). Si on se contente de prendre la gravitation comme un champ modifiant un espace-temps plat préexistant pour quantifier cette modification, on fait violence à un principe fondamental de la relativité, et il est suspect qu'une telle théorie puisse être la bonne — en tout cas, on ne voit pas comment elle permettrait de changer la topologie même de l'espace-temps. Fondamentalement, le problème et qu'on ne sait pas décrire un espace-temps quantique, même du point de vue simplement métrique, et à plus forte raison du point de vue topologique.

Par simple analyse dimensionnelle, on a une idée de l'échelle de notre ignorance : les trois constantes fondamentales qui interviennent au sommet manquant de mon cube de théories (la vitesse de la lumière c, la constante de Planck , et la constante de Newton G) se combinent pour définir une masse, une longueur et un temps fondamentaux, ce sont la masse de Planck (√(·c/G), environ 2.2×10−8 kg), la longueur de Planck (√(·G/c³), environ 1.6×10−35 m) et le temps de Planck (√(·G/c⁵), environ 5.4×10−44 s). La masse de Planck (ou l'énergie associée, qui a la valeur remarquablement moyenne de 540kW·h) sépare, très grossièrement parlant, les échelles microscopiques où les effets quantiques sont dominants et les échelles macroscopiques où la gravitation est dominante. La longueur et le temps de Planck sont les échelles au niveau (au-dessous) desquelles nous ne comprenons plus l'espace-temps. Une idée générale est que les infinis qui hantent la théorie quantique des champs sont dus à l'idée naïve qu'on peut subdiviser l'espace à l'infini, et que ce fait n'est pas vrai, ou en tout cas mérite d'être précisé ou qualifié, au niveau de l'échelle de Planck.

Deux approches du problème : théorie des cordes et LQG

Il existe cependant des théories censées expliquer ce qui se passe. En fait, il existe deux principales candidates (ou classes de théories) au titre de théorie de la gravitation quantique relativiste qui pourrait être une « théorie du tout » : la théorie des cordes (et ses multiples variantes, sous-théories et super-théories : théories des supercordes, des membranes, M-théorie, que sais-je encore) et la gravitation quantique à boucles (LQG) (et ses variantes, apparemment moins nombreuses, comme la gravitation quantique algébrique). Pour autant que je comprenne les choses, la théorie des cordes est plutôt une approche qui vient de la théorie quantique des champs et cherche à la fois à unifier toutes les interactions et presque secondairement à y incorporer la gravitation (tout en redéfinissant de façon assez profonde la théorie quantique des champs elle-même), tandis que la LQG vient de la relativité générale et cherche avant tout à la quantifier en préservant sa propriété essentielle d'« invariance du fond », après quoi les autres interactions peuvent être décrites de la manière donnée par le Modèle standard (sachant que la LQG aura débarrassé celui-ci des problèmes comme les infinis). Aucune de ces deux théories n'a été validée par l'expérience, et il n'est même pas clair qu'aucune des deux puisse fournir une prédiction expérimentale non triviale qui serait en principe vérifiable (après tout, ce n'est pas parce qu'on a la bonne théorie du tout qu'on peut effectivement faire le moindre calcul avec elle !). Mais déjà le simple fait d'arriver à formuler une théorie mathématiquement bien-fondée et cohérente qui reproduit les limites que sont les trois côtés adjacents du cube (équations de Schrödinger-Newton quand c→∞, relativité générale quand →0 et théorie quantique des champs relativiste / Modèle standard quand G→0) n'a rien d'évident et constitue en soi un test expérimental par héritage de toutes les expériences ayant validé ces différentes théories.

De ce que je comprends, la théorie des cordes fait appel à des outils mathématiques beaucoup plus sophistiqués et élégants (dont beaucoup de géométrie algébrique), mais, au final, il n'est même pas vraiment acquis qu'on dispose d'une théorie complète mathématiquement bien fondée et qu'elle ne souffre pas des mêmes problèmes de fondement que la théorie quantique des champs : on dispose apparemment d'une approche perturbative et d'idées qui pourraient peut-être donner une approche non-perturbative, mais rien n'est sûr. La LQG, en revanche, dont l'idée très grossière est de « discrétiser » l'espace-temps un peu sur le modèle de ce que font les calculs sur réseaux (mais sans géométrie imposée), constitue incontestablement une théorie mathématique bien définie et bien fondée et qui fait disparaître les problèmes d'infinis qui hantent la théorie quantique des champs : ce qu'on peut lui reprocher, c'est surtout qu'il n'est pas acquis qu'elle réalise les trois limites demandées (notamment quand →0), et que le Modèle standard est ajouté de façon ad hoc. Il est fort possible que j'aie mal compris, et il est assez difficile d'y voir clair parce que le débat entre la théorie des cordes et la LQG ressemble un peu à une guerre de religion.

Qu'est-ce qu'une « théorie du tout », et que veut-on pouvoir prédire ? — Le problème des constantes

Il faut que je souligne la chose suivante : quand bien même on aurait une « théorie du tout » correcte et mathématiquement bien fondée, ceci ne résoudrait pas magiquement toutes les questions physiques — pour en gros la même raison que le fait d'avoir décidé que ZFC était l'ensemble des axiomes qu'on prendrait pour définir les mathématiques ne rend pas pour autant les mathématiques triviales ! Ce n'est pas parce qu'on a la bonne théorie qu'on sait en déduire tout ce qu'on veut : ce n'est même pas clair qu'on puisse en déduire quoi que ce soit.

Combien de constantes fondamentales sans dimension ?

Une question essentielle qu'on doit se poser quand on a affaire à une théorie physique, c'est : combien de constantes fondamentales a-t-elle ? Par constantes fondamentales (ou constantes magiques plus haut), je veux parler de nombres sans dimension qui interviennent dans les équations définissant la théorie et qui doivent être déterminés par l'expérience. La relativité générale n'en a aucune, pas plus que l'électromagnétisme classique ou la théorie de Newton (les quantités comme la constante de Newton, la permittivité ou la perméabilité du vide ont une dimension, i.e., dépendent des unités qu'on utilise, et peuvent donc disparaître si on choisit les bonnes unités — ou pour dire les choses autrement, ce sont simplement des relations reliant différentes unités). L'électrodynamique quantique a une unique constante fondamentale : la constante de structure fine (j'en ai déjà parlé plus haut). Le Modèle standard en a une pléthore : John Baez a compté 24 constantes (il en compte 26 en tout, mais il faut soustraire une constante de masse puisque la masse de Planck ne relève pas du modèle standard, et aussi la constante cosmologique).

Une vingtaine de constantes, c'est beaucoup. Surtout, la répartition de ces constantes est très mystérieuse. Prenons les masses des leptons et quarks : pour une raison qu'on ignore, les leptons et quarks s'arrangent en trois « familles » (la famille légère, la famille moyenne, et la famille lourde), chacune comportant quatre particules (un neutrino ou lepton neutre, un lepton chargé, un quark négativement chargé et un quark positivement chargé). Leurs masses sont données par le tableau suivant, exprimées en multiples de ce qu'on appelle le « condensat de Higgs » (246 GeV, une unité de masse naturelle dans le cadre du modèle standard — si on préfère, le tableau correspond à l'intensité de l'interaction entre la particule en question et le boson de Higgs) :

LeptonsQuarks
NeutrinoLepton chargéQuark négatifQuark positif
Famille légèreneutrino 1
10−13<•<10−11
électron
2.08×10−6
quark down
∼2×10−5
quark up
∼10−5
Famille moyenneneutrino 2
<10−6
muon
4.29×10−4
quark strange
3.9×10−4
quark charm
5.2×10−3
Famille lourdeneutrino 3
<10−4
tau(on)
7.22×10−3
quark beauty (=bottom)
0.017
quark truth (=top)
0.70

(L'incertitude varie énormément entre ces différents nombres. La masse de l'électron — qui est le lepton chargé de la famille légère — est extrêmement bien connue, alors que sur les neutrinos on sait seulement qu'au moins deux d'entre eux ont une masse non nulle ; sur les quarks, on connaît mieux les masses des quarks lourds que ceux des quarks légers. Par ailleurs, il y a des problèmes assez subtils dans la définition de ce qu'est que la « masse » d'une particule élémentaire — ça dépend du schéma de renormalisation utilisé — et je ne suis pas sûr d'avoir pris des valeurs toutes selon la même définition, mais ceci donnera au moins des ordres de grandeur.)

J'insiste sur le fait qu'aucune théorie actuelle ne prédit ces nombres, qui sont des nombres sans dimension. Rien que le classement des leptons et quarks en trois familles est mystérieux (la théorie « demande » simplement, dans un certain sens, que le nombre de leptons chargés soit égal au nombre de neutrinos et que le nombre de quarks positifs soit égal au nombre de quarks négatifs, mais pas que ces deux nombres soient égaux). Mais ces nombres sont particulièrement étranges : pourquoi tous les neutrinos ont-ils une masse si faible qu'on n'arrive même pas à les mesurer ? Pourquoi le quark truth a-t-il une masse plus de quarante fois plus élevée que son copain beauty ? Pourquoi le rapport des masses des quarks négatif et positif est-il dans le sens opposé sur la famille légère que sur les deux autres ? On peut évidemment traiter tous ces nombres comme des faits de la nature qui ne méritent pas d'autre explication que c'est comme ça, mais il y a quelque chose d'extrêmement déplaisant à écrire un nombre plus petit que 10−11 et prétendre qu'il n'y a aucune explication à ça. D'un autre côté, il n'est écrit nulle part que l'Univers doive être totalement explicable (mais il est aussi bizarre de penser qu'il le serait à une vingtaine de constantes près !).

Le problème de la constante cosmologique

Mais le problème d'une masse du neutrino de l'ordre de 10−12 dans l'unité naturelle du couplage avec le Higgs n'est rien par rapport au problème de la constante cosmologique, qu'on peut faire apparaître en relativité générale (mais elle a alors une dimension, donc ne compte pas comme une constante fondamentale au sens expliqué ci-dessus), et doit nécessairement intervenir dans le cadre de la gravitation quantique relativiste. Comme je l'ai expliqué plus haut, on n'a pas de théorie de la gravitation quantique, seulement des candidates à ce poste, mais on peut au moins faire des calculs d'analyse dimensionnelle.

La constante cosmologique représente la manière dont le vide lui-même possède un effet gravitationnel (équivalent à une densité d'énergie, et une pression négative de même valeur).

Les astrophysiciens mesurent en effet un tel effet (via ses effets sur l'expansion de l'Univers) : la constante cosmologique vaut, selon ces mesures, environ 6×10−27 kg/m³, c'est-à-dire qu'un mètre cube de vide « pèse » environ 6×10−27 kg (ou renferme une énergie équivalente) pour la gravitation : c'est ce qu'on appelle l'énergie noire (qui représente environ 70% de la masse de l'Univers telle que vue par la gravitation ; à ne pas confondre avec la matière noire, qui représente encore une majorité des 30% restants).

Or l'unité naturelle dans laquelle la constante cosmologique devrait être mesurée est la densité de Planck (une masse de Planck par volume de Planck), et elle vaut 5×1096 kg/m³ : le rapport entre les deux, c'est-à-dire, la constante cosmologique exprimée dans ses unités naturelles, qui est une des constantes fondamentales de l'Univers (ou en tout cas devrait en dériver), vaut donc environ 10−123. Non seulement il est bizarre de voir apparaître un nombre aussi petit, mais un raisonnement un peu empirique sur l'origine de cette énergie du vide que représente la constante cosmologique laisse penser qu'elle devrait être de l'ordre de 1 dans ses unités naturelles : ce raisonnement est donc faux par 123 ordres de grandeur. Le moins qu'on puisse dire est que cette situation est étrange.

Et même si on n'accepte pas le raisonnement empirique sur l'énergie du vide à l'échelle de Planck, on devrait au moins voir apparaître, sous forme de constante cosmologique, l'énergie du vide due à la structure connue (et expérimentalement validée !) du champ de Higgs ou du vide de la chromodynamique quantique (QCD), or ces densités d'énergie sont encore de l'ordre de grandeur de 3×1028 kg/m³ pour le Higgs et quelque chose autour de 1020 kg/m³ pour le vide de QCD — c'est peut-être moins élevé que la densité de Planck, mais tout de même entre 46 et 55 ordres de grandeur au-dessus de ce qu'on observe. Bref, un problème fondamental est de comprendre pourquoi cette énergie du vide qu'on sait être là n'a pas l'effet gravitationnel qu'on attend, ou bien ce qui peut annuler cet effet avec une précision de mieux que 99.999999999999999999999999999999999999999999% (mais pas exactement).

Remarque : On pourra trouver incompréhensible l'idée que le vide puisse posséder une énergie de 5×1096 kg/m³, ou même de 3×1028 kg/m³ — une énergie aussi colossale devrait nécessairement se manifester, non ? En fait, il faut sans doute comparer avec la pression atmosphérique (qui représente tout de même une énergie de l'ordre de 105 J/m³) : on ne sent pas la pression atmosphérique tout simplement parce que nous baignons dedans, et pour la même raison on ne sent pas l'effet direct du champ de Higgs parce que celui-ci est partout — mais la gravitation, elle, devrait quand même le sentir.

Coïncidences exactes ?

Ce n'est pas tout. Rien, dans le modèle standard, n'impose que la charge de l'électron soit exactement opposée de celle du proton (laquelle vaut deux fois la charge du quark up plus une fois celle du down) : la seule chose qu'il impose est que la charge d'un lepton négatif moins la charge d'un neutrino soit égale à la charge d'un quark négatif moins celle d'un quark positif — mais le fait que la charge du neutrino soit 0 et que celle des quarks soient en rapport de −1/3 contre 2/3, ceci n'est qu'une donnée expérimentale. Une donnée expérimentale extrêmement précise, parce que si la charge du proton n'était pas très très proche d'être opposée à celle de l'électron, notre univers volerait en morceaux — les bornes expérimentales semblent être de 10−12 pour le rapport entre la charge du neutrino et de l'électron, et 10−21 entre le neutron et l'électron.

Le fait que deux nombres que la théorie n'interdit pas d'être différents soient (apparemment) exactement égaux, ou qu'un nombre qui pourrait être non-nul soit nul, cela mérite-t-il une explication ? Est-ce d'ailleurs plus ou moins mystérieux que quand un nombre est presque-nul-mais-pas-tout-à-fait comme la constante cosmologique (ou, d'ailleurs, la masse des neutrinos, qu'on a longtemps pensé être exactement 0 et qui est en fait seulement trop petite pour être mesurée précisément) ? Voilà une question philosophique sur la nature de ce que signifie expliquer l'Univers, à laquelle je n'ai pas de réponse.

Il faut noter qu'il y a une théorie qui expliquerait le fait que la charge électrique soit quantifiée (expérimentalement toutes les charges des particules élémentaires sont des multiples entiers de 1/3 fois celle de l'électron, et en particulier le proton a une charge exactement opposée à celle de l'électron), c'est l'existence de monopôles magnétiques — s'il y a un monopôle magnétique quelque part dans l'Univers, alors toutes les charges de l'Univers doivent être quantifiées (comme cela semble effectivement être le cas). Mais ces particules (qui ne font pas partie du Modèle standard) n'ont jamais été observées : quelle est l'hypothèse la plus économique au sens du rasoir d'Occam, croire à l'existence d'une particule qu'on n'a jamais observée, ou bien croire que les charges électriques sont quantifiées « sans raison » ?

Un problème du même genre est le problème dit CP des interactions fortes : il est lié à la question des symétries que possède le vide de la théorie (QCD) des interactions fortes (j'ai souligné ci-dessus que même le vide, en théorie quantique des champs, a une structure passablement compliquée, et ceci est particulièrement vrai eu égard aux interactions fortes). Disons pour simplifier qu'on peut définir un angle θ, appelé parfois angle du vide de QCD et qui, s'il était non nul, impliquerait notamment que le neutron aurait un moment dipolaire électrique — or, expérimentalement, ce moment dipolaire, donc l'angle θ en question, semble nul (de nouveau, avec une très grande précision). Et ce qui pose de nouveau la question : est-il plus économique ou raisonnable de supposer que cette quantité est exactement nulle (notre univers n'en fait juste pas usage) ou bien simplement qu'elle est très proche de zéro sans raison particulière ? Mais sinon, on peut postuler l'existence d'une particule, l'axion, qui résout le problème — mais de nouveau, vaut-il mieux postuler l'existence d'une particule non observée ou la nullité « accidentelle » d'une variable qui n'a pas spécialement de raison d'être nulle.

À quoi doit ressembler une théorie du tout ?

Je crois vaguement comprendre que la théorie des cordes prétendrait peut-être un jour, hypothétiquement, éventuellement, pouvoir expliquer à partir de rien toutes les constantes laissées par le Modèle standard (dont la masse des fermions, et sans doute aussi leur nombre, la constante cosmologique, la quantification de la charge, et l'angle du vide de QCD). Mais peut-être cette prévision aura-t-elle besoin du principe anthropique (cf. plus loin). Et, en tout état de cause, personne n'est, actuellement, capable d'en tirer ce genre de prédiction, qui serait un succès extraordinaire. Ce n'est pas forcément suspect, dois-je ajouter, de ne pas parvenir à faire des prédictions numériques : par exemple, j'ai signalé que la théorie QCD est en principe capable de prédire la masse de tous les hadrons (particules composées de quarks, d'antiquarks et de gluons) à partir des masses des quarks, mais en pratique les calculs sur réseaux sont numériquement très difficiles.

Voici une autre chose qui doit faire réfléchir : j'ai évoqué ci-dessus le fait qu'on ne sait pas quantifier la gravitation relativiste, ou plus exactement, que si on le fait on obtient une théorie qui n'est pas renormalisable, c'est-à-dire que si on lui fait calculer à peu près n'importe quoi, le résultat est toujours infini (on ne sait pas absorber ces infinis comme on le fait dans les théories du Modèle standard, en gros faute d'une constante fondamentale qui serait prête à les absorber). En fait, il faut nuancer cette idée : on peut absorber les infinis de la gravitation quantique relativiste, mais à condition d'introduire une infinité de constantes d'interaction (essentiellement, une pour absorber chaque divergence qui apparaît dans un diagramme de Feynman). Et la théorie qu'on obtient ainsi est certainement « correcte », au moins en tant que théorie perturbative. C'est déjà la situation qui se produisait pour les interactions fortes et faibles avant qu'on trouve la « bonne » théorie qui les décrive (QCD et la théorie électrofaible de Glashow-Weinberg-Salam) : on peut décrire l'interaction forte entre deux hadrons sans savoir ce que sont les quarks et gluons (modèle de Nambu et Jona-Lasinio), ou l'interaction faible entre deux leptons sans savoir ce que sont les bosons W et le Z (interaction de Fermi), mais les théories en question (qu'on appelle des théories des champs effectives, par opposition à fondamentales) ne sont pas renormalisables, et comportent donc une infinité de constantes — ces constantes pouvant en principe être déterminées par la « bonne » théorie fondamentale. On pense donc que la « bonne » théorie fondamentale de la gravitation quantique relativiste (qui pourrait par exemple peut-être être la théorie des cordes ou la LQG) déterminerait cette infinité de constantes…

…Mais après tout, rien ne dit que l'Univers ait ce sens de l'esthétique. Si on accepte une théorie ayant 24 constantes indéterminées, pourquoi pas une infinité ? Il n'y a pas d'impossibilité évidente, juste un problème d'esthétique vaguement philosophique, au fait que la théorie fondamentale de la gravitation quantique relativiste soit une théorie faisant intervenir une infinité de constantes : si on n'a aucune idée de ce que ces constantes sont, évidemment, la théorie ne permet aucune prévision, mais pour peu qu'on ait simplement quelques inégalités raisonnables d'ordres de grandeur, on pourrait les déterminer une par une (en un certain sens, c'est déjà ce qu'on veut dire quand on exige que la théorie se réduise en la gravitation newtonienne quantique quand c→∞, la relativité générale quand →0, et la théorie quantique des champs sans gravitation quand G→0) — si ce n'est bien sûr qu'en pratique nous ne sommes capables de déterminer expérimentalement aucune de ces constantes (ceci nécessiterait des accélérateurs capables d'accélérer une particule jusqu'à l'énergie de Planck, ou d'observer la quantification des ondes gravitationnelles, ou d'autres choses de ce genre totalement hors de portée). Encore plus bizarrement, on pourrait imaginer que la théorie fondamentale de la gravitation quantique relativiste (et donc, la théorie du tout) soit une théorie de ce genre où les constantes seraient données par une formule explicite totalement ad hoc et n'ayant aucune sorte d'« explication » (de même, après tout, peut-être que la constante de structure fine vaut exactement 15397913/112364, et qu'il n'y a pas d'autre explication que « parce que l'Univers est comme ça »).

Le principe anthropique (est-il une explication de quoi que ce soit ?)

Une explication qu'on peut avancer pour la valeur des constantes fondamentales est celle du principe anthropique : il s'agit de l'idée que les lois de l'Univers sont telles qu'elles sont parce que si elles étaient trop différentes, la vie ne serait pas possible et nous ne pourrions pas être là pour observer ces lois. Il y a toutes sortes de variantes du principe anthropique, allant d'une trivialité (l'Univers permet la vie, la preuve, nous sommes là) à des postulats quasiment mystiques (l'Univers a pour but de faire apparaître la vie), en passant par l'idée qu'il existe une infinité d'univers parallèles admettant toutes les valeurs possibles des constantes fondamentales et que nous sommes forcément dans l'un d'eux où elles ont une valeur qui permet notre existence. (Ces univers peuvent « exister » en un sens physique plus ou moins fort : certaines théories cosmologiques les intègrent vraiment comme faisant partie d'un « multivers », mais il est aussi possible de les imaginer comme des points d'un « ensemble des mondes » qui existe au moins en tant que conception mathématique — la question de savoir ce que « observer » ou « vivre dans » signifie étant alors franchement de la métaphysique.) Après tout, on ne va pas s'étonner que la Terre soit miraculeusement à la bonne distance du Soleil pour permettre à l'eau liquide d'exister à sa surface : c'est juste que nous appelons « Terre » la planète sur laquelle nous sommes apparus, et que ce phénomène nécessite la possibilité d'eau liquide ; reste à savoir si on a « le droit » de tenir ce raisonnement sur l'Univers tout entier.

À titre d'exemple, notre existence est très sensible à la masse du neutron (qui est supérieure de 0.14% à celle du proton) : si la masse du neutron était ne serait-ce qu'un peu plus légère, aucun atome ne serait stable, toute la matière se transformerait en amas de neutrons ; a contrario, si la masse du neutron était ne serait-ce qu'un peu plus lourde, il serait trop instable pour être stabilisé au sein des atomes, et aucun atome ne serait stable sauf l'hydrogène, et notre univers ne serait qu'un gaz d'hydrogène. Le fait que les atomes existent et soient stables impose donc une contrainte très forte sur la masse du neutron (qui découle elle-même, en principe, des constantes vraiment fondamentales comme la masse des quarks, les constantes de couplages des interactions forte et électrofaible, etc.). On pourrait dire qu'il s'agit là d'une sorte de confirmation expérimentale du principe anthropique (il prédit une masse du neutron proche de celle du proton, et c'est bien le cas !, et cette prévision était non-triviale), mais évidemment ça ressemble à de la triche. Un exemple célèbre et autrement plus frappant, décrit parfois de façon exagérément romancée, concerne la prédiction faite par Fred Hoyle en 1954 de l'existence d'un état excité du noyau de carbone-12 d'énergie environ 7.68MeV (avec spin/parité 0+) : les détails historiques et physiques de cette prédiction sont racontés ici (mais il n'est pas clair, historiquement, qu'on puisse la qualifier d'anthropique), et la contrainte a priori apportée sur les constantes fondamentales par l'existence de cet état excité est évaluée dans cet article (à environ 2% ou 3% sur la masse des quarks légers et de la constante de structure fine). (Voir aussi ce texte pour un angle d'attaque plus général.)

Il faut bien sûr être modeste dans ce genre d'évaluation et se rappeler que même si la vie n'est pas possible sous la forme sous laquelle nous la connaissons, elle pourrait très bien être possible sous une forme complètement différente (ce qui pose bien sûr la question de définir ce que c'est que la vie, pour ne même pas parler de la vie intelligente ; à ce sujet, je renvoie à l'excellent et très classique essai de Jacques Monod, Le Hasard et la Nécessité).

La force faible (c'est-à-dire les interactions faibles, médiées par les bosons W et Z, et responsables notamment de la désintégration du neutron) a été beaucoup étudiée sous l'angle du principe anthropique parce qu'elle contrôle la durée de vie du neutron, qui est tout à fait critique pour notre existence. Par exemple, il a été avancé qu'il était possible de construire un univers compatible avec l'existence de la vie et dans lequel la force faible n'existe pas (cet univers a d'ailleurs fait l'objet d'une vulgarisation dans la revue Scientific American, je crois qu'elle a aussi été traduite dans son pendant français, Pour la science) ; il n'est pas clair que cet univers soit exempt de problème, mais ceci soulève au moins la question : la force faible est-elle vraiment nécessaire à notre existence (et sinon, comment « expliquer » qu'elle existe ?).

Mais se concentrer sur le problème des lois fondamentales de l'Univers (et de pourquoi elle contiennent ces constantes bizarres, ces symétries insatisfaisantes et ces interactions ad hoc et disgracieuses), c'est un peu oublier l'éléphant au milieu de la pièce, les conditions initiales de l'Univers, qui sont elles aussi inexplicablement « spéciales », et tenter d'expliquer cette « spécialité » par le seul principe anthropique conduit à des paradoxes bizarres (essentiellement, parce que l'état le plus simple de l'Univers qui explique l'existence d'une conscience qui l'observe n'est pas le résultat d'une évolution naturelle de la vie et de la conscience mais simplement d'une apparition aléatoire de cette conscience, pour une durée très courte, dans une soupe de particules — avec la conséquence intellectuellement peu satisfaisante que le plus probable est que tout ce que nous observons de l'Univers n'est qu'une illusion promise à disparaître en une fraction de seconde). J'ai déjà évoqué ce problème (voir aussi l'entrée suivante et la vidéo de Lawrence Kraus qu'elle référence et qui prétend essayer de répondre à ce problème).

Je termine mes méditations ici, parce que je ne sais pas bien quoi conclure, à part que les physiciens, mais aussi les philosophes de la physique, ont du pain sur la planche. Peut-être que je devrais juste reprendre cette phrase d'Albert Einstein (Physics and Reality, 1936) : le mystère éternel du monde est sa compréhensibilité.

↑Entry #2192 [older| permalink|newer] / ↑Entrée #2192 [précédente| permalien|suivante] ↑

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]