Avertissement : Mon intention initiale dans cette entrée était de dresser un petit bilan de l'état de la physique fondamentale tel que je le comprends (en tant que mathématicien qui voit ça de loin comme de la culture générale scientifique), avant de partir dans quelques méditations philosophiques voire métaphysiques à ce sujet, et notamment sur la question des constantes fondamentales (sans dimension) de la physique et de la « raison » de leur valeur (et sur le principe anthropique). Comme d'habitude, j'ai écrit, au cours de plusieurs week-ends, quelque chose de beaucoup plus long que ce que je pensais (et, j'en ai bien peur, un peu vaseux). J'espère néanmoins que cette entrée plutôt décousue se lit assez bien « en diagonale », c'est-à-dire que le fait de sauter un passage qu'on trouve ennuyeux et/ou incompréhensible ne devrait pas empêcher de passer à la suite.
Structure : Pour dire les choses sommairement, la
physique fondamentale est celle qui cherche à trouver les lois
fondamentales qui gouvernent l'Univers, c'est-à-dire celles qui
déterminent, au niveau le plus intime, tous les phénomènes physiques —
ce qu'on appelle aussi familièrement la théorie du tout
. Mon
but est ici d'exposer un petit peu quelles facettes on connaît d'une
éventuelle théorie du tout à travers
un cube de théories physiques (dont
les trois axes sont la gravitation, les phénomènes quantiques et les
vitesses proches de la lumière) : je dois m'attarder sur
la théorie quantique des
champs avant de pouvoir décrire le « sommet manquant » du cube,
la gravitation quantique
(relativiste) ; mais le sujet auquel je voulais surtout arriver
avec cette présentation, à propos de la « théorie du tout »
c'est celui des constantes
fondamentales, autrement dit, combien de nombres sans dimension
admet-on dans une théorie censée décrire l'Univers ? — et ceci amène
forcément à parler un peu du principe
anthropique.
Je voudrais aussi en profiter pour signaler cette vidéo (suite ici) d'une conférence grand public tenue assez récemment à Cornell par Nima Arkani-Hamed (qui est très bon vulgarisateur) sur la philosophie de la physique fondamentale : je n'ai pas encore eu le temps de l'écouter complètement, mais ce que j'en ai entendu semble très intéressant, et rejoindre beaucoup des questions que j'évoque ici.
[Voir aussi l'entrée suivante au sujet des choses dont j'aurais voulu parler mais pour lesquelles je n'ai pas eu le temps et on pourrait rêver que j'en aie le temps un jour.]
Ajout : voir cette entrée ultérieure pour quelque chose d'apparenté.
Plan :
- Un « cube » de théories physiques
- (Une longue digression sur la théorie quantique des champs relativiste)
- Gravitation quantique ?
- Qu'est-ce qu'une « théorie du tout », et que veut-on pouvoir prédire ? — Le problème des constantes
- Le principe anthropique (est-il une explication de quoi que ce soit ?)
Un « cube » de théories physiques
Pour synthétiser de façon un peu sommaire, je vais organiser les
« niveaux » de physique selon un cube, dont un sommet sera appelé
la physique classique
(que je désignerai aussi par le
code : c=∞, ℏ=0, G=0). Cette
physique classique peut se compliquer selon trois directions
essentiellement orthogonales, constituant les trois axes de mon cube
figuré : l'introduction de la gravitation (que je
noterai : G>0), l'étude des petites échelles qui font
apparaître des phénomènes quantiques (ℏ>0), et
l'observation de vitesses proches de la lumière
(c<∞). Les trois sommets adjacents à la physique
classique sont donc : la gravitation classique introduite
par Newton (c=∞, ℏ=0, G>0),
la mécanique quantique de Schrödinger et Heisenberg
(c=∞, ℏ>0, G=0), et
la relativité restreinte d'Einstein
(c<∞, ℏ=0, G=0). Il s'agit là de
théories maintenant très bien comprises, mathématiquement et
physiquement, et dont chacune est validée par une montagne
d'expériences.
Si on introduit simultanément deux complications par rapport à la physique classique, on définit trois théories qui sont : la gravitation newtonienne quantique (c=∞, ℏ>0, G>0), la relativité générale (c<∞, ℏ=0, G>0), et la théorie quantique des champs relativiste (c<∞, ℏ>0, G=0). Il faut que j'en dise quelques mots.
La première de ces trois théories (théorie de Schrödinger-Newton) a été peu étudiée, mais il n'y a guère de doute ou de difficulté à son sujet, vu qu'il n'y a aucun obstacle mathématique ou physique particulier à décrire des particules massives, sujettes à l'équation de Schrödinger, qui interagissent par la loi de Newton (cela peut cependant déjà donner des conséquences intéressantes). Si cette théorie n'a pas donné de prédiction expérimentale notoire, c'est simplement à cause de la difficulté à observer des effets gravitationnels au niveau quantique (essentiellement car la gravitation se manifeste aux grandes échelles et la physique quantique aux petites échelles) : il n'y a pas de raison de la remettre en question.
La seconde, la relativité générale d'Einstein, est une théorie mathématique satisfaisante (vu qu'il s'agit principalement de géométrie riemannienne, c'est-à-dire la théorie des espaces courbes), et elle a été validée par une quantité impressionnante d'expériences qui ont disqualifié la grande majorité de ses théories concurrentes. La relativité générale est la théorie reine de l'astrophysique et de la cosmologie.
La troisième, la théorie quantique des champs (relativiste), est un
cadre général dans lequel s'inscrivent plusieurs théories
praticulières : d'une part
l'électrodynamique
quantique (
Le huitième sommet du cube nous manque : on ne sait pas former une théorie cohérente de la gravitation quantique relativiste (c<∞, ℏ>0, G>0), c'est-à-dire qui sache prédire les phénomènes quantiques et relativistes faisant intervenir la gravitation. Comme je l'ai expliqué, on sait faire deux quelconques parmi les trois, mais pas les trois à la fois. Je ne parle même pas de validation expérimentale : on ne sait pas décrire une théorie mathématiquement cohérente qui admette les trois théories précédentes comme limites nonrelativiste (c→∞), classique (ℏ→0) et sans gravitation (G→0). (Voici donc un exemple d'un de mes thèmes préférés : une interaction à trois.) Comment cela se fait-il ?
(Une longue digression sur la théorie quantique des champs relativiste)
Pour y voir plus clair, je devrais modifier un peu la direction « quantique » de mon cube : il y a en fait deux niveaux de « quantique ».
Première et seconde quantifications
La première quantification prend une physique de
particules ponctuelles et remplace celles-ci par des vibrations
de champs : par exemple, on pourrait dire que
les équations
de Maxwell de l'électromagnétisme, qui fait apparaître la lumière
comme une onde où alternent champs électriques et magnétiques
oscillants, sont la première quantification d'une description de la
lumière comme des petites billes ; mais en général, la première
quantification fait référence à l'équation de Schrödinger, qui est le
type de champ décrivant les particules de matière (disons, pour fixer
les idées, un électron non-relativiste). Au cours de cette
transformation, la position d'une particule cesse d'être bien définie
puisqu'une onde est généralement étalée dans l'espace, et sa quantité
de mouvement cesse aussi d'être bien définie puisqu'une onde est
généralement étalée dans l'espace des fréquences spatiales ; une
inégalité mathématique reliant l'« étalement » d'une fonction et de sa
transformée de Fourier devient un phénomène physique,
le principe
d'incertitude, affirmant qu'il est impossible de définir en même
temps exactement la position et la quantité de mouvement d'une
particule. (Et du coup, si on connaît très précisément la position
d'une particule à un moment, on ne connaît pas sa position un peu plus
tard, parce que la quantité de mouvement était très mal connue.) Par
ailleurs, si on impose une certaine condition de périodicité (par
exemple en faisant orbiter un électron autour d'un proton dans un
atome), alors, pour la même raison que les modes vibratoires d'une
corde fixée à ses extrémités sont déterminés par le
nombre entier de ventres et de nœuds de la corde, la quantité
de mouvement (ou dans mon exemple, plutôt, l'énergie et le moment
angulaire) de la particule ne peut plus varier librement mais doit
venir par quantités entières — d'où le nom
de quantification
.
La seconde quantification prend les champs issus de la
première quantification (ou issus de rien du tout, si on ne veut pas
considérer les équations de Maxwell comme une quantification de
particules de lumière) et les quantifie à leur tour, pour fabriquer
la théorie quantique des champs. Grossièrement, si on
imagine que ces champs ressemblent initialement à des vibrations d'une
chaîne ou d'un tissu élastique (fictifs, et vibrant dans un espace
abstrait), on remplace cette chaîne ou ce tissu par son analogue
quantique. Ceci signifie notamment que les champs subissent à leur
tour un principe d'incertitude (on ne peut pas définir en même temps
exactement la valeur d'un champ et une de ses dérivées ; et du coup,
si on connaît très précisément la valeur du champ à un moment, on ne
connaît pas sa valeur un peu plus tard, parce que la dérivée était
très mal connue). Mais surtout, que leurs modes vibratoires sont
quantifiés : la lumière ne peut venir que par des
quantités entières d'un mode vibratoire fondamental, appelé
le photon. On voit donc réapparaître les particules que la
première quantification avait fait disparaître — les particules sont
des vibrations d'un champ, mais ce champ ne peut vibrer que sous forme
de particules, c'est
la dualité
onde-corpuscule. (Note : je dois signaler que le terme
de seconde quantification
est critiqué, notamment parce que les
équations de Maxwell ne sont pas vraiment une première quantification
de quoi que ce soit : voir par
exemple cette
explication. Je trouve néanmoins qu'il est utile de garder cette
terminologie pour décrire de quoi on parle, même s'il faut garder en
tête qu'on n'est pas vraiment en train de faire deux fois la
même procédure.)
La seconde quantification n'a pas de rapport a priori avec la relativité : on peut faire de la seconde quantification dans un contexte non-relativiste — ce qui est d'ailleurs très utile en physique des solides, où les modes de vibration d'un cristal, c'est-à-dire les ondes sonores dans celui-ci, peuvent ainsi devenir des pseudoparticules appelées phonons, lorsque le cristal est considéré comme quantique. Il y a néanmoins une raison pour laquelle la relativité et la seconde quantification vont ensemble : la mécanique quantique relativiste est incohérente. On peut expliquer ce fait de la manière suivante : quand on considère les interactions entre l'électromagnétisme (donc les photons) et les électrons avec une énergie élevée, à savoir lorsque cette énergie dépasse celle qui correspond (par la formule E=mc²) à la masse de deux électrons, il peut y avoir création d'une paire électron+positron (le positron étant l'antiparticule de l'électron) recevant l'énergie excessive du photon, ou inversement, annulation d'une telle paire, c'est-à-dire que le nombre de particules n'est pas fixé : or la « simple » mécanique quantique ne peut pas décrire les situations où il y a création ou annulation de particules, c'est précisément le domaine de la théorie quantique des champs. La relativité, à travers l'équivalence masse-énergie, impose donc la « seconde » quantification. Notamment, dans le cas de l'électromagnétisme, si on peut se contenter dans le cas non-relativiste de considérer l'interaction d'électrons (décrits par l'équation de Schrödinger) avec un champ « classique » (c'est-à-dire en fait avant « deuxième quantification ») décrit par les équations de Maxwell classiques, dès qu'on envisage des vitesses relativistes ou des énergies proches de l'équivalence masse-énergie de la masse d'un électron, il faut travailler dans le cadre de la seconde quantification, l'électrodynamique quantique.
Difficultés mathématiques
La théorie quantique des champs relativiste est, comme je le disais plus haut, une théorie mathématiquement douteuse. En tant que mathématicien, j'ai toujours été très frustré en essayant de la comprendre : la plupart des présentations s'adressent à des gens qui veulent apprendre à utiliser la théorie mais ne disent pas, fondamentalement, ce qu'elle est. Même si on conçoit parfaitement qu'il y ait des difficultés mathématiques qu'on ne sait pas résoudre, je trouve vraiment insupportable le peu d'effort qui est fait à simplement expliciter ce que sont ces difficultés mathématiques, ce qu'on conjecture être formalisable, ce qu'on conjecture ne pas l'être, etc., et comment on devrait pouvoir, au moins en principe, espérer formaliser la théorie — cet effort n'est essentiellement jamais fait. Non seulement le problème n'est pas sans doute pas résolu, mais personne ne vous dit même ce qu'on sait résoudre, ou, fondamentalement, quel est le problème.
Par exemple, n'importe quel livre de mécanique classique vous fera clairement comprendre ce qui décrit l'état du monde en mécanique classique (la donnée de la position et de la vitesse de toutes les particules, ou, si on admet des objets solides, de leur orientation et vitesse angulaire ; et ces choses-là évoluent selon des équations différentielles ordinaires), ou encore en théorie classique des champs (la donnée des champs, qui sont des fonctions sur l'espace, et qui évoluent selon une certaine équation au dérivées partielles) ; mais essayez un peu de comprendre ce qui décrit l'état du monde en théorie quantique des champs, et vous verrez que ce n'est essentiellement jamais dit (un vecteur dans un espace de Hilbert ? qui évolue dans le temps ? qui satisfait une équation différentielle ? quoi encore ?). En cherchant bien, on croit vaguement trouver qu'il existe des choses appelées axiomes de Wightman censées rendre mathématiquement rigoureuse la théorie quantique des champs : et que les lois de la physique seraient en principe reformulables sous forme de certaines équations aux dérivées partielles (en nombre infini mais dénombrable et régulièrement fabriquées) sur des fonctions (enfin, des distributions) appelées les fonctions de corrélation, que les physiciens calculent en pratique, avec des intégrales de chemin ou des manipulations de diagrammes de Feynman. (Quant à l'état du monde, il serait décrit par un vecteur dans un espace de Hilbert plus ou moins défini par ces fonctions ; et on peut en déduire tout le passé et le futur parce que les fonctions de corrélation décrivent les évolutions de tous les mondes possibles.) Quelque chose comme ça. Je crois. Peut-être. Si j'ai bien compris.
Il faut cependant que je mentionne deux livres qui me semblent sortir de l'ordinaire, tous les deux par un auteur dont le nom commence par ‘Z’. Le premier est le remarquable (petit) livre d'A. Zee, Quantum Field Theory in a Nutshell, qui porte très bien son nom : il est très bon pour ce qui est de présenter efficacement le sens physique des choses sans entrer dans des calculs lourds et pénibles — c'est vraiment le meilleur livre que je connaisse pour ce qui est d'expliquer la théorie quantique des champs. Mais il ne satisfera pas complètement le mathématicien. Le second est sans doute plus censé répondre à ce problème, c'est le monumental traité en trois volumes (plus d'autres prévus encore) d'E. Zeidler, Quantum Field Theory (A Bridge Between Mathematicians and Physicists) (I. Basics in Mathematics and Physics, II. Quantum Electrodynamics et III. Gauge Theory) : un livre vraiment très complet, mais qui a tendance à partir dans le brain dump de tout ce que l'auteur sait, si bien qu'à la fin c'est vraiment trop brouillon et on ne s'y retrouve plus. (Je dois cependant dire que je sympathise avec ce problème…)
L'approche traditionnelle de la théorie quantique des champs est celle qu'on appelle perturbative : si on veut calculer, par exemple, l'interaction entre deux électrons envoyés l'un sur l'autre, on aura une zéroième approximation dans laquelle ils n'interagissent tout simplement pas ; puis une première dans laquelle on ajoute la possibilité qu'ils échangent un photon (l'interaction électromagnétique se traduit, dans le cadre de la théorie quantique des champs, au moins dans cette approche perturbative, par un échange de photons « virtuels ») ; puis une seconde où ils peuvent échanger deux photons, mais il se peut aussi que le photon ait la fantaisie, en chemin, de se transformer en une paire électron-positron qui s'annule un peu plus tard pour redevenir un photon ; et ainsi de suite. Chaque terme de cette série d'approximations est représenté par un certain nombre de diagrammes stylisés appelés diagrammes de Feynman qui symbolisent les différentes interactions entre les particules qui interviennent dans l'histoire, et sur lesquels diagrammes des règles de calculs sont établies en fonction de la description de la théorie. Cette série représente un développement asymptotique du résultat final en fonction du nombre d'interactions qui ont lieu, donc en fonction de la force de ces interactions, ce qu'on appelle la constante de couplage ; par exemple, dans le cas des interactions électromagnétiques, la constante en question est la constante de structure fine, qui représente essentiellement la charge de l'électron — ou son carré, peu importe — dans les unités naturelles, et qui vaut environ 1/137.036 : comme cette constante est (nettement) plus petite que 1, l'approche perturbative a des chances de réussir, alors que dans le cas des interactions dites fortes, elle ne peut pas réussir (sauf à monter en haute énergie/température) puisque la constante de couplage est supérieure à 1. Il y a des difficultés avec cette approche perturbative, même quand on peut l'appliquer : d'une part, il est assez certain que la série diverge (mais ce n'est pas forcément un problème si on y pense comme un développement asymptotique : il y a des fonctions bien définies et finies dont le développement asymptotique diverge parce qu'elles ne sont pas analytiques à l'origine ; ce n'est même pas un problème pour obtenir des approximations en pratique). D'autre part, une évaluation naïve montre qu'à peu près chacun des termes de la série est infini : en fait, ils ne sont infinis que si on les exprime en fonction de quantités physiquement dénuées de sens (comme la « charge d'un électron en l'absence de toute autre interaction »), mais si on fait bien attention à exprimer toutes les quantités physiquement mesurables en fonction d'autres quantités physiquement mesurables, on peut faire disparaître les infinis dans le processus qu'on appelle la renormalisation (je renvoie au livre de Zee cité ci-dessus pour une très bonne explication de ce que c'est). Au moins pour certaines théories.
Dans cette approche perturbative, l'électrodynamique quantique (théorie quantique des champs relativiste pour l'électromagnétisme) a donné des résultats remarquablement précis, la plus célèbre étant la prévision de l'anomalie du moment magnétique dipolaire de l'électron à dix chiffres significatifs validés par l'expérience — ce qui devrait en soi suffire à convaincre que même si cette théorie est mathématiquement suspecte, elle est indéniablement correcte à un certain niveau. Pourtant, comme je le disais plus haut, il est vraisemblable qu'elle soit, en fait, incohérente comme théorie fondamentale parce qu'à des énergies gigantesques (ou, ce qui revient plus ou moins au même, sur des échelles extrêmement petites) elle fait apparaître un résultat infini qui semble vraiment en être un : ce qu'on appelle le pôle de Landau. Voici une situation pour le moins désagréable.
On peut donc chercher une approche non-perturbative.
Notamment, on peut faire des calculs sur des réseaux (réseaux
au sens du mot anglais lattice
,
pas network
), c'est-à-dire discrétiser
l'espace-temps, auquel cas la théorie devient gérable et
mathématiquement bien définie, et espérer que si le pas du réseau est
assez petit la théorie « converge » en un certain sens. C'est une
approche qui marche pour la chromodynamique quantique (théorie des
interactions fortes entre quarks et gluons) pour laquelle, comme je
l'ai dit, la théorie perturbative ne peut pas marcher aux basses
énergies/températures, et on a pu faire quelques prévisions avec elle
comme le spectre de masses des hadrons (particules composées de
quarks, d'antiquarks et de gluons) : les calculs en question sont
numériquement très difficiles, si bien qu'on ne sait en faire que
depuis assez récemment, et on doit faire toutes sortes
d'approximations (comme l'égalité de la masse des quarks légers, la
taille des réseaux utilisés, etc.) qui donnent des résultats de
qualité très variable selon la particule, donc c'est nettement moins
impressionnant que les résultats de l'électrodynamique quantique ;
c'est cependant assez pour qu'on puisse raisonnablement dire qu'on a
affaire à une confirmation expérimentale. A contrario, pour
l'électrodynamique quantique, pour laquelle je disais plus haut que
l'approche perturbative marche très bien malgré l'absence de fondement
mathématique, les calculs sur réseau ne marchent pas vraiment, et on
pense d'ailleurs que si on faisait tendre vers 0 le pas du réseau la
théorie dégénérerait
vers la théorie triviale (sans interactions), ce qui est une autre
manifestation de l'incohérence mathématique représentée par le « pôle
de Landau ».
Pour résumer, la théorie quantique des champs est une bête un peu étrange : le tout est mathématiquement bien compris, certains secteurs sont vraisemblablement bien définis mathématiquement, encore qu'on ne sache pas le prouver rigoureusement, d'autres sont probablement incohérents, encore qu'on ne sache pas le montrer non plus, et pourtant on sait mieux faire des calculs avec les secteurs probablement incohérents qu'avec ceux qui ne le sont pas !
Une des difficultés est, en fait, qu'on ne sait pas vraiment réduire le problème : comme le dit un adage souvent répété, en gravitation classique le problème à trois corps est trop difficile pour être résolu exactement, en relativité générale même le problème à deux corps est trop compliqué pour être résolu exactement (deux corps en orbite émettent des ondes gravitationnelles qui leur font perdre de l'énergie et la situation devient très difficile à analyser), mais en théorie quantique des champs, même le vide, ou « problème à zéro corps », est trop compliqué pour être résolu exactement (parce que le vide, en fait, peut se polariser spontanément en n'importe quel type de particules, et d'ailleurs, concrètement, le vide se comporte comme quelque chose d'assez compliqué avec un diagramme des phases et ce genre de choses ; d'ailleurs, même la question de la stabilité du vide devient un problème subtil).
Gravitation quantique ?
Je reviens à la gravitation, et au sommet manquant du cube. Je ne vais pas en dire grand-chose parce que je n'y connais pas grand-chose, mais je peux quand même tenter une petite synthèse.
Les théories à marier : le Modèle standard et la relativité générale
Le Modèle standard de la théorie des particules décrit les interactions des particules de matière (fermions : leptons et quarks) avec les forces fondamentales (bosons : le photon qui véhicule l'électromagnétisme, les W± et Z0 qui véhiculent la force faible, les gluons qui véhiculent la force forte, et le Higgs qui véhicule une force ad hoc dite de type Yukawa). On peut trouver que ce modèle est bricolé et inélégant, mais à part pour la masse des neutrinos (qu'il est facile d'ajouter au modèle), il est pour l'instant conforme à l'expérience (peut-être même trop conforme), et toutes les particules supplémentaires qui ont été prédites pour rendre le Modèle standard plus élégant ou symétrique (voire supersymétrique) ont pour l'instant refusé de se manifester. Il y a cependant un morceau que le Modèle standard omet complètement, c'est le huitième sommet de mon cube : la gravitation quantique (je veux dire ce que j'ai appelé plus haut la deuxième quantification, même si ici on ne peut pas vraiment dire qu'il y ait eu une première quantification de la gravitation, donc je reconnais que le terme est malheureux).
La relativité générale (contrairement à la théorie de Newton) prédit que la gravitation peut former des ondes, un peu comme les ondes électromagnétiques, et se propageant comme elles à la vitesse « de la lumière » : seulement, au lieu d'être constituées de champs électromagnétiques oscillants, elles sont constituées de champs gravitationnels oscillants (cette oscillation est quadrupolaire alors que les ondes électromagnétiques sont de nature dipolaire ; par ailleurs, les fréquences où on s'attend à trouver des rayonnements gravitationnels intéressants sont plutôt beaucoup plus faibles que celles où on trouve des rayonnements électromagnétiques intéressants). Ces ondes sont extrêmement « faibles » ou plutôt, extrêmement faiblement couplées à la matière : à moins d'avoir affaire à des situations exceptionnelles comme deux étoiles à neutron en orbite rapprochée ou deux trous noirs entrant en collision, la quantité d'énergie émise sous forme d'ondes gravitationnelles est presque toujours négligeable. (C'est aussi la raison pour laquelle on n'a toujours pas réussi à les observer directement : on a cependant réussi à observer les effets de la part d'énergie perdue sous forme d'ondes gravitationnelles dans l'orbite entre deux pulsars.)
Pour obtenir une théorie de la gravitation quantique relativiste, il faut réussir à quantifier ce rayonnement gravitationnel, c'est-à-dire décrire la gravitation au moyen de la particule associée : le graviton (qui est à la gravitation ce que le photon est à l'électromagnétisme — une unité minimale d'excitation du champ). Vu qu'on n'a même pas réussi à observer directement la version classique de cette vibration, le fait d'arriver à observer directement la particule quantique « graviton » est, disons, mal partie. (Ce qui n'empêche pas de pouvoir a priori dire des choses sur le graviton : par exemple, il n'a pas de masse, parce que s'il en avait le champ gravitationnel décroîtrait exponentiellement plutôt que quadratiquement, donc en fait on a une mesure phénoménalement précise de la nullité de la masse du graviton ; d'autre part il doit avoir « spin 2 », ce qui mesure le moment angulaire intrinsèque qu'il véhicule, et qui est lié au fait que les ondes gravitationnelles sont quadrupolaires.) Globalement, on a donc peu de chances d'arriver à avoir des observations expérimentales pour guider la recherche d'une bonne théorie.
Le plus proche qu'on sache faire, c'est de la gravitation « semi-classique », c'est-à-dire une interaction entre des particules quantiques et un champ gravitationnel classique. C'est une théorie dont on sait qu'elle est fausse, et qui n'est d'ailleurs même pas cohérente (des raisons détaillées sont expliquées ici), mais c'est encore la chose la plus proche qu'on sache faire du huitième sommet de mon cube, et notamment il est très difficile de mettre en place la moindre expérience qui permettrait de falsifier cette théorie dont on sait qu'elle est fausse (pour essentiellement la raison qu'il est extraordinairement difficile d'observer un graviton : la faiblesse de la gravitation). C'est notamment dans ce cadre de gravitation semi-classique que Hawking a fait ses prévisions sur l'évaporation quantique des trous noirs (même si celle-ci, que je comprenne, n'est pas rigoureusement prouvé même dans cette théorie bâtarde).
Pourquoi est-ce difficile ?
Quelle est la difficulté à quantifier la gravitation ? On peut en évoquer plusieurs aspects. Contrairement aux autres forces qui interagissent chacun seulement avec les particules ayant la charge correspondante (le photon interagit avec les particules chargées électriquement, le W et le Z avec les particules ayant de l'isospin faible ou de l'hypercharge faible, le gluon avec les particules « colorées », le Higgs avec les particules ayant de la « charge de Higgs » qui se manifeste en pratique sous la forme d'une masse), la gravitation interagit avec toute forme d'énergie, bref, avec tout (y compris d'ailleurs avec elle-même). D'autre part, contrairement à l'électromagnétisme pour lequel on peut définir une « constante de couplage » α ≈ 1/137.036 (mesurant la force des interactions dans les unités naturelles), il n'y a rien d'analogue pour la gravitation faute de « charge » naturelle pour la gravitation (la constante de Newton G définit juste l'échelle, mais il n'y a rien à quoi la comparer) ; or la manière dont la « renormalisation » fait disparaître des infinis en théorie quantique des champs, c'est en redéfinissant la constante de couplage pour les absorber, et ce tour de passe-passe n'est pas possible avec la gravitation.
Il y a aussi, si j'ose dire, une incompatibilité d'humeur assez
grave : pour la relativité générale, la gravitation n'est pas une
force ou une interaction, c'est simplement le reflet de la
courbure de l'espace-temps : les particules, en l'absence de force,
vont « aussi droit que possible » (=suivent des géodésiques) dans un
espace-temps courbe, et c'est ça qui donne l'impression d'une
« force » gravitationnelle. Pour la théorie quantique des champs, en
revanche, chaque champ correspond à une particule, et il doit donc y
avoir un graviton. Ces points de vue sont assez difficiles à
réconcilier. A priori, ce n'est qu'une question de
présentation (seules comptent la réalité physique mesurable et les
équations mathématiques, pas la manière dont on les décrit avec les
mains) ; mais en fait, les choses vont plus loin. En relativité
générale, la notion de distance dans l'espace-temps (voire la
notion d'espace-temps tout court, et sa topologie) n'est pas vraiment
dissociable de la gravitation : il n'y a pas un espace-temps
préexistant sur lequel la gravitation se superposerait (c'est ce qu'on
appelle la background independence,
l'indépendance du fond
, de la relativité) ; la théorie
quantique des champs, au contraire, a envie de considérer les
champs dans l'espace-temps (plat). Si on se contente de
prendre la gravitation comme un champ modifiant un espace-temps plat
préexistant pour quantifier cette modification, on fait violence à un
principe fondamental de la relativité, et il est suspect qu'une telle
théorie puisse être la bonne — en tout cas, on ne voit pas comment
elle permettrait de changer la topologie même de l'espace-temps.
Fondamentalement, le problème et qu'on ne sait pas décrire un
espace-temps quantique, même du point de vue simplement métrique, et à
plus forte raison du point de vue topologique.
Par simple analyse dimensionnelle, on a une idée de l'échelle de notre ignorance : les trois constantes fondamentales qui interviennent au sommet manquant de mon cube de théories (la vitesse de la lumière c, la constante de Planck ℏ, et la constante de Newton G) se combinent pour définir une masse, une longueur et un temps fondamentaux, ce sont la masse de Planck (√(ℏ·c/G), environ 2.2×10−8 kg), la longueur de Planck (√(ℏ·G/c³), environ 1.6×10−35 m) et le temps de Planck (√(ℏ·G/c⁵), environ 5.4×10−44 s). La masse de Planck (ou l'énergie associée, qui a la valeur remarquablement moyenne de 540kW·h) sépare, très grossièrement parlant, les échelles microscopiques où les effets quantiques sont dominants et les échelles macroscopiques où la gravitation est dominante. La longueur et le temps de Planck sont les échelles au niveau (au-dessous) desquelles nous ne comprenons plus l'espace-temps. Une idée générale est que les infinis qui hantent la théorie quantique des champs sont dus à l'idée naïve qu'on peut subdiviser l'espace à l'infini, et que ce fait n'est pas vrai, ou en tout cas mérite d'être précisé ou qualifié, au niveau de l'échelle de Planck.
Deux approches du problème : théorie des cordes et LQG
Il existe cependant des théories censées expliquer ce qui se passe. En fait, il existe deux principales candidates (ou classes de théories) au titre de théorie de la gravitation quantique relativiste qui pourrait être une « théorie du tout » : la théorie des cordes (et ses multiples variantes, sous-théories et super-théories : théories des supercordes, des membranes, M-théorie, que sais-je encore) et la gravitation quantique à boucles (LQG) (et ses variantes, apparemment moins nombreuses, comme la gravitation quantique algébrique). Pour autant que je comprenne les choses, la théorie des cordes est plutôt une approche qui vient de la théorie quantique des champs et cherche à la fois à unifier toutes les interactions et presque secondairement à y incorporer la gravitation (tout en redéfinissant de façon assez profonde la théorie quantique des champs elle-même), tandis que la LQG vient de la relativité générale et cherche avant tout à la quantifier en préservant sa propriété essentielle d'« invariance du fond », après quoi les autres interactions peuvent être décrites de la manière donnée par le Modèle standard (sachant que la LQG aura débarrassé celui-ci des problèmes comme les infinis). Aucune de ces deux théories n'a été validée par l'expérience, et il n'est même pas clair qu'aucune des deux puisse fournir une prédiction expérimentale non triviale qui serait en principe vérifiable (après tout, ce n'est pas parce qu'on a la bonne théorie du tout qu'on peut effectivement faire le moindre calcul avec elle !). Mais déjà le simple fait d'arriver à formuler une théorie mathématiquement bien-fondée et cohérente qui reproduit les limites que sont les trois côtés adjacents du cube (équations de Schrödinger-Newton quand c→∞, relativité générale quand ℏ→0 et théorie quantique des champs relativiste / Modèle standard quand G→0) n'a rien d'évident et constitue en soi un test expérimental par héritage de toutes les expériences ayant validé ces différentes théories.
De ce que je comprends, la théorie des cordes fait appel à des outils mathématiques beaucoup plus sophistiqués et élégants (dont beaucoup de géométrie algébrique), mais, au final, il n'est même pas vraiment acquis qu'on dispose d'une théorie complète mathématiquement bien fondée et qu'elle ne souffre pas des mêmes problèmes de fondement que la théorie quantique des champs : on dispose apparemment d'une approche perturbative et d'idées qui pourraient peut-être donner une approche non-perturbative, mais rien n'est sûr. La LQG, en revanche, dont l'idée très grossière est de « discrétiser » l'espace-temps un peu sur le modèle de ce que font les calculs sur réseaux (mais sans géométrie imposée), constitue incontestablement une théorie mathématique bien définie et bien fondée et qui fait disparaître les problèmes d'infinis qui hantent la théorie quantique des champs : ce qu'on peut lui reprocher, c'est surtout qu'il n'est pas acquis qu'elle réalise les trois limites demandées (notamment quand ℏ→0), et que le Modèle standard est ajouté de façon ad hoc. Il est fort possible que j'aie mal compris, et il est assez difficile d'y voir clair parce que le débat entre la théorie des cordes et la LQG ressemble un peu à une guerre de religion.
Qu'est-ce qu'une « théorie du tout », et que veut-on pouvoir prédire ? — Le problème des constantes
Il faut que je souligne la chose suivante : quand bien même on aurait une « théorie du tout » correcte et mathématiquement bien fondée, ceci ne résoudrait pas magiquement toutes les questions physiques — pour en gros la même raison que le fait d'avoir décidé que ZFC était l'ensemble des axiomes qu'on prendrait pour définir les mathématiques ne rend pas pour autant les mathématiques triviales ! Ce n'est pas parce qu'on a la bonne théorie qu'on sait en déduire tout ce qu'on veut : ce n'est même pas clair qu'on puisse en déduire quoi que ce soit.
Combien de constantes fondamentales sans dimension ?
Une question essentielle qu'on doit se poser quand on a affaire à
une théorie physique, c'est : combien de constantes fondamentales
a-t-elle ? Par constantes fondamentales
(ou constantes
magiques
plus haut), je veux parler
de nombres
sans dimension qui interviennent dans les équations définissant la
théorie et qui doivent être déterminés par l'expérience. La
relativité générale n'en a aucune, pas plus que l'électromagnétisme
classique ou la théorie de Newton (les quantités comme la constante de
Newton, la permittivité ou la perméabilité du vide ont une dimension,
i.e., dépendent des unités qu'on utilise, et peuvent donc disparaître
si on choisit les bonnes unités — ou pour dire les choses autrement,
ce sont simplement des relations reliant différentes unités).
L'électrodynamique quantique a une unique constante fondamentale : la
constante de structure fine (j'en ai déjà parlé plus haut). Le Modèle
standard en a une pléthore : John
Baez a compté
24 constantes (il en compte 26 en tout, mais il faut soustraire
une constante de masse puisque la masse de Planck ne relève pas du
modèle standard, et aussi la constante cosmologique).
Une vingtaine de constantes, c'est beaucoup. Surtout, la répartition de ces constantes est très mystérieuse. Prenons les masses des leptons et quarks : pour une raison qu'on ignore, les leptons et quarks s'arrangent en trois « familles » (la famille légère, la famille moyenne, et la famille lourde), chacune comportant quatre particules (un neutrino ou lepton neutre, un lepton chargé, un quark négativement chargé et un quark positivement chargé). Leurs masses sont données par le tableau suivant, exprimées en multiples de ce qu'on appelle le « condensat de Higgs » (246 GeV, une unité de masse naturelle dans le cadre du modèle standard — si on préfère, le tableau correspond à l'intensité de l'interaction entre la particule en question et le boson de Higgs) :
Leptons | Quarks | |||
---|---|---|---|---|
Neutrino | Lepton chargé | Quark négatif | Quark positif | |
Famille légère | neutrino 1 10−13<•<10−11 | électron 2.08×10−6 | quark down ∼2×10−5 | quark up ∼10−5 |
Famille moyenne | neutrino 2 <10−6 | muon 4.29×10−4 | quark strange 3.9×10−4 | quark charm 5.2×10−3 |
Famille lourde | neutrino 3 <10−4 | tau(on) 7.22×10−3 | quark beauty (=bottom) 0.017 | quark truth (=top) 0.70 |
(L'incertitude varie énormément entre ces différents nombres. La masse de l'électron — qui est le lepton chargé de la famille légère — est extrêmement bien connue, alors que sur les neutrinos on sait seulement qu'au moins deux d'entre eux ont une masse non nulle ; sur les quarks, on connaît mieux les masses des quarks lourds que ceux des quarks légers. Par ailleurs, il y a des problèmes assez subtils dans la définition de ce qu'est que la « masse » d'une particule élémentaire — ça dépend du schéma de renormalisation utilisé — et je ne suis pas sûr d'avoir pris des valeurs toutes selon la même définition, mais ceci donnera au moins des ordres de grandeur.)
J'insiste sur le fait qu'aucune théorie actuelle ne prédit ces
nombres, qui sont des nombres sans dimension. Rien que le classement
des leptons et quarks en trois familles est mystérieux (la théorie
« demande » simplement, dans un certain sens, que le nombre de leptons
chargés soit égal au nombre de neutrinos et que le nombre de quarks
positifs soit égal au nombre de quarks négatifs, mais pas que ces deux
nombres soient égaux). Mais ces nombres sont particulièrement
étranges : pourquoi tous les neutrinos ont-ils une masse si
faible qu'on n'arrive même pas à les mesurer ? Pourquoi le
quark truth a-t-il une masse plus de quarante
fois plus élevée que son
copain beauty ? Pourquoi le rapport des
masses des quarks négatif et positif est-il dans le sens opposé sur la
famille légère que sur les deux autres ? On peut évidemment traiter
tous ces nombres comme des faits de la nature qui ne méritent pas
d'autre explication que c'est comme ça
, mais il y a quelque
chose d'extrêmement déplaisant à écrire un nombre plus petit que
10−11 et prétendre qu'il n'y a aucune explication à ça.
D'un autre côté, il n'est écrit nulle part que l'Univers doive être
totalement explicable (mais il est aussi bizarre de penser qu'il le
serait à une vingtaine de constantes près !).
Le problème de la constante cosmologique
Mais le problème d'une masse du neutrino de l'ordre de 10−12 dans l'unité naturelle du couplage avec le Higgs n'est rien par rapport au problème de la constante cosmologique, qu'on peut faire apparaître en relativité générale (mais elle a alors une dimension, donc ne compte pas comme une constante fondamentale au sens expliqué ci-dessus), et doit nécessairement intervenir dans le cadre de la gravitation quantique relativiste. Comme je l'ai expliqué plus haut, on n'a pas de théorie de la gravitation quantique, seulement des candidates à ce poste, mais on peut au moins faire des calculs d'analyse dimensionnelle.
La constante cosmologique représente la manière dont le vide lui-même possède un effet gravitationnel (équivalent à une densité d'énergie, et une pression négative de même valeur).
Les astrophysiciens mesurent en effet un tel effet (via ses effets sur l'expansion de l'Univers) : la constante cosmologique vaut, selon ces mesures, environ 6×10−27 kg/m³, c'est-à-dire qu'un mètre cube de vide « pèse » environ 6×10−27 kg (ou renferme une énergie équivalente) pour la gravitation : c'est ce qu'on appelle l'énergie noire (qui représente environ 70% de la masse de l'Univers telle que vue par la gravitation ; à ne pas confondre avec la matière noire, qui représente encore une majorité des 30% restants).
Or l'unité naturelle dans laquelle la constante cosmologique devrait être mesurée est la densité de Planck (une masse de Planck par volume de Planck), et elle vaut 5×1096 kg/m³ : le rapport entre les deux, c'est-à-dire, la constante cosmologique exprimée dans ses unités naturelles, qui est une des constantes fondamentales de l'Univers (ou en tout cas devrait en dériver), vaut donc environ 10−123. Non seulement il est bizarre de voir apparaître un nombre aussi petit, mais un raisonnement un peu empirique sur l'origine de cette énergie du vide que représente la constante cosmologique laisse penser qu'elle devrait être de l'ordre de 1 dans ses unités naturelles : ce raisonnement est donc faux par 123 ordres de grandeur. Le moins qu'on puisse dire est que cette situation est étrange.
Et même si on n'accepte pas le raisonnement empirique sur l'énergie du vide à l'échelle de Planck, on devrait au moins voir apparaître, sous forme de constante cosmologique, l'énergie du vide due à la structure connue (et expérimentalement validée !) du champ de Higgs ou du vide de la chromodynamique quantique (QCD), or ces densités d'énergie sont encore de l'ordre de grandeur de 3×1028 kg/m³ pour le Higgs et quelque chose autour de 1020 kg/m³ pour le vide de QCD — c'est peut-être moins élevé que la densité de Planck, mais tout de même entre 46 et 55 ordres de grandeur au-dessus de ce qu'on observe. Bref, un problème fondamental est de comprendre pourquoi cette énergie du vide qu'on sait être là n'a pas l'effet gravitationnel qu'on attend, ou bien ce qui peut annuler cet effet avec une précision de mieux que 99.999999999999999999999999999999999999999999% (mais pas exactement).
Remarque : On pourra trouver incompréhensible l'idée que le vide puisse posséder une énergie de 5×1096 kg/m³, ou même de 3×1028 kg/m³ — une énergie aussi colossale devrait nécessairement se manifester, non ? En fait, il faut sans doute comparer avec la pression atmosphérique (qui représente tout de même une énergie de l'ordre de 105 J/m³) : on ne sent pas la pression atmosphérique tout simplement parce que nous baignons dedans, et pour la même raison on ne sent pas l'effet direct du champ de Higgs parce que celui-ci est partout — mais la gravitation, elle, devrait quand même le sentir.
Coïncidences exactes ?
Ce n'est pas tout. Rien, dans le modèle standard, n'impose que la charge de l'électron soit exactement opposée de celle du proton (laquelle vaut deux fois la charge du quark up plus une fois celle du down) : la seule chose qu'il impose est que la charge d'un lepton négatif moins la charge d'un neutrino soit égale à la charge d'un quark négatif moins celle d'un quark positif — mais le fait que la charge du neutrino soit 0 et que celle des quarks soient en rapport de −1/3 contre 2/3, ceci n'est qu'une donnée expérimentale. Une donnée expérimentale extrêmement précise, parce que si la charge du proton n'était pas très très proche d'être opposée à celle de l'électron, notre univers volerait en morceaux — les bornes expérimentales semblent être de 10−12 pour le rapport entre la charge du neutrino et de l'électron, et 10−21 entre le neutron et l'électron.
Le fait que deux nombres que la théorie n'interdit pas d'être différents soient (apparemment) exactement égaux, ou qu'un nombre qui pourrait être non-nul soit nul, cela mérite-t-il une explication ? Est-ce d'ailleurs plus ou moins mystérieux que quand un nombre est presque-nul-mais-pas-tout-à-fait comme la constante cosmologique (ou, d'ailleurs, la masse des neutrinos, qu'on a longtemps pensé être exactement 0 et qui est en fait seulement trop petite pour être mesurée précisément) ? Voilà une question philosophique sur la nature de ce que signifie expliquer l'Univers, à laquelle je n'ai pas de réponse.
Il faut noter qu'il y a une théorie qui expliquerait le fait que la charge électrique soit quantifiée (expérimentalement toutes les charges des particules élémentaires sont des multiples entiers de 1/3 fois celle de l'électron, et en particulier le proton a une charge exactement opposée à celle de l'électron), c'est l'existence de monopôles magnétiques — s'il y a un monopôle magnétique quelque part dans l'Univers, alors toutes les charges de l'Univers doivent être quantifiées (comme cela semble effectivement être le cas). Mais ces particules (qui ne font pas partie du Modèle standard) n'ont jamais été observées : quelle est l'hypothèse la plus économique au sens du rasoir d'Occam, croire à l'existence d'une particule qu'on n'a jamais observée, ou bien croire que les charges électriques sont quantifiées « sans raison » ?
Un problème du même genre est le problème dit CP des interactions fortes : il est lié à la question des symétries que possède le vide de la théorie (QCD) des interactions fortes (j'ai souligné ci-dessus que même le vide, en théorie quantique des champs, a une structure passablement compliquée, et ceci est particulièrement vrai eu égard aux interactions fortes). Disons pour simplifier qu'on peut définir un angle θ, appelé parfois angle du vide de QCD et qui, s'il était non nul, impliquerait notamment que le neutron aurait un moment dipolaire électrique — or, expérimentalement, ce moment dipolaire, donc l'angle θ en question, semble nul (de nouveau, avec une très grande précision). Et ce qui pose de nouveau la question : est-il plus économique ou raisonnable de supposer que cette quantité est exactement nulle (notre univers n'en fait juste pas usage) ou bien simplement qu'elle est très proche de zéro sans raison particulière ? Mais sinon, on peut postuler l'existence d'une particule, l'axion, qui résout le problème — mais de nouveau, vaut-il mieux postuler l'existence d'une particule non observée ou la nullité « accidentelle » d'une variable qui n'a pas spécialement de raison d'être nulle.
À quoi doit ressembler une théorie du tout ?
Je crois vaguement comprendre que la théorie des cordes prétendrait peut-être un jour, hypothétiquement, éventuellement, pouvoir expliquer à partir de rien toutes les constantes laissées par le Modèle standard (dont la masse des fermions, et sans doute aussi leur nombre, la constante cosmologique, la quantification de la charge, et l'angle du vide de QCD). Mais peut-être cette prévision aura-t-elle besoin du principe anthropique (cf. plus loin). Et, en tout état de cause, personne n'est, actuellement, capable d'en tirer ce genre de prédiction, qui serait un succès extraordinaire. Ce n'est pas forcément suspect, dois-je ajouter, de ne pas parvenir à faire des prédictions numériques : par exemple, j'ai signalé que la théorie QCD est en principe capable de prédire la masse de tous les hadrons (particules composées de quarks, d'antiquarks et de gluons) à partir des masses des quarks, mais en pratique les calculs sur réseaux sont numériquement très difficiles.
Voici une autre chose qui doit faire réfléchir : j'ai évoqué ci-dessus le fait qu'on ne sait pas quantifier la gravitation relativiste, ou plus exactement, que si on le fait on obtient une théorie qui n'est pas renormalisable, c'est-à-dire que si on lui fait calculer à peu près n'importe quoi, le résultat est toujours infini (on ne sait pas absorber ces infinis comme on le fait dans les théories du Modèle standard, en gros faute d'une constante fondamentale qui serait prête à les absorber). En fait, il faut nuancer cette idée : on peut absorber les infinis de la gravitation quantique relativiste, mais à condition d'introduire une infinité de constantes d'interaction (essentiellement, une pour absorber chaque divergence qui apparaît dans un diagramme de Feynman). Et la théorie qu'on obtient ainsi est certainement « correcte », au moins en tant que théorie perturbative. C'est déjà la situation qui se produisait pour les interactions fortes et faibles avant qu'on trouve la « bonne » théorie qui les décrive (QCD et la théorie électrofaible de Glashow-Weinberg-Salam) : on peut décrire l'interaction forte entre deux hadrons sans savoir ce que sont les quarks et gluons (modèle de Nambu et Jona-Lasinio), ou l'interaction faible entre deux leptons sans savoir ce que sont les bosons W et le Z (interaction de Fermi), mais les théories en question (qu'on appelle des théories des champs effectives, par opposition à fondamentales) ne sont pas renormalisables, et comportent donc une infinité de constantes — ces constantes pouvant en principe être déterminées par la « bonne » théorie fondamentale. On pense donc que la « bonne » théorie fondamentale de la gravitation quantique relativiste (qui pourrait par exemple peut-être être la théorie des cordes ou la LQG) déterminerait cette infinité de constantes…
…Mais après tout, rien ne dit que l'Univers ait ce sens de l'esthétique. Si on accepte une théorie ayant 24 constantes indéterminées, pourquoi pas une infinité ? Il n'y a pas d'impossibilité évidente, juste un problème d'esthétique vaguement philosophique, au fait que la théorie fondamentale de la gravitation quantique relativiste soit une théorie faisant intervenir une infinité de constantes : si on n'a aucune idée de ce que ces constantes sont, évidemment, la théorie ne permet aucune prévision, mais pour peu qu'on ait simplement quelques inégalités raisonnables d'ordres de grandeur, on pourrait les déterminer une par une (en un certain sens, c'est déjà ce qu'on veut dire quand on exige que la théorie se réduise en la gravitation newtonienne quantique quand c→∞, la relativité générale quand ℏ→0, et la théorie quantique des champs sans gravitation quand G→0) — si ce n'est bien sûr qu'en pratique nous ne sommes capables de déterminer expérimentalement aucune de ces constantes (ceci nécessiterait des accélérateurs capables d'accélérer une particule jusqu'à l'énergie de Planck, ou d'observer la quantification des ondes gravitationnelles, ou d'autres choses de ce genre totalement hors de portée). Encore plus bizarrement, on pourrait imaginer que la théorie fondamentale de la gravitation quantique relativiste (et donc, la théorie du tout) soit une théorie de ce genre où les constantes seraient données par une formule explicite totalement ad hoc et n'ayant aucune sorte d'« explication » (de même, après tout, peut-être que la constante de structure fine vaut exactement 15397913/112364, et qu'il n'y a pas d'autre explication que « parce que l'Univers est comme ça »).
Le principe anthropique (est-il une explication de quoi que ce soit ?)
Une explication qu'on peut avancer pour la valeur des constantes fondamentales est celle du principe anthropique : il s'agit de l'idée que les lois de l'Univers sont telles qu'elles sont parce que si elles étaient trop différentes, la vie ne serait pas possible et nous ne pourrions pas être là pour observer ces lois. Il y a toutes sortes de variantes du principe anthropique, allant d'une trivialité (l'Univers permet la vie, la preuve, nous sommes là) à des postulats quasiment mystiques (l'Univers a pour but de faire apparaître la vie), en passant par l'idée qu'il existe une infinité d'univers parallèles admettant toutes les valeurs possibles des constantes fondamentales et que nous sommes forcément dans l'un d'eux où elles ont une valeur qui permet notre existence. (Ces univers peuvent « exister » en un sens physique plus ou moins fort : certaines théories cosmologiques les intègrent vraiment comme faisant partie d'un « multivers », mais il est aussi possible de les imaginer comme des points d'un « ensemble des mondes » qui existe au moins en tant que conception mathématique — la question de savoir ce que « observer » ou « vivre dans » signifie étant alors franchement de la métaphysique.) Après tout, on ne va pas s'étonner que la Terre soit miraculeusement à la bonne distance du Soleil pour permettre à l'eau liquide d'exister à sa surface : c'est juste que nous appelons « Terre » la planète sur laquelle nous sommes apparus, et que ce phénomène nécessite la possibilité d'eau liquide ; reste à savoir si on a « le droit » de tenir ce raisonnement sur l'Univers tout entier.
À titre d'exemple, notre existence est très sensible à la masse du
neutron (qui est supérieure de 0.14% à celle du proton) : si la masse
du neutron était ne serait-ce qu'un peu plus légère, aucun atome ne
serait stable, toute la matière se transformerait en amas de
neutrons ; a contrario, si la masse du neutron était ne
serait-ce qu'un peu plus lourde, il serait trop instable pour être
stabilisé au sein des atomes, et aucun atome ne serait stable sauf
l'hydrogène, et notre univers ne serait qu'un gaz d'hydrogène. Le
fait que les atomes existent et soient stables impose donc une
contrainte très forte sur la masse du neutron (qui découle elle-même,
en principe, des constantes vraiment fondamentales comme la masse des
quarks, les constantes de couplages des interactions forte et
électrofaible, etc.). On pourrait dire qu'il s'agit là d'une sorte de
confirmation expérimentale du principe anthropique (il prédit une
masse du neutron proche de celle du proton, et c'est bien le cas !, et
cette prévision était non-triviale), mais évidemment ça ressemble à de
la triche. Un exemple célèbre et autrement plus frappant, décrit
parfois de façon exagérément romancée, concerne la prédiction faite
par Fred Hoyle en 1954 de l'existence d'un état excité du noyau de
carbone-12 d'énergie environ 7.68MeV (avec spin/parité
0+) : les détails historiques et physiques de cette
prédiction
sont racontés
ici (mais il n'est pas clair, historiquement, qu'on puisse la
qualifier d'anthropique
), et la contrainte a priori
apportée sur les constantes fondamentales par l'existence de cet état
excité est évaluée dans cet
article (à environ 2% ou 3% sur la masse des quarks légers et de
la constante de structure fine). (Voir
aussi ce texte pour un
angle d'attaque plus général.)
Il faut bien sûr être modeste dans ce genre d'évaluation et se
rappeler que même si la vie n'est pas possible sous la forme sous
laquelle nous la connaissons, elle pourrait très bien être possible
sous une forme complètement différente (ce qui pose bien sûr la
question de définir ce que c'est que la vie
, pour ne même pas
parler de la vie intelligente ; à ce sujet, je renvoie à l'excellent
et très classique essai de Jacques Monod, Le Hasard et la
Nécessité).
La force faible (c'est-à-dire les interactions faibles, médiées par les bosons W et Z, et responsables notamment de la désintégration du neutron) a été beaucoup étudiée sous l'angle du principe anthropique parce qu'elle contrôle la durée de vie du neutron, qui est tout à fait critique pour notre existence. Par exemple, il a été avancé qu'il était possible de construire un univers compatible avec l'existence de la vie et dans lequel la force faible n'existe pas (cet univers a d'ailleurs fait l'objet d'une vulgarisation dans la revue Scientific American, je crois qu'elle a aussi été traduite dans son pendant français, Pour la science) ; il n'est pas clair que cet univers soit exempt de problème, mais ceci soulève au moins la question : la force faible est-elle vraiment nécessaire à notre existence (et sinon, comment « expliquer » qu'elle existe ?).
Mais se concentrer sur le problème des lois fondamentales de l'Univers (et de pourquoi elle contiennent ces constantes bizarres, ces symétries insatisfaisantes et ces interactions ad hoc et disgracieuses), c'est un peu oublier l'éléphant au milieu de la pièce, les conditions initiales de l'Univers, qui sont elles aussi inexplicablement « spéciales », et tenter d'expliquer cette « spécialité » par le seul principe anthropique conduit à des paradoxes bizarres (essentiellement, parce que l'état le plus simple de l'Univers qui explique l'existence d'une conscience qui l'observe n'est pas le résultat d'une évolution naturelle de la vie et de la conscience mais simplement d'une apparition aléatoire de cette conscience, pour une durée très courte, dans une soupe de particules — avec la conséquence intellectuellement peu satisfaisante que le plus probable est que tout ce que nous observons de l'Univers n'est qu'une illusion promise à disparaître en une fraction de seconde). J'ai déjà évoqué ce problème (voir aussi l'entrée suivante et la vidéo de Lawrence Kraus qu'elle référence et qui prétend essayer de répondre à ce problème).
Je termine mes méditations ici, parce que je ne sais pas bien quoi
conclure, à part que les physiciens, mais aussi les philosophes de la
physique, ont du pain sur la planche. Peut-être que je devrais juste
reprendre cette phrase d'Albert Einstein (Physics
and Reality, 1936) : le mystère éternel du monde est sa
compréhensibilité
.