David Madore's WebLog: Physics

This WebLog is bilingual, some entries are in English and others are in French. A few of them have a version in either language. Other than that, the French entries are not translations of the English ones or vice versa. Of course, if you understand only English, the English entries ought to be quite understandable without reading the French ones.

Ce WebLog est bilingue, certaines entrées sont en anglais et d'autres sont en français. Quelques-unes ont une version dans chaque langue. À part ça, les entrées en français ne sont pas des traductions de celles en anglais ou vice versa. Bien sûr, si vous ne comprenez que le français, les entrées en français devraient être assez compréhensibles sans lire celles en anglais.

Note that the first entry comes last! / Notez que la première entrée vient en dernier !

Index of all entries / Index de toutes les entréesXML (RSS 1.0) • Recent comments / Commentaires récents

Entries with category phys / Entrées de la catégorie phys:

(mardi)

Sur la redéfinition des unités SI : 2. le prototype international du kilogramme

Je continue l'histoire que j'ai commencée dans l'histoire précédente et qui m'avait laissé à la création du kilogramme des Archives, que les savants de la fin du 18e siècle (notamment Lefèvre-Gineau, Fabbroni et Fortin) avaient tenté de rendre aussi précisément que possible égal à la masse d'un décimètre cube d'eau pure à son maximum de densité (tandis que le mètre tentait lui-même d'être la dix millionième partie de la longueur d'un quart de méridien terrestre). Il faut maintenant que je raconte l'histoire de l'actuel prototype international du kilogramme : les raisons qui ont mené à ce qu'on voulût changer d'étalon, et la manière dont il a été fabriqué et choisi.

L'usage du système métrique ne s'est développé que graduellement, même en France. En 1812, face à la réticence quant à l'usage des unités nouvelles, Napoléon et son ministre de l'Intérieur (Montalivet) prirent des mesures réglementaires autorisant l'usage de certains multiples ou sous-multiples des unités métriques sous des noms identiques à des mesures anciennes : il s'agit des mesures usuelles ou « napoléoniennes ». Par exemple, pour la vente en détail de toutes substances dont le prix et le poids se règlent au poids, les marchands pourront employer les poids usuels suivans, savoir : la livre, égale au demi-kilogramme ou cinq cents grammes, laquelle se divisera en seize onces ; l'once, seizième de la livre, qui se divisera en huit gros ; […] (article 8 de l'arrêté du 28 mars 1812) ; le système métrique restait seul enseigné dans les écoles. Pendant le quart de siècle qui suivit, ces unités napoléoniennes causèrent une certaine confusion, en superposant aux unités anciennes qui n'avaient pas disparu des unités nouvelles de même nom mais néanmoins différentes, et elles furent accusées d'attenter à la pureté du système métrique. (Les habitudes, d'ailleurs, ont la vie dure : plus de deux siècles après, on continue encore à dire une livre sur les marchés français pour parler d'un demi-kilo !) Néanmoins, l'habitude du système métrique se répandit peu à peu, au moins dans certains domaines. Une loi promulguée le 4 juillet 1837 (après des discussions sur l'étendue des concessions qu'il fallait éventuellement maintenir) abrogea le décret napoléonien et régla qu'à partir du 1er janvier 1840 seuls les poids et mesures du système métrique étaient autorisés en France, qu'il s'agît des instruments de mesure eux-mêmes dans tout usage commercial ou des dénominations portées dans les actes publics ou privés.

La vérification des poids et mesures était effectuée par le Bureau des Prototypes, qui fut ensuite transféré (d'abord géographiquement, puis administrativement) au Conservatoire National des Arts et Métiers : à cet fin, il avait reçu une copie du mètre et du kilogramme déposés aux Archives.

En même temps, surtout à partir du milieu du 19e siècle, différents pays commencèrent à adopter à différents degrés le système métrique, au moins pour certains usages ou en parallèle avec leurs mesures traditionnelles. À titre d'exemple, l'Espagne adopta le système métrique dès 1849, l'Italie dès son unification (et le royaume de Piémont-Sardaigne déjà en 1845), le futur empire Allemand en 1868, et le Royaume-Uni autorisa l'utilisation des mesures métriques en 1864 ; il faut dire qu'une des motivations pour adopter les mesures métriques était souvent les différences incompréhensibles des unités traditionnelles entre régions d'un même pays (qu'il s'agisse des régions espagnoles ou des états s'unifiant pour former l'Italie et l'Allemagne). Les poids et mesures métriques, et les instruments pour réaliser les comparaisons, étaient aussi exposés lors des expositions universelles, notamment à Londres en 1851, et à Paris en 1855 et surtout en 1867 où des savants de différents pays réunis en un comité ad hoc recommandèrent l'adoption universelle du système métrique.

C'est ainsi que commença à se manifester une difficulté liée au statut particulier de la France, dépositaire des étalons primaires du mètre et du kilogramme : les gouvernements étrangers qui souhaitaient utiliser le système métrique devaient faire établir ou comparer leurs étalons nationaux à Paris, aux Arts et Métiers (contre les mètre et kilogramme du Conservatoire, censés refléter ceux des Archives). Ces étalons nationaux étaient réalisés de façons différentes, dans des matériaux différents, comparés dans des conditions différentes, et on pouvait craindre que, au moins pour des mesures de grande précision, il apparaisse des différences et, finalement, un kilogramme de Berlin et un kilogramme de Rome différents du kilogramme de Paris comme il avait eu existé une livre de Troyes différente de la livre de Paris. (Il existait aussi des soucis particuliers liés au mètre, notamment le fait que le mètre des Archives et sa copie du Conservatoire étaient des règles à bouts, qui peuvent s'user, plutôt qu'à traits, plus précises, ou encore la forme de sa section, les circonstances de mesure des équations de dilatation, etc. Mais comme je me concentre sur le kilogramme, je ne détaille pas.) C'est ainsi que l'idée fit son chemin d'établir un standard international basé sur des étalons réalisés et comparés de façon uniforme, et dans lequel la France n'aurait plus un rôle privilégié. C'est dans cette optique qu'on convoqua différentes commissions préparatoires et réunions internationales pour décider des conditions précises dans lesquelles on établirait des prototypes internationaux du mètre et du kilogramme : les opérations furent un peu retardées par la guerre franco-prussienne, mais la Commission Internationale du Mètre se réunit en 1872 pour trancher les questions techniques autour de la réalisation des nouveaux étalons.

Une première question à résoudre était de savoir quelle était la bonne longueur à donner au mètre et la bonne masse au kilogramme : les révolutionnaires avaient voulu que le mètre fût la dix millionième partie de la longueur d'un quart de méridien terrestre et le kilogramme la masse d'un décimètre cube d'eau pure à son maximum de densité : fallait-il recommencer ces mesures un siècle plus tard, ou reproduire aussi fidèlement que possible le mètre et le kilogramme des Archives ? C'est le problème d'avoir pris pour « définition » des unités des grandeurs physiques qu'on ne sait pas mesurer aussi précisément que les étalons qu'on fabrique : si on ne sait mesurer la masse d'un décimètre cube d'eau qu'avec une précision de 1 partie sur 105 (disons), soit on admet que le kilogramme n'est défini (ou en tout cas, réalisable) qu'avec cette précision-là, soit on fabrique des kilogrammes étalons plus précis, mais dans ce cas le kilogramme changera à chaque nouvelle mesure plus précise de la masse d'un décimètre cube d'eau ; soit on admet tout simplement que le décimètre cube d'eau n'était que le point de départ, et que le kilogramme est défini par l'étalon plus précis, fût-il arbitraire dans sa masse exacte ; et il en va de même du mètre.

On sait maintenant que la longueur du mètre aurait dû être plus longue d'environ 0.20 mm (la longueur d'un quart de méridien sur l'ellipsoïde WGS84, certes un peu arbitraire, vaut 10 001 965.7293 m) et, je l'ai dit la dernière fois, que le kilogramme aurait dû être plus léger d'environ 25 mg. En 1870, le consensus fut immédiatement unanime sur le fait de garder le mètre des Archives pour servir de base au nouveau prototype du mètre, mais il fut un peu plus délicat pour le kilogramme, sur lequel certains soupçonnaient une erreur de l'ordre de 200 mg ou plus par rapport au décimètre cube d'eau. (Je pense que les membres de la Commission, qui étaient plus physiciens que géographes, se sentaient plus concernés par la masse volumique de l'eau que par la taille de la Terre, et tenaient donc plus à refléter l'une que l'autre dans le système d'unités.) Néanmoins, l'importance de la continuité du système de poids et mesures, c'est-à-dire, quand on redéfinit une unité, de s'arranger pour que la nouvelle définition soit aussi identique que possible de l'ancienne, l'emporta, et donc d'utiliser le kilogramme des Archives comme base du nouvel étalon du kilogramme.

Parmi les décisions qui furent prises en 1872, on peut citer, concernant le prototype international du kilogramme et les prototypes nationaux :

Les difficultés pratiques furent importantes. Pour commencer, la chimie de l'iridium était assez balbutiante vers 1875, il fallait réussir à purifier ce métal. Par ailleurs, à cause de la décision de tout réaliser dans une unique coulée, les volumes à manipuler étaient considérables : un peu moins que 250kg pour l'alliage final. (Pour donner une idée de ce que cela représente, 200kg de platine, au cours actuel, coutent dans les 7M€.) Les travaux préparatoires, réalisés à l'École normale supérieure (dans le laboratoire de Deville, qui se chargea de la purification de l'iridium) et aux Arts et Métiers, attièrent l'attention même en-dehors des cercles scientifiques, et reçurent plusieurs fois la visite du Président de la République ou de ministres. Le platine provenait en partie du gouvernement russe et de la compagnie anglaise Johnson&Matthey. Mais le premier alliage, fondu en 1874, contenait trop d'impuretés (essentiellement 1.4% de ruthénium et 0.6% de fer d'après les analyses de Deville) et était de densité trop faible (21.15 kg/dm³), si bien qu'après des discussions houleuses (parce que des mètres avaient déjà commencé à être fabriqués dans cet alliage) on convint de commander à Johnson&Matthey un nouvel alliage avec des tolérances plus strictes, à savoir (10±0.25)% d'iridium, et au plus 0.15% de rhodium, 0.05% de ruthénium et 0.10% de fer ; cet alliage fut livré courant 1879. Les deux alliages furent comparés et le nouveau comparé aux tolérances demandées (avec succès) : c'est dans celui de 1879 (le plus pur, de masse volumique 21.55 kg/dm³) qu'ont été réalisés les prototypes internationaux. Quant aux prototypes nationaux, leur alliage a été livré par Johnson&Matthey en 1884. (Je ne sais pas ce que sont devenus les 250kg de l'alliage de 1874.)

Je ne m'étends pas sur la Conférence du Mètre, conférence diplomatique qui se réunit à Paris à partir du 1er mars 1875, réunissant 20 pays, et qui aboutit à la signature de la Convention du Mètre du 20 mai 1875, établissant trois organes principaux : (1) la Conférence générale des Poids et Mesures (GCPM), présidée par le président de l'Académie des Sciences de Paris, qui réunit périodiquement les délégués des pays signataires pour acter les décisions de plus haut niveau concernant le système métrique (devenu, à partir de 1960, le Système International d'unités), (2) le Comité International des Poids et Mesures (CIPM), de 12 membres (devenus ensuite 18), placé sous l'autorité de la CGPM et nommé par lui (initialement formé des membres de la Commission Internationale du Mètre), comité permanent qui prépare le travail de la CGPM, exécute ses décisions, et surveille le fonctionnement du BIPM ainsi que la conservation des prototypes et étalons, et enfin (3) le Bureau International des Poids et Mesures (BIPM), chargé des comparaisons et vérifications des étalons nationaux, de la conservation des prototypes internationaux, ainsi que de tout le travail scientifique et métrologique destiné à aider à l'établissement des standards d'unités. (Mentionnons juste au passage qu'on n'accède pas facilement au coffre-fort où sont stockés les prototypes : je disais la dernière fois qu'il fallait trois clés, mais en outre il faut le vote d'une résolution du CIPM, et la présence de deux de ses membres en sus du directeur du BIPM : tout ça est explicitement prévu dans le traité international, donc il ne faut pas rêver supplier quelqu'un pour obtenir le droit de prendre des photos.) La langue officielle des trois institutions citées est le français.

En 1875 aussi, on fixa le lieu affecté au BIPM : le gouvernement français offrit à cet effet le Pavillon de Breteuil, ancien Trianon du château de Saint-Cloud (le château lui-même ayant été détruit pendant la guerre de 1870 ; le pavillon était encore debout, au moins pour ce qui est des murs — le toit avait également été gravement abîmé par les bombardements), où Napoléon III avait précédemment voulu faire établir un observatoire. Le Pavillon lui-même fut remis à neuf de 1875 à 1884, pour servir à l'administration du Bureau, tandis que les instruments scientifiques eux-mêmes étaient placés dans l'observatoire, le bâtiment en face (côté ouest, c'est-à-dire en s'éloignant de la Seine) du Pavillon, et c'est que se trouve actuellement, pour autant que je puisse le déterminer avec fiabilité, le prototype international du kilogramme.

Puisque j'en suis à essayer de déterminer les choses avec la plus grande précision, il y a une question qui me préoccupe aussi, c'est de savoir avec certitude si le pavillon de Breteuil et ses dépendances sont sur la commune de Sèvres ou de Saint-Cloud. L'adresse postale où le BIPM reçoit son courrier est sans aucune ambiguïté à Sèvres, et la commune de Sèvres elle-même semble penser que le Pavillon est à Sèvres, ainsi que l'Assemblée nationale. Ce qui est quand même embarrassant vu que j'ai vérifié les limites des communes françaises telles que distribuées par le gouvernement (insérées dans une base de données PostGIS), et il n'y a aucun doute que SELECT gid , insee_com , nom_com FROM commune WHERE ST_Contains(geom, ST_Transform(ST_GeomFromText('POINT(2.21967 48.82928)',4326), 2154)) ; renvoie 15209 | 92064 | SAINT-CLOUD (les numéros 4326 et 2154 sont les systèmes de coordonnées longitude+latitude/WGS84, et Lambert-93, ce dernier étant utilisé par l'IGN dans ses données) ; les limites de communes sur OpenStreetMap sont les mêmes que celles évoquées ci-dessus et placent bien le BIPM à Saint-Cloud. Je pense que la réponse Saint-Cloud est la bonne, malgré toutes les sources qui disent Sèvres, mais en tout état de cause, il est extraordinaire qu'il puisse y avoir, en 2016, le moindre doute sur la commune à laquelle appartient un bâtiment en Île-de-France !

Je reviens au kilogramme. Une commission mixte, formée de savants français (dont l'amiral Mouchez, directeur de l'Observatoire de Paris, qui a une rue à son nom juste à côté de chez moi, et dont je ne savais même pas qu'il était physicien) et étrangers désignés par le CIPM, était chargée de réaliser une copie du kilogramme des Archives. Elle reçut au printemps de 1879 trois cylindres de l'alliage platine-iridium « pur » (cf. ci-dessus), qu'on baptisa KI, KII et KIII. Dans un premier temps, les membres de la commission effectuèrent (à l'ENS) une analyse de l'alliage et de sa densité (amenée à son maximum par une frappe vigoureuse), et un ajustage approximatif des cylindres à une masse légèrement supérieure à 1kg, en se basant sur une comparaison avec le kilogramme de l'Observatoire (qui avait lui-même été fabriqué vers 1799 par Fortin en même temps que celui des Archives, puis réajusté sur la masse de ce dernier en 1844). Puis (toujours à l'ENS) une première comparaison fut faite avec le kilogramme des Archives, permettant un premier ajustage plus précis de KI, KII et KIII. Les pesées étaient effectuées au moyen d'une balance de la maison E. & A. Collot construite exprès pour l'opération ; c'est d'ailleurs A. Collot lui-même qui effectuait le maniement de la balance et l'ajustement des cylindres. La suite des opérations eut lieu à l'Observatoire de Paris (dans la partie sud de la grande salle de la méridienne) à l'été à l'automne 1880. On y effectua un second ajustage sur le seul KIII, ainsi toutes sortes de pesées mettant en jeu les masses suivantes : KI, KII, KIII (tous les trois dans le même platine iridié), le kilogramme des Archives (en platine, désigné A), cepui de l'Observatoire (en platine, désigné O), celui du Conservatoire des Arts et Métiers (en platine, désigné C′, parce qu'il y avait un C au BIPM) avant ou après lavage, et l'étalon national belge (en platine, désigné Bl, qui devait servir de témoin de la bonne conservation des autres) ; les pesées étaient faites par double pesée (méthode « de Borda »), c'est-à-dire qu'on pèse les deux poids à comparer contre une même tare, de façon à maximiser la précision de la balance dont les bras ne sont pas rigoureusement égaux (dans un premier temps, la tare était un cylindre temporaire en platine, désigné KTD ; dans un second temps, c'était KII qui servit de tare dans les pesées finales entre KI, KIII, A et Bl).

La conclusion de toutes les mesures était une série de différences entre les masses de ces différents kilogrammes, d'où il résultait notamment que, avec une précision de l'ordre de ±15µg, la masse de KIII était la même que celle du kilogramme des Archives A, et qu'on ne pouvait pas espérer faire mieux. Les autres masses mesurées étaient : m(KI)=m(KIII)+146µg, m(KII)=m(KIII)+330µg, m(O)=m(KIII)−94µg, m(C′)=m(KIII)+1190µg après lavage (+1710µg avant), et m(Bl)=m(KIII)−3035µg, avec des incertitudes variables à cause des différences de pesées et de volumes, que je ne reproduis pas ici. (Le rapport détaillé de la commission est ici, pour ceux qui veulent absolument tous les détails.) La commission recommanda donc d'adopter KIII comme prototype international du kilogramme, ce qui fut sanctionné par le CIPM le 3 octobre 1883, puis par les 1re et 3e CGPM en 1889 et 1901. À partir de ce moment, le prototype en question (l'ancien KIII, donc) fut désigné 𝔎 (un K gothique). Quant à KI, il fut marqué d'un I au brunissoir, porté au BIPM où il est encore (dans le même coffre que 𝔎) pour servir de témoin, maintenant plutôt appelé K1 ; et KII fut marqué d'un II au brunissoir, réajusté en 1887, et donné à la section française de la Commision Internationale du Mètre, mais je n'ai pas réussi à savoir ce qu'il est devenu ensuite.

On ignore la manière exacte dont les ajustements étaient effectués par Collot, mais c'était probablement au papier émeri (la fabrication moderne de tels étalons utilise de la poudre de diamant). Ces opérations étaient donc très délicates à réaliser. Il est, d'ailleurs, un peu ironique qu'on ait déployé tant d'efforts à donner à 𝔎 exactement la même masse que le kilogramme des Archives A, étant donné que des analyses ultérieures, je l'ai mentionné la dernière fois, ont démontré que la masse de A n'était pas stable et perdait de l'ordre de 7µg/an (au moins comparé à 𝔎, qui est certainement beaucoup plus stable, mais on peut et on doit bien sûr se demander à combien il l'est).

Pour qu'il n'y ait pas le moindre doute, quand on dit que deux objets ont la même masse, cela signifie, concrètement, qu'ils ont le même poids dans le vide. Or toutes les pesées se font dans l'air : quand il existe des différences de densité entre les objets pesés (et d'autant plus qu'elles sont importantes), il faut donc ajuster les pesées pour tenir compte de la différence de poussée d'Archimède entre les objets, et pour cela, connaître leur volume. (Heureusement, comme le platine iridié est 2×104 fois plus dense que l'air, il suffit de connaître le volume avec une précision d'une part sur 104, et de même sur la masse volumique de l'air, pour arriver à une précision d'une part sur 108 sur le poids effectif, et c'est encore mieux si les masses comparées sont de densité très proches.) Les volumes des différents kilogrammes furent mesurés par pesée hydrostatique (c'est-à-dire, pesée dans l'eau, pour mesurer la poussée d'Archimède exercée par l'eau) : pour ce qui est de KI et KII, avant ajustage ; pour ce qui est de KIII (celui qui est devenu le prototype international), malgré le risque, il a été pesé de nouveau dans l'eau après ajustage, et il a été vérifié qu'une fois nettoyé sa masse n'avait pas changé par rapport à avant le passage dans l'eau. Le volume de KIII=𝔎 est de 46.40 cm³ à 0°C. Pour ce qui est du kilogramme des Archives (A), on ne voulut pas prendre le risque de le placer dans l'eau, de peur que la dissolution d'impuretés n'altère sa masse. Son volume avait été calculé en 1856 par le britannique W. H. Miller (au cours de ses travaux pour réaliser le nouvel étalon de la livre anglaise) : il s'y était pris par comparaison, au moyen d'un pycnomètre à gaz (ou ce qui y revient), avec un cylindre de référence temporaire, lui-même mesuré par pesée hydrostatique ; une fois corrigée une erreur de calcul de sa part, la section française de la Commission internationale du mètre était arrivée à un volume de 48.68 cm³ à 0°C (rapport détaillé ici).

[Le coffre-fort contenant le prototype international du kilogramme et ses six copies officielles]

Comme il n'en existe quasiment pas de photos à part celle que je remets ici (cf. mon entrée précédente), voici ce que j'ai pu trouver en matière de description du prototype international du kilogramme : il s'agit d'un cylindre d'environ 39mm de diamètre et autant de hauteur (c'est vraiment petit ! il est étonnant de se rappeler à quel point le platine est dense) ; contrairement aux témoins et prototypes nationaux, il ne porte aucun numéro inscrit ; un procès-verbal de 1888 fait les observations suivantes sur son état général :

Le kilogramme a des arêtes assez vives et un poli moins parfait que celui des prototypes nationaux. Sur le plan supérieur, il y a, à 2mm environ du bord, des stries à bords mal définis, formant des parties de courbes concentriques, et qui proviennent évidemment d'un défaut de poli. Sur la surface cylindrique, il y a des stries verticales près du bord supérieur, et une piqûre à 1cm environ du bord inférieur, juste au-dessous de la strie la plus accentuée. Le plan inférieur présente des parties polies ou rayées qui paraissent provenir d'un glissement du kilogramme sur son support et auxquels correspondaient des raies analogues sur la lame de platine de son support.

Je n'ai pas trouvé de description plus récente.

Comme tous les étalons de masse de très grande précision, il est manipulé avec des pinces spéciales en velours ou peau de chamois. Il est stocké posé sur une plaque de quartz elle-même posée sur une base de cuivre, et cerclée d'un anneau d'argent (servant à limiter les mouvements latéraux accidentels du prototype, qui risqueraient d'abîmer la surface inférieure, comme en témoigne la dernière phrase du paragraphe cité ci-dessus). Le tout est surmonté de deux cloches de verre (la seconde étant maintenue en place par des butées sur le support), et, dans le cas spécial du prototype international, d'une troisième cloche (posée sur une plaque de verre rodé) munie d'une valve permettant de faire et de maintenir un vide partiel (mais de nos jours, cette valve est conservée ouverte).

Pour éviter de l'altérer, le prototype international n'est sorti de du coffre où il a été rangé en 1889 que de façon exceptionnelle, pour être comparé à ses témoins et aux prototypes nationaux : après les pesées initiales des prototypes nationaux en 1889, il y a eu une comparaison commencée en 1939, interrompue par la guerre, et complétée en 1946, et une troisième en 1989–1992 ; enfin, en 2014, une calibration extraordinaire préalable à la redéfinition du kilogramme (dont je parlerai dans une suite de cette entrée).

À part le prototype international 𝔎 (ex-KIII) et ses copie KI et KII fabriqués en 1880 comme je l'ai expliqué plus haut, 40 nouveaux cylindres furent livrés à l'octobre 1884 et travaillés (au BIPM) pour les ajuster sur le prototype international et devenir des prototypes nationaux ou copies officielles du prototype international. Ce travail d'ajustage était excessivement long et pénible, initialement on s'était donné pour objectif de donner à chaque copie une masse comprise entre 1kg et 1kg+0.2mg (i.e., 1.0000002 kg), mais à cause de la difficulté, la tolérance fut réduite à ±0.2mg en 1885, puis ±1.1mg en 1888. Ils portent les numéros 1 à 40 ou 41 (le numéro 8 a été sauté par erreur, et le kilogramme frappé du numéro 41 est utilisé avec les accessoires prévus pour le 8 et est désigné comme 8(41) ; mais comme des gens n'ont pas compris que les entiers naturels ne sont pas une ressource rare, il y a quand même eu un vrai kilogramme 41 fabriqué ultérieurement). Finalement, chacun des 42 kilogrammes (KI, KII et 1 à 40 en passant par 8(41)) reçut un certificat indiquant sa masse (comparée à 𝔎, et mesurée à environ 3µg près) et son volume à 0°C. Puis, à part les kilogrammes KI et 1 réservés à servir de témoins au prototype international et enfermés avec lui dans le coffre en 1889, les autres ont, pour la plupart, été distribués au hasard entre les pays participant à la 1re CGPM pour servir d'étalons nationaux (ou d'étalons secondaires ou de témoins nationaux), ou bien au BIPM lui-même pour servir dans ses calibrations. D'autres kilogrammes ont été fabriqués depuis, mais je parlerai des pesées et des calibrations dans une suite de cette entrée.

Sources principales : elles sont plus abondantes que pour l'entrée précédente, puisque les documents de la fin du 19e siècle sont assez largement disponibles en ligne (et notamment sur Gallica) ; j'ai déjà donné des liens vers les principaux rapports ; la description de l'aspect de 𝔎 est citée dans un rapport de Thiesen de 1898 ; j'ai continué à utiliser le livre de Bigourdan (Le système métrique des poids et mesures), notamment les chapitres XXI et XXXI, et toujours les deux articles de la revue Metrologia (Richard Avis, The SI unit of mass, 40 (2003), et Richard Davis, Pauline Barat & Michael Stock, A brief history of the unit of mass: continuity of successive definitions of the kilogram, 53 (2016)) cités la dernière fois, puis quelques autres qui y sont cités directement ou indirectement ; et j'ai également fait usage du chapitre II du livre édité par Chester Page & Paul Vigoureux, The International Bureau of Weights and Measures 1875–1975 (publié à l'occasion du centenaire de la Convention du Mètre), qui est une traduction anglaise d'un original français auquel je n'ai pas accès, mais la traduction est téléchargeable ici.

(jeudi)

Sur la redéfinition des unités SI : 1. l'histoire du kilogramme des Archives

Le Système International d'unités, en abrégé SI, et parfois appelé (inexactement) système métrique ou MKS (mètre-kilogramme-seconde), est le système d'unités utilisé par essentiellement tous les pays du monde à l'exception des États-Unis d'Amérique ; et même le système américain traditionnel est défini par rapport à lui (le pouce, par exemple, mesure exactement 0.0254 m, la livre exactement 0.45359237 kg, etc.). Quasiment toute mesure scientifique utilise, directement ou indirectement, ces unités, et il est évidemment inutile de dire qu'elles ont aussi une grande importance dans la vie courante. Et je ne suis pas trop du genre à faire du chauvinisme, mais s'il y a une chose dont la France peut être fière, c'est d'avoir donné au monde le mètre et le kilogramme (l'ampère, pour sa part, est dès le début la création d'une collaboration internationale). Il est donc intéressant de regarder de plus près la définition des unités du SI. En fait, il y a un petit nombre d'unités dites fondamentales — la seconde, le mètre, le kilogramme, l'ampère, la mole, le kelvin et la candela — à partir desquelles les autres unités SI sont dérivées (par exemple, le watt, ou kilogramme · mètre carré par seconde au cube, est la puissance déployée par une force qui accélère de 1 m/s² une masse de 1 kg se déplaçant à 1 m/s). Discuter le SI, c'est donc essentiellement discuter ces sept unités fondamentales.

Je vais laisser de côté la seconde : j'ai déjà raconté son histoire, la seconde a été définie successivement comme (empiriquement) une proportion du jour solaire moyen, puis comme une proportion de l'année tropique pour J1900, et enfin (la définition actuelle) comme 9 192 631 770 périodes de transitions hyperfines de l'état fondamental de l'atome de césium-133 (au repos et au zéro absolu). Cette définition donne actuellement satisfaction, et est réalisée en laboratoire avec une précision assez impressionnante (quelques parties sur 1016, c'est-à-dire une poignée de secondes par milliard d'années). On peut peut-être faire encore mieux, peut-être qu'il vaudrait mieux utiliser le rubidium-87 que le césium-133 ou des horloges optiques, ou je ne sais quoi, mais toujours est-il que la mise en pratique de la seconde est considérablement plus précise que celle des autres unités SI, donc dans la discussion de celles-ci on peut considérer que le temps est connu exactement.

Je vais aussi laisser le mètre de côté. Son histoire est très intéressante (après une première proposition qui en faisait la longueur du pendule qui bat la seconde, raison pour laquelle l'accélération de la pesanteur est de l'ordre de grandeur π²≈9.9 en mètres par seconde carrée, mais qui a été abandonnée parce que trop variable d'un endroit à l'autre, l'Académie des sciences a décidé en 1795 d'en faire la dix millionième partie de la distance de l'arc de méridien entre le pôle et l'équateur, arc de méridien qu'il a fallu mesurer, ce que firent Delambre et Méchain, et ce fut une aventure qui mérite un livre à elle seule). Mais après une définition par un premier étalon (le mètre des Archives, déposé en 1799) et un second en platine iridié réalisé à la fin du 19e siècle (officiel à partir de 1889, et dont l'histoire recoupe beaucoup celle du kilogramme), puis brièvement (de 1960 à 1983) par la longueur d'onde d'un certain rayonnement du krypton-86, le mètre est maintenant défini comme la distance parcourue par la lumière dans le vide en une certaine fraction de seconde (de façon à fixer la vitesse de la lumière à exactement 299 792 458 m/s), et mise en pratique par des interféromètres laser dont on a mesuré la fréquence avec une grande précision. Il est difficile de dire exactement quelle précision est atteignable dans la mesure des distances, parce que cela dépend de si elle est effectuée dans l'air ou dans le vide, et sur quelle échelle : je crois qu'on ne peut guère dépasser quelque chose comme 1 partie sur 108 dans l'air, mais qu'on gagne facilement trois ou quatre ordres de grandeur de précision dans le vide.

Je ne vais pas m'attarder sur la candela (l'unité d'intensité lumineuse, autrefois appelée bougie nouvelle), dont j'ai du mal à considérer qu'elle mesure une vraie grandeur physique, et qui n'a pas grand-chose à faire dans le SI. Je ne sais même pas vraiment ce que cela signifierait de mesurer une intensité lumineuse avec une très grande précision, puisque l'intensité lumineuse dépend de toute façon de la courbe de réponse choisie pour modéliser l'œil humain. En tout état de cause, on ne fait pas beaucoup mieux que quelques parties par 103.

Restent quatre unités fondamentales, le kilogramme, l'ampère, la mole et le kelvin. Actuellement, ces unités sont définies ainsi :

[Le coffre-fort contenant le prototype international du kilogramme et ses six copies officielles]
Le kilogramme
comme la masse du prototype international du kilogramme, un cylindre d'un alliage de 90% platine et 10% iridium conservé dans un coffre-fort (photo ci-contre) dans le caveau du bâtiment dit « de l'observatoire » du Bureau International des Poids et Mesures au pavillon de Breteuil à Saint-Cloud.
L'ampère
en fixant la perméabilité du vide (μ₀), une grandeur fondamentale de l'électromagnétisme, à 4π×10−7 N/A², à travers une définition assez abstraite (l'ampère est l'intensité d'un courant constant qui, maintenu dans deux conducteurs parallèles, rectilignes, de longueur infinie, de section circulaire négligeable et placés à une distance de 1 mètre l'un de l'autre dans le vide, produirait entre ces conducteurs une force égale à 2×10−7 newton par mètre de longueur) et qui n'est pas du tout utilisée dans la mise en pratique de cette unité.
La mole
comme la quantité de matière correspondant à 12 grammes de carbone-12 (autrement dit, le nombre d'Avogadro est défini comme le nombre d'atomes de carbone-12 dans 12 g de cette substance).
Le kelvin
en fixant la température du point triple de l'eau à 237.16 K (c'est-à-dire 0.01°C, puisque la température en degrés Celsius est défini comme la température en kelvins moins 273.15).

Ces quatre définitions posent problème, et vont être amenées à changer. À part le kelvin, qui va être redéfini en fixant la constante de Boltzmann, les changements des trois autres définitions sont plus ou moins liés.

Tout procède d'une volonté de se « débarrasser » du prototype international du kilogramme, qui est le dernier étalon matériel encore en usage pour définir une unité du SI.

Sur la photo ci-dessus à droite (récupérée sur une ancienne version du site Web du BIPM), le prototype international du kilogramme est celui qui est sur l'étagère du milieu, conservé sous trois cloches, portant l'étiquette 𝔎 ; la photo est mauvaise, mais ça semble être essentiellement la seule publiquement disponible qui montre cet artefact : et comme ce coffre-fort (situé dans les sous-sols du pavillon de Breteuil) est ouvert une fois tous les trente ans en moyenne (il faut trois clés pour y accéder, l'une est détenue par le directeur du BIPM, l'une par le président du CIPM, et la troisième est déposée aux Archives Nationales), ce n'est pas évident de faire de nouvelles images. (J'ai écrit à quelqu'un du BIPM pour demander si des photos ont été prises lors du dernier accès au prototype, en 2014 pour des « calibrations extraordinaires » : s'il me répond et qu'il y en a, j'essaierai de les mettre sur Wikipédia et/ou ici. Mise à jour : Non, apparemment, il n'y a pas de meilleure photo que celle-ci.)

Méta : Je voudrais donc raconter un peu l'histoire du kilogramme : ses origines, la réalisation du prototype international, les pesées successives, et les efforts actuels pour mettre ce prototype à la retraite (et comment on passe de la constante de Planck à la réalisation d'un kilogramme), et la concurrence entre la balance de Kibble et le projet Avogadro ; sans oublier la redéfinition de l'ampère, qui me semble aussi très importante et dont on ne parle pas (sans doute parce qu'il s'agit plutôt d'entériner une pratique de fait) et de la mole (avec la question de ce que devient l'unité de masse atomique). Mon intention initiale était de tout raconter en une seule fois, mais si je fais ça, je sais que cette entrée ne sera jamais finie et jamais publiée — surtout que je commence à me noyer dans les recherches Google pour savoir, par exemple, ce qu'on savait faire avec du platine en 1795. On m'a souvent conseillé, dans ces conditions, de publier là où j'en suis, quitte à compléter plus tard. Alors je fais ça, et je déclare que ceci est une première partie d'une entrée qui sera peut-être complétée ultérieurement, peut-être pas : l'histoire du kilogramme des Archives.

Remontons l'histoire. Le kilogramme, comme le mètre, a son origine à la Révolution française. La première tentative de définir une unité de masse (qu'on appelait alors poids) s'appelait le grave, et il est d'ailleurs dommage qu'on n'ait pas gardé ce nom qui aurait éviter l'embarras d'avoir une unité fondamentale portant un préfixe (l'unité fondamentale du système SI est bien le kilogramme, pas le gramme, mais son nom porte le préfixe kilo, ce qui est assez pénible parce que tout est décalé : un miligramme mètre par seconde carrée est un micronewton, par exemple), mais je digresse. Le grave était défini en 1793 comme la masse d'un décimètre cube d'eau pure, à sa température de fusion, le décimètre étant alors déduit du mètre provisoire puisque la mesure du méridien n'avait pas encore été effectuée (cf. ci-dessus au sujet du mètre) : Lavoisier and Haüy mesurèrent cette masse, ce qui fut notamment rendu compliqué par l'extraordinaire confusion autour du système des masses de l'ancien régime (basé sur la pile de Charlemagne, un artefact du 15e siècle, et qui avait le défaut que la partie censée représenter 1/50 du tout ne représentait pas exactement 1/50 du tout). L'unité fut renommée kilogramme à la suite de l'introduction du système systématique de préfixes (de nouveau, il est dommage qu'elle n'ait pas gardé le nom de grave, mais je suppose qu'on considérait qu'il était plus utile d'avoir des unités de masses du milligramme au myriagramme que du milligrave=gramme au myriagrave=10⁴kg). Et comme Lavoisier était mort (pas tout à fait accidentellement !) en 1794, ce furent deux autres savants, Lefèvre-Gineau et Fabbroni qui eurent la tâche de réaliser le kilogramme, basé cette fois sur le mètre définitif de Delambre et Méchain. Entre temps, la définition avait un peu changé, l'eau étant prise à son maximum de densité (vers 4°C) de manière à ce que les petites différences de température aient le moins d'impact possible.

La manière dont Lefèvre-Gineau et Fabbroni s'y sont pris pour réaliser cette définition de l'unité fait l'objet d'un rapport détaillé de Trallès dans le traité de Delambre et Méchain consacré essentiellement au mètre. Pour résumer, ils ont fait faire un cylindre en laiton, creux mais soutenu par une armature intérieure afin qu'il se déforme le moins possible, dont ils ont mesuré le volume extérieur aussi précisément que possible (en tenant compte des inexactitudes de cylindricité, de la dilatation du cuivre entre la température de mesure et la température de pesée, etc.), et ils l'ont pesé dans l'eau puis dans l'air, de façon à en déduire la poussée d'Archimède, c'est-à-dire le poids du volume d'eau déplacé. Le citoyen Nicolas Fortin, qui avait fabriqué le cylindre et les instruments avec lesquels le mesurer très exactement, a aussi conçu et fabriqué la balance, dont la précision est d'environ 2 parties par 106 (c'est-à-dire 2mg sur 1kg). Je ne rentre pas dans les détails, mais la lecture du rapport montre bien le soin avec lequel on a réalisé les opérations et tâché de corriger toutes les sources d'erreurs.

Il s'est ensuite agi de transférer cette masse mesurée pour le décimètre cube d'eau pour réaliser un étalon, dans un métal dont on commençait à comprendre l'intérêt, et en l'occurrence choisi pour sa résistance à la corrosion : le platine. Ce n'était pas une mince affaire : la technologie de la fin du 18e siècle n'était pas capable de faire fondre du platine à l'état pur (ou en tout cas pas à l'échelle souhaitée : Lavoisier avait tout juste réussi à atteindre le point de fusion). Mais le joaillier Marc-Étienne Janetti (ou Janety) (ancien joaillier du roi ; on le rappela à Paris, qu'il avait fui sous la Terreur pour s'installer à Marseille) disposait de la technologie dite de l'arsenic, qui consistait à faire fondre le platine, et à le purifier en même temps, en le mélangeant à du trioxyde d'arsenic (qu'il fallait ensuite faire partir, quitte à forger le platine à chaud mais non liquide) : c'était difficile et dangereux. Ce fut lui qui réalisa quatre cylindres de platine qui furent confiés à Fortin (le même que ci-dessus) pour les travailler de façon à y reproduire la masse que Lefèvre-Gineau et Fabbroni avaient mesurée (à l'aide de poids temporaires en laiton). La manière dont il s'y est pris pour finir ce travail n'est pas bien connue, mais l'un de ces cylindres a été déposé aux Archives en juin 1799, et sous le nom de kilogramme des Archives, il a servi d'étalon de masse du système métrique entre 1799 et 1889. Il y est encore, même s'il y a bizarrement peu de photos de cet artefact en ligne (il y en a peut-être une sur cette page, mais ce n'est pas totalement clair que ce soit celui des Archives).

(Quant aux trois autres cylindres livrés par Janetti, l'un fut déposé à l'agence des Poids et Mesures et il est maintenant visible [précision : en fait c'est une copie, voir ici] au Conservatoire national des Arts et Métiers ; deux autres furent gardés quelques années par Fortin, l'un étant volontairement plus léger de 88mg, soit la différence de la poussée d'Archimède de l'air entre 1kg de platine et 1kg de laiton, ce qui permettait d'étalonner plus facilement des kilogrammes de laiton.) Ceux qui veulent plus de détail sur la réalisation de ces étalons en platine peuvent consulter ce livre (Bigourdan, Le système métrique des poids et mesures, son établissement et sa propagation graduelle, avec l'histoire des opérations qui ont servi à déterminer le mètre et le kilogramme, notamment le chapitre XI sur la détermination de l'unité de poids) et le premier mémoire de ce volume (Wolf, Recherches historiques sur les étalons de l'Observatoire, notamment la troisième partie consacrée aux étalons de poids).

Que peut-on dire rétrospectivement du kilogramme des Archives et de la masse d'un décimètre cube d'eau ? La mesure de la masse d'un décimètre cube d'eau pure à son maximum de densité n'était pas parfaite, mais elle était excellente : avec la technologie moderne, on peut mesurer que la masse volumique de l'eau (dans sa composition isotopique standard) est environ 0.999 974 kg/dm³ à son maximum à 3.98°C, avec une incertitude d'environ 1 mg/dm³. Cela signifie (1) que Lefèvre-Gineau et Fabbroni ne se sont trompés que de 25 mg environ, ce qui est vraiment bon, et (2) qu'en tout état de cause, la définition comme la masse d'un volume d'eau, bien qu'agréablement universelle, ne peut pas servir comme définition suffisamment précise du kilogramme, puisque même avec les moyens modernes et une définition isotopique précise de l'eau, on ne parvient pas à faire mieux que 1mg (1 part sur 106), ce qui est certes ~25 fois mieux qu'à la Révolution, mais pas assez bon pour une unité qu'on veut pouvoir réaliser encore vingt ou cinquante fois plus précisément.

Je dois noter qu'il y a eu entre 1901 et 1964 une confusion sur la définition du litre : avant 1901 et depuis 1964, le litre est rigoureusement synonyme du décimètre cube (qu'on peut préférer de toute façon pour éviter tout doute à ce sujet). Entre 1901 et 1964, cependant, le litre était défini comme le volume d'un kilogramme d'eau pure à son maximum de densité (c'est-à-dire qu'on prenait la définition originale du kilogramme et qu'on la mettait à l'envers : au lieu de définir le kilogramme comme la masse d'un litre d'eau, ce qui est faux d'environ 25 parties par million, on faisait le contraire et on définissait le litre comme le volume d'un kilogramme d'eau). Cette définition a causé beaucoup de confusion et a ainsi fait du tort au SI même si on est revenu dessus (l'idée subsiste malheureusement encore parfois que le litre et le décimètre cube ne sont pas identiques). J'ai donc évité d'utiliser le litre dans tout ce qui précède.

Par ailleurs, un autre fait à signaler est que le kilogramme des archives n'a pas une masse rigoureusement constante : si en 1880 on s'est arrangé pour donner au (futur) prototype international du kilogramme une masse égale (avec une précision d'une quinzaine de microgrammes) au kilogramme des archives, on s'est aperçu en 1939 qu'il avait perdu environ 430µg (comparé au prototype international) par rapport à sa masse en 1880 ; l'explication est probablement à chercher dans la technique de réalisation du platine utilisée par Janetti ; le fait est que la masse volumique du kilogramme des Archives (20.54 kg/dm³ à 0°C) est d'environ 4% inférieure à celle du platine pur (21.46 kg/dm³). Toujours est-il que ceci amène à se demander dans quelle mesure on est sûr que la masse d'un objet matériel, et notamment de l'étalon du kilogramme, est vraiment constante — mais j'en parlerai dans la suite, si ou quand elle vient.

Sources principales : à part celles déjà citées (notamment le livre de Bigourdan et le rapport de Trallès), je me suis beaucoup appuyé sur deux articles de la revue Metrologia : Richard Avis, The SI unit of mass, 40 (2003), et surtout Richard Davis, Pauline Barat & Michael Stock, A brief history of the unit of mass: continuity of successive definitions of the kilogram, 53 (2016) ; j'ai aussi jeté un coup d'œil au livre A History of Platinum and its Allied Metals de McDonald & Hunt dans la mesure où Google books me permettait d'y avoir accès.

Suite : partie 2.

(jeudi)

Un peu de métaphysique (principe anthropique, fine-tuning, cerveaux de Boltzmann, simulations, et pourquoi nous sommes là)

À chaque fois que je me mets à parler, sur ce blog, de philosophie de la physique (tendant vers la métaphysique) ou de philosophie de la mathématique (tendant vers la métamathématique), je raconte un peu la même chose : dans un cas, pourquoi l'Univers est-il tel qu'il est ? et dans l'autre, les objets mathématiques sont-ils réels ? — ce sont certainement les questions qui me fascinent le plus. Ce n'est pas juste que je radote (même si, oui, je radote ; d'ailleurs, je radote — je vous ai déjà dit que je radotais ?), c'est aussi que j'ai l'illusion récurrente que cette fois-ci je vais réussir à exprimer les choses de façon particulièrement lumineuse, et je retombe essentiellement sur les mêmes traces de pas dans le sable de mon esprit qui me font tourner en boucle. Peut-être qu'il est impossible de faire des progrès en métaphysique : peut-être que même l'idée de mieux poser les questions, à défaut de les résoudre, et de circonscrire notre ignorance (de préparer ce que nous voudrions demander à l'Absolu Esprit Infini Oraculaire Ultime si nous avions accès à lui) est-elle déjà illusoire. Ou peut-être — ce n'est pas exclu — est-ce juste moi qui suis nul et qui n'ai pas compris qu'il faut arrêter de réfléchir à ce genre de choses (au rayon radotage, je vais éviter de vous citer une fois de plus la si emblématique dernière phrase du Tractatus). • Néanmoins, les questions philosophiques sur lesquelles je reviens toujours touchent de près certaines questions indiscutablement scientifiques, et qui sont, à défaut d'être résoluble, au moins logiquement bien-posées et dotées d'une valeur de vérité incontestable, ce qui n'est peut-être pas le cas des questions philosophiques citées ci-dessus, donc je suis inexorablement attiré par leur chant. Refaisons un tour de manège et voyons s'il résulte un peu de clarté de ces idées N fois remâchées. Au moins, cette fois-ci, j'ai un plan (même si j'avoue que ce plan a été écrit après le texte, en cherchant quelles sections je pouvais y marquer).

Table des matières

La question métaphysique ultime

La question métaphysique ultime, trêve de blagues auxquelles la réponse serait 42 c'est, à mon avis, plus ou moins de se demander pourquoi il y a quelque chose plutôt que rien — donc, pour être un petit peu plus près de la physique, pourquoi l'Univers existe — ou plutôt, pour être un petit peu plus modeste, pourquoi cet Univers existe, ou du moins, pourquoi nous observons cet Univers, par opposition à tout autre univers imaginable, — et si on peut en tirer des enseignements. (Éclaircissement : Je ne prétends pas que toutes ces questions soient équivalentes — je ne prétends même pas qu'elles soient si fortement apparentées — je ne prétends pas non plus qu'elles aient toutes un sens, et à la limite la méta-question de si elles en ont un est également une question profonde ; je mentionne toutes ces questions surtout parce qu'il s'agit d'un cheminement mental, mais aussi, en fait, parce que je risque de glisser, parfois par accident, de l'une à l'autre, donc je veux les mettre dès le départ sur la table.)

Il y a une variante de la question dont je ne sais pas si elle a un sens, c'est, même en admettant que l'Univers soit parfaitement défini en tant qu'objet mathématique (par exemple, une solution de certaines équations aux dérivées partielles avec certaines conditions initiales, ou quelque chose comme ça — peu importent les détails), pourquoi nous le ressentons. Je vais appeler ça le problème transcendantal (peu importe si c'est un contresens par rapport à la notion kantienne). • Cette question est intrigante, parce que par certains côtés il n'y a rien à expliquer (de la description de l'Univers comme objet mathématique, on peut imaginer faire les calculs qui montreraient qu'il contient des êtres vivants qu'on pourrait appeler humains et qui se poseraient la question de pourquoi ils sont là : fin de l'explication) ; mais par d'autres côtés, on est passé complètement à côté de la plaque qui est de se demander pourquoi au juste nous ressentons cet objet mathématique (alors qu'il est probable que les décimales de π contiennent quelque part une description complète de toute ma vie et de toutes mes conversations, mais pour autant, je ne ressens pas les décimales de π), ou, si on préfère, pourquoi parmi toutes les structures mathématiques dans lesquelles apparaît quelque chose qui pourrait se décrire comme une conscience qui se demande pourquoi elle est là, nous ressentons cette structure particulière comme la « réalité physique », pourquoi nous vivons dedans. C'est une chose de penser que le monde physique, et David Madore dedans, est régi par des lois (peut-être ou peut-être pas déterministes) qui ne laissent pas place pour une volition magiquement externe à l'Univers physique : pour autant, il est difficile pour moi de comprendre pourquoi je ressens les pensées et sensations de ce David Madore physique comme ma réalité, i.e., pourquoi je suis lui — mais il n'y a que moi pour qui cette question présente un certain mystère. Je vais un peu revenir sur ces idées et ce problème transcendantal, notamment à propos du « platonisme radical » et du « totipsisme » (cf. ci-dessous), mais pour l'instant, laissons-les de côté.

La question de pourquoi l'Univers est tel qu'il est a plusieurs facettes selon ce à quel référent imaginaire on le compare : à différents niveaux, on peut se demander, par exemple, pourquoi l'Univers obéit à des lois mathématiques, et même des lois mathématiques vaguement compréhensibles, ce qui est tout de même hautement énigmatique (ou pourquoi il obéit à des lois mathématiques qui utilisent tel ou tel genre de mathématiques, j'ai déjà écrit des choses à ce sujet) ; on peut se demander pourquoi il obéit précisément à l'arrangement de lois et de particules que nous croyons avoir découvertes (comme I. Rabi s'est exclamé à propos de la découverte du muon : who ordered that?) ; ou pourquoi les constantes qui interviennent dans ces lois ont précisément la valeur, parfois assez fantaisiste, qu'elles ont (voir ce que j'écrivais ici dans une entrée passée à ce sujet) ; ou pourquoi, parmi les univers possibles décrit par exactement les mêmes lois de la physique que nous, nous observons précisément celui-ci (et plus précisément : pourquoi l'entropie au moment du Big Bang est-elle si faible ? — je vais y revenir). Certaines de ces questions sont peut-être encore plus dénuées de sens que d'autres ; à l'inverse, certaines admettent peut-être une réponse plus facile ou en tout cas plus scientifique.

(mardi)

L'Univers et la cosmologie de FLRW

Avant-propos : Encore une entrée interminable dans laquelle j'ai bien failli me noyer !, commencée il y a environ trois mois, et que je publie dans un état, j'avoue, un peu inachevé et mal relu, parce que j'en ai vraiment marre de l'écrire. Il s'agit ici de parler de cosmologie. (Oui, je sais, j'ai laissé entendre que je pourrais écrire quelque chose sur la physique des particules, mais vous ne vous attendiez pas à ce que je fasse quelque chose que j'ai annoncé, quand même ?) La cosmologie, c'est l'étude de l'évolution physique de l'Univers : mais comme je suis mathématicien, je vais plutôt l'aborder sous l'angle mathématique. Un des points que je veux développer, justement, c'est que si la relativité générale est quelque chose d'assez compliqué, le cas particulier de la relativité générale qu'est la cosmologie de FLRW (Friedmann-Lemaître-Robertson-Walker), qui décrit l'évolution d'un univers homogène et isotrope (cf. ci-après) et qui s'applique fort bien au nôtre, demande beaucoup moins de bagage mathématique, et ça pourrait avoir un sens d'en parler en lycée (au moins si je compare avec ce qui était enseigné au lycée quand j'y suis passé — les choses ont pu changer depuis) ; d'autant plus que le Big Bang et l'expansion de l'Univers est un sujet qui, si j'en crois le nombre de tentatives qu'on fait pour le vulgariser, suscite au moins un certain intérêt — il est dommage qu'en plus de ces vulgarisations « grand public » on n'en trouve pas qui tentent d'aller un peu plus loin pour ceux qui ont des connaissances mathématiques un peu plus poussées. Disons qu'il s'agit en gros de savoir ce qu'est une équation différentielle ordinaire (ce qui est, donc, nettement plus simple que la relativité générale qui est décrite par un système sous-déterminé d'équations aux dérivées partielles) : même si je vais aussi dire un certain nombre de choses qualitatives ou historiques qui devraient pouvoir intéresser ceux de mes lecteurs qui ne savent pas ce qu'est une équation différentielle, mon propos principal est quand même de présenter, reformuler et commenter l'équation de Friedmann-Lemaître qui détermine l'évolution de l'Univers. Il sera aussi utile d'avoir quelques notions de relativité restreinte, même si je vais essayer de rappeler au fur et à mesure tout ce qui est pertinent.

Mode d'emploi : L'introduction est écrite de façon à être normalement compréhensible du grand public, et le survol qui suit demande également moins de notions mathématiques que le reste. Par ailleurs, de façon générale, j'essaie d'écrire mes longues entrées de manière à ce que les parties soient aussi indépendantes que possible les unes des autres (pour faciliter la vie des gens qui lisent en diagonale !) ; les passages qui sont des digressions, des approfondissements, ou qui pour d'autres raisons ne sont absolument pas nécessaires à la compréhension de l'ensemble sont en petits caractères (mais pas systématiquement). J'ai essayé de mettre des liens internes pour expliciter les références avant et arrière, mais je ne l'ai pas toujours fait de façon systématique, d'autant que ce texte a été écrit sur une période tellement longue que j'ai souvent perdu le fil de mes pensées. Pour cette raison, il y a aussi certainement beaucoup de redites dans ce texte, et d'incohérences dans le plan. Certains passages où je dois avouer mon ignorance sont marqués par un gros point d'interrogation (voir notamment ici où j'explique que je ne comprends pas vraiment ce que c'est que la pression en relativité) : si des gens plus qualifiés que moi peuvent m'Éclairer sur ces différents points, j'en serai heureux.

Structure : Après une introduction historique et un survol de la réalité physique, cette entrée comporte deux grandes parties : l'une est consacrée à la cinématique de l'univers de FLRW (les effets de l'expansion de l'Univers sans se poser la question de sa dynamique) l'autre à la dynamique, régie par les équations de Friedmann-Lemaître (pour les impatients : (a′/a)² = 8π·𝒢·ρ/3 − K₀/a² + Λ/3 d'une part, et a″/a = −4π·𝒢·(ρ+3𝓅)/3 + Λ/3 d'autre part, avec a la taille relative de l'Univers, 𝒢 la constante de Newton, ρ et 𝓅 la densité de masse-énergie et la pression respectivement, K₀ la courbure de l'espace pour a=1 et Λ la constante cosmologique), dont il s'agit d'expliquer le sens et comment on peut les résoudre.

Note : Je travaillerai toujours dans des unités dans lesquelles la vitesse de la lumière vaut 1, c'est-à-dire qu'une année et une année-lumière sont fondamentalement la même chose (même si j'essaierai de garder un semblant de distinction pour aider les lecteurs peu habitués à cette identification à se repérer), et la seconde (=seconde-lumière) et le mètre sont simplement deux façons différentes de mesurer les mêmes grandeur, différant par un facteur 299792458 (du coup, le SI passe pour tout aussi bizarre que le système d'unités américain, avec un facteur 299792458 entre la seconde et le mètre, et un facteur 31557600 entre l'année et la seconde).

Plan

Introduction générale et historique

(Je rappelle que j'ai écrit une petite introduction générale à la relativité ici — le prétexte était alors de parler de trous noirs, mais ce n'est pas sans pertinence de façon plus générale, surtout à partir du paragraphe qui commence par Il faut donc que je digresse.)

Sans rentrer dans les détails, la relativité a été découverte : en 1905 — l'annus mirabilis d'Einstein — s'agissant de la relativité restreinte, celle qui décrit la cinématique des vitesses proches de celle de la lumière ; et en 1915 pour ce qui est de la relativité générale, celle qui incorpore la gravitation comme un phénomène de courbure de l'espace-temps. De façon un peu simplifiée, on peut dire que cette dernière se présente sous la forme d'une équation (G = 8π·𝒢·T avec 𝒢 la constante gravitationnelle de Newton, mais toute la difficulté est évidemment dans la définition de G et T) qui relie la courbure de l'espace-temps (le membre de gauche, G, de l'équation, ou tenseur d'Einstein) et la matière qui s'y trouve (le membre de droite, T, ou tenseur de stress-impulsion-énergie). Cette équation est trop complexe pour admettre une solution générale explicite : ce qu'on peut faire, c'est soit la traiter numériquement (ce qui pose d'ailleurs aussi des difficultés considérables), soit faire des raisonnements généraux ou des approximations (comme des développements limités), soit chercher des hypothèses simplificatrices, notamment de symétrie, sous lesquelles elle devienne résoluble exactement et explicitement. C'est ainsi que la première solution exacte particulière qui ait été trouvée (en 1916) aux équations d'Einstein est la métrique de Schwarzschild, qui décrit l'espace-temps au voisinage d'une masse ponctuelle au repos (ou plus généralement une masse au repos à symétrie sphérique), et en particulier un trou noir sans rotation.

Je crois que la deuxième solution qui ait été trouvée est celle dont je veux parler ici, en 1922, par le mathématicien russe Alexander Friedmann [Aleksandr Fridman / Александр Фридман] ; elle a été redécouverte indépendemment en 1927 par le mathématicien et physicien (et prêtre catholique) belge Georges Lemaître, et de nouveau par l'américain Howard Robertson et le britannique Arthur Walker dans les années '30. Comme on n'est pas chiche, on la nomme le plus souvent d'après les quatre noms, donc FLRW en abrégé : mais c'est bien Friedmann qui a la priorité, et c'est sans doute Lemaître qui a le plus fait pour la populariser, et pour populariser l'idée du Big Bang, même si ce n'est pas lui qui a introduit le nom, puisqu'il parlait, lui, d'atome primitif pour la singularité au début de la solution.

Ce n'est pas Lemaître, donc, qui a inventé le terme Big Bang : c'est Fred Hoyle, qui a pour la première fois utilisé ces mots, au cours d'un programme radio de 20 minutes de la BBC, le 28 mars 1949, et qui les a ensuite répétés à plusieurs reprises dans des textes ou émissions adressées au grand public, et c'est donc lui qui a popularisé le nom, qui n'est vraiment devenu courant que dans les années '70. Fred Hoyle ne croyait pas au Big Bang, et utilisait ce terme (peut-être choisi pour être un peu ridicule, même s'il l'a lui-même nié plus tard) pour souligner la différence avec la théorie de l'état stationnaire à laquelle il croyait. (C'est d'ailleurs un peu ironique : Hoyle trouvait que la théorie du Big Bang était une ânerie religieuse — comme je l'ai dit, Lemaître était prêtre, et le pape Pie XII, qui y voyait une confirmation du fiat lux biblique, avait mis un certain poids derrière cette théorie, au grand agacement de Lemaître, d'ailleurs. Or de nos jours, les seuls qui refusent de croire au Big Bang sont justement des illuminés religieux — même si des théories d'univers stationnaire ou du moins éternel peuvent trouver un semblant de retour sous forme de différentes hypothèses de multivers d'où germe une « inflation perpétuelle ».) L'histoire du nom est racontée en beaucoup plus de détails dans ce papier par ailleurs extrêmement intéressant (comme les différents autres articles du même auteur que j'ai eu l'occasion de parcourir) ; voir aussi ce que dit Google Ngrams.

(samedi)

L'effet d'accélérer vers la vitesse de la lumière

Méta : Ça fait longtemps que je n'ai rien posté ici, principalement parce que j'ai commencé à écrire deux entrées que j'ai envoyées dans les limbes (dois-je dire purgatoire ?) dont elles ne ressortiront peut-être jamais (enfer ?). L'une était censée être consacrée à la question de l'indiscernabilité en mathématiques (quand doit-on dire que deux objets mathématiques sont « le même » ?), notamment motivée par le fait que mon co-auteur du moment m'a reproché d'avoir écrit la clôture algébrique alors que j'aurais dû écrire une clôture algébrique, celle-ci étant unique à isomorphisme non-unique près, mais je lui ai fait remarquer que lui-même disait le (et pas un) corps des nombres complexes ; j'ai arrêté d'écrire cette entrée parce que l'exemple que je commençais à développer ne satisfaisait pas mon sens de l'esthétique, et aussi parce que j'ai l'impression que si on réfléchit trop à cette question les mathématiques vont disparaître dans un pouf de logique. L'autre entrée était consacrée à une analyse de la crise Ukrainienne, chose pour quoi je ne suis pas spécialement {euphémisme} qualifié, mais il s'agissait en même temps d'une réflexion et d'un exercice pratique sur ce que l'« impartialité » peut signifier — l'ennui étant que je me suis rendu compte après en avoir déjà écrit des tartines que l'effort de me renseigner et de chercher à écouter les points de vue les plus divers était peut-être plus important que ma motivation dans l'histoire (d'autant que chaque jour je devais réécrire un bon bout du post vu que la situation avait changé depuis la veille). Bref, vous savez ce que je n'ai pas écrit, j'en viens maintenant au sujet du jour.

Il y a quelques années j'avais réalisé un rêve de gamin en calculant toutes sortes de vidéos de trous noirs en rotation, histoire de savoir l'effet que ça peut bien faire de traverser un trou de ver (choses qu'apparemment personne n'avait calculé avant moi au moins pour le trou noir de Kerr). J'ai plus tard profité d'un jour que mes parents l'avaient invité à déjeuner pour montrer ces vidéos à Brandon Carter, à qui on doit la description de la structure complète de l'espace-temps de Kerr (et notamment de son trou de ver), et il faut dire qu'il n'a pas été très impressionné. Essentiellement parce que j'avais calculé des vidéos « de matheux » (voyant le trou noir comme une abstraction mathématique, un objet géométrique vu que je suis géomètre, je n'ai notamment pas hésité à dessiner des bandes sur ses horizons ce qui est évidemment une pure vue de l'esprit). Alors qu'il aurait, lui, voulu voir des vidéos « de physicien » montrant ce qu'on verrait vraiment si on tombait dans un trou noir en rotation avec un disque d'accrétion autour, en tenant compte des effets comme le redshift. Je pense que les deux points de vue se défendent : ma vidéo géométrique permet de comprendre un peu comment est foutu la géométrie de l'espace-temps de Kerr, alors qu'une vidéo physique montrerait probablement que « on n'y voit rien », mais évidemment elle a beaucoup plus de sens physique.

Je n'ai pas eu la patience de faire la vidéo que Brandon Carter m'a demandée (et je ne crois pas que je l'aurai jamais ; mais si quelqu'un est plus motivé, il peut partir du programme que j'ai écrit, et qui est largement commenté, pour essayer de remplir ce qui manque). Mais à défaut de ça, je viens quand même de calculer quelque chose de (beaucoup) plus simple, c'est le genre de choses qu'on verrait si on accélérait jusqu'à une vitesse proche de celle de la lumière — en tenant compte, cette fois-ci, de l'effet Doppler sur la lumière (une des difficultés, et c'est d'ailleurs la raison pour laquelle à peu près toutes les vidéos de ce genre que vous verrez en ligne sont fausses, est que l'effet Doppler ne peut pas se calculer sur la valeur RGB des couleurs, il faut faire une hypothèse sur le spectre complet).

Petit effet zahir amusant. Mon poussinet et moi sommes ces jours-ci en train de regarder la série Cosmos. Pas le remake par Neil deGrasse Tyson qui passe en ce moment sur la National Geographic Channel mais la série d'origine par Carl Sagan. Dont le livre dérivé, qui m'avait été offert par mon grand-père quand j'étais petit, a joué de façon sans doute non négligeable dans ma vocation scientifique, et je le recommande vivement, ne serait-ce que pour les très jolies vues d'artistes qui l'illustrent. Bref, cette série est (pour le moment) disponible sur YouTube : 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13 ; je constate d'ailleurs qu'elle n'a pas trop mal vieilli. Bref, juste au moment où j'ai calculé les première versions de la vidéo ci-dessous, nous sommes arrivés à l'épisode 8 (Journeys in Space and Time) où Sagan vulgarise un peu la théorie de la relativité et décrit les effets qu'on voit dans la vidéo ci-dessous, en les illustrant, faute de moyen informatique pour faire le calcul précisément, par un petit montage optique approximatif.

Quoi qu'il en soit, voici la vidéo que j'ai calculée (lien YouTube) :

[Ajout () : suite à une demande en commentaire, voici une vidéo différente qui représente aussi ce qu'on voit sur le côté et vers l'arrière.]

Et je recopie en la traduisant la description que j'en ai faite sur YouTube :

Une simulation d'une accélération uniforme qui atteint 99.93% de la vitesse de la lumière en 1′40″, incluant l'effet Doppler, l'aberration de la lumière, et la dilatation du temps.

L'observateur se déplace sur une droite, à mi-chemin entre deux plans infinis « fixes » pavés de carreaux, et il accélère constamment à 0.04c/s = 11992km/s² (ou 1.2 millions de g : ceci est la force inertielle ressentie par l'observateur).

Le « sol » sous l'observateur se compose de dalles carrées, de 5 secondes-lumière de côté (1.5 millions de km, soit 0.01 unités astronomiques, ou un peu moins de 4 fois la distance Terre-Lune). Il est 1.25 secondes-lumière « sous » l'observateur. Les bords des dalles sont des droites parfaites : ils émettent de la lumière avec un spectre de corps noir à 6500K (approximativement la couleur de la surface du soleil), tandis que la partie centrale des dalles correspond à 3250K (« marron » ; le rapport des luminosités est aussi 16, comme pour les corps noirs correspondants).

Le « plafond » au-dessus de l'observateur se compose de dalles carrées de la même taille (les bords en sont plus minces, mais la période vaut toujours 5 secondes-lumière). Contrairement à celles du sol, elles émettent une lumière monochromatique, d'une longueur d'onde d'environ 635nm (la couleur typique d'un pointeur laser rouge). Le bord des dalles du plafond est deux fois plus lumineux que les dalles elles-mêmes, mais de la même couleur. De plus, les dalles clignotent toutes simultanément (avec une période de 10s) : elles restent allumées pendant 5s puis s'éteignent pendant 5s. (Les bords ne clignotent pas, seule la partie centrale le fait. Les dalles sont toutes parfaitement synchrones, dans le référentiel « fixe ».) Le clignotement apparaît sous forme de cercles concentriques, tout simplement parce que la vitesse de la lumière est finie (et le bord d'une dalle est égal à la distance que la lumière traverse dans une demi-période du clignotement, soit 5s).

Par ailleurs, l'espace a été rendu légèrement absorbant (de nouveau avec une longueur caractéristique (=épaisseur optique) de 5 secondes-lumière), tout simplement pour donner un sens de profondeur (c'est pour ça que les choses semblent disparaître au loin : sans absorption, une surface lumineuse parfaitement isotrope aurait une luminosité apparente constante jusqu'à l'infini).

On peut remarquer les choses suivantes :

À mesure qu'on tend vers la vitesse de la lumière, tout ce qu'on voit des objets fixes tend à devenir un seul point infiniment lumineux droit devant, tandis que tout autour devient sombre.

(mardi)

Quand et comment la formule E=mc² est-elle devenue si célèbre ?

J'ai déjà évoqué cette idée : quand on a affaire à une chose célèbre, il faut faire attention à bien distinguer l'histoire et la genèse de la chose de l'histoire et la genèse de sa célébrité — car une chose peut devenir célèbre très longtemps après avoir été inventée ou découverte. Et la deuxième histoire, celle de la célébrité, est généralement beaucoup plus difficile à retracer, car elle n'est souvent pas associée à des faits bien identifiables. (Pour certaines choses, il y a cependant un outil merveilleux, et dont je dois faire la pub, c'est Google Ngrams, qui permet de tracer les graphiques de la fréquence de telle ou telle suite de mots sur un large corpus de textes — dans différentes langues — et retrouver ainsi la popularité de telle ou telle expression à travers le temps : par exemple, s'agissant du canon de Pachelbel, on peut voir qu'on en parlait très peu, ou en tout cas pas sous ce nom, avant le début des années '70. Si quelqu'un doit écrire un roman historique se passant au XIXe ou XXe siècle, Google Ngrams sera sans doute d'un secours inestimable pour éviter les anachronismes.)

Bref, je voudrais juste discuter d'un exemple concret, pour lequel Google Ngrams n'est d'aucun secours, à travers la formule E=mc² décrivant l'équivalence masse-énergie et qui est sans doute la formule scientifique la plus célèbre auprès du grand public.

Si on cherche l'histoire scientifique de cette formule, donc en fait l'histoire scientifique de la relativité, elle est facile à trouver, et quoiqu'elle ne soit pas exempte de controverse, on peut globalement dater de l'année 1905 (l'annus mirabilis d'Einstein) une version plus générale telle que E²=m²c⁴+p²c² (où m est la masse au repos d'une particule relativiste, p sa quantité de mouvement, et E l'énergie totale) ou E=mc²/√(1−v²/c²), même s'il est possible que les notations aient été différentes, que la partie de passe au repos ait été justement soustraite (comme c'est le cas dans l'article d'Einstein sur l'électrodynamique des corps en mouvement), etc.

Seulement, la perception que le grand public pouvait avoir de la relativité avant la seconde guerre mondiale est tout à fait différente de celle qu'il a pu en avoir après : je crois que dans les années '20 on avait surtout cette idée de la relativité générale, perçue de façon assez farfelue comme une théorie invraisemblablement difficile que seules trois personnes au monde pouvaient comprendre (et il y a cette anecdote, sans doute apocryphe ou du moins enjolivée, selon laquelle on aurait fait cette description à Eddington, qui aurait demandé qui est la troisième ?). La question de l'équivalence masse-énergie n'avait sans doute pas attiré grande attention ; et même dans la communauté scientifique l'équivalence en énergie de la masse au repos devait paraître plus comme une constante un peu arbitraire qui simplifie les calculs de la relativité que comme un vrai phénomène physique : pour dire les choses autrement, la quantité phénoménale d'énergie représentée par la formule E=mc², si on veut bien l'exprimer sous cette forme, n'apparaissait pas spécialement libérable ou exploitable.

Ce qui a changé les choses, évidemment, c'est la découverte de la fission nucléaire lorsqu'en 1938 Lise Meitner et son neveu Otto Frisch ont interprété les résultats des expériences d'Otto Hahn et expliqué l'énergie libérée lors de la fission par la différence entre la masse de l'atome fissionné et la masse des atomes produits. C'est ainsi que la relativité (restreinte) s'est retrouvée liée à l'idée de la bombe atomique : en un certain sens, c'est une erreur scientifique, parce que les phénomènes de fission ne sont pas si spécialement relativistes, et toute réaction exothermique convertit de la masse en énergie (c'est juste que cette conversion, quasiment indétectable pour les réactions chimiques ordinaires, devient mesurable dans le cas de réactions nucléaires).

Bref, ce qui a vraiment popularisé la formule E=mc², c'est d'une part un article de semi-vulgarisation publié par Einstein lui-même en avril 1946 et intitulé E=mc²: the Most Urgent Problem of our Time (Science illustrated, 1, 16–17), où il explique le sens de sa formule et conclut en évoquant la menace que représente la disponibilité de cette énergie énorme :

But the part given to the community, though relatively small, is still so enormously large (considered as kinetic energy) that it brings with it a great threat of evil. Averting that threat has become the most urgent problem of our time.

Et surtout, c'est la couverture du 1er juillet 1946 de Time représentant la tête d'Albert Einstein avec, en fond, un champignon de bombe atomique sur lequel est écrit la formule en question.

C'est ainsi que la formule E=mc² (qui n'a, dans le fond, pas grand-chose à voir) s'est retrouvée, plus de quarante ans après la découverte de la relativité restreinte, associée à la menace d'un armageddon nucléaire dans le climat de la guerre froide. (Et elle a été ensuite assez galvaudée pour ne plus évoquer grand-chose d'autre que la formule emblématique de n'importe quelle physique.)

Soit dit en passant, les physiciens qui font de la relativité travaillent à peu près toujours — sauf peut-être pour enseigner — dans un système d'unités où c=1, auquel cas la formule devient tout simplement E=m, et il n'y a pas trop de raison de l'écrire, c'est juste dire qu'on connaît le même concept sous deux noms différents (la masse au repos et l'énergie qui lui correspond — ou bien l'énergie totale et la masse apparente qui lui est associée ; du coup, on utilisera plutôt m pour la masse au repos et E pour l'énergie totale, auquel cas elles ne sont pas égales mais reliées par une formule du genre E²=m²+p² ou E=m/√(1−v²) comme je l'ai écrit plus haut). Cet article en dit plus sur l'histoire de la formule, même si je trouve qu'il pinaille un peu en insistant qu'on n'aurait pas le droit de parler de masse pour l'équivalent de l'énergie totale (et qu'on devrait donc écrire E₀²=mc²).

(mercredi)

TODO sur la physique des particules

J'aurais beaucoup plus à raconter sur la physique des particules que je n'ai fait dans la dernière entrée[#]. Vu que je n'ai vraiment pas le temps de m'y mettre, je peux au moins (comme je le fais souvent) jeter quelques idées sur ce que je voudrais pouvoir raconter, à charge pour moi-même de m'en occuper un jour plus tard si j'en ai à la fois le temps et l'énergie[#2].

D'abord, j'aimerais écrire un petit résumé de la question simple suivante : combien y a-t-il de particules élémentaires ? — on peut y répondre de façon naïve s'agissant des particules connues (dire qu'il y a douze fermions élémentaires, à savoir six quarks et six leptons, regroupés en trois familles comportant chacune deux quarks et deux leptons, et quelque chose comme six bosons élémentaires, à savoir le photon, le W, le Z, le gluon, le graviton même si on ne l'a jamais « vu », et le boson de Higgs), mais comme on ne sait pas bien, par exemple, si les antiparticules devraient compter pour une particule à part dans ce recensement, il s'agirait surtout d'expliquer qu'en fait la question qui a vraiment un sens, c'est de compter les dimensions de champs, ou degrés de liberté, et j'en compte 126 (avec le graviton et en faisant l'hypothèse que les neutrinos sont des particules de Dirac comme tous les autres fermions). J'avais commencé il y a longtemps à écrire quelque chose à ce sujet, que je peux recopier ici si quelqu'un veut vérifier mon calcul :

Pour les fermions, je compte 4 dimensions pour un champ de Dirac (une pour la particule gauchère, une pour la particule droitière, une pour l'antiparticule gauchère et une pour l'antiparticule droitière ; on pourra me dire que le champ de Dirac est complexe donc ça devrait faire 8, mais comme l'équation est du premier ordre et que pour les champs du second ordre je ne compte pas séparément le champ et sa dérivée, il est logique de mettre un facteur ½ sur le champ de Dirac qui, après tout, décrit 4 et non pas 8 particules) : ceci fait 4 dimensions pour chacun de l'électron, du muon et du tau, encore 4 dimensions pour chacun des trois types de neutrinos si je suppose qu'ils sont des particules de Dirac (s'ils ont des masses de Majorana ce n'est que 2 par type) ; pour les quarks, c'est 6×3×4=72 dimensions, 6 étant le nombre de saveurs, 3 le nombre de couleurs, et toujours 4 pour Dirac : on a donc au total 12+12+72=96 dimensions fermioniques. Pour les bosons, il faut se rappeler que le photon, étant sans masse, n'a que deux degrés de liberté, correspondant aux deux polarisations possibles d'une onde électromagnétique (il y a quatre composantes dans le potentiel qui définit l'électromagnétisme, mais il faut soustraire une contrainte due au fait que la composante temporelle de ce potentielle n'est pas dynamique et une liberté de choix de jauge, ce qui laisse 4−1−1=2 dimensions) ; le gluon a 8×2=16 degrés de liberté, le 8 étant le nombre de couleurs, c'est-à-dire la dimension de SU(3), et 2 le même que pour le photon ; le Higgs est un scalaire donc n'a qu'un degré de liberté (avant brisure spontanée de la symétrie il en a 4, mais il y en a trois qui deviennent les polarisations longitudinales du W et du Z vu que ceux-ci acquièrent une masse) ; le W+, le W et le Z0 ont chacun trois degrés de polarisation ; et si on ajoute la gravitation, le graviton a 2 modes de polarisation (+ et ×) : au total on arrive donc à 16+1+2+9+2=30 dimensions bosoniques. Bref, 96 fermions et 30 bosons, 126 au total.

Une autre chose dont je voudrais discuter, et qui intéresse forcément le mathématicien, c'est ce que sont les symétries de la physique quantique, et des différentes choses qui peuvent arriver à une symétrie (notamment, être exacte, être « anormale » — c'est-à-dire valide classiquement mais non vérifiée au niveau quantique parce que cassée par la renormalisation, ou encore valide de façon perturbative mais détruite par des effets non-perturbatifs comme des instantons[#3] —, ou bien, être « spontanément brisée », c'est-à-dire valable pour la théorie mais pas pour le vide de la théorie) ; de plus, à chaque symétrie doit être associée, d'après le théorème de Noether ou plutôt sa version quantique une quantité conservée (qui qui-serait-conservée si la symétrie n'était pas anormale ou brisée). J'ai récemment demandé sur physics.stackexchange.com si quelqu'un avait un petit résumé synthétique, mais personne n'a répondu, donc j'ai peur de devoir moi-même faire le boulot de synthèse, bien que je n'aie pas les idées complètement claires. (Éventuellement, si quelqu'un a une idée d'un physicien spécialiste du Modèle standard que je pourrais aller embêter, ça m'intéresse.)

Enfin, à propos de brisure spontanée de la symétrie, je voudrais essayer d'expliquer, surtout pour m'éclaircir moi-même les idées, ce que c'est qu'un condensat (et dans quelle mesure cette notion de condensat de Bose-Einstein est « la même » entre ce qui se produit pour l'hélium-4 à basse température et ce qui arrive au champ de Higgs et au vide de la chromodynamique quantique). Quand le boson de Higgs a été découvert expérimentalement par le CERN, il y a eu toutes sortes d'affirmations un peu maladroites comme quoi le boson de Higgs « est partout » (ce qui est vaguement vrai, mais il s'agit surtout d'essayer de donner un sens à cette valeur de 246 GeV du champ de Higgs dans le vide), et comme quoi il donne sa masse à toute la matière (ce qui est plutôt faux : il donne la masse à l'électron et aux quarks « nus », mais à peu près 1% de la masse des objets qui nous entourent est due à l'interaction avec le boson de Higgs, les 99% restants étant dus aux différents condensats de quarks et de gluons).

(Ceci impliquerait aussi de discuter de la question un peu byzantine de savoir si l'accouplement de Yukawa avec le Higgs doit être considéré comme une force fondamentale à côté des forces forte, électrofaible et gravitationnelle, ou non ; et, si on le considère comme une force, quel est son effet et pourquoi son condensat s'apparente à donner une masse aux particules.)

Il y a aussi toutes sortes d'expériences de pensées sur lesquelles je voudrais réfléchir (dans le style de xkcd what if), par exemple : si on prend deux neutrinos au repos, ce qui est permis maintenant qu'on sait qu'ils ont une masse, [à quelle condition] est-ce qu'ils s'attirent ou est-ce qu'ils se repoussent ?, d'ailleurs, à quoi ressemblerait une assiette de 100g de neutrinos froids ?, ou encore quel serait l'effet d'une instabilité du vide du modèle standard (ou de la rencontre d'une région de l'univers où le vide aurait un champ de Higgs légèrement déphasé par rapport à nous) ? — si quelqu'un se sent compétent pour répondre à ce genre de question (ou n'importe laquelle du même calibre et qui peut avoir un intérêt), surtout, qu'il n'hésite pas à me faire signe.

[#] Certains pourraient ironiser sur le fait que j'aie beaucoup de choses à raconter sur un domaine dont non seulement je ne suis pas spécialiste mais je prétends moi-même ne rien y comprendre. Même si je reconnais que cette dernière affirmation est un chouïa exagérée, ce n'est pas forcément si paradoxal : c'est justement parce que je ne suis pas physicien que j'ai peut-être la possibilité de mieux comprendre ce qu'il y a à ne pas comprendre, donc ce qu'il y a à expliquer, en physique — parce que je suis parti avec le regard un peu plus ingénu du mathématicien qui ne cherche pas à faire de la physique mais à comprendre le monde qui m'entoure. Il n'est pas sûr que la meilleure vulgarisation soit toujours faite par les spécialistes du domaine.

[#2] Ce qui, d'après le principe d'incertitude de Heisenberg, est évidemment impossible. ☺

[#3] Autre chose à raconter, donc : ce que c'est qu'un instanton, et comment, par exemple, le sphaléron peut (très rarement !) violer la conservation des nombres leptonique et baryonique — avec la question sous-jacente de comment on « verrait » des particules apparaître du vide. Note : concernant les instantons dans le secteur fort du modèle standard, ce texte est vraiment excellent.

(lundi)

Quelques méditations sur la physique fondamentale

Avertissement : Mon intention initiale dans cette entrée était de dresser un petit bilan de l'état de la physique fondamentale tel que je le comprends (en tant que mathématicien qui voit ça de loin comme de la culture générale scientifique), avant de partir dans quelques méditations philosophiques voire métaphysiques à ce sujet, et notamment sur la question des constantes fondamentales (sans dimension) de la physique et de la « raison » de leur valeur (et sur le principe anthropique). Comme d'habitude, j'ai écrit, au cours de plusieurs week-ends, quelque chose de beaucoup plus long que ce que je pensais (et, j'en ai bien peur, un peu vaseux). J'espère néanmoins que cette entrée plutôt décousue se lit assez bien « en diagonale », c'est-à-dire que le fait de sauter un passage qu'on trouve ennuyeux et/ou incompréhensible ne devrait pas empêcher de passer à la suite.

Structure : Pour dire les choses sommairement, la physique fondamentale est celle qui cherche à trouver les lois fondamentales qui gouvernent l'Univers, c'est-à-dire celles qui déterminent, au niveau le plus intime, tous les phénomènes physiques — ce qu'on appelle aussi familièrement la théorie du tout. Mon but est ici d'exposer un petit peu quelles facettes on connaît d'une éventuelle théorie du tout à travers un cube de théories physiques (dont les trois axes sont la gravitation, les phénomènes quantiques et les vitesses proches de la lumière) : je dois m'attarder sur la théorie quantique des champs avant de pouvoir décrire le « sommet manquant » du cube, la gravitation quantique (relativiste) ; mais le sujet auquel je voulais surtout arriver avec cette présentation, à propos de la « théorie du tout » c'est celui des constantes fondamentales, autrement dit, combien de nombres sans dimension admet-on dans une théorie censée décrire l'Univers ? — et ceci amène forcément à parler un peu du principe anthropique.

Je voudrais aussi en profiter pour signaler cette vidéo (suite ici) d'une conférence grand public tenue assez récemment à Cornell par Nima Arkani-Hamed (qui est très bon vulgarisateur) sur la philosophie de la physique fondamentale : je n'ai pas encore eu le temps de l'écouter complètement, mais ce que j'en ai entendu semble très intéressant, et rejoindre beaucoup des questions que j'évoque ici.

[Voir aussi l'entrée suivante au sujet des choses dont j'aurais voulu parler mais pour lesquelles je n'ai pas eu le temps et on pourrait rêver que j'en aie le temps un jour.]

(lundi)

Petit exposé sur la relativité

J'ai donné avant-hier dans le cadre du séminaire Mathematic Park, qui s'adresse surtout aux élèves de prépas ou de licences scientifiques, un exposé intitulé Relativité et Géométrie — malgré ce que le titre peut laisser penser, je n'ai parlé que de relativité restreinte (j'avais prévu quelques transparents sur la relativité générale s'il me restait du temps, mais il ne m'en est pas resté, ce qui valait sans doute mieux). J'aurais sans doute dû l'annoncer à l'avance sur ce blog, mais j'ai été un peu pris par le temps en commençant à préparer à la dernière minute. Bref. Mon propos a surtout été de présenter la relativité restreinte en insistant sur l'importance de la forme quadratique de Minkowski, et d'expliquer pourquoi il vaut mieux mesurer les vitesses en relativité en utilisant la notion de rapidité[#] (qui ont le bon goût de s'ajouter en dimension 1+1) et en quoi l'espace des vitesses de la relativité restreinte se comporte naturellement comme un espace hyperbolique ; tout ça, en faisant le parallèle entre trois sortes de relativités : la relativité restreinte ou minkowskienne/lorentzienne, la relativité galiléenne (antérieure à 1905), et le monde fictif de la relativité « euclidienne » (exploré dans la trilogie Orthogonal de Greg Egan, qui malheureusement utilise le terme « riemannien » que je trouve très mal choisi), cette dernière servant essentiellement comme contrepoint plus facile à visualiser, et où l'espace des vitesses correspond à la géométrie sphérique.

Mes transparents sont ici, même si je ne sais pas s'ils seront très compréhensibles sans tout le blabla que je prononce pour les expliquer (le blabla a été enregistré, je ne sais pas encore s'il sera mis en ligne ; si c'est le cas, je tâcherai d'éditer cette entrée).

Comme souvent, je me rends compte après coup de quantité de choses que j'aurais pu expliquer et que je n'ai pas dites (ou même pas pensées) : le sens de la polarité par rapport à la conique fondamentale en géométrie hyperbolique ou elliptique ; ou comment utiliser les formules trigonométriques hyperboliques pour calculer l'aberration de la lumière relativiste (je ne la mentionne que brièvement au transparent 30/37) ; ou la notion d'aire sur le plan hyperbolique, sa conservation par le groupe de Lorentz, et l'analogue hyperbolique de la projection azimutale équivalente de Lambert. Mais la continuation logique de mon exposé — qui dressait le parallèle entre la relativité restreinte et certaines géométries de Klein — serait de faire le parallèle entre la relativité générale et les géométries de Cartan, et ça, je dois dire que je n'ai pas encore pris le temps de le comprendre en profondeur (même si j'ai commencé ici).

[#] Par exemple, plutôt que de dire que les protons du LHC vont à 99.9999991% de la vitesse de la lumière (jouez à compter les 9 !), ou qu'ils ont une énergie de 7 TeV, je trouve que c'est plus parlant de dire qu'ils ont une rapidité de 9.6 dans les unités naturelles.

(mercredi)

Comment peut-on courber un espace galiléen ?

La convergence entre le hasard de divagations mathématiques auxquelles je m'étais livré récemment (et qui passaient notamment par le concept de géometrie de Cartan) et du fait qu'on me propose de faire un exposé de vulgarisation sur la relativité (j'en parlerai une autre fois) m'a conduit à d'autres divagations entre la physique et les maths, et à me poser la question parfaitement idiote — et assez technique — suivante, que je vais néanmoins tâcher de raconter : comment peut-on courber un espace galiléen ?

Grossièrement, l'idée est de faire à la « relativité galiléenne » (c'est-à-dire la cinématique de la physique classique, telle qu'elle existait avant Einstein) la même chose qu'on fait pour passer de la relativité restreinte à la relativité générale : courber l'espace-temps.

L'espace-temps galiléen (« plat ») correspond à l'idée naïve qu'on est censé se faire de l'espace et du temps, ou l'idée qu'on s'en faisait avant le passage de MM. Lorentz, Poincaré, Einstein et Minkowski (et le terme d'espace-temps n'était pas utilisé parce qu'il n'est pas particulièrement utile, dans le cadre galiléen, de mettre les deux ensemble : un point de l'espace-temps est juste la donnée d'un point de l'espace à un moment précis). À savoir : le temps est le même pour tous les observateurs ; et les lois de la physique sont invariantes par les transformations suivantes : (0) une translation dans l'espace ou dans le temps, (1) une rotation (constante) de l'espace, et (2) un changement de référentiel donné par un mouvement de déplacement uniforme (=à vitesse constante). Soit concrètement : le résultat d'une expérience physique ne doit pas changer lorsque (0) on la fait à un autre endroit ou un autre moment (à condition bien sûr de déplacer tout ce qui intervient dans l'expérience, y compris la Terre si elle intervient !), (1) on oriente différemment ce sur quoi on mène l'expérience (même remarque), ou (2) on effectue l'expérience dans un laboratoire se déplaçant à vitesse constante ; le point (2) est le moins évident, il constitue le génie de Galilée qui a (au moins selon la légende) effectué des expériences dans des bateaux pour le prouver (du genre : une balle lâchée du haut du mât touche le sol au pied du mât — au moins en l'absence de frottement de l'air — et pas un peu derrière comme on pourrait le penser). Remarquons qu'une conséquence du point (2) est que dire que deux points de l'espace-temps sont « au même endroit » n'a aucun sens à moins qu'ils soient aussi au même moment (j'ai peut-être l'impression d'être assis au même endroit qu'hier, mais la Terre, pendant ce temps, a parcouru quelque chose comme 2.5 millions de kilomètres par rapport au système solaire qui lui-même, etc.). Les transformations de l'espace-temps (translations, rotations, changements de vitesse uniforme) décrites ci-dessus engendrent un groupe appelé groupe de Galilée (ou en fait, deux groupes : le groupe de Galilée homogène, de dimension 6, engendré par (1) et (2), qu'on peut imaginer comme opérant sur les vitesses, et qui est d'ailleurs isomorphe au groupe des déplacements d'un espace euclidien de dimension 3 ; et le groupe de Galilée inhomogène, ou complet, de dimension 10, engendré par (0)–(2), qu'on peut imaginer comme opérant sur les points de l'espace-temps).

L'espace-temps de la relativité restreinte, ou espace-temps de Minkowski, est construit selon des principes analogues à ceci près que maintenant le temps n'est plus absolu, c'est la vitesse de la lumière qui l'est (i.e., quelle que soit la vitesse à laquelle je cours derrière un rayon de lumière, il avancera toujours aussi vite par rapport à moi), et ce simple principe, avec les invariances par translation, rotations et changement de référentiel, correctement interprétées, suffit à fonder toute la cinématique relativiste. Si on a la vision de Felix Klein dans son célèbre programme d'Erlangen, ce qui importe vraiment est le groupe des transformations sur l'espace-temps, et en relativité restreinte les analogues du groupe de Galilée sont le groupe de Lorentz (de dimension 6, analogue du groupe de Galilée homogène) et le groupe de Poincaré (la variante inhomogène, c'est-à-dire incluant aussi les translations, il est de dimension 10).

La relativité générale part du principe que l'espace-temps est un espace courbe (et sans torsion ; cf. une entrée précédente sur le sens de ces deux mots) qui « ressemble localement » à l'espace-temps de Minkowski, et que les objets en chute libre suivent des géodésiques (c'est-à-dire des courbes « aussi droites que possible ») dans un espace-temps courbe. Normalement, il n'y a pas grand-chose à dire, en plus de ça, pour arriver à la relativité générale (il faut cependant bien dire quelque chose de plus car, comme j'aime bien le rappeler, sinon la théorie de Nordström convient aussi). La question que je me suis ingénument posée est : que donnerait une théorie physique fictionnelle partant du principe que l'espace-temps est courbe (et sans torsion) mais ressemble localement à l'espace-temps galiléen (toujours avec le principe que les objets en chute libre suivent des géodésiques). Il est assez facile de se convaincre que cette théorie fictionnelle contient au moins la gravitation à la Newton, mais elle contient plus, parce que l'espace lui-même peut être courbe, parce qu'il y a une sorte de champ « gravitomagnétique », et par ailleurs, comme la relativité générale, elle permet de décrire des changements quelconques de coordonnées et de référentiels (y compris accélérés, en rotation, etc.).

(dimanche)

J'essaie de comprendre comment la Terre tourne

Je me suis laissé convaincre par un ami d'écrire une application pour Android d'éphémérides astronomiques (il en existe certainement déjà plein, mais guère qui soient libres / open source) : c'est-à-dire un truc qui calcule au moins des choses comme la position et les heures de lever et coucher du Soleil, de la Lune et des planètes, les dates et heures des saisons et des phases de la Lune, et sans doute d'autres choses du même acabit. Normalement, ça ne devrait pas être difficile, il y a plein de code pour ça, presque déjà écrit, en fait, qu'il suffit de convertir en Java.

Mais le truc, c'est que je suis un chouïa maniaque (←ceci est un euphémisme) sur certaines choses, et j'ai une idée assez arrêtée sur la façon dont les choses devraient être faites. Notamment, un calcul astronomique ne se mène pas vraiment de la même façon si on vise une précision d'une fraction de minute d'arc ou de quelques microsecondes d'arc. Et je n'ai pas envie de faire silencieusement des approximations qui empêcheraient de passer à une précision nettement plus grande : i.e., je ne tiens pas spécialement à ce que mon application permette une précision énorme, mais je tiens à ce que le cadre logiciel le permette. Ça devient un peu un défi (stupide) en soi.

Or il se trouve que réaliser des calculs astronomiques permettant, même en principe, une très haute précision, c'est compliqué. (Ne serait-ce que parce qu'on ne va plus pouvoir négliger les effets relativistes, et qu'on commence à avoir mal à la tête juste pour définir ce que c'est que le temps.) J'ai une assez bonne vision des phénomènes les plus simples, mais si je m'impose le carcan de bien prendre conscience de toutes les approximations, je m'y perds assez.

Prenons l'exemple de la rotation de la Terre.

La zéroïème approximation, celle qu'on apprend à l'école primaire, c'est que la Terre tourne autour du Soleil, effectuant une révolution en une année dans un plan appelé écliptique, et qu'elle tourne aussi autour d'elle-même selon un axe de direction fixe appelé l'axe des pôles et dont le plan perpendiculaire s'appelle le plan équatorial ; l'angle entre les plans écliptique et équatorial, ou bien entre l'axe des pôles et l'axe perpendiculaire au plan écliptique, s'appelle l'obliquité ou inclinaison de l'axe terrestre, notée ε, et vaut 23°26′15.66″. L'angle entre l'axe de rotation et la droite Terre-Soleil est responsable des saisons, lesquelles sont limitées par les deux équinoxes lorsque l'axe est en quadrature avec cette droite, ou, si on préfère, que le Soleil se trouve dans le plan équatorial de la Terre, et par deux solstices lorsque le Soleil atteint ses latitudes minimale et maximale par rapport au plan équatorial terrestre, qu'on appelle tropiques du Capricorne (→été austral) et du Cancer (→été boréal). Ça c'est ce que tout le monde devrait savoir, sauf à être un sombre inculte.

(lundi)

Quelques réflexions sur l'inertie

Quand j'écris inertie dans le titre de cette entrée, je ne parle pas du phénomène psychologique mais scientifique : scientifique, c'est-à-dire notamment physique mais pas seulement. Dans ce sens, l'inertie, de façon volontairement très vague, c'est le mécanisme qui fait qu'un phénomène qui se produit a tendance à continuer à se produire (plutôt que, par exemple, cesser immédiatement que sa cause cesse).

En physique, il s'agit de la loi d'inertie, ou première loi de Newton, selon laquelle en l'absence de forces extérieures un objet continue à se déplacer en ligne droite et à vitesse constante : ce n'est pas une évidence, et historiquement il semble qu'on ait pu croire — dans la mesure où la physique aristotélicienne énonçait ces choses clairement, ce dont je ne suis pas sûr du tout — qu'une force était toujours nécessaire pour mouvoir un objet, i.e., le que fait qu'un objet en mouvement finisse par s'arrêter dans les situations concrètes n'était pas l'action des forces de frottement mais le phénomène normal, et que du coup l'inertie était ce qu'il fallait expliquer, ce qu'on a pu faire, semble-t-il, par des mécanismes du genre la poussée de l'air exercée par l'endroit que l'objet venait de quitter (je ne suis pas compétent en histoire des sciences, donc j'affabule peut-être en disant ça, ce sont des souvenirs de manuels de physique lus il y a longtemps, mais Wikipédia suggère des choses compatibles). Le principe général d'inertie, ce que j'ai appelé première loi de Newton, a été formulé clairement par Galilée, même s'il est sans doute exagéré de dire que c'est lui qui l'a dégagé.

Toujours est-il qu'on aurait tort de prendre ça pour une évidence. Il y a une célèbre anecdote racontée par Richard Feynman (qui vaut la peine d'être écoutée rien que pour son délicieux accent new-yorkais) sur la manière dont son père (Melville Feynman) lui a expliqué ce qu'est l'inertie : personne ne sait à quoi c'est dû. Un mathématicien va voir l'inertie comme le fait que la physique est décrite par des équations différentielles du second ordre (la force contrôle non pas la vitesse mais l'accélération, c'est-à-dire la variation de la vitesse), mais ce n'est que reformuler le problème ; ou encore, que si on ramène ces équations au premier ordre, cela se fait en introduisant de nouvelles variables en plus de la position, à savoir la quantité de mouvement des objets : l'état d'un système mécanique classique se traduit par la donnée non seulement des positions des objets mais aussi de leurs quantités de mouvement (ou de façon plus approximative, vitesses[#]). On peut reformuler ces choses de façon plus ou moins sophistiquée, parler d'espace des phases, de principes variationnels, de formulations lagrangienne ou hamiltonienne de la mécanique, on peut généraliser à la mécanique quantique ou à la relativité générale, mais il reste toujours ce même mystère qu'on pousse ou cache sous ces diverses formulations[#2].

Mais il y a d'autres domaines où la notion d'inertie peut être considérée, et c'est alors d'autant plus frappant qu'il ne faut pas la prendre pour une évidence.

Prenons l'économie. Voici une question qui me semble assez profonde : si vous avez une grandeur économique ou financière, peut-être le cours d'une action ou d'une monnaie, dont vous ne savez rien sauf sa valeur à l'instant présent, manifestement la meilleure chose que vous puissiez faire pour prévoir sa valeur demain, c'est de prévoir la même valeur (ce n'est évidemment pas une bonne prévision, mais si vous ne savez rigoureusement rien de plus, c'est certainement le mieux qu'on puisse faire) ; maintenant, je vous donne la valeur d'aujourd'hui et aussi la valeur d'hier : est-ce que la connaissance de cette valeur d'hier peut aider à faire une prévision meilleure ? Si on croit à une forme d'inertie en économie, on va se dire que si la grandeur a augmenté entre hier et aujourd'hui, elle risque d'augmenter de nouveau entre aujourd'hui et demain, et peut-être dans les mêmes proportions, donc on va peut-être prévoir pour demain la valeur symétrique de celle d'hier par rapport à celle d'aujourd'hui (de fait, en physique, si vous voulez prévoir le mouvement d'un objet, c'est exactement ça que vous prévoit la loi d'inertie en l'absence de forces, et donc ce sera une approximation sensée si vous ne savez rien du tout). Mais en fait, s'agissant du cours d'une action, cette idée n'est pas du tout bonne : au contraire, on a tendance à modéliser ces choses-là — en toute première approximation — par des objets mathématiques appelés des martingales, ce qui signifie essentiellement que connaître des choses sur le passé ne vous avancera absolument pas à prévoir l'avenir (par rapport à juste connaître le présent) ; ou, de façon plus concise mais moins précise, il n'y a aucune sorte d'inertie. C'est raisonnable si on pense au cours d'une action comme déterminé par des agents rationnels : ils ont connaissance du passé et ils en tiennent compte, donc si une prévision simpliste basée dessus peut donner une meilleure approximation pour l'avenir qu'une prévision simpliste seulement basée sur le présent, ils en tiendront compte déjà au présent, donc anticipent sur cette prévision !, qui du coup devrait être réalisée déjà maintenant et pas dans l'avenir.

Mais l'absence totale d'inertie signifie que l'idée que le cours d'une action est en train de monter est dénué de sens, ou, en tout cas, de sens prédictif : le fait que ce cours ait augmenté ces N derniers jours ne donnerait aucune information sur le fait qu'il risque d'augmenter encore demain, pas plus que le fait de savoir qu'une pièce non truquée est tombée 20 fois sur pile ne vous donne d'information sur le fait qu'elle tombera sur pile la fois suivante. Or on a quand même tendance à s'imaginer qu'il y a de l'inertie : c'est contraire à cette idée que les marchés anticipent sur toute prévision qu'ils peuvent faire quant à l'avenir. Même si le cours d'une action dépend de phénomènes (physiques, par exemple) qui, eux, peuvent avoir de l'inertie, si ces phénomènes sont connus, ils devraient être anticipés. Je ne sais pas si on peut exhiber des cas où il y a quand même incontestablement une forme inertie dans des cours économiques, mais j'ai toujours été perturbé par cette dissonance entre le fait qu'on soit censé croire à l'absence d'inertie si les agents sont rationnels et le fait qu'on dise, par exemple, que le cours du pétrole va certainement continuer à monter au cours des prochaines années (si cette prévision est si évidente, tout le monde va vouloir prendre des options dessus, ce qui va faire augmenter le cours du pétrole maintenant).

Mais ce qui a motivé cette réflexion à ¤0.02 sur l'inertie, c'est encore un autre domaine, celui de la sociologie : j'entends les commentateurs politiques (dont je ne pense pas forcément grand bien) expliquer que la progression ou régression de tel ou tel homme politique dans les sondages électoraux constitue une dynamique. Le fait de parler de dynamique suppose qu'il y a inertie. Mais est-ce le cas ? Je n'ai cette fois pas d'argument comme pour l'économie qui expliquerait qu'il ne dût pas y en avoir, mais je n'ai pas non plus d'explication vraiment convaincante au fait qu'il y en ait (à part que les électeurs seraient naturellement portés à apprécier en soi les hommes politiques qui enregistrent déjà une progression dans les sondages récents, ce qui est possible mais pas évident). En tout état de cause, je trouve qu'on ne devrait prendre ni l'existence de l'inertie, ni son absence, pour une évidence : c'est une question essentielle qu'on doit se poser sur tout phénomène auquel on est confronté.

[#] Quand on parle d'un seul objet sans interaction extérieure, la masse n'intervient pas du tout, et l'inertie au sens physique peut porter aussi bien sur la vitesse (c'est la manière dont Newton la formule) que sur la quantité de mouvement. Quand il y a plusieurs objets qui interagissent, la masse (inertielle) d'un objet devient, très grossièrement, la proportion avec laquelle l'inertie de cet objet est importante relativement à celle des autres, donc la difficulté des forces à agir sur cet objet.

[#2] La relativité générale est peut-être ce qui arrive le plus proche d'une réponse au mystère, aux yeux du matheux que je suis, parce que l'équation des géodésiques et les équations d'Einstein sont des équations du second ordre mathématiquement très naturelles alors qu'il n'y a rien de la sorte au premier ordre ; mais on peut difficilement prétendre avoir tout résolu en disant ça.

(lundi)

La mécanique quantique est-elle déterministe ?

Je clos (du moins, j'espère) cette série d'entrées sur la philosophie (métaphysique) de la physique (?) par la question suivante, au sujet de laquelle j'ai eu un débat assez animé avec des amis (et notamment un physicien) au cours d'un repas-discussion organisé sur le thème du hasard : la mécanique quantique est-elle déterministe ?

((Ma maman me dit que je devrais écrire des livres de vulgarisation scientifique. Elle n'a peut-être pas tort… D'un autre côté, je m'adresse à des lecteurs généralement déjà plus savants que la plupart des livres de vulgarisation scientifique — du moins ceux qui peuvent espérer avoir un certain succès éditorial.))

Il y a des millions d'endroits où la question est discutée, mais voici comment je peux résumer le problème :

  1. La mécanique quantique est décrite par des lois (régissant l'évolution des systèmes quantiques) qui, prima facie, sont déterministes (par exemple, pour la version la plus simple, il s'agit de l'équation de Schrödinger). Ces lois sont testées et validées par l'expérience.
  2. Mais l'interaction d'un système quantique avec un système macroscopique (décrit classiquement) fait intervenir un phénomène appelé mesure, et qui est décrit (encore une fois, prima facie) de façon probabiliste, donc non déterministe, et par ailleurs irréversible (l'écrasement de la fonction d'onde). De nouveau, la règle prédisant les probabilités d'obtenir différents résultats lors d'une mesure quantique est validée par l'expérience.
  3. Or il ne devrait pas y avoir de distinction fondamentale entre un système quantique et un système macroscopique : on aime croire que l'ensemble de l'Univers est décrit par un système unique de lois valables à toutes les échelles. Ceci soulève donc la question de savoir quelles sont les lois fondamentales, et notamment si des lois fondamentales déterministes peuvent donner des conséquences d'apparence probabiliste, ou en tout cas comment réconcilier la loi d'évolution déterministe et la règle probabiliste sur la mesure. Et la question philosophique : la mécanique quantique est-elle déterministe ? (ce qui soulève d'ailleurs une méta-question, qui est de savoir ce que la question veut dire au juste).

Du point de vue strictement physique, il n'y a pas de problème, parce que les deux parties fonctionnent expérimentalement, et peu importe que formellement elles se contredisent. Mais si on aime réfléchir à la philosophie de la physique (ou la métaphysique), on est gêné.

Ce paradoxe est illustré par la célèbre expérience de pensée du chat de Schrödinger, placé dans une boîte où un phénomène quantique (la traversée d'un photon à travers un miroir semi-réfléchissant, ensuite mesuré par un capteur) déclenche une conséquence macroscopique (selon le résultat lu par le capteur, libérer un poison qui tue le chat), avec la question de savoir à quel moment la « mesure » a lieu (quand le chat lui-même se sent mourir ? quand Schrödinger ouvre la boîte ? et que se passe-t-il si Bohr ouvre la boîte avant Schrödinger mais ne dit pas à Schrödinger ce qu'il a vu ?). Formellement, on dit que le chat est dans l'état (½√2)(|vivant⟩+|mort⟩) jusqu'au moment où on observe son état, qui devient alors |vivant⟩ ou |mort⟩ ; mais il n'est pas du tout acquis que cette description ultra-simplifiée soit correcte ou précise.

Je ne peux pas donner la réponse, parce que je n'en sais rien — personne n'en sait rien. Mais je peux donner mes 0.02 zorkmids sur le sujet.

Quand j'étais petit (oui, je sais, je parle souvent de ce que je pensais quand j'étais petit), j'étais absolument convaincu de l'interprétation suivante (Consciousness causes collapse), sans doute renforcée par la lecture du livre The Emperor's New Mind de Roger Penrose : l'Univers entre dans des superpositions d'états quantiques, et c'est notre conscience qui cause l'écrasement de la fonction d'onde, non comme un phénomène fondamental, mais en choisissant ce qu'elle voit finalement, i.e., comment elle interprète l'état quantique de l'Univers, ou, si on veut présenter les choses à la façon multi-mondes, dans quel monde nous allons. Cette interprétation me satisfaisait parce qu'elle justifiait plus ou moins, ou du moins rendait possible, une sorte de panthéisme mou (du style « nous sommes des dieux, sans forcément le savoir ») auquel je ne sais pas si je croyais mais qui me plaisait certainement bien. Maintenant, je trouve plus d'élégance, si je devais défendre ce genre de panthéisme, à le défendre dans un cadre déterministe, car nous pouvons « choisir » les conditions initiales du monde, qui sont si spéciales aussi bien que nous pouvons choisir les modes d'écrasement de la fonction d'onde. Bref, j'ai totalement changé de point de vue, et je crois maintenant (tout aussi religieusement, il faut le reconnaître) au déterminisme absolu.

Pour descendre sur un terrain un peu moins mystique, donc, la question est alors : est-il possible d'expliquer le non-déterminisme quantique comme un phénomène émergent à partir de lois déterministes ?

On sait très bien que des lois déterministes peuvent donner des conséquences chaotiques et donc en pratique imprévisibles, qui donnent l'illusion du non-déterminisme, et des phénomènes irréversibles. C'est le cas de la mécanique classique, qui a beau être complètement déterministe elle peut (facilement) conduire à des phénomènes chaotiques, donc imprévisibles, y compris dans des endroits aussi prévisibles en apparence que le système solaire ; et pour ce qui est de l'irréversibilité, la seconde loi de la thermodynamique est tout à fait déductible de lois fondamentales (déterministes et) réversibles : la seconde loi apparaît lorsqu'on oublie de l'information microscopique pour passer à une description macroscopique.

J'ai donc tendance à penser, ou du moins j'ai envie de penser, que le phénomène quantique est exactement le même : le caractère apparemment probabiliste et irréversible de la mesure d'un système quantique quand il interagit avec un système classique serait tout à fait compatible avec des lois fondamentales déterministes, et proviendrait simplement d'un comportement chaotique, et du fait qu'on oublie l'essentiel de l'information quantique quand on passe à une description classique macroscopique. Autrement dit, le résultat d'une mesure quantique devrait être prévisible par la connaissance exacte de l'état quantique du système y compris de l'appareil de mesure Ce qui est impossible en pratique vu qu'il s'agirait de connaître exactement une fonction de plus de 1024 variables ; mais possible en principe : contrairement à l'état classique d'un système quantique, qui n'est pas mesurable sans détruire le système, l'état quantique d'un système quantique est mesurable.

Ce point de vue est renforcé, mais pas complètement justifié, par le phénomène de décohérence quantique : mais il faut être bien clair, les explications à base de décohérence ne prétendent pas expliquer l'écrasement de la fonction d'onde, seulement l'apparence d'écrasement, et elles sont en fait agnostiques quant à l'interprétation métaphysique de la mécanique quantique. Je veux dire que la théorie de la décohérence va expliquer pourquoi un électron, qui est passé quantiquement à travers deux fentes, va produire une tache localisée sur l'écran macroscopique qu'on met derrière, mais ne prétend pas pouvoir prévoir de façon déterministe cette tache est apparue. La décohérence explique pourquoi un chat de Schrödinger dans l'état (½√2)(|vivant⟩+|mort⟩) n'est pas manifestement observable dans un tel état, mais elle ne prétend pas expliquer que le chat soit de fait dans l'état |vivant⟩ ou |mort⟩, ni dire si cela va effectivement se produire.

Il y a cependant un obstacle majeur à mon point de vue : si la loi fondamentale déterministe est linéaire, elle ne peut jamais expliquer l'écrasement de la fonction d'onde, car le principe de superposition vaudra à tout moment : avec la linéarité, si on tue le chat de Schrödinger en fonction de la lecture d'un photon dans l'état (½√2)(|réfléchi⟩+|transmis⟩) et que |réfléchi⟩ évolue en |vivant⟩ et |transmis⟩ en |mort⟩, on va vraiment mettre l'Univers tout entier dans une superposition quantique d'un état où le chat est vivant et un état où le chat est mort, ces deux vecteurs sont de norme 1, il n'y en a pas un qui peut écraser l'autre, et par linéarité ils ne peuvent plus interagir. On ne peut s'en sortir qu'avec des règles ad hoc (par exemple, mais pas forcément, l'action de la conscience ou une interprétation multi-mondes) expliquant pourquoi dans un état (½√2)(|vivant⟩+|mort⟩) on observe effectivement le chat comme vivant, ou comme mort. J'aimerais bien pouvoir dire que si l'état quantique microscopique du chat avant mesure a une projection plus importante selon |vivant⟩ ou |mort⟩ il va arriver dans tel ou tel état, mais je ne vois pas comment faire.

Mais la mécanique quantique est-elle vraiment linéaire ? L'équation de Schrödinger l'est, c'est indéniable, mais l'équation de Schrödinger décrit l'évolution d'une particule quantique unique dans un champ de potentiel classique. Si on commence à avoir plusieurs particules qui interagissent, on quitte le domaine linéaire… mais en fait on arrive à des problèmes sérieux, parce que quand les particules interagissent, on doit les décrire correctement avec la théorie quantique des champs (ou seconde quantification, parce que les fonctions d'ondes de la mécanique quantique — ou première quantification — deviennent elles-mêmes des opérateurs sur un espace d'états encore plus bizarre), à laquelle je ne comprends pas grand-chose et le problème est qu'il n'est pas certain que qui que ce soit y comprenne grand-chose, en fait.

Alors que des livres entiers ont été consacrés aux implications épistémologiques et philosophiques de la mécanique quantique, rien ne semble avoir été fait sur la théorie quantique des champs. Celle-ci est rarement décrite de façon mathématiquement satisfaisante (la meilleure que je connaisse étant celle-ci), et jamais de façon satisfaisante pour répondre à des questions du style : comment décrire l'état quantique complet de l'Univers (a priori, c'est un vecteur dans un espace de dimension infinie) ? l'évolution de cet état est-elle déterministe ? est-elle complètement linéaire ? et comment la réponse à ces questions influe-t-elle sur les réflexions ci-dessus ? par exemple, est-il intellectuellement concevable qu'une description quantique exacte du vide puisse permettre de prédire les fluctuations du vide ? Sans même entrer dans les théories ultérieures comme la théorie des cordes (pour laquelle j'ai, franchement, assez peu de respect) ou la loop quantum gravity (qui m'a l'air légèrement plus sérieuse, ce qui n'est pas beaucoup dire), où la question du déterminisme est évacuée en ceci qu'on ne comprend même plus ce qu'elle veut dire. Voilà qui est fort peu satisfaisant.

Je devrais peut-être faire une coda sur le libre-arbitre, parce que la raison pour laquelle les gens ont souvent un avis enflammé sur le déterminisme, c'est à cause du libre-arbitre. Je ne suis pas persuadé que la question du libre-arbitre ait un sens, en vérité, et même s'il en a un, je suis encore moins persuadé qu'il ait un rapport avec le déterminisme. Le déterminisme, c'est l'idée que l'état futur de l'Univers pourrait, en théorie, être prédit en fonction de son état actuel : mais la question n'a pas vraiment de sens en toute généralité, parce que l'Univers est unique, il se passe une chose ou il s'en passe une autre, on ne peut pas revenir en arrière pour se dire et à partir du même état, va-t-on obtenir les mêmes conséquences ?. Dans la discussion qui précède, le déterminisme est pris au sens où il existe des lois mathématiquement simples qui déterminent tout état ultérieur en fonction de l'état présent ; si on admet des lois mathématiquement compliquées, on peut toujours jouer au logicien psychorigide et dire qu'il existe effectivement une loi qui décrit complètement l'avenir de l'Univers, même si nous ne la connaissons pas a priori, et c'est juste une fonction qui à chaque instant t associe l'état de l'Univers à l'instant t. Dès lors, la question du libre-arbitre, je ne sais pas vraiment ce qu'elle signifie.

Et quand bien même elle signifierait quelque chose, je ne suis pas persuadé que la question du déterminisme y soit tellement liée. Si l'Univers n'est pas déterministe, il faut soit imaginer qu'il est probabiliste, et je ne vois pas pourquoi un cerveau régi par du vrai hasard serait plus « libre » qu'un cerveau régi par des lois déterministes. Ou alors on imagine qu'il y a des entités non-physiques (des dieux) qui font des choix à chaque fois que les lois de la physique ne sont pas déterministes : mais alors on ne fait que remonter la question du libre-arbitre d'un cran plus haut (comment ces entités-là font-elles leurs choix, et qu'est-ce que cela signifie qu'elles soient libres ?). Tout ça me paraît surtout bien nébuleux.

(vendredi)

Un peu de cosmologie, et l'ultradéterminisme

Je suis tombé un peu par hasard sur cette vidéo d'un exposé de vulgarisation du physicien Lawrence Kraus [durée : 1h05′], donné à l'invitation de Richard Dawkins, sur la cosmologie et notre compréhension actuelle de l'Univers. C'est de la vulgarisation bien faite, et j'ai moi aussi appris des choses (par exemple comment on mesure la constante cosmologique), même s'il y a des points sur lesquels je trouve qu'il aurait pu trouver de meilleures explications (il soulève la question du fait que la constante cosmologique est 10120 fois plus petite que celle que prédisent les fluctuations quantiques du vide, mais il laisse ensuite ce problème en plan, même quand il explique qu'elle est effectivement non-nulle). Pour ceux qui veulent en savoir un peu plus, l'article de Wikipédia sur le modèle standard cosmologique n'est pas mal fait, ainsi que celui sur la métrique de Friedmann-Lemaître-Robertson-Walker (je souligne notamment qu'il n'y a pas besoin de connaître la relativité générale pour comprendre les équations de Friedmann-Lemaître — d'ailleurs elles peuvent même plus ou moins apparaître en mécanique newtonienne —, ce sont des équations différentielles assez simples et assez transparentes) ; pour quelque chose de plus poussé, cette review et dans une moindre mesure celle-ci sont bien faites.

Je cite ce talk notamment parce qu'il fait le lien avec mon entrée précédente où je discutais du problème du « cerveau de Boltzmann », de la faiblesse de l'entropie de l'Univers et de son rapport avec le principe anthropique. Kraus évoque ce problème à la fin en réponse à une question d'un spectateur (sur l'infini), en considérant apparemment qu'il n'y a rien à expliquer. Mais il dit des choses intéressantes sur le principe anthropique et sur la spécialité de l'Univers : c'est-à-dire sur la question de savoir si l'Univers est le seul Univers possible (les constantes fondamentales de la physique sont absolument et mathématiquement fixées) ou au contraire s'il est tel qu'on l'observe parce que l'Univers doit permettre la vie (la réponse anthropique, donc). En fait, il s'agace de la « manie anthropique », mais il se moque aussi de la théorie des cordes (dont l'agenda est censément, justement de montrer que les constantes de la physique sont les seules possibles, mais qui n'a pas l'air vraiment capable de remplir cet agenda, ni même de sortir la moindre prédiction expérimentalement testable). Il y a des domaines où le principe anthropique est certainement correct (e.g. : nous ne vivons pas sur Jupiter parce qu'il n'y a pas de vie sur Jupiter), mais appliqué à l'Univers il est certainement plus douteux (et comme j'expliquais dans mon entrée précédente il n'explique pas que l'Univers soit si spécial), ce qui donnerait effectivement envie que l'Univers soit « le seul mathématiquement possible » dans un certain sens.

Ce qui m'amène à soulever l'idée farfelue suivante : celle que j'appellerais l'ultradéterminisme. Le déterminisme (sur lequel je veux écrire une autre entrée prochainement [ajout : c'est la suivante]) est l'idée que l'état présent de l'Univers détermine, en théorie, l'état à tout instant futur (ou passé, d'ailleurs, ce qui est une remarque plus insidieuse qu'il n'y paraît). L'ultradéterminisme serait l'idée que l'état de l'Univers à n'importe quel temps peut être, en théorie, déterminé sans aucune donnée. Autrement dit, que non seulement les constantes fondamentales de la physique seraient les seules mathématiquement possibles, mais même que les conditions initiales de l'Univers (ou, du coup, ses conditions à n'importe quel moment) seraient aussi les seules vérifiant des règles mathématiques simples, et que du coup il serait possible de tout savoir de l'Univers sans même aller l'observer. La seule chose qu'il faudrait savoir, c'est où on regarde dans l'espace et dans le temps, ce qui n'est pas forcément une mince affaire, surtout si l'espace est compliqué et présente des Univers naissant dans d'autres Univers et autres fantaisies de ce genre. Cela fait penser à mes vidéos de zoom sur l'ensemble de Mandelbrot où, justement, en choisissant uniquement où je regarde, j'arrive à produire une grande variété de formes entre les petits ensembles de Mandelbrot et de Julia qui naissent de l'ensemble de Mandelbrot. Et quiconque a assez joué avec l'ensemble de Mandelbrot ou avec des mondes générés de façon procédurale en informatique sait bien que ceux-ci peuvent être très riches : pourquoi l'Univers ne serait-il pas de la sorte ?

Cela ferait, au moins, de la science-fiction rigolote (si quelqu'un découvre une règle simple qui permet de prédire tout le passé et l'avenir à n'importe quel endroit de l'Univers, et si cette règle est effectivement calculable…).

(mardi)

Pourquoi l'Univers est-il si atypique ?

Je vais commencer par une anecdote personnelle. Quand j'étais petit, je me suis demandé ce qui arrive quand on meurt. ★ Et j'ai eu l'idée de la réponse suivante : si l'Univers est infini dans le temps, à force, il y aura bien une civilisation qui apparaîtra et qui sera suffisamment avancée et intelligente et bienveillante pour ressusciter les morts, et qui le fera (il est suffisant que cette civilisation puisse observer le passé de l'Univers avec suffisamment de précision pour mesurer l'état de mon cerveau au moment de ma mort, et le reconstruire précisément) ; peu importe le temps que ça prendra, il suffit que ça se produise, même si cela doit prendre 500 milliards d'années : alors, quand je mourrai, j'aurais l'impression de me réveiller instantanément dans une telle civilisation, et on me dira tout va bien, Monsieur, vous venez d'être ressuscité. ★ Puis, plus tard, je me suis dit : et si non ? Pourquoi penser qu'une telle civilisation naîtra forcément ? Alors, ai-je pensé, il arrivera quand même (et même si ça prend 10101000 ans), par fluctuations quantiques dans l'Univers infini, qu'apparaisse un cerveau qui continue exactement le cerveau que j'avais au moment de mourir, et ce sera comme ça que je ressusciterai — le problème étant que ce cerveau apparu par fluctuation quantique dans un Univers vide ne sera pas promis à un long avenir, et il mourra presque instantanément, et sans doute pas de façon très plaisante, pour être ressuscité de nouveau par une fluctuation quantique ultérieure (encore beaucoup d'années plus tard), ce qui signifie que je serai éternellement coincé dans un cycle infini de morts et résurrections (la période vivante durant un temps négligeable et la période morte des zilliards d'années, mais je ne sentirai que la période vivante). Pire (me suis-je dit), comme seule importera la création de ce qui faut de cerveau pour soutenir ma conscience, et je serai même sans mémoire et sans pensée, plongé dans une abîme de chaos. ★ Voilà, je venais de m'imaginer une version scientifique du paradis et de l'enfer. Je ne sais pas si j'ai jamais vraiment cru à l'une ou à l'autre de ces hypothèses, mais je me rappelle que la seconde idée m'a beaucoup angoissé (j'imaginais une éternité constituée de fractions de secondes où mon cerveau apparaît entouré de chaos, pour être aussitôt oblitéré).

Je pense maintenant que ces réflexions enfantines sont surtout les conséquences logiques d'une vision assez naïve de la conscience (« pour que je ressuscite, il faut et il suffit de recréer mon cerveau », ou même un petit bout de mon cerveau dont j'imaginais qu'il soutenait presque magiquement ma conscience — peut-être la glande pinéale). En fait, les questions soulevées sont profondes (ce qui ne veut pas dire qu'il y ait forcément des choses intelligentes à dire dessus — wovon man nicht sprechen kann, darüber muß man schweigen), mais ce n'est pas ce dont je voulais parler aujourd'hui (voyez plutôt de vieilles entrées comme celle-ci).

La question préoccupante soulevée, qui est à la fois une question scientifique assez sensée et une interrogation métaphysique profonde, est la suivante : pourquoi l'Univers n'est-il pas plein de chaos ?

C'est un peu difficile à expliquer pourquoi c'est une question naturelle et importante, compte tenu de ce que nous savons de la physique, ou d'ailleurs quel est le rapport avec ce que je disais juste avant. Peut-être que je devrais laisser la parole à cette vidéo (d'un exposé à TED) qui expose le problème probablement mieux[#] que je ne saurais. Mais je vais quand même essayer.

Compte tenu de ce que nous savons de la physique, si l'Univers est infini dans le temps ou d'ailleurs dans l'espace (ou s'il y a, dans un certain sens, une infinité d'Univers, que ce soit « en parallèle » ou en succession dans le temps), on doit croire que par fluctuations quantiques, tout ce qui est matériellement possible finira par se produire. Le problème se pose déjà en physique statistique classique (si on attend suffisamment longtemps, il viendra un moment où tous les atomes d'air de cette pièce seront concentrés dans un centimètre cube dans le coin), et la mécanique quantique prévoit que ce phénomène se produit même dans le vide : des particules apparaissent de nulle part et disparaissent généralement un court instant plus tard. Je dis généralement, parce que si on attend assez longtemps (assez longtemps voulait dire très très très longtemps, mais ce n'est rien devant l'infini), il apparaîtra n'importe quelle configuration de particules et même arbitrairement longtemps. Y compris mon cerveau (ou toute chose qu'on pourrait qualifier de mon cerveau, dans tous les états possibles, une infinité de fois, et pour des durées arbitrairement longues). Voire, la Terre entière, ou toute notre galaxie, ou tout ce que nous pouvons observer actuellement de l'Univers.

La réaction (sensée), quand on fait de la physique, c'est de se dire : on s'en fout, ces fluctuations quantiques majeures se passent dans un temps tellement long qu'elles ne nous préoccupent en rien.

Mais la question qui doit se poser est aussi : comment savons-nous, au juste, que nous ne sommes pas actuellement dans une telle fluctuation ? Après tout, dans toute l'histoire infinie de l'Univers, il apparaît régulièrement des cerveaux de David Madore qui se demandent suis-je dans une fluctuation quantique ? probablement pas, et parmi ces cerveaux de David Madore, il y en a une infinité qui a tort (en fait, ils sont dans une fluctuation quantique et disparaissent très rapidement) et au plus environ un qui a raison. Pourquoi suis-je persuadé d'être celui-là ? Pourquoi suis-je persuadé d'être environ 13.7 milliards d'années après le Big Bang et pas 10101000 années après, dans une fluctuation quantique qui se trouve donner l'illusion que je suis environ 13.7 milliards d'années après le Big Bang ? On a tendance à répondre parce que c'est beaucoup plus simple de supposer cela que ceci, mais qu'est-ce que simple signifie ? (Comme je l'ai expliqué, pour la majorité écrasante des cerveaux de David Madore dans l'histoire de l'Univers et qui observent un Univers apparemment vieux de 13.7 milliards d'années, c'est, en fait, une illusion. Il est difficile d'expliquer pourquoi on devrait supposer que les choses sont « simples » quand la majorité des choses sont « compliquées ».)

[Ajout : On me signale que le nom standard de cette hypothèse est le cerveau de Boltzmann.]

Cette question admet énormément de variantes (il n'est d'ailleurs pas forcément évident d'expliquer le rapport entre elles). La version plus physique et moins métaphysique est : l'entropie du Big Bang est très faible, beaucoup plus faible que ce que peut expliquer l'explication usuelle (le principe anthropique), à savoir elle est faible parce que si l'Univers était chaos, nous ne serions pas là pour l'observer : cette explication ne marche pas, parce qu'elle prédit que l'Univers devrait être juste assez ordonné pour que nous soyons là pour l'observer (ou, en fait, pour que mon cerveau existe et se fasse cette réflexion), or apparemment ce n'est pas le cas, puisque nous observons un monde ordonné assez vaste (dans le temps et dans l'espace) autour de nous.

Une autre variante que j'aime bien (et que je présentais plus en détails ici), même si elle est plus délicate à expliquer est la suivante : soit U l'Univers actuel, avec toute son histoire, entre U(0) le Big Bang et U(13.7Gyr) l'instant présent. Maintenant, construisons un Univers U′ comme ceci : je décide que U′(13.7Gyr) va être très semblable à l'instant présent de l'Univers U, mais je fais un très petit changement, disons dans les ailes d'un papillon en Nouvelle-Zélande, tout le reste étant absolument identique. Maintenant, comme les lois de la physique (pour autant que nous les connaissions) sont déterministes vers le futur et le passé, je peux simuler l'Univers U′ soit vers le futur (ce n'est pas très intéressant, il ressemble grosso modo à U, au moins au début, et même si des différences importantes vont apparaître, elles ne sont pas vraiment passionnantes, disons en tout cas que si on voyait un film du futur de U′, on le trouverait plausible), mais aussi vers le passé. Et là les choses sont catastrophiquement différentes : si je regarde un film de l'histoire U′ en m'approchant de t=0, je vais avoir l'impression d'évoluer vers le futur et pas vers le passé, parce que l'entropie augmente (c'est un fait général : si on considère une situation physique typique, et qu'on trace son évolution dans un sens ou dans l'autre du temps, l'entropie augmente dans les deux sens : ce n'est pas le cas de l'Univers U — dont l'entropie diminue vers le passé — justement parce qu'il n'est pas typique, et c'est précisément ce que souligne le paradoxe dont je parle). Dans l'Univers U′, la « flèche du temps » pointe dans les deux sens en s'écartant de l'instant que j'ai pris comme point de départ. Autrement dit, si je regarde une cascade d'eau sur Terre, elle va couler dans le sens contraire entre U et U′ pour des instants inférieurs à mon point de départ (ou plutôt, dans le cône de lumière de passé de mon papillon). Et si je remonte carrément jusqu'au Big Bang (car en t=0, l'Univers U′ a aussi un Big Bang — encore qu'on ne sait pas vraiment si on ne doit pas plutôt le qualifier de Big Crunch vu que le temps apparaît inversé), ce Big Bang est très différent du Big Bang de U, il est beaucoup plus grumeleux, son entropie est beaucoup plus grande. La question est alors : pourquoi croyons-nous être dans l'Univers U plutôt que dans l'Univers U′ (dans lequel tous nos souvenirs du passé seraient des illusions), alors même que les Univers de ce type U′ sont beaucoup plus nombreux ? (Une autre question est à quoi ressemble l'Univers U′ il y a environ un an, et s'il y a dedans un processus qui pourrait ressembler à la vie. Je n'ai vraiment aucune idée à ce sujet.)

La situation est un peu la suivante : on a un singe qui tape censément au hasard sur une machine à écrire. Notre conception de la physique dépend plus ou moins du fait que ce singe tape effectivement au hasard. Voilà qu'on passe à côté de ce singe et qu'on remarque qu'il a tapé correctement l'acte III de Hamlet de Shakespeare. Est-il raisonnable de supposer qu'il a tapé les actes I et II avant ? Est-il raisonnable de penser qu'il tapera les actes IV et V après ? Si le singe tape vraiment au hasard, la réponse est assurément : non : on est en présence d'une coïncidence invraisemblable, mais il n'y a aucune raison de penser qu'elle durera, le singe devrait taper des choses ressemblant à klxjfs sdfkl.jsdf sd,fwerev banana ook ook arwecvwgp et pas Alas, poor Yorick! I knew him, Horatio. Après tout, si le singe tape infiniment longtemps, il tapera infiniment souvent l'acte III correctement, et l'immense majorité des fois il ne tapera pas les actes I et II avant ni les actes IV et V après. Ou alors on peut remettre en question l'hypothèse que le singe tape au hasard, en se disant qu'une coïncidence pareille est vraiment trop incroyable. Mais cela soulève alors la question : selon quelle règle tape-t-il ? Si c'est vraiment un singe, l'explication la plus vraisemblable est que quelqu'un me fait une blague. Mais si je trouve le texte de Hamlet codé de façon transparente dans les décimales de pi ? (Évidemment nous pensons que le texte de Hamlet se trouve effectivement dans les décimales de pi, puisqu'il se trouve dans les décimales de presque tout nombre réel, mais on s'attend à ce qu'il se trouve tellement loin que si on le recontrait effectivement vers la cent mille milliardème décimale, on en serait plus qu'un peu abasourdi.)

Si je croyais en Dieu, je sortirais certainement ça comme argument pour démontrer son existence : l'Univers est tellement incroyablement spécial que croire en un Créateur fournit une explication facilement tentante. La réponse usuelle apportée par le principe anthropique (c'est celle que suggère Dawkins dans The God Delusion), l'Univers est si spécial parce que s'il ne l'était pas, nous ne serions pas là pour l'observer ne convient pas parce que l'Univers est encore beaucoup plus spécial que ce qui serait nécessaire pour expliquer notre présence pour l'observer (un cerveau dans une mer de chaos). Pire encore, parmi tous les Univers possibles où existe une espèce vivante semblable à l'espèce humaine, dans la grande majorité d'entre eux cette espèce n'est pas venue là suite à un processus d'évolution par sélection naturelle mais par une sorte d'apparition spontanée (je ne sais pas exactement à partir de quoi, il faudrait savoir à quoi ressemble le passé de l'Univers U′ dans mon exemple plus haut, mais c'est probablement une sorte de soupe de matières organiques). Voilà qui apporterait de l'eau au moulin des cinglés religieux s'ils étaient capables de comprendre l'argument. (Si j'étais taquin, je suggérerais plutôt celle-ci.) Manifestement c'est une connerie, mais personne ne semble capable de fournir une vraie explication meilleure que l'Univers est tel qu'il est, c'est comme ça et c'est tout (et le singe a tapé le texte de Hamlet, ce sont des choses qui arrivent).

(On peut, bien sûr, remettre en question certaines des hypothèses standard sur les lois de la physique faites pour arriver au problème — que ce soit le fait que l'Univers est infini dans le temps ou dans l'espace ou le fonctionnement des fluctuations quantiques ou la réversibilité des lois de la physique — mais je crois que c'est rater la substance du problème que d'attaquer par là. Outre qu'une considération métaphysique ne devrait pas avoir des répercussions sur ce qu'on croit en physique, le problème ressurgit sous tellement de variantes différentes que ce n'est pas en attaquant les détails qu'on va le résoudre. L'état de l'Univers est très surprenant, nous ne sommes pas du tout dans un Univers typique, même pas dans un Univers typique capable de supporter la vie ou la supportant effectivement, il n'y a quasiment aucune hypothèse de physique là-dedans.)

[#] À un truc près, c'est quand il décrit l'Univers proche du Big Bang comme smooth pour dire qu'il a une entropie basse, et un peu plus tard l'air de la pièce comme smooth pour dire qu'il a une entropie élevée. C'est vrai (les systèmes gravitationnels évoluent vers des grumeaux quand leur entropie augmente, alors qu'un fluide au contraire s'homogénéise), mais c'est plutôt confusant et pas utile dans ce qu'il raconte.

(vendredi)

Petit cours sur les trous noirs : (I) introduction à la relativité

Comme je l'ai promis il y a déjà un moment, je voudrais tenter de faire, au cours de prochaines entrées, un petit cours sur les trous noirs. Comme toujours, je vais tenter de faire une présentation de sorte qu'elle apporte quelque chose quel que soit le niveau de connaissance préalable du lecteur (i.e., que ma maman puisse en comprendre des bouts sans pour autant que ça ennuie les gens plus compétents), et comme d'habitude je vais probablement échouer pathétiquement dans ce but impossible. Par ailleurs, comme je ne finis jamais ce que je commence (ne serait-ce que parce que mon intérêt est très volatile), tout ceci va certainement terminer en queue de poisson, mais ce n'est pas une raison pour ne même pas commencer.

Pour continuer dans les disclaimers, je dois rappeler que je ne suis pas physicien mais mathématicien. Ce qui m'intéresse dans un trou noir, ce n'est pas tant la physique réelle, c'est la physique idéale ou les mathématiques. Je ne parlerai donc qu'en passant de la réalité des trous noirs dans l'Univers (par exemple, de quelle manière dont ils se forment, quelles masses ils peuvent avoir, s'ils ont des disques d'accrétion, et encore moins des autres objets voisins des trous noirs comme les étoiles à neutrons, et je n'évoquerai pas du tout les trous noirs quantiques ou l'évaporation de ceux-ci ou ce genre de choses) : je ne suis pas spécialement compétent à ce sujet, il y a d'excellents articles de vulgarisation à ce sujet un peu partout sur le Web, et je ne peux que renouveler ma recommandation de lire le livre de Jean-Pierre Luminet, qui est vraiment excellent. Par exemple, un des objets dont je devrais parler en même temps que les trous noirs, ce sont les trous blancs : or ces objets, très vraisemblablement, n'existent pas du tout physiquement, parce qu'ils sont thermodynamiquement instables (je vais en dire un mot, et je vais expliquer très sommairement pourquoi, « à la place » du trou blanc, dans le monde réel, il y a une sorte de photo gelée de l'étoile mourante qui a donné naissance au trou noir) ; mais ils sont mathématiquement intéressants, parce que toute l'élégante symétrie des trous noirs impose de regarder aussi leur facette « trou blanc », et la vidéo que j'ai produite récemment, qui montre un observateur en train de tomber dans un trou noir et de ressortir par un trou blanc, relève de ce genre d'intérêt mathématique plutôt que physique. Bref, je vais plutôt chercher les expériences de pensées que les phénomènes réels. (À ce sujet, si je dois recommander un livre à d'éventuels lecteurs mathématiciens qui seraient intéressés par la relativité générale, c'est le livre The Geometry of Kerr Black Holes de Barrett O'Neill, qui m'a été d'une aide précieuse pour produire mes vidéos ; mais il est, pour le coup, vraiment purement mathématique, et ne suggère aucune expérience, fût-elle de pensée, pour aider à « décoder » la façon dont les trous noirs apparaissent.)

Je vais, au passage, chercher à dissiper certains mythes sur les trous noirs, et tâcher de répondre à répondre à des questions du type que verrait-on si… ?, en soulignant l'importance de certains aspects pas forcément très médiatisés des trous noirs, comme les sphères de photons.

Tout ceci étant dit, de quoi s'agit-il ? Un trou noir, même ma maman sait ça, c'est un objet tellement compact que la gravitation fait que rien ne peut s'en échapper, même pas la lumière. Ceci mérite déjà un certain nombre d'éclaircissements.

D'abord, la gravitation n'est pas magiquement plus forte pour des objets de type « trou noir ». Pour être bien clair : si le soleil était remplacé par un trou noir de la même masse au même endroit, cela ne perturberait pas les orbites du système solaire (cela perturberait certainement d'autres choses, à commencer par la vie sur Terre, faute de lumière apportée, mais la mécanique céleste continuerait de façon inchangée) : les planètes ne seraient pas aspirées par le trou noir. En fait, c'est un fait assez remarquable que, pour un objet sphérique (ce qui est avec une bonne approximation le cas du soleil, et d'un trou noir qui tourne lentement), la gravitation qu'il produit dépend uniquement de sa masse et de la distance à laquelle on l'observe : une sphère pleine immobile, une sphère creuse idem, un trou noir de Schwarzschild ou n'importe quoi d'autre qui ait une symétrie sphérique, pour une masse et une distance données, produisent exactement les mêmes effets. Et à moins de s'approcher vraiment de la région où le trou noir est trou noir, ces effets sont décrits en bonne approximation par les lois de Newton (d'ailleurs, avec la bonne interprétation, c'est même le cas à n'importe quelle distance des trous noirs de Schwarzschild). Du coup, si le trou noir a un effet gravitationnel si important, c'est tout bêtement si, et parce que, on s'en approche de très près ; et si c'est possible, c'est parce que l'objet est très compact. Voici qui devrait rendre la chose déjà moins mystérieuse. Pour fixer les idées, pour faire un trou noir avec un objet de la masse de la Terre, il faut la concentrer dans un rayon de 9mm : il n'y a rien de très mystérieux au fait que, si on avait toute la masse de la Terre concentrée à une distance de moins d'un centimètre de nous, on sentirait quelque chose d'assez violent, puisque, d'après ce que je viens de dire, déjà à 6400km cette masse produit les effets gravitationnels que nous ressentons au sol.

(samedi)

Chute dans un trou noir, la pièce en cinq actes

Je n'ai pas encore eu le temps d'écrire de la vulgarisation sur les trous noirs comme je l'ai promis, mais en attendant j'ai retrouvé un article que j'avais écrit en 1996 pour le journal du lycée Louis-le-Grand (Virus) et qui accompagne fort logiquement la vidéo que j'ai publiée il y a quelques jours : Trou Blant (pièce en cinq actes) (que vous pouvez aussi trouver sur l'archive des anciens numéros de Virus, il s'agit du numéro 10 (juin 1996), pages 11–18). C'est mon poussinet qui est tombé dessus alors que nous cherchions mon exemplaire du livre de Luminet sur les trous noirs.

Il faut préciser que tout cela est plein de private jokes qui étaient propres au lycée Louis-le-Grand à cette période (je suppose que maintenant elles ont changé) : par exemple, il était traditionnel que chaque article contînt une invocation, sous la forme des majuscules de plusieurs mots consécutifs, à Bon Escient Rarement Utilisés, d'un certain Béru, qui était le surnom que nous donnions (en référence à San Antonio) à un conseiller d'éducation très haut en couleurs ; et d'autres mots ou allusions apparaissent de même à peine cachés un peu partout dans le texte. Mon propre surnom dans ce journal était EVT1729 (les trois lettres étant l'abréviation d'un des volumes des Éléments de mathématiques de Bourbaki, celui où il est question d'espaces tonnelés, les chiffres étant un nombre connu pour une anecdote célèbre impliquant Ramanujan), et mes articles prenaient généralement la forme de dialogues entre Achille et la Tortue, en référence à un célèbre livre de Douglas Hofstadter (et, à travers lui, Lewis Carroll et Zénon d'Élée) : pour cet article-là, qui parlait de physique (alors que normalement c'était plutôt des maths), j'avais remplacé Achille par Castor et Pollux (un clin d'œil au paradoxe des jumeaux) et la Tortue par une Taupe et un Blaireau (dans un milieu de taupins, la Taupe était fort logiquement tenue en haute estime et le Blaireau en exécration complète, d'où leur rôle de la gentille et du méchant dans ma petite pièce, dont je suis désolé de vous gâcher ainsi l'insoutenable suspens).

Ceci étant, malgré les blagues en question, j'avais fait un travail assez minutieux pour écrire cet article, et j'aurais dû l'évoquer quand j'ai retracé l'historique de mon intérêt pour les trous noirs. J'ai sous-estimé d'un facteur 10 la masse du trou noir au centre de la galaxie d'Andromède, mais je n'avais pas de Wikipédia pour me renseigner à l'époque ; mais je pense que je m'étais fatigué à calculer au bout de combien de temps un voyageur, qui serait en orbite directe autour d'un trou noir (de 13 millions de masses solaires et de moment cinétique à 85% de la maximalité) à la distance de l'orbite lumineuse rétrograde verrait revenir sur lui un rayon lumineux envoyé vers l'arrière : j'avoue avoir la flemme de refaire le calcul maintenant pour savoir si je ne me suis pas trompé il y a quinze ans. En beaucoup plus inutile, je m'étais aussi emmerdé à dessiner (en écrivant du PostScript à la main), jusqu'aux décorations de la fenêtre, la capture d'écran imaginaire qui figure sur la page numérotée 12 pour le simple plaisir d'y mettre une private joke (je ne sais pas de quel langage de programmation il peut s'agir, mais la ligne erronée devrait probablement dire alias ('Einstein',G)). Je devais avoir vraiment trop de temps à perdre quand j'étais ado. Par contre, comme je ne comprenais vraiment pas la manière dont un trou noir pouvait devenir un trou blanc de façon qu'on pût en ressortir, j'ai esquivé la question.

(lundi)

Vidéo de chute dans un trou noir

Je l'avais promise hier, voici la vidéo en question, qui dure 43″.

Vue combinée (960×720)Vue avant (640×480)
Sur YouTube :Vue combinéeVue avant
Par BitTorrent :Format WebM (VP8)Vue combinée (13Mo)Vue avant (11Mo)
Format AVI (H.264)Vue combinée (17Mo)Vue avant (15Mo)

(Comme je fais d'habitude pour les fichiers un peu gros, ces liens pointent vers des méta-fichiers BitTorrent pour récupérer les fichiers eux-mêmes. Si BitTorrent ne marche pas, ce qui est malheureusement souvent le cas, retirez l'extension .torrent pour accéder directement au fichier lui-même.)

Je n'ai pas le temps de commenter tout ça pour l'instant (il y a cependant une description et des annotations dans la version sur YouTube en vue combinée, qui est celle que je recommande a priori), donc je vous promets les explication pour plus tard. Disons juste que cela représente la chute d'un observateur dans un trou noir de Kerr d'une masse d'environ 1000000 de masses solaires, et d'un moment cinétique à 80% de la maximalité : l'observateur entre dans un univers et ressort dans un autre, après avoir franchi quatre horizons. Toutes les choses représentées sont des grilles en longitude/latitude sur des sphères : les horizons (en rouge pour les horizons externes et en vert pour les horizons internes), une sphère lointaine en bleue pour montrer la déformation des étoiles lointaines, et une sphère dans l'espace négatif en magenta. Dans la vue combinée, le quadrant en haut à gauche montre la vue avant (la direction « avant » est définie de façon un peu arbitraire, en fait), le quadrant en haut à droite la vue arrière (opposée à « avant »), le quadrant en bas à gauche montre une coupe polaire et un diagrame de Penrose avec la trajectoire suivie et la position actuelle, et le quadrant en bas à droite montre les coordonnées de Boyer-Lindquist. J'expliquerai un autre jour ce que tout cela signifie. En attendant, si c'est du chinois pour vous, commencez par regarder cette vidéo qui évoque le cas considérablement plus simple de la chute dans un trou noir sans rotation (trou noir de Schwarzschild), ou bien celle-ci, qui présente certains des concepts essentiels.

(dimanche)

Je me promène dans les trous noirs de Kerr

C'est une idée (je l'évoquais d'ailleurs dans une entrée passée, et elle a été suivie de commentaires) que je traîne depuis un moment. Depuis plus de vingt ans, en fait : quand j'avais treize ans on m'a prêté le livre de Jean-Pierre Luminet sur les trous noirs (je vois d'ailleurs qu'il est encore édité, et c'est une bonne chose, parce que c'est de l'excellente vulgarisation à mettre entre toutes les mains) — et j'ai été complètement fasciné, en particulier par la description des trous noirs en rotation, ceux qui sont modélisés par une solution des équations de la relativité générale appelée la métrique de Kerr.

Il faut dire que la métrique de Kerr est riche en gadgets qui titillent l'imagination. Un trou noir qui ne tourne pas[#] (ou trou noir de Schwarzschild), c'est assez tristounet, il y a une sphère autour de lui, appelée l'horizon des événements, passée laquelle il est impossible de revenir en arrière, et quand on tombe dedans on est inexorablement amené à toucher la singularité centrale : ce n'est pas bien passionnant. (En fait, je suis injuste, il y a quantité de choses à dire même sur le trou noir de Schwarzschild, par exemple sur la stabilité des orbites ou sur la sphère de photons, ou sur l'extension analytique maximale.) Mais le trou noir de Kerr, lui, il est vraiment rigolo : il n'y a pas un horizon mais deux ; il y a aussi des bricoles appelés les limites statiques ; et il y a une singularité en anneau, à travers laquelle on peut passer et arriver dans un espace mystérieux appelé l'espace négatif ; il y a une sorte de machine à remonter le temps au cœur du trou noir ; et par-dessus le marché, on peut passer à travers le trou noir pour relier des univers parallèles (et ça, s'il y a un gadget qui a servi à la science-fiction, c'est bien ce phénomène de trou de ver). Du moins, ce que j'énumère là, c'est ce qui m'a semblé fascinant, en tant que garçon de treize ans, dans la vulgarisation que j'en ai lue.

Mais ce n'est pas la même chose d'être fasciné et de bien comprendre. J'aurais voulu savoir un peu plus précisément comment ça se passe, quand on rentre dans un trou noir de Kerr et qu'on va regarder tous ces gadgets. Qu'est-ce qu'on voit, quand on traverse un trou de ver ? Comment est-ce qu'on peut voir ces univers parallèles que le trou noir de Kerr relie ? Ils apparaissent sur une carte de Penrose, mais cela ne parle pas vraiment à l'imagination. Par où faut-il passer, au juste, pour les atteindre ? Voilà des choses que j'aurais voulu savoir. (Et dès lors, je me comportais en fait plus en matheux qu'en physicien : parce que le physicien est fondé à répondre que tous ces gadgets, notamment les univers parallèles, n'existent que dans le trou noir de Kerr en tant qu'idéalisation mathématique d'un trou noir éternel ; un vrai trou noir physique ne relie probablement pas des univers parallèles, ou en tout cas pas de la façon élégante et symétrique que propose la métrique de Kerr.)

Je n'étais pas sans arme pour répondre à ces questions : je connaissais déjà un peu de relativité générale (avant même d'être mis en contact avec le livre de Luminet, je connaissais la métrique de Schwarzschild), et par ailleurs un des très bons amis de ma famille est l'astrophysicien Brandon Carter, dont la renommée est à plusieurs titres liée aux trous noirs de Kerr (il en a décrit l'extension analytique maximale, c'est-à-dire justement ce qu'on vulgarise en parlant d'univers parallèles ; il a découvert que les géodésiques en sont complètement intégrables, ce qui simplifie immensément le calcul de trajectoires dans cet espace ; et il a participé à la preuve du théorème no hair, qui prédit que les trous noirs sont complètement décrits par un tout petit nombre de paramètres physiques, et donc que le trou noir de Kerr est tout à fait typique). On m'a donc donné la métrique de Kerr (je veux dire, on m'a écrit sa forme mathématique), et j'ai essayé de faire des calculs dessus. J'ai essayé, parce que c'est faramineusement compliqué, surtout que je ne savais pas bien m'y prendre (je connaissais un peu de relativité générale, ai-je dit, mais uniquement la formulation classique à la Riemann-Christoffel, pas la formulation à la Cartan qui peut énormément simplifier les calculs ; et je ne connaissais pas les fameuses intégrales premières du mouvement) ; j'ai mis à contribution plusieurs logiciels de calcul formel, mais à l'époque (je parle du tout début des années '90), ils n'étaient pas bien doués pour faire grand-chose.

Mon but aurait été de faire des simulations de mouvements autour d'un trou noir de Kerr, pour arriver si possible à « comprendre » comment celui-ci fonctionnait. J'ai bien réussi à faire quelques simulations simples, mais il y avait toutes sortes de problèmes (numériques, notamment : d'une part je ne connaissais pas la méthode de Runge-Kutta pour la résolution numérique des équations différentielles, ou peut-être que je n'en avais pas saisi l'intérêt ; d'autre part, dans la métrique de Kerr, je ne connaissais que les coordonnées de Boyer-Lindquist, qui sont les plus simples mais ne permettent en aucun cas de simuler des trajectoires traversant des horizons : du coup, il était totalement désespéré d'espérer comprendre comment on passerait à travers un trou de ver dans cette histoire). J'ai laissé tomber, mais j'ai gardé l'idée dans un coin de la tête : il devrait être possible non seulement de faire de telles simulations, mais même de faire une animation montrant ce que voit un observateur traversant le trou noir. (Calculer une image ou une animation demande de faire du raytracing, sauf qu'il s'agit d'un raytracing particulièrement compliqué où chaque pixel de chaque image demande de dérouler l'équation différentielle des géodésiques de l'espace-temps du trou noir pour suivre la trajectoire du photon en question. C'est donc un calcul numérique particulièrement intensif que de toute façon les ordinateurs de l'époque auraient été parfaitement incapables de mener — en tout cas ceux que j'avais à ma disposition.)

Fast-forward jusqu'en 2008 (cela devait être pendant l'été et je m'ennuyais), où je ne sais plus comment, je suis retombé sur un livre de relativité et sur la métrique de Kerr, et je me suis dit que peut-être que, les ordinateurs ayant progressé et mes connaissances en géométrie aussi, je pouvais reprendre le projet que j'avais abandonné quinze ans plus tôt. J'ai lu les articles de Brandon Carter de 1966 et 1968, et le livre de Barrett O'Neill sur la géométrie de la métrique de Kerr. Je ne vais pas rentrer dans les détails techniques (en tout cas pas dans cette entréee-ci), mais après avoir affronté toutes sortes d'instabilités numériques affreuses, et d'erreurs dans les signes et dans les changements de coordonnées, j'ai produit un programme extrêmement robuste pour simuler les trajectoires autour, dans et à travers le trou noir. C'est à cette occasion que j'ai compris comment fonctionnait le système d'univers parallèles, et que pour passer de l'un à l'autre (pour faire fonctionner le trou de ver) il faut non pas jouer avec la singularité mais simplement franchir les horizons en sens inverse, car cela est bien possible. J'ai repris un peu les choses en 2009, parce que mon premier programme utilisait des coordonnées polaires qui étaient numériquement instables quand on passait trop près de l'axe, et j'ai pu corriger ce problème. Mais mon programme restait très laid, et je n'avais pas le courage d'en faire une version pour le raytracing.

J'ai encore une fois mis les choses au chaud. Et je les ai ressorties récemment pour faire enfin une version qui calcule des images. Après avoir passé tellement de temps à raconter l'historique de tout ceci, je n'ai plus le temps de décrire de quoi il s'agit au juste, donc ce sera pour une prochaine entrée [ajout : c'est la suivante; voir aussi celle-ci et cette introduction aux trous noirs, ainsi et surtout que cette page à part consacrée aux trous noirs de Kerr où j'ai rassemblé toutes mes images], mais en attendant voici quand même une image d'un trou noir de Kerr :

[Vue d'un trou noir de Kerr][Même vue, zoomée]

(Il s'agit de deux images prises quasiment sur le plan équatorial, à une distance de 12.5 rayons de Schwarzschild, pour un trou noir de Kerr tournant à 80% de la maximalité, et zoomées à deux niveaux différents. La grille rouge correspond à une grille en longitude et latitude placée sur l'horizon externe, côté « trou blanc », dont on remarquera que les deux pôles sont simultanément visibles. Le vert correspond à l'horizon interne, mais il y en a en fait deux différents, visibles à gauche et à droite. La grille bleue est une grille polaire identique placée à assez grande distance du trou noir. Enfin, la toute petite tache violette à peine visible au centre de l'image est bordée par la singularité. J'en dirai plus une autre fois. Mais pour un vrai trou noir physique, on ne verrait bien sûr que du noir… à la place de tout le rouge et le vert.)

J'ai commencé à mettre une vidéo sur YouTube (vous la trouverez sans doute facilement), mais je me suis rendu compte que j'avais oublié de faire tourner les grilles sur les horizons, ce qui est navrant (un trou noir qui tourne mais qui ne tourne pas, c'est ridicule), donc il faut que je recalcule. J'en ferai donc la pub ultérieurement.

[#] Je passe sur les trous noirs chargés comme celui de Reissner-Nordström, parce qu'ils ne sont pas très réalistes physiquement, et parce qu'à mes yeux ajouter l'électromagnétisme dans l'histoire retire à la pureté de la relativité générale.

(mardi)

Powers of Ten

Beaucoup connaissent sans doute déjà le célèbre film scientifique Powers of Ten de Ray et Charles Eames, qui présente la taille relative des choses dans l'Univers, et des puissances de dix, par un zoom à travers le cosmos, entre un panorama qui englobe de nombreuses galaxies et l'intérieur d'un proton dans la peau d'un homme qui dort après un pique-nique à Chicago (ce pique-nique constituant la scène initiale du film, et le milieu du zoom). Sinon, je vous encourage à le voir (cf. aussi ici).

Je l'ai vu pour la première fois en 1984 au Ontario Science Centre (quand mes parents et moi habitions Toronto) — ce même musée des sciences dont je me plaignais il y a trois ans qu'il était devenu juste une attraction ludique pour gamins. Il y avait une petite salle où il passait en boucle, et mon père et moi (mon père surtout, mais moi aussi) en étions fans et nous l'avons vu de nombreuses fois.

Sauf que c'est un peu plus subtil : il y a deux versions du film. Celle que j'ai vue et revue en 1984, c'est la version de 1968, qui est en noir et blanc si je me rappelle bien. Plus tard, le Science Centre a changé et a mis la version de 1977, en couleur (je crois que je l'ai vue en 1988 quand nous sommes retournés à Toronto pour un été), et c'est cette version-là qu'on voit maintenant partout (y compris sur le lien vers YouTube que je donne plus haut). La différence notable entre la version de 1968 et son remake, c'est que la version ancienne, dans la partie du voyage des puissances de dix qui zoome vers l'extérieur et vers le cosmos, affichait les effets relativistes (le temps qui s'écoule pour le voyageur et le temps qui s'écoule sur Terre, notamment, au fur et à mesure que la vitesse s'approche de celle de la lumière). Cela a probablement été jugé trop difficile à comprendre et un peu hors sujet, et éliminé de la version suivante. Mais mon père aimait beaucoup mieux cette première version, et a été déçu quand le film a changé.

Toujours est-il que la version de 1968 est apparemment introuvable sur le Web. C'est dommage. Il y a cependant un DVD, trouvable sur Amazon (mais uniquement d'occasion), qui contient apparemment les deux versions : du moins si j'en crois un commentaire qui confirme mon souvenir à ce sujet :

The primary difference between the two versions is that in the first version, there is a side window kept running throughout the movie, which shows the effect of relativity on the time-keeping of ten seconds per order of magnitude of meters travelled. Around the time the "camera" pulls back from 10-to-the-13th to 10-to-the-14th meters, the subjective time-sense of the camera operator would start to be strongly affected by relativity, because the "camera" would start to be travelling at a significant fraction of the speed of light. Gradually, subjective and Earthly time-sense gets so far out of whack that ten seconds for the cameraman would be 100,000,000 years on Earth. This might have the effect of prompting the philosophically-inclined viewer to get the screaming meemies, but it's better not to sweat the phiosophical details too much. Just ride with it, baby. Anyway, evidently, the producers decided that the additional feature of the relativistic clock was too distracting, and they pulled it from the final version. Here in this video, we get to see both versions of the film, which is a pretty tremendous experience.

J'hésite un peu à l'acheter, mais bon, c'est quand même un peu cher (et généralement acheter un article d'occasion chez Amazon.com quand on n'habite pas aux États-Unis signifie passer par plein d'étapes très compliquées pour finalement s'entendre dire que ce n'est pas possible de livrer là où on est).

(mercredi)

Laser violet

Les lecteurs de longue date de ce blog se rappellent que je m'étais acheté un pointeur laser vert il y a quelques années. Ces choses sont autrement plus fascinantes que les bêtes pointeurs laser rouges : à puissance égale, ils sont incomparablement plus brillants, on voit même la tache sur une surface ensoleillée, et la nuit le rayon lumineux lui-même est visible. Ce n'est pas seulement plus amusant : la luminosité en plus a vraiment son intérêt et quand il s'agit d'attirer l'attention d'un auditoire, le point vert ultra-brillant d'un laser de 532nm fonctionne beaucoup mieux que la tache d'un laser rouge.

Quelques mots de plus sur la différence entre les pointeurs laser verts et les rouges. D'abord, les pointeurs laser verts (en tout cas, ceux qu'on trouve de nos jours à des prix raisonnables un peu partout) ne sont pas des vrais lasers verts : ce sont des lasers infrarouge qu'on fait passer par un milieu non-linéaire pour doubler sa fréquence ; c'est même encore plus compliqué que ça (une diode laser AlGaAs de 808nm est utilisée pour pomper un deuxième milieu Nd:YAG ou Nd:YVO4 qui lase à 1064nm, et c'est cette lumière-là dont la fréquence est doublée par un cristal KTP pour descendre à 532nm) : le résultat est qu'on perd pas mal en puissance et j'imagine en qualité optique, et que le dispositif peut chauffer (il ne faut pas laisser le laser allumé en permanence, sous peine de l'abîmer). Il y a des recherches en cours pour fabriquer une vraie diode laser verte, mais pour l'instant ça semble très difficile et exorbitant en prix. En tout état de cause, tous les pointeurs laser verts qu'on trouve dans le commerce sont d'une longueur d'onde de 532nm, soit un vert très légèrement bleuté, dont l'efficacité lumineuse est de 606lm/W, ce qui signifie qu'un laser de ≲5mW (la limite entre les classes IIIa et IIIb, donc ce qu'on vous vend habituellement) fait du 3lm, ce qui n'est pas énorme en soi (une ampoule à incandescence de 100W, le genre qu'on ne trouve plus en Europe, émet environ 1500lm), mais concentré dans une tache de peut-être 3mm² ça fait un éclairement d'autour de 1000000lx, soit quelque chose comme dix fois l'éclairement solaire direct en plein jour.

Les pointeurs laser rouges, eux, sont des vrais lasers : ils émettent une longueur d'onde entre 630nm et 680nm. Il doit exister plusieurs variantes, une à 635nm (probablement la plus chère), une à 645nm et une à 671nm, mais je ne suis pas très sûr de ces histoires ; il y a d'ailleurs des pages qui ne se mouillent pas et qui décrivent leur produit en donnant un intervalle assez large, probablement parce que le vendeur lui-même ne sait pas quelle est la longueur d'onde de son produit (s'il mérite le nom de laser, a priori, il n'y en a qu'une seule). Quoi qu'il en soit, dans cet intervalle-là, la longueur d'onde ne change quasiment pas la couleur qui sera perçue par l'œil humain, un rouge légèrement vineux : ce qui change énormément avec la longueur d'onde, c'est l'efficacité, entre 11lm/W et 190lm/W dans l'intervalle 630nm–680nm, comme quoi on a intérêt à chercher la longueur d'onde la plus faible possible pour faire un pointeur rouge assez brillant. Si j'en crois l'étiquette, le mien est à 650nm, c'est 76lm/W, donc 0.4lm pour ≲5mW, soit environ 8× moins brillant que le vert, ce qui semble coller au moins vaguement avec ce que j'observe.

J'ai bêtement perdu ce laser vert il y a trois semaines : je l'avais apporté pour faire passer les oraux (lors d'une présentation de TIPE, il y a un dialogue constant entre le candidat et les examinateurs, et il est très pratique de pouvoir désigner facilement un emplacement au tableau pour poser une question, signaler une erreur ou attirer l'attention pour toute autre raison), je l'ai bêtement laissé dans la salle où nous interrogions en pensant que, comme elle était fermée à clé, il n'y avait aucun risque, et pourtant il a disparu. C'est un peu contrariant vu qu'il avait coûté, quand même, une grosse centaine d'euros (et qu'indépendamment de ça je m'étais vaguement attaché à l'objet). J'ai dû finir les oraux au pointeur laser rouge (d'où la confirmation expérimentale de ce que je dis ci-dessus : c'est beaucoup moins efficace).

Je m'en suis racheté un (chez ThinkGeek parce que l'endroit où j'avais acheté le précédent traite un peu ses clients non-US comme de la merde), et j'ai profité de l'occasion pour acheter un pointeur laser violet, à 405nm (le laser des blu-ray, en fait), à l'extrémité de ce que l'œil humain peut percevoir (en-dessous de 390nm, on considère qu'on est dans l'ultra-violet). C'était un peu cher et il fallait des piles à la con (deux CR2), mais c'est très intéressant : certes, ce n'est vraiment pas très lumineux (l'efficacité à cette longueur d'onde est de 3.4lm/W — on voit qu'on est vraiment à la limite de la détection humaine —, donc mon laser doit faire dans les 0.015lm), mais d'une part la couleur est très belle (c'est le violet profond inimitable de ce qu'on voit des lampes à UV et des pétunias violets). Et d'autre part elle est assez loin dans le spectre pour causer la fluorescence de toutes sortes de choses (comme quoi il n'y a pas que les UV stricto sensu qui causent la fluorescence[#]) : notamment, quand on éclaire une feuille de papier blanc, ou un vêtement blanc (blanchi aux azurants optiques), la tâche passe du violet au bleu ; et j'imagine qu'éclairer un verre de Schweppes doit être intéressant aussi (le Schweppes fluoresce dans le bleu à cause de la quinine qu'il contient : c'est pour ça que le Gin&Tonic est populaire en boîte de nuit quand il y a des lampes à UV). Du coup, malgré sa faible luminosité, ce laser doit pouvoir fonctionner pas mal comme pointeur laser.

Il existe d'autres couleurs de pointeur laser : le bleu-vert de 473nm, par exemple, mais il est vraiment cher, ou même le le orange de 594nm, mais il n'est pas du tout donné non plus. J'attendrai que ça baisse en prix avant d'investir là-dedans.

[#] En fait, j'ai aussi observé de la fluorescence au laser vert : Quiès vend des petits bouchons pour oreilles en mousse de trois couleurs fluo (rouge, orange et vert), et les rouges et les orange, quand on les éclaire avec le laser vert, s'illuminent en jaune (ce n'est pas qu'un effet de rouge+vert=jaune, puisque si on éclaire n'importe quel autre objet rouge ou jaune avec le laser vert, il apparaît, fort logiquement, vert — il faut vraiment un effet non-linéaire pour faire naître une couleur différente à partir d'une lumière monochromatique).

(lundi)

Comment les neutrinos « oscillent »

On entend pas mal parler en ce moment des oscillations des neutrinos. Je trouve que c'est en général très mal expliqué, alors voici ma tentative pour vulgariser le phénomène. (Je précise que ce qui suit contient un certain nombre d'approximations scientifiques, dont je suis conscient, et par ailleurs je ne suis pas physicien mais mathématicien. Je pense néanmoins que ce n'est pas trop faux et que ce sera plus sérieux que ce qu'on trouve généralement comme vulgarisation scientifique dans la presse généraliste. ☺)

Les neutrinos sont trois particules du modèle standard (cf. aussi ici) qui ont au moins deux particularités : (1) elles sont très légères, et (2) parmi les quatre forces fondamentales de la physique, elles ne ressentent que la force nucléaire faible et (très vraisemblablement) la gravitation, c'est-à-dire en particulier qu'elles n'ont pas de charge électrique ni de charge nucléaire forte (couleur) ; puisque la force nucléaire faible est, comme son nom l'indique, très faible, et la gravitation encore beaucoup beaucoup beaucoup plus faible (la raison pour laquelle nous l'observons dans notre vie est qu'elle s'accumule à l'échelle macroscopique contrairement aux autres forces qui ont plutôt tendance à se neutraliser), les neutrinos interagissent très peu avec le reste du monde. En fait, la Terre est bombardée en permanence de neutrinos venus du Soleil (quelques dizaines de milliers de milliards traversent chacun de nous chaque seconde), et la grande majorité se contentent de ressortir de l'autre côté sans avoir « vu » la Terre.

Néanmoins, de temps en temps, un neutrino interagit avec la matière, et on arrive parfois à le détecter (et à en déduire combien il y en avait puisqu'on sait quelle proportion subit ce sort). La réaction principale qui fait intervenir des neutrinos dans la physique pas trop exotique est la désintégration bêta−, qui transforme un neutron en proton avec émission d'un électron et d'un antineutrino (l'antiparticule du neutrino), ou ses différents avatars, par exemple un neutron qui capture un neutrino pour devenir un proton en émettant un électron ; dans le Soleil, les neutrinos sont produits par les réactions de fusion (comme le cycle de Bethe) lorsqu'un proton de noyau d'hydrogène est transformé en neutron de noyau d'hélium.

En fait, les choses sont un chouïa plus compliquées : il y a trois espèces de neutrino, et le neutrino dont il est question au paragraphe précédent (celui qui apparaît ou disparaît quand un proton se transforme en neutron ou vice versa) s'appelle neutrino de l'électron, parce qu'il est associé à des réactions avec un électron (dans une interaction, localement, le nombre total d'électrons plus neutrinos d'électrons, en comptant négativement les antiparticules, ne doit pas varier : donc si la réaction crée un électron, elle doit aussi absorber un neutrino de l'électron ou créer un antineutrino correspondant). Il existe aussi un neutrino du muon, et un neutrino du tau, le muon et le tau(on) étant quelque chose comme des versions lourdes de l'électron, ce genre de particules qui n'existent que dans les rayons cosmiques et les accélérateurs, pas la matière normale. Ces trois particules, le neutrino de l'électron, le neutrino du muon et le neutrino du tau, méritent d'être qualifiées de vecteurs propres des interactions faibles, car ce sont des particules définies par le fait qu'elles interagissent, via la force nucléaire faible, avec d'autres particules.

Jusqu'à il n'y a pas si longtemps, on pensait (ou on faisait semblant de penser) que les neutrinos n'avaient pas de masse : qu'ils se déplaçaient donc à la vitesse de la lumière. Seulement, le problème suivant se posait : on comprend assez bien les réactions nucléaires qui se produisent dans le Soleil, et on sait donc estimer le nombre de neutrinos que le Soleil doit produire. Comme je l'ai dit, ce sont des neutrinos de l'électron. On sait aussi assez mesurer le nombre de neutrinos qui nous atteignent, mais seulement les neutrinos de l'électron. Comme ces particules n'interagissent à peu près avec rien, on peut estimer le nombre de neutrinos qui nous arrivent à partir de celui que le Soleil doit produire. Problème : on trouve quelque chose entre le tiers et la moitié du nombre de neutrinos qu'on devrait trouver. Où sont passés les autres ?

L'explication donnée habituellement est que les neutrinos se sont transformés, des neutrinos de l'électron au départ sont devenus, à l'arrivée, des neutrinos du muon ou du tau ; après le trajet du Soleil à la Terre, les trois espèces se sont mélangées, si bien qu'environ un tiers seulement des neutrinos de l'électron sont restés des neutrinos de l'électron. Cette explication est juste, mais elle est trompeuse : elle donne l'impression qu'il s'est produit une interaction dans l'espace, ce qui n'est pas le cas ; et surtout, elle n'explique pas du tout pourquoi le fait que les neutrinos aient une masse a un rapport avec cette « oscillation ».

Une explication plus correcte serait la suivante : le neutrino de l'électron, neutrino du muon, et neutrino du tau, ne sont pas des vraies particules. Il faut que j'explique ce que je veux dire par là.

La théorie quantique des champs est lourdement basée sur l'algèbre linéaire : c'est-à-dire que les choses qui l'habitent (si on me permet d'agiter un peu les mains) peuvent faire l'objet de combinaisons linéaires, appelées superpositions quantiques : un phénomène popularisé par l'« expérience » du chat de Schrödinger, qui se trouverait dans un état superposé entre vivant et mort (quelque chose comme (vivant+mort)/√2). C'est aussi le cas des neutrinos.

Il faut imaginer que l'espace des neutrinos est un espace à trois dimensions. Ce que j'ai appelé neutrino de l'électron, neutrino du muon et neutrino du tau, ce sont trois directions (orthogonales) dans cet espace, c'est une base de cet espace au sens de l'algèbre linéaire, mais ce n'est pas forcément la meilleure base. C'est la base, pour ceux qui connaissent un peu d'algèbre linéaire, obtenue en diagonalisant l'interaction faible avec l'électron, le muon et le tau. Tant que les neutrinos n'ont pas de masse, il n'y a pas de raison de penser qu'une base serait meilleure qu'une autre.

Mais quand ils ont une masse, et surtout, quand ils ont trois masses différentes, alors il y a une autre base naturelle de trois particules : c'est la base des particules qui ont vraiment une masse (la base orthonormale qui diagonalise l'opérateur de masse) ; on va donc les appeler neutrino léger, neutrino moyen et neutrino lourd (façon de parler : même le plus lourd des trois est extrêmement léger), collectivement qualifiés de vecteurs propres de la masse. L'ennui, c'est qu'on ne connaît vraiment pas bien cette base, on ne connaît même pas les masses (=les valeurs propres) ; on sait seulement qu'elles (ou au moins deux d'entre elles) sont distinctes. Si les trois masses étaient identiques, il n'y aurait pas de directions privilégiées associées à la masse ; le fait qu'elles soient distinctes assure qu'il y en a. Et toute autre direction n'est pas une vraie particule, au sens où elle n'a pas vraiment de masse (de la même façon que le chat de Schrödinger n'a pas d'état vivant-ou-mort), il y a juste une combinaison quantique entre des particules de différentes masses.

En particulier, le neutrino de l'électron n'est pas une vraie particule : c'est une superposition quantique entre neutrino léger, neutrino moyen et neutrino lourd, probablement avec plus de neutrino léger dedans forcément un peu des trois ; idem pour le neutrino du muon et le neutrino du tau. Ou, pour dire les choses autrement, quand un neutron se désintègre en un proton, un électron et un antineutrino de l'électron, ce dernier est en fait une combinaison, une superposition quantique, de l'antineutrino léger, du moyen et du lourd — et si on pouvait observer directement sa masse, on trouverait dans la plupart des cas que c'est un léger, parfois que c'est un moyen et parfois que c'est un lourd (il y aurait réduction de la superposition quantique, comme quand on observe le chat de Schrödinger).

Maintenant, on n'observe pas les masses directement, donc il est plus pertinent de nommer les particules d'après les interactions faibles qui sont, après tout, la façon dont on les détecte. Mais alors, vous allez me dire, je n'ai toujours rien expliqué : si un neutrino de l'électron est superposition quantique de telle proportion du neutrino léger, telle proportion du moyen et telle proportion du lourd, pourquoi ne traverse-t-elle pas l'espace dans les mêmes proportions ? C'est que, tout de même, la masse a son importance : les neutrinos sont émis avec une énergie bien définie, mais leur quantité de mouvement (si vous ne savez pas ce que c'est, imaginez leur vitesse, qui est très très légèrement plus faible que celle de la lumière) dépend de leur masse ; donc ce que j'ai appelé neutrino de l'électron, est émis par le Soleil, et qui est une combinaison des neutrinos léger, moyen et lourd, se propage dans l'espace mais pas en bloc : le lourd va plus lentement que le moyen, qui va plus lentement que le léger ; ou, si vous voyez le neutrino comme une onde (ce qu'il est aussi), les trois ondes dans les trois directions de mon espace à trois dimensions représentant les neutrinos se déphasent lentement, et quand on arrive sur Terre, la direction de la somme a complètement changé — mon neutrino a « oscillé ». Pourtant, il n'y a eu aucune espèce d'interaction dans l'espace, juste trois particules qui se sont propagées à des vitesses très légèrement différentes.

Le même phénomène se produit avec les quarks, mais on le traite différemment : parmi les six quarks (down, up, strange, charm, beauty et truth[#]), on pourrait définir le down, strange et beauty (ce sont ceux qui ont une charge négative) d'après leur masse, et ensuite définir les quarks copain-du-down, copain-du-strange et copain-du-beauty comme ceux qui interagissent avec le down, strange et beauty par les interactions faibles (de façon analogue à neutrino de l'électron, neutrino du muon et neutrino du tau) ; seulement, ce ne sont pas des vraies particules au sens qui-ont-une-masse-bien-définie, et, les masses des quarks étant carrément plus élevées que celles des neutrinos, ça se voit vraiment. Donc on définit le up, le charm et le truth pour avoir une vraie masse, et du coup le copain-du-down, copain-du-strange et copain-du-beauty sont des combinaisons du up, du charm et du truth ; on peut mesurer expérimentalement ces combinaisons, et elles sont décrites par la matrice de Cabibbo-Kobayashi-Maskawa.

(Normalement, là, je devrais continuer en essayant d'expliquer pourquoi le fait qu'il y ait trois familles et pas juste deux est essentiel parce que c'est seulement à partir de trois familles qu'on voit que cette matrice, ou la matrice analogue pour les neutrinos et qui est encore très mal connue, matrice qui vit dans SU(3), peut avoir une composante essentiellement complexe, et que c'est cela qui explique la violation de la symétrie CP, et, peut-être, le fait qu'il y ait plus de matière que d'antimatière dans notre Univers. Mais j'avoue que ma logorrhée a atteint les limites de ma patience, donc je vais m'arrêter là.)

(mercredi)

Pourquoi la physique utilise-t-elle des mathématiques ?

Puisque mes quelques dernières entrées étaient décidément dans le mode « métaphysique et science », j'en fais encore une :

La filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a gli occhi (io dico l'universo), ma non si può intendere se prima non s'impara a intender la lingua, e conoscer i caratteri, ne' quali è scritto. Egli è scritto in lingua matematica. (La philosophie [c'est-à-dire : la physique] est écrite dans ce grand livre qui est continûment ouvert à nos yeux (je veux dire l'univers), mais on ne peut le comprendre que si d'abord on apprend à en comprendre la langue et à reconnaître les caractères dans lesquels il est écrit. Il est écrit en langue mathématique.) — Galileo Galilei, Il Saggiatore (1623), chap. VI

Voilà encore une question qui me fascine : pourquoi la physique fait-elle appel aux mathématiques ? Et les questions que cela sous-entend : est-ce un fait profond sur notre Univers (comme Galilée le suggère dans le passage que je cite ci-dessus), ou est-ce simplement lié à la façon dont nous comprenons la physique ? Est-ce un fait fondamental de la physique ou simplement lié à l'utilité des mathématiques pour comprendre n'importe quel phénomène émergent ? Pourquoi les autres sciences[#] n'utilisent-elles pas autant les mathématiques, ou pas de la même façon ou (pour reprendre la description un peu élitiste et provocatrice que Hardy fait dans l'Apologie d'un mathématicien) pas des mathématiques élégantes ? Est-ce parce que ces sciences sont plus complexes que la physique, trop pour être mathématisées ? Parce que nous ne les comprenons pas assez bien ? (Dans la vision comtéenne, elles n'auraient pas encore atteint le stade positiviste.) Ou parce qu'intrinsèquement elles ne se plient pas autant à l'analyse mathématique ? Parce que ce ne sont pas des sciences exactes ?

Et voici une question apparentée, et pas forcément plus facile : pourquoi la physique n'utilise-t-elle qu'un petit sous-ensemble des mathématiques, et celui-ci admet-il une description plus simple que la partie des mathématiques à laquelle la physique fait appel ?

Par exemple, la physique fait — au moins apparemment — abondamment appel à la notion de nombre réel. Le monde qui nous entoure a l'air de dépendre lourdement de la notion de nombre réel. Même ma maman a une idée de ce qu'est un nombre réel : pour le non-mathématicien, c'est un nombre à virgule, qui pourrait s'écrire en théorie avec une précision aussi grande que voulue (et plus on ajoute de décimales, plus on est précis). Toutes les grandeurs qui nous entourent, les tailles des objets, les durées dans le temps, les vitesses, les masses, les grandeurs électriques, etc., semblent mesurées par des nombres réels.

Pourtant, mathématiquement, il existe plein d'autres sortes de nombres sur lesquels on aurait pu imaginer a priori que la physique reposât. Les nombres p-adiques semblent le candidat le plus évident : les nombres p-adiques partagent beaucoup de propriétés en commun avec les nombres réels, il y a de très importantes et élégantes symétries entre eux (les nombres réels prenant essentiellement la place des nombres ∞-adiques, et je n'utilise pas le mot place au hasard). Mais, pour autant que je sache, les nombres p-adiques n'ont aucune application en physique (malgré des tentatives pour leur en donner, qui ressemblent plus à une volonté de les rechercher à tout prix qu'à une théorie basée sur l'expérience). Non seulement cela, mais même dans des sciences basées très indirectement sur la physique, les nombres p-adiques ne jouent aucun rôle alors que les nombres réels sont omniprésents : la somme d'argent présente sur mon compte en banque est peut-être un rationnel (de dénominateur divisant 100), mais il faut clairement le considérer comme un nombre réel et non comme un p-adique quel que soit p (par exemple, si c'était un 7-adique, il serait presque pareil d'avoir 403536.07€ sur son compte que d'avoir 0€ ce qui, de toute évidence, n'est pas le cas). Bizarrement, même l'informatique semble avoir très peu besoin de nombres 2-adiques alors qu'elle est intrinsèquement binaire (et les calculs avec débordements dans les nombres en représentation binaire sont exactement des calculs approchés dans les entiers 2-adiques).

Je peux imaginer plusieurs raisons pour lesquelles les nombres p-adiques ne semblent pas exister dans la nature, dont au moins les suivantes :

J'avoue avoir énormément de mal à imaginer à quoi pourrait ressembler un univers où (disons) les 2-adiques joueraient un rôle important (et ce n'est pas faute de bien comprendre ce qu'est un nombre 2-adique, je pense). Il est donc aussi possible que la question soit aussi stupide que de demander pourquoi je ne vois jamais −42 moutons dans un pré, chose également difficile à imaginer. Mais je préfère prendre le risque de poser des questions stupides que celui de ne pas en poser d'intelligentes. ☺

Les p-adiques ne sont qu'un exemple : pourquoi la physique n'utilise-t-elle jamais de nombres ordinaux ? (D'ailleurs, pour commencer, pourquoi les mathématiques en-dehors de la logique n'utilisent-elles quasiment jamais de nombres ordinaux ?) Utilise-t-elle E8 ou les tentatives de le voir apparaître sont-elles du wishful thinking ? Je ne sais pas si la physique gagne à se poser ce genre de questions, mais j'ai du mal à concevoir qu'on puisse ne pas se les poser.

[#] Enfin, ce n'est pas vrai : il y a une autre science qui utilise aussi lourdement les mathématiques, c'est l'informatique. Mais il y a quelque chose à dire sur le fait que si la physique est vraiment une branche à part car elle étudie le monde matériel, l'informatique, elle, est finalement une branche des mathématiques — celle que les mathématiciens sont trop snobs pour reconnaître comme telle. — Comme le disait éloquemment Dijkstra : Computer science is no more about computers than astronomy is about telescopes.

(samedi)

Poste de transformation électrique

À part le fétichisme des sphères, je dois avouer ici aussi mon intérêt pour le porno de l'éléctricité de puissance (insérez ici une vidéo de Nicolas Tesla avec des yeux exorbités émettant un rire diabolique).

[Station électrique]J'y pense parce que mon poussinet et moi avons passé un bon moment, en nous promenant tout à l'heure pas loin de chez mes parents, à admirer un poste électrique haute tension (peut-être de transformation 300kV→90kV). Mais il y a une chose que je regrette, c'est que si j'ai une idée générale de comment fonctionne le réseau électrique (j'avais d'ailleurs dû signaler par le passé ce document très intéressant), je suis incapable de dire à quoi servent chacun des éléments d'un tel poste. Pourquoi, par exemple, est-il utile de dresser des câbles aériens (longs de quelque chose comme 70m) alors que visiblement les courant qui arrive et repart est amené par des câbles souterrains ? Pourquoi voit-on (c'est assez clair sur la photo ci-contre, vers la droite) côte-à-côté des isolateurs verts (probablement en verre) et des isolateurs marrons, à quoi peut-il donc servir de mettre deux isolateurs en parallèle ? D'ailleurs, à quoi sert-il de mettre un isolateur qui ne sert pas à retenir mécaniquement un câble ? (Là, ils ont visiblement tiré des câbles qui descendent des câbles aériens vers un isolateur : je ne comprends pas à quoi ça peut servir.) Et à quoi servent les petits anneaux de métal qui entourent le sommet de certains isolateurs (mais uniquement la variante marron) ? Peut-être que ce ne sont pas des isolateurs : mais alors que sont-ce ?

Je n'ai aucune idée de comment je pourrais avoir la réponse à ce genre de question, c'est dommage.

(jeudi)

Quelques réflexions en vrac sur l'énergie

Cette note est très mal écrite et je le sais : ça part dans tous les sens, je ne finis pas mes idées, il n'y a pas de fil directeur… Je la publie quand même telle quelle parce que je n'ai pas le temps (et plus l'envie) de la remanier et qu'elle est peut-être intéressante malgré tout, notamment par le peu de thermo que j'y raconte.

Je me plains régulièrement de la façon dont les gens manquent complètement du sens des ordres de grandeur. Par exemple en faisant des économies de bouts de chandelle tout en consentant à des dépenses pharaoniques à côté (et/ou en ne se rendant pas compte que le temps qu'ils perdent à faire ces économies de bouts de chandelle est beaucoup plus précieux que les économies réalisées). Ou, dans un ordre d'idées semblable, en affichant un comportement « écolo-responsable » (ou, bien pire, en faisant la morale à d'autres à ce sujet) sur des actions qui sont l'équivalent écologique de réparer un robinet fuyant goutte à goutte quand il y a une canalisation pétée à côté. Non, je ne suis pas du tout persuadé que d'éteindre un téléviseur plutôt que de laisser en veille soit un comportement préférable (il est possible que le téléviseur dure un peu moins longtemps, et que cette différence fasse plus qu'annuler le bénéfice ; mais, de toute façon, le problème est plutôt que ces mêmes personnes se voulant responsables vont changer de téléviseur inutilement). Et, tant que j'y suis, si je suis d'accord avec l'idée générale de remplacer des ampoules incandescentes par des ampoules fluocompactes, LED, ou au moins halogène, le fait de les interdire dans toutes circonstances me semble d'une crétinerie sans nom (parce qu'il y a des cas où les incandescentes sont effectivement plus écologiques).

Mais dans le domaine de l'énergétique à portée écologique, ce qui m'énerve le plus, ce sont les gens qui n'arrivent pas à comprendre que : en hiver, si on chauffe chez soi avec des radiateurs électriques thermostatés, alors il est à peu près impossible de gaspiller de l'énergie. Je comprends que le concept d'énergie soit un peu compliqué pour le non-scientifique moyen, mais enfin, quand même, ceci ne devrait pas être si difficile à avaler : quasiment toute l'énergie électrique consommée (par une ampoule allumée, un ordinateur qui tourne en permanence, une plaque de cuisson qu'on aurait oubliée, que sais-je encore…) se retrouve forcément sous forme de chaleur dans la pièce et, tant qu'on n'en arrive pas à chauffer la pièce largement au-dessus du réglage du thermostat, ce sera exactement autant de moins que les radiateurs auront à fournir.

Oui, en hiver (si vous vous chauffez à l'électrique avec thermostat, je répète), vous pouvez allumer les lumières autant que vous voulez, vous ne consommerez pas d'électricité en plus — sauf dans la mesure où vous éclairez l'extérieur, mais de toute façon si vous êtes prêt à laisser les volets ouverts il est probable que la perte de chaleur de chauffage par ce côté-là noie complètement ce que pourrait représenter une perte de lumière. Et sauf dans la mesure où laisser une ampoule allumée l'use (mais je pense que c'est plutôt le fait de l'allumer ou de l'éteindre qui fait ça, donc il vaut mieux la laissée allumée en permanence). En fait, il suffirait qu'il y ait un effet subtil du genre « les éclairages tamisés donnent une impression psychologique de froid et incitent à augmenter un petit peu le chauffage » (je n'en sais rien, ce n'est qu'un exemple) pour qu'il devienne énergétiquement plus rentable d'éclairer vivement. Et de même, en hiver, il est probablement préférable, dans les locaux chauffés, de laisser les ordinateurs en fonctionnement permanent, parce qu'on ne dépense pas d'énergie en plus à les faire participer au chauffage, en revanche on évite l'usure des disques dus aux arrêts et redémarrages trop fréquents (or, recycler un disque dur, ce n'est pas complètement anodin).

(lundi)

Sauvons l'histoire-géo… mais pas la physique ?

Les médias ont assez largement relayé un appel signé par des intellectuels[#] demandant que l'histoire-géographie ne soit pas reléguée au rôle de matière optionnelle en terminale scientifique (comme il est prévu de le faire dans une quarante-douzième réforme du lycée).

L'ironie de cet appel, bien sûr, c'est que la physique et la biologie sont depuis bien longtemps complètement absentes (même sous forme optionnelle, je crois) dans les terminales littéraires : les intellectuels dont on parle ne semblent pas s'en être beaucoup émus. Pas plus qu'ils ne semblent s'émouvoir de la disparition, parallèle, de l'enseignement obligatoire des mathématiques dans ces mêmes terminales littéraires.

Chacun prêche pour son clocher ? C'est surtout très caractéristique, je trouve, du mépris puant qu'ont pour les matières scientifiques cette catégorie d'intellectuels qui considèrent que les matières littéraires sont les matières nobles, celles qui forment le bon citoyen, alors que les matières scientifiques, malgré ou plutôt à cause de l'importance qui leur est donnée pour sélectionner les élites[#2], sont juste des techniques bonnes à servir les ingénieurs.

Qu'on juge un peu par les citations qu'on peut relever dans cet article : Quels citoyens voulons-nous pour demain ? (s'interrogent-ils) ; selon Madame Carrère d'Encausse, l'absence d'enseignement d'histoire-géographie dans aux terminales scientifiques les priverait de la culture générale la plus élémentaire qui forme l'entendement des citoyens ; le président de l'association des professeurs d'histoire-géographie déplore : Trop d'élèves seront privés d'un enseignement indispensable à leur culture générale. […] Dans une vision utilitariste de la société, tout enseignement qui ne débouche pas sur un métier concret est mal vu. Je souscrirais volontiers à la lamentation de cette dernière phrase, si le contexte ne rendait pas évident le dédain affiché, par contraste, pour les matières scientifiques : qui seraient utilitaristes, qui feraient moins partie de la culture générale la plus élémentaire[#3], qui ne formeraient pas autant l'entendement des citoyens.

Moi aussi je peux jouer à ce genre de phrases méprisantes pour montrer que ma matière elle est Vachement Importante :

Anyone who cannot cope with mathematics is not fully human. At best he is a tolerable subhuman who has learned to wear shoes, bathe, and not make messes in the house. — Robert A. Heinlein (Time Enough for Love)

Plus sérieusement, je suis d'accord que c'est bien dommage qu'on supprime l'enseignement obligatoire de l'histoire-géo en terminale scientifique. Néanmoins, s'il y a une chose que je reconnais, c'est mon ignorance en matière de pédagogie à ce niveau : je n'ai aucune idée sur la bonne façon de concevoir un système éducatif et un ensemble de programmes au niveau du lycée, et le problème de transformer des djeunz écervelés en citoyens responsables ressemble à la quadrature du cercle, alors je m'abstiendrai de donner des leçons et, en tout cas, je conçois très bien qu'il faille faire des compromis douloureux. Celui de ne pas avoir d'histoire-géo obligatoire en terminale scientifique est certainement douloureux, mais pas moins que celui de ne pas avoir depuis longtemps ni physique, ni biologie, dans les terminales littéraires : on semble avoir bien digéré ce dernier, donc on devrait peut-être avaler l'autre pilule avec la même tristesse résignée.

Ajout (2009-12-07T18:30+0100) : L'argument suivant me semble sensé : il est dommage que la filière S se spécialise trop vers les sciences, car actuellement la filière L est trop spécialisée vers les lettres et exclut complètement des débouchés scientifiques, donc ceux qui veulent se garder des portes ouvertes au niveau du bac peuvent encore faire S. Je n'ai pas vraiment d'avis sur le fond : il est peut-être dommage que la filière L soit trop spécialisée, ou peut-être au contraire que la S ne le soit pas assez, ou que les gens accordent trop de crédit aux matières scientifiques pour les débouchés ultérieurs — pour ma part, je n'en sais rien, mais l'argument est au moins recevable, je ne me prononce pas plus à son sujet. Je dis juste que la façon dont certains ont défendu l'enseignement de l'histoire-géographie en terminale S dans une pétition bien précise sont assez puants de mépris.

[#] Vous avez remarqué que, pour les journalistes français, un intellectuel, c'est un écrivain, un philosophe, un historien, un humaniste — mais certainement pas un chercheur en informatique !

[#2] Il va de soi que je trouve ça tout aussi stupide.

[#3] Je serais curieux, comme ça, de savoir si Mme Carrère d'Encausse a des idées, disons, sur le fonctionnement d'Internet, sur la taille de l'Univers, sur la composition d'une cellule eukaryote ou sur le principe du moteur à explosion, qui soient moins naïve que celles d'un élève moyen entrant en terminale scientifique sur la seconde guerre mondiale. Malheureusement, on n'apprend jamais la réponse à ce genre de questions.

(dimanche)

J'aimerais comprendre un peu la théorie quantique des champs

Quand j'étais petit, j'ai essayé de comprendre la physique. (Et c'est pour ça que je suis devenu mathématicien. ☺)

Il faudra que je raconte une autre fois comment j'ai appris un peu de physique classique — dans ce livre (destiné, je crois, aux étudiants américains en médecine). Et surtout comment je me suis jeté avec passion sur la relativité générale, comment je suis devenu mordu de trous noirs et que j'avais pour projet j'avais pour projet de réaliser un jeu informatique dont le but serait de contrôler un vaisseau au voisinage d'un trou noir en rotation. (Il s'est avéré que, vers 1990, les logiciels de calcul formel n'arrivaient pas à simplifier convenablement les symboles de Christoffel de l'espace-temps de Kerr, du coup c'était inextricable. Ce n'est finalement que l'an dernier que j'ai codé le programme d'intégration des géodésiques, et je n'ai plus trop envie d'en faire un jeu. Par contre, je garde dans un coin de ma tête l'idée de réaliser des vidéos de différents processus concernant un trou noir de Kerr, comme celle de ce que voit un observateur qui tombe librement et émerge dans un autre monde feuillet d'espace-temps différent.) Mais ceci est une autre histoire.

La physique des particules m'a fasciné très tôt. Notamment quand j'ai appris que les protons et les neutrons étaient formés chacun de trois petits machins appelés quarks ; et que ces quarks venaient en combinaisons de couleurs (trois possibles : rouge, vert et bleu) et saveurs (six possibles, up, down, strange, charm, beauty et truth[#] — enfin, à l'époque on n'en avait observé que cinq) ; et qu'en en mettant trois ensemble, dont nécessairement un de chaque couleur, on formait un baryon (à savoir up-up-down pour le proton, et up-down-down pour le neutron) : tout ça a éveillé ma curiosité, ne serait-ce que combinatoire, et j'ai voulu en savoir plus. Pendant longtemps, tous les deux ans, mon père m'a rapporté du labo une copie du nouveau Review of Particle Properties (à la fois en version pavé et en version livret[#2]) : au début, je ne lisais essentiellement que les listings de baryons et mésons, je voulais comprendre comment « fonctionnaient » ces machins fabriqués à partir de trois quarks ou d'un quark et d'un antiquark.

Rapidement j'ai compris qu'il y avait plus à comprendre que la combinatoire de choisissez trois saveurs de quarks parmi les six, et vous obtenez un baryon (ou une saveur et une anti-saveur pour un méson). Par exemple, le neutron est up-down-down, mais le Δ0 aussi, et ce ne sont pas du tout la même particule : il y a une différence de spin (mais je ne crois pas que je comprenais bien ce qu'était le spin, à l'époque), et aussi d'isospin (idem…), et accessoirement le Δ0 survit 160000000000000000000000000 fois (cent soixante millions de milliards de milliards, tout de même) moins longtemps que le neutron (mais je ne sais pas si je savais extraire cette information du Review of Particle Properties, parce qu'elle est cachée sous forme de largeur) et il a une masse 30% plus importante. Bref, dire up-down-down ne suffit pas. À l'inverse, je devais reconnaître qu'il n'existait pas trois neutrons différents, un dont le quark up serait rouge (les deux down étant vert et bleu), un dont le up serait vert et un dont il serait bleu : bon, là il était assez facile d'imaginer que les quarks échangeaient tout le temps leurs couleurs (tout en gardant un rouge, un vert et un bleu), ce qui n'est d'ailleurs pas trop faux, comme image. Autrement plus difficile à comprendre était la composition en quarks du méson π0 (le pion neutre) : ce n'est ni un quark up et un anti-quark (anti-)up, ni un down et un anti-down, mais une combinaison linéaire des deux (et selon qu'on fait la combinaison linéaire avec un + ou un −, on n'obtient pas la même particule : pour le pion, c'est − ; du coup, l'idée naïve que la paire quark-antiquark passe son temps à alterner entre up+anti-up et down+anti-down, elle est, justement, naïve).

Je suis devenu mathématicien et pas physicien. Donc certainement je n'ai pas de difficulté fondamentale — maintenant — à comprendre une combinaison linéaire, ou à saisir l'idée que quand deux opérateurs hermitiens ne commutent pas, on ne peut pas les diagonaliser simultanément[#3], et autres évidences mathématiques qui ont une grande importance en physique quantique. Pour autant, l'intuition ne vient pas forcément avec. Et même quand elle vient, la connexion entre le sens mathématique et le sens physique n'est pas facile à faire.

Je crois que je comprends maintenant assez bien les idées physiques de base de ce qui s'appelle collectivement le modèle standard de la théorie des particules (et qui décrit l'ensemble des particules élémentaires observées plus un encore hypothétique boson de Higgs, regroupées en interactions électrofaible et forte plus champs de matière), et je comprends comment tout un tas de ces choses s'organisent mathématiquement. Mais une brique essentielle me manque depuis toujours : je ne comprends pas du tout, malgré un assez grand nombre de tentatives pour y arriver, la théorie quantique des champs.

D'une certaine manière, c'est très excusable, parce qu'il y a effectivement beaucoup de difficultés mathématiques, parfois très profondes, pour définir rigoureusement la théorie quantique des champs (et certaines théories comme celle de l'électrodynamique quantique n'ont probablement pas de sens mathématique, tandis que d'autres comme la chromodynamique quantique, en ont probablement un mais c'est un problème à $1000000 de le définir rigoureusement). Mais en fait, ce que je ne comprends pas est beaucoup plus basique que les difficultés subtiles (l'apparition de quantités infinies à foison, dont il est difficile de se débarrasser proprement) auxquels je fais allusions. Je n'arrive pas à comprende les idées clés de la théorie quantique des champs. Ce qui est dommage, parce que c'est ce qui manque pour faire le lien entre des maths que je comprends et de la physique dont j'ai une petite idée (et qui me fascinait quand j'étais petit, et qui continue à me fasciner[#4]).

Assez récemment, je me suis acheté un livre assez monumental[#5] appelé Quantum Field Theory (I. Basics in Mathematics and Physics) par Eberhard Zeidler. Assez monumental, parce qu'il fait environ 1000 pages, que le volume II (que je n'ai pas encore acheté, mais je risque de le faire) en fait autant, et qu'il y a encore quatre volumes prévus derrière. Je crois que si j'avais la patience de digérer tout ça, je finirais par comprendre quelque chose à cette théorie, mais malheureusement, je manque de temps ! Tellement de choses à découvrir, tellement peu de temps à y consacrer… ☹ Je me console avec un livre au format beaucoup plus petit, les Lectures on Quantum Chromodynamics d'Andrei Smilga, qui sans éclaircir vraiment ce que je ne comprends pas fondamentalement dans la théorie quantique des champs, m'apprennent tout un tas de choses physiquement fascinantes sur les quarks et les gluons.

[#] Maintenant on est censé dire bottom et top pour beauty et truth, mais je trouve ces deux derniers termes à la fois beaucoup plus poétiques et beaucoup plus cohérents avec les autres (alors que bottom et top, ça invite vraiment à la confusion avec down et up, dont ils sort certes des analogues dans la 3e famille). Et on peut même traduire les mots en français, parler de quark étrange, charmant, beau et vrai alors que distinguer les quarks top et up en traduction, c'est pas évident.

[#2] Le Review est une sorte de bottin des particules connues, avec une fiche signalétique pour chacune qui décrit toutes ses caractéristiques mesurées, et aussi plein de tables diverses qui récapitulent toutes sortes de choses importantes en physique des particules. Ça existe en version complète, qui représente un livre assez épais, en fait (et de plus en plus épais chaque année), et aussi en version livret de poche, pour avoir tout le temps sur soi des renseignements auss importants que la masse du muon ou la durée de vie du Ω.

[#3] Remarque qui tombe un peu comme un cheveu sur la soupe, certes. Mais c'est important pour comprendre, par exemple, tous les mystères qui entourent les kaons neutres : les vecteurs propres d'étrangeté, d'interaction faible, ou d'invariance CP, sont à chaque fois deux vecteurs différemment orientés dans l'espace (de dimension 2) des kaons neutres.

[#4] Dans le genre de choses que je trouve complètement mind blowing, il y a le diagramme des phases de la chromodynamique quantique : cet article de vulgarisation (qui s'adresse cependant à des gens connaissant un peu de physique au préalable !) donne un petit aperçu de ce dont il s'agit (et de quel peut être le comportement étrange des quarks au cœur des étoiles superdenses).

[#5] Et par ailleurs très intéressant et localement très bien écrit (les explications sont très claires, et pour un matheux c'est vraiment parlant). Son principal défaut est d'être assez brouillon (il part dans tous les sens, et on finit par se perdre complètement dans son plan).

(samedi)

Encore un point de physique sur les plaques à induction

J'évoquais en passant dans une entrée précédente le fait que les plaques à induction ne créent pas d'ondes électromagnétiques mesurables parce que leur taille est beaucoup trop petite par rapport à la longueur d'une onde à 50Hz (soit 6000km), si bien que le champ électrique créé par le champ magnétique oscillant est très faible (par rapport à ce que serait le champ électrique d'une onde ayant même champ magnétique), et le champ magnétique induit par ce champ électrique est complètement insignifiant.

En fait, si ce raisonnement est assurément correct et que la conclusion l'est aussi, j'étais tout de même ignorant d'une chose importante pour les ordres de grandeur, c'est que la fréquence du courant utilisée est augmentée par rapport au courant du secteur : le champ magnétique d'une plaque à induction oscille à quelque chose comme 30kHz, pas les 50Hz du secteur (mais on est quand même loin des 2.5GHz d'un micro-ondes — la longueur d'onde pour 30kHz est quand même dans les 10km, donc la plaque est toujours trop petite pour en créer une).

Du coup, je me suis mis en demeure de trouver des ordres de grandeur raisonnables de toutes les grandeurs électromagnétiques qui interviennent dans le chauffage d'une casserole par induction, pour m'assurer qu'ils sont à peu près cohérents entre eux. Ce n'est pas évident de trouver des chiffres sur le Web, donc j'ai essayé de voir comment je pouvais mener des calculs sensés avec essentiellement aucune donnée. Voici ce que j'ai fini par rassembler comme estimations que j'espère raisonnables :

Côté casserole, si on a une casserole dont le fond pèse quelque chose comme 100g (imaginez quelque chose comme 15cm de diamètre et 0.7mm d'épaisseur, la masse volumique de l'acier étant de 8Mg/m³) et qu'on veut lui faire dissiper 700W (disons) par les courants induits, il faut une densité de puissance émise d'environ 60MW/m³, et comme cette densité de puissance vaut σE² dans un conducteur ohmique, avec une conductivité de σ=1.4MS/m pour l'acier, on cherche à produire un champ électrique E de l'ordre de 6V/m (en moyenne quadratique sur le temps et l'espace) ; et la densité de courant induite sera de l'ordre de 10MA/m².

Côté plaque (c'est-à-dire côté primaire si on voit la table à induction comme un transformateur[#]), il semble notamment que pour une puissance active dissipée (dans la casserole) d'environ 700W il y ait autour de 4 fois plus (donc dans les 3kVA) de puissance réactive absorbée dans la bobine d'induction. Ceci nous donne une idée des courants qui circulent (pour une plaque sur du 230V) : autour de I=12A (dont 3A actifs, le courant étant largement déwatté), et une impédance ressentie par la source de l'ordre de Z=20Ω (dont une partie résistive de 4Ω). Si la fréquence oscillante est de 30kHz, on peut en déduire que l'inductance qui produit le champ magnétique est de l'ordre de L=Z/ω=100µH. (Je vois que quelqu'un en vend sur le web avec une inductance cinq fois plus grande que ça — d'un autre côté, il la prévoit pour une fréquence trois fois plus petite, donc on va dire que mes ordres de grandeur ne sont pas absurdes.)

Une simple boucle de 15cm de diamètre de fil épais a une inductance de l'ordre de 100nH, donc l'inductance source doit avoir une trentaine de spires (l'inductance est quadratique dans le nombre de spires…) — ça colle avec cette photo. Ce qui signifie que le flux magnétique oscillant Φ=L·I/n qu'elle cause est de l'ordre de 40µWb, ce qui correspondrait à un champ magnétique B moyen typique de 2mT réparti sur 200cm². La force électromotrice induite par un flux de 40µWb oscillant à 30kHz est de l'ordre de 8V, donc sur une longueur de 50cm (le tour de la plaque) je trouve un champ électrique moyen de 15V/m. Comme le champ est plutôt plus important à la périphérie, c'est très cohérent avec les 6V/m moyens annoncés plus haut : je suis même surpris que mes ordres de grandeur (tous à prendre à un facteur 5 voire 10 près) tombent aussi bien, en fait.

Ce qui m'intéressait surtout était l'ordre de grandeur des champs électrique et magnétique intervenant : autour de 10V/m pour E et autour de 2mT pour B. (Pour comparaison, dans un micro-ondes à 2.5GHz, on doit avoir quelque chose comme 5000V/m pour E et 15µT pour B — le rapport entre les deux est fixé parce qu'il s'agit d'ondes.)

Il y a un autre point qui mérite d'être expliqué, comme je m'en suis rendu compte plus tard : comment se fait-il que le champ électrique induit par une plaque à induction, dont je viens d'expliquer qu'il est de l'ordre de 10V/m, suffise à dissiper d'énormes quantités de chaleur dans les métaux (ben tiens, c'est pour ça qu'on s'en sert !) alors que le champ électrique causé par un fil haute tension, qui est de l'ordre de 20kV/m (soit 2000 fois plus), lui, ne fait pas fondre instantanément tout métal ? Si j'en crois la loi d'Ohm, un métal dans un champ E=20kV/m devrait dissiper σE²=600TW/m³, soit la puissance d'une centrale nucléaire dans 10g de métal ou quelque chose comme ça : évidemment, ça ne se produit pas, tout simplement parce que le champ électrique est chassé des métaux, justement par cette conductivité — tenter de créer un champ électrique dans le métal produit un courant dedans qui accumule des charges aux bords du métal qui viennent pile-poil annuler le champ électrique. Alors pourquoi ce même phénomène n'empêche-t-il pas les plaques à induction de fonctionner ? Parce que la topologie du champ électrique n'est pas du tout la même : dans le cas d'une ligne haute tension, même si le champ oscille, c'est un champ électrostatique (l'espace entre le câble et le sol se comporte comme un condensateur), il provient d'un potentiel (c'est d'ailleurs comme ça que je l'ai calculé, en divisant 400kV de différence de potentiel par 20m de distance) et il est toujours dirigé vers les potentiels décroissants, mathématiquement il est irrotationnel — alors que dans le cas d'une table à induction, le champ électrique ne provient pas d'un potentiel (ou alors pas le même), il fait des boucles, et du courant peut circuler selon ces boucles, tournant éternellement en suivant le sens du champ électrique, sans jamais pouvoir accumuler des charges pour le compenser. Voilà pourquoi 20kV/m de champ électrostatique (donc irrotationnel) n'ont essentiellement aucune effet sauf allumer un malheureux Balisor® par-ci par-là, alors que 10V/m de champ électrique induit font bouillir l'eau dans la casserole.

[#] Pour fixer les idées : si un générateur alternatif de tension U alimente le primaire d'un transformateur dont le secondaire est relié à une résistance R, si on appelle L1, L2 et M respectivement la self-inductance du primaire, la self-inductance du secondaire et l'inductance mutuelle du primaire et du secondaire, dans le cas où le transformateur est parfait, M²=L1·L2, le secondaire voit une tension de (M/L2)U = (L1/M)U aux bornes de la résistance (et donc un courant de (M/L2)U/R), et le secondaire voit un courant calculé comme si le transformateur alimentait une résistance (L1/L2)R en parallèle avec l'inductance L1 : i.e., la puissance active est bien dissipée dans la résistance et la puissance réactive consommée ne dépend pas du secondaire. Pour les chiffres que je choisis pour la table à induction, dans le primaire on a U=230V et I=3A+j·12A, le transformateur vérifie L1=100µH, L2=100nH et M=3µH, et donc dans le secondaire on obtient une tension de 8V et une intensité de 100A à travers une résistance effective de la casserole de R=75mΩ. Les chiffres dans le secondaire ne veulent pas dire grand-chose en fait (je suis quand même surpris que le courant effectif ne soit pas plus important que ça : 10MA/m² dans un fond de casserole aux dimensions que j'ai données, ça devrait faire plus que ça). Toutefois, le fait d'utiliser ce circuit permet de se convaincre qu'on n'est pas en train d'oublier, par exemple, de tenir compte de l'induction créée par les courants dans la casserole (ils sont pris en compte, justement, par L2).

(dimanche)

La physique, c'est compliqué (ou : comment fonctionnent les Balisor® ?)

Je me rappelle avoir été un jour à table en compagnie d'un groupe d'éminents physiciens (en physique fondamentale ou en astrophysique ; tous professeurs des universités ou chercheurs au CNRS, et au moins un membre de la Royal Society). Quelqu'un a lancé la question de savoir comment fonctionnait un micro-ondes et, plus spécifiquement, des choses comme pourquoi il ne faut pas le laisser tourner à vide (et d'ailleurs, si c'est vraiment le cas) et si sa consommation varie selon ce qu'on met dedans, ou encore comment on arrive à faire des emballages métalliques qu'on peut mettre au micro-ondes. Au bout d'une demi-heure de discussion acharnée pour savoir s'il se forme ou non des ondes stationnaires dans un micro-onde à vide, ou comment les courants de Foucault circulent dans un métal, tout le monde était surtout très embrouillé et, finalement, personne n'avait une idée très précise sur le modus operandi d'un micro-ondes.

La physique, c'est compliqué, parce qu'il peut y avoir plein de principes qui ont l'air de s'appliquer en même temps, et savoir ce qui est réellement important et ce qui ne fait qu'embrouiller les choses, ou encore quand deux façons de présenter un effet sont deux visions de la même chose ou quand ils doivent s'ajouter, tout cela demande le fameux sens physique dont les physiciens aiment clamer haut et fort (et pas forcément à tort) que les mathématiciens sont tristement dépourvus. (D'un autre côté, j'ai pris plus d'une fois un ami physicien à pipoter outrageusement sous couvert de ce sens physique.)

Un exemple : on sait bien qu'un champ magnétique qui varie dans le temps produit un champ électrique et qu'un champ électrique qui varie dans le temps (et pas seulement un courant) produit un champ magnétique, et que la combinaison de ces deux phénomènes (un champ magnétique qui varie sinusoïdalement, donnant naissance à un champ électrique — orthogonal — qui varie à son tour et donne à son tour naissance à un champ magnétique, etc.) constitue le phénomène d'onde électromagnétique ; j'en avais conclu que les plaques « à induction » sont essentiellement la même chose que l'émission d'une onde électromagnétique (un courant alternatif produit un champ magnétique alternatif, qui doit bien à son tour produire un champ électrique — non ?) et je me demandais pourquoi on n'avait pas besoin d'isoler ces plaques comme on isole les micro-ondes. La réponse, c'est que les plaques à induction ont une fréquence de 50Hz (le courant du secteur), comparée aux 2.5GHz (50 millions de fois plus) des micro-ondes : si le champ magnétique oscillant donne bien naissance à un champ électrique (qui produit des courants de Foucault dans les métaux, ce qui les chauffe), comme la table à induction est beaucoup plus petite que les 6000km de longueur d'onde d'une onde de 50Hz, ce champ électrique est beaucoup plus faible par rapport au champ magnétique initial que ce que serait le rapport entre les deux dans une onde (dans une onde le rapport des intensités quadratiques moyennes de E et B est fixé et vaut la vitesse de la lumière), et par conséquent le champ magnétique induit par ce champ électrique est, pour sa part, complètement négligeable. Bref, rien ne se propage. Il ne suffit pas de connaître les lois de Maxwell, il faut encore avoir le sens physique de voir ce qui va être grand devant quoi.

J'avais remarqué depuis longtemps ces petits lumières rouges (appelées Balisor®) qu'on voit sur les câbles à très haute tension et qui servent à éclairer la nuit pour avertir les avions de la présence de ces câbles. Mais comment fonctionnent-elles au juste ? C'est un peu mystérieux : si on regarde sans faire très attention, on a l'impression qu'elles sont juste reliées à deux endroits du même câble (séparés de quelques mètres). Comment peut-on tirer de la lumière d'un seul câble à très haute tension ?

Une première idée que je m'étais faite est que ce sont peut-être ce sont des lampes à très faible résistance, en série avec des câbles d'extrêmement bonne conductivité, de sorte que même en dérivation sur un pur câble elles arrivent à en tirer un peu de courant (quand le courant qui circule par le câble est énorme) ; mais ça ne marche pas : le courant qui circule dans des câbles très haute tension est certes important, mais pas gigantesque non plus (ça doit être de l'ordre de grandeur de 500A ou 1kA au maximum par câble, et plutôt quelque chose comme 200A dans une situation relativement tranquille), et leur résistance linéique est beaucoup trop faible pour qu'on puisse espérer tirer une fraction non négligeable en se mettant en dérivation sur un bout de câble.

Une autre idée était que le câble sur lequel se trouve la lampe n'est pas en contact avec le câble principal, mais qu'il est alimenté par courant induit : ça ne marche toujours pas — à quelques dizaines de centimètres d'un câble très haute tension, le champ magnétique n'est que d'une centaine de microteslas, et ça variant à 50Hz ça ne va pas produire une induction foudroyante (quelques millivolts à tout casser dans une boucle autour du câble), d'ailleurs de toute façon le câble portant la lampe n'est pas en boucle.

De toute façon, les idées qui partent de l'intensité du courant circulant dans le câble sont mauvaises — on ne veut pas que les lampes éclairent plus ou moins selon que le câble est plus ou moins utilisé (donc que le courant circule à une intensité plus ou moins grande).

Encore une autre idée (je dénonce mon père pour l'avoir eue, parce qu'elle est franchement fantaisiste) était que, la tension étant sinusoïdale, on puisse avoir une différence de potentielle entre deux points du même câble suffisante pour alimenter une lampe. Ça ne tient pas debout : d'une part la période complète pour un courant 50Hz est de 6000km, alors deux points séparés de quelques mètres, même sur une ligne à 400kV, ils ne vont pouvoir tirer qu'une fraction de volt entre eux et surtout, de toute façon, le câble alimentant la lampe va avoir exactement le même problème (ça marcherait peut-être si on mettait la lampe en parallèle d'une boucle de câble de quelques mètres qui pendouille, mais ce n'est pas ce qu'on fait).

En fait, à regarder de près, le dispositif est le suivant : un côté de la lampe est bien relié au câble. L'autre côté, en revanche, est relié à un fil parallèle au câble (que j'appellerai fil collecteur, faute d'un meilleur nom), long d'environ 4m, et maintenu à une trentaine de centimètres de lui. L'extrémité de ce fil collecteur n'est pas en contact électrique avec le câble (sinon, comme je l'ai expliqué, ça ne marcherait pas), il est maintenu physiquement en place par un isolant. L'explication qu'on donne est sommairement la suivante : le câble de 400kV, à une vingtaine de mètres au-dessus du sol, fait naître un champ électrique d'environ 20kV/m en moyenne entre ce câble et le sol ; le fil collecteur étant à quelque chose comme 30cm du câble, il doit être à 6000V de lui, donc on peut alimenter la lampe. Juste ? Il y a vaguement de ça, mais ce n'est toujours pas bon : si la tension était continue, le dispositif ne marcherait pas. Il faut considérer l'intervalle entre le câble et le fil collecteur comme un condensateur à air, et en courant continu il ne pourrait pas y circuler un courant (le condensateur se chargerait simplement, ce qui déplacerait les lignes de potentiel électrique). En fait, cette figure de 20kV/m de champ électrique est un peu trompeuse : quand on marche sous un câble très haute tension, on n'a pas 30kV de différence de potentiel entre les pieds et la tête ! En effet, on modifie les lignes de potentiel en étant présent dedans. La réalité est donc plus compliquée.

Il faut plutôt s'imaginer la chose suivante : l'air entre le câble à très haute tension et le sol forme un condensateur (ou plutôt une rangée de condensateurs en parallèle, tous reliant le sol et le câble, dont la capacité est de l'ordre de 1.2µF pour 100km de câble linéique si j'en crois les ordres de grandeur donnés à la page 188 de ce document[#]), donc pour 400kV à 50Hz il y a une centaine d'ampères par 100km qui fuient vers le sol[#2]. En plaçant le fil collecteur entre le câble et la terre, on met essentiellement la lampe en série avec ce condensateur sur la longueur du fil collecteur (soit quelque chose comme 4m, donc environ 50pF de capacité avec le sol si on suppose que toute la capacité de fuite passe par le fil collecteur, ce qui est sans doute un peu optimiste mais pas complètement déraisonnable à cause des effets de pointe) ; tant que la capacité entre le fil collecteur et le câble qui lui est parallèle reste assez petite[#3] pour avoir une impédance beaucoup plus grande que la résistance de la lampe, la liaison du collecteur au câble joue donc le rôle d'un générateur d'intensité dans la lampe, pour une valeur d'intensité égale à l'intensité de fuite sur la longueur du câble considérée (avec mes valeurs nominales, ça fait quelque chose comme 6mA : je suis étonné que ça suffise à alimenter une lampe d'une dizaine de candelas, mais il faut se rappeler qu'elle peut prendre une tension presque aussi grande qu'elle veut[#4] puisqu'elle est soumise à un générateur d'intensité).

En termes plus simples et peut-être moins précis, ce qui se passe est donc que le courant de fuite a lieu entre le fil collecteur et la terre plutôt qu'entre le câble et la terre (parce que le fil collecteur est en-dessous du câble duquel il pend), et ce faisant il passe par la lampe, qui s'éclaire !

Sinon, une question que je m'étais posée était : d'où vient l'asymétrie entre le câble et le sol ? On espère que mettre comme ça un fil collecteur à quelques centimètres du sol ne suffira pas à faire briller une lampe, sinon on s'inquiéterait beaucoup de marcher sous un câble très haute tension. De fait, ça ne suffira pas : l'asymétrie vient de ce que le câble est linéique et le sol est planaire ; pour se mettre en série dans la capacité avec le sol, il faudrait non pas un fil collecteur mais une plaque collectrice, recouvrant une bonne surface sous le câble très haute tension. Et on ne risque pas non plus de se faire électrocuter sous le câble, malgré le champ électrique important. (En fait, je pense qu'on ne sera pas non plus électrocuté si on se suspend au câble sans toucher la terre : comme on est nettement plus étroit que les fils collecteurs des Balisor®, le courant de fuite qui devrait nous traversait n'attendrait que quelques dizaines de microampères, pas assez pour électrocuter un humain. Après, il y a quand même le problème de l'éventuelle décharge initiale, qui semble être la raison pour laquelle ces gens-là prennent des précautions.)

[#] Document par ailleurs très intéressant et rempli de photos porno pour les amateurs d'électricité de puissance. On y apprend, par exemple, comment on s'arrange pour synchroniser les phases de tous les alternateurs et de tous les circuits électriques en Europe de l'Ouest ; et aussi comment ce synchronisme de phase fournit une réserve de puissance qui permet de répondre instantanément aux variations de consommation en attendant des mesures pour rétablir la fréquence à sa valeur nominale en agissant sur la production.

[#2] Enfin, ils ne fuient pas vraiment parce que d'une part ce n'est pas un vrai courant (c'est un courant de déplacement) et d'autre part c'est un courant réactif (= il est en quadrature de phase par rapport à la tension), donc il faut admettre que parler de courant de fuite est peut-être pédagogiquement désastreux.

[#3] Estimer cette capacité Cb (entre le câble et le fil collecteur) est d'ailleurs un peu coton : autant celle C entre le câble et la terre j'ai une source fiable, là je ne sais pas bien. Un argument est qu'elle serait environ 100 fois plus grande que C parce que le fil collecteur est environ 100 fois plus près du câble que la terre, mais je pense que c'est exagéré — notamment parce que le potentiel électrique créé par une charge linéique est en log, pas linéaire comme pour des plaques, donc je dirais plutôt que c'est le même ordre de grandeur, peut-être entre 100pF et 500pF. Quand bien même ce serait 1nF, ça veut dire que la lampe peut tirer, sur son courant imposé, une tension de quelques pour cent de la tension du câble au sol — bref, beaucoup.

[#4] Comme l'explique la note précédente, elle peut aller jusqu'à plusieurs kV, peut-être même des dizaines de kV, de tension. Donc, tirer plusieurs watts de puissance.

(samedi)

Comment tirer des bosons d'une urne ?

Un classique des cours élémentaires de probabilités : on a trois cartes de même forme, l'une ayant deux faces noires, la deuxième ayant une face noire et une rouge, la troisième ayant deux faces rouges. (Les trois cartes, et les deux faces d'une carte, sont indiscernables sauf par leur couleur.) On mélange les cartes sans les regarder, on en tire une au hasard et, toujours sans la regarder, on la pose sur la table (une face aléatoire étant visible, donc, l'autre étant cachée). On observe que la face visible est rouge (pour que ce soit bien clair : si ce n'est pas le cas, on recommence le mélange depuis le début, et on répète autant de fois que nécessaire jusqu'à ce que ça soit le cas). Quelle est la probabilité que la face opposée soit également rouge ?

Autrement dit, si on tire une carte et une face au hasard et qu'on sait que cette face est rouge, quelle est la probabilité que la carte tirée soit la carte rouge-rouge ?

La plupart des gens (enfin, ceux qui ont une réponse à la question) répondent 1/2 suivant le raisonnement suivant : la carte noire-noire est exclue, il ne reste que deux possibilités, la carte rouge-noire et la carte rouge-rouge, et comme tout ce qu'on sait est qu'il y a une face rouge, ces deux possibilités sont équiprobables, donc la probabilité d'avoir affaire à la carte rouge-rouge est 1/2. Ce raisonnement est faux, parce que l'événement connu n'est pas la carte a une face rouge mais bien la face que j'ai tirée au hasard est rouge : la probabilité recherchée n'est pas 1/2.

(lundi)

Les douze saisons de l'année, et les astrologues

À l'épisode précédent j'avais écrit un programme de calendriers. J'ai rajouté quelques fonctionnalités à ce programme, dont la plus importante — mais je n'en parlerai pas plus ici — est une capacité très limitée à lire des fichiers iCal pour ajouter les événements contenus dedans directement sur le calendrier ; j'ai aussi un tout petit peu nettoyé le source et ajouté quelques commentaires, donc il est maintenant vaguement regardable (vous pouvez le télécharger ici, je rappelle).

La version précédente calculait déjà les phases de la Lune (la magie étant due à Astro::MoonPhase, pas à moi) : je me suis dit que ce serait une bonne idée, du coup, d'ajouter aussi les indications des saisons. Donc j'ai commencé par ajouter des formules (venues d'Emacs, qui lui-même les tire de Meeus, Astronomical Algorithms, 1991) pour indiquer le début du printemps, de l'été, de l'automne et de l'hiver (le programme les calcule à une ou deux minutes près, mais n'indique que le jour parce que je n'ai pas trouvé de façon commode de faire figurer l'heure sur le calendrier : c'est donc une réduction assez idiote, vu que le jour ne varie guère que de un ou deux ; mais peu importe). Puis je me suis demandé quel symbole utiliser pour figurer les saisons : je ne voulais pas écrire un mot entier pour des raisons de place et aussi de symétrie avec les phases de la Lune. Je me suis un peu gratté la tête et finalement la réponse m'est apparue de façon évidente : utiliser le signe du Bélier (♈) pour le printemps — ce qui est d'ailleurs assez standard —, celui du Cancer (♋) pour l'été, celui de la Balance (♎) pour l'automne et celui du Capricorne (♑) pour l'hiver. C'est d'autant plus séduisant que ces symboles sont, graphiquement, assez beaux à voir (du moins je trouve).

Forcément, ça donne un petit aspect astrologique au calendrier, et du coup vous devinez la suite : tant qu'à indiquer le début des quatre saisons avec les signes astrologiques qui leur correspondent, autant aller jusqu'au bout et indiquer les douze signes.

J'en profite pour prendre un peu la défense des astrologues. Pas pour leur vaste fumisterie qui est de prévoir l'avenir ou le caractère des gens ou que sais-je encore, avec la position des planètes, mais sur un point très précis concernant la précession des équinoxes. Parce que pour les astrologues, le début du Bélier, disons, c'est précisément l'équinoxe de printemps (pas seulement pour les astrologues, d'ailleurs : le premier point du Bélier, terme qui s'utilise plus en anglais qu'en français, c'est bien l'équinoxe de printemps), et les douze signes du zodiaque sont ensuite une division régulière de l'écliptique (c'est ainsi que le début du Cancer est le solstice d'été, le début de la Balance l'équinoxe d'automne et le début du Capricorne le solstice d'hiver). On se moque souvent des astrologues parce que quand ils disent que le Soleil est dans le Bélier ce n'est pas que le Soleil apparaît dans la constellation du Bélier : mais il faut se dire qu'on a juste choisi le nom de Bélier pour le premier douzième de l'écliptique à un moment où ça correspondait, effectivement, à cette constellation, que depuis les équinoxes ont précessé faisant que le premier point du Bélier (l'équinoxe de printemps, donc) est en fait dans la constellation astronomique des Poissons, mais qu'on a conservé les noms. Ce n'est pas grave : ce sont juste des noms arbitraires pour les douze douzièmes de l'écliptique, pas pour les constellations. (D'ailleurs, l'écliptique coupe treize constellations, pas douze, puisqu'il y a un bout du Serpentaire qui est dessus ; et les douze constellations qui restent ne sont certainement pas également réparties.) Ce n'est pas important, et c'est un reproche idiot à faire aux astrologues (alors qu'il y en a d'autres bien plus pertinent) que d'avoir fixé leurs signes par rapport aux équinoxes plutôt que par rapport aux étoiles fixes : ce n'est pas qu'ils sont ignorants de la précession des équinoxes (enfin, ils le sont peut-être, mais ce n'est pas une preuve), mais plutôt qu'il est raisonnable de considérer le début du signe par rapport à un événement vaguement significatif comme le début d'une saison.

Tout ça pour dire que les douze signes du zodiaque il faut les imaginer comme douze saisons : au lieu de diviser l'année en quatre parties égales (enfin, pas tout à fait égales en temps, mais égales sur l'écliptique), autant rendre hommage à cette tradition et emprunter ces jolis symboles et la diviser en douze (ne dites plus la fin du printemps, dites les Gémeaux). Et mon calendrier figure ces douze saisons à côté des phases de la Lune, des jours fériés français et de tout un tas d'indications geeks comme la date julienne ou diverses dates ISO. Le calendrier David Madore 2008 est ici (par contre, pour les illustrations avec des beaux messieurs nus, demandez ailleurs 😉).

(mercredi)

Encore des trucs qui tournent

(Si le blabla physique vous ennuie, vous pouvez toujours juste regarder les vidéos ! 😉)

Je n'étais pas complètement content des vidéos signalées dans l'entrée précédente (commencez par lire celle-ci si ce n'est déjà fait…), alors j'en ai refait certaines et produit de nouvelles. Le problème concernait le dernier anneau : dans la description que je fais dans l'entrée précédente, le dernier anneau tourne autour d'un axe fixe (que j'avais oublié de figurer sur les vidéos, mais ceci est corrigé) ; que se passe-t-il si on le laisse totalement libre ? Cette nouvelle animation (de 25Mo durant 2′) montre un exemple ; je l'ai choisi tel que le moment cinétique total soit nul dans toutes les directions (et puisque le système est libre, c'est maintenant bien conservé) : je trouve que ça lui donne encore plus d'élégance (les anneaux se communiquent du moment cinétique les uns aux autres, mais à tout instant le total est nul). Pour cela, j'ai dû faire un nouveau programme, qui est bien plus clair que le précédent. J'espère voir prochainement un programme basé sur OpenGL qui permette de voir le mouvement en temps réel sans avoir à calculer une vidéo (en attendant, il y a celui-ci, basé sur la version précédente).

Comme mon nouveau programme le permettait (quitte à faire des changements assez simples), j'ai aussi produit cette animation-ci (seulement 3.3Mo, encore 2′), qui ne représente plus des anneaux mais un ellipsoïde en rotation libre (équations dites d'Euler-Poinsot pour le mouvement inertiel d'un objet rigide). Il s'agit d'illustrer un phénomène physique assez frappant : la polhodie. Regardez bien le mouvement du patatoïde, et suivez notamment les repères vert et mauve (j'ai mis ces six petits repères de couleur pour qu'on puisse mieux suivre le mouvement d'ensemble) : bien que le moment cinétique et l'énergie cinétique soit conservés, le mouvement est assez complexe et semble se « retourner » périodiquement.

En effet, chaque solide (rigide) a trois axes privilégiés orthogonaux (passant par le centre de gravité) autour duquel il peut tourner : les axes principaux d'inertie. Ce sont les trois directions (liées au solide) telles que, si on met le solide en rotation autour de l'une d'entre elles, il décrit un mouvement de rotation uniforme simple autour de l'axe en question. Dans le cas d'un ellipsoïde ou d'un parallélépipède rectangle, par exemple, les axes seront ce qu'on pense (les axes principaux de l'objet) ; en général, ce sera compliqué à déterminer. En fait, à chacun de ces trois axes est associé un moment d'inertie (qui décrit, donc, le moment de force qu'il faut appliquer pour faire augmenter la vitesse de rotation autour de cet axe) : la rotation autour de l'axe principal de grand ou de petit moment d'inertie est stable, c'est-à-dire que, si on la perturbe un petit peu, le mouvement va juste se fair autour d'un axe instantané qui lui-même se balade un peu (dans le repère du solide) autour de cet axe principal d'inertie. En revanche, la rotation autour de l'axe principal de moment d'inertie intermédiaire est instable, et c'est ce que montre mon animation : si on essaie de faire tourner l'objet autour d'un axe qui diffère un petit peu de l'axe principal intermédiaire, il va commencer par tourner autour de cet axe, puis s'en écarter de plus en plus par un mouvement vaguement en spirale, pour arriver à la direction opposée (dans le repère du solide !) à celle dont on était parti, puis revenir à l'axe de départ, etc. Il y a une très jolie explication géométrique à ça (basée sur l'intersection de l'ellipsoïde d'énergie constante et de la sphère de norme constante dans l'espace des moments angulaires), mais cette entrée de blog est trop courte pour la contenir. En tout cas, c'est un phénomène que je trouve intéressant, parce qu'on a souvent tendance à s'imaginer naïvement qu'un objet rigide, quand on le met en rotation purement inertielle va simplement tourner autour d'un axe fixe : cette vidéo illustre combien c'est faux. Je ne sais pas s'il y a des situations de la vie réelle où on voit ce phénomène se produire de façon vraiment nette.

J'ai aussi expérimenté avec les situations dans lesquelles les axes reliant les anneaux les uns aux autres ne sont pas consécutivement perpendiculaires, mais à 45° à chaque fois : ça donne ceci (21Mo pour 1′30″) pour un cas où l'anneau extérieur tourne librement autour d'un axe fixe (je démarre avec des vitesses angulaires relatives toutes égales), et ceci (19Mo pour encore 1′30″) qui illustre le fait que si on met en rotation un objet qui n'est pas complètement rigide, il risque de se déformer (d'accord, ça n'a rien de bien surprenant).

(dimanche)

Anneaux tournant les uns dans les autres

[Anneaux concentriques]Je ne sais pas comment m'est venue l'idée de cet objet — qui a certainement déjà dû être réalisé physiquement — mais je le trouve particulièrement séduisant : il s'agit d'un nombre donné d'anneaux concentriques (en l'occurrence, cinq) pouvant tourner librement les uns dans les autres. Le dessin est probablement plus clair que tous les mots que je pourrais utiliser pour le décrire, mais voici tout de même une spécification plus précise : il s'agit d'anneaux circulaires concentriques, chacun relié à celui immédiatement à l'extérieur de lui par un axe passant par le centre des deux anneaux et autour duquel il tourne librement, et tels que, de plus, dans le plan de chaque anneau, l'axe qui le relie à l'anneau immédiatement extérieur[#] et l'axe qui le relie à l'anneau immédiatement intérieur sont perpendiculaires (s'ils étaient identiques, le problème n'aurait que peu d'intérêt physique !).

L'intérêt de ce dispositif est double : d'abord, c'est très joli à regarder, ensuite, c'est un problème de mécanique tout à fait amusant (et qui conduit à une dynamique chaotique, au moins empiriquement). Et entre les deux, c'est un exercice de programmation que de faire simuler le mouvement à un ordinateur, et c'est à ça que je me suis appliqué aujourd'hui.

Il en est sorti trois petits films que je trouve tout à fait envoûtants à regarder — et que voici : nº1 (on met en mouvement le premier et le quatrième anneaux), nº2 (on met en mouvement le quatrième et le cinquième anneaux) et nº3 (on met en mouvement le deuxième et très légèrement le premier). [Note : il s'agit là de fichiers AVI, d'environ 20Mo chacun[#2], et durant 1′30″, au format DivX;-). Utilisez par exemple VLC pour les lire.] Dès lors qu'on met en mouvement relatif des deux anneaux selon au moins deux directions différentes, des transferts de moment cinétique s'effectuent dans tous les sens, et le mouvement est très complexe (et, je suppose, chaotique à long terme).

Pour la modélisation numérique, j'ai choisi cinq anneaux dont les rayons sont en rapport 8:7:6:5:4, et pour le calcul des moments d'inertie j'ai décrété qu'ils étaient dans un matériau dont la masse linéique est partout constante (y compris sur les bouts d'axe qui relient chaque anneau au suivant, dont j'ai tenu compte). Pour obtenir les équations du mouvement, j'ai utilisé le formalisme lagrangien avec pour variables les cinq angles de liberté du mobile, et j'ai été stupéfait[#3] de voir à quel point un problème d'apparence si simple donnait des équations aussi impressionnantes de complexité (j'espérais voir une quelconque simplification, mais je n'en ai trouvé aucune) ; en fait, déjà le cas de deux anneaux (dont l'extérieur serait infiniment plus massif que l'intérieur, mettons) serait un problème de physique de prépa pas totalement évident. Pour résoudre numériquement ces équations, j'ai utilisé l'algorithme de Runge-Kutta à l'ordre 4, avec cinq pas de calcul par image tracée ; je vérifie que l'énergie cinétique reste constante, ce qui me permet de penser que je ne me suis pas trompé dans les calculs (chose qu'on peut d'ailleurs qualifier de miraculeuse). Si quelqu'un veut voir le source, qu'il ne se prive pas. Le programme est très lent (mais ce n'est évidemment rien par rapport au raytracing qui vient derrière, de toute façon), c'est entre autres parce que je n'ai pas fait le moindre effort pour éviter de recalculer des valeurs déjà calculées.

Je me demande si je devrais en faire un DVD ? ☺

[#] Par ailleurs, on convient que l'anneau le plus extérieur tourne lui aussi autour d'un axe — complètement fixe, cette fois — et lui aussi perpendiculaire à l'axe qui le relie au deuxième anneau. M'imaginant à tort que la présence de cet axe zéro n'avait pas d'importance sur le problème (c'est-à-dire que je pensais que le mouvement serait le même si l'anneau le plus extérieur était complètement libre de tourner dans l'espace : or c'est faux, il y a bien des couples qui s'exercent là aussi), j'ai oublié de figurer cet axe zéro dans mes images (corrigé : voir l'entrée suivante).

[#2] Je devrais peut-être plutôt mettre ce genre de vidéos sur un site du style YourDailyMedia que les héberger moi-même. Si quelqu'un veut les y copier, qu'il n'hésite pas.

[#3] En fait, j'avais déjà réfléchi à ce problème il y a un peu plus d'un an, et je n'avais pas eu le courage d'aller jusqu'au bout des équations. Un de mes amis avait alors écrit un programme à sa façon, mais en utilisant la formulation newtonienne (principe fondamental de la dynamique) plutôt que lagrangienne de la mécanique : je trouve ça moins élégant, mais il est possible que, pour l'implémentation informatique, il ait fait le bon choix. Quoique, au final, une fois écrites, mes équations ne sont pas si terribles.

(mardi) · Pleine Lune

Production d'énergie et fusion thermonucléaire

J'ai assisté ce midi à la fac d'Orsay à un « café-débat » consacré cette semaine à la fusion contrôlée et notamment au projet ITER. C'était très intéressant parce que d'une part la fusion est quelque chose qui m'intéresse beaucoup, et d'autre part les participants du débat étaient pour l'essentiel des physiciens (et même des gens proches de la physique des plasmas) donc le débat volait plutôt haut, scientifiquement parlant. L'exposant était Yves Pomeau (directeur du laboratoire de physique statistique de l'ENS et membre de l'Académie des sciences).

Je suis assez inquiet quant à l'avenir énergétique de l'humanité. Les énergies fossiles ne dureront pas longtemps (même si les réserves de pétrole ont l'air de s'étendre magiquement à mesure qu'on les consomme, on ne peut pas espérer que cela dure éternellement quand on est en train de consommer en des années ce que le carbonifère a mis des millions d'années à fabriquer). La fission — le nucléaire actuel, donc — me semble encore ce qu'on a de mieux (certes, elle produit des déchets radioactifs, mais finalement ils me semblent nettement moins dangereux écologiquement que la contribution à l'effet de serre des carburants fossiles ; je ne comprends pas pourquoi les écologistes dénigrent à ce point les centrales à fission, qui ne sont certes pas la panacée mais qui me paraissent un moindre mal comparées aux centrales thermiques). Les énergies dites renouvelables ne présentent pour le moment pas le moindre début de commencement d'espoir de pouvoir un jour servir à une échelle non infinitésimale (et il est faux qu'elles sont non polluantes : le photovoltaïque est très polluant à la fabrication des cellules qui, par ailleurs, s'usent rapidement, et les éoliennes dénaturent gravement le paysage et provoquent des nuisances lumineuses et sonores absolument non négligeables). Reste la fusion thermonucléaire contrôlée, ce dont il est question ici, mais dans le meilleur des cas elle ne sera pas disponible avant cinquante ans, et plus probablement cent (les mauvaises langues disent que cela fait cinquante ans que la fusion est pour dans cinquante ans : mais les cinquante ans étaient sous condition de subventions substantielles, qui jusqu'à présent n'ont pas été accordées).

Les scientifiques sont souvent méfiants vis-à-vis d'ITER, précisément parce qu'il coûte cher (quelque chose comme 20G€ — je veux dire vingt milliards d'euros ; ceci dit, ça ne doit pas être si énorme que ça comparé à des dépenses de l'industrie pharmaceutique) et on a peur que cela se fasse au détriment d'autres projets scientifiques. Reste que si c'est l'avenir énergétique de l'humanité qui est en jeu, cela me semble valoir un effort. Un autre problème, en revanche, qui a été souligné lors de ce débat, c'est qu'ITER ne se focalise que sur les difficultés de type « physique des plasmas », à l'exclusion de toutes autres considérations (notamment « physique des matériaux »).

Rappelons que le principe de la fusion thermonucléaire est de produire des plus gros atomes à partir de plus petits, en libérant de l'énergie au cours du processus (alors que la fission casse des atomes lourds en libérant de l'énergie). Les étoiles, le Soleil par exemple, réalisent la fusion de l'hydrogène (dans ce qui s'appelle le cycle de Bethe), mais il est question ici de la fusion d'isotopes de l'hydrogène, le deutérium et le tritium, qui se combinent pour donner un hélium et un neutron. (Telle quelle, la fusion des étoiles n'est pas utilisable comme source d'énergie sur Terre : il s'y produit de l'ordre de grandeur d'une réaction thermonucléaire par seconde et par litre de plasma, ce qui ne représente pas une source d'énergie suffisante pour être utile.) Pour se faire une idée des paramètres opérationnels, le plasma de deutérium et de tritium doit être porté à quelque chose comme 50MK (cinquante millions de degrés) ; dans le cas d'ITER, le tokamak (le tore dans lequel se déroule la fusion, et où le plasma est maintenu par confinement magnétique) a un volume de l'ordre de 1000m³, et il y a quelques kilos de plasma dedans. (J'espère avoir bien retenu ces quelques ordres de grandeur, qui m'ont semblé intéressants, de ce qui a été dit.)

Évidemment, maintenir confinés quelques kilos d'un plasma à cinquante millions de degrés, même dans 1000m³, ce n'est pas la chose la plus facile au monde. Il se produit notamment toutes sortes de problèmes d'instabilité dans le plasma. Rajoutons que les parois ne doivent pas se désagréger car des atomes lourds pollueraient le plasma et nuiraient à l'efficacité de la fusion, et qu'inversement le plasma ne doit surtout pas atteindre les parois (elles sont très fragiles et coûtent une fortune à remplacer). Le confinement magnétique est réalisé par des aimants supraconducteurs qui doivent être maintenus à une température proche du zéro absolu et baignent dans de l'hélium superfluide. Et pour couronner le tout, le tritium est un produit radioactif qui n'existe pas dans la nature, il faut le produire, vraisemblablement en bombardant du lithium avec des neutrons, lesquels sont produits par la réaction elle-même, mais cela signifie que les murs du réacteur doivent être parcourus par du lithium liquide, cela n'arrange pas les choses. Et enfin, il faut récupérer d'une façon ou d'une autre l'énergie produite par le réacteur. Bref, les difficultés ne manquent pas.

Il y en a certaines qu'on pense savoir résoudre, cependant. La stabilisation du plasma est un problème bien étudié, et qui ne devrait pas être insurmontable — c'est essentiellement cela qu'ITER est chargé d'étudier. La réalisation d'électro-aimants supraconducteurs capables de produire le champ confinant, mais aussi de résister mécaniquement aux forces de Lorentz exercées sur eux, devraitre difficile mais résoluble. La production du tritium à partir du lithium n'est pas trop difficile non plus (il y a des mécanismes pour multiplier les neutrons produits par la réaction et les faire absorber par le lithium), paraît-il, même si là des problèmes politiques peuvent se poser (le tritium entre dans la fabrication des armes nucléaires, et les Chinois, par exemple, ne veulent pas que les Japonais en aient — ou quelque chose de ce genre). Apparemment, on sait sans trop de mal capter l'énergie produite par le réacteur (sous forme de rayons X), au moins dans une certaine limite (on a avancé le chiffre de 20MW/m²). Il y a aussi des stratégies pour récupérer l'hélium produit par la réaction, ce genre de choses. D'après l'orateur, le principal problème, pour lequel on n'a encore aucune solution ni même idée de solution, est celui de la dégradation des parois par l'effet de l'impact des neutrons : ceux-ci détruisent les atomes et les transforment essentiellement en hélium, et les micro-bulles d'hélium ainsi formées dans la masse du matériau en altèrent gravement la solidité (or dans le cas d'un réacteur industriel il faudra compter de l'ordre de cinq ans sans remplacer les parois si on veut espérer qu'il soit rentable). Déjà pour les centrales à fission, les problèmes pour trouver les bons matériaux n'ont pas été minces, et les neutrons en question sont autour de cinquante fois moins énergétiques, et nettement moins nombreux, que ceux émis par un réacteur à fusion (qui tournent dans les 15MeV). Ce problème ne se pose pas pour ITER (qui n'aura pas un fonctionnement continu assez long pour observer une dégradation significative des parois), mais il faudra un jour le résoudre si on veut espérer produire effectivement de l'énergie par fusion.

Enfin, il y a la question des déchets. En principe, la fusion est propre, c'est-à-dire nettement plus que la fission : le principal produit radioactif est du tritium, qui est réutilisé par le réacteur lui-même, et l'ensemble des déchets est censé être des atomes légers à durée de vie courte ; le principal produit de la réaction est tout simplement de l'hélium. En pratique, cela est moins sûr, par exemple parce qu'il faudra peut-être utiliser un alliage lithium-plomb pour récupérer les neutrons.

Bref, tout cela est bien inquiétant quant à nos perspectives dans cette direction.

(dimanche) · Pleine Lune

Éclipse

[English translation follows.]

Je voulais prendre la résolution de me coucher tôt, mais j'ai tout de même voulu rester voir l'éclipse, hier soir. Je ne l'ai pas regretté, parce qu'elle était très belle et très visible : la Lune était très haute dans le ciel puisqu'elle se produisait vers 1h du matin heure solaire (soit 2h heure légale d'hiver à Paris) et puisqu'on n'est plus si loin du solstice (de sorte que l'écliptique est haut dans le ciel la nuit), et par ailleurs la météo était très favorable (vers 2h du matin il n'y avait pas un nuage à proximité de la Lune).

Au début j'étais un peu déçu : un observateur inattentif aurait pu croire à un croissant de Lune (la partie cachée ne se voyait pas du tout, sans doute masquée par la partie non encore éclipsée et par la luminosité résiduelle du ciel à Paris). Sauf qu'évidemment d'une part un croissant de Lune aussi haut dans le ciel au milieu de la nuit ce n'est pas très plausible (ben oui, un croissant, ce n'est jamais loin du Soleil) et d'autre part le bord du croissant n'a pas du tout la même forme : finalement ça donnait un peu le vertige de voir cette petite écharde de Lune si haut dans le ciel. Alors que l'éclipse approchait la totalité, la Lune a joué avec de petits altocumulus et j'ai cru qu'elle allait disparaître complètement, mais ce sont les nuages qui sont partis. Finalement, la totalité a clairement montré un disque pâle d'éclairage indirect. Cela doit être très beau vu de là-haut, et l'éclairage si particulier ! N'ont-ils pas laissé une caméra sur l'astre pour pouvoir filmer une éclipse ?

Un certain nombre de gens dans les rues levaient la tête de temps en temps, soit qu'ils étaient déjà au courant de cette éclipse soit qu'ils la remarquaient au moment même (il est vrai qu'on regarde assez peu la Lune, mais la pleine Lune, tout de même, se voit bien, et à plus forte raison si elle est éclipsée). Quelqu'un m'a demandé, sur un ton presque agressif, qu'est-ce qu'ils ont, tout le monde, à regarder en l'air ? : je lui ai signalé l'éclipse, et il a répondu, ah, une éclipse ? solaire ? lunaire ? ; je me suis retenu de lui rétorquer que l'éclipse solaire avait lieu depuis un certain moment et que ça s'appelait la nuit, mais je lui ai montré la Lune en lui disant qu'elle était pleine et qu'on voyait bien qu'elle était éclipsée : ça ne l'a pas impressionné, et il est reparti en secouant la tête. Manifestement quelqu'un qui n'a pas le temps de regarder le ciel.

(lundi) · Nouvel an républicain (1er Vendémiaire an CCXII)

Demain, nous serons en automne

L'équinoxe d'automne, c'est demain, mais l'heure à laquelle il se produit n'est pas entièrement claire : voici une copie d'un email que j'ai envoyé à Pierre Bretagnon de l'Institut de mécanique céleste et de calcul des ephémérides, et qui peut intéresser les astronomes de service—

Date: Sat, 20 Sep 2003 16:48:02 +0200
From: David Madore <david[point]madore[arobase]ens[point]fr>
To: Pierre Bretagnon <pierre[arobase]imcce[point]fr>
Subject: instant de l'équinoxe
Message-ID: <20030920164802.A14194@clipper.ens.fr>
User-Agent: Mutt/1.2.5.1i
Content-Length: 1913
Lines: 41

Bonjour,

Je me permets de vous contacter parce que j'ai vu votre nom associé à
plusieurs théories planétaires et de rotation de la Terre, donc vous
êtes sans doute la personne la plus compétente pour répondre à ma
question. Je précise que je suis pour ma part thésard en maths pures
(en géométrie algébrique) et intéressé par la mécanique céleste à
titre de hobby.

En une phrase, ma question est : quelle est la définition précise de
l'équinoxe (d'automne, en l'occurrence, parce que c'est celui qui
arrive dans trois jours) ?

Naïvement, j'aurais dit, c'est l'instant où le soleil vrai arrive à
l'ascension droite de 12 heures et déclinaison de 0 degrés mesurés par
rapport à l'équinoxe vrai de la date, ces deux événements étant
simultanés par définition du système de coordonnées. Mais j'ai
consulté le serveur d'éphémérides sur le site du Bureau des
Longitudes
, et j'y apprends avec une petite dichotomie que le soleil
aura l'ascension droite de 12 heures mesurée par rapport à l'équinoxe
vrai de la date à 2003-09-23T10:46:45.10Z UTC tandis qu'il aura la
déclinaison nulle à 2003-09-23T10:47:11.12Z UTC. Cela fait une
différence de 26 secondes, ce qui n'est pas du tout négligeable. J'ai
pu croire à une imprécision des théories planétaires, mais la
différence entre VSOP et DE406 n'est que de 600 ou 700 millisecondes,
donc j'imagine que je peux attendre une précision en-dessous de la
seconde de temps pour le calcul de l'événement en question.

Donc : pourriez-vous m'expliquer à quoi est dû cet écart ? Et,
globalement, si vous deviez dater l'équinoxe à la seconde près, que
répondriez-vous ?

J'espère ne pas abuser de votre temps en vous demandant cela, et je
vous remercie d'avance de votre attention.

Bien cordialement,

--
David A. Madore
Mél: david[point]madore[arobase]ens[point]fr ; WWW: http://www.eleves.ens.fr:8080/home/madore/
Tél: 0145883961 (Paris) / 0169281582 (parents) / 0699730449 (portable)

Note : On m'a fait savoir que Pierre Bretagnon était décédé depuis environ un an quand je lui ai envoyé ce mail, ce qui explique qu'il n'y ait pas répondu. Toujours est-il que je n'ai jamais trouvé la réponse à ma question.

(lundi)

Les ordres de grandeur les plus stupides de l'Univers

Voici une petite liste que j'avais compilée dans le temps, avec les réponses suite à des calculs que certains ont fait. (Inutile de vous prévenir que tout ceci est très hautement pipo, et rarement correct de mieux qu'un facteur dix, parfois bien pire.)

Combien de personnes sont en train d'avoir un orgasme à cet instant, sur l'ensemble de la Terre ?
Quelques dizaines de milliers, sans doute.
Et combien de personnes pensent à la Divine Comédie de Dante en ce moment ?
Encore plus difficile à estimer, mais sans doute pas loin du précédent.
Si on faisait un tas de toutes les dents de tous les êtres humains depuis que l'humanité existe (disons depuis l'Homo erectus, si ça importe), quelle taille ferait-il ?
Guère plus d'une centaine de mètres.
Combien de garçons homosexuels blonds aux yeux bleus sont nés le 3 août 1976 (dans le monde) ?
À peu près une centaine, peut-être un peu plus.
Combien pèsent toutes les fourmis de la Terre ?
Probablement moins que tous les hommes réunis, ou à peu près autant, ce qui m'a surpris (j'aurais cru beaucoup plus). Soit quelques centaines de millions de tonnes. Les vers de terre doivent peser autrement plus lourd.
Quelle proportion de l'humanité née jusqu'à maintenant est actuellement vivante ?
4% ou assez près.
Si on serrait tous les hommes pour en faire une foule assez compacte, quelle place prendraient-ils ?
Deux ou trois milliers de kilomètres carrés (soit deux ou trois centaines de milliers d'hectares), ou encore un disque d'une cinquantaine de kilomètres de diamètre.
Combien y a-t-il d'atomes d'uranium dans mon corps en ce moment ?
Autour d'une dizaine ou une vingtaine de milliers de billions (i.e., 1016). Ce qui ne doit faire qu'à peu près une désintégration toutes les dix secondes.
Quelle masse de TNT faudrait-il faire exploser pour égaler la quantité d'énergie libérée par une supernova typique (de type II) ?
Un milliard de masses solaires. Ce qui représente aussi l'équivalent en énergie de vingt mille fois la masse de la Terre (avec une conversion totale). Ou cent fois l'énergie totale rayonnée par le soleil au cours de sa vie.