David Madore's WebLog: Où je commence par penser tout haut toujours à propos de spectres, et finis par ranter de façon interminable sur les caractères des groupes de Lie

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

↓Entry #2531 [older| permalink|newer] / ↓Entrée #2531 [précédente| permalien|suivante] ↓

(lundi)

Où je commence par penser tout haut toujours à propos de spectres, et finis par ranter de façon interminable sur les caractères des groupes de Lie

Avant-propos : Cette entrée est une sorte de brain-dump, qui finit assez différemment de ce qu'elle commence. J'étais parti sur l'idée, sans avoir forcément pour but d'être compréhensible (en tout cas pas complètement, en tout cas pas par tout le monde), de jeter des réflexions surtout pour moi-même (comme une sorte de sauvegarde de mon état mental) sur des questions autour du spectre du laplacien. Sachant que je n'avais pas les idées complètement claires sur certaines des choses qui suivent, donc je ne peux pas expliquer tout ça parfaitement, encore moins le vulgariser au niveau où j'aimerais idéalement le faire : le but était plutôt de retrouver mes idées éventuellement plus tard, quitte à produire quelque chose d'un peu abscons et pas forcément bien correct mathématiquement ; et je me disais que ça ne ferait pas de mal de les mettre en ligne. Mais en pondant tout ça, je me suis laissé emporter par mon sujet, et la section sur les groupes de Lie compacts a pris une place démesurée, et s'est écartée du point de vue initial (finalement, pour ce que je raconte sur les groupes de Lie, on n'a pas vraiment besoin de savoir ce qu'est un laplacien ni de prononcer son nom, et d'ailleurs comme je prends l'exemple du groupe des rotations, on n'a pas vraiment non plus besoin de savoir ce qu'est un groupe de Lie compact) ; et j'en ai écrit des pages sur l'analyse de Fourier sur un groupe de Lie compact. Chose que je comprends quand même nettement mieux que le problème du spectre du laplacien en général, mais ça ne veut pas forcément dire que je l'explique mieux. Et finalement, je ne sais plus bien de quoi parle cette entrée, il y a plusieurs sujets assez indépendants, et le niveau auquel je place mes explications varie d'un endroit à l'autre. Bref, je ne sais pas ce que tout ça vaut, mais maintenant que c'est écrit, ce serait quand même idiot de ne pas le mettre en ligne. C'est dommage que, comme j'ai fait une énorme moussaka, tout le monde va être rebuté, mais tant pis, je n'ai plus le courage d'essayer de démêler les ingrédients de la moussaka.

Je commence en reprenant la ligne de pensées commencée dans l'entrée précédente (et inspirée par un roman de Connes, Chéreau et Dixmier, donc) : je cherche à produire des sons mathématiques intéressants (et pas déplaisants) à écouter, et une des façons d'y arriver semble être de considérer un spectre, notamment le spectre du laplacien (et donc en pratique, de l'équation des ondes) sur une variété riemannienne (compacte, parce que je ne suis pas analyste ni géomètre, moi, je ne sais pas gérer le cas non-compact[#]) ; plusieurs questions soulevées incidemment : quels objets choisir pour lesquels on sait calculer explicitement le spectre du laplacien (et qu'est-ce que ça signifie au juste) ?, quelles données sont associées au spectre en question ?, comment précisément convertir ce spectre en un son ?, d'ailleurs, comment mener le calcul sur ordinateur ? ; et aussi : comment vulgariser la notion de spectre du laplacien (notamment sur un groupe de Lie, espace riemannien symétrique, etc.) ? (Je ne compte pas tant essayer de faire cette vulgarisation ici et maintenant, mais peut-être donner les pistes par lesquelles je l'aborderais pour pouvoir les retrouver si je devais le faire plus tard.) Je vais évoquer le cas des tores plats (quotients de l'espace euclidien par un réseau) puis, comme expliqué au paragraphe précédent, je vais dévier sur la théorie de Weyl de l'analyse harmonique sur les groupes de Lie compacts, ce qui est largement indépendant de ce que je raconte au début. Et à la fin, je serai trop fatigué pour parler des espaces riemanniens symétriques autrement que pour dire que suis trop fatigué.

[#] Une blague, qui est d'ailleurs peut-être une histoire vraie, qu'on m'avait racontée il y a longtemps, concerne un mathématicien dont la femme… — non, ne soyons pas sexiste comme ceux qui m'ont raconté cette histoire, je vais plutôt dire : — une mathématicienne dont le mari ne connaît absolument rien aux maths ; mais elle lui a donné l'astuce suivante permettant presque à tous les coups de poser une question pertinente lors d'un échange entre matheux : il suffit d'attendre qu'il y ait une petite pause dans la conversation, de prendre un air pensif, et de demander et est-ce que vous avez considéré le cas non-compact ?.

Plan

Qu'est-ce que calculer le spectre du laplacien ?

Si on prend pour point de départ l'équation des ondes (j'avais déjà fait une visualisation et tentative de vulgarisation pour le cas de la sphère ici), le spectre du laplacien représente les modes vibratoires de l'objet considéré. (J'utiliserai donc le terme mode vibratoire comme synonyme de [fonction qui constitue un] vecteur propre du laplacien.) Dans le cas d'une simple corde, ce sont simplement les harmoniques, mais en général le spectre est plus compliqué. À chaque mode vibratoire est associée une fréquence de vibration (qu'on peut aussi considérer comme une énergie), et qui est la racine carrée de l'opposée de la valeur propre du laplacien. (La valeur propre est forcément réelle négative parce que je me place dans le cas d'objets compacts, cf. ci-dessous, donc je noterai Λ l'opposée de la valeur propre, et √Λ la fréquence.) Mais pour des objets très symétriques, ce qui est typiquement le genre de choses qui m'intéresse, il va aussi y avoir une multiplicité (=dégénérescence) de la valeur propre, c'est-à-dire le nombre de modes vibratoires indépendants qui ont cette même fréquence. Calculer le spectre du laplacien, c'est calculer à la fois ces fréquences et ces multiplicités. Typiquement, le spectre va être paramétré par un certain nombre de paramètres entiers naturels (peut-être vérifiant certaines conditions) : le nombre de ces paramètres porte le nom de « rang », même si je ne sais pas définir ça correctement en général (je doute même que ce soit possible), c'est bien ce qui va donner la notion usuelle de rang pour un groupe de Lie, un espace riemannien symétrique, un tore…

Bref, ce qu'il faut calculer pour un « objet » X non spécifié, c'est en gros :

  • un rang r,
  • des conditions sur des entiers (naturels ?) a1,…,ar qui paramètrent (définissent) un mode vibratoire,
  • la valeur propre −Λ(a1,…,ar) du laplacien associée à ce mode vibratoire, ou, ce qui revient au même, sa fréquence de vibration √Λ(a1,…,ar),
  • et la multiplicité m(a1,…,ar) de la valeur propre.

S'agissant d'une variété riemannienne compacte, les analystes savent que (i) les opposées Λ des valeurs propres sont positives et forment un ensemble discret non borné, (ii) chaque valeur propre a une multiplicité m finie, (iii) les vecteurs propres (« modes vibratoires ») sont des fonctions analytiques réelles, (iv) les espaces propres (de dimension m finie par (ii)) associés à des valeurs propres différentes sont orthogonaux pour L², et (v) les combinaisons linéaires de ces vecteurs propres sont denses dans toutes sortes d'espaces, par exemple L² ou bien les fonctions continues pour la convergence uniforme. (D'après (iv) et (v), on peut donc fabriquer des bases hilbertiennes de L² formées de vecteurs propres du laplacien.) Si vous voulez savoir pourquoi tout ça est vrai, il faudra demander à un analyste, moi je n'en ai fichtrement aucune idée. (Mais si quelqu'un sait, je veux bien qu'on me dise quelle est la difficulté relative de ces différentes affirmations et leur ordre logique s'il y en a un, voire, l'attribution historique de ces énoncés. Je crois juste que Sturm-Liouville a un rapport avec le schmilblick, ce qui me donne une idée de la date.) Les analystes (et les vrais géomètres, i.e., pas comme moi), bien sûr, savent bien plus de choses sur le spectre du laplacien en général, comme une loi de Weyl que je vais évoquer ci-dessous, ou des inégalités reliant le spectre à la courbure. Mais ce n'est pas ce qui m'intéresse ici.

Exemple le plus simple : sur le cercle (trigonométrique), le rang vaut r=1, les modes oscillatoires sont les cos(a·θ) et sin(a·θ) où a∈ℕ, donc on a Λ(a)=a² (le laplacien étant, en l'occurrence, la dérivée seconde) et m(a) vaut toujours 2 (il y a le cosinus et le sinus) sauf pour a=0 auquel cas m(a)=1. Ces fonctions sont orthogonales pour L² (il faut mettre un √2 devant pour qu'elles deviennent orthonormées, peu importe), et la décomposition d'une fonction dessus est la théorie classique de Fourier.

Sur la 2-sphère, le rang vaut toujours 1, les modes oscillatoires sont donnés par les harmoniques sphériques, de paramètre =a (la notation est traditionnelle pour le niveau de l'harmonique sphérique, le a correspond à ce que j'écris avant), on a Λ(a)=a(a+1) et m(a)=2a+1 (parce qu'il y a 2+1 harmoniques sphériques indépendantes de niveau , traditionnellement étiquetées pour m allant de − à +). J'avais un peu parlé d'analyse en harmoniques sphériques ici et .

Encore plus généralement, pour n≥2, la n-sphère (sphère de dimension n, ou sphère unité dans l'espace euclidien de dimension n+1) est encore de rang 1, avec Λ(a) = a(a+n−1) et m(a) = (2a+n−1)/(n−1) · Binom(a+n−2, n−2) (où Binom(•,•) dénote le coefficient du binôme ; il n'est pas complètement trivial que ce nombre soit un entier, soit dit en passant).

Je vais revenir longuement sur le cas des groupes de Lie, mais pour relier avec les notations de l'entrée précédente, dans le cadre d'un groupe de Lie, ce que je note ici a y était noté v, ce que je note Λ(a) y était noté C(v) (comme Casimir), et ce que je note m(a) y était noté N(v)². (Je change toutes les notations parce que je veux parler d'un cadre plus général et que les notations que j'avais étaient vraiment spécifiques aux groupes de Lie.)

Il s'agit là d'exemples où les valeurs propres Λ(a) du laplacien apparaissent avec une multiplicité m(a) élevée : ceci caractérise des objets très symétriques (intuitivement : une fois qu'on a un mode vibratoire, on peut lui appliquer toutes sortes de symétries de l'objet, cela va donner des modes vibratoires en général différents mais ayant la même valeur propre, et du coup conduire à une multiplicité ; par exemple, sur la 2-sphère, quand on effectue une rotation sur une harmonique sphérique de niveau , on obtient une superposition des autres harmoniques sphériques de ce niveau). Un objet de forme quelconque (aléatoire) va, je suppose, avoir uniquement multiplicité 1 (et pas spécialement de moyen intelligent de calculer, ou même de paramétrer, son spectre), mais ce genre d'objets ne m'intéresse pas parce que, de nouveau, je ne suis pas analyste, et parce que je fais une fixette sur la symétrie.

Il y a par ailleurs un résultat de Weyl (que je ne connais pas bien mais qui est certainement valable dans un contexte plus général que ce qu'énonce Wikipédia) d'après lequel la somme des multiplicités m(a) pour toutes les valeurs propres Λ(a) inférieures ou égales à λ₀ croît comme λd/2d est la dimension de l'objet X. La constante est même proportionnelle au volume de l'objet, mais je vais faire disparaître ça en renormalisant.

On me souffle que la question de savoir pour quels objets on sait calculer explicitement le laplacien est évoquée ici (et j'étais d'ailleurs tombé dessus par le passé, j'avais totalement oublié). Mais revenons d'abord en arrière d'un cran.

Comment transformer en son le spectre du laplacien d'un machin ?

Admettons qu'on connaisse le spectre du laplacien d'un machin. Comment transformer ça en son dans le but de faire de la visualisation, enfin, de l'« auditorisation » mathématique ? Ce que l'oreille entend, c'est une superposition de fréquences à différentes amplitudes (a priori, elle est sourde aux phases, même si on peut vouloir raffiner et faire du son stéréo auquel cas les différences de phases s'entendent effectivement). Il ne s'agit pas de calculer exactement ce qui se passe quand on donne un coup dans l'objet X et quel son on entend, parce que ce serait beaucoup trop compliqué. Il s'agit de produire un son à la fois plausible et mathématiquement naturel. Les fréquences de ce son devront manifestement être les √Λ(a), puisque ce sont les fréquences des différents modes vibratoires. Mais leurs amplitudes ? Comme je disais dans l'entrée précédente (cf. aussi ses commentaires), je ne sais pas bien, et il n'est pas clair qu'il y ait une « bonne » réponse. Mais quand même :

  • Il semble naturel que l'amplitude ait au moins un facteur m(a), au moins selon le raisonnement simpliste selon lequel on superpose de nombre-là d'ondes de même fréquence. Mais bon, en fait, ce n'est pas clair pourquoi cette superposition devrait être en phase : mettre m(a) dans l'amplitude revient à mettre m(a)² dans la puissance à cette fréquence, on pourrait aussi défendre l'idée de mettre √m(a) dans l'amplitude (donc m(a) dans la puissance).

    J'ai essayé de calculer (formellement) la réponse à une distribution δ (i.e., la fonction de Green de l'équation des ondes) : dans le cas d'un groupe de Lie et je crois même dans le cas d'un espace riemannien symétrique, il me semble bien qu'on obtient un coefficient m(a) dans l'amplitude (pour la valeur de la fonction en un point donné), et pas √m(a) ; mais je n'ai du tout d'intuition claire à ce sujet (pourquoi tous les modes vibratoires de même fréquence devraient-ils se superposer constructivement ? d'ailleurs je n'ai même pas l'impression que ce soit le cas…), à vrai dire je suis totalement confus ; et je ne suis pas du tout sûr que mon calcul soit correct (je l'ai refait plein de fois, j'ai trouvé un résultat différent presque la moitié des fois, j'ai fini par trouver des erreurs dans ces fois-là, mais je n'exclus pas qu'il y en ait aussi dans les autres). Un copain physicien semble penser aussi qu'il doit y avoir du m(a), mais je me rends compte en relisant son commentaire que ce n'est pas super clair s'il parle en amplitude ou en puissance.

    En tout cas, au moins dans le cas de la sphère, je suis raisonnablement convaincu que c'est bien un 2+1 (mon m(a)) qui apparaît dans l'amplitude, comme je l'écris dans cette question pour laquelle j'en profite pour faire de la pub. Je découvre à cette occasion à quel point je suis nul en analyse (mais bon, ça je le savais), mais aussi, que ce genre de série de Fourier divergente peut avoir un sens tout à fait clair et donner une fonction intéressante que je ne sais pas du tout calculer. (Le but de la question, donc, est d'évaluer la fonction G(θ,t), notamment à θ fixé et t variable, si on intègre l'équation des ondes sur la 2-sphère à partir d'une distribution δ au pôle nord (θ=0) au temps t=0. Je ne sais pas bien à quoi je m'attendais, mais sans doute pas à ça, même si j'étais au courant que le principe de Huygens gnagnagna dimension paire gnagnagna. Mais je digresse.)

  • Maintenant, pour éviter d'avoir à sommer des séries divergentes (même si ce n'est pas absolument impossible, cf. juste au-dessus), et comme la somme des m(a) croît d'après le résultat de Weyl évoqué plus haut, il faut trouver un moyen de faire décroître (assez vite !) l'amplitude avec la fréquence. Pour ça, je vois deux façons naturelles de faire : si E := √Λ(a) est la fréquence (je note E comme une énergie, mais peut-être que j'ai tort de faire ça, en fait), on peut postuler une décroissance en exp(−(E/U)²) ou en exp(−E/T) (dans les deux cas, U ou T est un paramètre qui est une sorte de fréquence de référence de référence ; dans le second cas, on peut imaginer qu'il s'agit d'une température). Notons que cette fois-ci ça n'a pas d'importance qu'on parle de décroissance de l'amplitude ou de la puissance, pour la fréquence en question, puisque ça changera juste d'un facteur 2 dans l'argument de l'exponentielle.

    J'avais commencé (notamment pour les sons que j'ai produits dans l'entrée précédente) par postuler une décroissance en exp(−(E/U)²) selon le raisonnement suivant : en fait, quand on frappe l'objet pour le mettre en vibration, le choc n'est pas infiniment ponctuel (distribution δ) mais plutôt comme une gaussienne. La gaussienne, c'est le machin dont la transformée de Fourier est en exp(−(E/U)²), donc je vais faire ça. (Pour le coup, je n'ai pas de doute que mon raisonnement soit correct pour la réponse à une gaussienne ; la question est plutôt de savoir si la réponse à une gaussienne est quelque chose de naturel à considérer en l'occurrence. Accessoirement, quand je dis une gaussienne, ce n'est pas une gaussienne, c'est plutôt ce que devient la distribution δ si on la laisse évoluer un peu selon l'équation de la chaleur au lieu de l'équation des ondes, i.e., le noyau de la chaleur.) Il y a aussi une fonction standard appelée fonction zêta de Minakshisundaram-Pleijel qui est la somme des exp(−Λ·s) pour Λ parcourant les valeurs propres du laplacien [correction : hein ? qu'est-ce que j'ai raconté là ? c'est la somme des Λs].

    Mais le copain physicien évoqué plus haut me propose, lui, une décroissance en exp(−E/T), et c'est vrai que c'est très naturel aussi quand on a fait de la thermo / mécanique statistique (où T serait alors une température). C'était la première décroissance à laquelle j'avais pensé, mais sans vraiment avoir de justification, avant de me raviser avec le raisonnement autour de la gaussienne et de l'équation de la chaleur ; mais l'argument de la thermo est tout de même puissant. Une autre raison d'aimer la décroissance en exp(−E/T) est que si on va sommer des choses comme exp(i·E·t) pour fabriquer l'onde sonore (où t est le temps), mettre une décroissance de l'amplitude en exp(−E/T) revient à donner une petite partie imaginaire au temps, ce qui est une façon naturelle de régulariser une série de Fourier divergente.

    Donc, qu'est-ce qui est le plus naturel, le plus élégant ou le plus sensé physiquement ? Je n'en sais rien, le vote est ouvert. Remarquez, je pourrais faire des essais et juste prendre celui qui sonne le mieux à l'oreille, mais les calculs sont quand même pénibles à mener, je n'ai pas envie de multiplier les tentatives (et puis c'est beaucoup plus drôle de spéculer plutôt que de profiler).

  • Enfin, il faut sans doute une décroissance avec le temps, parce que, quand même, c'est mieux d'avoir un son qui finit par s'estomper (et ça permet de mieux entendre des différences entre objets). Et là j'ai essentiellement les mêmes questions que pour la décroissance avec la fréquence (énergie). Dans les expérimentations faites à l'entrée précédente, j'ai choisi un peu arbitrairement une décroissance en exp(−(E/U)²·(1+t/τ)). Je n'ai pas vraiment de justification pour ça. Peut-être que je devrais prendre une équation des ondes avec un terme de dissipation (linéaire ! sinon je ne peux rien calculer) ou un mélange entre l'équation des ondes et l'équation de la chaleur, ou quelque chose comme ça. Reste à trouver quoi, justement. La course au pipotron est ouverte.

Il y a aussi des questions de normalisation, par exemple comment choisir une fréquence « fondamentale ». Pour ça, au moins, je suis content de la solution que j'ai trouvée : s'agissant d'un groupe de Lie, il y a un mode propre très naturel, c'est celui qui correspond à la représentation adjointe, et je prends ça comme fréquence « fondamentale », que je calibre à 440Hz pour produire mes sons. (Et même pour un quotient d'un groupe de Lie, je peux prendre la représentation adjointe du groupe de Lie comme fréquence de référence, tant pis si elle n'est pas représentée comme mode vibratoire du quotient. Pour le cas de la n-sphère, par exemple, ça signifie que je rapporterai toutes les valeurs propres Λ(a) = a(a+n−1) à la référence 2(n−1), peu importe qu'elle ne fasse généralement pas partie de la liste.)

Bon, maintenant il faut choisir des objets sur lesquels appliquer tout ça.

Le cas des tores plats

Plutôt que de parler de groupes de Lie, si je devais faire de la vulgarisation sur le sujet, je pense que les objets les plus évidents à considérer en premier lieu seraient les tores [plats], c'est-à-dire des quotients de l'espace euclidien par des réseaux.

Le plus facile à évoquer est (ℝ/ℤ)² (quotient de ℝ² par le réseau carré ℤ²), ou carré avec les bords opposés identifiés. On a juste affaire à des fonctions 1-périodiques en deux variables séparément : les modes vibratoires de (ℝ/ℤ)² sont les exp(2iπ(ax+by)) avec a et b entiers relatifs, qu'on peut préférer réécrire comme des sinus et des cosinus pour avoir des fonctions réelles. Quitte à mettre le bon coefficient devant mon laplacien (i.e., vous ne m'en voudrez pas de poser 2π=1, c'est bien plus pratique), les fréquences de ces modes oscillatoires sont les racines carrées de Λ(a,b) = a²+b². Autrement dit, les modes oscillatoires du tore sont les points (a,b) d'un autre réseau, réseau « des poids », qui est aussi ℤ² mais qui est en fait le réseau dual du réseau ℤ² « des périodes » de départ (le ℤ² « des poids » est aussi le dual du tore (ℝ/ℤ)² au sens de Pontrjagin). Les fréquences sont les normes euclidiennes des points (a,b) en question, et les multiplicités étant données en comptant le nombre de solutions entières de a²+b² = λ, ça tombe bien, on sait faire ce genre de choses, ça s'appelle la fonction thêta du réseau des poids (en l'occurrence, celle-ci). (Et dans ce contexte, la formule de Weyl évoquée plus haut dit que le tore est de dimension 2, mais elle dit aussi, si on regarde de plus près le coefficient, que le nombre de points (a,b) du réseau des poids avec a²+b² ≤ λ₀ croît comme π·λ₀ ; ça ne se voit pas bien parce que j'ai agité les mains sur la normalisation, mais en principe ça doit dire ça.)

Et en fait, ce genre de choses peut être fait sur n'importe quel réseau. Disons que les modes vibratoires sur le tore ℝn/L, où L est un réseau euclidien de rang n (appelé réseau « des périodes » du tore), sont les x ↦ exp(2iπ(α·x)) où x est défini modulo L et où α parcourt le réseau L* (réseau « des poids »), réseau dual de L (c'est-à-dire l'ensemble des formes linéaires qui prennent des valeurs entières sur L). Les valeurs propres Λ(α) sont justement données par la norme euclidienne sur le réseau des poids L*, et la multiplicité est un décompte du nombre d'éléments de norme donnée, ce qu'on appelle la fonction thêta du réseau. (Bon, pour être précis, si on paramètre les modes vibratoires par αL*, il n'y a pas de multiplicités parce que, justement, chacun définit un unique mode vibratoire ; les multiplicités apparaissent si on paramètre en fonction de la norme de α. Mes définitions ne sont pas super précises, mais on comprend bien ce qui se passe.)

Pour la visualisation, ce ne serait pas mal de faire des animations d'ondes sur des tores plats = ondes modulo des réseaux, en dimension 2. Ce serait intéressant de représenter soit une onde aléatoire, comme je l'ai fait pour la sphère, soit l'évolution selon l'équation des ondes d'une gaussienne bien piquée. C'est probablement joli à regarder et assez instructif pédagogiquement. Et ce n'est pas du tout difficile (en tout cas nettement plus facile qu'avec les harmoniques sphériques qui sont casse-bonbons à calculer). TODO, donc. [Ajout : voir l'entrée suivante.]

Pour l'auditorisation, on peut monter en beaucoup plus grande dimension. Le réseau E₈, par exemple (= réseau des octuplets de réels, tous entiers ou entiers-et-demi, et dont la somme est paire), est particulièrement approprié, pas seulement parce que je suis obsédé par E₈ mais aussi parce que sa fonction thêta est particulièrement simple à calculer (à part en 0, le nombre d'octuplets d'entier ou d'entiers-et-demi dont la somme est paire et dont la somme des carrés vaut 2n, c'est 240 fois la somme σ₃(n) des cubes des diviseurs de n). Le rapport entre le spectre du laplacien sur le réseau E₈ et sur le groupe de Lie du même nom est intéressant, je vais revenir là-dessus. Un autre serait le réseau de Leech dont la fonction thêta est également bien connue. Ceci étant, je ne fais pas les calculs parce que j'ai peur d'être déçu : même si les multiplicités changent beaucoup, l'ensemble des fréquences est juste l'ensemble des √λ pour λ parcourant les entiers naturels (pairs, si on veut, mais on peut normaliser ça en tous les entiers naturels). Alors certes, le réseau de Leech a un trou dans ses fréquences (il lui manque, si j'ose dire, la fondamentale : c'est un réseau « sans racine »), mais à moins de choisir une décroissance particulièrement agressive de l'amplitude avec la fréquence, je pense qu'on ne va rien entendre du tout à ce phénomène. (Encore une fois, spéculer plutôt que profiler.)

Le cas des groupes de Lie compacts

Maintenant je vais essayer de parler de groupes de Lie, et je vais complètement m'embourber dans mes explications (je le sais parce que j'écris ce paragraphe après coup).

Le truc avec les groupes de Lie compact, donc, c'est qu'ils se comportent de façon étonnamment proche des tores du point de vue du spectre du laplacien — ou plutôt, comme s'ils étaient des quotients d'un tore par le « groupe de Weyl » (cf. plus loin). Notamment, alors que le spectre du laplacien sur un tore est paramétré par un réseau euclidien (« réseau des poids »), le spectre du laplacien sur un groupe de Lie compact est paramétré par un cône dans un réseau euclidien (et pas n'importe quel réseau euclidien : le même que celui associé à un « tore maximal » du groupe). On sait calculer de façon tout à fait explicite à la fois les valeurs propres du laplacien, leurs multiplicité, et des vecteurs propres explicites représentant ces valeurs propres. C'est un morceau de mathématiques que je trouve extraordinairement beau, et qui pour l'essentiel le résultat des travaux de Hermann Weyl. (Que je vais donc m'empresser de massacrer.)

Considérons, donc un groupe de Lie compact connexe G. Pour simplifier l'exposition, je le prendrai semisimple. Et parfois j'aurai aussi besoin de le supposer simplement connexe. En fait, je vais surtout traiter un exemple de façon filée, donc on peut supposer (surtout si on ne sait pas bien ce qu'est un « groupe de Lie compact connexe semisimple ») que G est le groupe SO(n) des rotations en n dimensions. Ou éventuellement, dans les cas où j'ai besoin que mon groupe soit simplement connexe, Spin(n) (le revêtement double de SO(n), c'est-à-dire qu'il arrive à distinguer une rotation d'un tour complet de pas de rotation du tout ; noter que le sens dans lequel on fait une rotation d'un tour complet n'a pas d'importance, on tombe toujours sur le même élément de Spin(n), qui est central c'est-à-dire qu'il commute à tout). Mais si on veut d'autres exemples, on peut penser à SU(n) ou Sp(n) (qui sont bien des groupes de Lie compacts connexes semisimples et simplement connexes).

La notion de tore maximal

La première chose que je dois faire, c'est décrire un petit peu le tore qui apparaît dans l'histoire. Un tore T d'un groupe de Lie compact, c'est un sous-groupe commutatif compact (=fermé) et connexe ; et on peut le voir comme un quotient E/L d'un espace euclidien E (précisément, l'espace tangent au tore) par un réseau L (le réseau des périodes du tore) de rang égal à la dimension de E (qu'on appelle le rang du tore). Et un tore maximal, c'est, fort logiquement un sous-groupe commutatif compact connexe maximal pour l'inclusion — et c'est aussi la même chose qu'un tore de rang maximal et son rang s'appelle le rang du groupe de Lie. Je vais donner un exemple tout de suite sur les rotations, mais déjà je suis en train de glisser une poussière très importante sous le tapis, c'est que je n'explique pas en quoi il y a une structure d'espace euclidien (et crucialement, un produit scalaire) naturelle sur E. (Si on considère juste la structure de groupe et la topologie, un tore de rang r on peut toujours le voir comme (ℝ/ℤ)r, et il n'y a pas besoin de considérer des réseaux ayant une forme différente ; c'est la structure euclidienne qui fait qu'on a vraiment des réseaux intéressants. Disons que cette structure euclidienne sera celle qui fera que le groupe de Weyl, que je vais définir plus loin, est un groupe d'isométries euclidiennes.)

Je donne un exemple dans le groupe SO(n) des rotations, donc, disons en n=2r ou n=2r+1 dimensions, puis de Spin(n). On peut choisir un système d'axes[#2] fixé et considérer l'ensemble T des rotations autour de ces axes et dont les r angles θ1,…,θr varient : ces rotations commutent manifestement entre elles (les angles s'ajoutent simplement), elles forment manifestement un ensemble compact connexe (c'est l'image continue d'un compact connexe), et il n'est pas difficile de se convaincre qu'on ne peut pas en mettre plus. Ce T est donc un tore maximal. Dans l'exemple de T⊆SO(n), un élément de T est défini par le choix de r angles, chacun modulo 2π, ou modulo 1 tour si on préfère, donc on peut identifier T à (ℝ/ℤ)r = ℝr/ℤr. Le réseau des périodes de SO(n) est donc simplement le réseau cubique ℤr. Mais s'agissant de Spin(n), le tore maximal T˜ qui relève T est toujours défini par la donnée de r angles, cette fois-ci chacun modulo deux tours, mais où une rotation d'un tour complet est toujours la même quelle que soit l'axe autour de laquelle elle a été faite : cela revient à quotienter ℝr par le réseau formé des r-uplets d'entiers tous de même parité. (Ou, si on préfère compter les angles en doubles-tours, du réseau des r-uplets de réels tous entiers ou tous entiers-et-demi.) Ce réseau des périodes de Spin(n) s'appelle Dr*.

[#2] Par un système d'axes je veux dire une base orthonormale de l'espace telle que la rotation s'obtienne en composant une rotation d'un premier angle θ₁ sur les deux premières coordonnées uniquement, puis d'un second angle θ₂ sur les deux coordonnées suivantes, et ainsi de suite. Bref, telle que la rotation se décrive par une matrice diagonale par blocs 2×2 égaux à des matrices de rotation en dimension 2 (auxquels on ajoute encore un 1 diagonal final si la dimension est impaire). Le terme de système d'axes est tout à fait abusé (je ne sais pas vraiment quels sont les « axes » de l'histoire… ce sont probablement des machins de codimension 2), mais je l'utilise par analogie à la dimension 3. Ici et dans toute la suite, quand je parlerai de rotation [d'angles θ1,…,θr] autour d'un système d'axes cela signifiera une rotation définie, dans une certaine base fixée correspondant au « système d'axes » par la matrice diagonale par blocs que j'ai décrite.

Il y a deux faits essentiels à citer à propos des tores maximaux dans les groupes de Lie G compacts connexes, et qui sont, je crois, dus au père Cartan :

  1. Si T est un tore maximal fixé, n'importe quel élément de G est conjugué à un élément de T (autrement dit, si xG, il existe gG tel que g·x·g−1T). C'est ce fait qui justifiera qu'on peut toujours ramener l'étude des éléments du groupe G à des éléments de T (et spécifiquement, que toute classe de conjugaison est représentée par un tel élément).
  2. Deux tores maximaux sont conjugués entre eux (autrement dit, si T et T′ sont deux tores maximaux. il existe gG tel que g·T·g−1=T′). C'est ce fait qui justifiera que le choix précis du tore maximal n'aura pas d'importance dans tout ce que je vais raconter.

Si on a du mal à visualiser l'opération de conjugaison, disons que dans le cas des rotations, conjuguer une rotation x par une autre g signifie géométriquement qu'on « fait une rotation sur la rotation », c'est-à-dire qu'on fait tourner le système d'axes de x selon la rotation g. Dans ces conditions, le fait (A) signifie qu'on peut toujours effectuer une rotation (g) pour ramener le système d'axes d'une rotation x donnée sur le système d'axes choisi pour définir T ; et le fait (B) signifie que tout tore maximal se définit par un choix de système d'axes. (Voir la note #2 ci-dessus au sujet du terme système d'axes.)

Le groupe de Weyl entre dans l'histoire

Maintenant, une fois fixé un tore maximal T d'un groupe de Lie compact connexe G, s'il est vrai que tout élément du groupe est conjugué à un élément de T (fait (A) ci-dessus), en revanche, cet élément n'est pas unique, c'est-à-dire que deux éléments différents de T peuvent être conjugués. Dans le cas de mon exemple des rotations, j'ai expliqué qu'on pouvait amener par conjugaison n'importe quelle rotation x sur une rotation de T (i.e., autour du système d'axes choisi), ce qui permet de mesurer ses angles θ1,…,θr, mais non seulement ces angles ne sont définis qu'à un tour près (voire modulo un réseau de périodes pour le cas de Spin(n)) mais en plus la conjugaison choisie pour ramener la rotation sur un élément de T va influencer les angles. Cela signifie, concrètement, que la donnée des r angles d'une rotation n'est pas bien définie (il y a plusieurs moyens de conjuguer ma rotation en une rotation de T). Pour commencer, on peut évidemment permuter arbitrairement les angles. Mais aussi, on peut effectuer des changements de signes dessus : en dimension n=2r+1 on peut changer le signe de n'importe quel nombre d'entre eux, c'est évident en dimension 3 où l'angle d'une rotation n'est définie qu'au signe près puisqu'on peut changer l'orientation de l'axe en le tournant d'un demi-tour, en dimension n=2r, on peut changer simultanément le signe d'un nombre pair d'angles.

Les transformations de T en lui-même par la conjugaison d'autres éléments du groupe G s'appellent le groupe de Weyl W de G (relativement à T, mais à cause du fait (B) plus haut, le choix de T n'a pas d'importance). Techniquement, il s'agit du normalisateur de T dans G quotienté par T lui-même. Et un fait crucial est que ce groupe W est fini.

Moralement, donc, le groupe de Weyl mesure l'indétermination qu'il y a à rapporter un élément de G à un élément de T par conjugaison.

Le groupe de Weyl opère sur toutes sortes d'objets : non seulement (par définition) sur T = E/L, mais aussi sur l'espace euclidien E dont T est quotient (je passe ici sur quelques subtilités sur la manière dont on relève l'action de W sur T à une action sur E) et (par restriction) sur le réseau L des périodes de T (et du coup aussi sur le réseau dual L* de L qui interviendra plus loin). L'action sur E (et, du coup, L et L*) se fait par isométries euclidiennes : c'est essentiellement la définition de la structure euclidienne sur E (que j'ai passée sous silence plus haut) et c'est un point crucial pour comprendre la géométrie de la situation.

Dans le cas de SO(n) ou Spin(n), le groupe de Weyl est engendré par les permutations des r angles et les changements de signes autorisés (c'est-à-dire sur un nombre quelconque d'angles dans le cas de dimension impaire n=2r+1 ou sur un nombre pair d'angles dans le cas de dimension paire n=2r) : c'est l'indétermination à mesurer les angles d'une rotation en dimension n. Je peux aussi mentionner que pour SU(n) (où un tore maximal est donné par les matrices diagonales dont les coefficients diagonaux sont des complexes de module 1 et de produit 1), le groupe de Weyl est le groupe des permutations sur n objets (les permutations des coefficients diagonaux) ; pour Sp(n), le groupe de Weyl est le même que pour SO(2n+1) ; et pour les cas exceptionnels, les groupes de Weyl sont des groupes pas complètement évidents à décrire mais cf. notamment ici.

En fait, un groupe de Lie compact connexe, de beaucoup de points de vue, se comporte comme s'il était un quotient de son tore maximal par son groupe de Weyl (voir aussi cette question).

Description des classes de conjugaison et alcôve de Weyl (digression)

Il y a une très jolie géométrie dans l'histoire. Par définition du groupe de Weyl (et, bien sûr, par le fait (A) ci-dessus), l'ensemble des classes de conjugaison du groupe de Lie G peut s'identifier (au moins en tant qu'ensemble !) au quotient T/W du tore maximal T par le groupe de Weyl W. Mais comme T est lui-même quotient E/L d'un espace euclidien (son espace tangent) E par un réseau L dedans, on peut voir l'ensemble des classes de conjugaison comme un quotient de E par le groupe Waff := LW engendré à la fois par les translations de L et les symétries de W (qu'on peut relever de L à E en décidant qu'elles fixent l'origine) ; ce groupe Waff s'appelle le groupe de Weyl affine. Moralement, si W mesure l'indétermination qu'il y a à rapporter un élément de G à un élément de T, le groupe Waff mesure l'indétermination à le relever à E. Mais ce qui est intéressant, en supposant maintenant que le groupe G soit simplement connexe, c'est qu'il existe un polytope A dans E, appelé alcôve de Weyl, qui (i) est un domaine fondamental de Waff agissant sur E, c'est-à-dire que chaque élément de E peut être ramené sur un unique élément de A par l'action de Waff, donc, concrètement, A paramètre exactement les classes de conjugaison de G (au moins en tant qu'ensemble, ou en tant qu'espace topologique, on peut identifier A à E/Waff à T/W et à G/Int(G)), et (ii) est un polytope « kaléidoscopique », c'est-à-dire que c'est un polytope (et dans le cas d'un groupe G simple, c'est un simplexe) dans E tel que quand on le reflète de façon répétée par ses facettes, on obtient un pavage de E ; et les réflexions en question engendrent justement Waff (c'est un groupe de Coxeter affine).

À titre d'exemple, je peux décrire l'alcôve de Weyl A de Spin(2r+1) par les inégalités suivantes (sur un élément (θ1,…,θr) de E ; rappelons qu'il s'agit des angles de la rotation, exprimés en tours) : θ1 ≥ ⋯ ≥ θr ≥ 0 et θ1+θ2 ≤ 1. Autrement dit, un élément de Spin(2r+1) est décrit à conjugaison près de façon unique par la donnée de ses angles si on les choisit vérifiant les inégalités que je viens de dire. Et en remplaçant une de ces inégalités par une égalité on obtient les facettes de l'alcôve de Weyl.

Le même genre de choses vaut pour les autres groupes semisimples — ou disons plutôt simples pour que l'alcôve soit un simplexe — et simplement connexes. La correspondance est même telle que les simplexes kaléidoscopiques (ou les groupes de Coxeter affines irréductibles) sont exactement en correspondance avec les groupes de Lie compacts simples et simplement connexes. Les angles diédraux du simplexe sont d'ailleurs tous π/2 ou π/3 ou π/4 ou π/6, et si on trace une figure dont les nœuds sont les facettes du simplexe et en reliant chaque paire de nœuds par zéro, un, deux ou trois traits selon que l'angle est l'une de ces quatre quantités, on obtient le diagramme de Dynkin étendu (= diagramme de Coxeter affine) de la situation : par exemple, dans le cas de Spin(2r+1), si on calcule les angles diédraux entre les (r+1) hyperplans définis par les cas d'égalité des inégalités données plus haut (soit θ1=θ2, θ2=θ3, et ainsi de suite jusqu'à θr−1=θr mais aussi θr=0 et θ1+θ2=1), on tombe sur le diagramme étendu Br˜ de cette figure.

(Extra : Pour en savoir plus sur tout ce genre de choses, notamment la notion de coordonnées de Kac, comment calculer l'ordre des éléments à partir de leurs coordonnées de Kac, un passage sur le SU₂ principal de Kostant, et aussi comment généraliser les coordinnes de Kac au cas du groupe — pas forcément connexe — des automorphismes d'une algèbre de Lie simple, je recommande l'excellent article de Mark Reeder, Torsion Automorphisms of Simple Lie Algebras.)

Polynômes trigonométriques et polynômes W-invariants et W-antiinvariants sur le tore

Mais je dois essayer de revenir au spectre du laplacien, parce que j'ai digressé (ce que j'ai raconté était surtout dû à Cartan et Coxeter, il faut que je revienne à Weyl). Sauf qu'avant, il faut encore que je parle de polynômes trigonométriques, de polynômes trigonométriques W-invariants, et de poids dominants.

Je repars donc d'un groupe compact connexe G (semisimple pour simplifier) et de son tore maximal T qu'on voit comme un quotient d'un espace euclidien E par un réseau L « des périodes » dans E. Le réseau dual L* de L s'appelle réseau des poids[#3] de T ou de G. Comme je l'ai expliqué plus haut dans le cadre des réseaux avant de commencer à parler de groupes de Lie, les modes vibratoires de T sont les x ↦ exp(2iπ(α·x)) où α parcourt L*, i.e., est un poids de T. Je vais appeler monôme trigonométrique une telle fonction x ↦ exp(2iπ(α·x)) sur T, et polynôme trigonométrique (sur T), ou d'ailleurs polynôme sur T tout court parce qu'il n'y en aura pas d'autres dans l'histoire, une combinaison linéaire de monômes trigonométriques. (Donc, concrètement, une combinaison linéaire de sinus et de cosinus qui admette n'importe quel élément de L comme période.) Les polynômes trigonométriques forment d'ailleurs un anneau (en fait, si on convient de parler de polynômes complexes, c'est un anneau de polynômes de Laurent, mais peu importe). Accessoirement, le théorème de Stone-Weierstraß assure que les polynômes trigonométriques sur T approchent arbitrairement près (pour norme de la convergence uniforme) n'importe quelle fonction continue sur T.

Sur mon exemple du groupe SO(n) des rotations, un polynôme trigonométrique sont les combinaisons linéaires des exponentielles imaginaires (ou sinus et cosinus) des 2π(a1θ1 + ⋯ + arθr) où a1,…,ar sont tous entiers ; s'agissant de Spin(n), comme les θi ne sont chacun définis qu'à deux tours près ou à un tour près sur deux quelconque d'entre eux, on peut aussi avoir des termes où a1,…,ar sont tous entiers-et-demi. (Je souligne que, pour l'instant, je parle de fonctions sur T et pas sur G.)

[#3] À vrai dire, ma terminologie n'est pas complètement standard, mais je ne trouve pas vraiment de terminologie standard. Le truc est que le groupe G est quelque part intermédiaire entre son revêtement universel G˜ (« forme simplement connexe ») et son quotient G₁ par son centre (« forme adjointe » ou centerless) ; tous les groupes entre un même G₁ et G˜ sont dits isogènes. Les tores maximaux T, T˜, T₁ (choisis pour se correspondre) de ces groupes respectifs sont les quotients du même espace euclidien E par trois réseaux de périodes L, L₀ et L₁ respectivement, vérifiant L₀ ⊆ LL₁ (d'ailleurs, tous les L entre L₀ et L₁ sont possibles), tandis que leurs duaux vérifient L*L*L*. Les réseaux extrêmes L₀, L₁, L* et L* s'appellent respectivement réseau des coracines, réseau des copoids, réseau des poids et réseau des racines (remarquez que le réseau des poids est dual du réseau des coracines et le réseau des copoids dual du réseau des racines), mais je ne connais pas vraiment de nom pour L et L*. Je choisis d'appeler quand même L* réseau des poids, en comprenant que c'est le réseau des poids de G tandis que L* est le réseau des poids possibles (le plus gros possible), et le réseau des racines L* est le plus petit réseau des poids, que j'aurais tendance à appeler réseau des poids garantis : avec cette terminologie, le réseau des poids de G est donc quelque part entre le réseau des poids garantis et le réseau des poids possibles. Notons que ker(G˜→G) = ker(T˜→T) = L/L₀ = L*/L* est le groupe fondamental de G, et que ker(GG₁) = ker(TT₁) = L₁/L = L*/L* est son centre.

Je dirai qu'un polynôme trigonométrique sur T est W-invariant (ou W-symétrique) lorsqu'il est invariant par toutes les symétries définies par le groupe de Weyl : φ(w(x))=φ(x) pour tout wW et xT (ou dans xE si on préfère). C'est le cas quand l'ensemble des poids (i.e., des monômes) qui interviennent dedans est invariant par W (opérant sur L*) et que les coefficients sont les mêmes devant chaque orbite sous W (chaque ensemble de poids qui s'envoient les uns en les autres par l'action de W). Pour reprendre l'exemple de SO(n) dont le tore maximal est paramétré par r=⌊n/2⌋ angles θ1,…,θr, un polynôme trigonométrique W-invariant est un polynôme trigonométrique qui ne change pas par permutation des θi ni par changement de signe d'un nombre quelconque d'entre eux (lorsque n est impair) ou d'un nombre pair d'entre eux (lorsque n est pair).

Ce n'est pas difficile de fabriquer un polynôme trigonométrique W-invariant : on peut partir d'un monôme exp(2iπ(α·x)) défini par un poids αL* quelconque, et de sommer sur W, qui est un groupe fini, c'est-à-dire faire la somme ∑wW exp(2iπ(w(αx)). Éventuellement on peut préférer faire la moyenne, c'est-à-dire la somme divisée par le cardinal #W de W ; parfois il est préférable de considérer la somme pα := ∑w(α)∈Wα exp(2iπ(w(αx)) = ∑α′∈Wα exp(2iπ(α′·x)), où ce que je veux dire est : on ne somme qu'une seule fois chaque valeur w(α) distincte : et cela revient à diviser la somme ∑wW exp(2iπ(w(αx)) précédente par le nombre de fois que chaque terme y est répété, qui est le cardinal #StabW(α) du stabilisateur de α dans W : pα = (1/#StabW(α)) ∑wW exp(2iπ(w(αx)) ; tout ça n'aura guère d'importance pour ce que je vais raconter.

Par exemple, si je considère SO₅ ou Spin₅ (peu importe), la fonction exp(2iπθ₁) sur T est le monôme trigonométrique défini par α=(1,0) : ses images (= son orbite) par W sont (lui-même et) exp(2iπθ₂) et exp(−2iπθ₁) et exp(−2iπθ₂), et la somme de tout ça, pα = 2·cos(2πθ₁) + 2·cos(2πθ₂), est invariante par le groupe de Weyl (échange de θ₁ et θ₂ et changements de signes quelconques). Soit dit en passant, quand on fait des sommes ∑ exp(2iπ(w(αx)) comme ça, sur le groupe de Weyl, comme tous les w(α) ont la même norme euclidienne que α, ce sont des vecteurs propres pour la même valeur propre −|α|² (ou peut-être −4π²·|α|², enfin, peu importe) du laplacien sur T, donc la somme est encore un vecteur propre.

Il est facile de se convaincre que, si α parcourt les poids (i.e., parcourt le réseau L*), les sommes (ou les moyennes) ∑wW exp(2iπ(w(αx)) ou pα que je viens d'évoquer définissent une base des polynômes trigonométrique W-invariants sur T ; mais ces éléments ∑wW exp(2iπ(w(αx)) ou pα ne sont pas tous distincts, ils coïncident lorsque α et α′ sont dans la même orbite sous W. Donc la question préliminaire se pose de savoir comment paramétrer l'ensemble L*/W des orbites de L* sous W (de manière à avoir une base paramétrée par cet ensemble).

Heureusement, le caractère géométriquement très agréable de l'action de W (sur E*) fournit une réponse : W est engendré par des réflexions (= symétries orthogonales par rapport à des hyperplans), si on considère le complémentaire de la réunion de tous les hyperplans H tels que la symétrie par rapport à H soit dans W (par exemple, dans le cas de SO(2r+1), ce sont les hyperplans ai=0 et les hyperplans ai=aj), il se trouve que le nombre de composantes connexes est exactement égal au cardinal de W (et W opère simplement transitivement sur ces composantes), et que si on choisit une composante connexe quelconque de ce complémentaire, c'est un cône ouvert de sommet l'origine, et son adhérence C (cône fermé de sommet l'origine) fournit un domaine fondamental (tout point de E* est l'image par W d'un unique point de C). J'appellerai C le cône des poids dominant ou la chambre de Weyl (en fait, la chambre de Weyl duale, celle de E*, parce que la chambre de Weyl elle est plutôt dans E, c'est le cône engendré par l'alcôve A dont il était question plus haut ; mais si on identifie E avec E* par le produit scalaire, alors c'est bien le même cône dont il est question). Un élément de CL* s'appelle un poids dominant ; et si G est simplement connexe, il se trouve qu'il est exactement l'ensemble des combinaisons linéaires à coefficients entiers naturels de r éléments uniquement définis et qu'on appelle les poids fondamentaux (ce sont les premiers éléments non nuls de L* rencontrés quand on parcourt les arêtes du cône). Les poids dominant représentent exactement les orbites de L* sous W (chaque orbite de poids sous W contient un et un seul poids dominant).

Du coup, les polynômes trigonométriques W-invariants sur T ont pour base les sommes pα = ∑w(α)∈Wα exp(2iπ(w(αx)) des monômes trigonométriques définis par l'orbite sous W d'un poids dominant αCL* (cette base est, donc, indicée par l'ensemble CL* des poids dominants). Par exemple, si je reprends l'exemple de SO(2r+1), la chambre de Weyl C (enfin, un choix d'une chambre de Weyl !) peut être définie par les inégalités a1 ≥ ⋯ ≥ ar ≥ 0 (les inégalités linéaires parmi celles qui m'ont servies à définir l'alcôve de Weyl plus haut, mais vues cette fois dans l'espace dual E*), les poids dominants sont donc les r-uplets d'entiers vérifiant a1 ≥ ⋯ ≥ ar ≥ 0, et pour chaque tel choix, en faisant la somme (ou la moyenne) de tous les exp(2iπ(b1θ1 + ⋯ + brθr)) où b1,…,br parcourt tous les r-uplets obtenus en permutant et en changeant arbitrairement les signes de a1,…,ar, je construis un polynôme trigonométrique W-invariant, et ces polynômes forment une base des polynômes trigonométriques W-invariants ; et pour Spin(n), c'est presque pareil sauf que les ai ont le droit d'être tous entiers-et-demi au lieu d'être entiers. (Et les poids fondamentaux sont (1,0,…,0), (1,1,0,…,0), (1,1,1,0,…,0), … (1,…,1,0) et (½,…,½) : remarquez que chacun vérifie les inégalités et que pour chacun ce sont toutes des égalités sauf exactement une qui est stricte.)

Soit dit en passant, si G est simplement connexe (L* est le réseau des poids possibles, cf. la note #3 ci-dessus), un théorème de Bourbaki affirme que l'anneau des polynômes trigonométriques W-invariants sur T est un anneau de polynômes ordinaires, à savoir l'anneau des polynômes en les indéterminées que sont les moyennes comme ci-dessus formées à partir des poids fondamentaux. Par exemple, pour le cas de Spin₅, tout polynôme trigonométrique W-invariant s'écrit de façon unique comme un polynôme en p(1,0) = 2·cos(2πθ₁) + 2·cos(πθ₂) et en p(½,½) = 2·cos(π(θ₁+θ₂)) + 2·cos(π(θ₁−θ₂)) (les 2 ne servent à rien dans l'histoire, bien sûr, c'est juste que quand on fait la somme des orbites comme je les ai écrites avant, ils apparaissent).

Il sera aussi utile d'évoquer la question des polynômes trigonométriques W-antiinvariants. Pour définir ça, on remarque que W, qui est engendré par des réflexions (dans E ou, en l'occurrence, dans E*, cela revient au même), admet une morphisme ε:W→{±1} qui vaut +1 pour un élément produit d'un nombre pair de réflexions et −1 pour un élément produit d'un nombre impair de réflexions (si on veut c'est juste le déterminant en tant qu'application linéaire EE). On dit qu'un polynôme trigonométrique φ est W-anti-invariant (ou W-antisymétrique) lorsqu'il change de signe comme prédit par ε si on effectue les symétries du groupe de Weyl, autrement dit, φ(w(x)) = ε(wφ(x) pour tout wW et xT (ou dans xE si on préfère). C'est le cas quand l'ensemble des poids (i.e., des monômes) qui interviennent dedans est invariant par W (opérant sur L*) et que les coefficients sont eux-mêmes anti-invariants dans chaque orbite sous W. S'agissant de SO(n) ou Spin(n) avec n impair, un polynôme trigonométrique est W-anti-invariant lorsqu'il change de signe dès qu'on échange deux des angles θi ou qu'on change le signe de l'un d'entre eux (pour n pair, il change de signe dès qu'on échange deux des angles θi et ne change pas quand on change le signe de deux d'entre eux).

La même idée fonctionne pour fabriquer des polynômes trigonométriques W-antiinvariants que W-invariants, à savoir : on peut partir d'un monôme exp(2iπ(α·x)) défini par un poids αL* qu'on peut toujours supposer dominant, et le sommer (ou le moyenner, comme on préfère) sur W, mais cette fois-ci avec des signes, c'est-à-dire faire la somme ∑wW ε(w)·exp(2iπ(w(αx)) (éventuellement divisée par le cardinal de W). La principale différence avec précédemment, c'est que cette somme donne parfois zéro, en fait, elle donne zéro dès que α a un stabilisateur (c'est-à-dire n'est pas dans l'intérieur de C). (Du coup, cette fois, il est indifférent d'écrire ∑wW ε(w)·exp(2iπ(w(αx)) ou ∑w(α)∈Wα ε(w)·exp(2iπ(w(αx)).) Par exemple, pour Spin₅, si je pars de exp(2iπθ₁), je vais trouver zéro parce que je vais devoir ajouter l'opposé en remplaçant θ₂ par −θ₂.

En un certain sens (que je n'essaierai pas de rendre précis), pour un groupe simplement connexe, le « plus petit » polynôme trigonométrique W-antiinvariant s'obtient en faisant a somme ∑wW ε(w)·exp(2iπ(w(ρx)) évoquée plus haut où ρ est un vecteur bien particulier : le vecteur de Weyl, qui est la somme des poids fondamentaux (les poids fondamentaux sont le permier poids non non nuls sur chacune des arêtes de C, leur somme est intérieure à C, et c'est essentiellement le plus petit vecteur élément de L* à C). Cette somme portera un nom : c'est le dénominateur de Weyl (je dirai plus loin pourquoi). Par exemple, pour Spin₅, avec la convention faite plus haut sur la chambre de Weyl, le vecteur de Weyl est la somme des poids fondamentaux (1,0) (correspondant au monôme exp(2iπθ₁)) et (½,½) (correspondant au monôme exp(iπ(θ₁+θ₂))), soit (3/2, 1/2) (monôme exp(iπ(3θ₁+θ₂))), et le dénominateur de Weyl vaut : 2·cos(π(3θ₁+θ₂)) − 2·cos(π(3θ₁−θ₂)) − 2·cos(π(θ₁+3θ₂)) + 2·cos(π(θ₁−3θ₂)) (on se convainc que changer le signe de θ₁ ou de θ₂, ou les échanger, change le signe de cette expression).

Fonctions W-invariantes sur T et G-invariantes sur G

Pourquoi est-ce que je parle tellement de polynômes trigonométriques sur T alors que je suis censé parler de fonctions sur G ? La première chose, c'est de remarquer qu'une fonction W-invariante sur T c'est essentiellement la même chose qu'une fonction sur G qui soit invariante par conjugaison :

En effet, considérons les fonctions φ sur G (à valeurs dans n'importe quoi) qui sont « G-invariantes » (on dit aussi fonctions de classes), ce qui signifie, constantes sur chaque classe de conjugaison, autrement dit (φ(g·x·g−1)=φ(x)) : comme j'ai expliqué plus haut que les classes de conjugaison de G correspondent exactement aux éléments de T modulo le groupe de Weyl W, une telle fonction « G-invariante » φ est complètement caractérisée par sa restriction à T, et cette restriction est invariante (=symétrique) par W, et inversement, toute fonction W-invariante sur T est la restriction à T d'une unique fonction G-invariante sur G. On peut donc identifier (par simple restriction à T) les fonctions G-invariantes sur G et les fonctions W-invariantes sur T.

Notamment, les polynômes trigonométriques W-invariants sur T définissent des fonctions G-invariantes sur G. Ces fonctions peuvent s'appeler polynômes trigonométriques G-invariants sur G. (Le théorème de Stone-Weierstraß assure que n'importe quelle fonction continue G-invariante sur G est approchée arbitrairement près par de telles fonctions.)

On aimerait croire que le laplacien sur T et celui sur G sont compatibles au sens où quand on calcule le laplacien sur G d'une fonction G-invariante sur G et qu'on la retreint ensuite à T (pour obtenir une fonction W-invariante sur T), on obtient la même chose que si on restreint d'abord à T et qu'on calcule ensuite le laplacien sur T. En particulier, qu'un vecteur propre du laplacien sur T qui aurait le bonheur d'être W-invariant, définirait un vecteur propre (G-invariant) du laplacien sur G.

Malheureusement, ce n'est pas vrai. Pour prendre un exemple concret, p(1,0) = 2·cos(2πθ₁) + 2·cos(2πθ₂) est une fonction W-invariante sur le tore maximal T de SO₅ ou Spin₅ (i.e., invariante par changement de signe ou par échange de θ₁ et θ₂) qui est un vecteur propre du laplacien sur T de valeur propre −4π², elle définit bien une fonction (un polynôme trigonométrique, par définition de ce terme) G-invariant sur G=SO₅ ou Spin₅, mais cette unique extension à G n'est pas un vecteur propre du laplacien. Le calcul est un peu fastidieux, d'autant que ce n'est pas si évident que ça d'exprimer le laplacien sur SO₅ pour commencer, mais on peut au moins se convaincre que la moyenne de p(1,0) = 2·cos(2πθ₁) + 2·cos(2πθ₂) sur SO₅ ne vaut pas 0, elle vaut −1, autrement dit, la fonction p(1,0) + 1 = 2·cos(2πθ₁) + 2·cos(2πθ₂) + 1, elle, est de moyenne nulle sur SO₅ : une façon de le faire est de remarquer que 2·cos(2πθ₁) + 2·cos(2πθ₂) + 1 est la trace de la matrice de rotation considérée, et il est facile de se convaincre que la trace, moyennée sur tout SO₅, doit valoir 0. Et de fait, c'est bien 2·cos(2πθ₁) + 2·cos(2πθ₂) + 1 qui est « la bonne » fonction (notée χ(1,0) plus bas), et elle, elle est vecteur propre du laplacien sur G (de valeur propre quelque chose comme −16π² mais tout ça dépend de la normalisation du laplacien sur G).

Donc même si les polynômes trigonométriques G-invariants sur G peuvent s'identifier aux polynômes trigonométriques W-invariants sur T (lesquels ont pour base les orbites des poids dominants), être un vecteur propre du laplacien ne passe pas si bien que ça dans l'affaire : en général (pour αCL*), ∑ exp(2iπ(w(αx)) est un vecteur propre du laplacien sur T mais n'est pas un vecteur propre du laplacien sur G. Mais alors pourquoi j'ai raconté toutes ces histoires, moi ?

La théorie de Weyl

Parce que Hermann Weyl a la réponse à nos problèmes. Son idée incroyable est de considérer non pas les W-invariants sur T mais les W-antiinvariants. Précisément, on a vu que pα = ∑w(α)∈Wα exp(2iπ(w(αx)) était W-antiinvariant pour tout αCL* ; ce que fait Weyl, et mettons temporairement que G soit simplement connexe, c'est considérer le rapport entre deux W-antiinvariants, et précisément, le rapport, appelons-le χα, entre ∑wW ε(w)·exp(2iπ(w(ρ+αx)) et ∑wW ε(w)·exp(2iπ(w(ρx)) (ici, ρ est le vecteur de Weyl évoqué plus haut, qui est la somme des poids fondamentaux ou le « plus petit » poids de l'intérieur de C ; et αCL* est un poids dominant fixé). Raison pour laquelle la seconde de ces expressions a été appelée dénominateur de Weyl ci-dessus. En quotientant deux fonctions W-antiinvariantes sur T, on obtient une fonction W-invariante sur T, qu'on peut donc voir comme une fonction G-invariante sur G, en fait, il n'est pas difficile de se convaincre que ce χα est un polynôme trigonométrique (a priori c'est une fraction rationnelle), polynôme dans lequel le monôme exp(2iπ(α·x)) et du coup tous ses copains exp(2iπ(w(αx)), apparaissent avec coefficient 1 et que exp(2iπ(α·x)) est un certain sens le monôme de plus grands poids dominant apparaissant. (Et ces χα tout autant que les pα forment une base des polynômes trigonométriques W-invariants sur T, mais comme je vais l'expliquer, cette base est plus adaptée à G.)

Bref, au lieu de considérer ∑ exp(2iπ(w(αx)), Weyl considère χα = (∑wW ε(w)·exp(2iπ(w(ρ+αx))) / (∑wW ε(w)·exp(2iπ(w(ρx))), qui s'avère être égal à pα := ∑w(α)∈Wα exp(2iπ(w(αx)) plus des termes « plus petits ». Aussi, un autre truc sympathique est que même si la définition que j'ai donnée n'est sensée que pour G simplement connexe, en fait, si G ne l'est pas, on peut faire la définition sur le revêtement universel G˜ (dont le réseau des poids L* est possiblement plus gros que celui de G), et si on a pris α dans L* (et pas juste L*), à la fin on obtient bien une fonction sur G, un polynôme trigonométrique formé de poids dans L* (et pas juste L*). Donc tout se passe bien même pour un groupe pas simplement connexe.

Je reprends l'exemple de α=(1,0) pour G valant SO₅ ou Spin₅ : j'ai déjà dit que pα = 2·cos(2πθ₁) + 2·cos(2πθ₂) n'était pas vecteur propre du laplacien sur G ; mais χα = (2·cos(π(5θ₁+θ₂)) − 2·cos(π(5θ₁−θ₂)) − 2·cos(π(θ₁+5θ₂)) + 2·cos(π(θ₁−5θ₂))) / (2·cos(π(3θ₁+θ₂)) − 2·cos(π(3θ₁−θ₂)) − 2·cos(π(θ₁+3θ₂)) + 2·cos(π(θ₁−3θ₂))) = 2·cos(2πθ₁) + 2·cos(2πθ₂) + 1 (c'est-à-dire pα+1), lui, l'est. Je peux donner aussi l'exemple de β=(1,1) : alors pβ = 2·cos(2π(θ₁+θ₂)) + 2·cos(2π(θ₁−θ₂)) n'est pas vecteur propre du laplacien ; mais χβ = (2·cos(π(5θ₁+3θ₂)) − 2·cos(π(5θ₁−3θ₂)) − 2·cos(π(3θ₁+5θ₂)) + 2·cos(π(3θ₁−5θ₂))) / (2·cos(π(3θ₁+θ₂)) − 2·cos(π(3θ₁−θ₂)) − 2·cos(π(θ₁+3θ₂)) + 2·cos(π(θ₁−3θ₂))) = 2·cos(2π(θ₁+θ₂)) + 2·cos(2π(θ₁−θ₂)) + 2·cos(2πθ₁) + 2·cos(2πθ₂) + 2 (c'est-à-dire pβ+pα+1), lui, l'est. Et c'est un fait général :

Ce que démontre Weyl (pour partie avec son étudiant Fritz Peter), plus quelques compléments plus tardifs, c'est :

  • Les fonctions (G-invariantes sur G déduites des fonctions W-invariantes sur T) χα = (∑wW ε(w)·exp(2iπ(w(ρ+αx))) / (∑wW ε(w)·exp(2iπ(w(ρx))) sont des vecteurs propres du laplacien sur G, la valeur propre correspondante étant l'opposé de Λ(α) = α·(α+2ρ) (où le point désigne le produit scalaire euclidien sur E, dont la normalisation exacte dépend de celle du laplacien).
  • De plus, les fonctions χα, quand α parcourt l'ensemble CL* des poids dominants de G, sont une famille orthonormée (donc une base hilbertienne de la partie de L²(G) formée des fonctions G-invariantes). (Ajout : En particulier, les χα avec α non nul dans CL* sont de moyenne nulle sur G, ce qui n'était pas le cas[#3b] des pα, lesquels sont de moyenne nulle sur T.)
  • Les χα sont exactement les caractères (c'est-à-dire les traces) de représentations irréductibles Vα de G (cf. ci-dessous) qui décrivent exactement toutes les représentations irréductibles de G ; le degré (= la dimension) Nα = dim(Vα) = χα(1) peut s'exprimer comme un polynôme en (les coefficients de) α (si on applique directement l'expression de χα(1) comme un quotient, le numérateur et le dénominateur s'annulent donc il faut faire plus attention pour passer à la limite ; il y a une formule appelée formule de la dimension de Weyl qui décrit explicitement ce polynôme comme le quotient de deux fonctions rationnelles — je ne l'écris pas ici parce que j'ai soigneusement évité de parler de systèmes de racines, de racines simples et positives, mais ce n'est pas spécialement compliqué).
  • La moyenne sur G d'une fonction G-invariante φ s'obtient en moyennant sur T le produit de φ par la norme au carré |∑wW ε(w)·exp(2iπ(w(ρx))|² du dénominateur de Weyl et en divisant par l'ordre de W. (Ainsi, la famille des χα s'obtient en appliquant Gram-Schmidt à la famille des pα pour le produit scalaire de L²(G), lequel peut se décrire comme le produit scalaire de L²(T) corrigé par la norme au carré du dénominateur de Weyl.)
  • Pour ce qui est de décrire les vecteurs propres du laplacien qui ne soient pas forcément G-invariantes, les translatées de χα par les éléments de G (à gauche ou à droite, cela donne la même chose) engendrent un espace vectoriel de dimension Nα² = χα(1)² qui peut, en fait, s'identifier, en tant que représentation de G à gauche et à droite, à l'ensemble VαVα* des matrices sur Vα (produit tensoriel de Vα par son dual) en envoyant χα sur la matrice identité sur Vα ; de plus, on obtient l'ensemble du spectre du laplacien sur G de la sorte.

[#3b] Ces histoires de moyenne sont certainement liées au fait que j'avais remarqué à la fin de cette entrée : j'y traçais les valeurs des χα pour les poids α fondamentaux, restreints au tore du « SU₂ principal de Kostant » : il y a donc quatre moyennes de χα auxquelles on peut s'intéresser : (a) celle sur G (qui vaut 0), (b) celle sur T (qui vaut le coefficient constant, je veux dire, coefficient du poids nul), (c) celle sur le SU₂ de Kostant (qui vaut, je crois, zéro, mais je ne sais pas très bien pourquoi, en fait), et (d) celle sur le tore du SU₂ de Kostant, qui vaut la même que (b) à cause de la manière dont le tore est foutu (c'est clair sur la façon dont je calcule les caractères). Je m'étonnais que, les valeurs (b)=(d) étant non nulle, mes graphes se concentrent autour de zéro ; mais la moyenne au sens de (a) et je crois au sens de (c), elle, est nulle, ce qui fournit au moins un élément d'explication.

(Je ne suis pas content de ma description parce que je n'ai pas vraiment dit ce qu'était Vα, à part que c'est un espace vectoriel de dimension Nα = χα(1) muni d'une action de G, et je suis embêté parce que je n'ai pas vraiment envie de rentrer dans la théorie de la représentation ou de décrire ce que irréductible signifie. Du coup, mes explications sont très bancales. Il y a certainement moyen de construire explicitement Vα à partir de χα puisque VαVα* peut se voir comme l'espace de dimension Nα² engendré par tous les translatés de χα : mais comment repêcher Vα dans VαVα* sans recourir à quelque chose de moche et sans évoquer la théorie de la représentation ? Je suis un peu coincé, là.)

Shouldbedone: Quelque part par ici, je pense que je devrais ajouter une explication en rapport avec l'isomorphisme de Harish-Chandra entre le centre de l'algèbre enveloppante universelle de l'algèbre de Lie et l'algèbre des polynômes W-invariants (mais sur T* plutôt que T, il me semble). Seulement, à vrai dire, je ne comprends pas du tout le sens profond de cet isomorphisme, ni même pourquoi il est important et quel rapport il a précisément avec ce que j'ai raconté ci-dessus. Donc en fait, je n'ai rien à dire sur ce sujet (et c'est dommage).

En tout cas, il y a une théorie tout à fait analogue à la théorie de Fourier classique sur le cercle (au moins la théorie L²) :

  • pour les fonctions L² G-invariantes sur G, les χα fournissent une base de Hilbert, c'est-à-dire que la partie de L²(G) formée des fonctions G-invariantes est isomorphe aux fonctions de carré sommables sur CL* ;
  • pour toutes les fonctions L² sur G, le résultat est un tout petit peu moins explicite, mais une fonction L²(G) va se décrire par une suite de matrices Nα × Nα, une pour chaque αCL*, la fonction χα correspondant à l'identité (pour ce α et 0 pour les autres), la norme étant la norme 2 sur les matrices (« norme de Frobenius ») normalisée de façon que l'identité ait norme 1 ; l'action de G à gauche opère sur les colonnes de la matrice (via la représentation Vα) tandis que l'action de G à droite opère sur les lignes (via la représentation duale Vα*).

Beaucoup de choses fonctionnent comme dans la théorie classique : par exemple, pour convoler deux fonctions, on multiplie leurs séries de Fourier (dans le second cas ci-dessus, on multiplie terme à terme des suites de matrices, ce n'est pas commutatif ce qui est normal car la convolution sur G n'est pas commutative).

Le cas le plus facile est celui de Spin₃ (qui est aussi SU₂, mais la notation que j'ai prise est plutôt celle de Spin₃), et qui est, d'ailleurs, aussi une 3-sphère (la 3-sphère des quaternions de norme 1, voir ici et plus précisément ici). Dans ce cas, il n'y a qu'un seul angle de rotation, que je note donc juste θ (plutôt que θ₁). Tout élément de Spin₃ est conjugué à une rotation d'angle θ, défini modulo 2 tours, autour d'un axe fixé (ceci définit T = ℝ/2ℤ = E/L) ; et l'action du groupe de Weyl, qui permet simplement de remplacer θ en −θ en faisant faire un demi-tour à l'axe, donc de ramener la rotation à une rotation d'angle 0≤θ≤1 (c'est l'alcôve de Weyl) ; les polynômes trigonométriques en θ sont les polynômes en exp(iπθ), et ceux qui sont W-invariants sont ceux en p½ := exp(iπθ) + exp(−iπθ) = 2·cos(πθ), ou, ce qui revient au même, les combinaisons linéaires de pa := exp(2iπaθ) + exp(−2iπaθ) = 2·cos(2πaθ) (variatur p₀=1) pour aL* = ½ℤ. La chambre de Weyl C est définie par a≥0, le vecteur de Weyl vaut ρ=½, et les χa sont les rapports (exp(2iπ(a+½)θ) − exp(−2iπ(a+½)θ)) / (exp(iπθ) − exp(−iπθ)) = pa + pa−1 + ⋯ + pa−⌊a. La valeur propre correspondante du laplacien sur G=Spin₃ est Λ(a) = a(a+1) (rappelons qu'ici a parcourt ½ℕ : les valeurs obtenues, à savoir 3/4, 2, 15/4, 6, etc., correspondent bien à constante près aux valeurs données plus haut pour le spectre de la 3-sphère, qui étaient (+2) pour parcourant ℕ, soit 3, 8, 15, 24, etc.). Et comme pa(1) = 2 (pour a>0), on trouve Na = χa(1) = 2a+1. En se rappelant que la multiplicité du spectre du laplacien est donné par les ma = Na² = (2a+1)², on a décrit complètement le spectre de Spin₃. Si on veut celui de SO₃, on se limite à a dans le réseau des poids de SO₃, c'est-à-dire a∈ℕ, toujours pour Λ(a) = a(a+1) et ma = (2a+1)².

Et maintenant je suis trop fatigué pour parler d'espaces riemanniens symétriques

J'aurais voulu parler d'espaces riemanniens symétriques irréductibles de type compact (qui sont en gros les quotients G/K d'un groupe de Lie G par le sous-groupe KG des points fixes d'une involution) mais, maintenant, je suis trop fatigué pour le faire. L'idée générale est que (quel que soit le sous-groupe fermé K de G pour l'instant) L²(G/K) s'identifie aux fonctions K-invariantes dans L²(G), et on vient de voir que L²(G) se comprend (y compris avec son action de G à gauche et à droite) comme le complété de la somme directe orthogonale des VαVα* pour α parcourant l'ensemble CL* des poids dominants ; du coup les K-invariants là-dedans, disons, à gauche, se comprend comme le complété de la somme directe orthogonale des (Vα)KVα* où (Vα)K désigne les points fixes de Vα sous l'action de K. (Du coup, la multiplicité m(α) vaut le produit de dim(Vα) = Nα par dim((Vα)K), or ce dernier n'est pas forcément si évident que ça à calculer.) Dans le cas de G/K riemannien symétrique, un théorème de Sigurður Helgason (que je ne comprends toujours pas bien, à vrai dire) garantit que (Vα)K est de dimension soit 0 soit 1, et que le cas de dimension 1 se produit exactement lorsque α appartient à CM*M* est un certain sous-réseau (en principe explicitement décrit) de L*, et on a une description complète du spectre.

Par exemple, si G = SO(n) et K = SO(k)×SO(nk) (disons kr := ⌊n/2⌋), ce qui fait de l'espace riemannien symétrique G/K la « grassmannienne orientée » Gras⁺(n,k) des sous-espaces vectoriels de dimension k orientés de ℝn, alors pour α un r-uplet d'entiers vérifiant a1 ≥ ⋯ ≥ ar ≥ 0 pour n=2r+1 ou bien a1 ≥ ⋯ ≥ ar−1 ≥ |ar| pour n=2r, on a (Vα)K≠0 (et du coup, de dimension 1) si et seulement si ai=0 pour i>k et les ai pour ik ont tous même parité. Le spectre du laplacien sur Gras⁺(n,k) est donc formé des mêmes valeurs Λ(α) (à savoir a1(a1+n−2) + a2(a2+n−4) ⋯ + ar(ar+n−2r)) que pour SO(n), mais limité à ceux des α qui vérifient les conditions que je viens de dire, et avec multiplicité correspondante Nα (au lieu de Nα²). (La valeur de Nα est donnée par la formule de la dimension de Weyl, que je n'ai pas explicitée, mais pour en donner une idée, disons au moins que pour k=1 cela donne (2a₁+n−2)/(n−2) · Binom(a₁+n−3, n−3) et pour k=2 cela donne (2a₁+n−2)/(n−2) · (a₁+a₂+n−3)/(n−3) · (2a₂+n−4)/(n−4) · (a₁−a₂+1)/(a₁+1) · Binom(a₁+n−4, n−4) · Binom(a₂+n−5, n−5). Enfin, sous réserve que je ne me sois planté ni dans mes calculs ni en les recopiant, ce qui n'est pas très vraisemblable en fait. Mais on voit que j'ai explicité le principe de calcul du spectre des grassmanniennes[#4].) Pour ce qui est de la grassmannienne usuelle (non-orientée) Gras(n,k) = SO(n)/S(O(k)×O(nk)), le spectre s'obtient en demandant que les ai pour ik soient tous pairs (au lieu d'avoir juste même parité).

[#4] Pour ce qui est des variétés de drapeau plus compliquées, c'est-à-dire le quotient de G = SO(n) par K = SO(k1)×SO(k2)×⋯×SO(ks) où k1+k2+⋯+ks=n, en principe, l'article de Knapp, Branching Theorems for Compact Symmetric Spaces, Represent. Theory 5 (2001) 404–436, doit fournir une méthode de calcul, mais mes idées sont très floues sur la difficulté à mener effectivement le calcul lorsque s>2, sauf dans le cas extrême inverse où tous les kj valent 1 puisque alors K=1 et la variété de drapeau complète est simplement G=SO(n).

Si j'arrive à décider exactement ce que je veux faire pour la décroissance des amplitudes, je compte produire des sons pour tous les espaces riemanniens symétriques irréductibles de type compact jusqu'à une taille raisonnable.

↑Entry #2531 [older| permalink|newer] / ↑Entrée #2531 [précédente| permalien|suivante] ↑

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]