David Madore's WebLog: 2015-12

This WebLog is bilingual, some entries are in English and others are in French. A few of them have a version in either language. Other than that, the French entries are not translations of the English ones or vice versa. Of course, if you understand only English, the English entries ought to be quite understandable without reading the French ones.

Ce WebLog est bilingue, certaines entrées sont en anglais et d'autres sont en français. Quelques-unes ont une version dans chaque langue. À part ça, les entrées en français ne sont pas des traductions de celles en anglais ou vice versa. Bien sûr, si vous ne comprenez que le français, les entrées en français devraient être assez compréhensibles sans lire celles en anglais.

Note that the first entry comes last! / Notez que la première entrée vient en dernier !

Index of all entries / Index de toutes les entréesXML (RSS 1.0) • Recent comments / Commentaires récents

Entries published in December 2015 / Entrées publiées en décembre 2015:

(lundi)

Comment utiliser les points comme parenthèses ?

Dans une expression mathématique comme

(2+2+2)×(3+4)

les parenthèses servent à indiquer quelles sous-expressions doivent être calculées en premier (la convention, en leur absence, étant qu'on évalue les multiplications avant les additions, si bien que 2+2+2×3+4 sans parenthèses se comprend comme 2+2+(2×3)+4). Mais il existe d'autres manières possibles d'indiquer l'ordre des opérations sans utiliser de parenthèses — ou en tout cas pas sous cette forme. Une possibilité consisterait à utiliser la notation préfixe (où le symbole d'une opération binaire précède les deux quantités sur lesquelles elles s'applique, ce qui donne dans ce cas : × + + 2 2 2 + 3 4) ou bien postfixe (où l'opération binaire suit les deux quantités sur lesquelles elle s'applique, donc 2 2 + 2 + 3 4 + × comme on le taperait sur une calculatrice à notation polonaise inversée), mais ces conventions sont extrêmement peu lisibles pour un humain.

Une autre façon de noter les choses, qui me semble assez intéressante ou en tout cas instructive, même si elle n'a jamais vraiment été utilisée en-dehors de la logique, consiste à utiliser les points comme parenthèses, que je veux présenter et discuter un peu. Sur mon exemple, cette notation donnerait :

2+2+2.×.3+4

avec des points autour du symbole de multiplication pour marquer qu'il doit être effectué après les additions. (On va supposer que le point n'est pas utilisé comme séparateur décimal, ou qu'il y a quelque magie typographique qui évite l'ambiguïté : ni ici ni ailleurs dans cette entrée il n'y a de nombres fractionnaires.)

La manière dont on lit une telle expression est la suivante : on commence par la séparer aux endroits où se trouve des points, on évalue tous les morceaux qui ont un sens en tant qu'expression (en l'occurrence, 2+2+2 et 3+4), puis on réattache les morceaux remplacés par leur valeur (ce qui donne 6×7).

Lorsqu'il y a plusieurs niveaux d'imbrications, on utilise des groupes formés d'un nombre de points croissant pour séparer les niveaux : la règle est alors qu'on commence par regrouper les morceaux séparés par un seul point, puis par un groupe de deux, puis de trois, et ainsi de suite. (Ainsi, un groupe d'un plus grand nombre de points correspond à un niveau de parenthésage plus « extérieur ».) Par exemple,

(14/(1+1))×(6+7)×(30−(6+5))

peut se réécrire dans la notation « ponctuée » comme

14/.1+1:×.6+7.×:30−.6+5

et pour l'évaluer, on commence par calculer les morceaux séparés par des points qui ont un sens tout seuls (1+1, 6+7 et 6+5), puis on regroupe les morceaux séparés par de simples points (14/.1+1 soit 14/2, et 30−.6+5 soit 30−11), et enfin on regroupe les morceaux séparés par deux points. Pour plus de symétrie quant au niveau d'opération × dans le facteur central, on peut préférer écrire

14/.1+1:×:6+7:×:30−.6+5

ce qui est peut-être plus lisible, surtout si on reflète le nombre de points dans l'espacement de la formule :

14/.1+1 :×: 6+7 :×: 30−.6+5

On peut bien sûr utiliser des symboles pour les groupes de deux, trois, quatre points et ainsi de suite : si je récupère des symboles Unicode pas vraiment fait pour, l'expression 6−(5−(4−(3−(2−1)))) peut se ponctuer en 6−∷5−∴4−:3−.2−1, mais généralement on se contente de mettre plusieurs caractères ‘.’ ou ‘:’ d'affilée pour représenter un groupe, comme 6−::5−:.4−:3−.2−1 (il faut traiter ces deux écritures comme parfaitement synonymes).

Les points servent donc à la fois de parenthèses ouvrantes et fermantes : il n'y a en fait pas d'ambiguïté car la directionalité est indiquée par la position par rapport aux symboles d'opérations (si je vois 20−.1+1, cela ne peut signifier que 20−(1+1) car (20−)1+1 n'a pas de sens) ; plus exactement, chaque groupe de points doit être adjacent à un symbole d'opération (sauf si on omet la multiplication, cf. ci-dessous), et correspond à une parenthèse soit ouvrante soit fermante selon qu'il est immédiatement après ou avant l'opération. Et la parenthèse court jusqu'au prochain groupe de points (vers la droite ou vers la gauche, selon le cas évoqué) dont le nombre de points est supérieur ou égal à celui considéré, ou à l'extrémité de l'expression (où se sous-entend un nombre infini de points, si on veut ; ainsi, sur mon premier exemple, on écrit 2+2+2.×.3+4 et non .2+2+2.×.3+4.).

Pour ceux qui veulent des règles plus formelles, je propose les suivantes. En écriture, si on a un arbre d'analyse formé d'opérations possiblement associatives, disons x1x2⋆…⋆xk (pour une certaine opération ici notée ⋆, et avec k=2 si l'opération ⋆ n'est pas supposée avoir d'association par défaut), pour la transformer en « expression ponctuée », on écrit de façon récursive chacun des sous-arbres x1,x2,…,xk comme expression ponctuée, et on concatène ces écritures en plaçant à gauche de chaque symbole ⋆ un groupe de points dont le nombre est strictement supérieur au nombre de points de n'importe quel groupe apparaissant dans l'écriture de la sous-expression gauche (si celle-ci est un atome = une feuille de l'arbre, c'est-à-dire un nombre ou une variable, on peut ne mettre aucun point) ; et de même à droite. Il est admissible de mettre plus de points que nécessaire, par exemple si on veut mettre le même nombre à gauche et à droite de chaque ⋆ intervenant à un niveau donné. On peut, bien sûr, avoir des règles supplémentaires lorsqu'on suppose une certaine priorité des opérations (par exemple, (3×2)+1 peut être noté 3×2+1 si on admet que la multiplication est prioritaire sur l'addition ; toutefois, ceci ne s'applique essentiellement qu'au niveau le plus bas : (3×(1+1))+1 devra certainement être noté 3×.1+1:+1, parce qu'on ne gagnerait rien que de la confusion à le noter 3×.1+1.+1). • Inversement, pour décoder une telle expression, on va, pour n allant de 0 au nombre maximum de points dans un groupe, remplacer chaque expression maximale de la forme x1x2⋆…⋆xk avec les xi des sous-arbres déjà constitués (ou des atomes), en ignorant les groupes de ≤n points pouvant intervenir à gauche ou à droite de l'opération ⋆, par un sous-arbre (ou un bloc parenthésé, si on préfère).

Ce système de notations ne recouvre pas tous les cas possibles d'usage des parenthèses. Disons qu'il nécessite plus ou moins qu'il y ait des symboles d'opérations dans l'histoire : si on a affaire à un contexte mathématique dans lequel on donne un sens différent aux notations u(v) et (u)v (ce qui, honnêtement, ressemble à une très mauvaise idée), ou à u et (u) (même remarque), alors on ne peut pas utiliser des points à la place des parenthèses.

Néanmoins, il marche dans des situations un peu plus générales que ce que j'ai présenté ci-dessus. Par exemple, il continue de fonctionner même si on décide de ne pas écrire le symbole × de multiplication : notamment, si dans la version parenthésée, au lieu de (14/(1+1))×(6+7)×(30−(6+5)) je décide d'écrire (14/(1+1))(6+7)(30−(6+5)), alors de même dans la version ponctuée, au lieu de 14/.1+1:×.6+7.×:30−.6+5 j'écris 14/.1+1:6+7:30−.6+5 et il n'y a pas d'ambiguïté dans le fait que quand un groupe de points apparaît directement entre deux atomes (nombres ou variables), il représente une multiplication (et comme 6.7 représente 6×7, de même 2+2+2.3+4 représente (2+2+2)×(3+4) ; tandis que 2+2+(2×3)+4 s'écrira 2+2+:2.3:+4 ou même, un peu audacieusement, 2.+.2.+.2.3.+.4 si on décide que la multiplication est prioritaire sur l'addition). Ceci fonctionne encore même si on suppose que la multiplication omise n'est pas associative : on distingue bien u(vw) de (uv)w comme u.vw et uv.w respectivement.

Par rapport aux règles formelles que j'ai proposées ci-dessus, l'omission du symbole de multiplication se traite ainsi lors de l'écriture : (a) on écrit toujours au moins un point pour la multiplication quand elle est entre deux chiffres, et (b) au lieu de mettre un groupe de points à gauche et à droite du symbole ⋆ (qui doit être omis), on en met un seul, avec un nombre de points commun, supérieur à celui de tout groupe intervenant dans n'importe quelle sous-expression parmi les x1,x2,…,xk (avec cette règle, 2(x+y)(t⋆(u+v)) s'écrit 2:x+y:t⋆.u+v plutôt que 2.x+y:t⋆.u+v si on veut vraiment placer les trois facteurs 2, x+y et t⋆(u+v) au même niveau).

Il n'y a pas non plus de problème avec les opérations unaires, qu'elles soient écrites de façon préfixe ou postfixe. Il y a, cependant, un problème si on a une opération qui peut être aussi bien unaire que binaire et que le symbole de multiplication est omis : c'est le cas avec le signe moins si on veut pouvoir écrire (2/3)(−3) (qui vaudrait −2 par multiplication implicite) et le distinguer de (2/3)−3 (qui vaut −7/3), les deux étant a priori ponctués comme 2/3.−3 ; on peut résoudre ce problème de différentes façons, par exemple en imposant que pour les opérations binaires qui peuvent aussi être unaires, le nombre de points à gauche et à droite soit égal quand elles fonctionnent comme opérations binaires (donc (2/3)−3 se ponctuerait comme 2/3.−.3, qui se lit sans ambiguïté), et/ou que le signe de multiplication ne peut pas être omis devant une opération unaire (donc (2/3)(−3) devrait s'écrire 2/3.×.−3).

Il me semble par ailleurs qu'il n'y a pas de problème particulier avec une opération ternaire (par exemple si je décide que t?u!v signifie si t=0 alors v et sinon u — je change légèrement la notation du C parce que les deux points sont pris par le sujet de cette entrée — alors il n'y a pas de problème à écrire de façon ponctuée des expressions contenant cette expression imbriquée en elle-même de façon arbitraire). Ceci étant, je n'ai pas forcément pensé à toutes les bizarreries des notations mathématiques, peut-être qu'il y a des cas où le système de points ne fonctionnera pas alors que les parenthèses fonctionnent (outre ceux que j'ai déjà mentionnés).

Il faut que j'en profite pour signaler qu'il y a toutes sortes de petites variations possibles dans le système, j'en ai déjà implicitement signalé quelques unes. Je mentionne notamment la suivante, qui est plus économique dans le nombre de points utilisés, au détriment de la lisibilité de l'ensemble, et qui me semble plutôt une mauvaise idée. Plus haut j'ai signalé que 6−(5−(4−(3−(2−1)))) s'écrit 6−::5−:.4−:3−.2−1 (et c'est ce qui résulte des règles formelles que j'ai proposées), mais on peut aussi imaginer l'écrire simplement come 6−.5−.4−.3−.2−1 ce qui est après tout inambigu vu que chaque ‘.’ suivant immédiatement un symbole d'opération doit représenter une parenthèse ouvrante. (La modification des règles formelles que j'ai proposées doit être quelque chose comme ceci. En écriture, on place à gauche de chaque symbole ⋆ un groupe de points dont le nombre est immédiatement strictement supérieur au plus grand nombre de points de n'importe quel groupe qui apparaît, dans l'écriture de la sous-expression gauche, immédiatement à droite d'un symbole d'opération — ou comme symbole de multiplication omis — en ignorant donc les groupes de points qui apparaissent immédiatement à gauche d'un symbole d'opération ; et symétriquement pour la droite. Et en lecture, pour chaque niveau n de points, on doit grosso modo répéter tant que possible la recherche d'une expression x1x2⋆…⋆xk avec les xi des sous-arbres déjà constitués, la remplacer par un sous-arbre, et retirer les éventuels groupes de n points — mais pas plus — qui seraient adjacents à l'expression.)

Comme je l'ai dit plus haut, je crois que les points comme parenthèses n'ont été véritablement employés que dans des textes de logique (et uniquement entre les connecteurs logiques, pas dans les expressions arithmétiques comme sur les exemples que j'ai pris), même s'il n'y a pas de raison de la lier à ce contexte précis. Je ne sais pas exactement qui a inventé cette notation : peut-être Peano dans ses Arithmetices principia: nova methodo ; mais je sais surtout qu'elle est utilisée dans les Principia Mathematica de Russell et Whitehead dont elle contribue à la réputation d'illisibilité même si je crois que c'est loin d'être ce qui les rend le plus difficile (on pourra jeter un coup d'œil à la page des Principia que j'ai déjà évoquée sur ce blog, et utiliser cette page pour quelques indications sur comment décoder tout ça). J'ai d'ailleurs l'impression que les philosophes qui s'intéressent à la logique mathématique ont, plus que les logiciens vraiment matheux, tendance à utiliser des notations vieillotes (il y a peut-être une raison sociologique à creuser), et en particulier ces points-comme-parenthèses. Il y a aussi l'épouvantable symbole ‘⊃’ utilisé à la place de ‘⇒’ pour l'implication, que la grande majorité des matheux ont abandonné il y a belle lurette, et que des philosophes s'obstinent, Apollon sait pourquoi, à utiliser.

Mais l'autre question à se poser, bien sûr, c'est : ce système de notation avec des points à la place des parenthèses a-t-il des avantages ? Je sais qu'a priori il semble plus compliqué que les parenthèses. Peut-être l'est-il intrinsèquement, mais je crois que c'est essentiellement une question d'habitude (c'est difficile d'être sûr vu que je n'en ai moi-même guère la pratique). Je vois trois principaux arguments qu'on peut avancer pour défendre le système de points : (1) il est légèrement plus compact (quand on discute une opération non associative, il est plus léger d'écrire uv.w que (uv)w, par exemple), (2) on repère plus rapidement le niveau d'imbrication des choses (qui n'a jamais peiné, dans une expression parenthésée, à retrouver où chaque parenthèse se ferme ?), et (3) il est, finalement, relativement analogue à la ponctuation d'un texte en langage naturel (où, grossièrement parlant, on regroupe d'abord les mots non séparés par une ponctuation, puis les groupes séparés par des virgules, puis ceux séparés par des points-virgules, et enfin ceux séparés par des points), rendu plus logique. Le principal inconvénient que je lui vois, c'est que si on veut remplacer, dans une expression, une valeur par une autre expression, on va possiblement devoir incrémenter le nombre de points partout dans l'expression, alors que les parenthèses assurent que tout se passe forcément bien.

Bien entendu, je ne propose pas de changer une notation mathématique bien établie (les parenthèses sont quand même pratiques, finalement), mais il peut être intéressant de se rappeler qu'il y a, ou qu'il y avait a priori, d'autres notations possibles et pas forcément idiotes. Se le rappeler peut aider à mieux comprendre l'analyse syntaxique, à la fois des expressions mathématiques et des phrases ponctuées en langage naturel (cf. mon point (3) ci-dessus) ; et cela peut aussi suggérer comment faciliter la lecture d'une expression mathématique par des enrichissements typographiques (typiquement : mettre à chaque endroit possible un espacement proportionnel au nombre de points qu'on aurait dans la notation avec les points comme parenthèses).

(jeudi)

De l'identification de souvenirs enfouis

C'est un trope abusé de mauvais films entre la science-fiction et l'espionnage qu'un personnage a vécu quelque chose d'Abominable ou d'Affreusement Secret dans sa jeunesse et que ses souvenirs ont été effacés ou refoulés ou quelque chose du genre. Ce cliché est particulièrement pénible sur le plan artistique (je déteste ces films où le héros va faire un rêve, présenté sous forme de flashs décousus, dont on doit comprendre qu'il apporte des bribes d'information sur quelque chose d'important sur son identité), et en plus il est essentiellement basé sur un mythe, à savoir, qu'on a tendance à supprimer inconsciemment les souvenirs particulièrement traumatiques. Le problème avec la mémoire incertaine est plutôt qu'on a tendance à fabriquer des faux souvenirs, ou à en déformer des vrais, et qu'on ne sait plus démêler le vrai du faux. J'ai déjà parlé de mon impression de voyager entre univers parallèles, mais elle est particulièrement marquée quand je retourne à des endroits où j'ai été par le passé et où je m'énerve de voir que les choses ne collent pas avec mon souvenir (est-ce que l'endroit a changé pendant ce temps ? me suis-je mal rappelé comment les choses étaient ? ou, hypothèse beaucoup plus crédible, suis-je passé dans un monde parallèle ?).

Par exemple, il y a quelques jours, comme mon poussinet et moi nous promenions dans le coin, j'ai voulu retracer un chemin que j'ai suivi plusieurs fois en 1996 : je passais les concours des ENS, dont les écrits avaient lieu au parc floral de Paris (dans le bois de Vincennes), ma maman m'avait trouvé un logement au Centre International de Séjour de Paris (avenue Maurice Ravel), et je faisais le matin un trajet pour aller de l'un à l'autre, passant en-dessous du périph', à travers un petit bout de Saint-Mandé et à côté du lac du même nom jusqu'au château de Vincennes ; mais quand j'ai cherché à retrouver le chemin exact que je suivais, toutes sortes de petites incohérences se sont manifestées entre mon souvenir des lieux et la réalité. (Il est vrai que je faisais ce chemin, il y a vingt ans, le matin à la fin du printemps, et que j'ai cherché à le retrouver le soir à la fin de l'automne : ceci peut beaucoup affecter l'apparence de cerains endroits.) • D'autres cas du même genre se sont présentés quand je suis allé voir mon Poussinet à Toronto en 2007 et que j'ai voulu retrouver toutes sortes d'endroits dont je me souvenais de mes passages précédents dans cette ville (souvenirs souvent mélangés entre eux, notamment pour ce qui est de leur ordre) : j'ai pu retrouver un bon nombre de choses, mais il y a des choses qui restent mystérieuses pour moi, notamment le chemin d'une promenade que je faisais régulièrement avec mon père en '84–'85 et dont je sais parfaitement bien où elle commençait mais que je n'ai réussi à retracer que jusqu'à un certain point après quoi mes souvenirs ne collaient vraiment plus avec la réalité.

En fait, ma tendance à revenir sur des lieux où j'ai marché autrefois et à chercher à replacer les endroits est tellement marquée que je fais régulièrement des rêves à ce sujet : des rêves dans lesquels je cherche à retrouver un endroit où j'ai pu aller ou une promenade que j'ai pu faire ; seulement, dans le rêve, tout est imaginaire : je ne rêve pas que je cherche à retrouver une promenade bien précise qui aurait pu exister en réalité, je rêve que j'ai un souvenir vague, et ce souvenir est lui-même imaginaire ! (Zut, j'en ai déjà parlé.)

Parfois, un peu comme le héros hypothétique du mauvais film que j'évoque ci-dessus, il me revient des flashs de souvenirs extrêmement précis sur lesquels je vais ensuite chercher désespérément à retrouver une date, un lieu, une circonstance. Récemment, alors que je parcourais des articles Wikipédia sur les expositions universelles (j'ai déjà dit qu'elles pouvaient me fasciner, et mon poussinet m'a offert un beau livre sur celle de Paris en 1900), j'ai été frappé par le souvenir incroyablement précis d'avoir été à celle de 1986 à Vancouver (Expo 86), et même d'avoir échangé quelques mots avec le robot mascotte de l'exposition, Ernie, et d'être revenu avec un paquet de cartes à jouer miniatures en souvenir, dont le dos représentait un des logos de l'exposition (Ernie en jetpack). Un souvenir aussi extrêmement précis peut-il être faux ? Il n'est pas invraisemblable, mon grand-père paternel habitait Vancouver et nous aurions pu aller lui rendre visite cette année-là, mais ma mère m'assure que, d'après les carnets qu'elle tient, ce n'est pas le cas. Peut-être suis-je aller à Vancouver plus tard et qu'il restait des choses de l'exposition, mais il me semble qu'à part de grandes structures on démonte rapidement les expositions universelles, et en tout cas on ne garde pas leur mascotte et on ne continue pas à faire des jeux de cartes à leur effigie, donc je ne sais pas trop quoi penser. Il faudrait retrouver ce jeu de cartes pour savoir si je ne délire pas, mais les chances sont assez minces avec tout ce qui a été jeté.

C'est entre autres pour m'éviter de m'arracher ainsi les cheveux que je tiens maintenant (et depuis 2001) un journal factuel assez précis de tout ce que je fais, jour par jour : ce n'est pas toujours évident de rechercher quelque chose dedans si je ne sais plus la date, mais au moins y a-t-il un espoir.

J'avais un souvenir précis qui me hantait depuis longtemps, et qui était à l'origine, je pense, ou en tout cas qui a pu nourrir, mes rêves de labyrinthes : je me revois avec mes parents en train de visiter une maison bizarre, gigantesque et dont la plupart des pièces sont dénuées de fenêtres, éclairée surtout en rouge, et qui est une sorte de musée d'objets hétéroclites et insensés, dont peut-être des poupées — je me rappelle une visite qui me semblait interminable, où le guide nous faisait traverser pièce après pièce, selon un chemin qui tournait dans tous les sens, et je commençais à me demander s'il y avait une sortie, et si cette maison avait une fin.

J'ai posé la question à mes parents : ma mère se souvenait vaguement de quelque chose de semblable, et associait ça à une visite que nous aurions faite à une tante de mon père qui habitait du côté de Madison, Wisconsin (son mari était avocat — argh, j'ai un avocat américain dans ma famille), et nous aurions pu aller voir un musée dans le coin. J'ai parcouru beaucoup de descriptions de musées à Madison ou dans les environs sans réussir à trouver quoi que ce soit qui colle, et comme je ne savais pas quoi googler vu que mes souvenirs étaient très vagues, je n'ai jamais réussi à mettre le doigt dessus.

Et tout d'un coup, tout à l'heure, j'ai eu la clé de l'énigme en regardant une vidéo YouTube d'un canal consacré à des endroits bizarres sur la Terre et aux surprises de la géographie : je suis quasiment certain que la maison labyrinthique de mon souvenir est la House on the Rock, une expérimentation artistico-architecturale à la décoration kitsch et tordue, située à une centaine de kilomètres de Madison, et dont les images renvoyées par Google collent parfaitement avec celles dans ma mémoire, notamment les poupées un peu effrayantes, les instruments musicaux bizarres et les nombreuses pièces sans fenêtres organisées selon un plan labyrinthique. Quelle satisfaction d'avoir enfin réussi à replacer un souvenir tellement flou !

(mardi)

Deux remarques sur l'intuition du théorème de Gödel

C'est un théorème bien connu, et que j'ai expliqué il y a quelques années dans cette longue entrée, que ZFC (:= le système d'axiomes standard de la théorie des ensembles), s'il est consistant, ne peut pas démontrer que ZFC est consistant. C'est là le « second » théorème d'incomplétude de Gödel dans le cas particulier de ZFC. De même, PA (:= l'arithmétique de Peano du premier ordre) ne peut pas démontrer que PA est consistant. (Dans les deux cas, l'affirmation que le système est consistant signifie qu'il n'existe pas de suite finie de symboles partant des axiomes et suivant les règles de la logique pour arriver à la conclusion absurde 0=1 : et on a le droit de parler de suites finies de symboles parce qu'elles peuvent se remplacer par des entiers grâce à ce qu'on appelle le codage de Gödel. Je ne rentre pas dans les détails puisque j'ai déjà expliqué ça et qu'il y a déjà quantité de bonne vulgarisation sur le sujet.)

Du coup, on peut être tenté d'ajouter à ZFC un nouvel axiome Consis(ZFC), qui affirme ZFC est consistant, formant un nouveau système ZFC₁ ; puis, comme le théorème de Gödel s'applique aussi à lui, on peut encore ajouter un nouvel axiome Consis(ZFC₁) qui affirme que celui-là est consistant, formant un nouveau système ZFC₂ ; « et ainsi de suite ». (En réalité, il y a beaucoup de subtilités ici dans le ainsi de suite, et de toute façon ce n'est pas une bonne façon d'enrichir ZFC, ces axiomes étant à la fois beaucoup moins forts, moins maniables et moins intéressants, que les axiomes de grands cardinaux par lesquels on l'étend usuellement. S'agissant de PA, on peut aussi faire cette construction, en gardant à l'esprit que PA, PA₁, PA₂, etc., et leurs consistance, sont de toute façon des conséquences (théorèmes) de ZFC.)

Ce point est bien connu, donc, et peut-être même trop connu, à tel point qu'on fait dire à ce théorème de Gödel un peu n'importe quoi. Les deux faits suivants, en revanche, sont bien moins connus, et mériteraient pourtant de l'être autant, parce qu'ils invitent à reconsidérer la manière dont on interprète (au moins sur le plan intuitif ou philosophique) ce théorème d'incomplétude. J'ai mentionné ces faits en passant lors de l'entrée passée vers laquelle je viens de faire un lien, mais je pense que je n'ai pas assez attiré l'attention dessus, ce qui est dommage.

(Les deux points suivants sont indépendants l'un de l'autre.)

✱ Le premier fait, c'est qu'on peut tout à fait fabriquer une théorie ZFC† dont les axiomes sont ceux de ZFC plus un axiome supplémentaire qui dit ZFC† est consistant. Oui, c'est circulaire (la théorie affirme sa propre consistance), mais ce n'est pas très difficile d'arriver à formaliser ça en utilisant les astuces de points fixes habituelles. Et de même, on peut former PA† dont les axiomes sont ceux de PA (Peano) plus un axiome supplémentaire qui dit que PA† est consistant. Il s'agit d'une façon assez naturelle d'essayer de contourner le théorème d'incomplétude (au moins quand on a mal compris celui-ci), en se disant puisque je ne peux pas démontrer que mon système formel est consistant, je vais l'ajouter comme axiome (et affirmer directement que l'ensemble est consistant plutôt qu'ajouter un axiome qui dit que la théorie de départ est consistante, puis un autre qui dit que cette nouvelle théorie est encore consistante, et encore un autre qui dit que celle-ci est consistante « et ainsi de suite »).

Bref, on peut fabriquer cette théorie ZFC† ou PA†, mais le problème c'est elle est inconsistante (elle démontre 0=1). Parce que le théorème de Gödel s'applique à elle aussi, et comme il affirme que si la théorie est consistante elle ne peut pas démontrer sa consistance, et qu'elle démontre effectivement sa consistance (puisque c'est un axiome, et qu'un axiome compte bien comme une démonstration), du coup, elle n'est pas consistante.

Alors voilà, ce n'est pas bien passionnant, certes : j'ai construit une théorie et j'ai expliqué qu'elle ne marchait pas — mais je pense que c'est quand même instructif, au moins sur le plan de l'intuition. Quand on présente le théorème d'incomplétude de Gödel, que ce soit au grand public, à des mathématiciens non-spécialistes, ou à des débutants en logique, l'idée qui en résulte typiquement — et je ne prétends pas qu'elle soit fausse — est qu'un système formel consistant T (récursivement axiomatisable, et contenant un fragment suffisant de l'arithmétique) n'est jamais assez « puissant » pour démontrer sa propre consistance, mais que (a) il s'agit d'une notion un peu constructive de démonstration, et (b) la raison pour laquelle on est conduit à ajouter des axiomes qui disent T est consistant et cette théorie-là est consistance et cette théorie- est consistante, « et ainsi de suite », est qu'on ne peut jamais tout faire d'un coup. Or l'exemple de la construction que je viens de donner montre qu'il faut se méfier de cette intuition : (b) on peut tout à fait écrire une théorie qui affirme sa propre consistance, et (a) cette théorie est forcément inconsistante parce que le théorème de Gödel interdit à une théorie consistante (récursivement axiomatisable, et contenant un fragment suffisant de l'arithmétique) non seulement démontre sa propre consistance, mais même simplement qu'il l'affirme (un axiome compte bien comme une démonstration). Je vais citer la présentation de Torkel Franzén (Inexhaustibility, 2004, chap. 12) parce que je trouve qu'il est particulièrement clair :

It is often emphasized that the resources of a theory T do not themselves suffice to enable a proof of the consistency of T. Again it is only by “going outside the system” than one can prove that T is consistent.

A weakness of this emphasis is that it doesn't take into account that the relevant concept of proof is a very liberal one. The consistency of T is provable in the theory T+Consis(T). This is not because any new fundamental principle has been introduced or because the theory T+Consis(T) incorporates any new insight that goes beyond those expressed in T, but simply because the consistency of T has been postulated. We don't require any more of a proof, as the term is used in logic. Accordingly, the second incompleteness theorem makes a stronger statement than one might naturally suppose. The consistency of T not only cannot be derived from the basic principles embodied in T, it cannot even be consistently asserted in T. A theory cannot consistently postulate its own consistency. By the diagonal lemma, we can produce a formula φ formalizing This sentence is consistent with T, but since T+φ then proves its own consistency, we know that in fact it is inconsistent.

Why is it impossible for T to consistently postulate Consis(T)? Because a paradox results from such a postulate, or so Gödel's proof of the second theorem suggests. If T asserts its own consistency, it must both assert and deny the provability of the sentence formalizing This sentence is not provable in T. It's not just a matter of T lacking the resources to establish a particular truth (that T is consistent) but of it being impossible to consistently sneak in this truth as an assertion or postulate in the theory itself. Saying that one must go outside the system to prove the consistency of T conveys the suggestion that T metaphorically speaking has a kind of “blind spot”, that it cannot reflect on or understand or inspect itself sufficiently to establish its own consistency—and indeed in extrapolations from the incompleteness theorem to other fields (religion, physics, psychology) this suggestion is frequently made explicit. The fact that T cannot even consistently assert its own consistency, without attempting any inspection or justification whatever, would seem to indicate that this suggestion is a bit of a red herring.

Je trouve que cela illustre très bien la manière dont on a tendance à mal se représenter le théorème d'incomplétude comme traduisant un problème profond de « manque de force » — alors qu'il s'agit de quelque chose d'à la fois plus trivial et plus profond. (Bien sûr, tout ceci est juste une question d'interprétation intuitive : il n'y a aucune difficulté ou subtilité mathématique dans tout ce que j'ai écrit.)

Mais si ce point est un peu trivial et en quelque sorte négatif, le suivant est beaucoup plus intéressant mathématiquement, et il est plutôt positif. Par ailleurs, il concerne spécifiquement ZFC et PA (pas que ce soient les seules théories auxquelles il s'applique, mais il ne s'applique pas à « à peu près n'importe quoi » comme le point que je viens de faire).

✱ J'en viens donc au second fait que je voulais signaler. Il faut d'abord que je rappelle que ZFC et PA ont un nombre infini d'axiomes : ils comportent en effet des schémas d'axiomes (le principe de récurrence dans le cas de PA, et pour ce qui est de ZFC, les schémas de séparation (=compréhension, =sélection) et ceux de remplacement). Ces axiomes veulent affirmer certains faits pour toute propriété P (des entiers naturels dans le cas de PA, ou des ensembles dans le cas de ZFC) : comme la logique du premier ordre ne permet pas de quantifier sur les propriétés, on s'en tire en postulant tous les énoncés dans lesquels P est remplacé par n'importe quelle formule explicitement écrite dans le langage où on se place — ce qui fait donc une infinité d'axiomes.

(Digression : Il y a d'autres façons de faire, consistant plus ou moins à faire de la logique du second ordre, et qui permettent de ramener cette infinité d'axiomes à un nombre fini au prix d'une complication de la logique, et parfois un renforcement du système : ce sont par exemple la théorie des ensembles de Gödel-Bernays, essentiellement aussi forte que ZFC, ou celle, strictement plus forte, de Morse-Kelley, les deux permettant de parler de classes, ce qui revient à permettre de quantifier sur les propriétés, et, s'agissant de l'arithmétique, le système ACA qui est exactement parallèle de Gödel-Bernays et l'arithmétique du second ordre Z₂=PA² qui est exactement parallèle de Morse-Kelley. Mais je vais m'abstenir de plus parler de toutes ces théories, d'autant que ça devient vite technique quand il s'agit de distinguer la vraie logique du second ordre de la logique du second ordre « réifiée » au premier ordre au sens où on a une logique du premier ordre à deux types d'objets qui fait semblant d'être une logique du second ordre en décrétant que l'un de ces types est le type des « classes » ou « propriétés » de l'autre type, ce qui revient finalement au même sauf que la notion de modèle et toute la sémantique qui va avec est différente.)

Un point qui me semble très important, et qui est rarement suffisamment souligné dans les cours élémentaires de logique, est le suivant :

Chacun de ZFC et de PA prouve la consistance de tous ses sous-ensembles finis d'axiomes.

Autrement dit, ZFC ne prouve pas la consistance de ZFC (c'est ce par quoi j'ai commencé : le second théorème d'incomplétude), mais ZFC prouve la consistance de n'importe quel ensemble fini d'axiomes de ZFC. Et la même chose vaut pour PA. On dit que ce sont des théories réflexives. En fait, il y a mieux : n'importe quelle extension de l'une ou l'autre de ces théories, écrite dans le même langage, est elle-même réflexive (on dit que ZFC et PA sont essentiellement réflexives : dans le cas de PA, c'est un théorème de 1952 dû à Andrzej Mostowski, et dans le cas de ZFC, je crois que le résultat est dû à Richard Montague et/ou Azriel Lévy vers 1960).

Une des conséquences de ce théorème est que ni ZFC ni PA, s'ils sont consistants, ne peut pas être axiomatisé par un nombre fini d'axiomes (si un ensemble fini T₀ de théorèmes de ZFC, ou du coup, d'axiomes de ZFC, suffisait à impliquer tous les axiomes de ZFC, alors ZFC prouverait la consistance de T₀, donc T₀ prouverait la consistance de T₀, et en prenant T₀ assez fort pour faire de l'arithmétique basique — je ne rentre pas dans les détails — ceci contredit le théorème de Gödel appliqué à la théorie T₀ ; et exactement le même raisonnement vaut pour PA). Mieux : comme ZFC et PA sont essentiellement réflexifs, aucune théorie consistante contenant ZFC ou PA et écrite dans le même langage ne peut être axiomatisée par un nombre fini d'axiomes. Mais ce n'est pas vraiment de ça que je veux parler.

Le résultat ci-dessus doit surprendre, parce qu'il paraît contredire le théorème de Gödel. L'argument serait le suivant : s'il y avait une contradiction dans ZFC, la démonstration de cette contradiction n'utiliserait qu'un nombre fini d'axiomes de ZFC (si on veut, c'est le théorème de compacité syntaxique, mais c'est une trivialité : une démonstration, étant de longueur finie, ne peut faire appel qu'à un nombre fini d'axiomes !) ; mais d'après ce que j'ai dit, ZFC prouve que ceci ne peut pas se produire (tout ensemble fini d'axiomes de ZFC est consistant) — du coup, ZFC est consistant, et on semble avoir prouvé ce fait dans ZFC ! Quelle est l'arnaque ?

L'arnaque est que le théorème de réflexivité ci-dessus est un métathéorème ; plus exactement, donné un ensemble T₀ quelconque d'axiomes de ZFC, on a une recette tout à fait explicite qui fabrique une démonstration à partir des axiomes de ZFC dont la conclusion est T₀ est consistant, et c'est un théorème (de ZFC, PA ou de systèmes encore plus faibles) que cette recette marche, i.e., l'énoncé encadré ci-dessus est bien un théorème. Mais, s'il est vrai que pour tout T₀ fini ⊆ZFC, T₀ est consistant est un théorème de ZFC, et que ceci est aussi un théorème de ZFC ou PA (i.e., pour tout T₀ fini ⊆ZFC, T₀ est consistant est un théorème de ZFC), en revanche, l'affirmation pour tout T₀ fini ⊆ZFC, T₀ est consistant, elle, n'est pas un théorème de ZFC (si ce dernier est consistant), car elle implique la consistance de ZFC d'après le raisonnement que j'ai fait au paragraphe ci-dessus.

Je répète : pour tout ensemble fini T₀ d'axiomes de ZFC, on sait fabriquer une démonstration dans ZFC que cet ensemble T₀ est consistant, et on sait montrer dans ZFC (ou PA ou moins) que ce procédé marche bien, mais on ne peut pas en conclure dans ZFC que tout ensemble fini T₀ d'axiomes de ZFC est consistant. On peut résumer cette situation ainsi : il est vrai que pour tout ensemble fini T₀ d'axiomes de ZFC, ZFC démontre la consistance de T₀, mais il ne le fait pas uniformément en T₀. C'est un cas du phénomène appelé la ω-incomplétude : pour tout n on démontre P(n) selon une recette générale et explicite, mais on ne peut pas démontrer ∀n.P(n) (ici, s'imaginer que n est un codage de T₀ et P(n) est l'affirmation que ce T₀ est consistant).

Absolument tout ceci vaut en remplaçant ZFC par PA partout (i.e., pour tout sous-système fini T₀ de PA, PA démontre que T₀ est consistant, mais ne le fait pas de façon uniforme). Ce fait est, d'ailleurs, étonnamment difficile à trouver écrit dans des bouquins de logique arithmétique.

Pour autant, pour tout usage philosophique ou épistémologique, je suis tenté de dire que ce qui précède (je veux dire, le résultat encadré ci-dessus) est exactement aussi bien qu'une démonstration de la consistance de ZFC dans ZFC, resp. de PA dans PA. Je ne sais pas au juste ce qu'on espérerait accomplir à avoir une démonstration de la consistance de ZFC dans ZFC ou de celle de PA dans PA (le projet de Hilbert était plutôt d'avoir une démonstration de la consistance d'un système fort dans un système faible, donc disons quelque chose comme celle de ZFC dans PA, or ça c'est vraiment hors de question). Mais je suppose que l'idée serait quelque chose comme je suis prêt à admettre comme mathématiquement vrais et certains les résultats — au moins arithmétiques — dont j'ai une démonstration dans ZFC, et je me sentirais plus rassuré si j'étais certain qu'il n'y a pas de démonstration de résultats absurdes dans ZFC, ce qui n'est pas si idiot que ça même si c'est circulaire (admettre que ZFC est vrai — ne serait-ce qu'arithmétiquement — est beaucoup plus fort qu'admettre qu'il est consistant, donc à partir du moment où on l'admet comme vrai, l'étape épistémologique à l'admettre comme consistant devrait être gratuite). Le principe de réflexion que j'ai encadré ci-dessus rend la réticence à admettre que ZFC est consistant encore plus bizarre dans ce contexte : si je suis prêt à admettre la consistance de tous ses sous-systèmes finis, je devrais bien admettre la consistance de la théorie tout entière ; plus exactement, si on me fournit un modèle simple permettant de construire, pour tout ensemble fini T₀ d'axiomes de ZFC, une preuve du fait que T₀ est consistant (et en outre, une méta-preuve du fait, d'ailleurs plus ou moins évident, que ce procédé fonctionne bien), il serait extrêmement bizarre de ne pas en admettre la conclusion, à savoir que tout ensemble fini T₀ d'axiomes de ZFC est consistant.

(dimanche)

Une méta-critique des épisodes I-II-III de Star Wars (PAS le nouveau)

Je n'ai pas encore vu l'épisode-que-tout-le-monde-attendait, donc je ne vais pas en parler (et je ne risque pas de spoiler), mais je voudrais profiter de sa sortie pour livrer de nouveau des réflexions décousues à 20 millizorkmids sur la place de l'œuvre de fiction dans l'imaginaire comme je l'avais fait au sujet de Tolkien.

La « trilogie originale » (pour ceux qui vivent vraiment dans une galaxie lointaine, très lointaine, il s'agit des épisodes numérotés IV (A New Hope), V (The Empire Strikes Back) et VI (Return of the Jedi), et qui sont les premiers à être sortis, respectivement en 1977, 1980 et 1983), fait, pour beaucoup de ma génération, partie des référents culturels avec lesquels nous avons grandi, et évoque surtout un sentiment de nostalgie de l'époque : il devient essentiellement impossible de les juger pour leur mérite propre ou même simplement de les regarder d'un œil neuf. Je ne peux pas penser à Star Wars sans penser à toutes sortes de scènes ou de réflexions de mon enfance qui y sont inextricablement liées dans mon esprit : la terreur quand j'ai vu le VI à sa sortie (j'avais six ans) que m'inspirait le personnage de l'Empereur, la confusion dans laquelle j'étais quant au nombre de films constituant la série (il faut dire que la numérotation n'aide pas, et je pensais qu'il y avait au moins six films à voir), ma fascination pour la musique et les efforts que j'ai faits pour la retrouver de mémoire à la flûte à bec, l'excitation quand j'ai enfin pu me faire acheter les VHS en coffret, etc. Je ne peux pas dire que j'aie été un « fan » de Star Wars (je n'ai jamais collectionné les figurines, lu des livres de l'« univers étendu », joué aux jeux de rôles basés dessus ni été capable de dire la longueur d'un star destroyer), mais j'ai certainement vu chacun de ces films au moins douze fois. (En français avant de les revoir en anglais : alors que maintenant je refuse catégoriquement de voir un film doublé, pour ceux-ci spécifiquement, la VF a une certaine valeur nostalgique à mes oreilles. Ceci dit, je ne crois pas que j'aie entendu la version où Luc s'appelait encore Courleciel.)

J'ai eu une sorte d'épiphanie quand, beaucoup plus tard, j'ai vu le film Battlestar Galactica (je parle du film de 1978, pas de la série TV de l'époque et dont il est plus ou moins le pilote, encore moins de la série TV beaucoup plus récente). Ce film est à peu près contemporain du premier Star Wars, je ne sais pas s'il en est fortement inspiré ou si c'est juste le genre de l'époque, mais les costumes sont dans le même style, la musique est dans le même genre, les deux principaux héros ont plein de ressemblances avec Luke Skywalker et Han Solo, et les effets spéciaux sont autant réalisés avec des bouts de ficelle. Et ce film est vraiment mauvais (suffisamment mauvais pour devenir bon au second degré, i.e., un nanar) : c'est comme ça que je me suis rendu compte que Star Wars, au moins son épisode IV (le premier, donc), était franchement nanaresque, mais que son impact culturel forçait à le ranger dans une autre catégorie que Battlestar Galactica.

Je trouve intéressante la danse qui peut se mettre en place entre une œuvre de fiction et notre imagination : avant même que nous ne voyions ou lisions l'œuvre (je l'ai raconté à propos de Tolkien), mais surtout après, quand nous l'incorporons à notre monde des rêves et de la fantaisie. Quand j'étais ado, j'ai écrit un roman(?), Castor et Pollux, dont la trame était inspirée, voire complètement décalquée, de celle de Star Wars (mélangée à un gloubi-boulga métaphysico-ésotérique que je savais pondre au kilomètre à cet âge-là — sans doute faut-il comprendre que l'histoire de Castor et Pollux est une métaphore tarabiscotée pour la manière dont l'œuvre de fiction peut capturer son propre créateur, auquel cas cette métaphore pourrait avoir une certaine pertinence dans le cas de George Lucas) ; d'ailleurs, l'inspiration n'était pas un secret, les chapitres portent les noms des films de Star Wars traduits en latin (! on va dire que je suis parfois un peu autocaricatural). Toutes sortes de fans avaient certainement développé leur propre imaginaire concernant le passé et le futur de l'Univers de Star Wars.

Peut-être, d'ailleurs, tout cet Univers est-il assez malsain. Énormément d'œuvres de fantastique sont manichéennes dans leur construction, mais le mysticisme de Star Wars atteint un niveau de manichéisme vaguement inquiétant — un niveau où le Bien et le Mal ne sont plus le Bien et le Mal pour des raisons précises mais simplement parce qu'ils sont essentiellement le Bien et le Mal, si bien qu'il n'y a plus à s'interroger sur leurs actions ou leurs motivations, et ceci est la base de bien des formes de fanatisme. (Et on peut lire toute l'histoire des épisodes IV-V-VI comme celle de la radicalisation de Luke Skywalker.) Mais ce mysticisme a pour contrepoint des personnages qui ne sont pas tout blancs ou tout noirs (Han dans l'épisode IV, Lando dans l'épisode V, Vader dans l'épisode VI) et le thème de la rédemption est finalement plus fort que le manichéisme. Au final, la culture pop s'est approprié la trilogie avec peut-être plus d'humour et de légereté qu'elle n'en contient elle-même. Je ne vais laisser ici qu'un exemple, mais je pense que c'est un véritable bijou : le court-métrage George Lucas in Love (visible ici sur YouTube), à mon avis la meilleure fan-fiction sur Star Wars, justement parce qu'il n'est pas de la science-fiction (ni, a fortiori, situé dans l'univers de Star Wars).

Et puis George Lucas est arrivé avec ses épisodes I-II-III (en 1999, 2002 et 2005), et il a tout gâché.

Il y a toujours une certaine violence émotionnelle ressentie quand on s'attache à une œuvre de fiction, qu'on en imagine des extensions, et que l'auteur vient, avec son autorité ex cathedra vous raconter quelque chose de différent — vient casser la construction qu'on s'est faite en rêve pour la remplacer par la sienne, « canonique ». (De nouveau, j'ai parlé de mon expérience personnelle avec Tolkien, mais pour donner un autre exemple, cette année, 55 ans après la publication du roman d'origine, est sortie la suite du classique To Kill a Mockingbird : les réactions ont été assez partagées, pas seulement à cause des circonstances un peu bizarres de cette parution, mais aussi parce que cette suite forçait à réévaluer un personnage qu'on avait peut-être jugé trop favorablement.)

Mais dans le cas de la « prélogie » de Star Wars, à cette violence émotionnelle s'ajoute le choc de découvrir à quel point elle est mauvaise de tout point de vue. Mais le problème n'est pas seulement qu'elle est incohérente, mal écrite, mal mise en scène, mal jouée et mal montée (comme le démontrent par le détail les critiques vers lequel je vais faire des liens ci-dessous) : le problème est surtout qu'elle dissone profondément avec la trilogie des épisodes IV-V-VI, pas seulement sur tel ou tel point de l'intrigue mais, ce qui est beaucoup plus grave, sur le ton général de l'œuvre et de l'univers où elle doit se dérouler. Les fans ont été particulièrement heurtés, par exemple, d'apprendre que la « Force », ce machin mystique central à la saga, était en fait créé par des créatures microscopiques appelées midi-chloriens(?), révélation qui semblait casser toute la poésie de la chose — et révélation d'autant plus agaçante qu'elle n'avait absolument aucune sorte d'intérêt pour l'intrigue du film où elle s'inscrivait. Mais ce n'est que la partie émergée de l'iceberg : énormément de choses, dans ces nouveaux films, vient détruire la poésie des anciens en changeant le regard qu'on porte sur ses personnages, parce que le ton général est tellement différent. (Je donne juste l'exemple de Yoda : il était beaucoup plus intéressant de l'imaginer comme ayant toujours vécu sur sa planète marécageuse et pas à la tête d'un conseil dirigeant des jedis — en fait, le ton des films IV-V-VI suggérait plutôt que les jedis n'avaient pas d'organisation centrale ou de conseil dirigeant ; et il était beaucoup plus intéressant d'imaginer que jamais Yoda n'aurait eu besoin d'utiliser une arme, parce que sa puissance est d'une tout autre nature. Tout ceci me semble plus significatif que l'incohérence qu'on peut soulever dans le fait que dans les épisodes V et VI il est clair que Vader n'a aucune idée de l'existence de Yoda alors que dans les I à III les personnages se croisent à de nombreuses reprises.)

Bien sûr, quantité d'autres œuvres de l'histoire du cinéma ont été « gâchées » par une suite ou un prequel merdiques. Généralement, cependant, cela vient plutôt du studio, qui veut exploiter la franchise, que du réalisateur supposément visionnaire. Il est bizarre qu'ici ce soit George Lucas qui ait saboté sa propre œuvre. (En prétendant, d'ailleurs, avoir suivi ce qui était sa vision dès l'origine : je dois dire que je ne le crois pas du tout. Je ne le crois même pas quand il prétend qu'il avait décidé ce qui se passerait dans l'épisode V lorsqu'il tournait le IV ou le VI quand il tournait le V — si c'était le cas, je pense qu'il n'aurait pas laissé quelques scènes qui prennent rétrospectivement un parfum suspect d'inceste.)

Mais mon propos n'est pas de me plaindre que les épisodes I-II-III de Star Wars sont mauvais : ça ne sert à rien de tirer sur les ambulances. Cela pourrait être plus intéressant d'essayer de comprendre pourquoi ce fiasco : comment se fait-il qu'un créateur disposant de moyens essentiellement illimités et sans aucune contrainte pour exprimer son imagination ni quiconque pour le contredire produise quelque chose d'aussi nul ? Une explication est que c'est justement la difficulté qui fait que l'art est intéressant ; une variante, plus terre-à-terre, est que personne n'osait signaler à George Lucas (comme il était le grand chef, à la fois réalisateur, superproducteur et clé de tout le financement), fût-ce diplomatiquement, que ses idées étaient nulles, si bien qu'il s'est retrouvé complètement déconnecté de la réalité ; ou peut-être qu'il était tellement obnubilé par les possibilités offertes par les effets spéciaux et par tout ce qui apporterait de l'argent en produits dérivés qu'il ne voyait plus que ça. Ou peut-être enfin que les épisodes IV-V-VI ne sont finalement pas mieux que les I-II-III (ni que Battlestar Galactica) mais que nous les jugeons différemment parce que nous nous y sommes habitués et qu'ils sont devenus des références culturelles ? Je ne sais pas. Mais en tout cas, il peut être intéressant d'étudier un peu en détails ce qui n'allait pas bien : critiquer des mauvaises œuvres d'art peut être finalement plus instructif que louer les bonnes. (Et peut-être que dans les cours de litérature on devrait un peu faire la place, au milieu des Shakespeare, Goethe et Racine, pour des écrivains médiocres ou carrément mauvais, afin d'expliquer justement pourquoi ils ne sont pas Shakespeare, Goethe ou Racine. Ou pourquoi les écrivains mauvais ne sont même pas médiocres. Ou pourquoi certains sont encore plus que mauvais. Mais je digresse.)

Bref, je voudrais ici proposer des liens vers trois critiques des épisodes I-II-III de Star Wars qui me semblent vraiment intéressantes : après tout, si s'est farci les sept heures de ces films, autant chercher à comprendre ce qui n'allait pas avec, surtout que ça peut être très drôle d'énumérer les contradictions et les invraisemblances. En fait, ces critiques sont en elles-mêmes des œuvres très construites qui peuvent presque se regarder comme des films. (D'ailleurs, s'agissant de celle de Mr. Plinkett, il y a eu des critiques de la critique, même si je suis tenté de critiquer ces critiques de la critique en disant qu'elles n'étaient généralement pas terribles.)

Ajout () : Je dois encore faire un lien vers la théorie amusante proposée par le webcomic Wondermark : il faut imaginer que les épisodes I-II-III ne représentent pas forcément des événements qui se sont vraiment déroulés dans l'univers de Star Wars mais qu'ils sont une fiction de cet univers, ayant autant de rapport avec la réalité de l'ascension et de la chute de Vader que Pocahontas avec les événements historiques dans notre univers.

(jeudi)

Les adjectifs dans les langues germaniques

Puisque j'en ai parlé dans l'entrée précédente, je vais raconter des choses sur l'inflexion des adjectifs dans les langues germaniques. (Si vous lisez cet article jusqu'au bout, félicitations, vous aurez vous aussi gagné le super pouvoir de passer pour la personne la plus ennuyeuse dans n'importe quelle soirée.)

Les langues germaniques sont une sous-branche des langues indo-européennes. Je commence donc par rappeler certains éléments grammaticaux importants généralement communs à ces langues. Pour commencer, ce sont des langues à cas (au moins à l'origine — beaucoup d'entre elles ont perdu les cas ultérieurement), c'est-à-dire que les noms ou groupes nominaux portent des inflexions qui indiquent la fonction de ces groupes par rapport au verbe de la phrase. (Les cas à l'origine sont : nominatif, vocatif, accusatif, instrumental, datif, ablatif, génitif et locatif ; peu importe la liste exacte, mais je veux surtout souligner qu'ils sont en nombre relativement petit et bien défini, à la différence des langues comme le finnois ou le hongrois où cette liste n'a pas vraiment de fin.) Ces cas sont marqués presque uniquement à la fin du mot (on parle de désinences). De plus, du point de vue de ces cas, les langues indo-européennes font une distinction principale nominatif-accusatif plutôt qu'absolutif-ergatif : disons pour simplifier que cela signifie que dans une phrase comme Pierre frappe Paul, le nom qui effectue l'action désignée par le verbe frapper (Pierre, qui sera au cas appelé nominatif ou cas « sujet ») aura un rôle grammatical plus central que le nom qui la subit (Paul, qui sera au cas appelé accusatif) — cette centralité se voit dans le fait que s'il y a une seule personne connectée à l'action (Jacques tombe), le cas de cette personne sera le même que le cas de la personne qui effectue l'action (donc, le nominatif), que si le verbe s'accorde dans cette situation (Jacques tombeJacques et Jules tombent) alors il s'accorde de la même façon avec le « sujet » de l'action (Pierre et Luc frappent Paul contre Pierre frappe Paul et Marc sans variation), et que si la même personne effectue deux actions on peut faire une ellipse (la phrase Pierre frappe Paul et Pierre tombe peut se redire en Pierre frappe Paul et tombe, alors que Pierre frappe Paul et Paul tombe ne peut pas se redire avec ellipse) ; à l'inverse, dans une langue à opposition absolutif-ergatif, c'est le cas de Paul dans Pierre frappe Paul, appelé absolutif, qui est utilisé pour Jacques tombe et non celui de Pierre (l'ergatif), mais je digresse.

Une autre caractéristique grammaticale des langues indo-européennes est que les adjectifs sont plus ou moins rapprochés des noms : comme les noms, les adjectifs peuvent varier selon le cas, ils s'accordent aussi en nombre et en genre avec le nom (cf. ci-dessous), en revanche ils n'ont pas les dimensions d'inflexion qui caractérisent les verbes (mode, temps, aspect) ; par comparaison, en japonais, les adjectifs (au moins les adjectifs en -い) ressemblent plus à des verbes, et peuvent se mettre, par exemple, au passé. Ceci peut s'analyser en disant que dans les langues indo-européennes, la fonction « normale » de l'adjectif est épithète (la mer bleue) alors que dans d'autres langues la fonction « normale » serait d'être attribut (la mer est-bleue, l'adjectif signifiant être-bleu).

Enfin, les langues indo-européennes distinguent trois nombres, le singulier, le duel et le pluriel, même si le duel est réduit à l'état de trace ou d'archaïsme dans quasiment toutes les langues indo-européennes vivantes (désolé, le slovène !). Et elles distinguent trois genres, le masculin, le féminin, et le neutre, même si plusieurs ou tous ces genres ont pu fusionner dans beaucoup de langues encore vivantes, et même si à l'origine le statut du féminin n'est pas clair (il est probablement dérivé d'une forme de collectif, ce qui explique pourquoi le neutre pluriel et le féminin singulier ont une grande parenté).

J'en profite pour noter que quasiment tout ce que je viens de dire — l'existence de cas, l'opposition nominatif/accusatif, avec variation du verbe selon le sujet, plutôt qu'absolutif/ergatif, l'opposition nom/verbe avec rapprochement des adjectifs aux noms, l'existence d'une distinction de nombre et peut-être même singulier/duel/pluriel, et l'existence d'une distinction de genre avec une similitude entre le féminin singulier et l'inanimé pluriel (jusqu'à l'accord des verbes au singulier dans cette situation) — est aussi vrai pour les langues sémitiques comme l'arabe. Je trouve qu'il s'agit d'indices assez forts pour penser qu'il y a, sinon parenté, du moins influence grammaticale, entre ces deux familles de langues, et je trouve ça beaucoup plus remarquable que d'éventuels rapprochements entre racines lexicales douteuses. Mais de nouveau, je digresse complètement.

Le schéma général de l'adjectif dans les langues indo-européennes est, donc, est qu'il s'accorde en genre, nombre et cas avec le nom auquel il se rapporte. L'accord en nombre n'appelle pas spécialement à commentaire (je me retiens très fort de vous parler des numéraux dans les langues slaves). L'accord en cas n'en mérite pas non plus si l'adjectif est épithète (pour la mer bleue, le bleu sera au même cas que mer, que ce groupe soit sujet, objet, objet indirect, ou tout autre cas) : dans le cas de l'attribut (la mer est bleue), le cas est a priori nominatif, même s'il faut évoquer la possibilité d'un attribut du complément d'objet (la mer, je l'imagine bleue) auquel cas l'adjectif devrait logiquement être à l'accusatif, mais je n'ai pas assez de recul sur un ensemble raisonnable de langues indo-européennes à cas pour pouvoir dire si cette logique est largement suivie. (Par ailleurs, la règle de l'attribut du sujet au nominatif ne s'applique pas que pour un adjectif mais si l'attribut est lui-même un nom ou un groupe nominal : Socrate est un homme mettra normalement un homme au nominatif dans les langues indo-européennes. Cependant, cette logique ne vaut que pour la forme la plus basique, et parfois omise, du verbe être : en russe, par exemple, Socrate est un homme se dit Сократ — человек, mais Socrate était un homme donne Сократ был человеком, l'attribut passant du cas nominatif человек au cas instrumental человеком ; de nouveau, je trouve amusant qu'on voie un phénomène analogue en arabe classique où l'attribut marqué sans verbe commande le cas nominatif tandis que l'attribut marqué avec le verbe كان, par exemple pour exprimer le passé, commande le cas accusatif/direct. Zut, j'ai encore digressé.)

L'accord en genre mérite l'explication suivante que le genre dans les langues indo-européennes a plusieurs visages ou recouvre plusieurs phénomènes. (1) Il est une caractéristique lexicale intrinsèque des noms communs, c'est-à-dire que chaque nom commun (si la langue a gardé des genres) appartient à tel ou tel genre, et ce, de façon essentiellement arbitraire : en français, le soleil est lexicalement masculin, la lune est lexicalement féminin, tandis qu'en allemand, die Sonne (le soleil) est féminin et der Mond (la lune) est masculin. (2) Il est aussi un élément sémantique lorsqu'il se rapporte à une personne, indiquant à quel sexe il est considéré par le locuteur comme appartenir : c'est-à-dire que certains énoncés, nonobstant le (1) ci-dessus, apportent une information sur le sexe du locuteur ou de la personne à laquelle il s'adresse, ou de tiers désignés par des prénoms ou des noms épicènes. (Ainsi, en français, écrire tu es fou plutôt que tu es folle reflète l'information qu'on s'adresse à une personne considérée comme de sexe masculin. Il ne s'agit pas ici du genre lexical d'un nom commun.) (3) Dans le cas des adjectifs (ou apparentés : formes verbales à participes), le genre est un élément d'accord, reflétant le genre (au sens (1) ou (2)) du nom auquel l'adjectif se rapporte. (4) Le genre commande aussi à un choix de pronoms (en français, il contre elle, en anglais he contre she). • En clair, (1) un nom commun est masculin, féminin ou neutre (selon ce que la langue admet comme genres), mais toujours du même genre pour le même nom (à de rares exceptions près), tandis que (3) un adjectif est accordé au masculin, féminin ou neutre selon le nom auquel il se rapporte. Un nom a un genre intrinsèque, un adjectif n'en a pas. Et dans des cas comme celui où l'adjectif se rapport non pas à un nom mais à un pronom ou un nom propre (p.ex., prénom), l'accord est sémantique (c'est le point (2)). (Quant au choix (4) des pronoms pour reprendre un nom, il dépend (1) du genre lexical du nom et/ou (2) de la sémantique, typiquement quand il s'agit d'une personne.)

Au niveau inflexionnel, les langues indo-européennes ont donné aux adjectifs des désinences masculines, féminines et neutres calquées sur les paradigmes des noms les plus souvent du genre correspondant. Ainsi, en latin, le masculin bonus se décline comme dominus (classe de noms majoritairement masculins), le féminin bona comme rosa (classe de noms majoritairement féminins), et le neutre bonum comme templum (classe de noms exclusivement neutres) : les désinences de trois classes de noms différents se retrouvent dans une seule classe d'adjectifs pour former les trois genres. (Mais l'accord est véritablement selon le genre et pas selon la classe flexionnelle du mot : ainsi dans les rares situations de noms féminins du paradigme dominus ou de masculins du paradigme bona, on accorde bien l'adjectif avec le genre, par exemple Sequana longus est, la Seine est longue, le nom du fleuve Sequana étant masculin en latin malgré sa terminaison en -a et bien qu'il ait donné un féminin en français.)

⁂ Tout ceci concernait les langues indo-européennes en général. Les langues germaniques apportent l'innovation qu'en plus de faire varier les adjectifs en genre, nombre et cas, elles introduisent une dimension de plus à leur inflexion, la distinction indéterminé/déterminé. Cette distinction concerne uniquement les adjectifs (les langues scandinaves ont innové en introduisant une distinction similaire pour les noms, j'y reviendrai) ; et elle à l'origine a un caractère sémantique : elle distingue le beau garçon et un beau garçon (si j'arrive à pipoter correctement le vieil allemand, ça devrait être scōno knabo et scōni knabo respectivement), autrement dit, à l'origine, le choix d'accorder l'adjectif en indéterminé ou en déterminé va apporter une vraie différence de sens. Mais les langues germaniques ont ensuite repris des démonstratifs comme articles, rendant cette distinction redondante avec la présence de l'article défini : ceci transforme alors une distinction sémantique en un accord grammatical selon la présence ou non de tel ou tel article. (Exemple toujours en vieil allemand mais avec l'article explicitement écrit, dër scōno knabo, soit en allemand moderne der schöne Knabe, le beau garçon, contre scōni knabo, ein schöner Knabe, un beau garçon ; ou pour reprendre exactement les mêmes mots en vieil anglais, se scēna cnafa contre scēne cnafa, ce qui en anglais moderne-mais-précieux serait [the] sheen knave, mais les désinences ont alors totalement disparu.)

Zut, je voulais reprendre le vers du Roi des aulnes pour mon exemple, mais je me suis mal rappelé celui-ci : dans le poème de Goethe, c'est feiner Knabe (pour ma défense, schöner Knabe scanderait tout aussi bien). Comme fein ne semble pas venir d'une racine germanique, je ne change pas.

Cette distinction déterminé/indéterminé à l'adjectif est une spécificité des langues germaniques qui ne se retrouve pas dans les autres langues indo-européennes, même s'il y a quelque chose de vaguement semblable dans la famille balto-slavique (une sorte de déterminant postposé qui explique notamment pourquoi les adjectifs épithètes en russe ont une déclinaison manifestement double), mais je ne développe pas plus.

J'ai écrit ci-dessus que les langues indo-européennes avaient utilisé les désinences de diverses classes de noms (généralement masculins, généralement féminins, neutres) pour calquer les désinences des adjectifs au masculin, féminin et neutre : un phénomène analogue s'est produit pour fabriquer les désinences des adjectifs à la forme indéterminée et déterminée dans les langues germaniques. Plus exactement, il existe deux grandes déclinaisons de noms dans les langues germaniques, celle appelée forte et celle appelée faible (il en reste des traces en allemand moderne sous la forme des « masculins faibles » qui prennent une désinence -en à toutes les formes infléchies) : la déclinaison faible prend un -n- à quasiment toutes ses formes infléchies alors que la déclinaison forte a un modèle plus varié, avec notamment un -s au génitif singulier et un -(u)m au datif pluriel (je ne donne que des tendances : les détails dépendent évidemment de la langue, du genre et du mot précis). Par exemple, en vieil anglais, je vois l'homme, l'homme est grand se dit īc sēo þone mann, se mann biþ micel (mann est un masculin fort, qui reste identique à l'accusatif) tandis que je vois le garçon, le garçon est grand est īc sēo þone cnafan, se cnafa biþ micel (cnafa est un masculin faible, qui prend un -n à l'accusatif ; c'est encore le cas en allemand moderne — pour autant que Knabe soit considéré comme de l'allemand moderne : ich sehe den Knaben, der Knabe ist groß). Ce sont les noms forts qui ont donné les désinences indéterminées des adjectifs et les noms faibles (ceux avec -n) qui ont donné les désinences déterminées des adjectifs. Du coup, on parle souvent de désinences fortes et faibles des adjectifs pour ces deux cas (mais il n'y a pas d'accord de l'adjectif avec le nom en la matière : si je parle d'un beau garçon, le fait que le garçon est un masculin faible n'a aucune incidence sur le fait que l'adjectif prend la déclinaison forte parce qu'indéterminée).

Tout ceci donne un système assez complexe : même si le nombre de cas des langues germaniques s'est réduit de huit à quatre (nominatif, accusatif, datif et génitif — et parfois de vagues restes d'instrumental), et que le duel a de toute façon été perdu très tôt, il reste que quatre cas fois deux nombres fois trois genres fois deux niveaux de détermination fait encore 48 combinaisons à apprendre pour les adjectifs. Heureusement, toutes les langues modernes ont beaucoup simplifié ce système, l'islandais gardant encore le plus haut niveau de complexité avec une trentaine de combinaisons.

D'abord, certaines langues ont fusionné des genres : en anglais on sait bien que les genres ont totalement disparu, mais il est plus courant d'avoir fusionné le masculin et le féminin en un genre commun qui s'oppose au neutre. (On ne sait pas trop comment l'appeler, ce genre : commun serait bien sauf qu'un nom commun désigne déjà quelque chose, et peut donc prêter à confusion si je dis que la plupart des noms communs sont communs ; non-neutre est lourd parce que c'est une double négation, et qu'à l'oral non-neutre se confond avec nom neutre ce qui est gênant ; et utre est logique et cohérent puisque étymologiquement, neuter veut dire ni l'un ni l'autre en latin, de uter qui veut dire l'un ou l'autre, mais malheureusement ce terme est inhabituel et provoque souvent l'incompréhension.) Cette fusion du masculin et du féminin s'est produite en néerlandais et dans les langues scandinaves, en convenant que l'islandais n'est pas une langue scandinave ; mais comme d'habitude en linguistique, il y a des nuances. (Le féminin a disparu, en tant que caractéristique lexicale, du néerlandais parlé aux Pays-Bas, c'est un peu moins vrai pour le flamand de Belgique, où certains noms utres vont être repris par le pronom ze au lieu de hij, même si ceci n'a pas d'impact sur les adjectifs qui me concernent principalement ici. Et si le masculin et le féminin ont bien fusionné en tant que caractéristiques lexicales en danois et en suédois, en norvégien ils sont encore plus ou moins séparés selon les dialectes : disons grosso modo qu'il y a trois genres lexicaux en nynorsk tandis que pour ce qui est du bokmål les formes « masculines » et « féminines » sont en variation libre, mais de toute façon les formes du masculin et du féminin de l'adjectif y coïncident sauf pour l'adjectif irrégulier liten, signifiant petit, qui devient lita au féminin.) L'allemand et l'islandais modernes, pour leur part, gardent complètement les trois genres.

Notons que quand je parle de fusion des genres grammaticaux, je veux parler uniquement du genre en tant que caractéristique lexicale des noms (ce que j'appelais (1) ci-dessus) et en tant que reflet sur l'accord des adjectifs ((3) ci-dessus). Il subsiste en anglais, néerlandais, suédois, etc., un genre sémantique ((2) ci-dessus) qui se marque par le choix des pronoms ((4) ci-dessus) pour désigner les personnes, i.e., il ou elle. • En anglais, il y a donc trois genres sémantiques : le masculin (pronom de 3e personne du singulier he), le féminin (pronom she) et l'inanimé (pronom it), avec une hésitation sur ce qu'on doit faire des êtres animés qui ne sont pas des personnes. En allemand (comme dans beaucoup de langues indo-européennes à la base), il y a mélange entre le genre lexical et le genre sémantique, puisqu'on a un pronom de 3e personne du singulier er qui sert à reprendre une personne de sexe masculin ou un nom commun de genre lexical masculin, un pronom sie qui sert à reprendre une personne de sexe féminin ou un nom commun de genre lexical féminin, et enfin un pronom es qui sert à reprendre un nom commun de genre lexical neutre. (Notons qu'une personne peut tout à fait être désignée par un nom neutre en allemand, puisque tous les diminutifs sont neutres : mais on n'utilise es pour désigner une personne que quand un tel nom est explicitement présent — sauf évidemment par volonté stylistique particulière.) En néerlandais, le même mélange se produit, sauf que comme l'alternance lexicale masculin/féminin a disparu, c'est hij, le pronom « masculin » qui va servir à reprendre un nom lexicalement utre, tandis que ze se retrouve limité au genre sémantique (grosso modo aux Pays-Bas : je l'ai dit ci-dessus, en Belgique, ze peut servir à reprendre des noms de genre utre). • Les langues scandinaves, pour leur part, évitent le mélange entre genres lexicaux et genres sémantiques et ont donc un répertoire complet de pronoms : en suédois, le pronom de la troisième personne du singulier est han pour reprendre une personne de sexe masculin, hon pour reprendre une personne de sexe féminin, den pour reprendre un nom lexicalement utre désignant un être inanimé (ou en tout cas pas une personne), et det pour reprendre un nom lexicalement neutre ; auxquels quatre pronoms on peut en ajouter un cinquième de facture récente, hen, utilisé pour reprendre une personne sans référence à son sexe — ce qui est assez logique : on se retrouve donc avec cinq pronoms correspondant aux genres masculin, féminin, utre, neutre et épicène. (Soit dit en passant, le système scandinave fonctionne beaucoup mieux dans mon cerveau que le système de l'allemand, parce que quand je parle allemand mon cerveau a toujours envie de reprendre les objets inanimés par es, même quand je connais bien leur genre lexical, parce que ça me choque de dire er ou sie pour autre chose qu'une personne, sans doute à cause de l'influence de l'anglais.) • Mais tout ceci est une longue digression puisque, en ce qui concerne les adjectifs, il n'y a tout simplement pas de différence entre masculin et féminin en néerlandais ou dans les langues scandinaves (si on veut bien oublier l'adjectif liten en norvégien nynorsk). Que je sache, à part un point optionnel en suédois sur lequel je vais revenir, il n'y a qu'en islandais parmi les langues modernes que le genre sémantique (2) se reflète sur l'accord des adjectifs (3) (tu es fou, i.e., si on s'adresse à un homme, se dit en islandais þu ert brjálaður, tandis que tu es folle, i.e., si on s'adresse à une femme, donne þu ert brjálað), or de toute façon l'islandais a gardé les trois genres.

Voici quelques unes des autres évolutions, principalement simplificatrices, qui ont eu lieu. Toutes les langues vivantes que je viens de citer à l'exception de l'islandais fusionnent tous les genres au pluriel (je parle toujours des adjectifs !, je veux dire que dès lors qu'un nom est pluriel, son genre n'a plus d'importance pour l'accord de l'adjectif, je ne prétends pas que le genre n'a pas un impact sur la formation du pluriel du nom lui-même) ; ceci permet donc de traiter le pluriel comme si c'était un genre additionnel plutôt qu'une dimension supplémentaire. • Le néerlandais comme les langues scandinaves ont à peu près perdu les cas (il reste toujours des traces de génitif çà et là, d'ailleurs il en reste dans le possessif en 's de l'anglais, et certains dialectes norvégiens ont encore un datif, mais grosso modo ça a disparu). • Par ailleurs, les langues dérivées du vieux norrois (les langues scandinaves et l'islandais) ont perdu le -n- qui caractérisait les désinences faibles : celles-ci deviennent essentiellement vocaliques. • Mais à l'inverse, ces langues nordiques ont une innovation par rapport aux autres langues germaniques, qui est l'article défini postposé, à l'origine un simple placement de l'article défini après le nom plutôt qu'avant, mais qui se transforme en désinence grammaticale, et qui fait qu'à côté de la distinction définie/indéfinie sur l'adjectif, il y a maintenant une distinction de même type sur le nom, — distinction que je vais appeler articulée/inarticulée plutôt que définie/indéfinie pour éviter la confusion. (Chose amusante, cet article défini postposé ressemble superficiellement à une réapparition du -n qui avait disparu de la désinence faible des adjectifs.) • Enfin, les langues qui dérivent du vieil allemand (c'est-à-dire essentiellement : l'allemand et le néerlandais) ont perdu l'accord des adjectifs attributs, considérés comme quasi-adverbiaux (en allemand moderne, cet homme est grand, cette maison est grande, ces enfants sont grands se dit dieser Mann ist groß, dieses Haus ist groß, diese Kinder sind groß avec partout la même forme groß, alors qu'en suédois on a den här mannen är stor, det här huset är stort, de här barnen är stora montrant qu'il y a bien un accord de stor selon que le sujet est utre singulier, neutre singulier ou pluriel).

L'allemand (à partir du moyen allemand) a réinterprété la règle permettant de décider si on utilise les désinences fortes ou faibles de l'adjectif, et en ce faisant, elle l'a transformée. À l'origine, comme je l'ai expliqué, on utilise les désinences faibles quand le nom est déterminé (précédé d'un article défini ou d'un démonstratif, ou éventuellement d'un possessif), et les désinences fortes dans les autres cas. En allemand moderne, la situation est différente. D'abord, il faut noter que les noms ont quasiment perdu leur déclinaison (à l'exception de certains noms dits faibles ou mixtes, il ne reste que les désinences -s au génitif singulier des masculins et neutres, et -en au datif pluriel de tous les genres, plus des traces d'un -e optionnel au datif singulier de certains mots) : la marque du genre et du cas est essentiellement portée par l'article (ou autre déterminant : démonstratif, possessif…) et éventuellement par l'adjectif qui est ce dont je veux parler. La règle de base de l'allemand moderne pour l'inflexion des adjectifs est : on place sur l'adjectif épithète la désinence qu'on mettrait sur l'article défini si celle-ci n'y est pas et sinon l'adjectif prend la désinence « faible » (qui est -en à tous les cas infléchis et -e aux cas non-infléchis, où par « non-infléchi » je veux dire un cas identique à un nominatif singulier). Ainsi, la distinction ne se fait plus sur le fait qu'on ait ou non l'article défini, mais sur le fait qu'on ait ou non une désinence marquant le genre et le cas : même si cette désinence est sur l'article indéfini, elle entraîne quand même les désinences faibles à l'adjectif. Pour donner un exemple, précisons que la préposition mit (avec) régit le datif et que la désinence normale (« forte ») du datif masculin/neutre singulier est un -m : on écrit ainsi mit starkem Willen, avec [une] puissante volonté, la désinence « forte » -m étant présente parce qu'elle n'est pas portée ailleurs, mais mit dem starken Mann, avec l'homme puissant, la désinence faible -en étant présente parce que le -m est marqué ailleurs : sur ces exemples, il n'y a aucune différence avec la distinction déterminé/indéterminé, mais elle apparaît si je donne le troisième exemple, mit einem starken Mann, avec un homme puissant, où on a la désinence faible -en à l'adjectif parce que la forte -em est présente à l'article indéfini, bien que celui-ci soit indéfini (et bien qu'en vieil allemand on aureût eu mit einemu starkemu manne, forme indéterminée, contre mit dëmu starken manne, forme déterminée essentiellement identique à l'allemand moderne). • Par ailleurs, la règle fonctionne normalement quand l'adjectif est substantivé (par exemple, der Deutsche, l'Allemand, i.e., la personne allemande, donne mit einem Deutschen, prenant la désinence faible puisque la forte est déjà sur le déterminant).

Ce qui complique les choses en allemand, par rapport à la règle que j'ai énoncée ci-dessus, c'est que certains déterminants « ne comptent pas » au sens où même s'ils portent la désinence forte, l'adjectif ne passe pas pour autant à la désinence faible : c'est ici que ressort la distinction sémantique déterminé/indéterminé à travers la règle réinterprétée par l'allemand. Ainsi, on écrit alle guten Menschen, tous les hommes bons (avec la désinence faible parce que porte la désinence forte du pluriel) mais viele gute Menschen, beaucoup d'hommes bons, parce, que Wotan sait pourquoi, viel est un de ces mots qui ne comptent pas, i.e., préserve la déclinaison forte de l'adjectif : les grammaires allemandes doivent donc proposer des tables et des commentaires sur ces différents mots.

Le néerlandais moderne est de quasiment tout point de vue une version simplifiée de l'allemand moderne : pas de cas, fusion des genres masculin et féminin en un genre utre, et bien sûr, comme l'allemand moderne, les adjectifs attributs sont invariables. Il devient un peu difficile de parler de désinences faible ou forte sur l'adjectif, vu qu'il n'y a qu'une seule désinence possible, -e, qui est utilisé sur l'adjectif épithète sauf quand il se rapporte à un neutre singulier indéfini (indéfini voulant dire ici : précédé de l'article indéfini een ou de pas d'article du tout — ou de quelques autres choses comme geen signifiant pas de ou veel signifiant beaucoup). En appliquant cette règle (et en sachant que het huis, la maison, est neutre comme attesté par l'article défini het, tandis que de vrouw, la femme, est utre comme attesté par l'article défini de), on peut donc prévoir : het huis is groot (la maison est grande), de vrouw is groot (la femme est grande), de huizen zijn groot (les maisons sont grandes), de vrouwen zijn groot (les femmes sont grandes), het grote huis (la grande maison), de grote vrouw (la grande femme), de grote huizen (les grandes maisons), de grote vrouwen (les grandes femmes), een groot huis (une grande maison), een grote vrouw (une grande femme), grote huizen (de grandes maisons), grote vrouwen (de grandes femmes). En fait, le problème avec le néerlandais est peut-être que cette règle est trop simple, du coup on ne sait pas trop à quoi la rattacher. J'ai tendance à la retenir sous la forme suivante : comme l'article indéfini een ne change pas selon le genre, on marque le genre sur l'adjectif en retirant la désinence -e au neutre — sous cette forme, c'est à peu près la même logique que l'allemand. Mais je souligne quand même une différence avec l'allemand moderne (et qui heurte la logique que je viens de proposer) : c'est qu'en néerlandais (comme en vieil allemand) les noms précédés de possessifs sont considérés comme déterminés, donc on dira m'n grote huis is een groot huis (ma grande maison est une grande maison — oui, c'est idiot, mais c'est juste pour souligner que l'adjectif prend deux formes différentes, une fois déterminée et une fois indéterminée) alors qu'en allemand cette même phrase est mein großes Haus ist ein großes Haus (avec deux fois les désinences fortes parce qu'elles ne sont pas sur le déterminant).

Les langues scandinaves reflètent bien le mécanisme général des langues germaniques (historique, c'est-à-dire sans la réinterprétation qu'en a faite l'allemand) : dans le cas défini, quelle que soit le genre ou le nombre, l'adjectif prend la désinence faible/définie, qui est un -e sauf en suédois où c'est le plus souvent un -a ; et dans le cas indéfini, il prend la désinence forte/indéfinie, qui est respectivement - [rien] au genre utre, -t au neutre, et normalement identique à la désinence faible (-e ou -a) au pluriel. Contrairement à l'allemand et au néerlandais où les adjectifs attributs sont invariables, ils prennent dans les langues scandinaves les désinences fortes/indéfinies. Concernant le choix de la désinence -a/-e en suédois, c'est normalement un -a, sauf pour les participes passés en -ad (→-ade), pour les superlatifs en -ast (→-aste), et quand le nom qualifié est singulier et se réfère à un individu masculin (il s'agit ici d'un genre sémantique et non grammatical), mais encore ce dernier point est-il optionnel dans la plupart des cas (sauf pour un adjectif substantivé). Dans les autres langues scandinaves, la désinence faible et pluriel est simplement -e. En norvégien, dans la mesure où il existe une distinction entre masculin et féminin (plus ou moins marquée selon les dialectes, et absente du danois et du suédois), elle ne se traduit de toute façon pas sur l'adjectif (sauf, je l'ai dit, pour liten, petit, qui devient lita au féminin).

Là où il y a une subtilité, c'est que, comme je l'ai mentionné, dans les langues scandinaves, les noms eux-mêmes ont une alternance définie/indéfinie que je vais plutôt appeler articulée/inarticulée (par exemple, dans toutes ces langues, hus, maison, forme inarticulée, mais huset, la maison, forme articulée). La forme articulée du nom vient d'un article défini postposé en vieux norrois, qui lui-même se déclinait (en plus de la déclinaison du nom lui-même), et on peut débattre de la question de savoir si dans les langues scandinaves modernes cette marque de définition est un mot clitique ou une désinence : à mon avis ce débat n'a aucun intérêt. (En revanche, on peut prendre le soin de remarquer que la dichotomie défini/indéfini pour l'adjectif et la dichotomie articulé/inarticulé pour le nom n'ont pas la même origine et pas tout à fait le même rôle : pour l'adjectif, c'est une caractéristique des langues germaniques qui vient d'une déclinaison faible comme je l'ai expliqué en détail, tandis que pour le nom c'est une spécificité des langues nordiques qui vient d'un article défini postposé, et pour ce qui est du rôle, je vais expliquer la différence dans un instant.) Toujours est-il qu'on a bien quatre formes du nom : le singulier inarticulé, le singulier articulé, le pluriel inarticulé et le pluriel articulé. Et il y a différentes classes d'inflexion de noms selon les terminaisons exactes, même si le modèle général, dans l'ordre que je viens de dire, ressemble grossièrement à -;-en;-ar;-arna au genre utre et -;-et;-;-en au neutre (à quoi il faut encore ajouter -;-a;-ar;-ane pour le féminin en norvégien). • Comme l'adjectif s'accorde en genre et en nombre avec le nom, on peut être tenté de croire qu'il s'accorde aussi en définition : or ce n'est pas tout à fait le cas, on peut avoir un adjectif défini qualifiant un nom inarticulé. Plus exactement, lorsqu'un nom qualifié par un adjectif veut être utilisé de façon définie, toutes les langues scandinaves utilisent un article défini préposé (den au genre utre, det au neutre, de au pluriel) : en danois, cet article défini préposé fait disparaître l'article défini postposé, c'est-à-dire que le nom sera à la forme inarticulée, tandis que l'adjectif sera à la forme définie (huset, la maison, mais det store hus, la grande maison) ; en suédois, au contraire, on utilise à la fois l'article préposé et l'article postposé, on parle de double détermination, qui est même plutôt triple puisque l'adjectif est aussi à la forme déterminée (det stora huset, la grande maison) — il y a donc bien ici coïncidence entre forme articulée du nom et forme définie de l'adjectif, mais dans d'autres situations, comme après un possessif, on utilise quand même la forme définie de l'adjectif avec la forme inarticulée du nom (min stora hus, ma grande maison) ; quant au norvégien, comme souvent, il hésite, selon les dialectes, entre ce que fait le danois et ce que fait le suédois (en penchant quand même plus côté suédois). Il faudrait aussi mentionner la situation où on a un adjectif substantivé : on utilise alors l'article défini préposé (den / det / de) pour marquer la détermination, on ne se contente pas de la forme déterminée de l'adjectif : ceci exhibe une différence de plus avec les noms (où la forme articulée s'emploie seule pour marquer la détermination).

Pour faire une discussion complète, il y aurait 18 possibilités à envisager selon la présence de l'article défini préposé, d'un autre déterminant ou rien, selon que la forme de l'adjectif est définie ou indéfinie ou qu'il n'y a pas d'adjectif, et selon que la forme du nom est articulée ou inarticulée. Il faudrait considérer chacune de ces 18 combinaisons dans les différentes langues scandinaves modernes, aussi bien dans ses formes « standard » que dans des formes « dialectales », et chercher si elle se trouve régulièrement, seulement dans des expressions figées ou isolées, ou essentiellement jamais. Je n'ai évidemment pas la compétence de mener une telle étude : ce que je trouve de plus proche est l'article d'Östen Dahl, Definite articles in Scandinavian: Competing grammaticalization processes in standard and non-standard varieties.

Si je reprends les mêmes exemples que j'ai donnés pour le néerlandais, et si par miracle je ne me suis pas trompé dans le copier-coller, ils donnent en suédois : huset är stort (la maison est grande), kvinnan är stor (la femme est grande), husen är stora (les maisons sont grandes), kvinnorna är stora (les femmes sont grandes), det stora huset (la grande maison), den stora kvinnan (la grande femme), de stora husen (les grandes maisons), de stora kvinnorna (les grandes femmes), ett stort hus (une grande maison), en stor kvinna (une grande femme), stora hus (de grandes maisons), stora kvinnor (de grandes femmes). Et en danois : huset er stort (la maison est grande), kvinden er stor (la femme est grande), husene er store (les maisons sont grandes), kvinderne er store (les femmes sont grandes), det store hus (la grande maison), den store kvinde (la grande femme), de store huse (les grandes maisons), de store kvinder (les grandes femmes), ett stort hus (une grande maison), en stor kvinde (une grande femme), store huse (de grandes maisons), store kvinder (de grandes femmes).

Bon, je pense que je suis entré dans suffisamment de détails, je ne vais pas vous raconter les histoires de comparatifs et de superlatifs (ben oui, j'ai triché en disant qu'il y avait 4 cas fois 2 nombres fois 3 genres fois 2 niveaux de détermination = 48 combinaisons : il faut encore multiplier par 3 degrés de comparaison), et des langues qui ont décidé de façon purement vexatoire de ne pas être d'accord sur la question de savoir si les comparatifs s'infléchissent (et hop, une variable booléenne à mettre de plus dans la fonction que le cerveau doit évaluer à toute vitesse : est-ce ce machin est un comparatif et est-ce que dans la langue que je suis en train de parler en ce moment les comparatifs s'accordent ?). Je ne m'étends pas non plus sur la grammaire de l'islandais, qui colle de toute façon avec le système historique que j'ai présenté plus haut.

Si vous vouliez juste un conseil quant à savoir quelle langue apprendre, apprenez l'anglais : il n'est peut-être pas idéal au niveau vocabulaire et prononciation, mais au moins il ne vous demande pas de réfléchir dix secondes à chaque fois que vous voulez utiliser un adjectif. Moi je vais réviser mon norvégien en regardant Okkupert ce soir à la télé.

(lundi)

Le cerveau et les fonctions booléennes (idées d'expériences)

Je me dis souvent que j'aimerais avoir un tas de cobayes humains pour faire toutes sortes d'expériences cognitives dessus (et pas que des sciences cognitives, d'ailleurs : j'aimerais aussi faire toutes sortes d'expériences sociales, ou simplement de sondages sur un échantillon représentatif de la population française). Malheureusement, je ne suis pas un savant fou qui aurait des centaines de sujets d'expérience prisonniers dans sa cave, je n'ai pas non plus les accréditations (ou encore moins la patience) pour demander les financements permettant de monter des expériences dans des conditions scientifiques, alors je ne peux que lancer les idées en l'air en soupirant ce serait bien de faire ce genre d'expérience et spéculer de façon totalement gratuite sur le résultat (et me dire au passage que l'avantage des mathématiques sur d'autres domaines scientifiques, c'est quand même qu'on n'a pas besoin d'avoir des objets d'expérience prisonniers dans sa cave, dans une boîte de Petri ou dans un synchrotron à 10 giga-euros). Zut, je suis encore en train de digresser.

Une expérience que j'aimerais bien mener, donc, c'est d'essayer de mesurer le temps que le cerveau prend pour évaluer des fonctions booléennes (je vais expliquer dans un instant ce dont il s'agit) et essayer de modéliser la manière dont il s'y prend. Notamment : est-ce que ce temps dépend fortement des individus, est-ce qu'il dépend fortement de la fonction évaluée, à quelle vitesse « apprend-on » une fonction booléenne (c'est-à-dire, à quelle vitesse en acquiert-on un automatisme) et cette acquisition est-elle dépendente de la manière dont les entrées de la fonction sont présentées. Et aussi : dans quelle mesure est-ce que les animaux peuvent apprendre des fonctions un peu complexes.

Je m'explique.

Voici un premier jeu d'expériences imaginables. Commençons par l'expérience la plus triviale qui soit, et qui peut servir de mesure de base à laquelle comparer les autres  : le sujet a une lumière devant lui et un bouton. Toutes les secondes (disons), la lumière va aléatoirement passer dans l'état « éteint » ou « allumé » : le sujet a pour mission d'appuyer sur le bouton si la lumière est allumée. Cette tâche est extrêmement simple, et il est à prévoir qu'on y arrive très rapidement (au niveau du temps de réflexe), et avec très peu d'erreurs : il peut cependant être intéressant de faire varier certains paramètres (lumière qui peut prendre deux couleurs au lieu d'être éteinte/allumée, deux boutons entre lesquels il faut choisir, cadencement choisi par le sujet au lieu d'être à vitesse fixe, que sais-je encore). Maintenant, l'idée serait de mettre plus de lampes et de demander au sujet de réagir selon des conditions plus complexes. Une telle condition est appelée fonction booléenne.

Par exemple : s'il y a deux lampes, on peut demander au sujet d'apuyer sur le bouton si la lampe de gauche est allumée ; ou si les deux le sont ; ou si l'une des deux l'est ; ou si la lampe de gauche est éteinte ; ou encore : si la lampe de gauche est allumée ou que celle de droite est éteinte. En tout, il y aurait 16 fonctions booléennes à tester sur 2 lampes, même si certaines n'ont aucun intérêt (demander d'appuyer à tous les coups sur le bouton n'est pas franchement passionnant) et d'autres peuvent certainement être regroupées pour des raisons de symétrie (je doute qu'on réagisse plus rapidement ou plus fiablement à des conditions portant sur la lampe de gauche qu'à celles sur la lampe de droite ou vice versa). J'imagine qu'on aurait beaucoup plus de facilité à exécuter rapidement et fiablement la tâche appuyer sur le bouton si l'une ou l'autre lampe est allumée que appuyer sur le bouton si la lampe de gauche est allumée ou la lampe de droite éteinte, mais ce qui m'intéresse, entre autres, est de quantifier cette différence et d'essayer de modéliser ce qui rend certaines tâches plus faciles que d'autres. Il faudrait savoir, aussi, si le temps dépend de la manière dont on a formulé la phrase (pour des fonctions booléennes équivalentes) : est-il plus facile de appuyer sur le bouton si la lampe de gauche est allumée et la lampe de droite éteinte ou de appuyer sur le bouton si la lampe de gauche est allumée sauf si la lampe de droite l'est aussi ? Et si on donne les instructions sans mots mais avec autant d'exemples que nécessaire ?

Sur un plus grand nombre de lampes, je suis tout à fait certain qu'on irait beaucoup plus vite sur les tâches qui s'expriment très simplement avec des nombres, par exemple appuyer sur le bouton si au moins trois lampes sont allumées, mais il serait intéressant de comparer avec d'autres tâches d'assez basse complexité booléenne, notamment des fonctions positives, du genre appuyer sur le bouton si l'une des deux lampes de gauche est allumée et que l'une des deux lampes de droite l'est (mettons qu'il y en ait quatre au total). Une fonction booléenne est dite positive lorsque le fait de changer une de ses variables de fausse à vraie (i.e., allumer une lampe) ne peut pas rendre faux le résultat (i.e., faire qu'on ne doive plus appuyer sur le bouton) : a-t-on globalement plus de facilité à calculer de telles fonctions que pour des fonctions qui peuvent comporter des négations ?

Mais bien sûr, il ne faut pas se contenter d'expérimenter avec des lampes (allumées/éteintes) et des boutons. Je voudrais aussi savoir, notamment, comment le temps de réponse est affecté si les entrées de la fonction booléenne sont hétérogènes : si je demande au sujet d'appuyer sur un bouton si on lui présente une forme qui est un carré ou qui est rouge, est-ce que la différence de temps de réaction par rapport à juste détecter un carré ou juste détecter du rouge est comparable à celle qu'on aurait mesuré pour la fonction booléenne ou à deux lampes ? Et pour une tâche du genre appuyer sur le bouton si la forme de gauche est un carré ou qu'elle est rouge, et que la forme de droite est un triangle ou qu'elle est bleue, est-ce que le fait de s'être préalablement entraîné à exécuter la tâche appuyer sur le bouton si l'une des deux lampes de gauche est allumée et que l'une des deux lampes de droite l'est va fournir un avantage ? Autrement dit, notre cerveau est-il capable de précompiler des fonctions booléennes polymorphes ? ou bien chaque fonction est-elle apprise uniquement pour une situation bien précise et non réutilisable ? Et si je fais subir au même cobaye des mois et des mois de tâches différentes toujours avec la même fonction booléenne ([x ou y] et [u ou v]), va-t-il quand même finir par en acquérir un automatisme ?

Le nombre de questions que je me pose est très élevé, je ne vais pas toutes les écrire parce que ce serait assez fastidieux, d'autant que certaines dépendent de résultats des expériences antérieures, mais vous voyez le genre d'idées.

Pourquoi est-ce que je m'intéresse à ça ? Parce que j'ai l'impression que je me retrouve régulièrement à exécuter des tâches de ce genre : fouiller mentalement ou visuellement dans un ensemble d'items pour trouver ceux qui remplissent certains critères exprimés comme combinaisons booléennes d'autres critères, et je trouve qu'il y a décidément une certaine fatigue mentale spécifique associée à ce travail.

Mais je pense aussi à un type particulier de tâches : l'application des règles de grammaire. En écrivant cette entrée, j'ai commencé ici une longue digression sur l'inflexion des adjectifs dans les langues germaniques : finalement, je l'ai coupée et j'en ferai sans doute une entrée séparée qui n'intéressera personne, mais voici juste l'exemple de la règle (un peu simplifiée) permettant de savoir si on doit mettre la désinence -e (la seule possible) sur un adjectif en néerlandais : on ajoute cette désinence lorsque l'adjectif est épithète et que le nom qualifié est non-neutre ou pluriel ou précédé de l'article défini. (A contrario, ceci signifie qu'on ne met pas la désinence lorsque l'adjectif est attribut ou que le nom est neutre singulier précédé de [l'article indéfini ou d'une absence d'article].) Ce n'est pas une fonction booléenne terriblement compliquée (c'est en tout cas beaucoup plus simple que la multitude de cases à envisager en allemand ou en islandais, et c'est aussi un peu plus simple que la règle correspondante pour le danois ou le suédois), mais pour parler une langue à une vitesse raisonnable, il faut arriver à calculer ce genre de fonctions très efficacement et de façon complètement automatique (i.e., sans y réfléchir consciemment) : et avant que l'automatisme s'installe, ce qui demande énormément de pratique, on passe par une longue phase assez fastidieuse où chaque utilisation d'un adjectif implique une petite gymnastique mentale (est-ce que mon adjectif est épithète ? est-ce qu'il y a un article ? est-ce que cet article est défini ? est-ce que le nom est neutre ?). Je trouve qu'il serait intéressant de faire des expériences sur des gens n'ayant aucune connaissance préalable du néerlandais du temps nécessaire pour appliquer cette règle booléenne.

Bon, souvent, quand on considère les règles de grammaire, il ne s'agit plus tellement de fonctions booléennes au sens strict, c'est-à-dire que les entrées de la fonction ne sont plus obligatoirement de nature vrai/faux, mais peuvent être dans des ensembles de valeurs un petit peu plus gros, comme les trois genres — masculin, féminin et neutre — ou les quatre cas grammaticaux — nominatif, accusatif, datif et génitif — de l'allemand. Bien sûr, cette distinction est un peu byzantine, mais je pense en revanche qu'il y a une vraie distinction à faire, dans le processus mental, entre d'une part les fonctions booléennes ou « presque », avec des entrées qui prennent deux ou un petit nombre de valeurs possibles, et d'autre part des tableaux morphologiques comme des tables de conjugaison ou de déclinaison.

Si je m'écarte un peu des fonctions booléennes ou à petites entrées finies considérées ci-dessus, on pourrait aussi regarder les automates finis simples. Je pense par exemple à l'exercice mental que constitue la lecture d'une portée musicale avec beaucoup d'altérations (:= dièzes et bémols) et de changements d'altérations : la convention d'écriture est que la portée porte un certain nombre d'altérations « par défaut », et que chaque fois qu'une modification est faite, elle vaut pour la mesure en cours jusqu'à la fin de celle-ci : on peut voir ça comme l'application d'un automate fini, et il serait intéressant de mesurer la rapidité à laquelle on arrive à effectuer cette tâche sans entraînement préalable.

Bon, je devrais sans doute écrire des pages JavaScript qui proposent toutes sortes d'exercices dans ce genre et qui mesurent le temps et la fiabilité des réponses — comme ça, à défaut d'avoir des cobayes sur lesquels tester, je pourrais au moins me tester moi-même.

(vendredi)

Pourquoi les ordinaux me fascinent (une introspection psychologico-mathématique)

J'ai déjà récemment écrit une entrée sur mon obsession pour la symétrie, qui est certainement responsable d'une bonne partie de l'attrait que les mathématiques ont pour moi, et qui déborde sur ma fascination pour certaines formes de mysticisme assez visible notamment dans les œuvres littéraires que j'ai tenté d'écrire quand j'étais plus jeune. Mais il y un autre aspect des mathématiques qui me hante et sur lequel je n'arrive pas vraiment à placer un nom : disons, faute de mieux, la grandeur. Je ne sais pas non plus expliquer exactement en quoi cela consiste (pour être clair, je ne parle pas d'un concept mathématique, mais du ressenti commun que j'ai de certaines parties des mathématiques) ; j'ai tendance à penser que c'est le contrepoids de la symétrie, donc peut-être que hiérarchie serait un meilleur terme. Si je devais écrire sérieusement une œuvre dont j'ai déjà publié certains fragments aléatoires, et imaginer un monde allant avec, où les mathématiques donneraient des pouvoirs arcanes, il y aurait sans doute deux types de pouvoirs et d'utilisateurs de ceux-ci : les magiciens, qui utiliseraient la symétrie, et les clercs (pour reprendre la terminologie rôliste) qui utiliseraient la hiérarchie. Maintenant, c'est peut-être mon obsession pour la symétrie qui me fait proposer cette classification : néanmoins, il est certain que, si je dois faire le chemin des mathématiques au mysticisme, la symétrie m'évoque clairement une forme de magie pour les raisons que j'ai déjà expliquées dans l'entrée que je lui ai consacrée, tandis que ce dont je veux parler ici a une saveur, disons, plus religieuse, et cela transparaît notamment dans la Théorie de la Totalité Transfinie de Turing que je décrivais dans cette entrée.

Je ne sais pas quel est le phénomène mathématique sous-jacent à cette impression mentale de « grandeur » ou « hiérarchie », donc, mais je sais quel est le concept qui la réalise le plus parfaitement : il s'agit des ordinaux. J'ai déjà écrit ici une vulgarisation de ce concept (et j'ai même fait un visualisateur permettant de naviguer parmi les plus petits d'entre eux, quoiqu'il faille admettre qu'on n'y voit rien), donc mon but ici n'est pas de parler de mathématiques (même s'il est à prévoir que je n'y résisterai pas : j'invite alors le lecteur non intéressé par les questions techniques à ignorer ces passages, ou de lire en diagonale). Ce que je veux présenter aujourd'hui est l'effet psychologique qu'ont sur moi les ordinaux — une sorte de psychanalyse de l'infini, si on veut, si ce n'est que je ne prétends pas vraiment être sérieux.

C'est une réalisation fascinante pour beaucoup d'enfants, lorsqu'ils apprennent à compter, qu'il n'y a pas de plus grand nombre : j'ai déjà écrit des choses à ce sujet, je ne vais pas revenir sur cette fascination du fait que dans le jeu qui peut dire le nombre le plus grand, quand quelqu'un dit N, quelqu'un d'autre peut dire N+1 (ou N×2, ou N², ce qui en langage d'enfants signifie transformer un zilliard en un zilliard de zilliards ; je note qu'une compréhension des opérations les plus importantes des fonctions arithmétiques « élémentaires » vient assez tôt). La grande-cousine de mon poussinet nous racontait récemment, en parlant de son petit-fils, que ce dernier était passionné par savoir qui compte le plus loin. Et j'ai le souvenir assez net d'avoir joué à ces jeux (qui peut dire le nombre le plus grand, et qui peut compter le plus loin) quand j'étais petit. Je pense que c'est un signe que les mathématiques peuvent exercer un véritable attrait sur les enfants — avant qu'on les rende chiantes pour eux en leur faisant faire des calculs pénibles et mécaniques à en dégoûter n'importe qui. Et je me souviens aussi d'avoir eu des discussions, quand je jouais à ces jeux, pour savoir si quelqu'un avait le droit de dire l'infini, et si l'infini plus un (ou l'infini plus l'infini ou l'infini d'infinis) était alors une réponse légitime, entre ceux qui pensaient que ça n'existait pas, ceux qui pensaient que c'était de toute façon pareil que l'infini, et ceux qui pensaient que c'était encore plus grand. (Et en un certain sens, tous ont raison : il y a différentes sortes d'infinis mathématiques selon l'usage qu'on veut en faire ; mais les ordinaux vont plutôt donner raison aux derniers, et pousser la logique.)

Mais il n'y a pas que cette fascination pour les nombres à laquelle je pense chez les petits enfants. Il y en a une autre, que je pourrais traduire comme l'idée que beaucoup de choses doivent être totalement ordonnées : l'autre jour, dans une brasserie où je déjeunais, j'entendis un enfant demander à son père qui était le plus fort entre Darth Vader (enfin, Dark Vador, vu qu'il parlait français) et je n'ai pas entendu le deuxième terme mais j'imagine volontiers que c'était un super-héros quelconque. Par coïncidence (coïncidence certes un peu limitée vue la sortie prochaine d'un film très attendu), j'ai entendu, le même jour dans la rue, un autre gamin poser exactement la même question entre Darth Vader et un camion lancé à toute allure contre lui (question bizarre, mais je crois bien que c'est ça). Je ne sais pas si cette croyance que la puissance des super-héros ou des choses est totalement ordonnée (par la relation gagne un combat contre ?) est enracinée dans le développement de notre cerveau ou si c'est culturel[#] (par exemple, à force de se faire entrendre dire que Foo est plus Zippyesque que Bar dans la publicité, dans la fiction, etc.), mais il est certain que, petits, nous avons un certain goût pour les relations d'ordre total et que ce goût ne disparaît pas totalement, en tout cas pas chez moi, quand nous découvrons qu'en fait le monde n'est pas si simple, et que deux choses ne sont pas toujours comparables.

[#] Spontanément, j'aurais plutôt tendance à imaginer que c'est culturel ; mais d'un autre côté, beaucoup du Mahābhārata, de ce que j'en ai retenu, est consacré à comparaison de personnages guerriers chaque fois plus puissants et moralement plus droits que tous ceux qui ont précédé, et à la vérification de ces comparaisons au cours de combats. Donc même si les auteurs épiques prennent ensuite plaisir à trahir les attentes qu'on peut avoir sur les résultats de ces comparaisons, et à introduire des ordres cycliques ou autrement paradoxaux, je soupçonne que la présupposition de l'ordre total se trouve bien dans la culture qui a engendré cette épopée.

Les ordinaux sont en quelque sorte la sublimation de ces jeux d'enfants : de deux ordinaux, il y a toujours un plus grand (plus fort, plus puissant, plus infini), d'ailleurs dans quasiment tous les cas qu'on rencontre, le plus grand est tellement monstrueusement plus grand que le plus petit, que le plus petit pourrait essentiellement être le nombre 1 ; et à chaque fois qu'on a un ensemble d'ordinaux, il y en a un qui est le plus petit de l'ensemble, et il y a un ordinal qui est plus grand que tous ceux qu'on s'est donné. Si on appelle ω la réponse que fait l'enfant qui dit l'infini en réponse aux milliards et milliards de milliards que les autres ont proposés (techniquement, donc, le plus petit ordinal supérieur à tous les ordinaux finis), alors il y aura des ordinaux ω+1 (l'infini plus un), ω·2 (l'infini plus l'infini) et ω² (l'infini d'infinis) et encore d'autres choses plus grandes.

Mais je ne vais pas expliquer mon obsession pour les ordinaux uniquement à partir de ces jeux d'enfants. Il y a aussi une élégance intellectuelle dans la manière dont les ordinaux sont construits qui ne peut pas ne pas susciter l'admiration : le même genre d'élégance qui fait qu'on comprend que compter à partir de zéro est la bonne façon de faire (et d'ailleurs les ordinaux commencent à zéro). J'ai tenté d'expliquer ça dans l'entrée de vulgarisation que je leur ai consacrée, mais je pourrais résumer la construction des ordinaux en :

À chaque fois qu'on a construit les ordinaux jusqu'à un certain point, on crée un nouvel ordinal qui vient juste après tous ceux-là.

Cette idée est tellement génialement simple qu'on a du mal à se rendre compte de sa puissance. Initialement, je ne sais pas du tout ce que c'est qu'un ordinal, donc je n'en ai aucun : selon le principe que je viens d'énoncer, je crée donc un premier ordinal qui vient après rien du tout (i.e., c'est le plus petit de tous les ordinaux), et que j'appelle 0. Je connais maintenant donc un seul ordinal, qui s'appelle 0, et selon le principe de construction que j'ai énoncé, j'en crée donc un autre qui vient juste après 0, et je l'appelle 1. À ce stade-là, je connais donc 0 et 1, et je crée donc un nouvel ordinal qui vient juste après eux, et je l'appelle 2. En procédant de la sorte, je crée des ordinaux correspondant aux entiers naturels (0, 1, 2, 3, 4, 5… 42, 43, 44… 1000… 10↑42…), qui n'ont déjà pas de fin. Mais contrairement à la fabrication des entiers naturels (en gros, je fabrique 0, puis si je fabrique n, alors je fabrique aussi n+1), le principe que j'ai énoncé ci-dessus continue de s'appliquer : maintenant que je connais les entiers naturels, je crée un nouvel ordinal qui vient juste après tous ceux-là et je l'appelle ω, ce qui donne à son tour naissance à ω+1 et ainsi de suite.

Ce principe de construction est merveilleux parce que c'est exactement le même qui s'applique à chaque fois, et qui ne cesse jamais de s'appliquer, et malgré cela il donne naissance à une richesse et une diversité extraordinaires, mais je vais y revenir. Et les choses se déroulent ex nihilo, à partir du rien (comme je viens de le dire, le principe marche dès le début : on n'a pas d'ordinaux pour commencer, donc on crée un ordinal 0, il n'y a pas de règle spéciale pour 0 comme il y a pour les entiers naturels). On comprend que Cantor, quand il a découvert le concept, ait été ébloui par ce sur quoi il venait de mettre le doigt. (Et on comprend aussi que cette idée ait suscité la réticence, pour ne pas dire l'hostilité, de la communauté mathématique de l'époque, selon un modèle assez bien résumé par ce webcomic ; David Hilbert a bien eu raison en parlant — au sujet de la théorie des ensembles, mais certainement des ordinaux et cardinaux en particulier — d'un paradis que Cantor a créé et dont il ne faut pas que les mathématiciens nous chassions nous-mêmes.) Mais la construction a été rendue encore plus éblouissante par von Neumann, qui a proposé (Zur Einführung der transfiniten Zahlen, Acta Litt. ac Scient. Univ. Hung. 1, 199–208, en 1923 — l'auteur était âgé de même pas vingt ans !) la réalisation suivante des ordinaux, maintenant complètement standard :

Un ordinal est l'ensemble des ordinaux plus petits que lui.

Ainsi 0 est l'ensemble vide (∅) puisqu'il n'y a pas d'ordinaux plus petits, tandis que 1 est l'ensemble {0} = {∅} ayant pour seul élément 0=∅ puisque ce dernier est le seul ordinal plus petit, et 2 est l'ensemble {0,1} = {∅,{∅}} ayant les éléments 0 et 1, et ainsi de suite ; et ω = {0,1,2,3,…} est l'ensemble des entiers naturels. Ce n'est pas terriblement important pour la nature des ordinaux qu'ils soient « réalisés » comme par la définition de von Neumann, mais cela ajoute encore énormément à l'élégance fascinante de la construction, et au sentiment qu'elle se fabrique toute seule à partir de rien.

Il est certain que cette idée ne pouvait que susciter lors de son introduction des réactions assez vives, centrées sur le caractère légitime ou non d'admettre l'infini (l'infini actuel, c'est-à-dire réalisé, et non seulement potentiel) comme objet mathématique légitime, et le fait que la construction soit littéralement ex nihilo n'améliorait certainement pas les choses. J'ai mentionné ci-dessus qu'elle a suscité une très vive opposition, y compris de la part de certains des esprits les plus brillants du monde mathématique, comme Poincaré ou Weyl (et pas seulement des mathématiciens : Wittgenstein était profondément hostile à la théorie des ensembles), tandis que d'autres, non moins brillants, comme Hilbert ou von Neumann, l'ont accueillie avec enthousiasme. Pour la défense des sceptiques et détracteurs de la théorie des ensembles en général, et des ordinaux en particulier, il faut dire que toutes sortes de paradoxes (celui de Burali-Forti qui invite à considérer l'ensemble de tous les ordinaux, je vais y revenir, et celui de Russell qui invite à considérer l'ensemble de tous les ensembles qui n'appartiennent pas à eux-mêmes) ont été découverts dans la première formulation, pré-axiomatique, de la théorie des ensembles, et ces paradoxes pouvaient s'interpréter comme une impossibilité absolue de traiter directement des quantités infinies sans arriver à des contradictions. De nos jours, tout le monde ou presque admet que la difficulté était simplement de codifier rigoureusement les règles par lesquelles on a le droit de manipuler des ensembles et des infinis, et qu'une fois ces règles bien fixées (comme elles l'ont été par Ernst Zermelo et Abraham Fraenkel), la contradiction disparaît sûrement. (« Sûrement », même si on sait depuis Gödel qu'on ne peut jamais être totalement certain que la contradiction n'existe pas, et à chaque fois qu'on ajoute un infini plus grand, on ne peut qu'en être moins certain.) Ce qui est certain, c'est que la théorie des ensembles, et notamment la notion d'ordinal, fait partie des mathématiques maintenant considérées comme standard, même si cela n'empêche pas les crackpots de se concentrer dessus et de chercher à contredire différents passages de ce qu'ils ne comprennent pas, et spécifiquement les résultats de Cantor (typiquement, l'argument diagonal, même si celui-ci ne parle pas vraiment d'ordinaux). Et s'il y a une contradiction dans la théorie des ensembles, elle ne doit pas être si évidente que ça, vu le plaisir avec lequel des raisonnements d'une sophistication incroyable sont menés dedans et ne sont jamais encore tombés dans une contradiction[#2].

[#2] Digression technique : Des gens savants peuvent ici me rétorquer : mais si, on est tombé dans une contradiction !, en postulant l'existence d'un cardinal Reinhardt. Je ne sais pas si ça mérite vraiment une réponse autre que oui, à force de chercher vraiment très fort à introduire des axiomes aussi forts que possible et aussi proches que possible d'une contradiction, on a fini par en trouver une (repassez quand vous aurez une contradiction dans ZFC), i.e., je ne sais pas si l'existence d'un cardinal Reinhardt a sérieusement été avancée comme « vraie ». Cela n'a pas empêché de très grands théoriciens des ensembles (je pense à Hugh Woodin) de se livrer à une analyse mathématique et philosophique approfondie de pourquoi cette contradiction et ce qu'elle signifie sur la taille de l'infini — voir par exemple l'article de Woodin intitulé The Realm of the Infinite — et voir d'ailleurs aussi les commentaires et explications de Peter Koellner sur ce texte. En tout état de cause, cette histoire va plutôt dans le sens que quand on trouve une contradiction dans la théorie des ensembles, elle n'est pas spécialement difficile à exhiber (la preuve de la contradiction de ZFC + « il existe un cardinal Reinhardt » a été trouvée rapidement, et elle n'est ni longue ni très subtile), donc j'ai tendance à croire que savoir jusqu'où on a pu aller trop loin donne plutôt confiance en la solidité de l'édifice. (Alternativement, on peut défendre la thèse que la contradiction ne vient pas du grand cardinal supposé mais de l'axiome du choix qui limiterait la taille possible de l'infini, comme l'axiome de constructibilité place la limite beaucoup plus bas — en-dessous d'un cardinal mesurable.)

Mais il est vrai que tous ces concepts fleurent bon la contradiction tant ils semblent jouer avec elle et tourner autour d'elle en l'évitant tout juste. C'est le cas de façon générale de la logique mathématique (le théorème de Gödel s'approche dangereusement du paradoxe de la phrase qui dit cette phrase est fausse, et nous invite à contempler attentivement la différence entre vérité et démontrabilité — j'ai écrit de la vulgarisation à ce sujet ici), mais quand on ajoute les infinis dans l'histoire et la difficulté à se les imaginer intuitivement, on comprend que certains ne se sentent pas du tout à l'aise. Pour en revenir à mon propos initial, je pense que c'est justement pour cela que, une fois admis que le sujet n'est pas contradictoire, on le trouve d'autant plus stimulant. Arriver à suivre certains raisonnements en logique ou théorie des ensembles, bien plus que dans d'autres branches des mathématiques, peut être comparable à un roman policier où tout le monde réussit à tromper le détective tout en disant la plus stricte vérité.

Une conséquence de la construction des ordinaux (que ce soit celle de Cantor ou celle, plus précise, de von Neumann), est qu'on ne peut jamais en contempler la totalité : parler de la totalité des ordinaux contredit immédiatement le principe même de construction des ordinaux, puisque cette totalité devrait s'exposer immédiatement à définir un nouvel ordinal plus grand qu'eux (dans la construction de von Neumann : l'ensemble de tous les ordinaux), ce qui définit un nouvel ordinal, contredisant la totalité de la totalité supposée ! C'est là essentiellement le paradoxe de Burali-Forti. La résolution moderne technique est que les ordinaux ne forment en effet pas un ensemble, ils ne sont pas regroupables en ensemble — si on veut donner un nom à tous les ordinaux, ce sera une classe — et la construction des ordinaux ne s'applique qu'aux ensembles. Mais le contenu intuitif de cette explication technique est le suivant : on ne peut en effet jamais contempler la totalité des ordinaux, il faut donc décider d'arrêter de les construire à un certain moment (mais il vaut mieux choisir un moment raisonnablement « robuste », et c'est essentiellement cela que permettent les axiomes de la théorie des ensembles), après quoi l'ordinal qui vient immédiatement après s'appelle la classe des ordinaux et on fait semblant que ce n'est pas un ordinal, pas plus que ceux qui viendraient après ; des propriétés plus ou moins compliquées, ajoutées sous forme d'axiomes, permettent de décider jusqu'où on impose d'aller dans la construction des ordinaux. Bref, on a effectivement affaire à quelque chose qui n'est jamais achevé, qui ne peut jamais l'être par sa définition même, il faut juste décider à quel moment on a quelque chose de « suffisamment achevé », i.e., robuste, pour ce qu'on veut en faire. Là aussi, il s'agit d'une perspective extrêmement dérangeante, et donc d'autant plus fascinante quand on arrive à l'accepter mentalement : quand on dit les ordinaux, il y a toujours quelque chose d'inachevé dans l'histoire. Et en fait, quand on examine de plus près la logique, on se rend compte, et je vais essayer d'en dire un mot plus bas même si c'est un peu complexe, que cet « inachèvement » ne concerne pas que la notion de tous les ordinaux mais même des ordinaux bien précis, disons ω₁ ou même ωCK (voire ω ?), ce qui rend tout le panorama encore plus mystérieux.

Dans ces conditions, il ne me surprend pas que Cantor soit devenu mystique. Une rumeur persistante veut qu'il ait été fou, ce qui va certainement dans le sens de démolir ad hominem ses théories : la vérité est surtout qu'il a souffert de dépression, notamment à cause du rejet de ses idées. Mais il est vrai qu'il a été habité d'idées tout à fait mystiques, comme l'affirmation que c'était Dieu qui lui avait inspiré l'idée des nombres transfinis, et que leur existence (actuelle et non simplement potentielle) apportait une lumière sur l'existence ou sur la pensée de Dieu. Et il a écrit plusieurs lettres à des prêtres catholiques, dont le pape Léon XIII, au sujet de théologie et de rapports entre théologie et mathématiques. Même Hilbert utilise le terme de paradis (Paradies) pour décrire le monde de la théorie des ensembles ouvert par Cantor, avec ses infinis et ses raisonnements non-constructifs, et ce n'est certainement pas un hasard. Moi-même je ne peux que plaider coupable en ce qui concerne le mysticisme (même si, je l'ai déjà expliqué, pour moi le mysticisme est avant tout intéressant artistiquement, par exemple comme prémisse pour une œuvre littéraire) : ma fascination pour les ordinaux a indiscutablement une origine à peu près mystique, et quand je propose une interprétation eschatologique du paradis cantorien (encore une fois, la Théorie de la Totalité Transfinie de Turing), c'est du mysticisme à 0.02¤ (voire à (1/ω).

Mais c'est là que je veux, pour expliquer le mécanisme psychologique qui joue, rejoindre le mot que j'ai utilisé plus haut : grandeur. J'ai déjà dit que je fais souvent des rêves de vastes labyrinthes à explorer et j'ai déjà comparé les mathématiques à un palais magnifique et extraordinairement beau en même temps que labyrinthique : si la symétrie est ce qui fait la beauté du palais, la grandeur joue beaucoup pour qu'on ait envie de l'explorer. Les ordinaux sont le terrain de jeu ultime pour ce qui est de la grandeur, et comme un gosse qui découvre un nouveau terrain d'aventure, j'ai envie de m'y lancer.

Or ce terrain est déroutant. Un peu à la façon de l'ensemble de Mandelbrot (autre vaste terrain de jeu à explorer, dont j'ai fait une petite démonstration artistique à travers plusieurs vidéos parmi tant d'autres trouvables sur le sujet sur YouTube), les ordinaux ont une structure que j'ai envie de qualifier de fractale, même si je ne saurais pas justifier précisément le sens mathématique de ce mot. Grosso modo, je veux dire que si on comprend comment sont fabriqués les entiers naturels (i.e., ω), on recommence tout ceci pour passer de ω à ω+ω = ω·2, puis de nouveau pour passer à ω·3, et toutes ces répétitions sont elles-mêmes répétées ω fois pour fabriquer ω², et tout ça est encore fait ω fois pour fabriquer ω³, et ainsi de suite : non seulement chaque ordinal est l'ensemble des ordinaux qui précèdent mais aussi chaque construction permettant de fabriquer des ordinaux est répétée de façon de plus en plus complexe, de plus en plus imbriquée et de plus en plus délicate pour fabriquer des ordinaux plus grands. Les images présentées par mon petit navigateur d'ordinaux ne sont qu'un pâle reflet de cette structure fractale qui m'évoque la façon dont l'ensemble de Mandelbrot se retrouve partout dans l'ensemble de Mandelbrot (je répète que ceci n'est pas censé être une affirmation mathématique mais une impression psychologique). J'ai le souvenir d'avoir fait un rêve, évidemment impossible à raconter dans lequel on me montre ω₁ (dans le rêve, on me disait ℵ₁, mais c'est la même chose), qui prend en l'occurrence la forme d'une sorte de sculpture moitié gothique, moitié sarrasine et semble l'œuvre fantastique des Sylphes, des Fées, des Génies et des Gnomes réunis (avec mes excuses à E. A. Poe).

Les ordinaux, aussi, sont liés de façon profonde à l'univers constructible de Gödel : la vulgarisation que j'ai tenté d'en faire dans cette entrée passée est assez mauvaise, je trouve, et je ne vais pas tenter de l'améliorer maintenant, mais disons juste ceci. De façon orthodoxe, les mathématiques sont fondées sur la théorie des ensembles, c'est-à-dire que tout objet mathématique « est » un ensemble (un peu de la manière dont les objets informatiques « sont » des suites de 0 et de 1 : pour passer de la sémantique qu'on veut donner à l'objet à cette représentation « de bas niveau », il y a une étape de codage qu'on s'empresse d'oublier quand on a développé les outils pour travailler « à haut niveau » sur l'objet). Mais si on croit à l'« axiome de constructibilité », alors en fait on pourrait tout coder sous forme d'ordinaux (et axiomatiser les mathématiques pour parler uniquement d'ordinaux, sans passer par les ensembles : je ne crois pas que quiconque l'ait fait explicitement). Cet axiome de constructibilité a des conséquences mathématiques tangibles (j'en ai cité quelques unes dans l'entrée évoquée ci-dessus), mais généralement parlant on peut quand même l'ignorer : si on est prêt à l'admettre, on peut dire que tout le monde mathématique est formé d'ordinaux plutôt que d'ensembles. Mais l'axiome de constructibilité est aussi intimement lié à la notion de calculs sur les ordinaux. (Il faut toujours que j'écrive une entrée pour expliquer comment on peut définir la calculabilité sur des ordinaux et programmer des ordinateurs transfinis qui les manipulent, mais j'ai au moins donné une formulation équivalente à la première étape intéressante de cette hiérarchie en parlant de machines hyperarithmétiques.) Si on croit à cet axiome[#3], donc, non seulement le monde mathématique devient peuplé d'ordinaux, mais il devient « opérationnel », comme formé de programmes tournant sur des ordinateurs inimaginablement puissants, ou plutôt sur des séquences transfinis d'ordinateurs de plus en plus puissants. La description que je viens de faire est plus métaphorique que scientifique, bien sûr, mais elle est destinée à expliquer pourquoi l'univers constructible me fascine, et comment cela se relie aux ordinaux : je ne peux pas rester insensible à cette vision du monde mathématique comme une gigantesque machine de calcul.

[#3] En fait, on ne croit pas à cet axiome V=L, ou du moins, les théoriciens des ensembles assez « platoniciens » pour avoir un avis sur la question (de savoir si un énoncé indécidable dans ZFC peut avoir une valeur de vérité) croient essentiellement tous qu'il est faux, parce qu'il limite la taille de l'infini. (Ceci dit, je ne sais pas pourquoi on n'applique pas la même logique pour conclure que l'axiome du choix est faux, cf. ma note précédente.) À la place, on cherche à trouver un remplacement de L qui assure aussi une structure forte et ordonnée de l'univers des ensembles et qui soit compatible avec les plus grands cardinaux : c'est ce qu'on appelle le core model program (ou inner model program, je ne sais pas dans quelle mesure c'est synonyme) ; de ce que je comprends, on sait définir des analogues de L pour certains grands cardinaux, mais la question cruciale est de savoir si on peut atteindre un cardinal supercompact, parce que si on y arrive, le modèle en question peut rendre compte de tous les grands cardinaux (même ceux qui sont beaucoup plus grands/forts qu'un cardinal supercompact) et Woodin appelle ça le L ultime. Maintenant, je ne sais pas dans quelle mesure ce « modèle-cœur » peut être considéré sous l'angle de la calculabilité (il est vrai que 0 est une sorte de super-giga-saut-de-Turing, donc ça pourrait le laisser croire) ; j'ai plusieurs fois fait des timides tentatives pour essayer d'apprendre ce sujet, mais il est invraisemblablement technique (il y a des souris, des présouris, des protosouris, des phalanges, des belettes, et même des belettes stablement universelles ! — je ne plaisante pas, regardez cet article). Pour un survey sur la question, on pourra par exemple se tourner vers le texte de Woodin, Strong Axioms of Infinity and the search for V.

Mais revenons aux ordinaux eux-mêmes. Ce qui est décevant, c'est que ce monde est tellement vaste qu'on ne peut en explorer qu'une infinitésimale partie. J'aime bien donner l'image de ω₁ comme un escalier littéralement interminable : même si vous avez le pouvoir de vous déplacer en un temps aussi court que vous voulez à n'importe quel échelon de l'escalier, et même si vous avez un temps infiniment long pour monter, il y aura toujours un échelon que vous n'atteindrez pas. (Alors que pour les entiers naturels, on peut passer une seconde sur le premier échelon, ½ seconde sur le suivant, ¼ sur le suivant et ainsi de suite, et donc franchir tous les entiers naturels en deux secondes.)

Le premier endroit où j'ai appris un peu sérieusement ce que sont les ordinaux, c'est dans le joli petit livre Naïve Set Theory de Halmos, que mon papa m'avait prêté. Comme la plupart des gens qui entendent parler des ordinaux pour la première fois, mon intuition a buté contre ε₀ (la limite de ω, ωω, ωωω, etc.), mais comme le sujet me titillait, j'ai insisté jusqu'à comprendre correctement cet ordinal, c'est-à-dire, redécouvrir par moi-même ce qui est essentiellement la forme normale de Cantor ; puis j'ai poussé jusqu'à comprendre ε₁ (la principale difficulté est de réussir à se désembrouiller des différentes expressions comme εε = ωωε₀·2), et j'ai extrapolé en me disant que du coup je comprenais εγ en général. Je me suis ensuite dit que sûrement la limite de ε₀, εε, εεε, etc., devait être ω₁ (Halmos note d'ailleurs ce dernier, de façon un peu vieillote, Ω), et que du coup j'avais compris les ordinaux dénombrables, ouf ! Ce n'est que plus tard que je me suis aperçu de mon erreur : la limite de ε₀, εε, εεε, etc. ne peut pas être ω₁, parce que ωne peut pas être obtenu comme limite d'une suite d'ordinaux plus petits (c'est ce que j'essaie de dire dans le paragraphe précédent) : toute suite à valeurs dans ω₁ est bornée ! J'ai alors eu un vertige en comprenant à quel point ω₁ est impossible à appréhender — et ce n'est que le premier cardinal après ω !

Mais ce qui est surtout décevant, c'est que les mathématiques elles-mêmes sous-utilisent les ordinaux. De façon basique, si on regarde les ordinaux (dénombrables, pour éviter des discussions oiseuses) utilisés dans des constructions ou démonstrations mathématiques en-dehors de la théorie des ensembles elle-même, on s'aperçoit qu'ils ont tendance à ne pas être très grands. Pour être plus précis : il existe une branche des mathématiques appelée théorie de la démonstration, dont une sous-branche appelée analyse ordinale s'attache à attribuer à une théorie mathématique (comme les axiomes de Peano) un certain ordinal (dénombrable et même « récursif ») qui mesure sa force (je vais rester insupportablement vague, mais la force de l'arithmétique de Peano est essentiellement mesurée par l'ordinal ε₀) ; en quelque sorte, cela signifie que la théorie n'est pas capable d'« utiliser » un ordinal plus grand, ou de façon un tout petit peu moins vague, de formaliser une induction transfinie (sorte de généralisation de la récurrence) sur cet ordinal ou un ordinal plus grand quelconque. Dans le cas de la théorie des ensembles, cet ordinal est extrêmement grand (quoique plus petit que ωCK) et on ne sait pas le décrire autrement que l'ordinal qui mesure la force de ZFC. Mais un consensus des logiciens est qu'essentiellement toutes les mathématiques usuelles peuvent se faire dans des théories logiques dont la force (mesurée par un ordinal comme je viens de le dire) est finalement très petite : ε₀ ou même peut-être ωω voire moins (voir par exemple le papier Number Theory and Elementary Arithmetic de Jeremy Avigad pour un énoncé précis). Ce que cela signifie concrètement est que : les mathématiques ne savent pas vraiment utiliser les ordinaux très puissants qu'elles définissent (ni toute la force de la théorie des ensembles, loin de là). Ceci m'amène évidemment à me demander ce que seraient les mathématiques si nous pouvions/savions réellement faire usage des ordinaux plus grands (que nous pouvons décrire et discuter mais sans les « comprendre » ou les « utiliser » en profondeur) ; le petit indice que nous pouvons tirer des quelques théorèmes (comme celui-ci) dont la force logique qui dépassent la « force usuelle » des mathématiques, suggère que ce serait certainement intéressant.

J'ai commencé cette entrée en rappelant ma fascination pour la symétrie. Les ordinaux sont tout le contraire de symétriques : ils sont rigides (il n'y aucune façon de changer l'ordre des éléments — c'est-à-dire des ordinaux plus petits — d'un ordinal, parce que le plus petit est identifié comme le plus petit, le suivant est identifié comme le suivant après lui, et ainsi de suite ; pour ceux qui veulent un théorème précis : tout ensemble bien-ordonné est isomorphe à un unique ordinal, et l'isomorphisme est lui-même unique). Il faut un jour que j'écrive une entrée sur la question semi-mathématique et semi-philosophique de savoir quand deux objets mathématiques sont le même et de pourquoi les symétries posent problème dans ce contexte[#4], toujours est-il que pour les ordinaux, cette question ne doit pas se poser : l'ordinal ω, par exemple, qui est le plus petit infini, est le même pour tout le monde, et l'ordinal ω₁, qui est le plus petit indénombrable, devrait aussi l'être (devrait, parce qu'il y a des mentions légales auxquelles je viens dans un instant). En un certain sens, c'est mentalement rassurant : si nous devions parler d'ordinaux avec des extra-terrestres, la question de savoir si nous parlons du même ordinal a un sens parfaitement bien défini, pas comme si nous parlions de gauche et de droite où se posent toutes sortes de questions, à cause de l'existence de symétries (les réflexions de l'espace) sur l'orientation de l'espace et comment savoir si gauche et droite ont le même sens pour nous et pour eux.

[#4] Digression (technique) à ce sujet : il y a des gens qui insistent (et ils ont sans doute raison…) sur le fait qu'on doit écrire une clôture algébrique du corps k et non la clôture algébrique du corps k, parce que la clôture algébrique n'est définie qu'à isomorphisme non-unique près. (Un cas frappant est celui de ℚ : on en fabrique une clôture algébrique en le plongeant dans ℂ, c'est-à-dire en considérant les nombres complexes qui sont racine d'un polynôme à coefficients rationnels ; mais on en fabrique une autre clôture algébrique en le plongeant dans ℂp pour chaque nombre premier p, c'est-à-dire en utilisant une construction du même style sur les p-adiques — on peut la rendre tout à fait explicite, je ne rentre pas dans les détails : mon point est qu'on obtient des présentations très différentes de clôtures algébriques de ℚ, et bien qu'il existe un isomorphisme entre les deux même en l'absence de l'axiome du choix, cet isomorphisme n'est pas du tout explicite.) D'un autre côté, on parle bien du corps des nombres complexes, alors qu'il n'est défini, même sur les réels, qu'à un isomorphisme près qui peut prendre deux valeurs possibles (conjuguées complexes l'une de l'autre), et j'ai tendance à trouver que pour ce qui est de la clôture algébrique d'un corps fini il est également légitime de dire la. Tout ceci est donc un peu délicat, parce qu'est délicate, à la base, la question de savoir de quelles structures on dote un objet mathématique. (Je sais que V. Voevodsky est censé résoudre toutes ces difficultés grâce aux merveilles de la théorie homotopique des types, mais moi je ne suis qu'un vulgaire algébriste aux sympathies pour la logique classique et qui continue à croire bêtement que ZFC est consistant et à travailler dedans, du coup ces merveilles m'échappent.)

Mais en fait il y a une subtilité, c'est que s'il n'y a pas de symétries dans le monde des ordinaux, il y a des « fausses symétries », ce que j'avais appelé dans mon entrée consacrée à la constructibilité, un « jeu de miroir » : il y a des ordinaux qui « font semblant » d'être d'autres ordinaux ou d'être la classe de tous les ordinaux ! Il est difficile d'expliquer ce que cela veut dire au juste. (Pour ceux qui connaissent la théorie des ensembles, je fais référence à des choses dans le style de Löwenheim-Skolem : notamment, au fait que Lα peut être un sous-modèle élémentaire ou un sous-k-modèle élémentaire d'un autre, voire un sous-k-modèle élémentaire de L tout entier, ou encore, peut vérifier un bon bout des axiomes de la théorie des ensembles ; ou éventuellement les mêmes choses avec V à la place de L, même si j'ai plutôt L que V à l'esprit.) Mais disons en gros qu'il y a toutes sortes de manières dont l'ensemble des ordinaux inférieurs à un certain α (c'est-à-dire, selon la définition des ordinaux à la von Neumann, α lui-même…) peut ressembler à l'ensemble des ordinaux inférieurs à un certain β>α quand on ne regarde pas de trop près (et « pas de trop près » a tendance à être lui-même quantifié par un autre ordinal). Par exemple, il y a toutes sortes d'ordinaux qui vont donner temporairement l'impression (plus ou moins fortement convaincante) d'être ω₁, puis, quand on va un peu plus loin, on va se rendre compte qu'en fait, non, ce n'est pas ω₁. (Il est difficile de donner ne serait-ce qu'une idée de ce qui se passe au juste, mais pour proposer un début de commencement d'embryon d'idée, on peut penser au fait que ε₀ et ε₁, ou tous les ε en général, sont essentiellement impossibles à distinguer quand on regarde les ordinaux plus petits et qu'on se permet seulement de faire des additions, multiplications et exponentiations — parce que l'ordinal qui est au-dessus est inatteignable par ces opérations ; je peux aussi évoquer le fait que ωCK fait un peu semblant[#5] d'être ω₁, d'où le nom, en ce que toute suite d'ordinaux à valeurs dans ω₁ est bornée, tandis que la même chose est vraie pour une suite récursive dans ωCK.) Tout ce phénomène est assez subtil et assez labyrinthique, et assez déstabilisant, mais en même temps intellectuellement fascinant : le monde des ordinaux, que je qualifiais de fractal ci-dessus, contient en effet des copies de lui-même en miniature, des copies de qualité arbitrairement précise, dans un « jeu de miroir » vertigineux.

Et cela pose des questions à mes yeux profondes de philosophie des mathématiques : vu qu'il y a toutes sortes d'ordinaux qui se succèdent pour « faire semblant » d'être ω₁, on se demande si le vrai ω₁ existe « vraiment », et ce que cette question veut dire. Ou peut-être que ω₁ est quelque chose comme la classe de tous les ordinaux : quelque chose de perpétuellement inachevé, qu'on n'en finit pas de compléter. (Pour ceux qui en savent plus, voici le genre de phénomènes auxquels je pense : s'il existe un modèle bien-fondé de ZFC, il existe un plus petit modèle transitif dénombrable M de ZFC, et l'ordinal ωM qui joue le rôle de ω₁ dans ce modèle est un « faux » ω₁ puisqu'il est dénombrable ; formellement, on passe de ωM à ω₁ en ajoutant ω₁ échelons à la fin, mais il est sans doute plus juste de s'imaginer qu'on les ajoute à toutes sortes d'endroits au milieu parce qu'on a mieux regardé ωM et qu'on s'est dit il y a un trou là, là et là. Une extension de forcing sur M peut écraser ωM, et, selon le point de vue qu'on adopte, le rendre dénombrable, ou exhiber le fait qu'il l'était dès le début, sans que l'ordinal lui-même change.) Et le problème philosophique devient encore plus épineux quand on commence à se demander quel est le plus petit ordinal qui peut se permettre d'être inachevé (ce n'est certainement pas 42 : je crois quand même que s'il manquait un nombre entre 0 et 41, quelqu'un s'en serait aperçu ! 😉), et ce que cette question veut dire. Malheureusement, les philosophes se sont assez peu penchés sur ces problèmes, ni les mathématiciens, ni même ceux qui ont la double casquette (comme Hugh Woodin dont je parlais plus haut, ou Hilary Putnam, qui a pourtant étudié des problèmes remarquablement proches ; il y a bien Joel D. Hamkins — un ancien étudiant de Woodin — qui a beaucoup dit des choses sur la conception « multivers » de la vérité ensembliste, mais son point de vue est un peu différent, je ne rentre pas dans les détails).

[#5] Il y aussi le phénomène suivant : j'ai déjà évoqué, par exemple dans cette entrée (même s'il faudra un jour que j'y revienne plus précisément) qu'il y a des phénomènes de « reflet » pas totalement bien compris entre (0) les grands entiers naturels (i.e., les ordinaux <ω), (1) les grands ordinaux constructifs (i.e., les ordinaux <ωCK), (2) les grands ordinaux dénombrables [dans l'univers constructible] (i.e., les ordinaux <ωL), et (3) les grands cardinaux [qui ont le droit d'exister dans l'univers constructible]. Par exemple, un cardinal inaccessible (dans la catégorie (3)) permet de définir par analogie la notion d'ordinal récursivement inaccessible (dans la catégorie (2)), qui permet à son tour de définir par « écrasement » de très grands ordinaux récursifs (i.e., dans la catégorie (1)) mesurant la force ordinale d'un système formel KPI garantissant l'existence d'ordinaux récursivement inaccessibles, et ceux-ci permettent à leur tour de définir de très grands entiers (essentiellement des valeurs de fonctions calculables dont KPI démontre la terminaison, même si on peut les décrire de façon beaucoup plus explicite grâce à (1)). Le lien entre ces quatre objets est subtil, mais des questions philosophiques qui se posent sont : sachant qu'on n'a pas besoin formellement que (3) existe (l'existence de cardinaux inaccessibles n'est pas démontrable par ZFC) pour que (2) existe, ni (2) pour (1), ni (1) pour (0), mais qu'on en a besoin pour motiver la construction, qu'est-ce que ceci nous apprend sur la plausibilité de l'existence de (3) ? et d'autre part, est-ce que le fait de « trouver » de « nouveaux » ordinaux, voire de nouveaux ordinaux récursifs, voire de nouveaux entiers naturels, par ce procédé, signifie que ω₁, voire ωCK, voire ω, étaient inachevés ?

Comme je m'en doutais, je me suis perdu dans un certain nombre de digressions techniques, mais si je dois synthétiser tout ça en une raison supplémentaire pour laquelle les ordinaux me fascinent, c'est que leur construction a la beauté des fractales (même si cette fractale ne peut se voir qu'avec l'esprit), où des imitations de plus ou moins bonne qualité des ordinaux se retrouvent sans arrêt dans d'autres ordinaux comme des copies de l'ensemble de Mandelbrot dans l'ensemble de Mandelbrot ; mais avec les ordinaux, ces phénomènes deviennent sans cesse plus riches, plus complexes et plus subtils, jusqu'à l'infini et au-delà, de sorte que non seulement l'ensemble est d'une très grande beauté, mais aussi qu'il soulève des problèmes philosophiques profondément troublants si on prend la peine d'y réfléchir soigneusement.

(samedi)

Le cérémonial de la thèse (bis)

J'ai assisté pour la première fois à une soutenance de thèse en lettres. (J'écris lettres au sens large, i.e., par opposition aux sciences : en l'occurrence, il s'agissait d'histoire — et probablement d'archéologie ou d'histoire de l'art, je ne suis pas sûr de la classification exacte, mais le titre était Homère dans la culture romaine entre la fin de la République et la fin de la dynastie julio-claudienne. En fait, je me rends compte, en écrivant ça, que je ne sais même pas dans quelle mesure les doctorats sont officiellement classifiés et étiquetés par disciplines, et le cas échéant quelle est la liste des disciplines possibles : cela ne semble pas suivre, par exemple, la liste des sections du Conseil national des Universités puisque je ne crois pas avoir vu de distinction entre doctorats de mathématiques et doctorats de mathématiques appliquées, et il me semble que la plupart des matheux seraient hostiles à ce qu'il soit pratiqué une telle distinction.)

Toujours est-il que ce fut pour moi (et pour les autres amis de la doctorante venus du milieu universitaire scientifique) de remarquer les différences dans le cérémonial de la thèse entre sciences et lettres — ou du moins, entre les disciplines que j'ai pu observer de part et d'autre.

En sciences, le déroulement d'une thèse en France est à peu près le suivant. L'impétrant fait face au public, debout, et les membres du jury, généralement en nombre autour de 6, prennent place au premier rang face à lui (donc tournés dans le même sens que le public). Le président du jury invite l'impétrant à présenter ses travaux en une quarantaine de minutes. L'exposé porte généralement sur un sous-ensemble des travaux de thèse, afin de pouvoir l'expliquer plus en profondeur (mais il arrive qu'on parle de tout). Il s'appuie le plus souvent sur des transparents (transparents voulant ici en fait dire des pages de PDF affichées par un vidéoprojecteur, mais les véritables transparents projetés par rétroprojecteur n'ont peut-être pas encore totalement disparu) ; en mathématiques, cependant, on préfère encore le tableau noir. Parfois, une courte pause a lieu à la fin de cet exposé, afin que les membres de l'auditoire qui le veulent puissent s'enfuir. • Ensuite viennent les questions du jury : c'est là qu'il y a le plus de différences entre disciplines scientifiques, et j'ai assisté à des soutenances en maths où le jury n'a pas trouvé utile de poser de questions (peut-être aussi était-ce parce que le président du jury était un peu « vieille école »). Mais généralement parlant, chaque membre du jury se croit obligé de poser une question : le président leur donne la parole tour à tour, en commençant typiquement par ceux qui viennent de loin ou par les rapporteurs, et en finissant par le directeur de thèse (qui le plus souvent ne pose pas de vraie question et se contente de dire qu'il a apprécié de travailler avec ce doctorant) et par lui-même. Selon les disciplines, ces questions peuvent être de la pure forme, qu'elles soient complètement cadeau comme que comptez-vous faire maintenant ?, quelles nouvelles directions de recherche voyez-vous après ce travail ?, duquel de vos résultats êtes-vous le plus fier ?, ou posées juste pour dire quelque chose comme comment compareriez-vous votre approche avec celle de Duschmock ?, finalement, après vos travaux, quelle approche conseilleriez-vous pour frobniquer les foobars ? ; ou au contraire elles peuvent être très pointues, voire presque agressives. Les questions durent quelque part entre une demi-heure (voire moins) et une heure et demie. • Puis le jury se retire pour délibérer, c'est-à-dire pour échanger les derniers potins et se rappeler qu'ils doivent écrire un rapport de soutenance. Ce rapport est presque toujours écrit dans un langage très élogieux, même si des petites phrases cachées peuvent, sous une apparence bénigne, trahir le fait que le jury n'était pas satisfait du travail de thèse ou de la soutenance [voir aussi cette entrée récente] : par exemple, si on écrit que le candidat a montré son aptitude à l'enseignement, cela signifie en creux qu'il fera un mauvais chercheur. Après un temps généralement de l'ordre d'une demi-heure ou trois quarts d'heure, le jury revient, le public se lève (pas toujours), le président du jury lit les phrases essentielles du rapport et conclut par quelque chose comme pour ces raisons, nous vous décernons le grade de docteur de foobarologie de l'Université de Paris XLII avec la mention très honorable et nous vous félicitons (beaucoup d'écoles doctorales ne permettent pas de décerner les félicitations du jury, donc à la place, le jury joue sur la sémantique et félicite à titre privé l'impétrant). Enfin, le nouveau lauréat serre la main des membres du jury, dit quelques mots de remerciement et invite tout le monde à passer dans une salle voisine pour un pot bien mérité.

Voici ce que j'ai pu discerner comme différences dans la soutenance, en lettres donc, à laquelle j'ai assisté cet après-midi. Je pourrais commencer, en fait, par remarquer qu'elle a eu lieu un samedi, ce qui serait, je crois, hautement inhabituel en sciences. Mais la raison ne tient peut-être qu'indirectement à la discipline : la doctorante est enseignante dans le secondaire puisque sa thèse a duré bien plus longtemps que les 3 ans réglementaires et financés mais qui, de ce que je comprends, sont presque systématiquement contournés en lettres (après, je ne peux pas jeter la pierre : ma propre thèse a duré environ 5 ans) ; du coup, il lui était sans doute plus difficile de se dégager un autre jour. • Le jury était assis face au public, et l'impétrante face à eux, donc dos au public, également assise. Elle a été invitée par le président du jury à présenter ses travaux, ce qui a duré environ 25 minutes : cet exposé a été fait oralement, sans aucun support visuel ni écrit, et consistait en fait en la lecture d'un résumé, ou plutôt d'un plan modérément détaillé, du mémoire de thèse (lequel fait environ 500 pages, plus une centaine de pages supplémentaire d'annexes). • Ensuite, chaque membre du jury a pris la parole sur l'invitation du président, en commençant par le directeur de thèse et les rapporteurs et en finissant par le président du jury lui-même. Chacun d'eux a parlé environ 25–30 minutes, et comme ils étaient cinq, on en conclut que la soutenance a duré environ trois heures — même s'il y a eu une pause d'un quart d'heure au milieu. À part que le directeur de thèse a commencé par résumer brièvement la carrière de la doctorante, chacune de ces interventions a pris la forme d'un résumé de la thèse (on a donc écouté six résumés différents de la même thèse !) suivi d'une critique sur tel ou tel aspect du travail. • Et, de ce que j'ai pu en juger, les critiques avaient essentiellement toutes la forme votre travail était très bon, sauf dans <le domaine dont je suis spécialiste>, où il aurait dû être plus approfondi, et vous auriez dû faire un plus grand effort de bibliographie, par exemple pour citer Machin. Il y avait bien sûr des différences : un membre du jury a été beaucoup plus sévère que les autres dans son appréciation (votre travail a été trop ambitieux et du coup beaucoup trop superficiel) tandis qu'un autre, qui d'ailleurs n'était pas français, a été très élogieux (votre travail représente une synthèse admirable et fait véritablement avancer notre connaissance) ; et aussi des rapprochements : tous ont apprécié le style de la rédaction, tous ont souligné l'excellente qualité de la partie 3 du travail, et tous ont trouvé les deux premiers chapitres inférieurs au reste. Mais le gros des reproches était quand même de ne pas avoir consulté l'ouvrage de Truc, de ne pas avoir cité Machin ou de ne pas avoir mentionné Bidule. À chaque fois, la réponse de l'impétrante était de remercier pour les remarques et de promettre d'en tenir compte (je n'ai pas compris si en tenir compte signifie que la version officiellement déposée du manuscrit sera modifiée ou si ce sera une version publiée ultérieurement de façon privée). • Enfin, après trois heures de soutenance, le jury s'est retiré pour délibérer, ce qui a pris encore une heure. Mais le résultat de cette délibération était anticlimactique [je ne sais pas dire ça en bon français] au possible : le président a juste dit à l'impétrante qu'on lui décernait le titre (ou le grade ?) de docteur de l'Université de Paris Sorbonne avec la mention très honorable et les félicitations du jury — si rapport en langage codé il y a eu, il ne nous en a pas été donné lecture. (Pour finir, signalons que le pot était à la hauteur des quatre heures d'attente.)

J'aurais pu commencer mon descriptif en amont de la soutenance elle-même : normalement, en sciences, les rapporteurs ne devraient pas avoir de reproches majeurs à faire lors de la soutenance (même si je répète que j'ai donné un contre-exemple), puisque cette soutenance est autorisée sur la base de leurs rapports contre un manuscrit préliminaire, et le manuscrit finalement soutenu doit tenir compte de toutes leurs remarques substantielles. Ici, apparemment, la doctorante n'avait eu le temps que d'écrire quelques errata mais pas de modifier vraiment le manuscrit avant la soutenance.

Toutes ces différences de forme reflètent certainement des différences plus profondes entre la conception même du travail doctoral en sciences et en lettres. Je ne vais pas répéter ce qu'a expliqué mon ami David Monniaux (notamment ici et ) sur le fait que les littéraires ont tendance à considérer qu'un travail de 3 ans est beaucoup trop court pour être véritablement approfondi, et je pense que les remarques du jury sur la bibliographie insuffisante dans le travail dont j'ai assisté à la soutenance sont symptomatiques de cette vision — ce n'est jamais assez complet, jamais assez exhaustif, jamais assez approfondi. Je ne saurais dire si cette différence d'approche est inextricablement liée à la discipline (on pourrait dire qu'en sciences, grossièrement, on construit une démonstration, une théorie bien encadrée, une expérience, tandis qu'en lettres, tout aussi grossièrement, on documente, on structure, on organise : le premier type d'activité se prête mieux à une délimitation finie que le second ; mais tout ceci est peut-être complètement bidon) ; ou s'il s'agit de différences plutôt sociologiques (les remarques faites par le membre britannique du jury étaient beaucoup plus valorisantes que les autres, c'est sans doute le signe d'une différence à ce niveau).

Il serait certainement intéressant de faire une thèse de sociologie sur le cérémonial des soutenances de thèse et la manière dont il varie selon les disciplines, selon les pays (je sais par exemple qu'aux Pays-Bas la tradition est que la soutenance est interrompue au moment où le temps est écoulé — à la seconde près — par quelqu'un qui entre pour mettre fin aux festivités ; dans d'autres pays, il n'y a pas vraiment de soutenance, ou bien il y en a deux, une substantielle devant des chercheurs et une de pure forme devant le public), et selon les époques (je suppose qu'une soutenance de thèse, même en mathématiques et en France, ne prenait pas du tout la même forme en 1815, en 1865, en 1915 et en 1965 que maintenant). Et bien sûr, le cérémonial de la soutenance d'une telle thèse serait lui-même intéressant à observer, parce que tout le monde se sentirait à la fois sujet et objet d'étude !

Continue to older entries. / Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2017 Jan 2017 Feb 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003