David Madore's WebLog: 2015-12

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., la plus récente est en haut). Cette page-ci rassemble les entrées publiées en décembre 2015 : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the most recent is on top). This page lists the entries published in December 2015: there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Entries published in December 2015 / Entrées publiées en décembre 2015:

↓Entry #2347 [older| permalink|newer] / ↓Entrée #2347 [précédente| permalien|suivante] ↓

(lundi)

Comment utiliser les points comme parenthèses ?

Dans une expression mathématique comme

(2+2+2)×(3+4)

les parenthèses servent à indiquer quelles sous-expressions doivent être calculées en premier (la convention, en leur absence, étant qu'on évalue les multiplications avant les additions, si bien que 2+2+2×3+4 sans parenthèses se comprend comme 2+2+(2×3)+4). Mais il existe d'autres manières possibles d'indiquer l'ordre des opérations sans utiliser de parenthèses — ou en tout cas pas sous cette forme. Une possibilité consisterait à utiliser la notation préfixe (où le symbole d'une opération binaire précède les deux quantités sur lesquelles elles s'applique, ce qui donne dans ce cas : × + + 2 2 2 + 3 4) ou bien postfixe (où l'opération binaire suit les deux quantités sur lesquelles elle s'applique, donc 2 2 + 2 + 3 4 + × comme on le taperait sur une calculatrice à notation polonaise inversée), mais ces conventions sont extrêmement peu lisibles pour un humain.

Une autre façon de noter les choses, qui me semble assez intéressante ou en tout cas instructive, même si elle n'a jamais vraiment été utilisée en-dehors de la logique, consiste à utiliser les points comme parenthèses, que je veux présenter et discuter un peu. Sur mon exemple, cette notation donnerait :

2+2+2.×.3+4

avec des points autour du symbole de multiplication pour marquer qu'il doit être effectué après les additions. (On va supposer que le point n'est pas utilisé comme séparateur décimal, ou qu'il y a quelque magie typographique qui évite l'ambiguïté : ni ici ni ailleurs dans cette entrée il n'y a de nombres fractionnaires.)

La manière dont on lit une telle expression est la suivante : on commence par la séparer aux endroits où se trouve des points, on évalue tous les morceaux qui ont un sens en tant qu'expression (en l'occurrence, 2+2+2 et 3+4), puis on réattache les morceaux remplacés par leur valeur (ce qui donne 6×7).

Lorsqu'il y a plusieurs niveaux d'imbrications, on utilise des groupes formés d'un nombre de points croissant pour séparer les niveaux : la règle est alors qu'on commence par regrouper les morceaux séparés par un seul point, puis par un groupe de deux, puis de trois, et ainsi de suite. (Ainsi, un groupe d'un plus grand nombre de points correspond à un niveau de parenthésage plus « extérieur ».) Par exemple,

(14/(1+1))×(6+7)×(30−(6+5))

peut se réécrire dans la notation « ponctuée » comme

14/.1+1:×.6+7.×:30−.6+5

et pour l'évaluer, on commence par calculer les morceaux séparés par des points qui ont un sens tout seuls (1+1, 6+7 et 6+5), puis on regroupe les morceaux séparés par de simples points (14/.1+1 soit 14/2, et 30−.6+5 soit 30−11), et enfin on regroupe les morceaux séparés par deux points. Pour plus de symétrie quant au niveau d'opération × dans le facteur central, on peut préférer écrire

14/.1+1:×:6+7:×:30−.6+5

ce qui est peut-être plus lisible, surtout si on reflète le nombre de points dans l'espacement de la formule :

14/.1+1 :×: 6+7 :×: 30−.6+5

On peut bien sûr utiliser des symboles pour les groupes de deux, trois, quatre points et ainsi de suite : si je récupère des symboles Unicode pas vraiment fait pour, l'expression 6−(5−(4−(3−(2−1)))) peut se ponctuer en 6−∷5−∴4−:3−.2−1, mais généralement on se contente de mettre plusieurs caractères ‘.’ ou ‘:’ d'affilée pour représenter un groupe, comme 6−::5−:.4−:3−.2−1 (il faut traiter ces deux écritures comme parfaitement synonymes).

Les points servent donc à la fois de parenthèses ouvrantes et fermantes : il n'y a en fait pas d'ambiguïté car la directionalité est indiquée par la position par rapport aux symboles d'opérations (si je vois 20−.1+1, cela ne peut signifier que 20−(1+1) car (20−)1+1 n'a pas de sens) ; plus exactement, chaque groupe de points doit être adjacent à un symbole d'opération (sauf si on omet la multiplication, cf. ci-dessous), et correspond à une parenthèse soit ouvrante soit fermante selon qu'il est immédiatement après ou avant l'opération. Et la parenthèse court jusqu'au prochain groupe de points (vers la droite ou vers la gauche, selon le cas évoqué) dont le nombre de points est supérieur ou égal à celui considéré, ou à l'extrémité de l'expression (où se sous-entend un nombre infini de points, si on veut ; ainsi, sur mon premier exemple, on écrit 2+2+2.×.3+4 et non .2+2+2.×.3+4.).

Pour ceux qui veulent des règles plus formelles, je propose les suivantes. En écriture, si on a un arbre d'analyse formé d'opérations possiblement associatives, disons x1x2⋆…⋆xk (pour une certaine opération ici notée ⋆, et avec k=2 si l'opération ⋆ n'est pas supposée avoir d'association par défaut), pour la transformer en « expression ponctuée », on écrit de façon récursive chacun des sous-arbres x1,x2,…,xk comme expression ponctuée, et on concatène ces écritures en plaçant à gauche de chaque symbole ⋆ un groupe de points dont le nombre est strictement supérieur au nombre de points de n'importe quel groupe apparaissant dans l'écriture de la sous-expression gauche (si celle-ci est un atome = une feuille de l'arbre, c'est-à-dire un nombre ou une variable, on peut ne mettre aucun point) ; et de même à droite. Il est admissible de mettre plus de points que nécessaire, par exemple si on veut mettre le même nombre à gauche et à droite de chaque ⋆ intervenant à un niveau donné. On peut, bien sûr, avoir des règles supplémentaires lorsqu'on suppose une certaine priorité des opérations (par exemple, (3×2)+1 peut être noté 3×2+1 si on admet que la multiplication est prioritaire sur l'addition ; toutefois, ceci ne s'applique essentiellement qu'au niveau le plus bas : (3×(1+1))+1 devra certainement être noté 3×.1+1:+1, parce qu'on ne gagnerait rien que de la confusion à le noter 3×.1+1.+1). • Inversement, pour décoder une telle expression, on va, pour n allant de 0 au nombre maximum de points dans un groupe, remplacer chaque expression maximale de la forme x1x2⋆…⋆xk avec les xi des sous-arbres déjà constitués (ou des atomes), en ignorant les groupes de ≤n points pouvant intervenir à gauche ou à droite de l'opération ⋆, par un sous-arbre (ou un bloc parenthésé, si on préfère).

Ce système de notations ne recouvre pas tous les cas possibles d'usage des parenthèses. Disons qu'il nécessite plus ou moins qu'il y ait des symboles d'opérations dans l'histoire : si on a affaire à un contexte mathématique dans lequel on donne un sens différent aux notations u(v) et (u)v (ce qui, honnêtement, ressemble à une très mauvaise idée), ou à u et (u) (même remarque), alors on ne peut pas utiliser des points à la place des parenthèses.

Néanmoins, il marche dans des situations un peu plus générales que ce que j'ai présenté ci-dessus. Par exemple, il continue de fonctionner même si on décide de ne pas écrire le symbole × de multiplication : notamment, si dans la version parenthésée, au lieu de (14/(1+1))×(6+7)×(30−(6+5)) je décide d'écrire (14/(1+1))(6+7)(30−(6+5)), alors de même dans la version ponctuée, au lieu de 14/.1+1:×.6+7.×:30−.6+5 j'écris 14/.1+1:6+7:30−.6+5 et il n'y a pas d'ambiguïté dans le fait que quand un groupe de points apparaît directement entre deux atomes (nombres ou variables), il représente une multiplication (et comme 6.7 représente 6×7, de même 2+2+2.3+4 représente (2+2+2)×(3+4) ; tandis que 2+2+(2×3)+4 s'écrira 2+2+:2.3:+4 ou même, un peu audacieusement, 2.+.2.+.2.3.+.4 si on décide que la multiplication est prioritaire sur l'addition). Ceci fonctionne encore même si on suppose que la multiplication omise n'est pas associative : on distingue bien u(vw) de (uv)w comme u.vw et uv.w respectivement.

Par rapport aux règles formelles que j'ai proposées ci-dessus, l'omission du symbole de multiplication se traite ainsi lors de l'écriture : (a) on écrit toujours au moins un point pour la multiplication quand elle est entre deux chiffres, et (b) au lieu de mettre un groupe de points à gauche et à droite du symbole ⋆ (qui doit être omis), on en met un seul, avec un nombre de points commun, supérieur à celui de tout groupe intervenant dans n'importe quelle sous-expression parmi les x1,x2,…,xk (avec cette règle, 2(x+y)(t⋆(u+v)) s'écrit 2:x+y:t⋆.u+v plutôt que 2.x+y:t⋆.u+v si on veut vraiment placer les trois facteurs 2, x+y et t⋆(u+v) au même niveau).

Il n'y a pas non plus de problème avec les opérations unaires, qu'elles soient écrites de façon préfixe ou postfixe. Il y a, cependant, un problème si on a une opération qui peut être aussi bien unaire que binaire et que le symbole de multiplication est omis : c'est le cas avec le signe moins si on veut pouvoir écrire (2/3)(−3) (qui vaudrait −2 par multiplication implicite) et le distinguer de (2/3)−3 (qui vaut −7/3), les deux étant a priori ponctués comme 2/3.−3 ; on peut résoudre ce problème de différentes façons, par exemple en imposant que pour les opérations binaires qui peuvent aussi être unaires, le nombre de points à gauche et à droite soit égal quand elles fonctionnent comme opérations binaires (donc (2/3)−3 se ponctuerait comme 2/3.−.3, qui se lit sans ambiguïté), et/ou que le signe de multiplication ne peut pas être omis devant une opération unaire (donc (2/3)(−3) devrait s'écrire 2/3.×.−3).

Il me semble par ailleurs qu'il n'y a pas de problème particulier avec une opération ternaire (par exemple si je décide que t?u!v signifie si t=0 alors v et sinon u — je change légèrement la notation du C parce que les deux points sont pris par le sujet de cette entrée — alors il n'y a pas de problème à écrire de façon ponctuée des expressions contenant cette expression imbriquée en elle-même de façon arbitraire). Ceci étant, je n'ai pas forcément pensé à toutes les bizarreries des notations mathématiques, peut-être qu'il y a des cas où le système de points ne fonctionnera pas alors que les parenthèses fonctionnent (outre ceux que j'ai déjà mentionnés).

Il faut que j'en profite pour signaler qu'il y a toutes sortes de petites variations possibles dans le système, j'en ai déjà implicitement signalé quelques unes. Je mentionne notamment la suivante, qui est plus économique dans le nombre de points utilisés, au détriment de la lisibilité de l'ensemble, et qui me semble plutôt une mauvaise idée. Plus haut j'ai signalé que 6−(5−(4−(3−(2−1)))) s'écrit 6−::5−:.4−:3−.2−1 (et c'est ce qui résulte des règles formelles que j'ai proposées), mais on peut aussi imaginer l'écrire simplement come 6−.5−.4−.3−.2−1 ce qui est après tout inambigu vu que chaque ‘.’ suivant immédiatement un symbole d'opération doit représenter une parenthèse ouvrante. (La modification des règles formelles que j'ai proposées doit être quelque chose comme ceci. En écriture, on place à gauche de chaque symbole ⋆ un groupe de points dont le nombre est immédiatement strictement supérieur au plus grand nombre de points de n'importe quel groupe qui apparaît, dans l'écriture de la sous-expression gauche, immédiatement à droite d'un symbole d'opération — ou comme symbole de multiplication omis — en ignorant donc les groupes de points qui apparaissent immédiatement à gauche d'un symbole d'opération ; et symétriquement pour la droite. Et en lecture, pour chaque niveau n de points, on doit grosso modo répéter tant que possible la recherche d'une expression x1x2⋆…⋆xk avec les xi des sous-arbres déjà constitués, la remplacer par un sous-arbre, et retirer les éventuels groupes de n points — mais pas plus — qui seraient adjacents à l'expression.)

Comme je l'ai dit plus haut, je crois que les points comme parenthèses n'ont été véritablement employés que dans des textes de logique (et uniquement entre les connecteurs logiques, pas dans les expressions arithmétiques comme sur les exemples que j'ai pris), même s'il n'y a pas de raison de la lier à ce contexte précis. Je ne sais pas exactement qui a inventé cette notation : peut-être Peano dans ses Arithmetices principia: nova methodo ; mais je sais surtout qu'elle est utilisée dans les Principia Mathematica de Russell et Whitehead dont elle contribue à la réputation d'illisibilité même si je crois que c'est loin d'être ce qui les rend le plus difficile (on pourra jeter un coup d'œil à la page des Principia que j'ai déjà évoquée sur ce blog, et utiliser cette page pour quelques indications sur comment décoder tout ça). J'ai d'ailleurs l'impression que les philosophes qui s'intéressent à la logique mathématique ont, plus que les logiciens vraiment matheux, tendance à utiliser des notations vieillotes (il y a peut-être une raison sociologique à creuser), et en particulier ces points-comme-parenthèses. Il y a aussi l'épouvantable symbole ‘⊃’ utilisé à la place de ‘⇒’ pour l'implication, que la grande majorité des matheux ont abandonné il y a belle lurette, et que des philosophes s'obstinent, Apollon sait pourquoi, à utiliser.

Mais l'autre question à se poser, bien sûr, c'est : ce système de notation avec des points à la place des parenthèses a-t-il des avantages ? Je sais qu'a priori il semble plus compliqué que les parenthèses. Peut-être l'est-il intrinsèquement, mais je crois que c'est essentiellement une question d'habitude (c'est difficile d'être sûr vu que je n'en ai moi-même guère la pratique). Je vois trois principaux arguments qu'on peut avancer pour défendre le système de points : (1) il est légèrement plus compact (quand on discute une opération non associative, il est plus léger d'écrire uv.w que (uv)w, par exemple), (2) on repère plus rapidement le niveau d'imbrication des choses (qui n'a jamais peiné, dans une expression parenthésée, à retrouver où chaque parenthèse se ferme ?), et (3) il est, finalement, relativement analogue à la ponctuation d'un texte en langage naturel (où, grossièrement parlant, on regroupe d'abord les mots non séparés par une ponctuation, puis les groupes séparés par des virgules, puis ceux séparés par des points-virgules, et enfin ceux séparés par des points), rendu plus logique. Le principal inconvénient que je lui vois, c'est que si on veut remplacer, dans une expression, une valeur par une autre expression, on va possiblement devoir incrémenter le nombre de points partout dans l'expression, alors que les parenthèses assurent que tout se passe forcément bien.

Bien entendu, je ne propose pas de changer une notation mathématique bien établie (les parenthèses sont quand même pratiques, finalement), mais il peut être intéressant de se rappeler qu'il y a, ou qu'il y avait a priori, d'autres notations possibles et pas forcément idiotes. Se le rappeler peut aider à mieux comprendre l'analyse syntaxique, à la fois des expressions mathématiques et des phrases ponctuées en langage naturel (cf. mon point (3) ci-dessus) ; et cela peut aussi suggérer comment faciliter la lecture d'une expression mathématique par des enrichissements typographiques (typiquement : mettre à chaque endroit possible un espacement proportionnel au nombre de points qu'on aurait dans la notation avec les points comme parenthèses).

↑Entry #2347 [older| permalink|newer] / ↑Entrée #2347 [précédente| permalien|suivante] ↑

↓Entry #2346 [older| permalink|newer] / ↓Entrée #2346 [précédente| permalien|suivante] ↓

(jeudi)

De l'identification de souvenirs enfouis

C'est un trope abusé de mauvais films entre la science-fiction et l'espionnage qu'un personnage a vécu quelque chose d'Abominable ou d'Affreusement Secret dans sa jeunesse et que ses souvenirs ont été effacés ou refoulés ou quelque chose du genre. Ce cliché est particulièrement pénible sur le plan artistique (je déteste ces films où le héros va faire un rêve, présenté sous forme de flashs décousus, dont on doit comprendre qu'il apporte des bribes d'information sur quelque chose d'important sur son identité), et en plus il est essentiellement basé sur un mythe, à savoir, qu'on a tendance à supprimer inconsciemment les souvenirs particulièrement traumatiques. Le problème avec la mémoire incertaine est plutôt qu'on a tendance à fabriquer des faux souvenirs, ou à en déformer des vrais, et qu'on ne sait plus démêler le vrai du faux. J'ai déjà parlé de mon impression de voyager entre univers parallèles, mais elle est particulièrement marquée quand je retourne à des endroits où j'ai été par le passé et où je m'énerve de voir que les choses ne collent pas avec mon souvenir (est-ce que l'endroit a changé pendant ce temps ? me suis-je mal rappelé comment les choses étaient ? ou, hypothèse beaucoup plus crédible, suis-je passé dans un monde parallèle ?).

Par exemple, il y a quelques jours, comme mon poussinet et moi nous promenions dans le coin, j'ai voulu retracer un chemin que j'ai suivi plusieurs fois en 1996 : je passais les concours des ENS, dont les écrits avaient lieu au parc floral de Paris (dans le bois de Vincennes), ma maman m'avait trouvé un logement au Centre International de Séjour de Paris (avenue Maurice Ravel), et je faisais le matin un trajet pour aller de l'un à l'autre, passant en-dessous du périph', à travers un petit bout de Saint-Mandé et à côté du lac du même nom jusqu'au château de Vincennes ; mais quand j'ai cherché à retrouver le chemin exact que je suivais, toutes sortes de petites incohérences se sont manifestées entre mon souvenir des lieux et la réalité. (Il est vrai que je faisais ce chemin, il y a vingt ans, le matin à la fin du printemps, et que j'ai cherché à le retrouver le soir à la fin de l'automne : ceci peut beaucoup affecter l'apparence de cerains endroits.) • D'autres cas du même genre se sont présentés quand je suis allé voir mon Poussinet à Toronto en 2007 et que j'ai voulu retrouver toutes sortes d'endroits dont je me souvenais de mes passages précédents dans cette ville (souvenirs souvent mélangés entre eux, notamment pour ce qui est de leur ordre) : j'ai pu retrouver un bon nombre de choses, mais il y a des choses qui restent mystérieuses pour moi, notamment le chemin d'une promenade que je faisais régulièrement avec mon père en '84–'85 et dont je sais parfaitement bien où elle commençait mais que je n'ai réussi à retracer que jusqu'à un certain point après quoi mes souvenirs ne collaient vraiment plus avec la réalité.

En fait, ma tendance à revenir sur des lieux où j'ai marché autrefois et à chercher à replacer les endroits est tellement marquée que je fais régulièrement des rêves à ce sujet : des rêves dans lesquels je cherche à retrouver un endroit où j'ai pu aller ou une promenade que j'ai pu faire ; seulement, dans le rêve, tout est imaginaire : je ne rêve pas que je cherche à retrouver une promenade bien précise qui aurait pu exister en réalité, je rêve que j'ai un souvenir vague, et ce souvenir est lui-même imaginaire ! (Zut, j'en ai déjà parlé.)

Parfois, un peu comme le héros hypothétique du mauvais film que j'évoque ci-dessus, il me revient des flashs de souvenirs extrêmement précis sur lesquels je vais ensuite chercher désespérément à retrouver une date, un lieu, une circonstance. Récemment, alors que je parcourais des articles Wikipédia sur les expositions universelles (j'ai déjà dit qu'elles pouvaient me fasciner, et mon poussinet m'a offert un beau livre sur celle de Paris en 1900), j'ai été frappé par le souvenir incroyablement précis d'avoir été à celle de 1986 à Vancouver (Expo 86), et même d'avoir échangé quelques mots avec le robot mascotte de l'exposition, Ernie, et d'être revenu avec un paquet de cartes à jouer miniatures en souvenir, dont le dos représentait un des logos de l'exposition (Ernie en jetpack). Un souvenir aussi extrêmement précis peut-il être faux ? Il n'est pas invraisemblable, mon grand-père paternel habitait Vancouver et nous aurions pu aller lui rendre visite cette année-là, mais ma mère m'assure que, d'après les carnets qu'elle tient, ce n'est pas le cas. Peut-être suis-je aller à Vancouver plus tard et qu'il restait des choses de l'exposition, mais il me semble qu'à part de grandes structures on démonte rapidement les expositions universelles, et en tout cas on ne garde pas leur mascotte et on ne continue pas à faire des jeux de cartes à leur effigie, donc je ne sais pas trop quoi penser. Il faudrait retrouver ce jeu de cartes pour savoir si je ne délire pas, mais les chances sont assez minces avec tout ce qui a été jeté.

C'est entre autres pour m'éviter de m'arracher ainsi les cheveux que je tiens maintenant (et depuis 2001) un journal factuel assez précis de tout ce que je fais, jour par jour : ce n'est pas toujours évident de rechercher quelque chose dedans si je ne sais plus la date, mais au moins y a-t-il un espoir.

J'avais un souvenir précis qui me hantait depuis longtemps, et qui était à l'origine, je pense, ou en tout cas qui a pu nourrir, mes rêves de labyrinthes : je me revois avec mes parents en train de visiter une maison bizarre, gigantesque et dont la plupart des pièces sont dénuées de fenêtres, éclairée surtout en rouge, et qui est une sorte de musée d'objets hétéroclites et insensés, dont peut-être des poupées — je me rappelle une visite qui me semblait interminable, où le guide nous faisait traverser pièce après pièce, selon un chemin qui tournait dans tous les sens, et je commençais à me demander s'il y avait une sortie, et si cette maison avait une fin.

J'ai posé la question à mes parents : ma mère se souvenait vaguement de quelque chose de semblable, et associait ça à une visite que nous aurions faite à une tante de mon père qui habitait du côté de Madison, Wisconsin (son mari était avocat — argh, j'ai un avocat américain dans ma famille), et nous aurions pu aller voir un musée dans le coin. J'ai parcouru beaucoup de descriptions de musées à Madison ou dans les environs sans réussir à trouver quoi que ce soit qui colle, et comme je ne savais pas quoi googler vu que mes souvenirs étaient très vagues, je n'ai jamais réussi à mettre le doigt dessus.

Et tout d'un coup, tout à l'heure, j'ai eu la clé de l'énigme en regardant une vidéo YouTube d'un canal consacré à des endroits bizarres sur la Terre et aux surprises de la géographie : je suis quasiment certain que la maison labyrinthique de mon souvenir est la House on the Rock, une expérimentation artistico-architecturale à la décoration kitsch et tordue, située à une centaine de kilomètres de Madison, et dont les images renvoyées par Google collent parfaitement avec celles dans ma mémoire, notamment les poupées un peu effrayantes, les instruments musicaux bizarres et les nombreuses pièces sans fenêtres organisées selon un plan labyrinthique. Quelle satisfaction d'avoir enfin réussi à replacer un souvenir tellement flou !

↑Entry #2346 [older| permalink|newer] / ↑Entrée #2346 [précédente| permalien|suivante] ↑

↓Entry #2345 [older| permalink|newer] / ↓Entrée #2345 [précédente| permalien|suivante] ↓

(mardi)

Deux remarques sur l'intuition du théorème de Gödel

C'est un théorème bien connu, et que j'ai expliqué il y a quelques années dans cette longue entrée, que ZFC (:= le système d'axiomes standard de la théorie des ensembles), s'il est consistant, ne peut pas démontrer que ZFC est consistant. C'est là le « second » théorème d'incomplétude de Gödel dans le cas particulier de ZFC. De même, PA (:= l'arithmétique de Peano du premier ordre) ne peut pas démontrer que PA est consistant. (Dans les deux cas, l'affirmation que le système est consistant signifie qu'il n'existe pas de suite finie de symboles partant des axiomes et suivant les règles de la logique pour arriver à la conclusion absurde 0=1 : et on a le droit de parler de suites finies de symboles parce qu'elles peuvent se remplacer par des entiers grâce à ce qu'on appelle le codage de Gödel. Je ne rentre pas dans les détails puisque j'ai déjà expliqué ça et qu'il y a déjà quantité de bonne vulgarisation sur le sujet.)

Du coup, on peut être tenté d'ajouter à ZFC un nouvel axiome Consis(ZFC), qui affirme ZFC est consistant, formant un nouveau système ZFC₁ ; puis, comme le théorème de Gödel s'applique aussi à lui, on peut encore ajouter un nouvel axiome Consis(ZFC₁) qui affirme que celui-là est consistant, formant un nouveau système ZFC₂ ; « et ainsi de suite ». (En réalité, il y a beaucoup de subtilités ici dans le ainsi de suite, et de toute façon ce n'est pas une bonne façon d'enrichir ZFC, ces axiomes étant à la fois beaucoup moins forts, moins maniables et moins intéressants, que les axiomes de grands cardinaux par lesquels on l'étend usuellement. S'agissant de PA, on peut aussi faire cette construction, en gardant à l'esprit que PA, PA₁, PA₂, etc., et leurs consistance, sont de toute façon des conséquences (théorèmes) de ZFC.)

Ce point est bien connu, donc, et peut-être même trop connu, à tel point qu'on fait dire à ce théorème de Gödel un peu n'importe quoi. Les deux faits suivants, en revanche, sont bien moins connus, et mériteraient pourtant de l'être autant, parce qu'ils invitent à reconsidérer la manière dont on interprète (au moins sur le plan intuitif ou philosophique) ce théorème d'incomplétude. J'ai mentionné ces faits en passant lors de l'entrée passée vers laquelle je viens de faire un lien, mais je pense que je n'ai pas assez attiré l'attention dessus, ce qui est dommage.

(Les deux points suivants sont indépendants l'un de l'autre.)

✱ Le premier fait, c'est qu'on peut tout à fait fabriquer une théorie ZFC† dont les axiomes sont ceux de ZFC plus un axiome supplémentaire qui dit ZFC† est consistant. Oui, c'est circulaire (la théorie affirme sa propre consistance), mais ce n'est pas très difficile d'arriver à formaliser ça en utilisant les astuces de points fixes habituelles. Et de même, on peut former PA† dont les axiomes sont ceux de PA (Peano) plus un axiome supplémentaire qui dit que PA† est consistant. Il s'agit d'une façon assez naturelle d'essayer de contourner le théorème d'incomplétude (au moins quand on a mal compris celui-ci), en se disant puisque je ne peux pas démontrer que mon système formel est consistant, je vais l'ajouter comme axiome (et affirmer directement que l'ensemble est consistant plutôt qu'ajouter un axiome qui dit que la théorie de départ est consistante, puis un autre qui dit que cette nouvelle théorie est encore consistante, et encore un autre qui dit que celle-ci est consistante « et ainsi de suite »).

Bref, on peut fabriquer cette théorie ZFC† ou PA†, mais le problème c'est elle est inconsistante (elle démontre 0=1). Parce que le théorème de Gödel s'applique à elle aussi, et comme il affirme que si la théorie est consistante elle ne peut pas démontrer sa consistance, et qu'elle démontre effectivement sa consistance (puisque c'est un axiome, et qu'un axiome compte bien comme une démonstration), du coup, elle n'est pas consistante.

Alors voilà, ce n'est pas bien passionnant, certes : j'ai construit une théorie et j'ai expliqué qu'elle ne marchait pas — mais je pense que c'est quand même instructif, au moins sur le plan de l'intuition. Quand on présente le théorème d'incomplétude de Gödel, que ce soit au grand public, à des mathématiciens non-spécialistes, ou à des débutants en logique, l'idée qui en résulte typiquement — et je ne prétends pas qu'elle soit fausse — est qu'un système formel consistant T (récursivement axiomatisable, et contenant un fragment suffisant de l'arithmétique) n'est jamais assez « puissant » pour démontrer sa propre consistance, mais que (a) il s'agit d'une notion un peu constructive de démonstration, et (b) la raison pour laquelle on est conduit à ajouter des axiomes qui disent T est consistant et cette théorie-là est consistance et cette théorie- est consistante, « et ainsi de suite », est qu'on ne peut jamais tout faire d'un coup. Or l'exemple de la construction que je viens de donner montre qu'il faut se méfier de cette intuition : (b) on peut tout à fait écrire une théorie qui affirme sa propre consistance, et (a) cette théorie est forcément inconsistante parce que le théorème de Gödel interdit à une théorie consistante (récursivement axiomatisable, et contenant un fragment suffisant de l'arithmétique) non seulement démontre sa propre consistance, mais même simplement qu'il l'affirme (un axiome compte bien comme une démonstration). Je vais citer la présentation de Torkel Franzén (Inexhaustibility, 2004, chap. 12) parce que je trouve qu'il est particulièrement clair :

It is often emphasized that the resources of a theory T do not themselves suffice to enable a proof of the consistency of T. Again it is only by “going outside the system” than one can prove that T is consistent.

A weakness of this emphasis is that it doesn't take into account that the relevant concept of proof is a very liberal one. The consistency of T is provable in the theory T+Consis(T). This is not because any new fundamental principle has been introduced or because the theory T+Consis(T) incorporates any new insight that goes beyond those expressed in T, but simply because the consistency of T has been postulated. We don't require any more of a proof, as the term is used in logic. Accordingly, the second incompleteness theorem makes a stronger statement than one might naturally suppose. The consistency of T not only cannot be derived from the basic principles embodied in T, it cannot even be consistently asserted in T. A theory cannot consistently postulate its own consistency. By the diagonal lemma, we can produce a formula φ formalizing This sentence is consistent with T, but since T+φ then proves its own consistency, we know that in fact it is inconsistent.

Why is it impossible for T to consistently postulate Consis(T)? Because a paradox results from such a postulate, or so Gödel's proof of the second theorem suggests. If T asserts its own consistency, it must both assert and deny the provability of the sentence formalizing This sentence is not provable in T. It's not just a matter of T lacking the resources to establish a particular truth (that T is consistent) but of it being impossible to consistently sneak in this truth as an assertion or postulate in the theory itself. Saying that one must go outside the system to prove the consistency of T conveys the suggestion that T metaphorically speaking has a kind of “blind spot”, that it cannot reflect on or understand or inspect itself sufficiently to establish its own consistency—and indeed in extrapolations from the incompleteness theorem to other fields (religion, physics, psychology) this suggestion is frequently made explicit. The fact that T cannot even consistently assert its own consistency, without attempting any inspection or justification whatever, would seem to indicate that this suggestion is a bit of a red herring.

Je trouve que cela illustre très bien la manière dont on a tendance à mal se représenter le théorème d'incomplétude comme traduisant un problème profond de « manque de force » — alors qu'il s'agit de quelque chose d'à la fois plus trivial et plus profond. (Bien sûr, tout ceci est juste une question d'interprétation intuitive : il n'y a aucune difficulté ou subtilité mathématique dans tout ce que j'ai écrit.)

Mais si ce point est un peu trivial et en quelque sorte négatif, le suivant est beaucoup plus intéressant mathématiquement, et il est plutôt positif. Par ailleurs, il concerne spécifiquement ZFC et PA (pas que ce soient les seules théories auxquelles il s'applique, mais il ne s'applique pas à « à peu près n'importe quoi » comme le point que je viens de faire).

✱ J'en viens donc au second fait que je voulais signaler. Il faut d'abord que je rappelle que ZFC et PA ont un nombre infini d'axiomes : ils comportent en effet des schémas d'axiomes (le principe de récurrence dans le cas de PA, et pour ce qui est de ZFC, les schémas de séparation (=compréhension, =sélection) et ceux de remplacement). Ces axiomes veulent affirmer certains faits pour toute propriété P (des entiers naturels dans le cas de PA, ou des ensembles dans le cas de ZFC) : comme la logique du premier ordre ne permet pas de quantifier sur les propriétés, on s'en tire en postulant tous les énoncés dans lesquels P est remplacé par n'importe quelle formule explicitement écrite dans le langage où on se place — ce qui fait donc une infinité d'axiomes.

(Digression : Il y a d'autres façons de faire, consistant plus ou moins à faire de la logique du second ordre, et qui permettent de ramener cette infinité d'axiomes à un nombre fini au prix d'une complication de la logique, et parfois un renforcement du système : ce sont par exemple la théorie des ensembles de Gödel-Bernays, essentiellement aussi forte que ZFC, ou celle, strictement plus forte, de Morse-Kelley, les deux permettant de parler de classes, ce qui revient à permettre de quantifier sur les propriétés, et, s'agissant de l'arithmétique, le système ACA qui est exactement parallèle de Gödel-Bernays et l'arithmétique du second ordre Z₂=PA² qui est exactement parallèle de Morse-Kelley. Mais je vais m'abstenir de plus parler de toutes ces théories, d'autant que ça devient vite technique quand il s'agit de distinguer la vraie logique du second ordre de la logique du second ordre « réifiée » au premier ordre au sens où on a une logique du premier ordre à deux types d'objets qui fait semblant d'être une logique du second ordre en décrétant que l'un de ces types est le type des « classes » ou « propriétés » de l'autre type, ce qui revient finalement au même sauf que la notion de modèle et toute la sémantique qui va avec est différente.)

Un point qui me semble très important, et qui est rarement suffisamment souligné dans les cours élémentaires de logique, est le suivant :

Chacun de ZFC et de PA prouve la consistance de tous ses sous-ensembles finis d'axiomes.

Autrement dit, ZFC ne prouve pas la consistance de ZFC (c'est ce par quoi j'ai commencé : le second théorème d'incomplétude), mais ZFC prouve la consistance de n'importe quel ensemble fini d'axiomes de ZFC. Et la même chose vaut pour PA. On dit que ce sont des théories réflexives. En fait, il y a mieux : n'importe quelle extension de l'une ou l'autre de ces théories, écrite dans le même langage, est elle-même réflexive (on dit que ZFC et PA sont essentiellement réflexives : dans le cas de PA, c'est un théorème de 1952 dû à Andrzej Mostowski, et dans le cas de ZFC, je crois que le résultat est dû à Richard Montague et/ou Azriel Lévy vers 1960).

Une des conséquences de ce théorème est que ni ZFC ni PA, s'ils sont consistants, ne peut pas être axiomatisé par un nombre fini d'axiomes (si un ensemble fini T₀ de théorèmes de ZFC, ou du coup, d'axiomes de ZFC, suffisait à impliquer tous les axiomes de ZFC, alors ZFC prouverait la consistance de T₀, donc T₀ prouverait la consistance de T₀, et en prenant T₀ assez fort pour faire de l'arithmétique basique — je ne rentre pas dans les détails — ceci contredit le théorème de Gödel appliqué à la théorie T₀ ; et exactement le même raisonnement vaut pour PA). Mieux : comme ZFC et PA sont essentiellement réflexifs, aucune théorie consistante contenant ZFC ou PA et écrite dans le même langage ne peut être axiomatisée par un nombre fini d'axiomes. Mais ce n'est pas vraiment de ça que je veux parler.

Le résultat ci-dessus doit surprendre, parce qu'il paraît contredire le théorème de Gödel. L'argument serait le suivant : s'il y avait une contradiction dans ZFC, la démonstration de cette contradiction n'utiliserait qu'un nombre fini d'axiomes de ZFC (si on veut, c'est le théorème de compacité syntaxique, mais c'est une trivialité : une démonstration, étant de longueur finie, ne peut faire appel qu'à un nombre fini d'axiomes !) ; mais d'après ce que j'ai dit, ZFC prouve que ceci ne peut pas se produire (tout ensemble fini d'axiomes de ZFC est consistant) — du coup, ZFC est consistant, et on semble avoir prouvé ce fait dans ZFC ! Quelle est l'arnaque ?

L'arnaque est que le théorème de réflexivité ci-dessus est un métathéorème ; plus exactement, donné un ensemble T₀ quelconque d'axiomes de ZFC, on a une recette tout à fait explicite qui fabrique une démonstration à partir des axiomes de ZFC dont la conclusion est T₀ est consistant, et c'est un théorème (de ZFC, PA ou de systèmes encore plus faibles) que cette recette marche, i.e., l'énoncé encadré ci-dessus est bien un théorème. Mais, s'il est vrai que pour tout T₀ fini ⊆ZFC, T₀ est consistant est un théorème de ZFC, et que ceci est aussi un théorème de ZFC ou PA (i.e., pour tout T₀ fini ⊆ZFC, T₀ est consistant est un théorème de ZFC), en revanche, l'affirmation pour tout T₀ fini ⊆ZFC, T₀ est consistant, elle, n'est pas un théorème de ZFC (si ce dernier est consistant), car elle implique la consistance de ZFC d'après le raisonnement que j'ai fait au paragraphe ci-dessus.

Je répète : pour tout ensemble fini T₀ d'axiomes de ZFC, on sait fabriquer une démonstration dans ZFC que cet ensemble T₀ est consistant, et on sait montrer dans ZFC (ou PA ou moins) que ce procédé marche bien, mais on ne peut pas en conclure dans ZFC que tout ensemble fini T₀ d'axiomes de ZFC est consistant. On peut résumer cette situation ainsi : il est vrai que pour tout ensemble fini T₀ d'axiomes de ZFC, ZFC démontre la consistance de T₀, mais il ne le fait pas uniformément en T₀. C'est un cas du phénomène appelé la ω-incomplétude : pour tout n on démontre P(n) selon une recette générale et explicite, mais on ne peut pas démontrer ∀n.P(n) (ici, s'imaginer que n est un codage de T₀ et P(n) est l'affirmation que ce T₀ est consistant).

Absolument tout ceci vaut en remplaçant ZFC par PA partout (i.e., pour tout sous-système fini T₀ de PA, PA démontre que T₀ est consistant, mais ne le fait pas de façon uniforme). Ce fait est, d'ailleurs, étonnamment difficile à trouver écrit dans des bouquins de logique arithmétique.

Pour autant, pour tout usage philosophique ou épistémologique, je suis tenté de dire que ce qui précède (je veux dire, le résultat encadré ci-dessus) est exactement aussi bien qu'une démonstration de la consistance de ZFC dans ZFC, resp. de PA dans PA. Je ne sais pas au juste ce qu'on espérerait accomplir à avoir une démonstration de la consistance de ZFC dans ZFC ou de celle de PA dans PA (le projet de Hilbert était plutôt d'avoir une démonstration de la consistance d'un système fort dans un système faible, donc disons quelque chose comme celle de ZFC dans PA, or ça c'est vraiment hors de question). Mais je suppose que l'idée serait quelque chose comme je suis prêt à admettre comme mathématiquement vrais et certains les résultats — au moins arithmétiques — dont j'ai une démonstration dans ZFC, et je me sentirais plus rassuré si j'étais certain qu'il n'y a pas de démonstration de résultats absurdes dans ZFC, ce qui n'est pas si idiot que ça même si c'est circulaire (admettre que ZFC est vrai — ne serait-ce qu'arithmétiquement — est beaucoup plus fort qu'admettre qu'il est consistant, donc à partir du moment où on l'admet comme vrai, l'étape épistémologique à l'admettre comme consistant devrait être gratuite). Le principe de réflexion que j'ai encadré ci-dessus rend la réticence à admettre que ZFC est consistant encore plus bizarre dans ce contexte : si je suis prêt à admettre la consistance de tous ses sous-systèmes finis, je devrais bien admettre la consistance de la théorie tout entière ; plus exactement, si on me fournit un modèle simple permettant de construire, pour tout ensemble fini T₀ d'axiomes de ZFC, une preuve du fait que T₀ est consistant (et en outre, une méta-preuve du fait, d'ailleurs plus ou moins évident, que ce procédé fonctionne bien), il serait extrêmement bizarre de ne pas en admettre la conclusion, à savoir que tout ensemble fini T₀ d'axiomes de ZFC est consistant.

↑Entry #2345 [older| permalink|newer] / ↑Entrée #2345 [précédente| permalien|suivante] ↑

↓Entry #2344 [older| permalink|newer] / ↓Entrée #2344 [précédente| permalien|suivante] ↓

(dimanche)

Une méta-critique des épisodes I-II-III de Star Wars (PAS le nouveau)

Je n'ai pas encore vu l'épisode-que-tout-le-monde-attendait, donc je ne vais pas en parler (et je ne risque pas de spoiler), mais je voudrais profiter de sa sortie pour livrer de nouveau des réflexions décousues à 20 millizorkmids sur la place de l'œuvre de fiction dans l'imaginaire comme je l'avais fait au sujet de Tolkien.

La « trilogie originale » (pour ceux qui vivent vraiment dans une galaxie lointaine, très lointaine, il s'agit des épisodes numérotés IV (A New Hope), V (The Empire Strikes Back) et VI (Return of the Jedi), et qui sont les premiers à être sortis, respectivement en 1977, 1980 et 1983), fait, pour beaucoup de ma génération, partie des référents culturels avec lesquels nous avons grandi, et évoque surtout un sentiment de nostalgie de l'époque : il devient essentiellement impossible de les juger pour leur mérite propre ou même simplement de les regarder d'un œil neuf. Je ne peux pas penser à Star Wars sans penser à toutes sortes de scènes ou de réflexions de mon enfance qui y sont inextricablement liées dans mon esprit : la terreur quand j'ai vu le VI à sa sortie (j'avais six ans) que m'inspirait le personnage de l'Empereur, la confusion dans laquelle j'étais quant au nombre de films constituant la série (il faut dire que la numérotation n'aide pas, et je pensais qu'il y avait au moins six films à voir), ma fascination pour la musique et les efforts que j'ai faits pour la retrouver de mémoire à la flûte à bec, l'excitation quand j'ai enfin pu me faire acheter les VHS en coffret, etc. Je ne peux pas dire que j'aie été un « fan » de Star Wars (je n'ai jamais collectionné les figurines, lu des livres de l'« univers étendu », joué aux jeux de rôles basés dessus ni été capable de dire la longueur d'un star destroyer), mais j'ai certainement vu chacun de ces films au moins douze fois. (En français avant de les revoir en anglais : alors que maintenant je refuse catégoriquement de voir un film doublé, pour ceux-ci spécifiquement, la VF a une certaine valeur nostalgique à mes oreilles. Ceci dit, je ne crois pas que j'aie entendu la version où Luc s'appelait encore Courleciel.)

J'ai eu une sorte d'épiphanie quand, beaucoup plus tard, j'ai vu le film Battlestar Galactica (je parle du film de 1978, pas de la série TV de l'époque et dont il est plus ou moins le pilote, encore moins de la série TV beaucoup plus récente). Ce film est à peu près contemporain du premier Star Wars, je ne sais pas s'il en est fortement inspiré ou si c'est juste le genre de l'époque, mais les costumes sont dans le même style, la musique est dans le même genre, les deux principaux héros ont plein de ressemblances avec Luke Skywalker et Han Solo, et les effets spéciaux sont autant réalisés avec des bouts de ficelle. Et ce film est vraiment mauvais (suffisamment mauvais pour devenir bon au second degré, i.e., un nanar) : c'est comme ça que je me suis rendu compte que Star Wars, au moins son épisode IV (le premier, donc), était franchement nanaresque, mais que son impact culturel forçait à le ranger dans une autre catégorie que Battlestar Galactica.

Je trouve intéressante la danse qui peut se mettre en place entre une œuvre de fiction et notre imagination : avant même que nous ne voyions ou lisions l'œuvre (je l'ai raconté à propos de Tolkien), mais surtout après, quand nous l'incorporons à notre monde des rêves et de la fantaisie. Quand j'étais ado, j'ai écrit un roman(?), Castor et Pollux, dont la trame était inspirée, voire complètement décalquée, de celle de Star Wars (mélangée à un gloubi-boulga métaphysico-ésotérique que je savais pondre au kilomètre à cet âge-là — sans doute faut-il comprendre que l'histoire de Castor et Pollux est une métaphore tarabiscotée pour la manière dont l'œuvre de fiction peut capturer son propre créateur, auquel cas cette métaphore pourrait avoir une certaine pertinence dans le cas de George Lucas) ; d'ailleurs, l'inspiration n'était pas un secret, les chapitres portent les noms des films de Star Wars traduits en latin (! on va dire que je suis parfois un peu autocaricatural). Toutes sortes de fans avaient certainement développé leur propre imaginaire concernant le passé et le futur de l'Univers de Star Wars.

Peut-être, d'ailleurs, tout cet Univers est-il assez malsain. Énormément d'œuvres de fantastique sont manichéennes dans leur construction, mais le mysticisme de Star Wars atteint un niveau de manichéisme vaguement inquiétant — un niveau où le Bien et le Mal ne sont plus le Bien et le Mal pour des raisons précises mais simplement parce qu'ils sont essentiellement le Bien et le Mal, si bien qu'il n'y a plus à s'interroger sur leurs actions ou leurs motivations, et ceci est la base de bien des formes de fanatisme. (Et on peut lire toute l'histoire des épisodes IV-V-VI comme celle de la radicalisation de Luke Skywalker.) Mais ce mysticisme a pour contrepoint des personnages qui ne sont pas tout blancs ou tout noirs (Han dans l'épisode IV, Lando dans l'épisode V, Vader dans l'épisode VI) et le thème de la rédemption est finalement plus fort que le manichéisme. Au final, la culture pop s'est approprié la trilogie avec peut-être plus d'humour et de légereté qu'elle n'en contient elle-même. Je ne vais laisser ici qu'un exemple, mais je pense que c'est un véritable bijou : le court-métrage George Lucas in Love (visible ici sur YouTube), à mon avis la meilleure fan-fiction sur Star Wars, justement parce qu'il n'est pas de la science-fiction (ni, a fortiori, situé dans l'univers de Star Wars).

Et puis George Lucas est arrivé avec ses épisodes I-II-III (en 1999, 2002 et 2005), et il a tout gâché.

Il y a toujours une certaine violence émotionnelle ressentie quand on s'attache à une œuvre de fiction, qu'on en imagine des extensions, et que l'auteur vient, avec son autorité ex cathedra vous raconter quelque chose de différent — vient casser la construction qu'on s'est faite en rêve pour la remplacer par la sienne, « canonique ». (De nouveau, j'ai parlé de mon expérience personnelle avec Tolkien, mais pour donner un autre exemple, cette année, 55 ans après la publication du roman d'origine, est sortie la suite du classique To Kill a Mockingbird : les réactions ont été assez partagées, pas seulement à cause des circonstances un peu bizarres de cette parution, mais aussi parce que cette suite forçait à réévaluer un personnage qu'on avait peut-être jugé trop favorablement.)

Mais dans le cas de la « prélogie » de Star Wars, à cette violence émotionnelle s'ajoute le choc de découvrir à quel point elle est mauvaise de tout point de vue. Mais le problème n'est pas seulement qu'elle est incohérente, mal écrite, mal mise en scène, mal jouée et mal montée (comme le démontrent par le détail les critiques vers lequel je vais faire des liens ci-dessous) : le problème est surtout qu'elle dissone profondément avec la trilogie des épisodes IV-V-VI, pas seulement sur tel ou tel point de l'intrigue mais, ce qui est beaucoup plus grave, sur le ton général de l'œuvre et de l'univers où elle doit se dérouler. Les fans ont été particulièrement heurtés, par exemple, d'apprendre que la « Force », ce machin mystique central à la saga, était en fait créé par des créatures microscopiques appelées midi-chloriens(?), révélation qui semblait casser toute la poésie de la chose — et révélation d'autant plus agaçante qu'elle n'avait absolument aucune sorte d'intérêt pour l'intrigue du film où elle s'inscrivait. Mais ce n'est que la partie émergée de l'iceberg : énormément de choses, dans ces nouveaux films, vient détruire la poésie des anciens en changeant le regard qu'on porte sur ses personnages, parce que le ton général est tellement différent. (Je donne juste l'exemple de Yoda : il était beaucoup plus intéressant de l'imaginer comme ayant toujours vécu sur sa planète marécageuse et pas à la tête d'un conseil dirigeant des jedis — en fait, le ton des films IV-V-VI suggérait plutôt que les jedis n'avaient pas d'organisation centrale ou de conseil dirigeant ; et il était beaucoup plus intéressant d'imaginer que jamais Yoda n'aurait eu besoin d'utiliser une arme, parce que sa puissance est d'une tout autre nature. Tout ceci me semble plus significatif que l'incohérence qu'on peut soulever dans le fait que dans les épisodes V et VI il est clair que Vader n'a aucune idée de l'existence de Yoda alors que dans les I à III les personnages se croisent à de nombreuses reprises.)

Bien sûr, quantité d'autres œuvres de l'histoire du cinéma ont été « gâchées » par une suite ou un prequel merdiques. Généralement, cependant, cela vient plutôt du studio, qui veut exploiter la franchise, que du réalisateur supposément visionnaire. Il est bizarre qu'ici ce soit George Lucas qui ait saboté sa propre œuvre. (En prétendant, d'ailleurs, avoir suivi ce qui était sa vision dès l'origine : je dois dire que je ne le crois pas du tout. Je ne le crois même pas quand il prétend qu'il avait décidé ce qui se passerait dans l'épisode V lorsqu'il tournait le IV ou le VI quand il tournait le V — si c'était le cas, je pense qu'il n'aurait pas laissé quelques scènes qui prennent rétrospectivement un parfum suspect d'inceste.)

Mais mon propos n'est pas de me plaindre que les épisodes I-II-III de Star Wars sont mauvais : ça ne sert à rien de tirer sur les ambulances. Cela pourrait être plus intéressant d'essayer de comprendre pourquoi ce fiasco : comment se fait-il qu'un créateur disposant de moyens essentiellement illimités et sans aucune contrainte pour exprimer son imagination ni quiconque pour le contredire produise quelque chose d'aussi nul ? Une explication est que c'est justement la difficulté qui fait que l'art est intéressant ; une variante, plus terre-à-terre, est que personne n'osait signaler à George Lucas (comme il était le grand chef, à la fois réalisateur, superproducteur et clé de tout le financement), fût-ce diplomatiquement, que ses idées étaient nulles, si bien qu'il s'est retrouvé complètement déconnecté de la réalité ; ou peut-être qu'il était tellement obnubilé par les possibilités offertes par les effets spéciaux et par tout ce qui apporterait de l'argent en produits dérivés qu'il ne voyait plus que ça. Ou peut-être enfin que les épisodes IV-V-VI ne sont finalement pas mieux que les I-II-III (ni que Battlestar Galactica) mais que nous les jugeons différemment parce que nous nous y sommes habitués et qu'ils sont devenus des références culturelles ? Je ne sais pas. Mais en tout cas, il peut être intéressant d'étudier un peu en détails ce qui n'allait pas bien : critiquer des mauvaises œuvres d'art peut être finalement plus instructif que louer les bonnes. (Et peut-être que dans les cours de litérature on devrait un peu faire la place, au milieu des Shakespeare, Goethe et Racine, pour des écrivains médiocres ou carrément mauvais, afin d'expliquer justement pourquoi ils ne sont pas Shakespeare, Goethe ou Racine. Ou pourquoi les écrivains mauvais ne sont même pas médiocres. Ou pourquoi certains sont encore plus que mauvais. Mais je digresse.)

Bref, je voudrais ici proposer des liens vers trois critiques des épisodes I-II-III de Star Wars qui me semblent vraiment intéressantes : après tout, si s'est farci les sept heures de ces films, autant chercher à comprendre ce qui n'allait pas avec, surtout que ça peut être très drôle d'énumérer les contradictions et les invraisemblances. En fait, ces critiques sont en elles-mêmes des œuvres très construites qui peuvent presque se regarder comme des films. (D'ailleurs, s'agissant de celle de Mr. Plinkett, il y a eu des critiques de la critique, même si je suis tenté de critiquer ces critiques de la critique en disant qu'elles n'étaient généralement pas terribles.)

  • D'abord, il y a la critique par CinemaSins (Everything Wrong With) : à savoir ❄ épisode I partie 1/2, ❄ épisode I partie 2/2, ❄ épisode II partie 1/2, ❄ épisode II partie 2/2, ❄ épisode III partie 1/2 et ❄ épisode III partie 2/2 (ça fait au total environ 25min par épisode). Ils font des critiques de toutes sortes de films, toujours de façon linéaire, c'est-à-dire en montrant des extraits du film, dans l'ordre de celui-ci, et en marquant des choses qui ne vont pas comme des « péchés », qui vont du totalement anecdotique à l'incohérence majeure — ils ne se prennent pas du tout au sérieux et ne cherchent pas à hiérarchiser leurs critiques ni à les regrouper en quelque chose de synthétique, mais ça n'empêche pas que certains des reproches sont extrêmement bien vus, et que c'est globalement très rigolo à regarder. (Par ailleurs, celui qui dit la critique parle très très vite, et on est souvent obligé de faire une pause pour relire la phrase en sous-titre avant d'arriver à la comprendre.)
  • Ensuite, il y a celle par « Mr. Plinkett » de RedLetterMedia, personnage fictif qui mérite lui aussi son analyse sur Wikipédia : à savoir ❄ épisode I partie 1/7, ❄ épisode I partie 2/7, ❄ épisode I partie 3/7, ❄ épisode I partie 4/7, ❄ épisode I partie 5/7, ❄ épisode I partie 6/7, ❄ épisode I partie 7/7, ❄ épisode II partie 1/3, ❄ épisode II partie 2/3, ❄ épisode II partie 3/3 et ❄ épisode III (le découpage est différent à chaque fois, mais il y en a pour environ 1½ heure par épisode — oui, c'est très long). Cette critique est très bizarre, parce qu'elle fait souvent des blagues complètement décalées, des longues digressions et des non sequitur (non sequuntur ?), mais surtout, elle est prononcée par une voix exprès insupportable (dans le genre mec bourré qui articule mal), celle d'un personnage fictif (Mr. Plinkett) qui est censé être un psychopathe qui enferme et torture des femmes dans sa cave : le tout est vraiment étrange, mais ça n'empêche la critique d'être très juste et très détaillée, soulignant à la fois des erreurs ponctuelles et des problèmes d'ensemble, ne se contentant pas de montrer pourquoi tel ou tel élément d'intrigue est incohérent mais aussi, par exemple, pourquoi le film ne permet pas aux spectateurs d'« accrocher » aux personnages. • [Ajout ()] Pour ceux qui ne veulent pas regarder plus de quatre heures de critiques, ici (1h19′22″ dans la critique de l'ép. III) commence un passage assez court (<10′) qui souligne un point qui me semble particulièrement juste et frappant sur la manière dont Lucas traite les acteurs et les dialogues dans cette prélogie ; et ici (2′12″ dans la partie 3 de la critique de l'ép. II) commence un passage encore plus court (<4′), mais encore une fois extrêmement juste, sur le problème fondamental à ce que Yoda utilise un sabre laser.
  • Enfin, je veux pointer vers une critique un peu différente parce qu'elle est constructive : ici, il s'agit d'expliquer comment ❄ l'épisode I, ❄ l'épisode II et ❄ l'épisode III auraient pu être meilleurs (ça dure respectivement 12′, 16′ et 24′). C'est-à-dire qu'avec essentiellement les mêmes personnages, et en ne changeant pas de façon fondamentale l'intrigue, il réussit à raconter une histoire considérablement meilleure et plus cohérente que celle que Lucas a produite (avec même un storyboard pour l'illustrer). Et même si elle n'est pas aussi drôle ou aussi sarcastique que les précédentes, je trouve que cette critique est finalement la plus cinglante : peut-être que la meilleure manière de montrer que quelque chose est mal fait est de le refaire soi-même correctement.

Ajout () : Je dois encore faire un lien vers la théorie amusante proposée par le webcomic Wondermark : il faut imaginer que les épisodes I-II-III ne représentent pas forcément des événements qui se sont vraiment déroulés dans l'univers de Star Wars mais qu'ils sont une fiction de cet univers, ayant autant de rapport avec la réalité de l'ascension et de la chute de Vader que Pocahontas avec les événements historiques dans notre univers.

↑Entry #2344 [older| permalink|newer] / ↑Entrée #2344 [précédente| permalien|suivante] ↑

↓Entry #2343 [older| permalink|newer] / ↓Entrée #2343 [précédente| permalien|suivante] ↓

(jeudi)

Les adjectifs dans les langues germaniques

Puisque j'en ai parlé dans l'entrée précédente, je vais raconter des choses sur l'inflexion des adjectifs dans les langues germaniques. (Si vous lisez cet article jusqu'au bout, félicitations, vous aurez vous aussi gagné le super pouvoir de passer pour la personne la plus ennuyeuse dans n'importe quelle soirée.)

Les langues germaniques sont une sous-branche des langues indo-européennes. Je commence donc par rappeler certains éléments grammaticaux importants généralement communs à ces langues. Pour commencer, ce sont des langues à cas (au moins à l'origine — beaucoup d'entre elles ont perdu les cas ultérieurement), c'est-à-dire que les noms ou groupes nominaux portent des inflexions qui indiquent la fonction de ces groupes par rapport au verbe de la phrase. (Les cas à l'origine sont : nominatif, vocatif, accusatif, instrumental, datif, ablatif, génitif et locatif ; peu importe la liste exacte, mais je veux surtout souligner qu'ils sont en nombre relativement petit et bien défini, à la différence des langues comme le finnois ou le hongrois où cette liste n'a pas vraiment de fin.) Ces cas sont marqués presque uniquement à la fin du mot (on parle de désinences). De plus, du point de vue de ces cas, les langues indo-européennes font une distinction principale nominatif-accusatif plutôt qu'absolutif-ergatif : disons pour simplifier que cela signifie que dans une phrase comme Pierre frappe Paul, le nom qui effectue l'action désignée par le verbe frapper (Pierre, qui sera au cas appelé nominatif ou cas « sujet ») aura un rôle grammatical plus central que le nom qui la subit (Paul, qui sera au cas appelé accusatif) — cette centralité se voit dans le fait que s'il y a une seule personne connectée à l'action (Jacques tombe), le cas de cette personne sera le même que le cas de la personne qui effectue l'action (donc, le nominatif), que si le verbe s'accorde dans cette situation (Jacques tombeJacques et Jules tombent) alors il s'accorde de la même façon avec le « sujet » de l'action (Pierre et Luc frappent Paul contre Pierre frappe Paul et Marc sans variation), et que si la même personne effectue deux actions on peut faire une ellipse (la phrase Pierre frappe Paul et Pierre tombe peut se redire en Pierre frappe Paul et tombe, alors que Pierre frappe Paul et Paul tombe ne peut pas se redire avec ellipse) ; à l'inverse, dans une langue à opposition absolutif-ergatif, c'est le cas de Paul dans Pierre frappe Paul, appelé absolutif, qui est utilisé pour Jacques tombe et non celui de Pierre (l'ergatif), mais je digresse.

Une autre caractéristique grammaticale des langues indo-européennes est que les adjectifs sont plus ou moins rapprochés des noms : comme les noms, les adjectifs peuvent varier selon le cas, ils s'accordent aussi en nombre et en genre avec le nom (cf. ci-dessous), en revanche ils n'ont pas les dimensions d'inflexion qui caractérisent les verbes (mode, temps, aspect) ; par comparaison, en japonais, les adjectifs (au moins les adjectifs en -い) ressemblent plus à des verbes, et peuvent se mettre, par exemple, au passé. Ceci peut s'analyser en disant que dans les langues indo-européennes, la fonction « normale » de l'adjectif est épithète (la mer bleue) alors que dans d'autres langues la fonction « normale » serait d'être attribut (la mer est-bleue, l'adjectif signifiant être-bleu).

Enfin, les langues indo-européennes distinguent trois nombres, le singulier, le duel et le pluriel, même si le duel est réduit à l'état de trace ou d'archaïsme dans quasiment toutes les langues indo-européennes vivantes (désolé, le slovène !). Et elles distinguent trois genres, le masculin, le féminin, et le neutre, même si plusieurs ou tous ces genres ont pu fusionner dans beaucoup de langues encore vivantes, et même si à l'origine le statut du féminin n'est pas clair (il est probablement dérivé d'une forme de collectif, ce qui explique pourquoi le neutre pluriel et le féminin singulier ont une grande parenté).

J'en profite pour noter que quasiment tout ce que je viens de dire — l'existence de cas, l'opposition nominatif/accusatif, avec variation du verbe selon le sujet, plutôt qu'absolutif/ergatif, l'opposition nom/verbe avec rapprochement des adjectifs aux noms, l'existence d'une distinction de nombre et peut-être même singulier/duel/pluriel, et l'existence d'une distinction de genre avec une similitude entre le féminin singulier et l'inanimé pluriel (jusqu'à l'accord des verbes au singulier dans cette situation) — est aussi vrai pour les langues sémitiques comme l'arabe. Je trouve qu'il s'agit d'indices assez forts pour penser qu'il y a, sinon parenté, du moins influence grammaticale, entre ces deux familles de langues, et je trouve ça beaucoup plus remarquable que d'éventuels rapprochements entre racines lexicales douteuses. Mais de nouveau, je digresse complètement.

Le schéma général de l'adjectif dans les langues indo-européennes est, donc, est qu'il s'accorde en genre, nombre et cas avec le nom auquel il se rapporte. L'accord en nombre n'appelle pas spécialement à commentaire (je me retiens très fort de vous parler des numéraux dans les langues slaves). L'accord en cas n'en mérite pas non plus si l'adjectif est épithète (pour la mer bleue, le bleu sera au même cas que mer, que ce groupe soit sujet, objet, objet indirect, ou tout autre cas) : dans le cas de l'attribut (la mer est bleue), le cas est a priori nominatif, même s'il faut évoquer la possibilité d'un attribut du complément d'objet (la mer, je l'imagine bleue) auquel cas l'adjectif devrait logiquement être à l'accusatif, mais je n'ai pas assez de recul sur un ensemble raisonnable de langues indo-européennes à cas pour pouvoir dire si cette logique est largement suivie. (Par ailleurs, la règle de l'attribut du sujet au nominatif ne s'applique pas que pour un adjectif mais si l'attribut est lui-même un nom ou un groupe nominal : Socrate est un homme mettra normalement un homme au nominatif dans les langues indo-européennes. Cependant, cette logique ne vaut que pour la forme la plus basique, et parfois omise, du verbe être : en russe, par exemple, Socrate est un homme se dit Сократ — человек, mais Socrate était un homme donne Сократ был человеком, l'attribut passant du cas nominatif человек au cas instrumental человеком ; de nouveau, je trouve amusant qu'on voie un phénomène analogue en arabe classique où l'attribut marqué sans verbe commande le cas nominatif tandis que l'attribut marqué avec le verbe كان, par exemple pour exprimer le passé, commande le cas accusatif/direct. Zut, j'ai encore digressé.)

L'accord en genre mérite l'explication suivante que le genre dans les langues indo-européennes a plusieurs visages ou recouvre plusieurs phénomènes. (1) Il est une caractéristique lexicale intrinsèque des noms communs, c'est-à-dire que chaque nom commun (si la langue a gardé des genres) appartient à tel ou tel genre, et ce, de façon essentiellement arbitraire : en français, le soleil est lexicalement masculin, la lune est lexicalement féminin, tandis qu'en allemand, die Sonne (le soleil) est féminin et der Mond (la lune) est masculin. (2) Il est aussi un élément sémantique lorsqu'il se rapporte à une personne, indiquant à quel sexe il est considéré par le locuteur comme appartenir : c'est-à-dire que certains énoncés, nonobstant le (1) ci-dessus, apportent une information sur le sexe du locuteur ou de la personne à laquelle il s'adresse, ou de tiers désignés par des prénoms ou des noms épicènes. (Ainsi, en français, écrire tu es fou plutôt que tu es folle reflète l'information qu'on s'adresse à une personne considérée comme de sexe masculin. Il ne s'agit pas ici du genre lexical d'un nom commun.) (3) Dans le cas des adjectifs (ou apparentés : formes verbales à participes), le genre est un élément d'accord, reflétant le genre (au sens (1) ou (2)) du nom auquel l'adjectif se rapporte. (4) Le genre commande aussi à un choix de pronoms (en français, il contre elle, en anglais he contre she). • En clair, (1) un nom commun est masculin, féminin ou neutre (selon ce que la langue admet comme genres), mais toujours du même genre pour le même nom (à de rares exceptions près), tandis que (3) un adjectif est accordé au masculin, féminin ou neutre selon le nom auquel il se rapporte. Un nom a un genre intrinsèque, un adjectif n'en a pas. Et dans des cas comme celui où l'adjectif se rapport non pas à un nom mais à un pronom ou un nom propre (p.ex., prénom), l'accord est sémantique (c'est le point (2)). (Quant au choix (4) des pronoms pour reprendre un nom, il dépend (1) du genre lexical du nom et/ou (2) de la sémantique, typiquement quand il s'agit d'une personne.)

Au niveau inflexionnel, les langues indo-européennes ont donné aux adjectifs des désinences masculines, féminines et neutres calquées sur les paradigmes des noms les plus souvent du genre correspondant. Ainsi, en latin, le masculin bonus se décline comme dominus (classe de noms majoritairement masculins), le féminin bona comme rosa (classe de noms majoritairement féminins), et le neutre bonum comme templum (classe de noms exclusivement neutres) : les désinences de trois classes de noms différents se retrouvent dans une seule classe d'adjectifs pour former les trois genres. (Mais l'accord est véritablement selon le genre et pas selon la classe flexionnelle du mot : ainsi dans les rares situations de noms féminins du paradigme dominus ou de masculins du paradigme bona, on accorde bien l'adjectif avec le genre, par exemple Sequana longus est, la Seine est longue, le nom du fleuve Sequana étant masculin en latin malgré sa terminaison en -a et bien qu'il ait donné un féminin en français.)

⁂ Tout ceci concernait les langues indo-européennes en général. Les langues germaniques apportent l'innovation qu'en plus de faire varier les adjectifs en genre, nombre et cas, elles introduisent une dimension de plus à leur inflexion, la distinction indéterminé/déterminé. Cette distinction concerne uniquement les adjectifs (les langues scandinaves ont innové en introduisant une distinction similaire pour les noms, j'y reviendrai) ; et elle à l'origine a un caractère sémantique : elle distingue le beau garçon et un beau garçon (si j'arrive à pipoter correctement le vieil allemand, ça devrait être scōno knabo et scōni knabo respectivement), autrement dit, à l'origine, le choix d'accorder l'adjectif en indéterminé ou en déterminé va apporter une vraie différence de sens. Mais les langues germaniques ont ensuite repris des démonstratifs comme articles, rendant cette distinction redondante avec la présence de l'article défini : ceci transforme alors une distinction sémantique en un accord grammatical selon la présence ou non de tel ou tel article. (Exemple toujours en vieil allemand mais avec l'article explicitement écrit, dër scōno knabo, soit en allemand moderne der schöne Knabe, le beau garçon, contre scōni knabo, ein schöner Knabe, un beau garçon ; ou pour reprendre exactement les mêmes mots en vieil anglais, se scēna cnafa contre scēne cnafa, ce qui en anglais moderne-mais-précieux serait [the] sheen knave, mais les désinences ont alors totalement disparu.)

Zut, je voulais reprendre le vers du Roi des aulnes pour mon exemple, mais je me suis mal rappelé celui-ci : dans le poème de Goethe, c'est feiner Knabe (pour ma défense, schöner Knabe scanderait tout aussi bien). Comme fein ne semble pas venir d'une racine germanique, je ne change pas.

Cette distinction déterminé/indéterminé à l'adjectif est une spécificité des langues germaniques qui ne se retrouve pas dans les autres langues indo-européennes, même s'il y a quelque chose de vaguement semblable dans la famille balto-slavique (une sorte de déterminant postposé qui explique notamment pourquoi les adjectifs épithètes en russe ont une déclinaison manifestement double), mais je ne développe pas plus.

↑Entry #2343 [older| permalink|newer] / ↑Entrée #2343 [précédente| permalien|suivante] ↑

↓Entry #2342 [older| permalink|newer] / ↓Entrée #2342 [précédente| permalien|suivante] ↓

(lundi)

Le cerveau et les fonctions booléennes (idées d'expériences)

Je me dis souvent que j'aimerais avoir un tas de cobayes humains pour faire toutes sortes d'expériences cognitives dessus (et pas que des sciences cognitives, d'ailleurs : j'aimerais aussi faire toutes sortes d'expériences sociales, ou simplement de sondages sur un échantillon représentatif de la population française). Malheureusement, je ne suis pas un savant fou qui aurait des centaines de sujets d'expérience prisonniers dans sa cave, je n'ai pas non plus les accréditations (ou encore moins la patience) pour demander les financements permettant de monter des expériences dans des conditions scientifiques, alors je ne peux que lancer les idées en l'air en soupirant ce serait bien de faire ce genre d'expérience et spéculer de façon totalement gratuite sur le résultat (et me dire au passage que l'avantage des mathématiques sur d'autres domaines scientifiques, c'est quand même qu'on n'a pas besoin d'avoir des objets d'expérience prisonniers dans sa cave, dans une boîte de Petri ou dans un synchrotron à 10 giga-euros). Zut, je suis encore en train de digresser.

Une expérience que j'aimerais bien mener, donc, c'est d'essayer de mesurer le temps que le cerveau prend pour évaluer des fonctions booléennes (je vais expliquer dans un instant ce dont il s'agit) et essayer de modéliser la manière dont il s'y prend. Notamment : est-ce que ce temps dépend fortement des individus, est-ce qu'il dépend fortement de la fonction évaluée, à quelle vitesse « apprend-on » une fonction booléenne (c'est-à-dire, à quelle vitesse en acquiert-on un automatisme) et cette acquisition est-elle dépendente de la manière dont les entrées de la fonction sont présentées. Et aussi : dans quelle mesure est-ce que les animaux peuvent apprendre des fonctions un peu complexes.

Je m'explique.

Voici un premier jeu d'expériences imaginables. Commençons par l'expérience la plus triviale qui soit, et qui peut servir de mesure de base à laquelle comparer les autres  : le sujet a une lumière devant lui et un bouton. Toutes les secondes (disons), la lumière va aléatoirement passer dans l'état « éteint » ou « allumé » : le sujet a pour mission d'appuyer sur le bouton si la lumière est allumée. Cette tâche est extrêmement simple, et il est à prévoir qu'on y arrive très rapidement (au niveau du temps de réflexe), et avec très peu d'erreurs : il peut cependant être intéressant de faire varier certains paramètres (lumière qui peut prendre deux couleurs au lieu d'être éteinte/allumée, deux boutons entre lesquels il faut choisir, cadencement choisi par le sujet au lieu d'être à vitesse fixe, que sais-je encore). Maintenant, l'idée serait de mettre plus de lampes et de demander au sujet de réagir selon des conditions plus complexes. Une telle condition est appelée fonction booléenne.

Par exemple : s'il y a deux lampes, on peut demander au sujet d'apuyer sur le bouton si la lampe de gauche est allumée ; ou si les deux le sont ; ou si l'une des deux l'est ; ou si la lampe de gauche est éteinte ; ou encore : si la lampe de gauche est allumée ou que celle de droite est éteinte. En tout, il y aurait 16 fonctions booléennes à tester sur 2 lampes, même si certaines n'ont aucun intérêt (demander d'appuyer à tous les coups sur le bouton n'est pas franchement passionnant) et d'autres peuvent certainement être regroupées pour des raisons de symétrie (je doute qu'on réagisse plus rapidement ou plus fiablement à des conditions portant sur la lampe de gauche qu'à celles sur la lampe de droite ou vice versa). J'imagine qu'on aurait beaucoup plus de facilité à exécuter rapidement et fiablement la tâche appuyer sur le bouton si l'une ou l'autre lampe est allumée que appuyer sur le bouton si la lampe de gauche est allumée ou la lampe de droite éteinte, mais ce qui m'intéresse, entre autres, est de quantifier cette différence et d'essayer de modéliser ce qui rend certaines tâches plus faciles que d'autres. Il faudrait savoir, aussi, si le temps dépend de la manière dont on a formulé la phrase (pour des fonctions booléennes équivalentes) : est-il plus facile de appuyer sur le bouton si la lampe de gauche est allumée et la lampe de droite éteinte ou de appuyer sur le bouton si la lampe de gauche est allumée sauf si la lampe de droite l'est aussi ? Et si on donne les instructions sans mots mais avec autant d'exemples que nécessaire ?

Sur un plus grand nombre de lampes, je suis tout à fait certain qu'on irait beaucoup plus vite sur les tâches qui s'expriment très simplement avec des nombres, par exemple appuyer sur le bouton si au moins trois lampes sont allumées, mais il serait intéressant de comparer avec d'autres tâches d'assez basse complexité booléenne, notamment des fonctions positives, du genre appuyer sur le bouton si l'une des deux lampes de gauche est allumée et que l'une des deux lampes de droite l'est (mettons qu'il y en ait quatre au total). Une fonction booléenne est dite positive lorsque le fait de changer une de ses variables de fausse à vraie (i.e., allumer une lampe) ne peut pas rendre faux le résultat (i.e., faire qu'on ne doive plus appuyer sur le bouton) : a-t-on globalement plus de facilité à calculer de telles fonctions que pour des fonctions qui peuvent comporter des négations ?

Mais bien sûr, il ne faut pas se contenter d'expérimenter avec des lampes (allumées/éteintes) et des boutons. Je voudrais aussi savoir, notamment, comment le temps de réponse est affecté si les entrées de la fonction booléenne sont hétérogènes : si je demande au sujet d'appuyer sur un bouton si on lui présente une forme qui est un carré ou qui est rouge, est-ce que la différence de temps de réaction par rapport à juste détecter un carré ou juste détecter du rouge est comparable à celle qu'on aurait mesuré pour la fonction booléenne ou à deux lampes ? Et pour une tâche du genre appuyer sur le bouton si la forme de gauche est un carré ou qu'elle est rouge, et que la forme de droite est un triangle ou qu'elle est bleue, est-ce que le fait de s'être préalablement entraîné à exécuter la tâche appuyer sur le bouton si l'une des deux lampes de gauche est allumée et que l'une des deux lampes de droite l'est va fournir un avantage ? Autrement dit, notre cerveau est-il capable de précompiler des fonctions booléennes polymorphes ? ou bien chaque fonction est-elle apprise uniquement pour une situation bien précise et non réutilisable ? Et si je fais subir au même cobaye des mois et des mois de tâches différentes toujours avec la même fonction booléenne ([x ou y] et [u ou v]), va-t-il quand même finir par en acquérir un automatisme ?

Le nombre de questions que je me pose est très élevé, je ne vais pas toutes les écrire parce que ce serait assez fastidieux, d'autant que certaines dépendent de résultats des expériences antérieures, mais vous voyez le genre d'idées.

Pourquoi est-ce que je m'intéresse à ça ? Parce que j'ai l'impression que je me retrouve régulièrement à exécuter des tâches de ce genre : fouiller mentalement ou visuellement dans un ensemble d'items pour trouver ceux qui remplissent certains critères exprimés comme combinaisons booléennes d'autres critères, et je trouve qu'il y a décidément une certaine fatigue mentale spécifique associée à ce travail.

Mais je pense aussi à un type particulier de tâches : l'application des règles de grammaire. En écrivant cette entrée, j'ai commencé ici une longue digression sur l'inflexion des adjectifs dans les langues germaniques : finalement, je l'ai coupée et j'en ferai sans doute une entrée séparée qui n'intéressera personne, mais voici juste l'exemple de la règle (un peu simplifiée) permettant de savoir si on doit mettre la désinence -e (la seule possible) sur un adjectif en néerlandais : on ajoute cette désinence lorsque l'adjectif est épithète et que le nom qualifié est non-neutre ou pluriel ou précédé de l'article défini. (A contrario, ceci signifie qu'on ne met pas la désinence lorsque l'adjectif est attribut ou que le nom est neutre singulier précédé de [l'article indéfini ou d'une absence d'article].) Ce n'est pas une fonction booléenne terriblement compliquée (c'est en tout cas beaucoup plus simple que la multitude de cases à envisager en allemand ou en islandais, et c'est aussi un peu plus simple que la règle correspondante pour le danois ou le suédois), mais pour parler une langue à une vitesse raisonnable, il faut arriver à calculer ce genre de fonctions très efficacement et de façon complètement automatique (i.e., sans y réfléchir consciemment) : et avant que l'automatisme s'installe, ce qui demande énormément de pratique, on passe par une longue phase assez fastidieuse où chaque utilisation d'un adjectif implique une petite gymnastique mentale (est-ce que mon adjectif est épithète ? est-ce qu'il y a un article ? est-ce que cet article est défini ? est-ce que le nom est neutre ?). Je trouve qu'il serait intéressant de faire des expériences sur des gens n'ayant aucune connaissance préalable du néerlandais du temps nécessaire pour appliquer cette règle booléenne.

Bon, souvent, quand on considère les règles de grammaire, il ne s'agit plus tellement de fonctions booléennes au sens strict, c'est-à-dire que les entrées de la fonction ne sont plus obligatoirement de nature vrai/faux, mais peuvent être dans des ensembles de valeurs un petit peu plus gros, comme les trois genres — masculin, féminin et neutre — ou les quatre cas grammaticaux — nominatif, accusatif, datif et génitif — de l'allemand. Bien sûr, cette distinction est un peu byzantine, mais je pense en revanche qu'il y a une vraie distinction à faire, dans le processus mental, entre d'une part les fonctions booléennes ou « presque », avec des entrées qui prennent deux ou un petit nombre de valeurs possibles, et d'autre part des tableaux morphologiques comme des tables de conjugaison ou de déclinaison.

Si je m'écarte un peu des fonctions booléennes ou à petites entrées finies considérées ci-dessus, on pourrait aussi regarder les automates finis simples. Je pense par exemple à l'exercice mental que constitue la lecture d'une portée musicale avec beaucoup d'altérations (:= dièzes et bémols) et de changements d'altérations : la convention d'écriture est que la portée porte un certain nombre d'altérations « par défaut », et que chaque fois qu'une modification est faite, elle vaut pour la mesure en cours jusqu'à la fin de celle-ci : on peut voir ça comme l'application d'un automate fini, et il serait intéressant de mesurer la rapidité à laquelle on arrive à effectuer cette tâche sans entraînement préalable.

Bon, je devrais sans doute écrire des pages JavaScript qui proposent toutes sortes d'exercices dans ce genre et qui mesurent le temps et la fiabilité des réponses — comme ça, à défaut d'avoir des cobayes sur lesquels tester, je pourrais au moins me tester moi-même.

↑Entry #2342 [older| permalink|newer] / ↑Entrée #2342 [précédente| permalien|suivante] ↑

↓Entry #2341 [older| permalink|newer] / ↓Entrée #2341 [précédente| permalien|suivante] ↓

(vendredi)

Pourquoi les ordinaux me fascinent (une introspection psychologico-mathématique)

J'ai déjà récemment écrit une entrée sur mon obsession pour la symétrie, qui est certainement responsable d'une bonne partie de l'attrait que les mathématiques ont pour moi, et qui déborde sur ma fascination pour certaines formes de mysticisme assez visible notamment dans les œuvres littéraires que j'ai tenté d'écrire quand j'étais plus jeune. Mais il y un autre aspect des mathématiques qui me hante et sur lequel je n'arrive pas vraiment à placer un nom : disons, faute de mieux, la grandeur. Je ne sais pas non plus expliquer exactement en quoi cela consiste (pour être clair, je ne parle pas d'un concept mathématique, mais du ressenti commun que j'ai de certaines parties des mathématiques) ; j'ai tendance à penser que c'est le contrepoids de la symétrie, donc peut-être que hiérarchie serait un meilleur terme. Si je devais écrire sérieusement une œuvre dont j'ai déjà publié certains fragments aléatoires, et imaginer un monde allant avec, où les mathématiques donneraient des pouvoirs arcanes, il y aurait sans doute deux types de pouvoirs et d'utilisateurs de ceux-ci : les magiciens, qui utiliseraient la symétrie, et les clercs (pour reprendre la terminologie rôliste) qui utiliseraient la hiérarchie. Maintenant, c'est peut-être mon obsession pour la symétrie qui me fait proposer cette classification : néanmoins, il est certain que, si je dois faire le chemin des mathématiques au mysticisme, la symétrie m'évoque clairement une forme de magie pour les raisons que j'ai déjà expliquées dans l'entrée que je lui ai consacrée, tandis que ce dont je veux parler ici a une saveur, disons, plus religieuse, et cela transparaît notamment dans la Théorie de la Totalité Transfinie de Turing que je décrivais dans cette entrée.

Je ne sais pas quel est le phénomène mathématique sous-jacent à cette impression mentale de « grandeur » ou « hiérarchie », donc, mais je sais quel est le concept qui la réalise le plus parfaitement : il s'agit des ordinaux. J'ai déjà écrit ici une vulgarisation de ce concept (et j'ai même fait un visualisateur permettant de naviguer parmi les plus petits d'entre eux, quoiqu'il faille admettre qu'on n'y voit rien), donc mon but ici n'est pas de parler de mathématiques (même s'il est à prévoir que je n'y résisterai pas : j'invite alors le lecteur non intéressé par les questions techniques à ignorer ces passages, ou de lire en diagonale). [Ajout : pour des descriptions de quelques grands ordinaux et comment on peut les manipuler, je renvoie à ce billet ultérieur.] Ce que je veux présenter aujourd'hui est l'effet psychologique qu'ont sur moi les ordinaux — une sorte de psychanalyse de l'infini, si on veut, si ce n'est que je ne prétends pas vraiment être sérieux.

C'est une réalisation fascinante pour beaucoup d'enfants, lorsqu'ils apprennent à compter, qu'il n'y a pas de plus grand nombre : j'ai déjà écrit des choses à ce sujet, je ne vais pas revenir sur cette fascination du fait que dans le jeu qui peut dire le nombre le plus grand, quand quelqu'un dit N, quelqu'un d'autre peut dire N+1 (ou N×2, ou N², ce qui en langage d'enfants signifie transformer un zilliard en un zilliard de zilliards ; je note qu'une compréhension des opérations les plus importantes des fonctions arithmétiques « élémentaires » vient assez tôt). La grande-cousine de mon poussinet nous racontait récemment, en parlant de son petit-fils, que ce dernier était passionné par savoir qui compte le plus loin. Et j'ai le souvenir assez net d'avoir joué à ces jeux (qui peut dire le nombre le plus grand, et qui peut compter le plus loin) quand j'étais petit. Je pense que c'est un signe que les mathématiques peuvent exercer un véritable attrait sur les enfants — avant qu'on les rende chiantes pour eux en leur faisant faire des calculs pénibles et mécaniques à en dégoûter n'importe qui. Et je me souviens aussi d'avoir eu des discussions, quand je jouais à ces jeux, pour savoir si quelqu'un avait le droit de dire l'infini, et si l'infini plus un (ou l'infini plus l'infini ou l'infini d'infinis) était alors une réponse légitime, entre ceux qui pensaient que ça n'existait pas, ceux qui pensaient que c'était de toute façon pareil que l'infini, et ceux qui pensaient que c'était encore plus grand. (Et en un certain sens, tous ont raison : il y a différentes sortes d'infinis mathématiques selon l'usage qu'on veut en faire ; mais les ordinaux vont plutôt donner raison aux derniers, et pousser la logique.)

Mais il n'y a pas que cette fascination pour les nombres à laquelle je pense chez les petits enfants. Il y en a une autre, que je pourrais traduire comme l'idée que beaucoup de choses doivent être totalement ordonnées : l'autre jour, dans une brasserie où je déjeunais, j'entendis un enfant demander à son père qui était le plus fort entre Darth Vader (enfin, Dark Vador, vu qu'il parlait français) et je n'ai pas entendu le deuxième terme mais j'imagine volontiers que c'était un super-héros quelconque. Par coïncidence (coïncidence certes un peu limitée vue la sortie prochaine d'un film très attendu), j'ai entendu, le même jour dans la rue, un autre gamin poser exactement la même question entre Darth Vader et un camion lancé à toute allure contre lui (question bizarre, mais je crois bien que c'est ça). Je ne sais pas si cette croyance que la puissance des super-héros ou des choses est totalement ordonnée (par la relation gagne un combat contre ?) est enracinée dans le développement de notre cerveau ou si c'est culturel[#] (par exemple, à force de se faire entrendre dire que Foo est plus Zippyesque que Bar dans la publicité, dans la fiction, etc.), mais il est certain que, petits, nous avons un certain goût pour les relations d'ordre total et que ce goût ne disparaît pas totalement, en tout cas pas chez moi, quand nous découvrons qu'en fait le monde n'est pas si simple, et que deux choses ne sont pas toujours comparables.

[#] Spontanément, j'aurais plutôt tendance à imaginer que c'est culturel ; mais d'un autre côté, beaucoup du Mahābhārata, de ce que j'en ai retenu, est consacré à comparaison de personnages guerriers chaque fois plus puissants et moralement plus droits que tous ceux qui ont précédé, et à la vérification de ces comparaisons au cours de combats. Donc même si les auteurs épiques prennent ensuite plaisir à trahir les attentes qu'on peut avoir sur les résultats de ces comparaisons, et à introduire des ordres cycliques ou autrement paradoxaux, je soupçonne que la présupposition de l'ordre total se trouve bien dans la culture qui a engendré cette épopée.

Les ordinaux sont en quelque sorte la sublimation de ces jeux d'enfants : de deux ordinaux, il y a toujours un plus grand (plus fort, plus puissant, plus infini), d'ailleurs dans quasiment tous les cas qu'on rencontre, le plus grand est tellement monstrueusement plus grand que le plus petit, que le plus petit pourrait essentiellement être le nombre 1 ; et à chaque fois qu'on a un ensemble d'ordinaux, il y en a un qui est le plus petit de l'ensemble, et il y a un ordinal qui est plus grand que tous ceux qu'on s'est donné. Si on appelle ω la réponse que fait l'enfant qui dit l'infini en réponse aux milliards et milliards de milliards que les autres ont proposés (techniquement, donc, le plus petit ordinal supérieur à tous les ordinaux finis), alors il y aura des ordinaux ω+1 (l'infini plus un), ω·2 (l'infini plus l'infini) et ω² (l'infini d'infinis) et encore d'autres choses plus grandes.

Mais je ne vais pas expliquer mon obsession pour les ordinaux uniquement à partir de ces jeux d'enfants. Il y a aussi une élégance intellectuelle dans la manière dont les ordinaux sont construits qui ne peut pas ne pas susciter l'admiration : le même genre d'élégance qui fait qu'on comprend que compter à partir de zéro est la bonne façon de faire (et d'ailleurs les ordinaux commencent à zéro). J'ai tenté d'expliquer ça dans l'entrée de vulgarisation que je leur ai consacrée, mais je pourrais résumer la construction des ordinaux en :

À chaque fois qu'on a construit les ordinaux jusqu'à un certain point, on crée un nouvel ordinal qui vient juste après tous ceux-là.

Cette idée est tellement génialement simple qu'on a du mal à se rendre compte de sa puissance. Initialement, je ne sais pas du tout ce que c'est qu'un ordinal, donc je n'en ai aucun : selon le principe que je viens d'énoncer, je crée donc un premier ordinal qui vient après rien du tout (i.e., c'est le plus petit de tous les ordinaux), et que j'appelle 0. Je connais maintenant donc un seul ordinal, qui s'appelle 0, et selon le principe de construction que j'ai énoncé, j'en crée donc un autre qui vient juste après 0, et je l'appelle 1. À ce stade-là, je connais donc 0 et 1, et je crée donc un nouvel ordinal qui vient juste après eux, et je l'appelle 2. En procédant de la sorte, je crée des ordinaux correspondant aux entiers naturels (0, 1, 2, 3, 4, 5… 42, 43, 44… 1000… 10↑42…), qui n'ont déjà pas de fin. Mais contrairement à la fabrication des entiers naturels (en gros, je fabrique 0, puis si je fabrique n, alors je fabrique aussi n+1), le principe que j'ai énoncé ci-dessus continue de s'appliquer : maintenant que je connais les entiers naturels, je crée un nouvel ordinal qui vient juste après tous ceux-là et je l'appelle ω, ce qui donne à son tour naissance à ω+1 et ainsi de suite.

Ce principe de construction est merveilleux parce que c'est exactement le même qui s'applique à chaque fois, et qui ne cesse jamais de s'appliquer, et malgré cela il donne naissance à une richesse et une diversité extraordinaires, mais je vais y revenir. Et les choses se déroulent ex nihilo, à partir du rien (comme je viens de le dire, le principe marche dès le début : on n'a pas d'ordinaux pour commencer, donc on crée un ordinal 0, il n'y a pas de règle spéciale pour 0 comme il y a pour les entiers naturels). On comprend que Cantor, quand il a découvert le concept, ait été ébloui par ce sur quoi il venait de mettre le doigt. (Et on comprend aussi que cette idée ait suscité la réticence, pour ne pas dire l'hostilité, de la communauté mathématique de l'époque, selon un modèle assez bien résumé par ce webcomic ; David Hilbert a bien eu raison en parlant — au sujet de la théorie des ensembles, mais certainement des ordinaux et cardinaux en particulier — d'un paradis que Cantor a créé et dont il ne faut pas que les mathématiciens nous chassions nous-mêmes.) Mais la construction a été rendue encore plus éblouissante par von Neumann, qui a proposé (Zur Einführung der transfiniten Zahlen, Acta Litt. ac Scient. Univ. Hung. 1, 199–208, en 1923 — l'auteur était âgé de même pas vingt ans !) la réalisation suivante des ordinaux, maintenant complètement standard :

Un ordinal est l'ensemble des ordinaux plus petits que lui.

Ainsi 0 est l'ensemble vide (∅) puisqu'il n'y a pas d'ordinaux plus petits, tandis que 1 est l'ensemble {0} = {∅} ayant pour seul élément 0=∅ puisque ce dernier est le seul ordinal plus petit, et 2 est l'ensemble {0,1} = {∅,{∅}} ayant les éléments 0 et 1, et ainsi de suite ; et ω = {0,1,2,3,…} est l'ensemble des entiers naturels. Ce n'est pas terriblement important pour la nature des ordinaux qu'ils soient « réalisés » comme par la définition de von Neumann, mais cela ajoute encore énormément à l'élégance fascinante de la construction, et au sentiment qu'elle se fabrique toute seule à partir de rien.

Il est certain que cette idée ne pouvait que susciter lors de son introduction des réactions assez vives, centrées sur le caractère légitime ou non d'admettre l'infini (l'infini actuel, c'est-à-dire réalisé, et non seulement potentiel) comme objet mathématique légitime, et le fait que la construction soit littéralement ex nihilo n'améliorait certainement pas les choses. J'ai mentionné ci-dessus qu'elle a suscité une très vive opposition, y compris de la part de certains des esprits les plus brillants du monde mathématique, comme Poincaré ou Weyl (et pas seulement des mathématiciens : Wittgenstein était profondément hostile à la théorie des ensembles), tandis que d'autres, non moins brillants, comme Hilbert ou von Neumann, l'ont accueillie avec enthousiasme. Pour la défense des sceptiques et détracteurs de la théorie des ensembles en général, et des ordinaux en particulier, il faut dire que toutes sortes de paradoxes (celui de Burali-Forti qui invite à considérer l'ensemble de tous les ordinaux, je vais y revenir, et celui de Russell qui invite à considérer l'ensemble de tous les ensembles qui n'appartiennent pas à eux-mêmes) ont été découverts dans la première formulation, pré-axiomatique, de la théorie des ensembles, et ces paradoxes pouvaient s'interpréter comme une impossibilité absolue de traiter directement des quantités infinies sans arriver à des contradictions. De nos jours, tout le monde ou presque admet que la difficulté était simplement de codifier rigoureusement les règles par lesquelles on a le droit de manipuler des ensembles et des infinis, et qu'une fois ces règles bien fixées (comme elles l'ont été par Ernst Zermelo et Abraham Fraenkel), la contradiction disparaît sûrement. (« Sûrement », même si on sait depuis Gödel qu'on ne peut jamais être totalement certain que la contradiction n'existe pas, et à chaque fois qu'on ajoute un infini plus grand, on ne peut qu'en être moins certain.) Ce qui est certain, c'est que la théorie des ensembles, et notamment la notion d'ordinal, fait partie des mathématiques maintenant considérées comme standard, même si cela n'empêche pas les crackpots de se concentrer dessus et de chercher à contredire différents passages de ce qu'ils ne comprennent pas, et spécifiquement les résultats de Cantor (typiquement, l'argument diagonal, même si celui-ci ne parle pas vraiment d'ordinaux). Et s'il y a une contradiction dans la théorie des ensembles, elle ne doit pas être si évidente que ça, vu le plaisir avec lequel des raisonnements d'une sophistication incroyable sont menés dedans et ne sont jamais encore tombés dans une contradiction[#2].

[#2] Digression technique : Des gens savants peuvent ici me rétorquer : mais si, on est tombé dans une contradiction !, en postulant l'existence d'un cardinal Reinhardt. Je ne sais pas si ça mérite vraiment une réponse autre que oui, à force de chercher vraiment très fort à introduire des axiomes aussi forts que possible et aussi proches que possible d'une contradiction, on a fini par en trouver une (repassez quand vous aurez une contradiction dans ZFC), i.e., je ne sais pas si l'existence d'un cardinal Reinhardt a sérieusement été avancée comme « vraie ». Cela n'a pas empêché de très grands théoriciens des ensembles (je pense à Hugh Woodin) de se livrer à une analyse mathématique et philosophique approfondie de pourquoi cette contradiction et ce qu'elle signifie sur la taille de l'infini — voir par exemple l'article de Woodin intitulé The Realm of the Infinite — et voir d'ailleurs aussi les commentaires et explications de Peter Koellner sur ce texte. En tout état de cause, cette histoire va plutôt dans le sens que quand on trouve une contradiction dans la théorie des ensembles, elle n'est pas spécialement difficile à exhiber (la preuve de la contradiction de ZFC + « il existe un cardinal Reinhardt » a été trouvée rapidement, et elle n'est ni longue ni très subtile), donc j'ai tendance à croire que savoir jusqu'où on a pu aller trop loin donne plutôt confiance en la solidité de l'édifice. (Alternativement, on peut défendre la thèse que la contradiction ne vient pas du grand cardinal supposé mais de l'axiome du choix qui limiterait la taille possible de l'infini, comme l'axiome de constructibilité place la limite beaucoup plus bas — en-dessous d'un cardinal mesurable.)

Mais il est vrai que tous ces concepts fleurent bon la contradiction tant ils semblent jouer avec elle et tourner autour d'elle en l'évitant tout juste. C'est le cas de façon générale de la logique mathématique (le théorème de Gödel s'approche dangereusement du paradoxe de la phrase qui dit cette phrase est fausse, et nous invite à contempler attentivement la différence entre vérité et démontrabilité — j'ai écrit de la vulgarisation à ce sujet ici), mais quand on ajoute les infinis dans l'histoire et la difficulté à se les imaginer intuitivement, on comprend que certains ne se sentent pas du tout à l'aise. Pour en revenir à mon propos initial, je pense que c'est justement pour cela que, une fois admis que le sujet n'est pas contradictoire, on le trouve d'autant plus stimulant. Arriver à suivre certains raisonnements en logique ou théorie des ensembles, bien plus que dans d'autres branches des mathématiques, peut être comparable à un roman policier où tout le monde réussit à tromper le détective tout en disant la plus stricte vérité.

Une conséquence de la construction des ordinaux (que ce soit celle de Cantor ou celle, plus précise, de von Neumann), est qu'on ne peut jamais en contempler la totalité : parler de la totalité des ordinaux contredit immédiatement le principe même de construction des ordinaux, puisque cette totalité devrait s'exposer immédiatement à définir un nouvel ordinal plus grand qu'eux (dans la construction de von Neumann : l'ensemble de tous les ordinaux), ce qui définit un nouvel ordinal, contredisant la totalité de la totalité supposée ! C'est là essentiellement le paradoxe de Burali-Forti. La résolution moderne technique est que les ordinaux ne forment en effet pas un ensemble, ils ne sont pas regroupables en ensemble — si on veut donner un nom à tous les ordinaux, ce sera une classe — et la construction des ordinaux ne s'applique qu'aux ensembles. Mais le contenu intuitif de cette explication technique est le suivant : on ne peut en effet jamais contempler la totalité des ordinaux, il faut donc décider d'arrêter de les construire à un certain moment (mais il vaut mieux choisir un moment raisonnablement « robuste », et c'est essentiellement cela que permettent les axiomes de la théorie des ensembles), après quoi l'ordinal qui vient immédiatement après s'appelle la classe des ordinaux et on fait semblant que ce n'est pas un ordinal, pas plus que ceux qui viendraient après ; des propriétés plus ou moins compliquées, ajoutées sous forme d'axiomes, permettent de décider jusqu'où on impose d'aller dans la construction des ordinaux. Bref, on a effectivement affaire à quelque chose qui n'est jamais achevé, qui ne peut jamais l'être par sa définition même, il faut juste décider à quel moment on a quelque chose de « suffisamment achevé », i.e., robuste, pour ce qu'on veut en faire. Là aussi, il s'agit d'une perspective extrêmement dérangeante, et donc d'autant plus fascinante quand on arrive à l'accepter mentalement : quand on dit les ordinaux, il y a toujours quelque chose d'inachevé dans l'histoire. Et en fait, quand on examine de plus près la logique, on se rend compte, et je vais essayer d'en dire un mot plus bas même si c'est un peu complexe, que cet « inachèvement » ne concerne pas que la notion de tous les ordinaux mais même des ordinaux bien précis, disons ω₁ ou même ωCK (voire ω ?), ce qui rend tout le panorama encore plus mystérieux.

Dans ces conditions, il ne me surprend pas que Cantor soit devenu mystique. Une rumeur persistante veut qu'il ait été fou, ce qui va certainement dans le sens de démolir ad hominem ses théories : la vérité est surtout qu'il a souffert de dépression, notamment à cause du rejet de ses idées. Mais il est vrai qu'il a été habité d'idées tout à fait mystiques, comme l'affirmation que c'était Dieu qui lui avait inspiré l'idée des nombres transfinis, et que leur existence (actuelle et non simplement potentielle) apportait une lumière sur l'existence ou sur la pensée de Dieu. Et il a écrit plusieurs lettres à des prêtres catholiques, dont le pape Léon XIII, au sujet de théologie et de rapports entre théologie et mathématiques. Même Hilbert utilise le terme de paradis (Paradies) pour décrire le monde de la théorie des ensembles ouvert par Cantor, avec ses infinis et ses raisonnements non-constructifs, et ce n'est certainement pas un hasard. Moi-même je ne peux que plaider coupable en ce qui concerne le mysticisme (même si, je l'ai déjà expliqué, pour moi le mysticisme est avant tout intéressant artistiquement, par exemple comme prémisse pour une œuvre littéraire) : ma fascination pour les ordinaux a indiscutablement une origine à peu près mystique, et quand je propose une interprétation eschatologique du paradis cantorien (encore une fois, la Théorie de la Totalité Transfinie de Turing), c'est du mysticisme à 0.02¤ (voire à (1/ω).

Mais c'est là que je veux, pour expliquer le mécanisme psychologique qui joue, rejoindre le mot que j'ai utilisé plus haut : grandeur. J'ai déjà dit que je fais souvent des rêves de vastes labyrinthes à explorer et j'ai déjà comparé les mathématiques à un palais magnifique et extraordinairement beau en même temps que labyrinthique : si la symétrie est ce qui fait la beauté du palais, la grandeur joue beaucoup pour qu'on ait envie de l'explorer. Les ordinaux sont le terrain de jeu ultime pour ce qui est de la grandeur, et comme un gosse qui découvre un nouveau terrain d'aventure, j'ai envie de m'y lancer.

↑Entry #2341 [older| permalink|newer] / ↑Entrée #2341 [précédente| permalien|suivante] ↑

↓Entry #2340 [older| permalink|newer] / ↓Entrée #2340 [précédente| permalien|suivante] ↓

(samedi)

Le cérémonial de la thèse (bis)

J'ai assisté pour la première fois à une soutenance de thèse en lettres. (J'écris lettres au sens large, i.e., par opposition aux sciences : en l'occurrence, il s'agissait d'histoire — et probablement d'archéologie ou d'histoire de l'art, je ne suis pas sûr de la classification exacte, mais le titre était Homère dans la culture romaine entre la fin de la République et la fin de la dynastie julio-claudienne. En fait, je me rends compte, en écrivant ça, que je ne sais même pas dans quelle mesure les doctorats sont officiellement classifiés et étiquetés par disciplines, et le cas échéant quelle est la liste des disciplines possibles : cela ne semble pas suivre, par exemple, la liste des sections du Conseil national des Universités puisque je ne crois pas avoir vu de distinction entre doctorats de mathématiques et doctorats de mathématiques appliquées, et il me semble que la plupart des matheux seraient hostiles à ce qu'il soit pratiqué une telle distinction.)

Toujours est-il que ce fut pour moi (et pour les autres amis de la doctorante venus du milieu universitaire scientifique) de remarquer les différences dans le cérémonial de la thèse entre sciences et lettres — ou du moins, entre les disciplines que j'ai pu observer de part et d'autre.

En sciences, le déroulement d'une thèse en France est à peu près le suivant. L'impétrant fait face au public, debout, et les membres du jury, généralement en nombre autour de 6, prennent place au premier rang face à lui (donc tournés dans le même sens que le public). Le président du jury invite l'impétrant à présenter ses travaux en une quarantaine de minutes. L'exposé porte généralement sur un sous-ensemble des travaux de thèse, afin de pouvoir l'expliquer plus en profondeur (mais il arrive qu'on parle de tout). Il s'appuie le plus souvent sur des transparents (transparents voulant ici en fait dire des pages de PDF affichées par un vidéoprojecteur, mais les véritables transparents projetés par rétroprojecteur n'ont peut-être pas encore totalement disparu) ; en mathématiques, cependant, on préfère encore le tableau noir. Parfois, une courte pause a lieu à la fin de cet exposé, afin que les membres de l'auditoire qui le veulent puissent s'enfuir. • Ensuite viennent les questions du jury : c'est là qu'il y a le plus de différences entre disciplines scientifiques, et j'ai assisté à des soutenances en maths où le jury n'a pas trouvé utile de poser de questions (peut-être aussi était-ce parce que le président du jury était un peu « vieille école »). Mais généralement parlant, chaque membre du jury se croit obligé de poser une question : le président leur donne la parole tour à tour, en commençant typiquement par ceux qui viennent de loin ou par les rapporteurs, et en finissant par le directeur de thèse (qui le plus souvent ne pose pas de vraie question et se contente de dire qu'il a apprécié de travailler avec ce doctorant) et par lui-même. Selon les disciplines, ces questions peuvent être de la pure forme, qu'elles soient complètement cadeau comme que comptez-vous faire maintenant ?, quelles nouvelles directions de recherche voyez-vous après ce travail ?, duquel de vos résultats êtes-vous le plus fier ?, ou posées juste pour dire quelque chose comme comment compareriez-vous votre approche avec celle de Duschmock ?, finalement, après vos travaux, quelle approche conseilleriez-vous pour frobniquer les foobars ? ; ou au contraire elles peuvent être très pointues, voire presque agressives. Les questions durent quelque part entre une demi-heure (voire moins) et une heure et demie. • Puis le jury se retire pour délibérer, c'est-à-dire pour échanger les derniers potins et se rappeler qu'ils doivent écrire un rapport de soutenance. Ce rapport est presque toujours écrit dans un langage très élogieux, même si des petites phrases cachées peuvent, sous une apparence bénigne, trahir le fait que le jury n'était pas satisfait du travail de thèse ou de la soutenance [voir aussi cette entrée récente] : par exemple, si on écrit que le candidat a montré son aptitude à l'enseignement, cela signifie en creux qu'il fera un mauvais chercheur. Après un temps généralement de l'ordre d'une demi-heure ou trois quarts d'heure, le jury revient, le public se lève (pas toujours), le président du jury lit les phrases essentielles du rapport et conclut par quelque chose comme pour ces raisons, nous vous décernons le grade de docteur de foobarologie de l'Université de Paris XLII avec la mention très honorable et nous vous félicitons (beaucoup d'écoles doctorales ne permettent pas de décerner les félicitations du jury, donc à la place, le jury joue sur la sémantique et félicite à titre privé l'impétrant). Enfin, le nouveau lauréat serre la main des membres du jury, dit quelques mots de remerciement et invite tout le monde à passer dans une salle voisine pour un pot bien mérité.

Voici ce que j'ai pu discerner comme différences dans la soutenance, en lettres donc, à laquelle j'ai assisté cet après-midi. Je pourrais commencer, en fait, par remarquer qu'elle a eu lieu un samedi, ce qui serait, je crois, hautement inhabituel en sciences. Mais la raison ne tient peut-être qu'indirectement à la discipline : la doctorante est enseignante dans le secondaire puisque sa thèse a duré bien plus longtemps que les 3 ans réglementaires et financés mais qui, de ce que je comprends, sont presque systématiquement contournés en lettres (après, je ne peux pas jeter la pierre : ma propre thèse a duré environ 5 ans) ; du coup, il lui était sans doute plus difficile de se dégager un autre jour. • Le jury était assis face au public, et l'impétrante face à eux, donc dos au public, également assise. Elle a été invitée par le président du jury à présenter ses travaux, ce qui a duré environ 25 minutes : cet exposé a été fait oralement, sans aucun support visuel ni écrit, et consistait en fait en la lecture d'un résumé, ou plutôt d'un plan modérément détaillé, du mémoire de thèse (lequel fait environ 500 pages, plus une centaine de pages supplémentaire d'annexes). • Ensuite, chaque membre du jury a pris la parole sur l'invitation du président, en commençant par le directeur de thèse et les rapporteurs et en finissant par le président du jury lui-même. Chacun d'eux a parlé environ 25–30 minutes, et comme ils étaient cinq, on en conclut que la soutenance a duré environ trois heures — même s'il y a eu une pause d'un quart d'heure au milieu. À part que le directeur de thèse a commencé par résumer brièvement la carrière de la doctorante, chacune de ces interventions a pris la forme d'un résumé de la thèse (on a donc écouté six résumés différents de la même thèse !) suivi d'une critique sur tel ou tel aspect du travail. • Et, de ce que j'ai pu en juger, les critiques avaient essentiellement toutes la forme votre travail était très bon, sauf dans <le domaine dont je suis spécialiste>, où il aurait dû être plus approfondi, et vous auriez dû faire un plus grand effort de bibliographie, par exemple pour citer Machin. Il y avait bien sûr des différences : un membre du jury a été beaucoup plus sévère que les autres dans son appréciation (votre travail a été trop ambitieux et du coup beaucoup trop superficiel) tandis qu'un autre, qui d'ailleurs n'était pas français, a été très élogieux (votre travail représente une synthèse admirable et fait véritablement avancer notre connaissance) ; et aussi des rapprochements : tous ont apprécié le style de la rédaction, tous ont souligné l'excellente qualité de la partie 3 du travail, et tous ont trouvé les deux premiers chapitres inférieurs au reste. Mais le gros des reproches était quand même de ne pas avoir consulté l'ouvrage de Truc, de ne pas avoir cité Machin ou de ne pas avoir mentionné Bidule. À chaque fois, la réponse de l'impétrante était de remercier pour les remarques et de promettre d'en tenir compte (je n'ai pas compris si en tenir compte signifie que la version officiellement déposée du manuscrit sera modifiée ou si ce sera une version publiée ultérieurement de façon privée). • Enfin, après trois heures de soutenance, le jury s'est retiré pour délibérer, ce qui a pris encore une heure. Mais le résultat de cette délibération était anticlimactique [je ne sais pas dire ça en bon français] au possible : le président a juste dit à l'impétrante qu'on lui décernait le titre (ou le grade ?) de docteur de l'Université de Paris Sorbonne avec la mention très honorable et les félicitations du jury — si rapport en langage codé il y a eu, il ne nous en a pas été donné lecture. (Pour finir, signalons que le pot était à la hauteur des quatre heures d'attente.)

J'aurais pu commencer mon descriptif en amont de la soutenance elle-même : normalement, en sciences, les rapporteurs ne devraient pas avoir de reproches majeurs à faire lors de la soutenance (même si je répète que j'ai donné un contre-exemple), puisque cette soutenance est autorisée sur la base de leurs rapports contre un manuscrit préliminaire, et le manuscrit finalement soutenu doit tenir compte de toutes leurs remarques substantielles. Ici, apparemment, la doctorante n'avait eu le temps que d'écrire quelques errata mais pas de modifier vraiment le manuscrit avant la soutenance.

Toutes ces différences de forme reflètent certainement des différences plus profondes entre la conception même du travail doctoral en sciences et en lettres. Je ne vais pas répéter ce qu'a expliqué mon ami David Monniaux (notamment ici et ) sur le fait que les littéraires ont tendance à considérer qu'un travail de 3 ans est beaucoup trop court pour être véritablement approfondi, et je pense que les remarques du jury sur la bibliographie insuffisante dans le travail dont j'ai assisté à la soutenance sont symptomatiques de cette vision — ce n'est jamais assez complet, jamais assez exhaustif, jamais assez approfondi. Je ne saurais dire si cette différence d'approche est inextricablement liée à la discipline (on pourrait dire qu'en sciences, grossièrement, on construit une démonstration, une théorie bien encadrée, une expérience, tandis qu'en lettres, tout aussi grossièrement, on documente, on structure, on organise : le premier type d'activité se prête mieux à une délimitation finie que le second ; mais tout ceci est peut-être complètement bidon) ; ou s'il s'agit de différences plutôt sociologiques (les remarques faites par le membre britannique du jury étaient beaucoup plus valorisantes que les autres, c'est sans doute le signe d'une différence à ce niveau).

Il serait certainement intéressant de faire une thèse de sociologie sur le cérémonial des soutenances de thèse et la manière dont il varie selon les disciplines, selon les pays (je sais par exemple qu'aux Pays-Bas la tradition est que la soutenance est interrompue au moment où le temps est écoulé — à la seconde près — par quelqu'un qui entre pour mettre fin aux festivités ; dans d'autres pays, il n'y a pas vraiment de soutenance, ou bien il y en a deux, une substantielle devant des chercheurs et une de pure forme devant le public), et selon les époques (je suppose qu'une soutenance de thèse, même en mathématiques et en France, ne prenait pas du tout la même forme en 1815, en 1865, en 1915 et en 1965 que maintenant). Et bien sûr, le cérémonial de la soutenance d'une telle thèse serait lui-même intéressant à observer, parce que tout le monde se sentirait à la fois sujet et objet d'étude !

↑Entry #2340 [older| permalink|newer] / ↑Entrée #2340 [précédente| permalien|suivante] ↑

Continue to older entries. / Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2024 Jan 2024 Feb 2024 Mar 2024
2023 Jan 2023 Feb 2023 Mar 2023 Apr 2023 May 2023 Jun 2023 Jul 2023 Aug 2023 Sep 2023 Oct 2023 Nov 2023 Dec 2023
2022 Jan 2022 Feb 2022 Mar 2022 Apr 2022 May 2022 Jun 2022 Jul 2022 Aug 2022 Sep 2022 Oct 2022 Nov 2022 Dec 2022
2021 Jan 2021 Feb 2021 Mar 2021 Apr 2021 May 2021 Jun 2021 Jul 2021 Aug 2021 Sep 2021 Oct 2021 Nov 2021 Dec 2021
2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020 May 2020 Jun 2020 Jul 2020 Aug 2020 Sep 2020 Oct 2020 Nov 2020 Dec 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]