David Madore's WebLog: 2025-04

Vous êtes sur le blog de David Madore, qui, comme le reste de ce site web, parle de tout et de n'importe quoi (surtout de n'importe quoi, en fait), des maths à la moto et ma vie quotidienne, en passant par les langues, la politique, la philo de comptoir, la géographie, et beaucoup de râleries sur le fait que les ordinateurs ne marchent pas, ainsi que d'occasionnels rappels du fait que je préfère les garçons, et des petites fictions volontairement fragmentaires que je publie sous le nom collectif de fragments littéraires gratuits. • Ce blog eut été bilingue à ses débuts (certaines entrées étaient en anglais, d'autres en français, et quelques unes traduites dans les deux langues) ; il est maintenant presque exclusivement en français, mais je ne m'interdis pas d'écrire en anglais à l'occasion. • Pour naviguer, sachez que les entrées sont listées par ordre chronologique inverse (i.e., la plus récente est en haut). Cette page-ci rassemble les entrées publiées en avril 2025 : il y a aussi un tableau par mois à la fin de cette page, et un index de toutes les entrées. Certaines de mes entrées sont rangées dans une ou plusieurs « catégories » (indiqués à la fin de l'entrée elle-même), mais ce système de rangement n'est pas très cohérent. Le permalien de chaque entrée est dans la date, et il est aussi rappelé avant et après le texte de l'entrée elle-même.

You are on David Madore's blog which, like the rest of this web site, is about everything and anything (mostly anything, really), from math to motorcycling and my daily life, but also languages, politics, amateur(ish) philosophy, geography, lots of ranting about the fact that computers don't work, occasional reminders of the fact that I prefer men, and some voluntarily fragmentary fictions that I publish under the collective name of gratuitous literary fragments. • This blog used to be bilingual at its beginning (some entries were in English, others in French, and a few translated in both languages); it is now almost exclusively in French, but I'm not ruling out writing English blog entries in the future. • To navigate, note that the entries are listed in reverse chronological order (i.e., the most recent is on top). This page lists the entries published in April 2025: there is also a table of months at the end of this page, and an index of all entries. Some entries are classified into one or more “categories” (indicated at the end of the entry itself), but this organization isn't very coherent. The permalink of each entry is in its date, and it is also reproduced before and after the text of the entry itself.

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]

Entries published in April 2025 / Entrées publiées en avril 2025:

↓Entry #2822 [older| permalink|newer] / ↓Entrée #2822 [précédente| permalien|suivante] ↓

(mercredi)

Quelques nouvelles réflexions sur les IA et leur utilisation

Il y a deux ans j'avais écrit ce billet au sujet de ChatGPT dont la fièvre venait d'emparer le monde en tant que première IA conversationnelle disponible au grand public, et j'étais parti dans des réflexions assez décousues portant à la fois sur l'histoire de la recherche en IA, la question philosophique de si les machines peuvent penser et des menaces que cela représente, et aussi les limitations de l'état (alors) actuel de ChatGPT. Mais j'avais notamment écrit : au moins à court terme […] je suis beaucoup plus inquiet de ce que nous ferons des IA que de ce que les IA feront de nous. Deux ans après, le soufflé des IA étant, je l'espère, un peu retombé (au moins par rapport à certaines illusions qu'on pouvait avoir formées), je voudrais tenter de nouvelles réflexions, tout aussi décousues[#], mais portant peut-être un peu plus sur l'usage que nous faisons des IA que sur les IA elles-mêmes.

[#] Décousues parce que (un peu comme j'explique plus bas que les IA fonctionnent elles-mêmes) je n'ai décidé à l'avance ni de plan ni de fil directeur à ce billet, j'ai juste écrit les idées qui me venaient à l'esprit sur le thème général des IA. Aussi parce que (comme ça m'arrive souvent) son écriture s'est enlisée quand je me suis mis à en avoir marre.

Je précise que je ne parle ici essentiellement, sauf brève allusion occasionnelle, que des IA textuelles, et pas des autres sortes (notamment celles qui produisent ou manipulent des images, mais il y a évidemment encore d'autres usages des réseaux de neurones).

Et encore une fois, il faut que je préface tout ce qui suit en disant que je ne suis pas particulièrement expert. J'ai quelques idées sur la manière dont les IA, au moins celles génératrices de texte, fonctionnent (disons que je saurais, en principe, en écrire une simple), j'ai lu une poignée d'articles de recherche[#2] sur des questions diverses autour de leur fonctionnement, je suis assurément capable de les comprendre (ce n'est pas comme si c'était compliqué), j'ai discuté avec des gens qui sont vraiment experts du sujet (et/ou qui l'enseignent), mais je ne peux pas me dire plus compétent que ça.

[#2] Assez pour remarquer une très nette tendance à la dégradation scientifique suite au hype autour du thème IA : comme la covid l'avait déjà montrée, quand tout le monde veut publier sur le même sujet, ça donne de la bouillie scientifique, et il n'y a pas besoin d'être expert du domaine pour remarquer qu'il y a plein de publis qui sont de la merde produite par des gens qui veulent mettre de l'IA partout.

Je ne compte donc pas expliquer comment, mathématiquement ou informatiquement, les IA actuelles fonctionnent. Si vous voulez des explications à ce sujet, pour faire le service minimal je peux me contenter de recopier ici un ajout que j'avais fait au billet d'il y a deux ans, avec quelques liens intéressants :

Pour ceux qui veulent en savoir plus sur le fonctionnement interne des transformeurs (et des réseaux neuronaux, pour commencer) du point de vue mathématique, je recommande cette série de vidéos par l'excellent vulgarisateur 3Blue1Brown sur le sujet : 1, 2, 3, 4, 5, 6, 7 et résumé (les 1–4 sont sur les réseaux de neurones en général, les 5–7 sur les transformeurs en particulier, et on peut tout à fait commencer par la 5 ; la dernière vidéo est un résumé de l'ensemble, et on peut aussi commencer par elle). ❧ Je peux aussi signaler l'article Formal Algorithms for Transformers de Phuong et Hutter qui a le mérite de donner du pseudo-code précis qu'il n'est pas évident de trouver ailleurs.

[Autres liens :] cette vidéo YouTube n'est pas mal (ou celle-ci si vous voulez juste un bref aperçu), et voici l'article de 2017 qui a introduit l'architecture des transformeurs, dont voici le principal schéma récapitulatif.

Ajout () : Ce billet du blog de Matoo, qui fait lui-même des liens vers divers autres textes intéressants, apporte son propre éclairage sur des questions autour des IA, et je le recommande aussi.

☞ L'IA servie à toutes les sauces vs. le Jihad butlérien

Je dis plus haut que le soufflé est un peu retombé, ou en tout cas, je voudrais le croire. Comme d'habitude, quand une technologie semble trop belle pour être vraie, c'est que c'est le cas. On commence à y voir un peu plus clair dans les choses pour lesquelles l'IA (dans son état actuel) peut être utile, et finalement elles ne sont pas si nombreuses que ça : le caractère extrêmement impressionnant de ChatGPT en 2023 s'est avéré être surtout un tour de prestidigitation, et si je n'irais pas jusqu'à dire que ça ne sert à rien, ça ne sert pas à grand-chose. La meilleure preuve est l'insistance avec laquelle on essaie de nous vendre de l'IA dans tout, à nous les enfoncer dans la gorge : si elles étaient vraiment utiles, il n'y aurait pas tellement besoin de nous supplier d'utiliser un produit gratuit. (Elon Musk, par exemple, a mis des boutons Grok partout dans Twitter, parce qu'il a vraiment envie qu'on s'en serve. Et s'il a tellement envie qu'on s'en serve, c'est que c'est surtout lui que ça sert[#3].)

[#3] Comme le dit un adage célèbre au sujet du capitalisme : quand c'est gratuit, c'est que c'est vous qui êtes le produit.

Mais a contrario, les luddites naturolâtres qui essaient de mener contre tout usage de l'IA une sorte de croisade rappelant le « Jihad butlérien » de Dune sont à peu près aussi pénibles que les techbros qui veulent en mettre partout. Même s'il y a indiscutablement un débat sérieux à avoir sur, par exemple, la consommation énergétique des IA ou l'impact sur les métiers artistiques des IA génératrices d'images, les deux camps[#4] pèchent par une importance exagérée donnée à une technologie qui est, finalement, dans son état actuel, surtout assez médiocre et limitée.

[#4] Comme j'aime bien rappeler, souvent dans un débat enflammé entre deux « camps » opposés, en fait les deux camps sont des alliés objectifs parce que même s'ils ont des positions opposées (ou qui prétendent l'être…) sur le fond d'une question, ils ont la même position sur la méta-question de savoir si cette question est importante pour la société, et chaque camp nourrit l'autre en insistant sur cette importance. L'exemple le plus frappant, c'est que les sécuritaristes qui veulent imposer de la surveillance policière partout au prétexte de notre sécurité sont les alliés des terroristes qui leur fournissent le prétexte dont ils tirent leur pouvoir. Mais il y a plein d'autres exemples : on peut appliquer cette analyse à beaucoup de guerres civiles (où les deux camps vivent surtout de leur capacité à… diviser la population en deux camps), pendant la pandémie de covid les cinglés du zéro covid étaient les alliés des cinglés complotistes antivax, et ainsi de suite. Je pense que dans beaucoup de cas s'agissant d'une technologie émergente et d'importance largement surfaite, notamment pour ce qui est des IA, le conflit de façade entre les technosolutionnistes qui veulent mettre cette technologie partout et les luddistes qui veulent la voir disparaître de la face de la Terre, est en réalité une alliance dans l'intérêt exagéré porté à cette question.

☞ A-t-on fait des progrès en IA depuis 1950 ?

Je n'irais pas tout à fait jusqu'à dire qu'il n'y a eu aucun progrès en intelligence artificielle depuis le texte fondateur de Turing en 1950, ou même depuis 2006 quand j'ai écrit ce vieux billet, voire depuis 2023. On a maintenant, disons, des trucs qui font bien illusion. Mais je ne sais pas si ces progrès techniques aient été accompagnés du moindre progrès théorique. Je dirais que le principal progrès que nous ayons fait c'est que nous nous sommes rendu compte que nous n'avions aucune p🤔tain d'idée de ce que la discipline cherche à faire, de ce que c'est que l'intelligence, et encore moins de comment elle fonctionne.

☞ En fait, le test de Turing est une mauvaise définition de l'intelligence

Turing avait proposé un test (qui porte maintenant son nom) pour détecter de façon pragmatique si une machine pense : en gros, est-ce qu'elle arrive à se faire passer pour un humain dans un jeu d'imitation. Le but de ce critère était de s'affranchir de considérations philosophiques vaseuses sur ce que penser veut dire ; à la place, on a un but concret : réussir ce test. (Pour être bien clair, j'étais moi-même persuadé, jusque vers 2023, que le fait de réussir le test de Turing était une définition satisfaisante de l'intelligence.) Je ne sais pas dans quelle mesure on y arrive maintenant (il y a toutes sortes de variations[#5] dans ce que signifie administrer le test de Turing), mais clairement on peut dire qu'il y a eu un progrès dans cette direction. Malheureusement, je suis maintenant aussi persuadé que le test n'était finalement pas une bonne définition de l'intelligence : c'est juste une cheap plastic imitation de l'intelligence, et ça ne nous avance ni de façon théorique ni de façon pratique pour comprendre ce que c'est que l'intelligence ou comment elle fonctionne.

[#5] Notamment : est-ce que l'examinateur est un expert en intelligence artificielle ou est-ce que c'est l'homme de la rue ? Et comment a été choisi le candidat humain ?

En fait, quand on y pense, ç'aurait dû être évident que c'était de l'anthropomorphisme assez naïf d'identifier « intelligence » à des compétences en matière de langage. Il est évident que des animaux sont au moins modérément intelligents sans forcément avoir de grandes capacités de communication, et certainement de communication en langage humain. Il y a d'ailleurs aussi des humains qui, pour toutes sortes de raisons (p.ex., parce qu'ils sont neuroatypiques) ne réussiraient pas un test de Turing, et ne sont pas forcément moins intelligents que vous ou moi (enfin, vous je ne sais pas, mais moi certainement). C'est d'ailleurs sans doute une preuve non seulement d'anthropomorphisme mais d'une culture humaine particulière qui identifie le fait de bien penser au fait de bien écrire ou de bien parler. (Mes lecteurs habitués à déceler la vacuité de ma pensée sous mes tournures ampoulées ne se laisseront pas avoir par un subterfuge aussi grossier. 😉)

Alors oui, on peut m'accuser de faire un sophisme du vrai Écossais : maintenant que nous avons des machines qui passent plus ou moins le test de Turing, je prétends que, finalement, ce n'était pas une bonne définition de l'intelligence. Mais le test de Turing n'était pas censé être une définition de l'intelligence, juste un critère proche et plus facile à tester. (Turing écrit : Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words.) Ce n'est pas spécialement inhabituel, quand on est face à un concept qu'on ne sait pas définir proprement[#6], de tenter des définitions empiriques ou approximatives, quitte à les rejeter ou les améliorer plus tard. Or clairement, les IA actuelles ne sont pas intelligentes en un sens raisonnable du terme[#7], et je ne suis même pas persuadé qu'elles aient fait le moindre progrès dans cette direction, en tout cas pas vers une intelligence « générale ».

[#6] Un autre exemple serait celui de la vie. Pour ma part, j'aime bien la définition avancée par Jacques Monod dans le Le Hasard et la Nécessité, qui propose les trois propriétés suivantes pour définir la vie : la téléonomie — c'est-à-dire l'organisation suivant l'apparence d'un projet ou d'un but comme caractéristique émergente —, la morphogenèse autonome que constitue la création de structures internes, et l'invariance reproductive sur laquelle peut se construire le mécanisme darwinien d'évolution par mutations aléatoires et sélection des plus aptes. Mais je n'exclus nullement que la découverte d'une forme de vie extra-terrestre qui ne répondrait pas aux critères qu'on aurait adoptés et qui serait quand même « évidemment vivante », ou au contraire, d'une forme de non-vie qui répondrait aux critères, obligerait à repenser la définition. Même en mathématiques, il peut arriver qu'on découvre qu'une définition est « fausse » (quand elle est vérifiée par quelque chose qu'on ne voulait « évidemment pas » mettre sous la définition, ou inversement).

[#7] Un indice dans ce sens est qu'on a tenté de les rendre intelligentes en leur ajoutant la capacité de produire une sorte de flux de tokens interne (au lieu que l'IA réponde directement à la question, elle produit une sorte de « réflexion interne » qu'elle utilise pour générer sa réponse ; c'est ce que fait ChatGPT quand on active le mode Reason, ou bien Grok avec le mode Think, et je suppose qu'ils sont plein à avoir ça ; Grok laisse d'ailleurs visualiser ce flux de réflexion interne, et il faut reconnaître que c'est rigolo à voir). C'est une piste raisonnable vu qu'il est évidemment absurde de suggérer qu'on peut répondre intelligemment à n'importe quelle question en utilisant un temps de calcul constant par mot, comme le fait le modèle de base. Sauf qu'en fait l'amélioration apportée par ce gadget est vraiment marginale : si on n'est pas intelligent en générant un mot, on ne le devient pas magiquement en en générant plein in imo capite.

☞ Peut-être que le mot d'intelligence n'a pas de sens

Maintenant il faut surtout reconnaître qu'on n'a aucune idée de ce qu'est l'intelligence (ou l'intelligence « générale »), et on en a encore moins idée maintenant qu'en 1950 (enfin, on se rend mieux compte qu'on n'en a aucune idée). Peut-être simplement qu'il faut accepter que c'est un mot qui ne veut juste rien dire : il essaie de regrouper sous un même chapeau la capacité à résoudre des problèmes qui n'ont aucun rapport les uns avec les autres, capacité de résolution qui s'avère être un peu corrélée chez les humains, mais c'est peut-être une spécificité du développement du cerveau humain, voire une spécificité de notre culture[#8], sans que ces choses aient rien à voir entre elles. L'idée qu'il y ait une sorte d'Heuristique Ultime (l'intelligence générale) qui résout n'importe quelle sorte de problèmes est peut-être fondamentalement naïve, une illusion basée sur nos propres capacités. Je ne sais pas. Mais en tout cas, maintenant qu'on a des trucs inintelligents qui imitent assez bien l'intelligence, on sait que c'est plus compliqué que ce qu'on croyait.

[#8] Ça peut être aussi bête que : les gens qui ont du temps à perdre à s'entraîner à résoudre le problème X ont aussi du temps à perdre à s'entraîner à résoudre le problème Y. Manifestement ça ne dit pas grand-chose sur une corrélation profonde entre la résolution de ces deux problèmes.

C'est un peu con, de se rendre compte qu'on est en train d'essayer de faire un truc (atteindre l'intelligence générale) qui n'a peut-être même pas de sens. L'intelligence artificielle, c'est un peu comme si on avait toute une branche de la science qui prétendait essayer de donner une âme aux ordinateurs parce que personne ne s'était vraiment préoccupé de savoir ce que ça signifie, au juste, une âme, ni si ça existe vraiment.

☞ On n'a aucune idée de pourquoi et comment nos IA fonctionnent

Mais l'autre déception, c'est que même dans la mesure où on admet que les IA actuelles sont quand même intelligentes, et dans la mesure où on admet qu'elles servent à quelque chose, on ne comprend pas pour autant comment elles fonctionnent ! Ce sont juste des gigantesques tableaux de nombres (les poids), fabriqués par un processus d'entraînement à partir de quantités énormes de texte, le processus d'entraînement tendant à faire évoluer les poids de manière à favoriser la reproduction du texte d'entraînement, mais in fine on n'a aucune idée de pourquoi ça fonctionne. L'intelligence (ou la part d'intelligence qu'ont nos IA) est un phénomène émergent, mais même en le voyant se produire nous ne comprenons pas pour autant comment il se produit.

↑Entry #2822 [older| permalink|newer] / ↑Entrée #2822 [précédente| permalien|suivante] ↑

↓Entry #2821 [older| permalink|newer] / ↓Entrée #2821 [précédente| permalien|suivante] ↓

(mardi)

La grave question de la ponctuation après les formules mathématiques

Il y a toutes sortes de sujets frivoles dans ma TOBLOG-list qui attendent que je trouve le temps de les traiter, mais en voici un de la plus grave importance parce qu'il est question de typographie et de logique, et dont je dois donc m'emparer sur-le-champ :

Que faut-il faire de la ponctuation après les formules mathématiques centrées ?

Par exemple, si j'écris :

On a ainsi démontré l'égalité fondamentale :

2+2 = 4

— et que ceci finit une section du texte, est-ce que je devrais mettre un point final après le 4 (pour finir la phrase commencée par on a ainsi démontré) ? Et si oui, à quel endroit ?

C'est, un peu comme la question de savoir si 0 est un entier naturel, un des points de désaccord importants entre mathématiciens, susceptibles de dégénérer en flamewar. (Comme l'écrit un commentaire sur MathOverflow, it turns out that one can start an internet flamewar merely by mentioning that one can start an internet flamewar by asking whether zero is a natural number, et je suis en train de constater qu'il en va de même pour la ponctuation en fin de formule.)

Parmi les options possibles pour cette ponctuation, on peut envisager de : la supprimer purement et simplement, la mettre après la fin de la formule (quitte à ergoter sur le centrage, par exemple peut-être qu'on centrera la formule hors ponctuation et qu'on ajoutera la ponctuation derrière, éventuellement séparée par plus ou moins d'espace), voire à la fin de la ligne où se trouve la formule, ou on peut encore la reporter au début de la ligne suivante.

Divulgâchons : la convention la plus habituelle dans les documents mathématiques semble être de mettre la ponctuation à la fin de la formule (donc, dans l'exemple ci-dessus, il y aurait un point à la droite du 4). Je n'aime pas cette façon de faire (même si, en matière de typographie et de conventions éditoriales, le plus important est d'être cohérent), et je voudrais longuement expliquer pourquoi.

En résumé, ma position est la suivante : ① que le plus logique (et préférable dans l'absolu) serait de reporter la ponctuation à ligne suivante, mais ② que, comme il est disgracieux d'avoir un signe de ponctuation en début de ligne et que beaucoup de gens trouvent ça vraiment insupportable, le mieux, comme compromis, est de supprimer purement et simplement la ponctuation.

En tout état de cause, ce qui me semble le plus important est de traiter une formule exactement de la même manière qu'on traiterait une image ou une citation centrée : c'est-à-dire que si on va mettre une ponctuation après quelque chose comme

On doit à Euler la magnifique formule suivante :

e iπ = 1

— alors on traitera exactement de la même manière

On doit à Vinci le magnifique tableau suivant :

[Mona Lisa]

— ou encore

On doit à Montaigne la magnifique interrogation suivante :

Que sais-je ?

Autrement dit, si on décide qu'il faut mettre un point final à la droite de la formule, alors la même logique exactement commande d'en mettre un à droite de l'image et à droite du point d'interrogation de la citation (je vais revenir ci-dessous sur l'interaction entre ponctuation « interne » et ponctuation « externe »). Réciproquement, si on considère qu'il n'est pas opportun d'ajouter un point final à mes deux derniers exemples, par exemple au motif qu'ils interrompent le cours de la phrase ou que l'œuvre citée centrée est un tout complet auquel il ne faut rien ajouter, alors la même logique s'applique au premier cas.

Mais revenons en arrière d'un cran. Avant de parler des formules et citations centrées, parlons des guillemets. Quand on cite un bout de texte entre guillemets, il y a deux sortes de ponctuations qui peuvent exister (au moins conceptuellement) : la ponctuation externe, c'est-à-dire celle qui appartient à la phrase citante, et la ponctuation interne, c'est-à-dire celle qui appartient à la phrase citée.

La chose la plus logique à faire serait de conserver les deux dans tous les cas. Par exemple :

― Il a dit Je viens..

― Tu es sûre qu'il a dit Je viens. ? Il n'aurait pas plutôt demandé Je viens ? ?

― Tu as raison, quand j'y repense, il a plutôt demandé Je viens ?.

Les deux points[#] de la première réplique sont justifiés ainsi : le premier, à l'intérieur des guillemets, sert à marquer la fin de la phrase citée (et à montrer qu'il s'agit d'une affirmation et pas d'une interrogation), et je l'appelle ponctuation interne, tandis que le second, à l'extérieur des guillemets, sert à marquer la fin de la phrase citante (et, là aussi, à montrer qu'il s'agit d'une affirmation), et je l'appelle ponctuation externe. Mon petit dialogue montre que chacune des quatre combinaisons entre les deux ponctuations ‘.’ (point) et ‘?’ (point d'interrogation) pour la ponctuation interne et externe est possible.

[#] Comme je vais dans ce billet parler parfois de deux points (‘.’) qui se suivent et aussi du signe ‘:’, je vais suivre la convention de nommer le second un deux-points. Un deux-points est donc un signe de ponctuation unique, analogue à un point-virgule mais formé de deux points superposés verticalement (alors que le point-virgule est formé d'un point sur une virgule). Au contraire, si je parle de deux points, ce sont normalement deux points qui se suivent horizontalement.

La distinction entre ponctuation externe et interne sera peut-être plus claire si je cite une langue qui s'écrit de la droite vers la gauche (je ne sais pas s'il est idiomatique, en arabe, de dire juste انا قادم؟ pour demander je viens ? ou s'il faut écrire هل انا قادم؟, ni même si انا قادم est la bonne/meilleure façon de dire je viens, mais peu importe, pour les besoins de l'illustration, on va faire avec) :

― Il a dit انا قادم..

― Tu es sûre qu'il a dit انا قادم. ? Il n'aurait pas plutôt demandé انا قادم؟ ?

― Tu as raison, quand j'y repense, il a plutôt demandé انا قادم؟.

Sur cet exemple, la ponctuation interne fait partie du texte arabe et suit donc les conventions de l'arabe, notamment pour le sens d'écriture, ce qui commande donc de la mettre à gauche des mots arabes, alors que la ponctuation externe fait partie du texte français et suit donc les conventions du français, ce qui commande donc de la mettre à droite des mots arabes.

Mais oublions l'arabe et revenons au cas général. Si on suit la logique, donc, on a une double ponctuation : interne et externe. Si les deux langues vont dans la même direction, elles se suivent, une à l'intérieur des guillemets et l'autre à l'extérieur.

Je n'ai aucun problème à écrire ça sur le plan de la logique, mais c'est vrai que c'est un peu lourd et moche d'avoir régulièrement deux points qui se suivent, l'un à l'intérieur des guillemets et l'autre à l'extérieur des guillemets (ce qui est quand même le cas le plus fréquent).

Pour éviter cette mocheté, il y a une convention qui s'est créée et qui vise à éviter la double ponctuation en supprimant l'une des deux (c'est-à-dire qu'on évite ce que je viens d'écrire et qui est, pourtant, logique).

Cette convention n'est pas super bien formalisée. Le passage guillemets et ponctuation de l'entrée citations du Lexique des règles typographiques en usage à l'Imprimerie nationale est, comme d'habitude, incohérent et mal expliqué (ce bouquin est épouvantablement mal écrit, je ne cesse de le dire), mais l'idée générale, avec laquelle je suis à peu près d'accord, semble être grosso modo la suivante.

On va éviter la double ponctuation en utilisant l'une ou l'autre des conventions suivantes :

  • lorsque le passage cité constitue une phrase complète (et de préférence introduit par un deux-points), on peut supprimer la ponctuation externe à condition que ce soit un simple point (ou une virgule ?) ; et
  • à défaut, on peut supprimer la ponctuation interne en faisant cesser la citation juste avant elle, à condition que cette ponctuation interne ne soit pas indispensable à la compréhension.

Appelons ces deux conventions la convention de suppression de ponctuation externe (celle qui permet de supprimer la ponctuation de la phrase citante sous certaines conditions) et la convention de suppression de la ponctuation interne (celle qui permet de supprimer la ponctuation de la phrase citée, ou, plus exactement, de terminer la citation un peu avant).

↑Entry #2821 [older| permalink|newer] / ↑Entrée #2821 [précédente| permalien|suivante] ↑

Continue to older entries. / Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2025 Jan 2025 Feb 2025 Mar 2025 Apr 2025
2024 Jan 2024 Feb 2024 Mar 2024 Apr 2024 May 2024 Jun 2024 Jul 2024 Aug 2024 Sep 2024 Oct 2024 Nov 2024 Dec 2024
2023 Jan 2023 Feb 2023 Mar 2023 Apr 2023 May 2023 Jun 2023 Jul 2023 Aug 2023 Sep 2023 Oct 2023 Nov 2023 Dec 2023
2022 Jan 2022 Feb 2022 Mar 2022 Apr 2022 May 2022 Jun 2022 Jul 2022 Aug 2022 Sep 2022 Oct 2022 Nov 2022 Dec 2022
2021 Jan 2021 Feb 2021 Mar 2021 Apr 2021 May 2021 Jun 2021 Jul 2021 Aug 2021 Sep 2021 Oct 2021 Nov 2021 Dec 2021
2020 Jan 2020 Feb 2020 Mar 2020 Apr 2020 May 2020 Jun 2020 Jul 2020 Aug 2020 Sep 2020 Oct 2020 Nov 2020 Dec 2020
2019 Jan 2019 Feb 2019 Mar 2019 Apr 2019 May 2019 Jun 2019 Jul 2019 Aug 2019 Sep 2019 Oct 2019 Nov 2019 Dec 2019
2018 Jan 2018 Feb 2018 Mar 2018 Apr 2018 May 2018 Jun 2018 Jul 2018 Aug 2018 Sep 2018 Oct 2018 Nov 2018 Dec 2018
2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017 Dec 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003

[Index of all entries / Index de toutes les entréesLatest entries / Dernières entréesXML (RSS 1.0) • Recent comments / Commentaires récents]