David Madore's WebLog: 2015-11

This WebLog is bilingual, some entries are in English and others are in French. A few of them have a version in either language. Other than that, the French entries are not translations of the English ones or vice versa. Of course, if you understand only English, the English entries ought to be quite understandable without reading the French ones.

Ce WebLog est bilingue, certaines entrées sont en anglais et d'autres sont en français. Quelques-unes ont une version dans chaque langue. À part ça, les entrées en français ne sont pas des traductions de celles en anglais ou vice versa. Bien sûr, si vous ne comprenez que le français, les entrées en français devraient être assez compréhensibles sans lire celles en anglais.

Note that the first entry comes last! / Notez que la première entrée vient en dernier !

Index of all entries / Index de toutes les entréesXML (RSS 1.0) • Recent comments / Commentaires récents

Entries published in November 2015 / Entrées publiées en novembre 2015:

(lundi)

L'économie de l'attention, et l'information à valeur négative

En principe, une information ne peut pas avoir une valeur négative, à cause de l'argument suivant : on peut toujours l'ignorer ou la jeter. En tirant sur les cheveux, on pourrait même formaliser cet argument en invoquant la logique linéaire, en définissant une information comme un terme A qu'on peut reproduire arbitrairement, y compris le jeter, c'est-à-dire tel que A soit identifiable, ou interconvertible, à !A (la signification intuitive de cette construction de la logique linéaire étant, en gros, autant de fois A que je veux). En pratique, il peut y avoir toutes sortes de raisons pour lesquelles cet argument échoue (essentiellement parce que l'information dont on parle n'est jamais une pure information, il y a toujours, au minimum, la nécessité de la stocker et/ou de la transférer et/ou de la traiter), et l'information peut se retrouver à ressembler à un objet encombrant dont il coûte de se débarrasser ou qu'il est problématique de recevoir.

Si on parle de l'aspect social de la chose, je pense que le nom raisonnable qu'on pourrait donner au coût associé à la réception d'une information est l'attention dont il faut faire preuve en échange (i.e., le temps mental pour recevoir et comprendre cette information, ou au moins pour la classifier comme (in)intéressante). Une information à valeur négative est donc en fait une information dont la valeur intrinsèque (positive mais essentiellement nulle) est inférieure au coût en attention (positif et petit, mais légèrement plus grand) associé à sa réception. Généralement, l'idée est que l'émetteur tire un gain du fait que certaines personnes reçoivent cette information, et probablement cette information sera positive pour ces destinataires particuliers, mais comme l'émetteur ne peut pas ou ne veut pas cibler plus particulièrement le récepteur, la valeur moyenne sur l'ensemble des récepteurs peut être négative pour eux.

Vous allez me dire, j'ai expliqué de façon incroyablement pédante ce qu'est une publicité. ☺

C'est un peu ça. Mais en fait, la notion dépasse largement le cadre commercial de la publicité, et je pense qu'on gagne à y réfléchir en ces termes plus généraux. La ressource précieuse sur Internet n'est généralement pas l'information, c'est l'attention des internautes : et cette idée a été développée dans le concept de l'économie de l'attention. Je ne prétends pas que l'information ne soit jamais, ni même rarement, le facteur limitant, mais personnellement je me trouve plus souvent dans la situation où je suis face à plus d'information que je ne pourrais en comprendre, analyser ou consommer, et c'est donc mon temps qui devient la quantité précieuse à rationner (ou en tout cas, à utiliser le plus efficacement possible, quitte à pratiquer la lecture en diagonale) ; le lien entre ces deux situations est généralement fourni par la méta-information qui consiste à isoler l'information la plus importante dans le tas (et l'attention consiste essentiellement à consommer du temps pour produire cette méta-information précieuse).

Le cadre commercial, essentiellement celui de la publicité, est évidemment important, et Facebook, Google et d'autres vendent essentiellement cette denrée dont ils sont devenus les dealers. Mais même en-dehors du cadre commercial, l'attention continue à être précieuse, par exemple pour des raisons de statut social. Ce phénomène est illustré dans toute sa splendeur par le site d'échange de liens Reddit, dont le principe est que tous les utilisateurs peuvent poster des liens ou des textes (catégorisés par subreddit) sur lesquels les autres utilisateurs pourront voter, faisant monter ou descendre ces posts dans le classement (de la page principale ou de la page d'un subreddit), leur faisant ainsi gagner ou perdre de la visibilité, en même temps que l'auteur du lien ou du texte gagne ou perd des points virtuels appelés karma et qui déterminent ipso facto une sorte de statut social sur Reddit. L'attention portée à un post sur Reddit se convertit dans le score du post, qui lui permet à son tour de gagner de l'attention : j'ai déjà parlé du fait que le succès dans toutes sortes de matières est bien plus dû à un effet « boule de neige » (aléatoire et non reproductible), c'est-à-dire à l'auto-entraînement du succès, qu'aux vertus intrinsèques de l'objet ou de l'idée qui a du succès, mais Reddit en est probablement l'exemple le plus parfait : ce qui permet véritablement à un post d'avoir du succès, ce n'est pas tant son intérêt que l'attention qui lui est portée, qui vient elle-même du succès auprès des premiers utilisateurs qui le lisent. Et la même chose se produit au niveau des utilisateurs : celui qui poste des liens haut placés aura d'autant plus de chances que d'autres utilisateurs se mettent à le suivre, et donc à donner de l'attention à ses prochains posts[#]. La dynamique de Twitter (que je ne connais qu'indirectement puisque je n'y ai pas de compte) est sans doute essentiellement la même, avec des petites variations : pas de score ou de karma, mais la possibilité de retweeter et un système de suivi plus formalisé que sur Reddit. Le succès de ces sites eux-mêmes obéit à un effet boule de neige d'accumulation de l'attention (je n'ai pas d'exemple évident pour Reddit ou Twitter, mais Facebook a été précédé, je l'ai déjà raconté à diverses reprises, par des sites dont la fonctionnalité était exactement la même et qui n'ont simplement pas eu l'attention initiale pour démarrer la boule de neige, sans doute parce qu'ils ne sont pas venus précisément au bon moment), mais on rejoint ici bien sûr l'aspect complètement commercial.

[#] Une affaire qui illustre à merveille le ridicule de la situation est le cas de /r/Unidan, raconté ici par exemple. À la fois la manière dont il a agi pour avoir plus de karma (ou l'attention qui va avec) et la réaction des autres utilisateurs quand la « tricherie »(?) a été découverte, sont très révélateurs de la façon dont on traite l'attention comme une valeur précieuse.

Même en-dehors des situations où elle fait boule de neige, l'attention est souvent en situation de demande. Même si ce blog me sert essentiellement (cf. notamment ici) de bloc-notes pour pouvoir écrire ce que j'ai compris sur un certain sujet et l'oublier ensuite en sachant que je pourrai le relire plus tard, je ne peux pas prétendre que le fait d'avoir des lecteurs me soit totalement indifférent : pour commencer, si tel était le cas, je ne publierais pas ces textes, et en tout cas je n'aurais pas de système de commentaires. Il m'arrive d'ailleurs d'essayer de faire de la publicité pour une entrée, de me dire que je vais écrire ceci ou cela pour capter l'attention du lecteur auquel je suis, au final, en train d'essayer de revendre des idées (par exemple, quand je parle de machines hyperarithmétiques, j'essaie assurément de vendre l'idée que ces machines sont dignes d'intérêt et donc d'attention — et ensuite, je suis déçu du manque de succès). Et inversement, sur le système de commentaires d'un blog quelconque, on voit presque toujours bien plus de commentaires exprimant des idées complémentaires que posant des questions : ils sont donc là pour demander de l'attention plus que de l'information. On recoupe ici l'idée du « mème égoïste », l'information qui essaie de se reproduire autant que possible en colonisant de nouveaux nootopes (le nootope étant au mème et à l'information ce que le biotope est au gène et à l'être vivant : donc en pratique, un cerveau, un site Web, ou quelque chose de ce genre).

En déviant vers une problématique plus large, si je considère l'ensemble des emails que j'échange, je constate que dans la grande majorité des cas, qu'il s'agisse des courriers que j'ai reçus ou envoyés, l'émetteur est en un certain sens « demandeur ». (Il est vrai qu'on dépasse ici le cadre de ce que je discutais avant : parfois l'émetteur est demandeur d'information, mais dans tous les cas il est demandeur d'attention.) Ou, pour dire les choses autrement : la grande majorité des courriers que je reçois m'apportent une forme de désagrément, même quand il ne s'agit pas de spams (il faudra faire quelque chose, ou au moins faire attention à quelque chose). Et je connais peu de gens qui se désolent d'en recevoir trop peu. Même s'agissant d'un téléphone mobile, j'avais été frappé quand on m'avait fait cette réflexion : qu'en avoir un (au moins dans sa fonction de téléphone) sert plus à rendre service aux autres qu'au propriétaire du mobile — on rend service en étant disponible à tout moment, c'est-à-dire, en permettant qu'on se saisisse de votre attention. Enfin, c'est une évidence que plus une personne est célèbre, et donc plus son attention a de la valeur, plus elle sera sollicitée par tous les canaux de communication possibles.

Je rejoins ici certaines des idées de mon collègue Jean-Louis Dessalles sur l'évolution du langage, du moins telles que je les comprends (s'il y a quelque chose d'intelligent dans ce que je raconte, c'est sans doute de lui que ça vient, et s'il y a quelque chose de stupide, c'est sans doute ma propre invention) : quand on se penche sur la question de pourquoi nous parlons, on se rend compte que l'histoire est beaucoup plus complexe que communiquer de l'information, et en tout cas, la thèse selon laquelle la communication serait altruiste (l'émetteur offrant généreusement de l'information au récepteur, générosité qu'on pourrait ensuite expliquer biologiquement) ne tient pas debout, ou du moins, ne suffit pas : on est inévitablement amené à conclure que l'émetteur tire quelque chose du fait de communiquer, et il faut analyser ce « quelque chose » — par exemple comme la réception d'un certain statut social qui va avec l'attention d'autrui.

Merci de votre attention. 😁

(dimanche)

Est-il toujours rationnel d'être rationnel ?

Lorsque — au hasard — un attentat terroriste frappe un pays, il est suivi d'une déferlante de débats et discussions sur ce qu'on aurait pu ou dû faire pour l'éviter. Des experts qui prêchent ordinairement dans le désert aux hommes politiques cherchant à tout prix à suivre le sens du vent du jour, tout le monde a un avis à donner : on doit faire la guerre aux terroristes, ou au contraire on ne doit pas tomber dans le piège du conflit de civilisations où ils veulent justement nous entraîner ; on doit les assécher financièrement ; on doit s'allier avec la Bordurie, ou au contraire avec la Syldavie ; on doit augmenter les pouvoirs de la police, on doit interdire la cryptographie, on doit surveiller Internet, on doit protéger nos libertés, on doit, on doit, on doit…

Mais je n'entends essentiellement personne tenir la thèse qu'on devrait faire exactement ceci :

rien

— rien, c'est-à-dire pleurer les morts, se moquer des extrémistes, refuser de se laisser terroriser, reprendre les fils de la vie qui n'ont pas été brisés, et ensuite admettre que l'événement se reproduira certainement et qu'on ne peut pas forcément y faire quelque chose. La plupart des fléaux qui touchent l'homme ont ceci en commun : que si on peut parfois y faire quelque chose, ce quelque chose est très difficile, nécessite un travail très long et au résultat incertain, et surtout, qui doit être mené bien en amont du moment où le fléau frappe — il ne faut pas espérer une solution facile.

Dans les mots passablement gnomiques d'un célèbre romancier français :

Il y a eu dans le monde autant de pestes que de guerres. Et pourtant pestes et guerres trouvent les gens toujours aussi dépourvus. […] Quand une guerre éclate, les gens disent : Ça ne durera pas, c'est trop bête. Et sans doute une guerre est certainement trop bête, mais cela ne l'empêche pas de durer. La bêtise insiste toujours, on s'en apercevrait si l'on ne pensait pas toujours à soi. Nos concitoyens à cet égard étaient comme tout le monde, ils pensaient à eux-mêmes, autrement dit ils étaient humanistes : ils ne croyaient pas aux fléaux. Le fléau n'est pas à la mesure de l'homme, on se dit donc que le fléau est irréel, c'est un mauvais rêve qui va passer. Mais il ne passe pas toujours et, de mauvais rêve en mauvais rêve, ce sont les hommes qui passent, et les humanistes en premier lieu, parce qu'ils n'ont pas pris leurs précautions. Nos concitoyens n'étaient pas plus coupables que d'autres, ils oubliaient d'être modestes, voilà tout, et ils pensaient que tout était encore possible pour eux, ce qui supposait que les fléaux étaient impossibles. Ils continuaient de faire des affaires, ils préparaient des voyages et ils avaient des opinions. […] Ils se croyaient libres et personne ne sera jamais libre tant qu'il y aura des fléaux.

— Albert Camus, La Peste

Pour être bien clair, je ne prends pas spécialement parti pour l'inaction, ni en général ni dans un cas précis. La seule chose dont je suis certain, c'est qu'il ne faut pas agir de façon précipitée ou irréfléchie en géopolitique, pour les raisons que Jon Stewart résumait de façon hilarante dans cette séquence du Daily Show (America in the Middle East — Learning Curves Are for Pussies, 2015-02-06, durée 9′29″). Ça ne signifie pas qu'on ne doive jamais rien faire. Mais avant de se demander quoi faire, il est opportun de se demander si on doit vraiment faire quelque chose, ou simplement admettre le contraire comme une option à envisager et à comparer : il serait donc opportun d'écouter ce qu'on peut dire pour défendre cette thèse.

Car avant de s'élancer gaiement sur un chemin tout pavé de bonnes intentions, il faut écouter la voix sévère et rébarbative de la rationalité utilitariste. Qui nous dit essentiellement que nous devons traiter en priorité les problèmes pour lesquels on peut le plus efficacement sauver des vies (ou minimiser le malheur, ou autres variations selon la fonction d'utilité précise qu'on prétend maximiser) : et qu'avant de dépenser des efforts ou des euros pour lutter contre tel ou tel problème il faut se demander si ces efforts et ces euros, quelle que soit leur source, ne pourraient pas être investis plus utilement (toujours selon la fonction d'utilité qu'on s'est fixée) dans une autre action, ou pour la résolution d'un autre problème.

Cette voix est assurément déplaisante à entendre. Nous aimons tous tenir les opinions contradictoires que toutes les vies humaines sont égales mais que certaines morts sont plus révoltantes que d'autres — et nous aimons penser que certains problèmes sont symboliquement plus importants qu'un décompte numérique de leurs victimes. (A contrario, Bruce Schneier aime dire — en plaisantant, mais pas uniquement en plaisantant — que si un événement fait l'actualité, on ne doit pas s'en inquiéter, puisque par définition, l'actualité rapporte des événements inhabituels, c'est-à-dire, rares, or les choses dont on doit s'inquiéter sont celles qui sont fréquentes, par exemple, celles qui causent le plus de morts.) Les chiffres eux-mêmes, bien sûr, sont toujours délicats à peser : d'après le dernier rapport d'Europol, les actes terroristes ont fait quatre morts dans l'Union européenne en 2014 (ça doit être moins que la foudre…) : s'ils en ont fait beaucoup plus en 2015, la question se pose de comment interpréter cette évolution (un changement durable, un phénomène passager, une déviation statistique ?), et cela peut évidemment nourrir l'argument selon lequel on aurait eu tort de penser que le phénomène était insignifiant sur la base du nombre de morts en 2014. Le choix de la fonction d'utilité peut aussi donner lieu à des débats un peu sordides (est-il pertinent de faire perdre, par exemple, une heure par an à cinquante millions de personnes, si on peut en ce faisant sauver cent vies par an — sachant que ces cent vies représentent certainement moins de cinquante millions d'heures ? et quel poids le gouvernement d'un pays doit-il donner aux vies dans d'autres pays ?) : on a d'autant moins envie d'écouter l'utilitarisme dans ces conditions.

Les raisons pour lesquelles nous aimons être irrationnels sont difficiles à analyser. J'ai déjà parlé du chercheur en économie comportementale Dan Ariely, qui se spécialise dans l'étude de l'irrationalité prévisible et reproductible de l'homme, mais il s'agit chez lui plutôt de microéconomie. La raison pour laquelle nous mettons en place, par exemple, des mesures de sécurité totalement bidon, par exemple dans l'aérien, sont sans doute plus complexes à comprendre et à catégoriser. À un certain niveau, il s'agit certainement de rassurer les gens (raison pour laquelle on parle de security theater, et j'aime beaucoup l'illustration qu'en fait le sketch d'Adam Conover que je viens de lier) : le fait est que ça ne marche pas de rassurer les gens en leur disant arrêter de vous inquiéter pour les bombes dans les avions, vous avez considérablement plus de chances de mourir d'un cancer (et d'ailleurs, même s'agissant du cancer, vous ne vous comportez certainement pas de façon rationnelle…) : je n'arrive pas à convaincre mon propre gestalt émotionnel avec de tels arguments, alors je me vois mal convaincre quelqu'un d'autre. D'un autre côté, je ne suis même pas persuadé que ce genre de mesures fonctionne pour rassurer les gens (est-ce qu'on se sent plus en sécurité quand on voit des militaires partout patrouillant une ville, vraiment ?).

Bon, je ne sais plus où je voulais en venir avec mes propos confus (mais ce n'est pas le genre de choses qui m'empêche de ranter ☺). Donnons juste la morale suivante : pour qu'un débat public ne soit pas truqué et que les termes en soient clairement définis, il faut au moins examiner, et écouter les arguments qui se présentent pour, la plus grande variété des options, dont celle de l'inaction. Il est permis de penser qu'on ne doive pas suivre les choix « rationnels », c'est-à-dire, utilitaristes (il y a une nouvelle intéressante d'Asimov sur un thème assez proche, d'ailleurs : The Greatest Asset). Mais cette décision doit être consciente et éclairée, et, pour cela, il faut écouter cette voix même si on n'aime pas ce qu'elle dit.

(lundi)

Qu'est-ce qu'une machine hyperarithmétique ?

Voici un concept mathématique (voire, informatique ?) dont je suis tout étonné de découvrir que je ne l'ai jamais encore proprement défini sur ce blog, alors même que ça aurait été logique et pertinent de le faire dans différentes entrées que j'ai déjà écrites. (Par exemple, j'y fais explicitement référence dans cette entrée, et il aurait été logique d'en parler dans celle-ci ; et au sujet de cette entrée récente, je pourrais dire qu'il s'agit exactement de la puissance de calcul du niveau ωCK de la « Théorie de la Totalité Transfinie de Turing ».) Je voudrais donc réparer ce manque, d'autant plus que je trouve que le sujet devrait être standard, et connu, notamment, de tous les informaticiens théoriciens vaguement préoccupés de calculabilité ou de complexité (or je suis sûr que ce n'est pas le cas[#]) : une machine hyperarithmétique est un type d'ordinateur théorique strictement plus puissant que les machines de Turing, et il me semble qu'avoir en tête à la fois la notion de fonctions hyperarithmétiques (plus générales que les fonctions calculables au sens de Church-Turing, donc) et la notion de fonctions primitives récursives (plus restreintes) aide à mieux comprendre les contours de la calculabilité (y compris si on ne s'intéresse, in fine, qu'aux machines de Turing). Il me semble par ailleurs qu'il s'agit d'une notion relativement intuitive (je vais donc essayer de la présenter comme telle), qu'il est donc dommage de laisser cachée dans des textes de calculabilité supérieure un peu oubliés et au formalisme souvent obscur.

Je commence par rappeler[#2] ce que c'est que la calculabilité au sens habituel, i.e., de Church-Turing : les lecteurs pour lesquels ce concept est familier peuvent sauter jusqu'au symbole ♠ plus bas.

En bref, [une fonction] calculable (sous-entendu : au sens de Church-Turing) signifie [une fonction] qui pourrait être calculé(e), en principe, par un algorithme tournant sur un ordinateur — sachant que cet ordinateur n'a aucune limite sur la quantité de mémoire qu'il peut utiliser, ni sur le temps qu'il peut prendre, à part que le temps doit être fini (et la mémoire, du coup, automatiquement aussi).

Pour donner une définition plus précise, il y a plein de possibilités : la première qui ait été introduite historiquement, vers 1930, est le lambda-calcul de Church, mais même si elle est utile pour modéliser les langages de programmation fonctionnels, elle n'est pas très parlante intuitivement ; la seconde définition est venue par les fonctions générales récursives (je n'ai pas réussi à comprendre exactement quelle en était l'histoire, mais elles doivent être associées à un ensemble intersectant les noms suivants : Herbrand, Gödel, et Kleene) ; mais la définition de la calculabilité qui a vraiment achevé de convaincre le monde des mathématiciens qu'il s'agissait de la bonne notion est venue en 1936 quand Turing a défini la machine qui porte maintenant son nom. Quantité d'autres définitions ont été données depuis (par exemple avec des machines à registres). J'en donnerai moi-même une (illisible) ci-dessous comme produit dérivé d'une définition rigoureuse du sujet principal de cette entrée (pour les fonctions calculables, retirer la clause (vii) qui me sert à définir les fonctions hyperarithmétiques). Le point important est que toutes ces définitions sont équivalentes au sens où elles conduisent à la même classe de fonctions « calculables » : la fameuse thèse de Church-Turing affirme que n'importe quelle tentative pour définir la notion de « fonction calculable par un algorithme » aboutira, in fine, à cette même classe des fonctions calculables (au sens de Church-Turing, donc), étant bien entendu que l'« algorithme » doit manipuler à tout instant des données finies, et terminer en temps fini (et, par ailleurs, ne peut pas faire appel au hasard, ou en tout cas le résultat final ne doit pas en dépendre).

(samedi)

Tout va bien pour moi

Puisque j'ai reçu des messages de quelques personnes s'inquiétant pour moi après les événements d'hier soir à Paris, il est peut-être utile que je précise que ni moi ni mon poussinet (ni, pour autant que je sache pour l'instant, personne que je connaisse) ne faisons partie des victimes. Pour ne pas céder à la terreur, nous avons tenu à passer notre samedi normalement (manger au restaurant, nous promener), ou du moins aussi normalement que possible étant donné que les cinémas sont fermés, comme les parcs et jardins, et beaucoup de commerces.

(lundi)

Comment écrire les nombres en base 5×6

Nous écrivons les nombres en base 10 (c'est-à-dire que pour compter des billes, nous faisons des tas de 10, puis des tas de 10 de ces tas, puis des tas de 10 de ceux-là, etc., et nous indiquons par un chiffre le nombre de chaque type de tas) : heureusement, de la Chine à la Patagonie, tout le monde est d'accord là-dessus, y compris les pays reculés qui continuent à diviser leurs unités de longueur en 1760 et leurs unités de poids en 16. On voit parfois avancée çà ou là l'idée qu'on ferait mieux de compter en une autre base (typiquement 12). Le choix de 10 n'est peut-être pas idéal, mais l'intérêt d'avoir un standard commun à tout le monde est infiniment supérieur à l'avantage d'avoir telle ou telle autre base peut-être préférable dans l'absolu : même si nous utilisions une base franchement merdique, comme 11, il vaudrait mieux rester sur un standard merdique mais commun que de chercher à créer de la confusion en en changeant (c'est d'ailleurs pour le même genre de raison que je ne pense pas qu'il soit une bonne idée d'essayer de changer d'autres choses qui ont été adoptées universellement, comme le calendrier grégorien et ses bizarreries bêtement baroques). Tout ça pour dire que je ne propose certainement pas une seule seconde de changer de système d'écriture des nombres (même si j'avais le pouvoir de motiver des gens à initier un tel changement, je ne voudrais en aucun cas m'en servir). J'espère que j'ai bien enfoncé la porte ouverte, et que je peux maintenant aborder la question purement théorique de ce que pourrait être une bonne base si on devait repartir de zéro.

L'intérêt d'avoir une base b divisible par des petits nombres (premiers) est principalement que les fractions simples vont pouvoir s'écrire en base b de façon simple : le fait que 10=2×5 fait que les rationnels 1/2 et 1/5 s'écrivent respectivement 0.5 et 0.2 en cette base, tandis que le fait que 3 ne divise aucune puissance de 10 est responsable du fait que 1/3 s'écrit 0.333333…, ce qui est un peu agaçant dès qu'on veut manipuler des tiers (notamment à cause des arrondis : si on arrondi 1/3 à 0.333, alors dès qu'on en met trois, on tombe sur 0.999 et il y a un millième qui est tombé à l'eau). L'argument en faveur de la base b=12 est que comme il est divisible par 2, 3 et 4, il simplifie l'écriture des fractions de petit dénominateur (1/2 s'y écrit 0.6, 1/3 s'y écrit 0.4, et 1/4 s'y écrit 0.3), mais évidemment, on perd le 1/5, qui devient 0.24972497…, ce qui n'est pas franchement plaisant. • L'intérêt d'avoir une base b petite est, quant à lui, que les tables d'addition et de multiplication sont d'autant plus courtes à apprendre : la base 2 est bien sûr particulièrement simple de ce point de vue-là, et il est naturel qu'on s'en serve dans circuits électroniques (je veux dire : outre le fait qu'il est naturel de représenter 0 et 1 par l'absence et la présence d'un signal, l'addition et la multiplication se calculent de façon particulièrement simple), même si elle est peu appropriée au calcul humain à cause de la longueur de la représentation des nombres.

D'un autre côté, les choix sont apparemment limités : si la base est trop petite, les nombres sont trop longs à écrire, si elle est trop grande, les tables d'opération sont trop complexes à mémoriser, et si on cherche à avoir autant de divisibilités que possible, il semble que 6 ou 12 soient peut-être les choix les plus sensés, et en tout cas 10 n'est pas du tout mauvais.

(À ce propos, j'espère enfoncer de nouveau des portes grandes ouvertes, mais quand j'écris par exemple la base 12, il va de soi que ce 12 est lui-même écrit de la manière dont nous écrivons habituellement les nombres, c'est-à-dire dans la base dont la valeur est [le nombre de ‘I’ dans ce qui suit] IIIIIIIIII. C'est complètement idiot, mais si on n'éclaircit pas ce point, certains sont capables de s'imaginer que le nombre 10 est magique.)

La discussion ci-dessus, cependant, néglige le fait qu'il y a toutes sortes de variations possibles sur l'écriture en base b, qui peuvent être utiles dans différents sens, ou qui pourraient arriver pour des raisons essentiellement historiques. Les mayas, et les aztèques à leur suite, par exemple, pour autant que je comprenne, écrivaient les nombres en base 20, sauf que le chiffre des vingtaines était exceptionnel et n'allait que jusqu'à 18 : i.e., ils faisaient des paquets de 20 unités, puis des paquets de 18 paquets, puis des paquets de 20 de ces paquets, et de même de 20 à tous les niveaux suivants ; ceci fournissait une correspondance avec leur calendrier de 18 mois de 20 jours. Par ailleurs, même l'écriture des chiffres de 0 à 19 était plus ou moins faite en base 5 (ils utilisaient un bâton pour le nombre 5, un point pour le nombre 1, et donc par exemple trois bâtons et deux points pour le chiffre 17 — je dis bien chiffre, parce que 17 était un chiffre de leur écriture en base à-peu-près-20 ; le zéro était noté spécialement, pour ne pas laisser un vide disgracieux dans l'écriture).

Pour donner un exemple d'écriture qui n'est pas tout à fait une base b entière mais qui s'y rapproche beaucoup, on peut écrire les entiers en « base Fibonacci » : cette représentation n'utilise que les chiffres 0 et 1 et interdit à deux ‘1’ d'être consécutifs, la valeur des positions étant donnée par les termes de la suite de Fibonacci ((1,)1,2,3,5,8,13,21… chacun étant la somme des deux précédents). Ainsi, comme 17=13+3+1, le nombre 17 s'écrira 100101 : et les premiers entiers s'écrivent 0, 1, 10, 100, 101, 1000, 1001, 1010, 10000, 10001, 10010, 10100, 10101, 100000, etc. Ce mécanisme d'écriture (dont il existe d'ailleurs un certain nombre de variations) peut avoir un intérêt dans certaines circonstances, et il est possible d'y mener des calculs, mais évidemment, il est encore plus encombrant que la base 2 (et l'écriture fractionnaire n'est pas du tout claire). Je l'évoque surtout pour montrer qu'il n'y a pas que les écritures en base b qui peuvent avoir un sens ou un intérêt. (D'ailleurs, mon voisin de bureau est spécialiste de ce genre de questions.)

⁂ Bon, alors, si je devais absolument choisir un système d'écriture des nombres de novo, qui soit relativement aisément manipulable à la main si on oublie l'héritage de la base 10, je crois que je choisirais la base 30 écrite sous la forme 5×6, c'est-à-dire une base alternée 5 et 6.

Autrement dit, l'idée est de faire des paquets de 6, puis de faire des paquets de 5 de ces paquets, puis des paquets de 6 de ces paquets-là, puis des paquets de 5 de ceux-là, et ainsi de suite en alternant 6 et 5 : comme les paquets de paquets sont toujours de 30, on peut dire qu'on travaille en base 30, mais on le fait en n'utilisant que des paquets de 6 ou 5, ce qui garde des chiffres petits et manipulables, et des tables d'opérations facilement mémorisables.

Concrètement, on utiliserait deux séries de chiffres, disons 0,1,2,3,4,5 pour les chiffres en base 6, et Z,A,B,C,D pour ceux en base 5 ; ces deux séries alterneraient systématiquement (en terminant par la série 0…5 pour le chiffre des unités). Le fait d'avoir deux séries de chiffres qui alternent peut d'ailleurs avoir un intérêt en lui-même : il évite certaines erreurs de décalage d'une colonne (à la fois à la lecture, et lorsqu'on effectue les opérations). • Les premiers entiers s'écrivent donc 0, 1, 2, 3, 4, 5, A0, A1, A2, A3, A4, A5, B0, B1, B2, B3, B4, B5, C0, C1, C2, C3, C4, C5, D0, D1, D2, D3, D4, D5, 1Z0, 1Z1, 1Z2, 1Z3, 1Z4, 1Z5, 1A0, etc. Le nombre décimal 1760 s'écrirait, par exemple, 1D4C2 dans ce système, parce qu'il vaut 1×30² + 4×6×30 + 4×30 + 3×6 + 2 (le 2 est le chiffre des unités, le C est le chiffre des sixaines, le 4 est le chiffre des groupes de 5×6=30, le D est le chiffre des groupes de 6×5×6 = 6×30 = 180, et le 1 est le chiffre des groupes de 5×6×5×6 = 30² = 900) : cette conversion est, bien sûr, fastidieuse, mais ça ne dit rien sur cette base spécialement parce que la conversion d'une base à une autre est toujours fastidieuse (enfin, sauf entre puissances d'un même nombre).

L'addition en base mixte 5×6 se fait exactement comme en base (pure) quelconque, et notamment comme en base 10 : il faut retenir deux tables d'addition, l'une de taille 6 et l'autre de taille 5, mais leur taille combinée est plus petite qu'une table de taille 10 (très nettement, même, si on compte que la table des zéros est vraiment triviale) :

+012345
0012345
112345A0
22345A0A1
3345A0A1A2
445A0A1A2A3
55A0A1A2A3A4
+ZABCD
ZZABCD
AABCD1Z
BBCD1Z1A
CCD1Z1A1B
DD1Z1A1B1C

Les chiffres (A ou 1) soulignés indiquent qu'il s'agit là de retenues à faire sur la colonne suivante. À titre d'exemple, C3 plus C3 vaut 1B0 : on commence par faire 3+3, ce qui donne A0 d'après la table de gauche, c'est-à-dire 0 avec une retenue de A, puis on effectue C+C dans la table de droite, ce qui donne 1A, auquel il faut encore ajouter la retenue, donc 1B. L'algorithme est donc exactement le même que celui qu'on apprend à l'école primaire, il y a juste deux séries de chiffres, mais on ne peut pas se tromper de table ou de colonne parce que les chiffres d'une série donnée ne peuvent que s'ajouter ensemble. • Il faut quand même que je souligne qu'une écriture comme 1B n'est pas un nombre valable (un nombre entier doit toujours se terminer par un chiffre de la série 0…5) : quand la table de droite donne une écriture comme C+D=1B, il faut en fait comprendre qu'elle signifie C0 + D0 = 1B0, les 0 étant omis (ce n'est pas important pour appliquer l'algorithme d'addition, mais c'est important pour ne pas s'embrouiller sur la signification de ce qu'on fait).

Pour la multiplication, les choses sont un tout petit peu plus compliquées : on a trois tables de multiplication à retenir, dont la taille totale est encore inférieure à l'unique table de la multiplication en base 10, mais dont le mode d'emploi est un chouïa plus délicat. Voici ces trois tables :

×012345
0000000
1012345
2024A0A2A4
303A0A3B0B3
404A2B0B4C2
505A4B3C2D1
×ZABCD
0ZZZZZ
1ZABCD
2ZBD1A1C
3ZC1A1D2B
4ZD1C2B3A
5Z1Z2Z3Z4Z
×ZABCD
Z0Z0Z0Z0Z0Z
A0Z1A2B3C4D
B0Z2B4DA1AA3C
C0Z3CA1AA4DB2B
D0Z4DA3CB2BC1A

La table de gauche ne pose aucune difficulté particulière : on a, par exemple, 4×5=C2, écriture tout à fait normale et qui n'appelle pas à un commentaire particulier ; la table du milieu est utilisée normalement quand on multiplie ensemble un chiffre de la série 0…5 et un chiffre de la série Z…D, et il faut comprendre qu'il y a un 0 implicite après chaque lettre de la table (par exemple, 3×D=2B signifie en fait 3×D0=2B0, parce que 2B n'est pas un nombre valable) ; c'est surtout la troisième table qui est un tout petit peu subtile à utiliser, parce que le décalage des chiffres est un peu modifié : il y a de nouveau un 0 à comprendre implicitement à la fin de chaque entrée, mais il n'y a pas en plus un Z implicite comme on pourrait l'imaginer — par exemple, l'entrée B×D=A3C signifie en fait B0×D0=A3C0 et ce dernier ‘C’ peut surprendre parce qu'on s'attendrait à avoir un ‘Z’ si l'algorithme était exactement le même qu'en base 10 (où le produit de deux nombres se terminant par un chiffre zéro se termine par deux zéros). [Ajout La raison est qu'un nombre finissant par un ‘0’ signifie qu'il est multiple de 6 (i.e., de A0), et quand on multiplie deux tels nombres, on obtient un multiple de 6×6=36 (i.e., de 1A0), et pas forcément de 30 (i.e., 1Z0). Voir aussi le commentaire de JML sur cette entrée.] J'ai donc écrit en italiques le dernier chiffre (de la série Z…D) de chaque entrée de cette troisième table, pour rappeler qu'il est décalé d'un cran par rapport à ce qu'on peut imaginer — on peut par exemple le voir comme une retenue à droite. (Remarquons que sa valeur est complètement prévisible : c'est Z,A,B,C,D selon que le chiffre juste avant vaut 0,1,2,3,4, et il ne peut pas être 5, donc l'effort de mémoire n'est pas considérablement alourdi ! Accessoirement, dans chacune des trois tables ci-dessus on peut faire différents commentaires pour aider à la mémorisation.)

Voici comment faire une multiplication en base 5×6 avec ces tables : comme en base 10, on va multiplier le premier nombre dont on veut faire le produit (appelons-le le multiplicande) par chacun des chiffres de l'autre nombre (appelons-le le multiplicateur). Lorsque le chiffre du multiplicateur par lequel on multiplie est un chiffre de la série 0…5, pas de difficulté, on utilise les deux tables de gauche ci-dessus, et on traite les retenues comme on le fait en base 10, c'est-à-dire en en mémorisant une de chaque colonne à la suivante (on peut aussi, si on trouve fastidieux d'ajouter les retenues à la volée, les écrire explicitement comme une ligne supplémentaire qu'il faudra incorporer dans l'addition finale). En revanche, quand le chiffre du multiplicateur par lequel on multiplie est un chiffre de la série Z…D, on utilise les deux tables de droite, et la table la plus à droite va donner, à chaque fois qu'on l'utilise, un chiffre (de la série Z…D, en italique dans la table) à ajouter sur la colonne un cran à droite de celle qu'on serait normalement en train d'écrire : pour ne pas avoir à s'arracher les cheveux à faire plein d'additions à la volée, il est plus simple d'écrire en fait deux lignes, l'une pour les produits donnés par la table du milieu et l'autre pour ceux donnés par la table de droite (l'addition finale sera plus complexe, du coup, mais en contrepartie, les retenues sont beaucoup plus faciles à faire) ; ou, si on préfère la variante suivante, on se réserve une ligne pour les calculs « normaux » donnés par les deux tables, et une ligne uniquement pour les chiffres de la série Z…D qui sont en italiques dans la troisième table.

À titre d'exemple, si je veux calculer C3×C3, je commence par effectuer le produit du multiplicande par le dernier chiffre, 3, du multiplicateur : comme 3×3=A3, j'écris un 3 et je retiens A, puis C×3=1D, auquel j'ajoute mentalement la retenue de A donne 2Z, et j'écris donc finalement 2Z3 comme première ligne intermédiaire ; puis je dois multiplier C3 par C : une possibilité est d'écrire les deux produits 3×C=1D et C×C=A4D sur deux lignes différentes (les D finaux étant bien sûr alignés avec le Z de la ligne déjà écrite), l'autre variante est de se dire qu'on fait 3×C=1D donc on écrit D et on retient 1, puis C×C=A4D, donc on écrit A5, à cause de la retenue, devant le D déjà écrit, et le D italique de cette dernière multiplication est écrit sur une autre ligne. Dans un cas, on doit finalement ajouter 2Z3 + 1D□ + A4D□ (où j'ai noté □ pour un emplacement laissé vierge : c'est bien sûr la même chose qu'un zéro), dans l'autre on doit ajouter 2Z3 + A5D□ + D□, ce qui ne fait bien sûr aucune différence, seulement de ce qu'on a choisi de mettre dans une ligne ou l'autre, et la somme finale vaut B2C3.

Mes descriptions sont un peu fastidieuses parce que j'ai la flemme de faire des images ou une vidéo montrant clairement le processus (et aussi parce que j'ai décrit ci-dessus deux petites variantes de l'algorithme), mais il n'est vraiment qu'à peine plus compliqué que ce qu'on fait en base 10 : en pratique, j'ai fait quelques essais, et mis à part que je ne connais pas par cœur les tables ci-dessus et que j'ai toujours envie de convertir en base 10 pour vérifier mes calculs, je crois que ça va aussi vite et on pourrait tout à fait apprendre ce système de numération à des enfants à la place de la base 10. (Je répète que je ne propose surtout pas de le faire dans le monde actuel !, je dis juste que si on n'avait pas l'héritage culturel de la base 10, il serait aussi utilisable.) Les tables d'opérations étant plus faciles à apprendre, on y gagne un petit peu : d'un autre côté, les nombres sont 35% plus longs en moyenne (parce que 2×log(10)/log(30) vaut environ 1.35).

Je ne décris pas l'algorithme de division, mais il ne présente pas de difficulté particulière (de toute façon, une division façon école primaire se fait essentiellement par multiplication : on teste juste les chiffres qu'on peut placer au quotient) ; de même, la soustraction se fait sans problème. On peut aussi se dire qu'on fait les opérations en base 30, les chiffres en base 30 étant eux-mêmes écrits en base 6 (avec la convention que le premier chiffre est pris dans la série Z…D, le E étant impossible, et le second dans la série 0…5, pour aider à s'y retrouver) : dans ce cas, il n'y a pas de surprise à ce que les opérations soient faisables. (Ceci s'applique notamment à un algorithme classique de calcul à la main des racines carrées ; mais cet algorithme demande de traiter deux chiffres du radicande d'un coup, et du coup ici il faudra traiter deux chiffres en base 30, c'est-à-dire quatre chiffres en base mixte 5×6.)

Bien sûr, le système que je viens de décrire permet aussi de manipuler des nombres à virgule : immédiatement après la virgule, on a un chiffre de la série Z…D qui représente des cinquièmes, ensuite un chiffre de la série 0…5 qui représente des trentièmes (des sixièmes de cinquièmes), etc. Par exemple, 1/2 s'écrit 0.B3 (calculer B3×2 pour s'en convaincre), 1/3 s'écrit 0.A4, 1/4 s'écrit 0.A1B3, 1/5 s'écrit 0.A0 (qu'on peut noter simplement 0.A si on n'a pas peur de causer une confusion), et 1/6 (enfin, 1/A0) s'écrit 0.Z5. C'était bien tout l'intérêt du choix de la base 5×6 que les fractions de dénominateur ≤6 s'écrivent toutes de façon exacte avec un nombre fini de chiffres. Le nombre 1/7 (i.e., 1/A1), lui, s'écrit 0.Z4A2B5Z4A2B5… ; ensuite, 1/8 (i.e. 1/A2) vaut 0.Z3C4B3 et 1/9 (i.e., 1/A3) vaut 0.Z3A4, et quant à 1/10 (i.e. 1/A4), il vaut 0.Z3. Enfin, je signalerai que 1/11 (i.e., 1/A5) s'écrit 0.Z2C3D0B4A4D3A2Z5B1C1Z2C3D0B4… (Et pour lister un irrationnel, √2 vaut 1.B0B0C5C4D5B4D5Z2D5C0D2D1D0D3Z5D2C5C1B4C5…) Tous les nombres qui s'écrivent en décimal de façon exacte avec un nombre fini de chiffres (i.e., toutes les fractions qui admettent une puissance de 10 comme dénominateur) s'écrivent aussi de façon exacte en base 5×6 (mais il faudra, dans le pire des cas, deux fois plus de chiffres pour les écrire).

Bon, tout ceci était vraiment de la plus haute trivialité mathématique, et d'un intérêt infinitésimal puisque je répète que je ne propose pas une seule seconde d'adopter ce système (sauf peut-être si l'humanité perdait toutes ses connaissances antérieures et devait tout reconstruire de zéro) : j'ai donc consacré à ce sujet beaucoup plus d'espace qu'il ne le méritait. Mais si par hasard vous croisez un jour un de ces huluberlus qui font la pub de la base 12, vous pourrez lui répondre avec la base 5×6.

Et je laisse en exercice au lecteur de trouver les raisons (essentiellement anecdotiques) pour lesquelles la base 5×6 m'a semblé très légèrement préférable à la base 6×5.

(jeudi)

Un peu de métaphysique (principe anthropique, fine-tuning, cerveaux de Boltzmann, simulations, et pourquoi nous sommes là)

À chaque fois que je me mets à parler, sur ce blog, de philosophie de la physique (tendant vers la métaphysique) ou de philosophie de la mathématique (tendant vers la métamathématique), je raconte un peu la même chose : dans un cas, pourquoi l'Univers est-il tel qu'il est ? et dans l'autre, les objets mathématiques sont-ils réels ? — ce sont certainement les questions qui me fascinent le plus. Ce n'est pas juste que je radote (même si, oui, je radote ; d'ailleurs, je radote — je vous ai déjà dit que je radotais ?), c'est aussi que j'ai l'illusion récurrente que cette fois-ci je vais réussir à exprimer les choses de façon particulièrement lumineuse, et je retombe essentiellement sur les mêmes traces de pas dans le sable de mon esprit qui me font tourner en boucle. Peut-être qu'il est impossible de faire des progrès en métaphysique : peut-être que même l'idée de mieux poser les questions, à défaut de les résoudre, et de circonscrire notre ignorance (de préparer ce que nous voudrions demander à l'Absolu Esprit Infini Oraculaire Ultime si nous avions accès à lui) est-elle déjà illusoire. Ou peut-être — ce n'est pas exclu — est-ce juste moi qui suis nul et qui n'ai pas compris qu'il faut arrêter de réfléchir à ce genre de choses (au rayon radotage, je vais éviter de vous citer une fois de plus la si emblématique dernière phrase du Tractatus). • Néanmoins, les questions philosophiques sur lesquelles je reviens toujours touchent de près certaines questions indiscutablement scientifiques, et qui sont, à défaut d'être résoluble, au moins logiquement bien-posées et dotées d'une valeur de vérité incontestable, ce qui n'est peut-être pas le cas des questions philosophiques citées ci-dessus, donc je suis inexorablement attiré par leur chant. Refaisons un tour de manège et voyons s'il résulte un peu de clarté de ces idées N fois remâchées. Au moins, cette fois-ci, j'ai un plan (même si j'avoue que ce plan a été écrit après le texte, en cherchant quelles sections je pouvais y marquer).

Table des matières

La question métaphysique ultime

La question métaphysique ultime, trêve de blagues auxquelles la réponse serait 42 c'est, à mon avis, plus ou moins de se demander pourquoi il y a quelque chose plutôt que rien — donc, pour être un petit peu plus près de la physique, pourquoi l'Univers existe — ou plutôt, pour être un petit peu plus modeste, pourquoi cet Univers existe, ou du moins, pourquoi nous observons cet Univers, par opposition à tout autre univers imaginable, — et si on peut en tirer des enseignements. (Éclaircissement : Je ne prétends pas que toutes ces questions soient équivalentes — je ne prétends même pas qu'elles soient si fortement apparentées — je ne prétends pas non plus qu'elles aient toutes un sens, et à la limite la méta-question de si elles en ont un est également une question profonde ; je mentionne toutes ces questions surtout parce qu'il s'agit d'un cheminement mental, mais aussi, en fait, parce que je risque de glisser, parfois par accident, de l'une à l'autre, donc je veux les mettre dès le départ sur la table.)

Il y a une variante de la question dont je ne sais pas si elle a un sens, c'est, même en admettant que l'Univers soit parfaitement défini en tant qu'objet mathématique (par exemple, une solution de certaines équations aux dérivées partielles avec certaines conditions initiales, ou quelque chose comme ça — peu importent les détails), pourquoi nous le ressentons. Je vais appeler ça le problème transcendantal (peu importe si c'est un contresens par rapport à la notion kantienne). • Cette question est intrigante, parce que par certains côtés il n'y a rien à expliquer (de la description de l'Univers comme objet mathématique, on peut imaginer faire les calculs qui montreraient qu'il contient des êtres vivants qu'on pourrait appeler humains et qui se poseraient la question de pourquoi ils sont là : fin de l'explication) ; mais par d'autres côtés, on est passé complètement à côté de la plaque qui est de se demander pourquoi au juste nous ressentons cet objet mathématique (alors qu'il est probable que les décimales de π contiennent quelque part une description complète de toute ma vie et de toutes mes conversations, mais pour autant, je ne ressens pas les décimales de π), ou, si on préfère, pourquoi parmi toutes les structures mathématiques dans lesquelles apparaît quelque chose qui pourrait se décrire comme une conscience qui se demande pourquoi elle est là, nous ressentons cette structure particulière comme la « réalité physique », pourquoi nous vivons dedans. C'est une chose de penser que le monde physique, et David Madore dedans, est régi par des lois (peut-être ou peut-être pas déterministes) qui ne laissent pas place pour une volition magiquement externe à l'Univers physique : pour autant, il est difficile pour moi de comprendre pourquoi je ressens les pensées et sensations de ce David Madore physique comme ma réalité, i.e., pourquoi je suis lui — mais il n'y a que moi pour qui cette question présente un certain mystère. Je vais un peu revenir sur ces idées et ce problème transcendantal, notamment à propos du « platonisme radical » et du « totipsisme » (cf. ci-dessous), mais pour l'instant, laissons-les de côté.

La question de pourquoi l'Univers est tel qu'il est a plusieurs facettes selon ce à quel référent imaginaire on le compare : à différents niveaux, on peut se demander, par exemple, pourquoi l'Univers obéit à des lois mathématiques, et même des lois mathématiques vaguement compréhensibles, ce qui est tout de même hautement énigmatique (ou pourquoi il obéit à des lois mathématiques qui utilisent tel ou tel genre de mathématiques, j'ai déjà écrit des choses à ce sujet) ; on peut se demander pourquoi il obéit précisément à l'arrangement de lois et de particules que nous croyons avoir découvertes (comme I. Rabi s'est exclamé à propos de la découverte du muon : who ordered that?) ; ou pourquoi les constantes qui interviennent dans ces lois ont précisément la valeur, parfois assez fantaisiste, qu'elles ont (voir ce que j'écrivais ici dans une entrée passée à ce sujet) ; ou pourquoi, parmi les univers possibles décrit par exactement les mêmes lois de la physique que nous, nous observons précisément celui-ci (et plus précisément : pourquoi l'entropie au moment du Big Bang est-elle si faible ? — je vais y revenir). Certaines de ces questions sont peut-être encore plus dénuées de sens que d'autres ; à l'inverse, certaines admettent peut-être une réponse plus facile ou en tout cas plus scientifique.

(lundi)

Versailles au coucher du soleil

Versailles au coucher du soleil, par beau temps, c'est vraiment magique.

[Versailles au coucher du soleil: la fontaine du soir][Versailles au coucher du soleil: le château reflété sur le bassin nord]
[Versailles au coucher du soleil: bassin de Latone][Versailles au coucher du soleil: parterre sud]
[Versailles au coucher du soleil: le poussinet devant le bassin sud]

Les photos en direction du soleil couchant, malheureusement, ne donnent pas grand-chose sur l'appareil photo merdique de mon téléphone (à l'œil nu, la couleur du ciel est à peu près la même sur toutes ces vues, sauf juste au niveau de l'horizon). La réflexion sur la surface étale des bassins est, en tout cas, beaucoup plus intéressante que le spectacle des grandes eaux.

Aucun rapport si ce n'est que mon poussinet et moi avons aussi fait ça hier : malgré son prix (38€ par personne, quand même), je recommande le brunch du restaurant Un Dimanche à Paris aux parisiens amateurs de chocolat. C'est très chocolaté. Très. (Et après, je recommande d'aller se dégourdir les jambes à Versailles pour digérer tout ce chocolat.)

(dimanche)

Le matériel informatique qui merdouille juste un peu

Hier, un de mes disques durs[#] a décidé de ne plus répondre (du point de vue de l'ordinateur, c'était exactement comme s'il avait été débranché brutalement). En fait, je ne sais pas vraiment si ça s'est produit hier : j'ai même des indices selon lesquels ça s'est peut-être produit il y a presque un mois (entre le 9 et le 10 octobre), mais comme toutes mes données sont en RAID, je ne me serais rendu compte de rien : normalement, j'aurais dû être averti du problème par un mail, mais des problèmes de mail complètement indépendants ont fait que ce genre de mails ne m'arrivaient pas. Enfin, peu importe. Ce genre de problèmes matériels a peu de chances de me faire perdre de données : j'ai pris des précautions assez délirantes contre ça, comme en témoigne le fait que j'ai peut-être passé un mois sans même me rendre compte que le disque dur ne réagissait plus, et je m'en suis finalement rendu compte parce que mon ordinateur a planté pour des raisons probablement sans aucun rapport. En revanche, il a une capacité à me faire perdre un temps considérable : pour commencer, changer un disque dur dans le boîtier[#2] ne peut pas me prendre moins d'une heure, et il en faut encore beaucoup pour resynchroniser tout le RAID (même si la machine reste utilisable, quoique ralentie, pendant ce temps) et pour vérifier soigneusement que tout s'est bien passé, mais le plus gros du temps perdu est celui pendant lequel je me demande ce que je dois faire exactement.

Ici, j'avais déjà soupçonné que ce disque dur avait des vapeurs : il m'avait déjà fait un coup semblable, ou produit des messages d'erreur suspects (un peu du genre de ceux rapportés ici, même s'il s'agit là d'un autre disque sur une autre machine). Mais la difficulté, c'est qu'il est très difficile de savoir si ce genre de problèmes vient du disque ou du contrôleur (sans compter que ça peut aussi être la faute du câble !) : si le disque ou le contrôleur ne marche pas du tout, on s'en rend vite compte et on trouve vite le coupable, mais s'il marche généralement-mais-pas-toujours, c'est beaucoup plus compliqué d'enquêter. Idéalement, on devrait juste changer un paramètre, le plus suspect, attendre si un nouveau problème survient, et en changer alors un autre, en notant soigneusement tout ce qu'on a fait : mais, bien sûr, les choses sont rarement idéales, les erreurs sont rarement claires, on peut vouloir changer plusieurs choses suspectes d'un coup pour diminuer les risques aux dépens de la pureté expérimentale, d'autres paramètres viennent ajouter de la confusion (des différences logicielles, par exemple, parce que le noyau ou d'autres choses ont pu être mis à jour entre temps ; ou d'autres disques branchés pour d'autres raisons), on ne note pas toujours parfaitement ce qu'on fait.

Dans ce cas précis, si je simplifie (et que je reconstitue bien), le disque, appelons-le HD204, que je suspecte maintenant d'être mauvais a été branché jusqu'en juillet 2013 sur le port SATA3 de ma carte mère, j'ai eu des problèmes avec, je l'ai retiré et mon poussinet l'a testé de façon approfondie, et n'a trouvé aucun problème après plusieurs tests de surface, du coup je l'ai remis en place (je parle toujours de HD204), sauf que je l'ai branché sur SATA4 parce que j'avais réutilisé SATA3 pour un autre disque ; mais j'ai de nouveau eu des problèmes avec le disque sur SATA3 (pas HD204, donc), du coup je me suis dit : aha, en fait, c'est mon port SATA3 qui doit être pourri, et j'ai rebranché le disque HD204 sur le port SATA5 (relié à un autre contrôleur[#3] SATA, qui gère aussi le SATA externe), mais maintenant c'est la deuxième fois que j'ai des problèmes avec ce disque HD204 branché sur SATA5. Plusieurs hypothèses sont possibles : soit mes ports SATA3 et SATA5 sont tous les deux défectueux (possible, mais quand même peu probable, surtout qu'ils sont reliés à des contrôleurs totalement indépendants, et surtout que je n'avais pas eu de problème avec SATA3 avant d'y connecter HD204) ; soit c'est un problème de câble (je crois que j'ai changé plusieurs fois de câble dans l'histoire, mais je peux me tromper, et en plus j'ai remis un peu stupidement un câble suspect dans mon sac à câbles sans l'étiquetter comme tel) ; soit c'est le disque HD204 qui non seulement a parfois un comportement bizarre mais est aussi capable de causer des erreurs sur un autre port du même contrôleur SATA (SATA3 alors que HD204 était branché sur SATA4). Je penche à présent plutôt pour cette dernière hypothèse, mais je suis loin d'être certain. Tout cela est encore compliqué par le fait que SATA5 a d'autres sortes de problèmes (pas vraiment des défauts, mais des bizarreries de reset et un délai très long de détection des disques, peut-être en lien avec le fait que le même contrôleur gère le SATA externe). Au final, on admettra que tout ceci est confus (et actuellement, le nouveau disque que j'ai branché sur SATA3 et HD204 testé de façon séparée, donnent tous les deux l'apparence de bien fonctionner).

Peut-être que j'aurais simplement dû me dire que ce n'est pas très grave si une fois par an environ, le disque cesse de répondre et qu'il faut redémarrer la machine à froid et reconstruire tout le RAID.

Peut-être aussi que je devrais acheter un nouveau PC. Mais ça veut dire encore un temps fou passé à trouver une configuration qui me satisfasse (je tiens à avoir à la fois de la mémoire ECC et un watchdog matériel, et j'ai peur que ce soit devenu très difficile de trouver un tel matériel rue Montgallet) et à découvrir les problèmes nouveaux qu'elle posera. Bof.

Bref, #FirstWorldProblems.

[#] Nommons les coupables : il s'agit d'un Samsung HD204UI Spinpoint F4 EG (AF) de 2To.

[#2] Donc : passer un grand coup d'aspiro à l'intérieur, s'énerver contre les têtes ou les pas de vis qui s'abîment comme du beurre, se faire mal aux mains à sortir et remettre les barrettes mémoire qui gènent la sortie du disque de son berceau, s'émerveiller de la capacité des câbles à inventer des nœuds toujours plus inventifs, et surtout maudire la géométrie dans l'espace qui fait qu'il y a toujours quelque chose dans le boîtier de l'ordinateur qui gène l'accès à la chose à laquelle on essaie d'avoir accès. Compter toutes ces étapes une fois pour retirer le disque dur défectueux et une nouvelle fois pour mettre le nouveau.

[#3] Mes ports SATA1 à SATA4 sont gérés par un chipset Intel ICH7, tandis que SATA5, SATA6 et le SATA externe sont gérés par un Marvell 88SE6145.

Continue to older entries. / Continuer à lire les entrées plus anciennes.


Entries by month / Entrées par mois:

2017 Jan 2017 Feb 2017 Mar 2017 Apr 2017 May 2017 Jun 2017 Jul 2017 Aug 2017 Sep 2017 Oct 2017 Nov 2017
2016 Jan 2016 Feb 2016 Mar 2016 Apr 2016 May 2016 Jun 2016 Jul 2016 Aug 2016 Sep 2016 Oct 2016 Nov 2016 Dec 2016
2015 Jan 2015 Feb 2015 Mar 2015 Apr 2015 May 2015 Jun 2015 Jul 2015 Aug 2015 Sep 2015 Oct 2015 Nov 2015 Dec 2015
2014 Jan 2014 Feb 2014 Mar 2014 Apr 2014 May 2014 Jun 2014 Jul 2014 Aug 2014 Sep 2014 Oct 2014 Nov 2014 Dec 2014
2013 Jan 2013 Feb 2013 Mar 2013 Apr 2013 May 2013 Jun 2013 Jul 2013 Aug 2013 Sep 2013 Oct 2013 Nov 2013 Dec 2013
2012 Jan 2012 Feb 2012 Mar 2012 Apr 2012 May 2012 Jun 2012 Jul 2012 Aug 2012 Sep 2012 Oct 2012 Nov 2012 Dec 2012
2011 Jan 2011 Feb 2011 Mar 2011 Apr 2011 May 2011 Jun 2011 Jul 2011 Aug 2011 Sep 2011 Oct 2011 Nov 2011 Dec 2011
2010 Jan 2010 Feb 2010 Mar 2010 Apr 2010 May 2010 Jun 2010 Jul 2010 Aug 2010 Sep 2010 Oct 2010 Nov 2010 Dec 2010
2009 Jan 2009 Feb 2009 Mar 2009 Apr 2009 May 2009 Jun 2009 Jul 2009 Aug 2009 Sep 2009 Oct 2009 Nov 2009 Dec 2009
2008 Jan 2008 Feb 2008 Mar 2008 Apr 2008 May 2008 Jun 2008 Jul 2008 Aug 2008 Sep 2008 Oct 2008 Nov 2008 Dec 2008
2007 Jan 2007 Feb 2007 Mar 2007 Apr 2007 May 2007 Jun 2007 Jul 2007 Aug 2007 Sep 2007 Oct 2007 Nov 2007 Dec 2007
2006 Jan 2006 Feb 2006 Mar 2006 Apr 2006 May 2006 Jun 2006 Jul 2006 Aug 2006 Sep 2006 Oct 2006 Nov 2006 Dec 2006
2005 Jan 2005 Feb 2005 Mar 2005 Apr 2005 May 2005 Jun 2005 Jul 2005 Aug 2005 Sep 2005 Oct 2005 Nov 2005 Dec 2005
2004 Jan 2004 Feb 2004 Mar 2004 Apr 2004 May 2004 Jun 2004 Jul 2004 Aug 2004 Sep 2004 Oct 2004 Nov 2004 Dec 2004
2003 May 2003 Jun 2003 Jul 2003 Aug 2003 Sep 2003 Oct 2003 Nov 2003 Dec 2003