23.12.07

119 - Facteur d'impact

Le facteur d'impact, c'est le PageRank des journaux scientifiques. Ca existait bien avant Google, et le principe -récursif- en est tout à fait similaire : le PageRank d'une page x dépend du nombre des autres pages où figure un lien vers la page x, et du PageRank de ces pages. Le facteur d'impact d'un journal y, c'est la même chose : il est fonction du nombre d'articles, parus dans d'autres journaux, qui citent les articles parus dans y, et du facteur d'impact de ces autres journaux. Le chiffre est calculé par la société Thomson Scientific, sur la base d'un dépouillement exhaustif de la presse scientifique.

Pour un site qui vit de la publicité, le PageRank est une affaire très très sérieuse, puisque la position sur les pages Google (et donc, une part conséquente du trafic) en dépend. Pour un chercheur c'est pareil : sa carrière dépend de ses articles, et du facteur d'impact des revues qui les publient...

Dans les deux cas, la méthode (pour PageRank : l'algorithme) est public. Mais dans les deux cas, ce sont des sociétés privées qui font le calcul (qui font leur cuisine, diront les sceptiques), et l'impartialité du résultat obtenu ne dépend que de leur bonne volonté. D'où les interminables discussions autour de la validité de PageRank et de l'arôme qui se dégage des cuisines de Google... Chez les chercheurs, tout le monde râle contre le "publish or perish" et les effets pervers de l'évaluation via les facteurs d'impact.

La semaine dernière, les responsables de 3 journaux édités par The Rockefeller University Press ont tout bêtement essayé de vérifier le calcul fait par Thomson Scientific,et le moins qu'on puisse dire, est que ça ne semble pas limpide. En résumé, la base de données, qui n'est pas en libre accès mais qui peut être achetée à Thomson Scientific, ne correspondait pas aux résultats publiés. Après réclamation, Thomson Scientific leur en a fourni une autre qui, selon eux, ressemblait à un bricolage ad'hoc, et qui ne correspondait toujours pas aux résultats publiés... D'où leur conclusion radicale : quand un scientifique est incapable de fournir les données censées soutenir un résultat, le résultat est invalidé.
It became clear that Thomson Scientific could not or (for some as yet unexplained reason) would not sell us the data used to calculate their published impact factor. If an author is unable to produce original data to verify a figure in one of our papers, we revoke the acceptance of the paper. We hope this account will convince some scientists and funding organizations to revoke their acceptance of impact factors as an accurate representation of the quality—or impact—of a paper published in a given journal. (1)
Bref, il serait peut-être temps d'instiller un peu de transparence dans le système. Comme dit Enro :
Que cette déficience de Thomson Scientific soit temporaire ou permanente, la question des données n'en reste pas moins cruciale. (...) Alors oui, un audit des données de Thomson Scientific ne serait pas de trop, voire une vraie tentative de construction d'une base et d'un indicateur concurrents. (2)
Au fait, quelqu'un connaît l'algorithme qu'utilise Médiamétrie pour calculer les parts de marché des chaînes de télévision ?


(1) The Journal of Cell Biology : Show me the data
(2) Enro : Facteur d'impact, des données en question

16.12.07

118 - Paradoxe de Goodman

Le paradoxe de Goodman appartient à la grande famille des paradoxes autour du raisonnement inductif. Oui, vous savez, le raisonnement inductif, celui qui dit : « tous les corbeaux que j'ai observés jusqu'ici sont noirs, donc tous les corbeaux doivent être noirs. » Ou encore : « chaque fois que la température de l'eau descend en dessous de 0°, elle gèle. Donc l'eau doit geler à 0°... »

Si ce type de raisonnement n'a pas l'évidence mathématique de la déduction, il est quand même bien utile pour pratiquer - justement - l'ensemble des autres sciences, genre physique, biologie and co. Pratique, donc, mais problématique. David Hume est -paraît-il - l'un des premiers à avoir remis en question la validité logique de l'induction en soulignant qu'elle nécessitait un certain nombre de corollaires implicites pour fonctionner, en particulier un principe d'uniformité de la Nature dont l'évidence est assez discutable.

Bref. Même si Hume a finalement essayé de sauver philosophiquement le raisonnement inductif (en l'encadrant de précautions cognitives), la mode de dénigrer cette bonne vieille induction au moyens de vicieux paradoxes était lancée. On peut citer par exemple le paradoxe de Hempel, ou paradoxe de l'ornithologie en chambre, qui s'énonce comme ça : pour déterminer la couleur du corbeau de manière inductive, on peut bien sûr observer des corbeaux, mais on peut aussi remarquer que la proposition « Tous les corbeaux sont noirs » est logiquement équivalente à « Tous les objets non-noirs sont des non-corbeaux ». Dès lors, plus besoin de courir les champs : il suffit de rester chez soi et d'observer un maximum d'objets non-noirs, ce qui est moins fatiguant et tout aussi valable logiquement.

Comment se fait-il alors que si peu d'ornithologues soient disposés à adopter la méthode de Hempel ?

Nelson Goodman, philosophe américain (1906 - 1998), a proposé dans la même ligne un paradoxe particulièrement perturbant. D'abord, il ne s'agit plus de corbeaux mais d'émeraudes. Ensuite, le paradoxe oblige à définir deux nouvelles couleurs : le vleu et le bert (grue & bleen).
The word grue is defined relative to an arbitrary but fixed time t as follows: An object X satisfies the proposition "X is grue" if X is green and was examined before time t, or blue and was not examined before t. The word bleen has a complementary definition: An object X is bleen if X is blue and was examined before time t, or green and was not examined before t. (1)
La version vulgarisée du paradoxe définit plus simplement vleu comme : « vert jusqu'à une certaine date t et bleu ensuite ». (2) L'observation d'une émeraude verte, remarque ensuite Goodman, étaye sans doute, par induction, la proposition : « toutes les émeraudes sont vertes », mais elle étaye tout autant la proposition : « toutes les émeraudes sont vleues », proposition qui, à partir du temps t, ne dit signifie plus du tout la même chose quant à la couleur de l'émeraude. Choisir d'accepter une proposition plutôt que l'autre, affirme Goodman, est une pure question d'habitude.

Alors, bon, on peut tenter de nier : dire que les définitions de vleu et de bert sont secondaires, en ce sens qu'elles sont définies par dessus les concepts de vert et de bleu, et qu'elles font en plus intervenir un élément temporel qui ne figure pas dans les notions de vert et de bleu... Seulement, observe Goodman, l'argument se retourne totalement : si on considère les notions de vleu et de bert comme primaires, celles de bleu et de vert sont secondaires, et ne se définissent qu'en y ajoutant un élément temporel :
If we take grue and bleen as primitive, we can define green as "grue if first observed before t and bleen otherwise", and likewise for blue. (1)
Et si tout ça vous fait mal au crâne, il vous reste à prendre une bonne aspirine avant de dormir. Quoique prouver l'efficacité de l'aspirine sans raisonnement inductif ?

(1) - Wikipedia : Grue and Bleen
(2) - Wikipedia : Le paradoxe de Goodman

9.12.07

117 - Dark data

L'expression dark data a été introduite par Thomas Goetz dans un article pour Wired du 25/9/2007. (1) L'exemple qu'il donne pour expliquer l'idée est une étude parue en 1981 sur le cancer du pancreas : ses auteurs avaient cherché des liens avec l'alimentation, imaginant trouver une corrélation avec la consommation de tabac et/ou d'alcool. Or, la seule corrélation finalement découverte (et donc publiée) concernait la consommation de café.

20 ans plus tard, il s'est avéré que ce résultat était faux. Mais là n'est pas le problème. Le problème, c'est que la véritable info de l'histoire est un résultat négatif : c'est l'absence de lien entre alcool, tabac et cancer du pancreas. Or, cette information n'aurait sans doute jamais été publiée sans l'existence du faux (mais positif) résultat sur le café. Les millions d'études et d'expériences scientifiques qui n'aboutissent qu'à un résultat négatif, à un résultet par défaut, ne sont presque jamais publiées. Et, pour Thomas Goetz, c'est ça qu'il faut changer :
For the past couple of years, there's been much talk about open access, the idea that more scientific publications should be freely available — not locked behind firewalls and subscriptions. (...) Liberating dark data takes this ethos one step further. It also makes many scientists deeply uncomfortable, because it calls for them to reveal their "failures." But in this data-intensive age, those apparent dead ends could be more important than the breakthroughs.
Si l'exemple cité plus haut se raconte en quelques mots, ce n'est évidemment pas le cas dans l'immense majorité des cas : la forme standard d'un "résultat négatif" doit plutôt ressembler à une pile de bottins bourrés de données brutes qui n'ont décidemment pas voulu ressembler à ce que leurs chercheurs avaient imaginé.

Rendre les publications scientifiques libres d'accès est déjà un gros chantier, auquel se sont attelés les promoteurs de la Public Library of Science (2). Etendre le système à la somme colossale des résultats "négatifs" suppose une grosse mise à jour des infrastructures informationelles (comme on dit), notamment en termes de capacités de stockage en ligne : par les temps qui courent, le moindre projet scientifique a vite fait de générer quelques teraoctets de données. Ou ranger des petaoctets de dark data qui ne serviront peut-être jamais à rien ? Comment y accéder ? That is the question. D'ailleurs, Google serait déjà sur le coup. (3)

Mais tous ces problèmes de cables et de quncaillerie ne sont rien, remarque fort justement Thomas Goetz, à côté du véritable bouleversement que constituerait un tel système dans les habitudes de travail et de pensée des chercheurs... Et de leurs employeurs !
(1) Wired : Freeing the Dark Data of Failed Scientific Experiments
(2) Public Library of Science
(3) PIMM : Google’s Palimpsest project

11.11.07

116 - Proto-mondial

Tous les linguistes s'accordent sur l'existence d'une généalogie des langues plus ou moins parallèle à la généalogie humaine. Si le Français ressemble tant à l'Italien, c'est qu'il partage les mêmes racines latines. Au delà de ce niveau connu et attesté, il y en a un autre qui fait remonter les langues actuelles d'Europe occidentale,avec le Celte, le Russe, le Slave, le Grec, le Sanskrit et l'Indo-Iranien à une langue non seulement morte, mais disparue. Une langue hypothétique dont on peut reconstituer certains traits par déduction, et que les linguistes appellent l'Indo-Européen.

Il y a d'autres langues théoriques en plus de l'Indo-Européen : l'Ouralique serait l'ancêtre d'une trentaine de langues, parlées aujourd'hui dans l'Oural mais aussi en Finlande et en Hongrie, tandis que l'Altaïque serait celui de 66 langages de l'Asie du centre et du nord, parmi lesquelles le Turc et le Japonais. Plus controversée est la création du linguiste danois Holger Pedersen, qui a postulé en 1903 l'existence d'une langue ancestrale commune aux 6 grands groupes que sont l'Indo-Européen, l'Altaïque, l'Ouralique, l'Afro-Asiatique, le Kartvélien et le Dravidien. Cette langue hypothétique, parlée aux alentours de la fin du paléolithique (10 000 ans avant notre ère), il l'a baptisée Nostratique.

Dans un article de 1995, le Dr. Alexis Manaster Ramer de l'université de Detroit affirme que la racine commune aux mots anglais fist, finger et five, qu'on retrouve entre autres en Hollandais, en Allemand et en Russe, ne trouverait pas son origine au niveau Indo-Européen mais remonterait au Nostratique (2).

Certains poussent plus loin le parallèle entre généalogie des langues et phylogénie des espèces vivantes et considèrent que, de la même façon qu'on peut parler d'un ancêtre commun à l'ensemble des créatures vivantes (c'est le fameux LUCA), on peut aussi postuler un langue disparu, le proto-mondial, qui serait l'ancêtre de toutes les langues parlées aujourd'hui sur Terre. L'existence du nostratique et du proto-mondial a beau être spéculative (rien ne prouve réellement que les langues humaines aient une origine commune), ça n'a pas empêché certains linguistes de se livrer à des tentatives de reconstruction. Le russe Vladislav Illich-Svitych a même composé un poème en Nostratique :

.KelHä we.tei ‘a.Kun kähla
.kalai palhA-.kA na wetä
s'a da ’a-.kA ’eja ’älä
ja-.ko pele .tuba wete (2)

Ce qui signifierait grosso-modo :
Le language est un gué jeté sur la rivière du temps
Qui nous entraîne vers la maison des ancêtres disparus.
Mais il n'atteindra pas le but,
Celui qu'une eau profonde effraie.
Et si vous n'êtes toujours pas convaincu, sachez que les nénés des Français (ou plutôt : des Françaises) se disent nenka en Bulgare, nai en Chinois et ñuñu en Quechua. CQFD ! (3)

(1) Linguists Debating Deepest Roots of Language
(2) Nostraticist Vladislav Markovich Illich-Svitych
(3) Deriving Proto-World with tools you probably have at home

14.10.07

115 - Digital Forensics

Digital forensics, ou investigation digitale, c'est le nom que le Dr. Hany Farid, du Darthmouth College, donne a son nouveau job : démasquer les trucages numériques dans les images publiées dans la presse et ailleurs.

In society today, we're now seeing doctored images regularly. If tabloids can't obtain a photo of Brad Pitt and Angelina Jolie walking together on a beach, they'll make up a composite from two pictures. Star actually did that. And it's happening in the courts, politics and scientific journals, too. As a result, we now live in an age when the once-held belief that photographs were the definitive record of events is gone. (1),

Hany Farid développe donc un logiciel intitulé "Q" pour faire la distinction entre une image retouchée et une image brute. "Q" permet de détecter les copier-coller, les manipulations de couleur et de contraste, et les photomontages, en se basant sur la consistance de l'éclairage. En plus de prouver que Brad Pitt et Angelina Jolie ne sont PAS allés ensemble à la plage (ou que, si ils y sont allés, il n'y avait pas de photographe dans les parages), ça sert à toutes sortes de choses : les Canadiens l''utilisent pour démasquer les pêcheurs indélicats qui tentent de tricher au concours de pêche à coups de Photoshop. Mais il y a aussi des enjeux un poil plus essentiels, dans la mesure où l'image est devenue une part importante, parfois essentielle, de la communication scientifique.

Selon le Federal Office of Research Integrity , dont le job est d'enquêter sur les allégations de fraude scientifique, le nombre d'affaires mettant en cause des manipulations d'images est passé de 3% en 1990 à à 41% en 2006. Hany Farid a pu ainsi démasquer une équipe de Corée du Sud dont l'article publié dans Science montrait le résultat d'un superbe clonage de cellules... à coups de tampon dans Photoshop !

Si le fait de manipuler digitalement les images scientifiques peut-être utile, voire indispensable pour les rendre compréhensibles, le problème est de parvenir à fixer un seuil, une limite, entre l'amélioration visuelle l'escroquerie assistée par ordinateur... Et le problème est particulièrement aigu pour les revues scientifiques, dont le système de peer-review est censé garantir contre l'imposture...
The scientific community as a whole needs to come out with a well-thought-out policy on what is and isn't acceptable when it comes to altering photographs. (...) The journals are probably going to have to hire more staff. That will slow down the publication pipeline somewhat. But the cost of these scandals is too high. They undermine the public's faith in science. (1)

(1) New York Times - A conversation with Hany Farid

4.7.07

114 - Théorie du soma jetable

La théorie du soma jetable répond, ou tente de répondre, à une question relativement fondamentale : pourquoi la mort ? Eh oui : pourquoi mourir bêtement de vieillesse quand on est le produit de 4 milliards d'années d'évolution censée sélectionner les organismes les plus aptes à la survie ? La mort est-elle inéluctable ? La mort a-t-elle un fonction ? Rien n'est moins sur : on sait multiplier la durée de vie de vers ou de mouches jusqu'à 5 ou 6 fois en désactivant des gènes spécifiques, les gérontogènes, qui sont responsables de la sénescence, et sont donc chargés, de fait, d'abréger la vie. Comment la sélection naturelle a-t-elle pu choisir les gérontogènes ? Bref : pourquoi on meurt ?

D'abord, on ne meurt pas tant que ça. On meurt partiellement. Un être humain est constitué, comme tout animal, de deux catégories de cellules bien distinctes : les unes, les cellules germinales sont aptes à devenir des gamètes (spermatozoïdes ou ovules) ; les autres, les cellules somatiques, assurent les diverses fonctions de l’organisme. Seules ces dernières sont mortelles.

Les cellules germinales sont potentiellement immortelles, parce qu’une fois unies par la fécondation, elles peuvent donner naissance à de nouveaux individus, et ce pendant un nombre apparemment illimité de générations. Manifestement, ces cellules n’éprouvent aucune forme de sénescence. Par contre, les cellules somatiques sont mortelles. (1)

La sélection naturelle ne va "choisir" une mutation favorable à la survie du soma que dans les limites de son utilité reproductive.

Devenu stérile ou vieux, un individu perd toute valeur du point de vue sélectif. Sa disparition sera sans conséquence pour l’avenir de sa lignée – à moins qu'il ne reste quelque temps encore utile à la survie de sa progéniture. (1)

Formulée en 1977 par Thomas Kirkwood, la théorie du soma jetable développe cette idée, en l'envisagent d'un point de vue allocation de ressources :

Cette théorie part d'un constat : la maintenance de l'organisme a un prix, car elle exige des mécanismes spéciaux qui, de plus, consomment de l'énergie.Cela pose un problème d'llocation de ressources. Combien l'organisme peut-il en détourner de sa seule tâche vraiment incontournable, qui est de se reproduire, ou pour employer un langage inspiré par Richard Dawkins, de véhiculer ses gènes jusqu'à la génération suivante ? (2)

Un problème d'allocation de ressources, ça semble surmontable... Mais attention : une théorie concurrente, répondant au déplaisant patronyme de pléiotropie antagoniste, complique les choses en stipulant que les mutations inactivant les gérontogènes ont divers inconvénients pour les animaux ou les êtres humains dont la vie est prolongée. (1) Par exemple en favorisant le développement de cancers précoces...

Bref, on n'est pas sortis d'affaire ! Je parle, bien sûr, au nom de mes cellules somatiques.

(1) L'observatoire de la génétique : Le vieillissement à la lumière de la théorie de la sélection naturelle.
(2) André Klarsfeld : De fausses bonnes raisons de mourir, in Les dossiers de la Recherche n°27

22.5.07

113 - Anaphore

Bon, d'accord, c'est vrai : j'ai manqué à mon promesse d'au point un post par semaine... C'est mal. Mais foin de la repentance qui est, comme on sait, une forme de la haine de soi. Pour me faire pardonner, j'ai découvert la vraie raison de l'élection de Nicolas Sarkozy. La vraie raison de l'élection de Nicolas Sarkozy c'est l'usage massif de l'anaphore. Oui, l'anaphore : cette figure de rhétorique, qui se caractérise par la répétition d'un même mot ou d'un même segment en tête de vers ou de phrase...
Rome, l'unique objet de mon ressentiment !
Rome, à qui vient ton bras d'immoler mon amant !
Rome qui t'a vu naître, et que ton cœur adore !
Rome enfin que je hais parce qu'elle t'honore ! (1)
Des anaphores, le candidat Sarkozy en a commis une quantité assez colossale durant la campagne...
Nous devons être capables de proposer aux peuples européens une Europe dotée d’un gouvernement économique qui défende les intérêtes des Européens.
Nous devons être capables de leur proposer une Europe où un rapprochement européen d’entreprises ne puisse pas être interdit parce qu’il est présumé pouvoir engendrer un abus de position
dominante.
Nous devons être capables de leurproposer une Europe où les dogmes de la concurrence n’interdisent pas les politiques industrielles. (2)

Vous reconnaissez le procédé ? C'est pas du Corneille, mais c'est tout comme : c'est du Henri Guaino ! Même si l'anaphore n' a pas fait directement élire Nicolas Sarkozy, elle a au moins joué un rôle emblématique dans le succès d'une rhétorique largement basée sur... la répétition. Si Arlette reste la championne toutes catégories, Nicolas Sarkozy arrive bon second au palmarès du copier-coller, avec un taux moyen de recyclage de 24 % sur l'ensemble de ses discours de campagne. Damon Mayaffre linguiste au CNRS, a -par exemple- compté 241 occurences du mot autorité en 43 meetings. Et 39 fois la formule "nous n'avons pas le droit de..."
Il [Nicolas Sarkozy] a toujours utilisé des phrases courtes et concises - alors que sa concurrente socialiste employait des phrases longues nourries d'incidentes - dont le propos était repris, martelé et amplifié par de nombreuses figures de répétition, telle l'anaphore rhétorique ("Ma France, c'est celle de tous les Français (...). Ma France, c'est celle des travailleurs..."), technique oratoire qui cherche à fixer des vérités et à entraîner l'adhésion des auditeurs. Comme s'il s'agissait de donner dans la syntaxe et le rythme des énoncés un équivalent de ce que serait son attitude à la tête de l'Etat : persévérance dans l'action et recherche de résultats rapides. (3)
Cela dit, s'il suffisait d'employer massivement l'anaphore pour se faire élire, ça se saurait. Tenez, celui-là, par exemple :
Au bois il y a un oiseau, son chant vous arrête et vous fait rougir.
Il y a une horloge qui ne sonne pas.
Il y a une fondrière avec un nid de bêtes blanches.
Il y a une cathédrale qui descend et un lac qui monte... (4)
Eh ben il a jamais réussi à se faire élire nulle part !

(1) Horace - Pierre Corneille
(2) Nicolas Sarkozy - discours à Strasbourg, 21-01-07
(3) Le Monde - Sarkozy, le poids des mots, par Michel Erman
(4) Arthur Rimbaud - Illuminations

Voir aussi : 107 - Pataphore

27.4.07

112 - Coévolution gène-culture

Durant au moins deux millions d'années, nos ancêtres ont reçu en héritage deux sortes d'informations : l'une codée par des gènes l'autre par la culture. (1)
Cette notion de double héritage est à la base de ce que les généticiens des populations appellent coévolution gène-culture : d'une part, les traits culturels se transmettent de génération en génération et évoluent selon un principe darwinien (on retrouve la mémétique de Richard Dawkins) ; d'autre part gènes et traits culturels exercent une influence réciproque. Les deux types d'information (patrimoine génétique et patrimoine culturel) se transmettent d'une génération à l'autre parallèlement, et interagissent. C'est l'étude quantitative de cette interaction à double sens (Luca Cavalli-Forza et Marc Feldman 1976) qui fonde spécifiquement l'approche coévolutive.

Un résultat fameux a été, par exemple, de mettre en évidence la corrélation entre l'invention de l'élevage et la large diffusion du gène humain permettant la digestion de la lactose. (Ulijaszek & Strickland 1993). L'un des intérets est aussi de pouvoir prendre compte des traits culturels dont la valeur sélective est négative, comme par exemple : l'usage de méthodes contraceptives ! Les coévolutionnistes parlent de valeur culturelle, qui peut contrebalancer la valeur sélective d'un trait culturel.

Les coévolutionistes interprètent la culture humaine en termes darwiniens : au gène correspond la notion de mème, à l'héritage génétique la transmission culturelle et à la mutation... l'innovation. L'une des différences est que, tandis que la transmission génétique est seulement verticale (du parent vers l'enfant), la transmission culturelle est verticale et horizontale (elle fonctionne aussi au sein d'une même génération).

Un autre concept important est la construction de niche qui décrit les processus par lesquels les organismes modifient leur environnement plutôt que de seulement s'y adapter : nids, terriers, etc. Dans la mesure où nous autres humains, avons pousssé assez loin le processus, on peut se demander quel est le rôle de la coévolution sur l'évolution future du genre humain... Question à laquelle les généticiens ont déjà répondu :
En fait, au cours des 25 à 40 000 dernières années, le principal déterminant de l'évolution humaine a probablement été exclusivement culturel. (1)
(1) Kevin N. Laland : Gene-Culture Coevolution
Kevin N. Laland : Gene-culture Co-Evolution (PowerPoint)

23.3.07

111 - Racketiciel

Dans la longue série des francisations plus ou moins réussies et plus ou moins utiles (gratuiciel, partagiciel, & co) voilà que pour une fois la VF précède la VO (qui du coup n'est plus O!). C'est l'AFUL (1) qui signe cette innovation, avec le lancement, en novembre dernier, d'une pétition intitulée Non aux racketiciels !

Qu'est-ce qu'un racketiciel ? C'est l'un des nombreux logiciels préinstallés sur l'ordinateur neuf que vous venez d'acheter : le premier d'entre eux est évidemment Windows, mais il y en a en général une foultitude d'autres : logiciels de gravure, antivirus, logiciels graphiques et/ou multimédia plus ou moins utiles... Alors, je vous entends d'ici : où est le problème, puisqu'ils sont gratuits ?

En fait, il y a deux cas de figure :

1 - les versions d'essai, bridées ou light de différents "grands" softs de chez Adobe, Roxio ou Microsoft... Utiliser ces programmes est généralement pénible, car ils vous font payer le fait d'utiliser une version "gratuite" ou "light" en vous rappelant régulièrement tous les avantages du produit payant. Les désinstaller est souvent un vrai parcours du combattant !

2 - les racketiciels, qui ne sont gratuits qu'en apparence. Windows n'est évidemment pas gratuit, et les logiciels utilisables qui l'accompagnent non plus. Si vous voulez utiliser d'autres programmes ou un autre système d'exploitation, le fait d'être obligés d'acheter ces logiciels préinstallés s'apparente à du racket. D'où le terme racketiciels.

Si l'omniprésence de Windows préinstallé sur les PC vendus aux particuliers insupporte les défenseurs du logiciel libre, elle pose en plus un problème de droit. Ainsi que le rappelle le texte de la pétition de l'AFUL :
La vente conjointe et indissociable du matériel (qui est un bien dont on devient propriétaire) et des licences logicielles (qui sont un service dont on acquiert un simple droit d'usage) constitue une vente liée, qui est donc illégale (voir les articles pertinents du Code de la Consommation) (2)
Bizarrement, Steve Jobs, ce défenseur sourcillieux des droits du consommateur face aux abus des maisons de disques (3), ne s'est pas encore exprimé sur la question...

(1) Association Francophone des Utilisateurs de Linux et des Logiciels Libres
(2) pétition "Non aux racketiciels"
(3) Steve Jobs : Thoughts on Music

15.3.07

110 - Fin de la science

Même si la fin de la science n' a pas connu le succès international de la fin de l'Histoire, de Francis Fukuyama, elle a tout de même énervé pas mal de monde et connu, du coup, un certain succès. C'est un journaliste scientifique, John Horgan, qui a annoncé la nouvelle dans un livre homonyme de 1996. (1)

L'idée de John Horgan est que la science se donne à elle-même des limites : limites théoriques à l'appréhension du réel, telles que celles qu'imposent le théorème d'incomplétude de Gödel ou le principe d'incertitude, mais surtout limites imposées à ses progrès futurs par ses succès passés :
Je crois que le tableau du réel et l'histoire du monde construites par les scientifiques, du big-bang aux temps présents, sont justes pour l'essentiel, et qu'elles seront aussi vraies dans 100 ou dans 1000 ans qu'elles le sont aujourd'hui. Je crois aussi que, vue la distance déjà accomplie et les limites encadrant la recherche future, la science aura bien du mal à opérer des ajouts significatifs au savoir qu'elle a déjà engendré. (2)
John Horgan, qui est prévoyant, répond par avance à toute une série d'objections, dont la première s'énonce ainsi : - C'est aussi ce qu'on pensait il y a 100 ans. Et, en effet, ce n'est pas la première fois qu'on annonce la fin de la science, la palme de la prophétie ratée revenant sans doute à Lord Kelvin qui déclare en 1900 :
Il n'y a plus rien à découvrir dans le domaine de la physique. Augmenter encore la précision des mesures est le seul progrès qui reste à faire.
Pas vraiment prémonitoire ! Mais faut-il croire pour autant que la science, qui a tant progressé au cours du siècle passé, va continuer de même éternellement ?
C'est une généralisation profondément erronée. (...) Parce que nous avons tous grandi au cours d'une période de progrès exponentiel, nous supposons tout simplement qu'il s'agit d'une caractéristique intrinsèque et permanente de la réalité. Dans une perspective historique, le rapide progrès scientifique et technique de la période moderne est une aberration, un coup de chance, le produit d'une singulière convergence de facteurs sociaux, intellectuels et politiques. (2)
Inutile de dire que les scientifiques d'aujourd'hui n'ont pas trop aimé qu'on leur sabote ainsi leur terrain de jeu ! Pourtant, il faut bien reconnaitre qu'aucun des grands paradigmes en vigueur au milieu du siècle précédant (quanta, relativité, sélection naturelle basée sur les gènes) n'a été balayé depuis. Les tentatives en ce sens (théorie des cordes, gravité quantique et autres TOEs) appartiennent, selon John Howard, à un mode spéculatif et non-empirique proche de la littérature ou de la philosophie, en ce sens qu'elles mettent en avant des points de vue, des opinions, peut-être intéressantes, mais ne convergeant pas vers la vérité.

La fin de la science rejoindra-t-elle celle de l'histoire dans les poubelles conceptuelles de... l'histoire, justement ? John Howard n'est-il qu'un nouvel avatar du déclinisme à la Kelvin ? Rendez-vous dans un siècle !

(1) John Horgan : The End of Science
(2) EDGE 3rd Culture: A TALK WITH JOHN HORGAN
Voir aussi : 107 - Pataphore

9.3.07

109 - Cosmologie évolutionniste

L'idée d'expliquer la génèse de notre univers physique en se servant de la théorie de l'évolution n'est pas neuve. Charles S. Peirce, plus connu comme l'un des pères de la sémiologie, en a développé une, assez fumeuse vue d'ici, selon laquelle...
toutes les régularités de l'univers ont été générées selon les principes de l'évolution à partir d'un chaos initial. A terme l'univers devrait devenir un système absolument parfait, rationnel et symétrique, dans lequel l'esprit sera enfin cristallisé dans le futur infiniment distant. (1)
En 1997, le physicien Lee Smolin a considérablement rajeuni l'idée dans son livre The Life of the Cosmos. L'idée est qu'un univers donné (oui, forcément, pour faire de l'évolution, il faut DES univers) peut donner naissance à un autre univers (un univers-bulle, qui s'étend dans un autre espace-temps) lorsqu'une étoile s'effondre sur elle-même et forme une singularité, autrement dit un trou noir.

Bon, OK, mettons. Mais quid des principes de mutation et de sélection naturelle ?
L'élément-clé introduit par Smolin dans son argument, est que chaque fois qu'un bébé-univers se forme, les lois fondamentales de la physique y sont légèrement transformées (...). Le processus est analogue (et peut-être plus qu'analogue) à la façon dont les mutations amènent de la variabilité aux formes de vie organiques sur lesquelles opère la sélection naturelle. Chaque bébé-univers est, non pas une réplique exacte de son parent, mais une copie légèrement transformée. (2)
Voilà pour la mutation. La sélection naturelle fonctionne sur la capacité d'un univers à en générer d'autres, autrement dit, sur sa capacité à produire beaucoup de trous noirs. Et là, justement, ça tombe bien :
Or, il se trouve que les univers typiques fertiles en trous noirs sont des univers très particuliers, où par exemple carbone et oxygène peuvent se former (...). Autrement dit, un univers riche en trous noirs sera typiquement un univers où la vie a de plus grandes chances d'apparaître. Comme la "fertilité" d'un univers est directement liée au nombre de ses trous noirs, on voit donc que les univers évoluent naturellement par ce processus de sélection vers des univers "biofrendly". L'apparition de la vie devient alors beaucoup plus probable. (3)
Et voilà résolu le problème (mais est-ce un problème ?) du « réglage fin » des lois de la physique, réglage qui les rend compatibles avec l'apparition de la vie. Pour Lee Smolin, il n'y a aucune coïncidence : certains univers sont informes et sans vie, mais la sélection naturelle cosmique favorise les univers à trous noirs et les univers à trous noirs sont compatibles... avec nous !

(1) Peirce on Norms, Evolution and Knowledge
(2) Prospect magazine : John Gribbin : Cosmology and evolution
(3) Tom Roud : l'univers évolué

Voir aussi : 069 - Univers de poche

6.3.07

108 - Panique morale

Si les « valeurs » traditionnelles ne sont pas respectées, nous allons nous retrouver sur une pente « glissante » ou « fatale ». (...) Si on aide à mourir les grands souffrants sans aucun espoir de guérir, on finira par faire mourir tous les plus vieux. (...) Si on commence par fumer des joints, on passera au crack puis au trafic, puis à brûler des voitures et attaquer la police pour le protéger. (1)
Cet argument de la pente fatale est à la base d'un discours très présent dans l'espace public aujourd'hui et que le philosophe Ruwen Ogien nomme panique morale. La grande crainte qui sous-tend ce discours, c'est celle d'un effondrement de la société. Certaines institutions, comme la famille hétérosexuelle biparentale, sont vues comme des organes vitaux, dont la destruction porterait un coup fatal au corps social dans son ensemble. (1) Que des milliers de familles recomposées ou homoparentales se soient déjà formées sans que la la société ne s'effondre ne change d'ailleurs rien à cette angoisse...

Le discours de la panique morale pose les problèmes en termes de valeurs plutôt qu'en termes de droits ou d'intérêts, et ce glissement de vocabulaire n'est évidemment pas neutre :
Aux Etats-Unis, George W. Bush et le camp républicain ont exploité en permanence la valeur « famille » pour nier aux personnes de même sexe le droit de se marier et d'élever des enfants, la valeur « vie » pour contester le droit davorter, la valeur « sécurité » pour brider le droit à informer des journalistes et les droits de la défense (...). (1)
La question que pose Ruwen Ogien, c'est : pourquoi le discours sur les valeurs, thème traditionnel de la droite, déborde-t-il à ce point aujourd'hui sur le discours de la gauche ? L'idée que l'électorat « populaire » serait plus sensible à des « valeurs morales » qu'à ses droits, ses libertés et ses intérêts matériels, est-elle une idée juste ?

(1) Le Monde 2 du 3-03-07: entretien avec Ruwen Ogien
Editions Grasset : La panique morale
Sciences humaines : Halte à la panique morale !

1.3.07

107 - Pataphore

La pataphore est une « surmétaphore », une extension de la métaphore, de la même façon qu'on peut considérer la pataphysique comme une extension de la métaphysique en ce qu'elle s'étend aussi loin au-delà de la métaphysique que la métaphysique au-delà de la physique.

La première description du concept serait parue dans Closet 'Pataphysics (La Nouvelle-Orléans, 1990) sous la plume d'un certain Paul Lopez, pseudonyme d'un écrivain-chanteur du nom de Paul Avion (non, ça n'est pas une pataphore !). Si le concept semble plutôt intéressant, l'exemple de pataphore donné par Wikipedia me pose problème :
« La lune s'est levée au-dessus de la mer où les pirates ont navigué. La lune était un bol de lait, bu par un chat, le chat d'Axelle. »
1. La lune (et les pirates et la mer) existent en réalité.
2. Le bol de lait existe dans la métaphore.
3. Le chat (et Axelle, et le monde où ils vivent) existe dans la pataphore. (1)
Sauf que le chat et Axelle - à mon avis - ne rajoutent aucun degré : ils vivent dans le même monde que le bol de lait, donc dans celui de la métaphore. La lune était un bol de lait, bu par un chat à l'œil de braise, par exemple, me conviendrait mieux. La braise n'existe que dans un 3ème monde : ni celui de la lune, ni celui du chat. Le site officiel de la pataphorologie donne quelques autres exemples trop longs pour figurer ici, et propose une extension de la pataphore au domaine scientifique :
On peut dire de la théorie des cordes que c'est une sorte de pataphore mathématique, en ce qu'elle est une supposition basée sur une supposition. En d'autres termes, dans la mesure où la théorie des cordes est une spéculation basée sur des idées qui sont elles-mêmes spéculatives (en l'occurence : la théorie de la relativité générale et la mécanique quantique), la théorie des cordes n'appartient pas à la physique mais à la 'pataphysique. (2)
Sauf que là aussi, c'est assez discutable : d'abord relativité générale et mécanique quantique ne sont plus des idées spéculatives depuis longtemps... Et puis le rapport de la physique au réel fonctionne-t-il sur le mode de la métaphore ? Ca, pour le coup, c'est une idée spéculative !

(1) Wikipedia : pataphore
(2) paulavion.com : pataphorology

16.2.07

106 - Espace moteur

Pour Henri Poincaré (1854-1912), l'espace de nos sensations et de nos représentations n'est pas l'espace continu, homogène, isotrope et infini des géomètres. Cet espace représentatif se compose en fait de la superposition de 3 espaces distincts : l'espace visuel, l'espace moteur et l'espace tactile.

L'espace visuel a 3 dimensions, dont 2 correspondent à l'image plane qui se forme sur la rétine, et la 3ème à l'effort de convergence et d'accomodation qui permet d'apprécier la distance. Dans la mesure où tous les points de la rétine ne jouent pas le même rôle, cet espace visuel n'est pas homogène. Dans la mesure où la distance (la coordonée z) est perçue par un processus différent des 2 autres, il n'est pas non plus isotrope.

Poincaré ne détaille pas les caractéristiques de l'espace tactile qui, dit-il, est plus compliqué et s'éloigne encore davantage de l'espace géométrique. Par contre il s'attarde sur l'espace moteur, notion plus inhabituelle, qui fait intervenir un espace à n dimensions :
En dehors des données de la vue et du toucher, il, il y a d'autres sensations qui contribuent autant et plus qu'elles à la génèse de la notion d'espace. Ce sont celles que tout le monde connait, qui accompagnent tous nos mouvements, et que l'on appelle ordinairement musculaires.

Le cadre correspondant constitue ce que l'on peut appeler l'espace moteur.

Chaque muscle correspond à une sensation spéciale, susceptible d'augmenter ou de diminuer, de sorte que l'ensemble de nos sensations musculaires dépendra d'autant de variables que nous avons de muscles. A ce point de vue, l'espace moteur aurait autant de dimensions que nous avons de muscles. (1)

On sait que cette notion a influencé les cubistes ( Gleizes et Metzinger l'évoquent dans Du cubisme ) ainsi qu'un certain Marcel Duchamp, dont le fameux Nu descendant un escalier ressemble d'ailleurs à une évocation directe de cet espace moteur de Poincaré.

(1) ABU : Henri Poincaré - La Science et l'hypothèse
Anastasios Brenner : Géométrie et genèse de l’espace selon Poincaré

7.2.07

105 - Livre à la découpe

Quand on achète de la musique sur Internet au lieu de la choisir dans les bacs d'un disquaire, l'objet « album » perd beaucoup de sa pertinence : pourquoi acheter 12 morceaux d'un coup, s'il y en a un seul que j'aime ? Ca semble imparable. Mais le même raisonnement doit-il s'appliquer au livre ? Le débat existe depuis l'annonce par Amazon de Amazon Pages, un programme qui permettra aux clients d'Amazon d'acheter des livres à la découpe : c'est à dire de payer non plus pour un livre entier mais pour les pages qui les intéressent à l'intérieur d'un livre. (1)

Pour les défenseurs de l'objet livre, le droit moral de l'auteur s'oppose à un tel saucissonnage. Sans vouloir défendre la Charcuterie contre la Littérature, je tiens à faire remarquer que l'enjeu de l'affaire est purement économique, puisque le saucissonnage fait déjà partie – heureusement – des droits imprescriptibles du lecteur. A ce sujet, je vous recommande chaudement le livre de Pierre Bayard : Comment parler des livres qu'on n'a pas lus (2), qui établit une véritable taxinomie des livres non-lus, en fonction de leur degré de non-lecture ( LP=livres parcourus, EP=livres dont on a entendu parler, LO=livres oubliés, etc... ) et de la valeur qu'on leur attribue (de -- à ++ ), la non-lecture d'un ouvrage n'empêchant évidemment pas d'avoir un avis précis quant à sa valeur.

Il va de soi que je n'ai pas vraiment lu le livre de Pierre Bayard - ç'aurait été une abominable faute de goût. Je n'ai pas non plus lu d'extraits sur Internet : y en a pas. Non, je l'ai parcouru à l'ancienne, debout dans les rayons de la FNAC, ce qui m'a permis de savourer quelques phrases particulièrement cocasses de Gide sur Proust, qu'il n'a pas lu mais tient en grande estime, et d'attribuer à l'ouvrage la mention LP+ : livre parcouru, avec opinion favorable.

Comme quoi les nouvelles technologies, décidément, ne changent pas grand chose !

(1) affordance.info: Livre à la découpe.
(2) Fnac.com : Comment parler des livres qu'on n'a pas lus, Pierre Bayard

30.1.07

104 - Neurone miroir

Vous êtes un chimpanzé et vous avez décidé d'attraper une belle cacahouète posée devant vous. Comment allez-vous vous y prendre ? Facile : vous commencez par activer certains neurones de votre lobe frontal (les neurones cacahouète ), qui vont se charger de toute l'intendance.

Ce que Rizzolati, Gallase et Iaccoboni (université de Parme) ont découvert en 1996, c'est qu'une partie de ces neurones, les neurones miroirs (1) vont réagir exactement de la même façon en accomplissant une action et en regardant quelqu'un d'autre l'accomplir. L'espèce qui aurait développé le plus de neurones miroirs... Ben c'est nous.

Ce sont les neurones miroirs qui nous permettraient d'éprouver de l'empathie, de deviner les intentions ou les sentiments d'autrui. Ce sont eux aussi ( par leur défaillance ) qui seraient responsables de l'autisme... Ce sont eux, surtout, qui nous permettraient d'apprendre par imitation, nous laissant du coup l'opportunité de développer une culture, ( un patrimoine cognitif transmis de génération en génération ) qui semble l'apanage de quelques rares primates parmi lesquels homo sapiens et le chimpanzé.

Mais le neurologue V.S. Ramachandran attribue à ces neurones miroir un rôle encore plus fondamental, puisqu'il les considère comme les neurones de la conscience ! Les neurones miroir auraient d'abord évolué pour permettre à leurs propriétaires de développer une TOM ( theory of other minds ), dont on voit bien quel avantage évolutif elle représente : grâce à elle, on peut deviner les émotions d'autrui, anticiper ses réactions, etc... Ensuite seulement, une sorte de retournement aurait permis d'utiliser les fameux neurones miroir non plus sur autrui mais sur soi même, donnant ainsi naissance à la conscience...

Tout ça reste encore spéculatif, of course, mais comme le remarque V.S. Ramachandran :
Il se pourrait que l'utilisation de l'expression "self conscious" pour dire que vous êtes conscients des autres étant conscients de vous, ne soit pas une coïncidence. Pas plus que de dire « Je réfléchis » pour dire que vous êtes conscients de vous-même en train de penser.
Je vous laisse... euh... méditer la validité de l'argument. Et si vous préférez utiliser votre neurone cacahouète ( et que vous possédez aussi un neurone anglophone ) je vous recommande chaudement le numéro de NOVA Science Now sur cette histoire (3) qui est partiellement visible en ligne.

(1) Giacomo Rizzolatti et al. (1996). Premotor cortex and the recognition of motor actions, Cognitive Brain Research 3 131-141
(2) Edge: THE NEUROLOGY OF SELF-AWARENESS by V.S. Ramachandran
(3) NOVA Science Now : Mirror Neurons

22.1.07

103 - Hypothèse Sapir-Whorf

L'hypothèse Sapir-Whorf, formulée dans les années 30 par le linguiste américain Benjamin Whorf en se basant sur les idées de son professeur Edward Sapir, postule l'existence d'une forte relativité linguisitique : les différentes langues, selon Whorf, ne sont pas autant de collections d'étiquettes, mais autant de visions du monde :
Le fait est que la "réalité" est, dans une grande mesure, inconsciemment construite à partir des habitudes langagières du groupe. Deux langues ne sont jamais suffisamment semblables pour être considérées comme représentant la même réalité sociale. Les mondes où vivent des sociétés différentes sont des mondes distincts, pas simplement le même monde avec d'autres étiquettes. (1)
L'idée que les cultures humaines sont influencées par leur langue n'est pas neuve ( même en 1930 ). On sait que les Esquimaux ont une centaine de mots différents pour désigner la neige... Sauf que c'est faux (2) mais passons : l'hypothèse Sapir-Whorf ne se base pas sur les variations du lexique mais sur celles des structures grammaticales, censées correspondre à des modes de pensée profonds, inhérents au langage, que Whorf appelle des cryptotypes. Vous ne percevez pas la réalité de la même façon selon que vous êtes un anglophone ou un indien Hopi de l'Arizona :
Selon Whorf, la langue hopi ne comporte aucune marque du passé, du présent et de l'avenir, mais des formes de validité (selon que la chose est vue ou rapportée de mémoire), des aspects (selon que les choses durent, ou tendent vers une autre) et des modes (qui marquent l'ordre des faits). Il en déduit que les Hopis ne conçoivent pas le temps comme les Européens. Ce n'est pas une durée homogène et quantifiable, mais un « passage » plus ou moins intense d'un fait à un autre. (3)
Dominante jusqu'aux années 60, l'hypothèse de Sapir-Whorf a été battue en brèche par les tenants du courant innéiste, représenté entre autres par Jean Piaget et Noam Chomsky, qui préférait faire correspondre le fonctionnement de la pensée avec des mécanismes neuropsychologiques fondamentaux et universels.

Depuis une dizaine d'années, le grand balancier de la mode scientifique semble en train de revenir vers un certain relativisme linguistique. (4) Repenser la relativité des langues, certes, mais sans revenir au déterminisme linguistique que suggère l'hypothèse Sapir-Whorf : si le langage structure et façonne effectivement la perception du réel, il reste possible d'échapper à cette prison de la langue, ne serait-ce qu'en en apprenant une autre ! Capito ?

(1) Détrie, Siblot, Vérine 2001, cités par Wikipedia
(2) Charlatans.info : Combien de mots Esquimaux pour la neige ?
(3) Magazine Sciences humaines : L'hypothèse Sapir-Whorf. Les langues donnent-elles forme à la pensée ?
(4) John J. Gumperz and Stephen C. Levinson - Rethinking linguistic relativity

19.1.07

102 - Art logiciel

Qu'est-ce que c'est que l'art logiciel ? Euh... Si on voyait d'abord ce que ça n'est pas ? Une œuvre d'art logiciel n'est pas, donc, une œuvre fabriquée avec un logiciel ou un ordinateur. Ce n'est pas une œuvre qui utilise des moyens logiciels, c'est même plutôt l'inverse : c'est un logiciel écrit dans une perspective artistique. Mais encore ?
Une œuvre d'art logicielle est, d'abord et avant tout, un logiciel créé dans un but différent des logiciels pragmatiques traditionnels. Il ne faut pas le considérer comme un outil pour la production et la manipulation d'objets digitaux - tels que des comptes en banque ou des œuvres d'art - mais comme une œuvre à part entière. (1)
Ce qui différencie les promoteurs de l'art logiciel de la foultitude  d' « artistes multimédia » dont on voit les installations au Siggraph, c'est l'accent mis sur le code comme véritable moyen d'expression, riche, et non réductible à une fonction.
On a toujours vu le logiciel comme un outil neutre,  un medium transparent  traitant de l'information. (...) On a toujours considéré qu'un logiciel et que les objets créés avec son aide appartenaient à des registres différents, qu'ils n'étaient même pas comparables. Dans la plupart de cas, on considère le logiciel comme étant 100% interchangeable avec un produit concurrent, sans aucun effet sur le résultat. Une telle approche repose sur des prémices stéréotypées et inexactes. (1)
Pour ses promoteurs, l'art logiciel répond à une nécessité à la fois artistique et politique. Tout logiciel définit un cadre, des règles, un rapport au monde, auquel il est bien difficile d'échapper... A moins de réécrire le logiciel.

Concrètement qu'est-ce que ça donne ? De tout. De l'ASCII Art, de la poésie logicielle ( William Blake adapté en langage Perl ! ), de vieux jeux Sinclair ZX rebricolés artistiquement, des programmes génératifs qui « créent » des images et des sons, un Game of Life à deux joueurs, des parodies de programmes commerciaux et de sites web, et même un programme qui s'efface lui même dès qu'on le lance... Tout ça est bien sûr disponible en ligne, notamment chez runme.org. Et le premier qui demande à quoi ça sert va au coin avec le bonnet d'âne !

(1) Read-me festival 1.2

Voir aussi :
041 - Obfuscated Code
027 - Algorisme

15.1.07

101 - No Free Lunch Theorem

L'optimisation numérique est un domaine des mathématiques appliquées qui s'occupe de trouver des solutions aux problèmes trop compliqués pour les maths. Officiellement on appelle ça des problèmes NP-complets (1) Ce genre de problèmes ne peuvent être résolus complètement un un temps « polynomial » : en gros, ça prend des siècles à calculer. On cite souvent le problème du voyageur de commerce (2) en exemple, mais il y en a partout.

Que faire face à un problème NP-complet ? On peut tester la totalité des résultats possibles : c'est la méthode de la force brute, qui peut prendre des siècles (ou des millénaires) de calcul... On peut aussi explorer ce gigantesque espace des résultats à l'aide d'un algorithme d'optimisation numérique. Il y en a pour tous les goûts, du recuit simulé à la cross-entropy en passant par la GRASP ( ben oui : la Greedy randomized adaptive search procedure ! )

Et le free lunch alors ? J'y viens. Un théorème démontré par David H. Wolpert et William G. Macready en 1995 prouve qu'aucun algorithme d'optimisation numérique n'est plus efficace qu'un autre en général. Celui qui sera le meilleur sur une classe particulière de problèmes sera le moins bon sur une autre, etc... Donc, pas de recette miracle. No free lunch ! D'où le nom du théorème. La vraie conclusion de tout ça, note Tom Roud, c'est que les numériciens et les spécialistes d'optimisation numérique ne seront jamais au chômage : chaque problème nécessite une étude approfondie et un algorithme spécifique pour être résolu. (3)

Là où l'histoire devient amusante, c'est que certains néocréationnistes ( encore eux ! ) ont prétendu se servir du théorème en question pour attaquer le mécanisme de l'évolution... (4) J'avoue ne pas avoir approfondi, mais le contresens semble flagrant : d'abord parce que la sélection naturelle a tout son temps ( 4 milliards d'années et quelques d'années ! ) et peut donc très bien se passer d'optimisation. Et puis parce que, comme l'explique Adam Ierymenko, personne ne prétend que la vie sur Terre soit parfaitement optimisée...
Certaines choses ont évolué d'une façon qui nous semble inefficiente. Nous pouvons imaginer un meilleur design. En effet, nos cerveaux sont, tout comme le processus d'évolution, des algorithmes. Mais ce sont des algorithmes différents et pour cette raison, conformément au no free lunch theorem, il y a des problèmes que nos cerveaux vont résoudre mieux que ne l'a fait l'évolution... Et réciproquement. (5)
(1) Wikipedia : Complexity classes P and NP
(2) Wikipedia : Problème_du_voyageur_de_commerce
(3) Tom Roud : Le "No Free Lunch Theorem"
(4) William A. Dembski : No Free Lunch: Why Specified Complexity Cannot Be Purchased without Intelligence
(5) GreyThumb.Blog ; Incompetent design and the no free lunch theorem

8.1.07

100 - Droit opposable

Un droit opposable est un droit qui permet à tout citoyen de faire condamner par la justice toute autorité publique qui ne le respecterait pas. On est clairement dans le registre de la tautologie : un droit opposable est un droit qui est vraiment un droit. C'est un peu l'équivalent d'une vraie bonne idée. Non seulement c'est un droit, mais en plus c'est un droit. C'est l'Etat qui nous dit : « Juré, craché, si je mens, j'vais en enfer ! »

Déjà présent dans les programmes de Laurent Fabius (1) et de Nicolas Sarkozy, le droit opposable au logement devrait être inscrit dans la loi française le 17 janvier et concerner toutes les personnes logées dans des habitations insalubres ou indignes... dès 2012 !

Bref, les problèmes vraiment dramatiques que rencontrent 85000 SDF et 4 millions de mal logés (2), c'est de l'histoire ancienne. Enfin, plus exactement, ce sera de l'histoire ancienne en 2012. A cette date les SDF n'auront plus qu'à se trouver un bon avocat pour avoir un toit. La France sera enfin un endroit sympa et solidaire où qu'il fera bon vivre... Au petit jeu des promesses, Nicolas Sarkozy avait déjà fait mieux avant de se faire griller la politesse : 0 ZDF en 2009 ! C'est drôle comme le paradis des politiques est toujours quelquepart après la prochaine élection...

Concrètement ça se passe comment ? Qui a droit à quoi ? L'avant-projet de loi, qui a fuité sur Internet, n'apporte guère de réponses... (2) En attendant, Eric Le Boucher a proposé dans le Monde un autre droit opposable qui semble, dans le contexte actuel, franchement utopiste :
Que la France du logement social soit en échec, voilà qui est avéré. L'abbé Pierre aura beau y avoir consacré sa vie, il y a cinquante ans que cela dure. Le problème de fond aujourd'hui est que la France manque de 600 000 logements. (...) Mais M. Chirac n'a pas le temps d'attendre. Son gouvernement propose à la va-vite un système typiquement français : un droit (un de plus donc) si complexe que personne ne voit vraiment comment il va s'appliquer et qui, en tout état de cause, n'entrera pas en vigueur avant... plusieurs années.

Si on peut formuler un voeu en ce début d'année, c'est que l'élection mette un terme final à ce chiraquisme compassionnel. S'il est un seul droit opposable qu'il faut faire voter d'urgence en France, c'est celui de sérieux. (3)

(1) Laurent Fabius : Nous devons faire du droit au logement un droit opposable
(2) Frédéric Rollin : droit au logement opposable : des chiffres au droit
(3) Le droit au sérieux opposable, par Eric Le Boucher