SETI@home, vous vous souvenez ? Mais si ! En 1999 ça a été premier programme scientifique à exploiter l'idée de distributed computing : autrement dit, l'idée d'utiliser des milliers d'ordinateurs personnels ordinaires connectés à Internet, à la place d'un seul supercomputer hors de prix. Grâce à un petit programme ad'hoc (qui faisait aussi extincteur d'écran) on pouvait laisser son ordi travailler pour la science pendant les pauses pipi (plus les nuits et les WE si affinités...)
Bon. Dans la foulée de SETI@Home l'université de Berkeley a produit une version « générique » du programme qui permettait à n'importe quel projet scientifique d'utiliser le même principe de distributed computing. Ils ont appelé ça BOINC, c'est à dire : Berkeley Open Infrastructure for Network Computing.
Très bien. David Baker a été l'un de ceux qui se sont saisis de cette nouvelle opportunité pour faire bosser les ordinateurs du monde entier sur un problème particulièrement gourmand en ressources : le « pliage » des protéines. (1) De là est né Rosetta@home.
Ca marchait très bien. Les ordinateurs de milliers de volontaires pliaient sans rechigner des tas de protéines, ou du moins ils essayaient, et c'est alors que les gens ont commencé à protester... Des lettres se sont mises à arriver, raconte David Baker, où les gens se plaignaient de ce que leur ordinateur essayait des tas de possibilités absurdes alors que la solution leur crevait les yeux...
Eh oui ! Obsédés qu'ils étaient par le côté technique de leur job, les informaticiens des Berkeley avaient oublié que chaque foyer du monde recèle au moins un ordinateur bien plus puissant que le dernier né de chez Compaq : un bête (et pourtant génial) cerveau humain !
Du coup David Baker et son équipe ont revu radicalement leur approche. Plutôt que d'utiliser le temps d'ordi disponible de leurs milliers de volontaires, ils leur ont demandé plutôt du temps de cerveau ! Et pour cela ils ont créé une plateforme de jeu, une sorte de puzzle géant à base de protéines réelles, avec niveaux, scores et tableau de high scores à la clé.
There’s this incredible amount of human computing power out there that we’re starting to capitalize on,” says Baker, who is feeding some of the best human tactics back into his Rosetta algorithms. (2)
Et ça marche ! Le numéro 466 de Nature publie un article signé par l'équipe de David Baker qui prouve l'efficacité de cette nouvelle approche, baptisée pour l'occasion distributed thinking, et qui ressemble au pendant scientifique du crowdsourcing déjà à l'œuvre dans d'autres domaines...
Players working collaboratively develop a rich assortment of new strategies and algorithms; unlike computational approaches, they explore not only the conformational space but also the space of possible search strategies. The integration of human visual problem-solving and strategy development capabilities with traditional computational algorithms through interactive multiplayer games is a powerful new approach to solving computationally-limited scientific problems. (3)
Michael Kearns, un informaticien chargé par le fameux DARPA d'évaluer le concept en 2008 est enthousiaste :
We're at the dawn of a new era, in which computation between humans and machines is being mixed. (2)
Il y a quand même un tout petit bémol...
There are also limits to games. If nothing else, says Kearns, as human computing becomes ubiquitous, people will no longer marvel at being a part of these networks and may start to feel exploited by them. (2)
Eh oui, ce serait bête que tous ces prouesses hi-tech et ces inventions dernier cri finissent par bêtement accoucher d'une notion aussi vieux jeu et dépassée que... le travail !
(1) pour tout savoir sur le « pliage » des protéines, on peut consulter le site de Foldit.
Voir aussi : 098 - Crowdsourcing
8 commentaires:
C'est fascinant !
Certains algorithmes informatiques utilisent ce principe de l'intelligence de l'essaim : plusieurs individus "bêtes" constituent ensemble une entité "intelligente".
C'est ici un peu la même idée, mais à l'échelle humaine et mondiale...
Vraiment fascinant !
Créer de l'intelligence à partir de multiples conneries bien distribuées est en effet un objectif fascinant.
Donner aux gens un revenu minimum, disons 1000 euros et ensuite leur permettre de bosser pour la collectivité...
http://www.mediapart.fr/club/edition/les-francais-letranger-de-mediapart/article/280810/1000-pour-chacun-du-nourisson-au-vie
Et dire qu'avec tous ces gens dans la rue et les 70% qui les soutiennent on a pas trouvé d'algorithme pour virer Sarko et prendre une retraite anticipée.
C'est que l'essaim ne bourdonne pas à l'unisson et la grappe se grippe.
Et le monolithe texturique, vous savez ce que c'est, c'est du rhizomed thinking pour donner une première piste qui ne sorte pas trop de cet article...
Débillarder... c'est ce qu'on ne sait plus faire ou presque...
Cet algorithme de l'essaim me fait penser à http://fr.wikipedia.org/wiki/Jean-Pierre_Balpe. Voir ses conférence contre l'intelligence artificielle qui n'est qu'algorithmique.
Oups font*
Tant qu'on y est
http://www.olats.org/livresetudes/basiques/litteraturenumerique/biographiePhBootz.php
Enregistrer un commentaire