Human Brain Project : La Suisse prend la tête de l’Europe

100 milliards de neurones. 1 milliard d’euros… L’un des deux programmes de recherche “vaisseau amiral” (flagship) de la Commission Européenne (Future Emerging Technology (FET) Flagship) est le projet Human Brain Project (HBP) avec, pour leader, l’Ecole Polytechnique Fédérale de Lausanne (EPFL). L’annonce a été faite le 28 janvier 2013 par Neelie Kroes, vice-présidente de la Commission européenne (CE) en charge du programme numérique, lors d’une conférence de presse organisée à Bruxelles. Le second projet vainqueur, le graphène, sera piloté par l’université de Chalmers de Göteborg, en Suède.

Ces annonces ne constituent pas vraiment des surprises car elles avaient été dévoilées par la revue Nature, pourtant très stricte sur ses propres embargos, dès le 23 janvier 2013. Néanmoins, le fait que la Suisse, pays qui ne fait pas partie de l’Union Européenne (UE) et qui, en matière de recherche, a le statut de “membre associé” comme la Turquie, la Norvège ou Israël, soit promue à la tête d’un tel projet va faire grincer pas mal de dents en Allemagne, en France ou en Angleterre. Pas de quoi contribuer, par exemple, à resserrer les liens distendus des Anglais avec l’UE.

“La Suisse est un pays européen”

En Suisse, en revanche, la décision de la CE est fêtée comme un triomphe de la recherche helvétique. La qualité de cette dernière n’est pas contestée grâce à des établissements réputés comme, justement, l’EPFL, mais aussi l’École polytechnique fédérale de Zurich (EPFZ) et, bien entendu, le CERN de Genève. De là à lui confier le pilotage d’un tel projet, il y a un pas. Justement, lors de la conférence de presse, la première question posée par une journaliste de la télévision suisse a porté sur ce choix de la Suisse. Neelie Kroes a simplement répondu : “La Suisse est un pays européen !” Elle a ajouté que l’Europe avait besoin d’unir toutes ses forces… La vice-présidente de la CE a poursuivi les réponses aux questions posées, en particulier sur le financement, sur le même mode. C’est-à-dire en évitant soigneusement… les réponses précises.

Je reviendrai très vite sur le graphène, projet moins controversé. Le débat du jour concerne plus le Human Brain Project à la fois sur la forme et sur le fond.

1°/ Pourquoi la Suisse ?

Malgré l’absence de précisions données par Neelie Kroes, les raisons du choix de la Suisse sont claires. Le Human Brain Project était proposé par l’EPFL qui a recruté, en 2002, un homme, Henry Markram, qui a fait de ce programme celui de sa vie.  De nationalité israélienne, il a fait ses études en Afrique du sud (université de Cape Town) et à l’Institut Weizmann, en  Israël, avant de passer par les National Health Institutes (NIH) américains et le Max Planck Institute  de Heidelberg en Allemagne. A l’EPFL, il a lancé en 2005 le Blue Brain Project que le HBP va prolonger. Pour cela, il a convaincu Patrick Aebischer, le neurologue qui dirige l’EPFL, d’acquérir un supercalculateur Blue Gene d’IBM. Il a ainsi construit les bases du HBP et permis à la Suisse d’être candidate dans la course aux programmes FET Flagship. C’est donc grâce à l’israélien Henry Markram qu’un pays non membre de l’UE a remporté ce concours.

2°/ Pourquoi le Human Brain Project ?

“Un ordinateur qui pense comme nous”. C’est ainsi que Neelie Kroes a décrit l’objectif du HBP et justifié la victoire de ce projet. Pas sûr qu’Henry Markram se retrouve vraiment dans cette formulation, à moins qu’il en soit l’auteur… Pour convaincre les décideurs politiques, il faut savoir leur “vendre” des sujets de recherche souvent complexes. C’est bien le cas du HBP. Son réel objectif est d’intégrer l’ensemble des travaux des chercheurs du monde entier sur le fonctionnement du cerveau dans un seul supercalculateur. A terme, ce dernier pourrait simuler le fonctionnement complet du cerveau humain. Il permettrait alors de mieux comprendre les mécanismes de maladies neurodégénératives et même de tester des médicaments pour les soigner.

Cette approche suscite de nombreuses critiques et pas mal de doutes sur ses chances d’aboutir. La recherche sur le cerveau génère environ 60 000 publications scientifiques par an. La plupart portent sur des mécanismes très précis des neurones, des synapses ou des canaux ioniques. Ces recherches ne permettent pas d’aboutir à une vue d’ensemble du fonctionnement du cerveau. C’est justement l’objectif du HBP. Pour autant, rien n’assure qu’un modèle synthétique émergera de ce rassemblement de travaux épars. Certains pensent qu’une telle démarche risque d’induire une modélisation unique, conçue par…  Henry Markram lui-même.

“Nous avons besoin de diversité en neuroscience”, a déclaré à Nature Rodney Douglas, co-directeur de l’Institut pour la neuroinformatique (INI) qui regroupe l’université de  Zurich et l’Institut fédéral de technologie (ETH) de Zurich. Certains mauvais esprit pourrait expliquer une telle remarque par la concurrence entre Lausanne et Zurich. Gageons que l’intérêt supérieur de l’Europe permettra de surmonter pareilles réactions… Il n’en reste pas moins que les chances de succès du HBP sont très loin d’être garanties.

“Le risque fait partie de la recherche”, comme le rappelle Neelie Kroes. Dans le cas de ce projet, le risque est justifié par l’ambition du projet. Mais cela ne diminue en rien les possibilités d’échec. D’autant que le succès, lui, dépend de la qualité de la collaboration de l’ensemble des 70 institutions provenant de 22 pays européens participant au HBP. Et de la bonne volonté des chercheurs des autres pays. Seront-ils motivés par le succès de la Suisse ? Le cerveau de l’Europe pourra-t-il devenir celui du monde ?

3°/ Comment trouver 1 milliard d’euros ?

La question a été posée plusieurs fois à Neelie Kroes: “Le financement du HBP est-il assuré?” Les journalistes présents ont fait remarquer que seuls 53 M€ étaient alloués pour l’année 2013. La vice-président s’est déclarée confiante dans la participation des Etats membres à ce financement. Pour atteindre 1 milliard d’euros sur 10 ans, il faut trouver 100 M€ par an, en moyenne. La moitié proviendra des fonds de l’UE, l’autre moitié devra être apportée par les Etats membres. Et la Suisse ? Il sera intéressant de mesurer la participation du leader qui, lui, n’est pas contraint par la mécanique économique de Bruxelles. Le choix d’un pays réputé “riche” n’est peut-être pas un hasard. La CE pourrait espérer que les Suisses, motivés par la désignation de leur projet, mettront la main à la poche pour compléter le financement de pays européens encore rongés par la crise.

Michel Alberganti

lire le billet

Aaron Swartz: l’appel à la guérilla

Le web bruisse d’une longue plainte, d’une profonde douleur. Le suicide d’Aaron Swartz, à 26 ans par pendaison, le 11 janvier 2013, n’en finit pas provoquer des réactions dans le monde entier. L’émotion est à la mesure du drame. Internet vient de perdre l’une de ses icônes. La plus jeune victime d’un combat mené par des milliers de militants pour l’accès libre à l’information sur toute la planète. Aaron Swartz était né avec Internet. Au lieu d’y faire fortune comme ces jeunes qui vendent leur société à 20 ans et n’ont plus qu’à attendre la retraite, il avait utilisé cet argent pour se lancer dans ce combat. Tous les projets auxquels il a participé (RSS, Creative Commons, Reddit, Demand Progress…) tournaient autour de cet objectif.

Libérer l’information

Libérer l’information. Surtout celle qui a déjà été payée par le contribuable. L’information scientifique diffusée par des chercheurs financés sur fonds publics. Réserver, par le biais des abonnements, cette culture aux plus riches lui était insupportable. Pour mettre fin à cette situation héritée de l’ère pré-Internet, Aaron Swartz appelait à la révolte, à la résistance. L’impatience de ses 20 ans ne lui a pas permis d’attendre. Bien sûr, tous ceux qui le connaissaient savent bien que son suicide n’est pas uniquement lié à l’action judiciaire absurde et perverse que lui a intenté la justice américaine. Aaron Swartz était fragile, tourmenté et dépressif.

La menace judiciaire

La compagne qu’il avait quittée, Quinn Norton, l’exprime d’une façon bouleversante sur son blog. Mais la menace d’une peine de 35 ans de prison et d’une amende d’un million de dollars lors de son procès prévu pour le mois d’avril n’a certainement pas joué un rôle positif. Son suicide provoque une flambée de messages sur Tweeter (hashtag #pdftribute). Des centaines de chercheurs y annoncent avoir mis leurs publications en libre accès en violant délibérément les droits des éditeurs de revues scientifiques. Cet hommage posthume dépasse la simple déclaration. Il engendre la révolte à laquelle Aaron Swartz appelait dès 2008.

Michel Alberganti

«Manifeste de la guérilla pour le libre accès»

Il avait alors 22 ans. C’était deux ans après la fusion entre la société qu’il avait créée, Infogami, avec Reddit. Il aurait pu alors simplement profiter de sa fortune et de sa renommée. Mais il appelait déjà à la guérilla dans un manifeste écrit en juillet 2008 à Eremon, en Italie. Alexis Kauffmann en a publié une traduction en français sur Framablog. La voici :

L’information, c’est le pouvoir. Mais comme pour tout pouvoir, il y a ceux qui veulent le garder pour eux. Le patrimoine culturel et scientifique mondial, publié depuis plusieurs siècles dans les livres et les revues, est de plus en plus souvent numérisé puis verrouillé par une poignée d’entreprises privées. Vous voulez lire les articles présentant les plus célèbres résultats scientifiques ? Il vous faudra payer de grosses sommes à des éditeurs comme Reed Elsevier.

Et il y a ceux qui luttent pour que cela change. Le mouvement pour le libre accès s’est vaillamment battu pour s’assurer que les scientifiques ne mettent pas toutes leurs publications sous copyright et s’assurer plutôt que leurs travaux seront publiés sur Internet sous des conditions qui en permettent l’accès à tous. Mais, même dans le scénario le plus optimiste, la politique de libre accès ne concerne que les publications futures. Tout ce qui a été fait jusqu’à présent est perdu.

C’est trop cher payé. Contraindre les universitaires à débourser de l’argent pour lire le travail de leurs collègues ? Numériser des bibliothèques entières mais ne permettre qu’aux gens de chez Google de les lire ? Fournir des articles scientifiques aux chercheurs des plus grandes universités des pays riches, mais pas aux enfants des pays du Sud ? C’est scandaleux et inacceptable.

Nombreux sont ceux qui disent : « Je suis d’accord mais que peut-on y faire ? Les entreprises possèdent les droits de reproduction de ces documents, elles gagnent énormément d’argent en faisant payer l’accès, et c’est parfaitement légal, il n’y a rien que l’on puisse faire pour les en empêcher. » Mais si, on peut faire quelque chose, ce qu’on est déjà en train de faire : riposter.

Vous qui avez accès à ces ressources, étudiants, bibliothécaires, scientifiques, on vous a donné un privilège. Vous pouvez vous nourrir au banquet de la connaissance pendant que le reste du monde en est exclu. Mais vous n’êtes pas obligés — moralement, vous n’en avez même pas le droit — de conserver ce privilège pour vous seuls. Il est de votre devoir de le partager avec le monde. Et c’est ce que vous avez fait : en échangeant vos mots de passe avec vos collègues, en remplissant des formulaires de téléchargement pour vos amis.

Pendant ce temps, ceux qui ont été écartés de ce festin n’attendent pas sans rien faire. Vous vous êtes faufilés dans les brèches et avez escaladé les barrières, libérant l’information verrouillée par les éditeurs pour la partager avec vos amis.

Mais toutes ces actions se déroulent dans l’ombre, de façon souterraine. On les qualifie de « vol » ou bien de « piratage », comme si partager une abondance de connaissances était moralement équivalent à l’abordage d’un vaisseau et au meurtre de son équipage. Mais le partage n’est pas immoral, c’est un impératif moral. Seuls ceux qu’aveugle la cupidité refusent une copie à leurs amis.

Les grandes multinationales, bien sûr, sont aveuglées par la cupidité. Les lois qui les gouvernent l’exigent, leurs actionnaires se révolteraient à la moindre occasion. Et les politiciens qu’elles ont achetés les soutiennent en votant des lois qui leur donnent le pouvoir exclusif de décider qui est en droit de faire des copies.

La justice ne consiste pas à se soumettre à des lois injustes. Il est temps de sortir de l’ombre et, dans la grande tradition de la désobéissance civile, d’affirmer notre opposition à la confiscation criminelle de la culture publique.

Nous avons besoin de récolter l’information où qu’elle soit stockée, d’en faire des copies et de la partager avec le monde. Nous devons nous emparer du domaine public et l’ajouter aux archives. Nous devons acheter des bases de données secrètes et les mettre sur le Web. Nous devons télécharger des revues scientifiques et les poster sur des réseaux de partage de fichiers. Nous devons mener le combat de la guérilla pour le libre accès.

Lorsque nous serons assez nombreux de par le monde, nous n’enverrons pas seulement un puissant message d’opposition à la privatisation de la connaissance : nous ferons en sorte que cette privatisation appartienne au passé. Serez-vous des nôtres ?

Aaron Swartz

Traduction : Gatitac, albahtaar, Wikinade, M0tty, aKa, Jean-Fred, Goofy, Léna, greygjhart + anonymous)

lire le billet

Y a-t-il un Google dans notre cerveau ?

Les résultats publiés par Alexander Huth, chercheur à l’Institut de neurosciences Helen Wills de l’université de Californie à Berkeley, et ses collègues dans la revue Neuron du 20 décembre 2012 conduisent à se poser la question: “Y a-t-il un Google dans notre cerveau ?” Un sous Google ? Un super Google ? Comment sommes-nous capables de retrouver ou de reconnaître, souvent instantanément, un mot, une image, une notion, une action?  Difficile de ne pas penser à Internet et à la difficulté, pour un moteur de recherche, de faire de même avec le contenu de la Toile.

Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…

1.705 catégories d’objets et d’actions

“Si l’être humain peut voir et nommer des milliers de catégories d’objets et d’actions, il est peu probable qu’une zone distincte du cerveau soit affectée à chacune de ces catégories”, précisent les chercheurs. “Un système plus efficace consiste à représenter les catégories comme des emplacements dans un espace sémantique continu, sur une cartographie couvrant toute la surface corticale.”

Pour explorer un tel espace, Alexander Huth a fait appel à l’IRM fonctionnelle afin de mesurer l’activité du cerveau pendant le visionnage des images d’un film. Il est ensuite passé au traitement informatique des données en utilisant un modèle de voxels, c’est-à-dire des volumes élémentaires (pixels en 3D).

De quoi construire une représentation de la répartition corticale de 1.705 catégories d’objets et d’actions.

Les catégories sémantiques apparaissent alors clairement. Notre cerveau associe les objets similaires par leur composition (des roues pour un vélo et une voiture) ou leur fonction (une voiture et un avion servent à se déplacer). En revanche, une porte et un oiseau ne partagent pas grand-chose et se retrouveront éloignés dans l’espace sémantique.

30.000 voxels

Alexander Huth a soumis les personnes analysées à un film de deux heures dans lequel chaque image et chaque action avaient été repérées par des étiquettes (pour un plongeon, par exemple, une étiquette pour le plongeur, une pour la piscine, une troisième pour les remous de l’eau).

L’IRMf a permis de mesurer l’activité du cerveau dans 30.000 voxels de 2x2x4 mm couvrant l’ensemble du cortex. Il “suffisait” ensuite de corréler les images du film et leurs étiquettes avec les  différents voxels activés lorsqu’elles avaient été visualisées. Le résultat est une cartographie des 30.000 voxels mis en relation avec les 1.705 catégories d’objets et d’actions.

Les techniques de représentations dans l’espace, à gauche, permettent de faire apparaître les distances entre les différentes catégories. Les différentes couleurs et leurs nuances représentent des groupes de catégories similaires: êtres humains en bleu, parties du corps en vert, animaux en jaune, véhicules en mauve…

Cartographie 3D interactive

Plus fort encore que la représentation dans l’espace qui ressemble aux cartographies en 3D des sites Internet, les chercheurs ont achevé leur travail par une projection des voxels et de leurs catégories… sur la surface corticale elle-même.

Le résultat est spectaculaire, en relief et… interactif. Grâce à une technologie de navigation encore expérimentale, WebGL, l’utilisateur peut soit cliquer sur un voxel de la surface du cortex et voir quelles sont les catégories correspondantes, soit faire l’inverse: le choix d’une catégorie montre dans quelles zones du cerveau elle est stockée.

Cette cartographie interactive est disponible ici mais tous les navigateurs ne sont pas capables de la prendre en charge. Les chercheurs conseillent Google Chrome qui, effectivement, fonctionne (version 23).

Ces travaux fondamentaux pourraient avoir des applications dans le diagnostic et le traitement de pathologies cérébrales. Mais il permettront peut-être aussi de créer des interfaces cerveau-machine plus efficaces et d’améliorer les systèmes de reconnaissance d’images encore peu développés, même sur Google…

Michel Alberganti

Photo: «Planting Brain», oeuvre d’art dans un champ indonésien, le 27 décembre 2012 près de Yogyakarta. REUTERS/Dwi Oblo

Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…
lire le billet

Un aveugle lit des mots en braille… grâce à des électrodes sur sa rétine

Peu à peu, la rétine électronique sort des laboratoires. Le système Argus II fabriqué par l’entreprise américaine Second Sight est déjà implanté sur 50 patients. Il fonctionne avec un réseau de 10×6 électrodes, soit 60 électrodes de 200 microns de diamètre, implantées sur la rétine, une mini-caméra intégrée à une paire de lunettes et un ordinateur portable qui traite les images vidéo et génère le courant électrique qui stimule, en temps réel, le nerf optique via les électrodes. Argus II permet aux personnes aveugles de discerner des couleurs, des mouvements et des objets.

Des chercheurs appartenant à Second Sight, à l’université Brigham Young, à l’Institut de la vision et au Centre Hospitalier National d’Ophtalmologie des Quinze-Vingts de Paris, ont publié le 22 novembre 2012 dans la revue Frontiers in neuroprosthetics une étude concernant l’utilisation de ce système pour la lecture directe du braille sans passer par la caméra.

6 électrodes sur 60

Dans ce cas, un réseau de 6 électrodes, sur les 60 de l’Argus II, est utilisé. En court-circuitant la caméra, ces électrodes ont été directement stimulée pour créer une “perception visuelle des lettres en braille”, indiquent les chercheurs. L’expérience a été réalisée avec un seul patient, né en France. Ce dernier a réussi à identifier 80% des mots de deux lettres, 60% des mots de trois lettres et 70% des mots de quatre lettres. Un résultat qui confirme, pour les chercheurs, la possibilité de la lecture du braille par des patients équipés d’une prothèse rétinienne.

0,5 seconde par lettre

Grâce à la stimulation directe des électrodes, la vitesse de lecture est considérablement augmentée. Elle a été réalisée avec une stimulation de 0,5 seconde par lettre à 20 Hz et 1 seconde d’interruption entre chaque stimulation. Si l’on reste loin de la vitesse de lecture tactile du braille, le système accélère nettement la cadence de détection obtenue à l’aide de la vision par caméra utilisée dans la vidéo suivante :

89% de réussite

Les chercheurs ont enregistré un taux de reconnaissance de chacune des lettres de 89%. La perception d’une électrode supplémentaire a été la cause d’une erreur dans 64% des cas de lecture erronée. L’électrode en bas à gauche (F5) a été impliquée également dans 64% des erreurs, dont 6 des 11 perceptions d’une électrode supplémentaire. D’où le constat qu’une amélioration de cette électrode devrait avoir un impact significatif sur l’ensemble de résultats. Sur 10 mots de chaque catégorie, le patient en a identifié 8 de deux lettres, 6 de 3 lettres et 7 de 4 lettres. Les scientifiques estiment que ce résultat pourrait être amélioré grâce à l’entrainement. Le patient est un lecteur expérimenté du braille, c’est à dire qu’il identifie 100% des lettres par le toucher.

Pour les chercheurs, cette expérience établit l’efficacité d’une stimulation directe de la prothèse rétinienne. Bien entendu, on peut se demander quel est l’intérêt d’une telle lecture, plus délicate qu’avec les doigts. Pour certains patients paralysés, elle peut être la seule possibilité de lecture autonome. Cette solution impose néanmoins un système supplémentaire de traduction des lettres en stimulations électriques et elle ne peut concerner que les aveugles connaissant préalablement le braille.

Néanmoins, un tel test montre que l’implant rétinien peut fonctionner par stimulation directe et non uniquement par traitement des images provenant d’une caméra. Ce qui peut se révéler précieux pour le développement de futures prothèses rétiniennes.

Michel Alberganti

 

lire le billet

La classe Star Trek : l’hyperespace de l’enseignement “multitouch”

La classe du futur, ou la classe Star Trek… C’est ainsi qu’est baptisée le résultat du projet SynergyNet. Pour les spécialistes de l’enseignement numérique, cela peut ressembler à une vieille rengaine. Et pourtant, il s’agit bien, encore, de l’un des huit projets financés, en Angleterre, par l’Economic and Social Research Council (ESRC) et l’Engineering and Physical Sciences Research Council (EPSRC) britanniques à hauteur de 12 M£, soit environ 15 M€.  De quoi s’agit-il ?

Bureaux électroniques interactifs

Essentiellement de la généralisation du principe du tableau blanc, c’est à dire un tableau électronique interactif, à l’ensemble des bureaux des élèves. La photo ci-dessus, tout comme les vidéos ci-après, montrent également une disposition des bureaux très différente de celle des classes traditionnelles avec ses rangées alignées dans la direction du soleil, c’est à dire du professeur. Ici, plusieurs élèves travaillent sur le même bureau grâce à la technologie d’écran tactile “multitouch”. Leurs actions sont visibles par les autres. Le professeur, lui, voit tout, soit directement, soit via un système de suivi en direct de l’activité des élèves sur chaque bureau.  Ce futuriste et coûteux équipement, outre son look et son exploitation de l’aisance des enfants avec les outils informatiques, est-il plus efficace pour l’enseignement ?

45% contre 16%

Une étude sur l’expérimentation de Synergynet par 400 élèves de 8 à 10 ans a été menée par des chercheurs de l’université de Durham.  Les résultats montrent que 45% des utilisateurs de NumberNet, outil spécialisé dans l’enseignement des mathématiques, ont fait des progrès dans la manipulation des formules contre une proportion de 16% chez les utilisateurs des traditionnelles feuilles de papier. En fait, les maths ne sont qu’un exemple de l’efficacité de cette méthode car elle n’est pas spécialement destinée à cette discipline.

Les raisons invoquées par les chercheurs pour expliquer l’amélioration de l’apprentissage grâce aux outils de Synergynet sont multiples. Avec un point central: l’interaction. Sur le bureau électronique, les élèves ne travaillent plus seuls. En permanence, ce qu’ils font est vu par les autres élèves et inversement. Le travail devient ainsi collectif, collaboratif. Soit le schéma inverse du cours classique, fondé sur une parole univoque et une hiérarchie figée. Dans la classe Star Trek, l’ambiance ressemble plus à celle d’une salle de maternelle. Les élèves sont pourtant en CP.

Professeur homme orchestre

Pour le professeur, le rôle change en profondeur. Au lieu de dispenser (disperser ?) un savoir, il le fait naître au sein même d’une communauté dont il n’est plus vraiment le maître. Il se transforme en chef d’orchestre, ce qui doit être encore plus épuisant. Il doit en effet veiller simultanément sur ce qui se passe sur chaque bureau électronique, détecter les élèves qui se suivent pas, guider les autres, mettre parfois en commun ce qui s’est produit sur un bureau… Plus qu’à un chef d’orchestre, ce rôle ressemble à celui d’un homme orchestre…

Séduisant sur le papier lorsqu’il ne fait pas fuir les enseignants attachés à la craie et au cahier, un tel projet se heurte au problème délicat du coût du matériel et du support technique nécessaire pour le faire fonctionner. Néanmoins, au cours des trois années du projet, l’équipe de l’université de Durham a noté des progrès notables de la technologie ainsi qu’une baisse des coûts.

Fracture numérique dans l’éducation

L’efficacité pédagogique démontrée par le projet SynergyNet, après bien d’autres expérimentations, pose également un grave problème d’égalité devant l’enseignement. Nul doute que des établissement privés pourront investir dans de tels équipements avant leurs homologues publics. Une fracture numérique pourrait alors survenir dans l’éducation et s’ajouter aux inégalités déjà importantes. Alors que l’on imagine pas une armée moderne dotée d’un matériel moins performant que celui de ses voisins, personne ne semble choqué par le manque de moyens dans l’Education Nationale. Déjà largement distancée en Europe, l’école française risque fort d’être encore pénalisée si elle ne parvient pas à investir massivement dans les outils pédagogiques interactifs auxquels les élèves, eux, sont parfaitement préparés.

Michel Alberganti

lire le billet

L’ADN dit poubelle n’est autre que la tour de contrôle des gènes

Un véritable tableau de contrôle comprenant des millions d’interrupteurs régulant l’activité de nos gènes. Ce que l’on qualifiait, jusqu’à présent, d’ADN poubelle faute d’en connaître la véritable fonction, vient de livrer ses secrets. Pour obtenir ce résultat, des centaines de chercheurs de 6 pays se sont associés au sein du projet ENCODE. Leurs résultats font l’objet de pas moins de 30 articles reliés les uns aux autres et publiés en libre accès dans 3 revues scientifiques : NatureGenome Biology et Genome Research. Une orchestration rare. ENCODE fournit une carte détaillée du fonctionnement du génome qui comprend 4 millions d’interrupteurs de gènes. Cette cartographie va ouvrir de multiples pistes de recherches sur les maladies humaines.

80% du génome sert à quelque chose

Il faut dire que la découverte est de taille. Sans les millions d’interrupteurs de l’ADN ex-poubelle, les gènes ne pourraient pas fonctionner et les mutations qu’ils subiraient engendreraient de multiples maladies. “Notre génome vit tout simplement grâce à ces interrupteurs : à des millions d’endroits, ils déterminent si un gène est doit fonctionner ou être à l’arrêt”, explique Ewan Birney, coordinateur d’ENCODE à l’European Bioinformatics Institute (EMBL-EBI) en Angleterre. Le Projet génome humain a montré que seulement 2% du génome contient des gènes, les porteurs des instructions nécessaires à la production de protéines. Grâce à ENCODE, on constate qu’environ 80% du génome sert effectivement à quelque chose. “Nous avons découvert qu’une partie du génome beaucoup plus importante que prévu sert à contrôler quand et où les protéines sont produites”, précise Ewan Birney.

Découvrir des mécanismes qui jouent un rôle clé

La masse de données fournie par ENCODE va servir aux chercheurs qui travaillent sur toutes les maladies. “Dans de nombreux cas, vous avez une bonne idée sur les gènes qui sont impliqués dans une pathologie mais vous pouvez ignorer quels sont les interrupteurs concernés”, indique Ian Dunham, de l’EMBL-EBI. “Parfois, ces interrupteurs sont très surprenants car ils se trouvent à un endroit qui semble logiquement lié à une autre maladie. ENCODE nous donnent des pistes très intéressantes pour découvrir les mécanismes qui jouent un rôle clé en matière de santé et de maladies“, ajoute-t-il.

300 années de calcul

Le projet a mobilisé pas moins de 442 scientifiques provenant de 32 laboratoires situés au Royaume-Uni, aux Etats-Unis, en Espagne, à Singapour et au Japon. Il a permis de générer et d’analyser plus de 15 téraoctets de données brutes qui sont désormais publiquement accessibles. L’étude a consommé l’équivalent de quelque 300 années de temps de calcul informatique pour l’analyse de 147 types de tissus afin de déterminer ce qui commande la mise en fonction des gènes et comment les interrupteurs diffèrent en fonction des types de cellules.

C’est donc une page importante de la biologie qui se tourne aujourd’hui. Avec, à la clé de cette compréhension approfondie de la mécanique du vivant, de nouvelles thérapies. A moins que la complexité ne rattrape les chercheurs…

Michel Alberganti

lire le billet

Remonter à la source d’une rumeur, d’une épidémie ou d’un crime

Avec Internet, les réseaux se sont complexifiés, par rapport aux relations hiérarchiques de la mafia par exemple, mais ils ont également la particularité de laisser des traces qu’il est possible de suivre pour peu que l’on dispose d’un outil mathématique capable de démêler l’écheveau des liaisons entre les protagonistes. Et cela peut s’appliquer, alors, aussi bien au crime, à une épidémie ou à une simple rumeur. Tel est l’objectif  de Pedro Pinto, chercheur à l’école polytechnique fédérale de Lausanne (EPFL) au sein du laboratoire de communication audiovisuelle. Le programme qu’il a mis au point fait l’objet d’une publication dans le journal Physical Review Letters du 10 août 2012.

Ecouter un nombre limité de membres

Prenons l’exemple d’une rumeur qui se propage sur Internet via Facebook. “Notre méthode permet de trouver la source de toutes sortes de choses qui circulent sur le réseau juste en “écoutant” un nombre limité de membres de ce réseau”, explique Pedro Pinto. Supposons qu’une rumeur à votre sujet touche 500 personnes sur Facebook. Qui est à l’origine de cette rumeur ? Pour l’identifier, il suffit d’observer les messages reçus par 15 de vos amis et de prendre en compte le facteur temps.“Notre algorithme peut retracer le chemin suivi par la rumeur et remonter à sa source”, affirme le chercheur. Cet instrument peut, de la même façon, détecter l’origine d’un spam ou d’un virus à l’aide d’un nombre limité de capteurs sur le réseau.

Egalement dans le monde réel

L’intérêt du système est renforcé par le fait qu’il fonctionne également dans le monde réel. Là, il peut traquer la source d’une épidémie comme le choléra, par exemple. “Nous avons testé notre algorithme sur les données d’une épidémie en Afrique du Sud”, indique Pedro Pinto. “En modélisant les réseaux d’eau, de rivières et de transports des hommes, nous avons localisé le lieu de la première infection en n’analysant qu’un faible nombre de village”. La technique aurait pu être très utile lors de l’attentat au sarin à Tokyo en 1995, lorsque le gaz mortel a été relâché dans les couloirs du métro de la ville, faisant 13 morts et un millier de blessés. “Il n’aurait pas été nécessaire d’équiper chaque station d’un détecteur car un simple échantillon aurait suffi pour identifier la source de l’attaque terroriste”.

La méthode de Pedro Pinto s’applique également aux conversations téléphoniques qui auraient pu être analysées avant l’attentat du 11 septembre 2001 aux Etats-Unis. Une simulation a permis de le vérifier. “En reconstruisant les échanges de messages au sein du réseau de terroristes à partir des informations diffusées au public, notre système a fourni 3 noms de suspects potentiels, dont l’un était le maître à penser du réseau”, explique Pedro Pinto.

Stratégies de diffusion virale

Bien sûr, il faut tenir compte du fait que ces validations ont été réalisées a posteriori. Mais Pedro Pinto assure que sa méthode fonctionne de manière préventive. “En sélectionnant avec soin les points du réseau à tester, nous pouvons rapidement détecter une propagation d’épidémie”, assure-t-il. En dehors du domaine de la sécurité, ce système pourrait permettre aux publicitaires de mettre au point des stratégies de diffusion virale de leur message sur Internet et les réseaux sociaux. L’algorithme pourrait identifier les blogs les plus influents vis à vis de la cible visée et suivre comment les billets de répandent au sein de la communauté en ligne.

Liberté ou sécurité ?

Une telle technique devrait, à coup sûr, intéresser les services secrets ainsi que la NSA aux Etats-Unis qui passe son temps à tenter de discerner l’apparition d’une menace au sein de milliards de messages espionnés. Comme toute technique de surveillance de masse, son utilisation pourrait considérablement réduire les libertés individuelles. Surtout dans les pays totalitaires. Comme toujours, sécurité et liberté se retrouvent alors en concurrence. La technique développée par Pedro Pinto devrait toutefois rassurer ceux qui pensent que les réseaux sociaux et Internet sont les lieux privilégiés de tous les complots. Grâce aux mathématiques, le monde virtuel pourrait devenir aussi “sécurisé” que les rues vidéo-surveillées.

Michel Alberganti

lire le billet

Mycoplasma genitalium: premier organisme vivant 100% informatisé

La bactérie Mycoplasma genitalium restera dans l’histoire de la biologie comme le premier organisme vivant pour lequel un modèle informatique complet a été réalisé. La nouvelle a été annoncée le 19 juillet 2012 par l’université de Stanford et publiée le 20 juillet dans le revue Cell. Cette première mondiale résulte d’un effort qualifié de “mammouth” par Stanford… Markus Covert, professeur de bioingénierie dans cette université, a utilisé les données provenant de 900 publications scientifiques pour prendre en compte chaque interaction moléculaire se produisant dans le cycle de vie de cette bactérie, la plus petite connue à ce jour.

in silico

La démarche révèle également un tournant dans la recherche en biologie. Les expériences in vivo ou in vitro ne suffisent plus pour étudier les mécanismes à l’oeuvre dans le vivant et  il faut désormais passer au travail in silico. “Cette réussite démontre la transformation de l’approche visant à répondre aux questions sur les processus biologiques fondamentaux“, confirme James M. Anderson, directeur de la division de la coordination des programmes, du planning et des initiatives stratégiques des National Institutes for Health (NIH). “Des modèles informatiques de cellules entières peuvent faire progresser notre compréhension de la fonction cellulaire et, au final, fournir de nouvelles approches pour le diagnostic et le traitement des maladies“, précise-t-il.

Dépasser le réductionnisme

Les travaux des biologistes, au cours des 20 dernières années, ont permis d’amasser un véritable trésor d’informations sur ce fonctionnement cellulaire. Ce ne sont donc pas les données expérimentales qui manquent. Tout se passe comme si l’on était parvenu à rassembler tous les éléments d’un puzzle très complexe mais sans avoir réussi à percer tous les secrets de l’assemblage et du fonctionnement de l’ensemble. Ce constat marque les limites de l’approche réductionniste qui domine la recherche en biologie depuis que les moyens expérimentaux permettent d’observer et d’analyser les mécanismes du vivant à l’échelle de ses composants élémentaires. Il reste à recomposer l’ensemble. C’est ce à quoi le nouveau modèle informatique doit aider.

Mycoplasma genitalium, l’organisme le plus simple

D’abord avec un organisme très simple comme cette bactérie Mycoplasma genitalium. Un tel choix ne doit, bien entendu, rien au hasard. Cette bactérie, responsable d’urétrites et de maladies sexuellement transmissibles découverte en 1980, possède le plus petit génome connu nécessaire pour constituer une cellule vivante : 521 gènes, dont 482 codent pour une protéine, sur un chromosome circulaire de 582 970 paires de bases. A titre de comparaison, la véritable bête de labo qu’est la bactérie Escherichia coli dispose de près de 4300 gènes.

Un autre atout de Mycoplasma genitalium est d’avoir été également choisie dès 2008, pour les mêmes raisons de simplicité relative de son génome, par l’institut de Craig Venter pour réaliser la synthèse complète de son génome. Si la bactérie est la plus frustre connue à ce jour, la création de son modèle informatique n’a pas été facile pour autant. La quantité d’information introduite dans ce clone numérique est énorme et le résultat intègre pas moins de 1900 paramètres déterminés expérimentalement.

Le programme est subdivisé en 28 modules distincts possédant chacun son propre algorithme et communiquant entre eux pour reproduire aussi fidèlement que possible le fonctionnement réel de la bactérie.

CAO biologique

En fait, la création de ce premier modèle informatique du vivant ouvre une nouvelle ère pour la recherche en biologie. Ce nouvel outil devrait, comme la conception assistée par ordinateur (CAO) l’a fait dans l’industrie, considérablement accélérer le rythme des découvertes. En effet, les chercheurs vont pouvoir utiliser ce modèle pour simuler des mécanismes ce qui va permettre à la fois de vérifier certains résultats expérimentaux mais également d’ouvrir des pistes pour de nouvelles expériences. Ainsi, les biologistes pourront sortir de la phase d’accumulation des données pour tenter d’en découvrir le sens, la mécanique intime qui relie les gènes, l’ADN ou les protéines pour produire la vie. Parallèlement, la biologie synthétique, qui vise la création de nouveaux organismes vivants, pourra certainement tirer profit de ce nouvel instrument. De quoi renforcer les craintes de ceux qui craignent le pire de cette nouvelle génération d’apprentis-sorciers. D’autres mettent en avant la perspective de création de bactéries artificielles capables de fabriquer en masse des médicaments, dans la lignée de l’insuline produite depuis 1978 par une bactérie E. Coli transgénique.

Vers un modèle informatique humain…

Mycoplasma genitalium et son modèle informatique marque donc la première étape d’un long chemin qui n’est pas sans rappeler celui du séquençage du génome humain achevé en 2004. Mais la réalisation d’un modèle informatique de l’organisme humain sera encore plus difficile et prendra sans doute des décennies, voire plus. Ce que les chercheurs qualifient déjà de bio-CAO devrait conduire à des avancées médicales en particulier dans les thérapies personnalisées. Le nouveau modèle informatique ouvre la voie, “potentiellement à un  nouveau “projet génome humain”, déclare Jonathan Karr, coauteur de la publication, qui précise toutefois que “cela demandera un très grand effort de la communauté scientifique pour se rapprocher d’un modèle humain”.

Michel Alberganti

lire le billet

Surveillance: record de plaintes à la CNIL

Faudrait savoir… D’un coté, les Français plébiscitent les systèmes de surveillance. Caméras, fichiers, cybersurveillance, tout semble bon pour rassurer la population qui n’a rien à se reprocher. D’un autre coté, les Français se plaignent de plus en plus à la CNIL de cette même surveillance. Surtout des abus, bien sûr. Mais qui a dit qu’il n’y aurait pas d’abus ? Quel système n’a pas de failles ? Quel pouvoir n’est pas exploité au delà des limites établies ? Il faut savoir ce que l’on veut…

5738 plaintes en 2011 (+19%)

Ainsi, le bilan 2011 de la CNIL, publié le 10 juillet 2012, affiche 5738 plaintes enregistrées en 2011, un chiffre en hausse de 19% par rapport à 2010. La Commission a réalisé 385 contrôles (+ 25% par rapport à 2010). On note que les contrôles représentent 6,7% du nombre de plaintes, ce qui ne paraît pas considérable. Ou bien les plaintes sont sans objet et il n’est pas nécessaire de publier leur nombre. Ou bien la CNIL est totalement dépassée par la vague de ces plaintes. Ceci malgré un accroissement notable de son activité puisqu’elle a adopté 1969 décisions (+ 25,5%) en 2011. Cette montée en puissance ne peut être entièrement attribuée au remplacement d’Alex Türk par Isabelle Falque-Pierrotin à la tête de la CNIL, car il n’a été effectué qu’en septembre 2011. On ne peut néanmoins que se féliciter de ce rajeunissement de la présidence de la CNIL. Alex Türk, sénateur du Nord, a préféré sa réélection en septembre 2011 au Sénat à la poursuite de son mandat de président de la CNIL, position qu’il occupait depuis 2004 et dans laquelle il s’est illustré en prenant parti en faveur de toutes les lois augmentant le contrôle des citoyens (Hadopi en 2009, LOOPSI2 en 2011).

Les fuites des ressources humaines

Revenons au bilan 2011 de la CNIL qui donne quelques indications sur l’évolution de la nature des plaintes que la Commission reçoit de plus en plus via Internet. Or, le réseau est également la source de nombreux recours. Ainsi, 1000 plaintes (+42%) sont liées aux manquements en matières de “droit à l’oubli” sur le web (absence de suppression de textes, photographies ou vidéos en ligne). Instructifs aussi, les recours liés à la gestion des ressources humaines dans les entreprises. Ils représentent 12% des plaintes, soit 670 en 2011, dont la moitié concerne directement la surveillance des salariés. Avec une palme à la cybersurveillance considérée comme abusive (plaintes en hausse de 59%) en matière de contrôle de l’utilisation des systèmes informatiques et de la messagerie électronique. Plus étonnante, la sécurité des données des ressources humaines ne semble guère étanche. Les plaintes la concernant augmentent de 27% et mettent en cause la divulgation aux collègues ou sur Internet d’informations sensibles telles que le numéro de sécurité sociale, les revenus ou les coordonnées personnelles des salariés.

Les lacunes de la vidéosurveillance

La CNIL a également fort à faire avec les dispositifs de vidéosurveillance dans les lieux non-ouverts au public mais également, depuis la loi LOOPSI2 qui étend sa compétence, dans les lieux publics. On apprend incidemment que 950 000 dispositifs sont ainsi concernés en France. Soit plus de 5 dispositifs au km2 dans les aires urbaines de la France métropolitaine… La CNIL en a contrôlé 150 en 2011 et déjà 80 en 2012. Elle déduit de ces actions :

“Ces différents contrôles ont révélé des lacunes ou des manquements :

  • une nécessaire clarification du régime juridique ;
  • une information des personnes insuffisante ou inexistante ;
  • une mauvaise orientation des caméras ;
  • des mesures de sécurité insuffisantes.”

Forte de ce constat, la Commission déclare qu’elle “accompagne  les professionnels et les particuliers pour que ces dispositifs soient plus respectueux de la vie privée”. Nul doute qu’elle parviendra à des résultats significatifs grâce au contrôle de moins de 1 système sur 6000 chaque année…

Un symbole, au risque de la caution…

La bonne volonté de la CNIL en  matière de protection des libertés individuelles ne peut donc pas pallier les limites de ses moyens. Plus le nombre de systèmes de surveillance augmente, plus cette faiblesse rend symbolique l’action de la Commission. Certes, mieux vaut que ce symbole existe. Sauf s’il laisse croire qu’il assure  un véritable contrôle de l’application des lois régissant les systèmes de surveillance sur le territoire français. Dans ce cas, il deviendrait ce que certains lui reprochent depuis longtemps: un alibi cautionnant le développement anarchique de la surveillance des citoyens.

Michel Alberganti

lire le billet

Facebook renforcerait l’estime de soi et MySpace le narcissisme


Le nombre d’utilisateurs actifs de Facebook est passé de 1 million fin 2004 à 900 millions en mars 2012. A la même date, dans le classement des sites les plus visités, Facebook se place en deuxième position derrière Google et devant Youtube. Twitter est huitième, Linkedin douzième. C’est dire l’importance prise par les réseaux sociaux sur Internet. D’où vient un tel succès ? Des chercheurs de l’université de Géorgie, à Athens aux Etats-Unis, se sont penchés sur cette question en essayant de comprendre ce que tant d’internautes “aiment” (like) dans ces réseaux sociaux. La réponse est simple: eux-mêmes…

“En dépit de la dénomination “réseaux sociaux”, la plus grande partie de l’activité des utilisateurs de ces sites est centrée sur eux-mêmes”, note Brittany Gentile, une doctorante qui s’est intéressée à l’impact des réseaux sociaux sur l’estime de soi et le narcissisme dans une étude publiée le 5 juin 2012 dans la revue Computers in Human Behavior. Ainsi, les 526 millions de personnes qui se connectent à Facebook tous les jours pourraient bien rechercher davantage à renforcer leur estime d’eux-mêmes qu’à se faire de nouveaux “amis”. Pour Keith Campbell, professeur de psychologie à l’université de Géorgie et co-auteur de l’article, “il semble que l’utilisation, même pendant un court moment, de ces réseaux sociaux aient un effet sur la façon dont les utilisateurs se voient eux-mêmes. Soit en s’éditant, soit en se construisant. Dans les deux cas, les utilisateurs se sentent mieux avec eux-mêmes mais le premier renvoie au narcissisme et le second à l’estime de soi”.

Pour aboutir à ces conclusions, les chercheurs ont réalisé des expériences avec des étudiants utilisateurs de MySpace (classé 62ème site) et de Facebook. Dans les deux cas, les participants ayant le plus niveau de narcissisme le plus élevé étaient ceux qui déclaraient le plus grand nombre d’amis. Un groupe de 151 étudiants âgés de 18 à 22 ans ont rempli le formulaire d’évaluation du narcissisme qui faisait partie de l’étude. “Le narcissisme est un trait de personnalité stable, indique Brittany Gentile. Pourtant, après 15 minutes passées sur l’édition d’une page de MySpace et sur l’écriture de ce qu’elle signifie, l’auto-évaluation du trait narcissique s’est révélé modifiée. Cela suggère que les sites de networking social peuvent avoir une influence significative sur le développement de la personnalité et de l’identité”.

Des différences entre les pages des deux sites

Plus étonnant encore, les chercheurs ont noté des différences d’impact qui semblent liées, au moins en partie, au format et au type des pages éditées sur les deux sites. Ainsi, MySpace augmenterait le narcissisme alors que Facebook renforcerait l’estime de soi. Brittany Gentile souligne ainsi des différences dans le fonctionnement des deux réseaux sociaux. “Sur MySpace, vous n’interagissez pas vraiment avec les autres et les pages du site ressemblent à des pages personnelles. Ces dernières ont permis à une grand nombre de personnes de devenir célèbres. En revanche, Facebook propose des pages standardisées et le message de l’entreprise est que “le partage rendra le monde meilleur””.

Depuis les années 1980

D’autres études ont constaté une croissance, au fil des dernières générations, à la fois de l’estime de soi et du narcissisme. Les travaux des chercheurs de l’université de Géorgie suggèrent que la popularité croissante des réseaux sociaux peut jouer un rôle dans ces tendances. Néanmoins, les auteurs soulignent que le phénomène est observé depuis les années 1980, bien avant la création de Facebook en 2004. Keith Campbell estime que les réseaux sociaux sont à la fois un produit d’une société de plus en plus absorbée par elle-même, et la cause d’un renforcement des traits de personnalité correspondants. “Dans l’idéal, l’estime de soi nait lorsque l’on a de fortes relations et que l’on atteint des objectifs raisonnables pour l’âge que l’on a. Dans l’idéal, l’estime de soi ne peut pas être atteinte par un raccourci. C’est la conséquence d’une vie réussie, pas quelque chose que l’on peut poursuivre”, note-t-il sagement.

Réseaux égocentriques

Moralité : Les réseaux sociaux semblent avoir plus d’influence sur l’égo de leurs utilisateurs que sur leurs aptitudes relationnelles. Ils conduisent, au mieux, à fabriquer une estime de soi artificielle, plus fondée sur l’apparence que sur la réalité. Au pire, ils développent un fort égo-centrisme en contradiction avec la vocation “sociale” de ces réseaux. Notons, toutefois, que l’architecture du site, tout comme le slogan de l’entreprise qui l’a créé, peuvent influencer fortement ses impacts sur la personnalité des utilisateurs. A choisir, mieux vaut quand même une amélioration de l’estime de soi, même artificielle, qu’une plongée dans le narcissisme exacerbé, non ?

Michel Alberganti

lire le billet