Human Brain Project : La Suisse prend la tête de l’Europe

100 milliards de neurones. 1 milliard d’euros… L’un des deux programmes de recherche “vaisseau amiral” (flagship) de la Commission Européenne (Future Emerging Technology (FET) Flagship) est le projet Human Brain Project (HBP) avec, pour leader, l’Ecole Polytechnique Fédérale de Lausanne (EPFL). L’annonce a été faite le 28 janvier 2013 par Neelie Kroes, vice-présidente de la Commission européenne (CE) en charge du programme numérique, lors d’une conférence de presse organisée à Bruxelles. Le second projet vainqueur, le graphène, sera piloté par l’université de Chalmers de Göteborg, en Suède.

Ces annonces ne constituent pas vraiment des surprises car elles avaient été dévoilées par la revue Nature, pourtant très stricte sur ses propres embargos, dès le 23 janvier 2013. Néanmoins, le fait que la Suisse, pays qui ne fait pas partie de l’Union Européenne (UE) et qui, en matière de recherche, a le statut de “membre associé” comme la Turquie, la Norvège ou Israël, soit promue à la tête d’un tel projet va faire grincer pas mal de dents en Allemagne, en France ou en Angleterre. Pas de quoi contribuer, par exemple, à resserrer les liens distendus des Anglais avec l’UE.

“La Suisse est un pays européen”

En Suisse, en revanche, la décision de la CE est fêtée comme un triomphe de la recherche helvétique. La qualité de cette dernière n’est pas contestée grâce à des établissements réputés comme, justement, l’EPFL, mais aussi l’École polytechnique fédérale de Zurich (EPFZ) et, bien entendu, le CERN de Genève. De là à lui confier le pilotage d’un tel projet, il y a un pas. Justement, lors de la conférence de presse, la première question posée par une journaliste de la télévision suisse a porté sur ce choix de la Suisse. Neelie Kroes a simplement répondu : “La Suisse est un pays européen !” Elle a ajouté que l’Europe avait besoin d’unir toutes ses forces… La vice-présidente de la CE a poursuivi les réponses aux questions posées, en particulier sur le financement, sur le même mode. C’est-à-dire en évitant soigneusement… les réponses précises.

Je reviendrai très vite sur le graphène, projet moins controversé. Le débat du jour concerne plus le Human Brain Project à la fois sur la forme et sur le fond.

1°/ Pourquoi la Suisse ?

Malgré l’absence de précisions données par Neelie Kroes, les raisons du choix de la Suisse sont claires. Le Human Brain Project était proposé par l’EPFL qui a recruté, en 2002, un homme, Henry Markram, qui a fait de ce programme celui de sa vie.  De nationalité israélienne, il a fait ses études en Afrique du sud (université de Cape Town) et à l’Institut Weizmann, en  Israël, avant de passer par les National Health Institutes (NIH) américains et le Max Planck Institute  de Heidelberg en Allemagne. A l’EPFL, il a lancé en 2005 le Blue Brain Project que le HBP va prolonger. Pour cela, il a convaincu Patrick Aebischer, le neurologue qui dirige l’EPFL, d’acquérir un supercalculateur Blue Gene d’IBM. Il a ainsi construit les bases du HBP et permis à la Suisse d’être candidate dans la course aux programmes FET Flagship. C’est donc grâce à l’israélien Henry Markram qu’un pays non membre de l’UE a remporté ce concours.

2°/ Pourquoi le Human Brain Project ?

“Un ordinateur qui pense comme nous”. C’est ainsi que Neelie Kroes a décrit l’objectif du HBP et justifié la victoire de ce projet. Pas sûr qu’Henry Markram se retrouve vraiment dans cette formulation, à moins qu’il en soit l’auteur… Pour convaincre les décideurs politiques, il faut savoir leur “vendre” des sujets de recherche souvent complexes. C’est bien le cas du HBP. Son réel objectif est d’intégrer l’ensemble des travaux des chercheurs du monde entier sur le fonctionnement du cerveau dans un seul supercalculateur. A terme, ce dernier pourrait simuler le fonctionnement complet du cerveau humain. Il permettrait alors de mieux comprendre les mécanismes de maladies neurodégénératives et même de tester des médicaments pour les soigner.

Cette approche suscite de nombreuses critiques et pas mal de doutes sur ses chances d’aboutir. La recherche sur le cerveau génère environ 60 000 publications scientifiques par an. La plupart portent sur des mécanismes très précis des neurones, des synapses ou des canaux ioniques. Ces recherches ne permettent pas d’aboutir à une vue d’ensemble du fonctionnement du cerveau. C’est justement l’objectif du HBP. Pour autant, rien n’assure qu’un modèle synthétique émergera de ce rassemblement de travaux épars. Certains pensent qu’une telle démarche risque d’induire une modélisation unique, conçue par…  Henry Markram lui-même.

“Nous avons besoin de diversité en neuroscience”, a déclaré à Nature Rodney Douglas, co-directeur de l’Institut pour la neuroinformatique (INI) qui regroupe l’université de  Zurich et l’Institut fédéral de technologie (ETH) de Zurich. Certains mauvais esprit pourrait expliquer une telle remarque par la concurrence entre Lausanne et Zurich. Gageons que l’intérêt supérieur de l’Europe permettra de surmonter pareilles réactions… Il n’en reste pas moins que les chances de succès du HBP sont très loin d’être garanties.

“Le risque fait partie de la recherche”, comme le rappelle Neelie Kroes. Dans le cas de ce projet, le risque est justifié par l’ambition du projet. Mais cela ne diminue en rien les possibilités d’échec. D’autant que le succès, lui, dépend de la qualité de la collaboration de l’ensemble des 70 institutions provenant de 22 pays européens participant au HBP. Et de la bonne volonté des chercheurs des autres pays. Seront-ils motivés par le succès de la Suisse ? Le cerveau de l’Europe pourra-t-il devenir celui du monde ?

3°/ Comment trouver 1 milliard d’euros ?

La question a été posée plusieurs fois à Neelie Kroes: “Le financement du HBP est-il assuré?” Les journalistes présents ont fait remarquer que seuls 53 M€ étaient alloués pour l’année 2013. La vice-président s’est déclarée confiante dans la participation des Etats membres à ce financement. Pour atteindre 1 milliard d’euros sur 10 ans, il faut trouver 100 M€ par an, en moyenne. La moitié proviendra des fonds de l’UE, l’autre moitié devra être apportée par les Etats membres. Et la Suisse ? Il sera intéressant de mesurer la participation du leader qui, lui, n’est pas contraint par la mécanique économique de Bruxelles. Le choix d’un pays réputé “riche” n’est peut-être pas un hasard. La CE pourrait espérer que les Suisses, motivés par la désignation de leur projet, mettront la main à la poche pour compléter le financement de pays européens encore rongés par la crise.

Michel Alberganti

lire le billet

Le “rayon tracteur” de Star Trek sort de la pure science fiction

Moins célèbre de la téléportation (Beam me up, scotty !), le rayon tracteur de Star Trek fascine également les amateur de science fiction. Un rayon de lumière capable d’attraper les objets comme un lasso et de les ramener vers soi… Très utile lorsqu’on ne dispose pas du magnétisme ou de la gravité. Et puis, la lumière est beaucoup plus précise pour viser une cible. Malheureusement, l’effet naturel d’un faisceau de lumière sur un objet est exactement opposé. Le phénomène est connu depuis 1629, date à laquelle Johannes Kepler remarque que la queue de comète est toujours dirigée dans la direction opposée à celle du soleil. Ce sont les rayons lumineux qui dévient les fines particules. Il parait donc très improbable d’utiliser la lumière pour attirer un objet, a fortiori un vaisseau spatial comme dans Star Trek. Autant essayer d’attraper une mouche avec un ventilateur…

Inverser la force de la lumière

Cet obstacle de taille n’a pas découragé une équipe de chercheurs dirigée par Tomas Cizmar, de l’école de médecine de l’université de St Andrew, en Ecosse, et de scientifiques de l’Institut des instruments scientifiques (ISI) de la République Tchèque. Ses travaux ont été publiés dans la revue Nature Photonics le 20 janvier 2013. Il y affirment avoir réussi à inverser le sens de la force exercée par la lumière sur un objet. En la circonstance, il s’agit d’objets microscopiques. Mais l’important est d’avoir trouvé un moyen expérimental pour réussir cette délicate manœuvre.

Le détail du travail des chercheurs est réservé aux abonnés à la revue Nature Photonics ou à ceux qui ont les moyens de payer 30 € pour accéder au texte complet de la publication. Les autres doivent se contenter du résumé, font succinct, dans lequel les chercheurs indique fournir “une géométrie qui génère un “rayon tracteur” et qui démontre expérimentalement son fonctionnement sur les microparticules sphériques de tailles variés, tout comme son amélioration par des structures de microparticules optiquement auto-arrangées”. Les chercheurs ajoutent avoir montré que le mouvement en deux dimensions et le tri dans une dimension peut être contrôlé grâce à la rotation de la polarisation du faisceau incident.

Trier des particules comme les globules blancs

A la BBC qui l’a interrogé, Tomas Cizmar n’a pas donné d’autres précisions sur le système mis au point mais il en a précisé les utilisations possibles. “Les applications pratiques peuvent être superbes et très excitantes. Le rayon tracteur est très sélectif en fonction des propriétés des particules sur lesquelles il agit. Il pourrait donc permettre de prélever certaines d’entre elles dans un mélange. Il pourrait, par exemple, servir à prélever les globules blancs dans le sang”.

Aspirer la queue d’une comète

Pourvoir ainsi “aspirer” les particules désirées dans un mélange serait effectivement précieux. Les Américains travaillent sur un système similaire qui pourrait servir sur une sonde spatiale. Grâce à un laser tracteur, le vaisseau pourrait prélever, à distance, des particules se trouvant à proximité d’un astéroïde ou dans la queue d’une comète. Si l’on reste bien de la tractation d’un vaisseau par un autre, comme dans Star Trek, rien ne dit que cette nouvelle maîtrise de la lumière et de son interaction avec la matière ne pourra pas effectivement trouver un grand nombre d’applications.

Michel Alberganti

lire le billet

12/12/12 : le jour où l’astéroïde Toutatis rase la Terre “de près”

La date du 12 décembre 2012, soit le 12/12/12, aurait pu attirer l’attention des Mayas. Mais, pour la fin du monde, ils lui ont préféré le 21… Dommage car la prédiction apocalyptique se serait appuyée sur le passage d’un bon gros astéroïde, digne de donner une sueur froide aux petites fourmis humaines. Avant même ce gros calibre, un autre caillou céleste nous a frôlé aujourd’hui même, 11 décembre 2012. Il s’agit de 2012-XE54 dont la découverte ne date que du… 9 décembre. C’e’st à dire 3 jours avant le croisement. Par chance, et c’est ce qui explique son approche incognito, la taille de l’astéroïde est comprise entre 20 et 40 mètres. Aujourd’hui, XE54 est passé à 60% de la distance entre la Terre et la Lune, soit 384 000 km. A l’échelle du cosmos, cela représente à peine un poil, un cheveu. Mais c’est pourtant loin des records de frôlement. En juin 2011, l’astéroïde 2011MD, d’environ 9 mètres de diamètre, n’est passé qu’à 12 000 km.

4,5 km de long

Heureusement que 4179 Toutatis, celui qui nous croise ce 12 décembre, restera à une distance plus respectable. Car c’est un bien plus gros morceau. Découvert en 1989 par un astronome de l’observatoire de la Côte d’Azur, le français Christian Pollas, il doit bien entendu son nom au Dieu des Gaulois, bien connus pour craindre que le ciel ne leur tombe sur la tête… Toutatis nous rend visite tous les quatre ans. Sa taille laisse mal augurer des conséquences d’une collision: 4,5 km de long, 2,4 km de large pour 1,9 km de haut. Même si le diamètre de l’astéroïde qui pourrait avoir contribué à la disparition des dinosaures, il y a 65 millions d’années, est estimé à 10 km, on comprend que Toutatis engendrerait un peu plus de bouleversements sur Terre que le changement climatique que nous redoutons d’ici la fin du siècle.

Croisement à 7 millions de km de la Terre

Par bonheur, il ne rasera la Terre qu’à une distance “cosmiquement” proche, comme l’écrit joliment Wired. Toutatis doit passer le 12 décembre 2012 à 7 millions de km de nous, soit environ 18 fois la distance de la Terre à la Lune. En 2004, il s’était approché à seulement 1,5 million de km. D’après les calculs des astronomes, le risque d’une collision entre Toutatis et la Terre est nul pour les 600 prochaines années. Dommage pour les prévisionnistes mayas. Voilà la plus probable des causes de fin du monde qui s’éloigne dans l’espace… Erreur de date et de visée. Au fond, tant mieux.

Free live streaming by Ustream – Le passage de Toutatis en Direct

Michel Alberganti

Lire aussi sur Globule et Télescope : Peindre les astéroïdes en blanc : une idée pour les détourner de la Terre…

Et écouter Science publique sur France Culture pour ne savoir plus sur les astéroïdes qui menacent la Terre :

26.10.2012 – Science publique
Un astéroïde peut-il provoquer la fin du monde? 57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

La fin du monde, que certains prévoient pour le 21 décembre 2012 à partir d’une interprétation du calendrier maya,pourrait-elle être provoquée par une collision entre un astéroïde géant et la Terre ? Nous en débattons avec nos invités : jean-Pierre Luminet, astrophysicien,Patrick Michel,astrophysicien et David Bancelin, astronome.

lire le billet

Périscope : Chute libre, OGM, Nobel…

“Périscope” est une nouvelle rubrique régulière que vous propose désormais Globule et télescope.
Un coup d’œil rapide devant, derrière et parfois sur les cotés sur ce qui va se passer, s’est passé ou aurait dû se passer dans les domaines de la science, de l’environnement et de la technologie. Pour le plaisir des découvertes avec le souci permanent de leur impact sur la société. Et toujours, bien entendu, des liens, des photos et de la vidéo.

En chute libre et en retard

Le saut en chute libre au cours duquel l’Autrichien Felix Baumgartner espère pouvoir franchir le mur du son devait avoir lieu lundi 8 octobre. Il est repoussé au mardi 9 octobre en raison des conditions météorologiques. Il est possible de suivre le compte à rebours sur le site de l’exploit, Redbull Stratos.

~

OGM : donnant donnant

Gilles-Eric Séralini, sommé par différentes institutions (EFSA, BfR, HCB…) de fournir ses données d’expérience au sujet de sa publication du 19 septembre, a déclaré qu’il ne les fournirait que si l’agence européenne EFSA publiait celles qui l’on conduit à autoriser le maïs transgénique NK 83 et le Roundup… Blocage en vue. En attendant, voici une version du débat par l’émission en ligne “Arrêt sur image” sur ce sujet :

~

La semaine des Prix Nobel

Chaque année, on s’y attend pas et puis, brusquement, c’est l’affolement. les Nobels se mettent à tomber et les rédactions s’affolent ! “Tu comprends de quoi ça parle ?” étant la question qui revient le plus souvent après la remise des prix. Cela commence lundi 8 octobre avec la médecine, suivie par la physique mardi, la chimie mercredi et la paix le 12 octobre. Il faudra attendre le 15 pour l’économie et on ne sait encore quand pour la littérature. Cette année, Slate.fr est fin prêt. Vous allez voir ! Pour patienter, voici quelques images de la cérémonie d’ouverture de l’an dernier. Un ambiance à la bonne franquette et une famille royale hyper détendue… Quelques mots de suédois qui rappellent les films de Bergman en VO et quelques notes de Mozart… Et de sublimes couronnes ! Royales en attendant celles des scientifiques.

~

Michel Alberganti

lire le billet

Le militantisme anti-OGM est-il compatible avec la science ?

Les photos illustrant l’étude publiée le 19 septembre 2012 par Gilles Eric Séralini (Université de Caen, Institut de biologie, CRIIGEN) dans la version en ligne de la revue Food and Chemical Toxicology rappellent celles qui ornent… les paquets de cigarettes. Reprises par le Nouvel Obs qui fait la couverture de son édition du 20 septembre avec le titre “Oui, les OGM sont des poisons!”, elles montrent des rats perclus de tumeurs après avoir été alimentés avec du maïs Monsanto NK603, résistant à l’herbicide Roundup de… Monsanto, et de l’herbicide Roundup. Résultat : les rats ainsi nourris meurent beaucoup plus vite que les rats du groupe de contrôle recevant une nourriture sans OGM ni Roundup.

Quels effets sur l’homme ?

Les scientifiques se prononceront sur le fond de cette étude. Ils devront, en particulier, reproduire l’expérience afin de vérifier qu’ils obtiennent les même résultats que l’équipe de Gilles-Eric Séralini. La procédure classique. En cas de confirmation de l’effet de ce cocktail mortel, il restera à extrapoler ses effets sur l’être humain. Il faudra enfin vérifier que les doses utilisées par les chercheurs français, transposées à la masse corporelle humaine, sont représentatives de ce que nous consommons. C’est dire s’il reste des choses à vérifier avant de conclure, comme nos confrères du Nouvel Observateur, que les OGM sont des poisons. Si tel était le cas, un désastre sanitaire majeur serait à craindre aux Etats-Unis, grands consommateurs d’OGM depuis des décennies. Pour l’instant, donc, il s’agit d’une alerte très inquiétante qui impose de lancer de nouvelles études indépendantes.

Traitement médiatique et éthique

S’il est trop tôt pour statuer sur la valeur scientifique de cette étude, il est d’ores et déjà possible d’en analyser le traitement médiatique et la composante éthique. Il se trouve en effet que le principal auteur de l’étude, Gilles-Eric Séralini, est également ouvertement militant anti-OGM. A la fin de la publication dans Food and Chemical Toxicology, il est mentionné:

Conflict of Interest
The authors declare that there are no conflicts of interest.

Les mêmes auteurs remercient ensuite, pour leur support, la fondation “Charles Leopold Meyer pour le progrès de l’homme” et le CRIIGEN (Comité de Recherche et d’Information Indépendantes sur le génie Génétique), l’équivalent de la CRIIRAD, spécialisée dans le nucléaire, mais pour le génie génétique. Le CRIIGEN se déclare un comité “apolitique et non-militant d’expertise, de conseil, indépendant des producteurs d’OGM“. Le président de son comité scientifique est… Gilles-Eric Séralini. Parmi ses membres, on trouve Corinne Lepage, présidente d’honneur, et Jean-Marie Pelt, secrétaire général.

Publication scientifique, livres, documentaire…

Gilles-Eric Séralini publie, le 26 septembre prochain chez Flammarion, un ouvrage intitulé : Tous cobayes, OGM, pesticides, produits chimiques”. Le même jour, sort au cinéma un documentaire de Jean-Paul Jaud, “Tous cobayes”, adapté du livre de Gilles-Eric Séralini. Ce film sera diffusé sur France 5 le 16 octobre. Quelques jours auparavant, le 22 septembre, les éditions Charles Leopold Meyer auront publié un ouvrage intitulé “Pour qu’ils ne puissent plus dire qu’ils ne savaient pas !” signé par Corinne Lepage. Le livre “démontre l’absolue nécessité et l’urgence dans laquelle nous nous trouvons aujourd’hui de mener des études indépendantes” sur les OGM, selon  l’éditeur. Cela fait beaucoup. Même si l’on considère comme aussi salutaire que nécessaire l’alerte de l’opinion publique sur les questions que soulèvent les OGM et les agissements de Monsanto, largement exposés dans le remarquable documentaire Le Monde selon Monsanto, réalisé par Marie-Monique Robin.

Indépendant… et militant

Indépendant, le CRIIGEN n’en est pas moins militant, quoi qu’il en dise. Les écrits de ses principaux membres en témoignent largement. Gilles-Eric Séralini est l’auteur de Génétiquement incorrect (Flammarion, 2003, 2012), Ces OGM qui changent le monde (Flammarion, 2004) et Nous pouvons nous dépolluer ! (Josette Lyon, 2009). Avec Jean-Marie Pelt, il a publié Après nous le déluge ? (Flammarion, 2006). Quant à Joël Spiroux de Vendômois, docteur en médecine et président du CRIIGEN, il signe aujourd’hui même, dans le Nouvel Observateur, une tribune intitulée: “OGM, Monsanto, Roundup & Co : comment notre société produit des malades”. Difficile, dans ces conditions, d’arguer d’une quelconque indépendance d’opinion du CRIIGEN et de ses membres vis à vis des OGM. Tous mènent un combat ouvert contre les organismes génétiquement modifiés.

Influence sur le protocole expérimental ?

Rien de plus respectable. La question qui se pose concerne la conjonction entre la publication d’une étude scientifique et un battage médiatique visiblement orchestré s’exprimant simultanément dans la presse, dans l’édition, au cinéma et à la télévision. Bien entendu, l’objectivité scientifique n’existe pas plus que l’objectivité journalistique. Mais jusqu’où le militantisme peut-il influencer le protocole d’une expérience ? La publication d’aujourd’hui dans Food and Chemical Toxicology conduit forcément à cette interrogation du fait de l’engagement idéologique et politique de son auteur principal. Seule l’expertise scientifique de ses travaux pourra lever ce doute légitime. S’il est prouvé que la découverte de Gilles-Eric Séralini constitue effectivement une grave menace pour l’homme, cela démontrera que le militantisme peut servir de moteur efficace à la démarche scientifique.  Dans le cas contraire…

Michel Alberganti

» A lire aussi: Maïs OGM Monsanto, l’étrange affolement du gouvernement français

(Ré) écoutez l’émission Science Publique que j’ai animée sur France Culture le 24 février 2012 :

24.02.2012 – Science publique│La France peut-elle se passer de la recherche sur les OGM ? 59 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobileaudiovideo

Avec:
Philippe Chalmin, professeur d’économie à Paris-Dauphine.
François Houllier, directeur général délégué à l’organisation, aux moyens et à l’évaluation scientifique de l’Institut national de la recherche agronomique, l’INRA.
Jean-Christophe Pagès, président du comité scientifique du Haut Conseil des Biotechnologies ( HCB).
Joël Spiroux de Vendomois, docteur en médecine générale et en environnement, président du Comité de recherche et d’informations indépendantes sur le génie génétique, le CRIIGEN.

20 commentaires

lire le billet

Une micro batterie sous le crâne alimentée par le cerveau

L’un des derniers freins au développement de l’homme bionique réside, à l’évidence, dans l’épineuse question de l’alimentation électrique des implants électroniques, en particulier lorsqu’ils sont situés dans le cerveau. Rien n’est plus disgracieux que des fils sortant du crâne ou des boitiers sans fil glissés sous le cuir chevelu. Au delà de l’aspect esthétique, qui a son importance lorsqu’on imagine un être humain augmenté, ces solutions requièrent un changement régulier des piles qui gâche un peu le rêve de tout Bioman qui se respecte. D’où l’intérêt des travaux d’une équipe du Massachusetts Institute of Technology (MIT) à Cambridge qui font l’objet d’une publication dans la revue PLoS one le 12 juin 2012.

Carburant: le glucose du liquide cérébro-spinal

Rahul Sarpeshkar, informaticien, et ses collègues du MIT et de la Harvard Medical School, annoncent avoir conçu une technologie qui permet de collecter de l’énergie électrique directement dans le cerveau. Il ne s’agit de rien de moins que d’une pile à combustible utilisant comme carburant le glucose du liquide cérébro-spinal. La pile fonctionne en retirant des électrons du glucose, c’est à dire en les oxydant. Cela marche dans une solution saline simulant le liquide cérébro-spinal. Ne nous emballons donc pas… Les scientifiques ignorent, pour l’heure, l’impact de cette puce sur le cerveau lui-même.

Une puce électronique minuscule dans la tête

Car, en fait, il s’agit bien d’une batterie sur puce. De 1 à 2 millimètres carrés, le composant oxyde le glucose avec son anode en platine et convertit l’oxygène en eau à la surface d’un réseau de nanotubes de carbone intégré à la cathode. Les électrons arrachés au glucose fournissent de l’électricité. L’intérêt du système est qu’il peut fonctionner, en théorie, indéfiniment. Du moins, tant qu’il y a du glucose dans le liquide cérébro-spinal. La première crainte qui vient à l’esprit concerne les effets d’une telle exploitation d’un liquide du cerveau… sur le cerveau lui-même.

Pas de perturbation du cerveau

D’après leurs calculs, les chercheurs estiment que la pile consommerait entre 2,8% et 28% du glucose qui est réapprovisionné en permanence. En effet, le cerveau produit de 500 à 1200 millilitres de liquide cérébro-spinal par jour. Soit un renouvellement complet des 150 millilitres qu’il contient toutes les 6 heures. Nous voici donc avec une production permanente du carburant de notre pile à combustible. Les scientifiques ont étalement analysé la consommation d’oxygène de la pile et ils estiment qu’elle ne devrait pas déstabiliser les niveaux nécessaires au cerveau. Mais rien ne vaut un essai sur un vrai cerveau…

Des fractions de microwatts

Pas question, si l’absence d’effets nocifs est confirmée, d’allumer une lampe frontale ou d’alimenter des lunettes de réalité augmentée. Encore moins de se projeter dans un monde virtuel à la Matrix… L’électricité produite ne dépasse pas les micro-watts (3,4 microwatts par centimètre carré en moyenne avec des pointes possibles à 180 microwatts par centimètre carré). Etant donné la taille réduite de la puce, elle ne produira que des fractions de microwatts. Mais cela pourrait être suffisant pour alimenter des implants permettant, par exemple, à des personnes paralysées de commander des systèmes leur permettant de réactiver la mobilité de leurs membres ou des équipements externes. On se souvient des expériences spectaculaires de contrôle d’un bras robotique par la pensée.

Michel Alberganti

lire le billet

HMGA2 : Le gène de l’intelligence ?

“The Brain Show” pièce de théâtre avec l’actrice Suzy Polucci

Faute de comprendre les mécanismes à l’oeuvre, la recherche médicale fait de plus en plus appel aux statistiques. C’est le cas pour le cancer ou les allergies. Et aussi pour l’étude des maladies du cerveau et des mystères de l’intelligence grâce à la génétique. Le principe est simple: analyser un grand nombre d’images du cerveau par IRM (Imagerie par résonance magnétique) ainsi que le  génome de leur propriétaire pour tenter de déceler des corrélations entre les deux. Comme pour toute statistique, la qualité et la taille de l’échantillon pris en compte influence fortement la pertinence du résultat.

C’est pour cette raison que les chercheurs ont créé un projet mondial, ENIGMA, rassemblant 200 scientifiques appartenant à 100 institutions réparties sur la planète. Ensemble, ils ont étudié des milliers d’images IRM prises sur 21 151 personnes en bonne santé dont ils ont également analysé l’ADN. Leurs résultats ont été publiés, le 15 avril 2012, dans la revue Nature Genetics.

“Nous avons cherché deux choses dans cette étude, indique Paul Thompson, professeur de neurologie à l’école de médecine David Geffen de l’université de Californie Los Angeles (UCLA). Nous sommes partis à la chasse aux gènes qui augmentent vos risques d’avoir une maladie dont vos enfants peuvent hériter. Nous avons également cherché les facteurs qui provoquent une atrophie des tissus et réduisent la taille du cerveau, caractéristiques qui sont des marqueurs biologiques de maladies héréditaires comme la schizophrénie, les troubles bipolaires, la dépression, la maladie d’Alzheimer et la démence”.  L’étude ENIGMA est née il y a trois ans lorsque certains chercheurs ont détecté l’existence des gènes de risque pour certaines maladies. Ne comprenant pas bien leur influence, les scientifiques ont décidé de se lancer dans cette analyse mondiale associant images du cerveau et décryptages du génome.

Les deux principaux résultats obtenus sont les suivants:

  1. Gènes et taille du cerveau. Grâce à l’ampleur de l’étude, les chercheurs ont identifié de nouvelles variantes génétiques qui sont présentes chez les personnes qui disposent d’un cerveau plus gros que les autres ainsi que des différences dans des régions critiques concernant l’apprentissage et la mémoire. De subtiles variations génétiques engendrent une réduction de la taille de ces zones. Et ce sont les mêmes gènes qui sont en cause chez les individus provenant de différentes origines géographiques (Australie, Amérique du Nord, Europe). L’identification de ce lien entre l’action de certains gènes sur la taille du cerveau ou de certaines de ses zones peut permettre, selon les chercheurs, de concevoir des thérapies visant à limiter les risques de maladies. Ou de prescrire des exercices, des régimes ou des stimulations du cerveau destinés à effacer les effets de leur “mauvais” gène.
  2. Gène et intelligence. En prime, car cela ne faisait pas partie de leurs objectifs initiaux, les chercheurs ont découvert un lien entre un gène et le degré d’intelligence. Il s’agit du gène appelé HMGA2 qui influence à la fois la taille du cerveau et l’intelligence. L’ADN comprend quatre bases: A, C, T et G. Les personnes dont le gène HMGA2 porte la lettre C au lieu de la lettre T disposent d’un cerveau de plus grande taille et obtiennent de meilleurs résultats aux tests de QI. “Le fait qu’un simple changement de lettre induise un cerveau plus gros est une découverte très excitante”, souligne Paul Thompson. “Nous avons établi ce lieu sans équivoque et cela ouvre de nouvelles voies de recherche sur la façon de moduler l’impact de ce lien génétique sur le fonctionnement du cerveau et l’intelligence”, précise-t-il.

Le projet ENIGMA va maintenant se poursuivre en prenant en compte ces résultats. Il doit s’orienter sur l’étude d’affections comme la maladie d’Alzheimer, l’autisme et la schizophrénie qui sont liées à des perturbations dans le câblage du cerveau.  Les chercheurs vont donc partir en quête des gènes qui influencent la façon dont le cerveau est câblé grâce à une nouvelle technique d’imagerie, l’IRM de diffusion, qui permet de visualiser les voies de communication entre les cellules d’un cerveau vivant.

De telles recherches illustrent parfaitement le croisement toujours inquiétant entre le travail sur des maladies et l’ouverture de possibilités d’analyse qui n’ont rien de médical. Lorsque le décryptage du génome sera devenu pratique courante, comment éviter que l’analyse du gène HMGA2 ne devienne un critère de sélection ? Les tests de QI sembleront alors bien vieillots. Et l’on risque de regretter leur imprécision. De là à imaginer des tests génétiques sur les embryons, il n’y a qu’un pas. Une façon d’accélérer, ou plutôt d’orienter, l’évolution naturelle de la race humaine en éliminant les prétendants à la vie qui auront la lettre T au lieu de C dans leur gène HMGA2… A moins que la conservation des T ne soit utile pour la société, sachant que l’on a toujours besoin d’un moins intelligent que soi. Et l’on ne peut guère s’empêcher de penser aux Alphas et aux Epsilons du Meilleur des mondes d’Aldous Huxley paru en 1932, il y a tout juste 80 ans. Ne se serait-il trompé que sur les lettres ?

Différences de la taille des centres de la mémoire (en vert) entre deux cerveaux

Michel Alberganti

lire le billet

US Army: Robots wanted !

Les robots imaginés par la Darpa au travail

Après avoir abandonné son fameux projet de Guerre des étoiles, avec ses satellites destructeurs de missiles par laser, l’armée américaine semble miser sur les robots humanoïdes. Pas pour faire la guerre comme dans le film Star Wars avec ses armées de droïdes séparatistes. Le concours lancé le 10 avril 2012 par la Darpa affiche un objectif plus pacifique :

“Développer les capacités de la robotique terrestre pour exécuter des tâches complexes dans des environnements conçus par l’homme, dangereux et dégradés”.

La Darpa n’est autre que l’agence américaine qui développe les nouvelles technologies destinées à l’armée. La signification de l’acronyme est d’ailleurs très explicite: Defense Advanced Research Projects Agency. Avec ses 240 personnes, l’agence dispose d’un budget de plus de 3 milliards de dollars. Elle s’est illustrée dans le passé, lorsqu’elle s’appelait encore Arpa, avec le développement de l’ancêtre d’Internet, le réseau Arpanet. Sous la tutelle du ministère de la défense (DOD) américain depuis 1972, elle est devenue l’un des principaux pourvoyeurs de fonds de la recherche américaine, des travaux liés à la guerre bactériologique jusqu’aux techniques d’enseignement assisté par ordinateur en passant par les drones, le contrôle des machines par le cerveau et la robotique. Dans ce domaine, elle a lancé en 2004 un Grand Challenge doté de 2 millions de dollars pour stimuler la recherche en matière de véhicules sans conducteur tout terrain afin que l’armée américaine dispose d’un tel engin d’ici 2015.

2 millions de dollars

Le nouveau Robotics Challenge de la Darpa s’inscrit donc dans ce type particulier d’appel à contribution ouvert à tous. L’agence offre pas moins de 2 millions de dollars à “quiconque pourra aider à faire avancer l’état de l’art de la robotique au delà de ses capacités actuelles en matière de support à la mission de secours du DOD en cas de désastre”, précise-t-elle. L’originalité du concours réside en grande partie dans son ouverture à des candidatures extérieure au monde des spécialistes. La Darpa insiste lorsque précise sa position dans ce domaine: “Réaliser de véritables innovations en robotique, et donc remporter de challenge, imposera la contribution de communautés qui dépassent celle des développeurs traditionnels de robots”. La Darpa subventionne déjà les entreprises spécialisées. Sans rencontrer le succès escompté, semble-t-il. D’où ce recours à “tout le monde” qui peut permettre de débusquer un petit génie installé dans une université ou dans son garage. Il faudra bien cela pour respecter le cahier des charges très précis imposé par la Darpa.

8 tâches à accomplir

Ce cahier des charges ne va pas jusqu’aux trois lois de la robotique d’Asimov, mais il ne définit pas moins de 8 aptitudes imposées :

  1. Conduire un véhicule utilitaire sur le site
  2. Marcher à pied dans les décombres
  3. Déplacer les débris obstruant une entrée
  4. Ouvrir une porte et entrer dans un immeuble
  5. Grimper à une échelle industrielle et franchir une passerelle
  6. Utiliser un outil pour détruire un pan de béton (image de droite ci-dessus)
  7. Localiser et fermer une vanne près d’une fuite sur un tuyau (image du haut)
  8. Remplacer un composant tel qu’une pompe de refroidissement

Centrales nucléaires

Rien de vraiment militaire dans un tel programme. On pense plutôt à l’intervention dans une centrale nucléaire détruite. Justement, la Darpa cite nommément le drame de Fukushima lors duquel elle estime que “les robots ont joué un rôle de support pour minimiser les émissions radioactives”.  En fait, les Japonais ne disposaient pas de robots adaptés, justement, à l’intervention dans un bâtiment encombré de gravats et dans un environnement très fortement radioactif qui impose une électronique spécifique. Et c’est une entreprise américaine, iRobot, fabriquant également de l’aspirateur autonome Rumba, qui est venue à la rescousse.

Au delà des capacités actuelles

“Le travail réalisé par la communauté robotique mondiale, qui a amené les robots au point d’être capables de sauver des vies et d’améliorer l’efficacité des interventions, nous a conduit en envisager d’autres aptitudes”, explique Gill Pratt, le directeur de ce programme à la Darpa. Le Robotics Challenge va permettre de tester des avancées en matière d’autonomie supervisée en perception et en prise de décision, de capacité de déplacement à pied ou en véhicule, de dextérité, de force et d’endurance dans un environnement détruit par une catastrophe auquel le robot devra pouvoir s’adapter quel que soit le type de désastre, par essence imprévisible. On comprend ainsi le choix de la Darpa visiblement en faveur de robots humanoïdes. Les nouveaux ouvriers robotiques n’interviendront pas, comme leurs homologues industriels, dans une usine conçus pour eux. Ils devront se substituer le plus possible aux hommes qui seront, eux-aussi, à l’oeuvre. Pour cela, il leur faudra utiliser les mêmes outils et les mêmes véhicules. Cette robotique de substitution se révèle relativement nouvelle. Jusqu’à présent, les robots d’intervention tenaient plutôt de R2-D2. Il va leur falloir se rapprocher de C-3PO

C’est la voie dans laquelle s’est déjà engagée la firme Boston Dynamics, issue du MIT, avec son robot Petman. Le voir évoluer, même sans tête, commence à donner ce petit frisson caractéristique des humanoïdes lorsqu’ils se meuvent d’une façon proche de la notre.

Michel Alberganti

 

lire le billet

Le Hollandais volant: Vrai ou faux homme-oiseau?

A la première vision de cette vidéo, je l’avoue, j’ai marché… Le 19 mars 2012, Jarno Smeets, un ingénieur hollandais de 31 ans, l’a publiée sur Youtube. Elle a déjà été visionnée plus d’un million de fois. Voir un homme voler en battant des ailes ne peut qu’impressionner, tant l’exploit renvoie à l’un des plus grands rêves de l’homme. Depuis le mythe d’Icare, nous semblons condamnés à rester cloués au sol par la gravité. L’aviation n’y a rien fait. C’est l’avion qui vole, pas nous. Lorsque Jarno Smeets décolle en battant l’air avec ses ailes de géant, tel un albatros, on ne peut réprimer un pincement au coeur. Et si, finalement, c’était possible ! Si les nouveaux textiles ultra légers et résistants et les structures en fibre de carbone nous apportaient enfin la solution: des ailes assez grandes et légères pour qu’un homme ait la force de les faire battre pour s’envoler comme un oiseau…

Les experts de l’image numérique doutent

Mais à force de regarder cette vidéo pour y détecter d’éventuelles traces d’un faux et de survoler la Toile pour y consulter les réactions, il faut bien se rendre à l’évidence : il s’agit très probablement d’un canular monté avec un luxe de moyens et de soins. Pourtant, le très sérieux Wired présente la performance sans la moindre réserve et nous sommes encore assez loin du 1er avril. Mais sur Gizmodo, le ton est bien différent. Sous le titre “Haut mensonge”, l’article de Sam Biddle rend compte des réactions des spécialistes des effets spéciaux de Industrial Light and Magic, l’entreprise de Georges Lucas qui s’est illustrée avec Star Wars. Dans leur majorité, les experts de l’imagerie informatique penchent pour le canular, même s’ils reconnaissent que les trucages ne sont guère visibles. Pour eux, c’est la mauvaise qualité de la vidéo qui permet de masquer les défauts d’une animation informatique imparfaite puisque réalisée par un amateur. Ils décèlent néanmoins certains caractéristiques qui plaident en faveur d’images créées par ordinateur.

Plusieurs raisons de s’interroger

Certains hésitent pourtant à croire qu’un tel luxe d’efforts a été mis au service d’un faux. En effet, avant la vidéo publiée le 19 mars, Jarno Smeets en a réalisé pas moins de 13 autres pour montrer les différentes étapes de son travail. Cela n’empêche pas la balance de pencher du coté du canular. En regardant avec attention la dernière vidéo, celle de l’exploit, plusieurs caractéristiques se révèlent très suspectes.

  1. Pourquoi ne pas avoir fait appel à un cameraman digne de ce nom pour tourner ces images historiques ? Au contraire, il s’agit là d’une réalisation d’une qualité si médiocre qu’elle jette le doute. On pense au projet Blair Witch, mais, dans ce cas, rien ne justifie des plans qui filment le sol, par exemple, et qui auraient pu être coupés au montage. A moins qu’ils se servent à rompre la continuité des plans pour faciliter le trucage.
  2. La suspicion grandit encore avec les plans réalisés par la GoPro, cette fameuse mini-caméra qui fleurit partout aujourd’hui et qui est, là, installée sur le casque de Jarno Smeets. Premier soupçon: l’orientation de la caméra (0’16”) plutôt vers le haut, impose que le pilote regarde vraiment vers le sol et non devant lui pour justifier les plans insérés dans la vidéo pendant le vol. Second soupçon: on voit Jarno Smeets battre des bras comme un forcené lorsqu’il vole alors que les plans de la GoPro sont remarquablement stables. Et ce type de caméra ne dispose pas de systèmes intégrés de stabilisation. Ces derniers seraient d’ailleurs incapables de compenser des vibrations induites par les mouvements brusques du corps de l’homme volant. Paradoxalement, ce sont les plans pris depuis la terre qui sont plutôt moins stables que ceux de la Gopro…

    Avant le décollage (0'28'')

  3. On peut remarquer une aberration dans la succession des plans. Si l’on observe la position du personnage en blouson noir et sac à dos, à droite, avant le décollage (0’28”), on peut s’étonner de le retrouver après l’atterrissage (1’04”) à peu près à la même distance de Jarno Smeets… A-t-il couru pendant tout le vol ?
  4. Comment expliquer que sur cette même image (1’04”), l’incrustation de la GoPro montre le sol après l’atterrissage de Jarno Smeets… Debout, regarde-t-il encore par terre?

    Après l'atterrissage (1'04'')

  5. La durée du vol, estimée à une minute dans le communiqué de presse de Jarno Smeets, ne dure que de 0’32” à 1’05” sur la vidéo, soit 33 secondes alors que je tournage donne l’impression d’avoir été réalisé en temps réel… Par ailleurs, le parcours de de 100 mètres en une minute donne une vitesse de 6 Km/h, ce qui est la vitesse de la marche à pied… Le vol ne permet donc guère de gagner du temps. Si l’on prend le temps de vol sur la vidéo, on atteint les 12 km/h, ce qui n’est même pas la vitesse de la course à pied (13 à 19 km/h).

Tout cela ressemble donc bien à un canular. Les recherches du français Yves Rousseau (ci-dessous), datant de 2006, semblent plus réalistes même si elles sont loin du rêve de l’homme oiseau. Ce dernier est d’ailleurs considéré comme largement improbable si l’on se réfère de nouveau à Wired en raison des simples lois de la physique. Enfin, pour le plaisir, on peut toujours jeter un regard attendri sur les fous volants du début du 20ème siècle. Eux ne trichaient pas…
Néanmoins, je suis curieux de connaître votre sentiment sur la vidéo de Jarno Smeets.
N’hésitez pas à nous en faire part !

Michel Alberganti

lire le billet

Speedy Neutrino – Episode 4

 

Précédemment, dans Speddy Neutrino:

Episode 1 – 23 septembre 2011
Le CERN annonce que les 15000 neutrinos de l’expérience OPERA ont franchi les 730 km qui séparent le laboratoire de Genève et celui du Gran Sasso, en Italie, ont parcouru cette distance avec 60 nanosecondes d’avance sur le temps qu’aurait mis la lumière pour effectuer la même distance. Ce résultat contredit la théorie de la relativité fondée sur le fait que la vitesse de la lumière ne peut être dépassée. La statue d’Albert Einstein vacille. Les physiciens du monde entier en ont le souffle coupé. Des centaines d’entre eux se mettent au travail pour tenter de comprendre le phénomène ou de trouver une erreur possible dans l’expérience.

Episode 2 – 18 novembre 2011
Le CERN refait l’expérience en réduisant le délai entre les pulsations de neutrinos. Le résultat est identique. Les neutrinos dépassent toujours la vitesse de la lumière.

Episode 3 – 23 février 2012
Le CERN identifie deux possibilités d’erreurs de manipulation dans l’expérience OPERA. La première concerne un oscillateur utilisé pour la synchronisation des GPS qui aurait pu conduire à surestimer le temps de vol des neutrinos. En d’autres termes, les neutrinos auraient été moins rapides. La seconde cause d’erreur pourrait être engendrée par une connexion de fibre optique dans la liaison entre le signal GPS externe et l’horloge principale d’OPERA qui aurait pu ne pas fonctionner correctement pendant la mesure. Là encore, cette erreur aurait pu conduire à une mesure du temps de vol des neutrinos plus courte que dans la réalité. Le CERN annonce que les impacts potentiels de ces deux sources d’erreurs sont analysés par les chercheurs d’OPERA. Les physiciens respirent… Le CERN annonce une nouvelle expérience pour le mois de mai 2012.

Nouvel Episode – 16 mars 2012

Le CERN annonce avoir refait le calcul du temps de vol des neutrinos émis en septembre 2011 à l’aide d’une autre expérience, ICARUS, installée dans le laboratoire du Gran Sasso. Résultat: ils ne dépassent pas la vitesse de la lumière. “Cela va à l’encontre des mesures initiales rapportées par l’expérience OPERA en septembre”, commente le CERN dans un communiqué.  L’organisme que certains commentateurs, dont quelques physiciens sur ce blog, avaient osé critiqué, en profite pour expliquer comment marche la science par la voix de Sergio Bertolucci, directeur de la recherche au CERN :

La preuve d’une erreur de mesure commence à apparaître au sujet de l’expérience OPERA. Mais il est important d’être rigoureux et les expériences de Gran Sasso, BOREXINO, ICARUS, LVD and OPERA, effectueront de nouvelles mesures avec des faisceaux pulsés depuis le CERN en mai afin de fournir un verdict final. De plus, des vérifications croisées sont en cours à Gran Sasso pour comparer les temps de parcours des particules cosmiques entre deux expériences, LVD et OPERA. Quel que soit le résultat, l’expérience OPERA s’est comportée avec une parfaite intégrité scientifique en ouvrant ses résultats à un large examen et en sollicitant des mesures indépendantes. C’est ainsi que la science fonctionne.

En somme, à ce stade, le CERN ne trouve que des raisons de se féliciter. Suite au prochain épisode pour, peut-être, l’épilogue de cette formidable leçon de physique et de probité scientifique.

Michel Alberganti

lire le billet