Energie: la feuille artificielle qui produit de l’hydrogène

Mère Nature est loin d’avoir livré tous ses secrets aux scientifiques. Après l’avoir longtemps ignorée ou méprisée, les chercheurs se tournent désormais de plus en plus souvent vers elle pour la copier (biomimétisme, biorobotique…). Une façon de ne pas réinventer la roue… Il pourrait en être de même avec les cellules solaires. Après avoir développé le photovoltaïque qui transforme directement l’énergie solaire en électricité, certains chercheurs travaillent sur la création de feuilles artificielles. Il s’agit tout simplement de réaliser un processus qui s’inspire de la photosynthèse à l’oeuvre dans les feuilles des plantes. Ces dernières fonctionnent avec deux ressources très abondantes: l’eau et la lumière. Véritables capteurs solaires, les feuilles fournissent l’énergie dont les plantes et les arbres ont besoin pour vivre. Pourquoi un tel système, breveté par la nature, ne pourrait-il pas nous apporter les mêmes services ? C’est la question que s’est posée Daniel Nocera, professeur d’énergétique et de chimie au Massachusetts Institute of Technology, le MIT. Sa réponse : la feuille artificielle.

Hydrogène, le retour

Daniel Nocera, professeur au MIT

Il s’agit pas d’une dénomination légèrement abusive. La feuille de Daniel Nocera ne ressemble que vaguement à l’original. Et son fonctionnement ne lui est fidèle que dans son principe. Contrairement à son homologue naturel, son carburant n’est pas l’air et le CO2 qu’il contient mais l’eau dans laquelle elle est plongée. Éclairée par le soleil, la feuille artificielle produit de l’oxygène et, surtout, de l’hydrogène. Et qui dit hydrogène dit énergie. En effet, les piles à combustibles prennent le relais et transforment l’hydrogène en eau et en électricité. On pourrait alors penser que la feuille artificielle introduit une étape inutile par rapport à la cellule photovoltaïque qui réalise directement la conversion soleil-électricité. En réalité, cette étape se révèle très précieuse. En effet, la production d’hydrogène permet de stocker l’énergie électrique que la même façon que le pétrole. Pour faire de même avec les cellules photovoltaïques, on fait appel à des batteries. Ce qui remet les deux processus à égalité, avec trois étapes chacun. Toutefois, malgré les progrès des batteries au lithium par exemple, l’hydrogène est considéré par certains, comme Jeremy Rifkin,  comme le carburant du futur grâce à sa très importante densité d’énergie (rapport entre la masse et l’énergie emmagasinée) et malgré les risques d’explosion que les spécialistes estiment maîtrisables.

Plongée dans un récipient d’eau et éclairée par de la lumière, la feuille artificielle produit en permanence des bulles de gaz (oxygène et hydrogène). Cela semble un peu miraculeux. Le système résout l’un des problèmes majeurs de l’hydrogène: l’importante quantité d’énergie nécessaire pour l’extraire de l’eau avec les techniques classiques (hydrolyse). Ici, l’énergie est fournie par le soleil. Et le système semble très stable. Il a montré qu’il peut fonctionner pendant plus de 40 heures. Comment réaliser une telle alchimie ? Comment ça marche !?

La feuille artificielle de Daniel Nocera

De la chimie impénétrable

Daniel Nocera explique ses derniers progrès dans un article publié le 4 avril 2012 dans la revue Accounts of Chemical Research. Etant donné qu’il s’agit essentiellement de chimie, le processus est totalement incompréhensible, impénétrable pour le commun des mortels. Les spécialistes apprécieront… Nous nous contenterons de noter que la feuille artificielle est composée d’un sandwich constitué par, d’un coté, du silicium amorphe photovoltaïque qui se charge d’isoler l’hydrogène grâce aux photons fournis par la lumière et, de l’autre coté, par un assemblage de cobalt et de phosphate. Entre les deux, un alliage ternaire (nickel, molybdène, zinc, joue le rôle de catalyseur. Au final, ce morceau de silicium recouvert de deux couches d’alliages métalliques suffit pour séparer l’oxygène et l’hydrogène de l’eau… Et l’on peut, selon Daniel Nocera, produire assez d’énergie pour alimenter une maison avec moins de 4 litres d’eau (un gallon) par jour dans les pays ensoleillés… Soleil, eau, feuille artificielle, hydrogène, pile à combustible, électricité. Le tour est joué…

Tata sur le coup

Avant d’arriver à ce “petit” miracle, juste capable de résoudre le problème de la fourniture d’une énergie verte en quantité illimitée à moindre coût, il faudra résoudre quelques problèmes techniques. Récupérer l’hydrogène, par exemple. Mais gageons les enjeux vont stimuler les techniciens… et les industriels. Justement, l’un d’entre eux, et pas de moindre puisqu’il s’agit du groupe indien Tata (100 sociétés dans 80 pays, 425 000 salariés, 83,3 milliards de dollars de chiffre d’affaires) va construire une petite centrale, de la taille d’un réfrigérateur, d’ici fin 2012, selon Wired UK.

L’énergie personnalisée

En attendant, Daniel Nocera milite. Il ne s’agit pas seulement d’un scientifique potentiellement génial – si la feuille artificielle fonctionne, il devrait avoir le prix Nobel -, c’est aussi un orateur qui plaide pour le développement de “l’énergie personnalisée”. C’est à dire le modèle exactement inverse de celui, très centralisé, que nous utilisons aujourd’hui. Pour lui, demain, chacun produira l’énergie dont il a besoin. Cela paraissait difficile d’y parvenir avec les technologies vertes (solaire, éolien, biomasse, géothermie…). Mais la feuille artificielle pourrait apporter une solution capable, un jour peut-être assez proche, de nous permettre le rompre le cordon ombilical qui nous relie à… EDF.

Michel Alberganti

lire le billet

L’insecticide Cruiser fait perdre le nord aux abeilles

Abeille butinant une fleur de colza

L’affaire défraie la chronique depuis longtemps : comment expliquer les hécatombes subies par les ruches en France et dans de nombreux pays ? Bien entendu, les pesticides utilisés par l’agriculture se sont très vite trouvés dans le collimateur des apiculteurs et des écologistes. Pourtant, les doses retrouvées dans les abeilles se révélaient sublétales, c’est à dire inférieures à celles qui provoquent la mort de l’insecte. Et pourtant, la population des ruches diminuait. Que se passait-il ? Les soupçons se sont portés sur les effets neurologiques des insecticides lorsque les apiculteurs ont remarqué que certaines abeilles ne mourraient pas à l’intérieur de la ruche mais à l’extérieur. Comme si elles n’avaient pas pu revenir au bercail. On connaît pourtant l’extraordinaire sens de l’orientation de ces insectes. Que se passait-il ? Pour le savoir, il fallait suivre les abeilles ayant ingéré une dose sublétale de pesticide et observer leur comportement. Pas facile…

Puces RFID

Abeille équipée d'une puce RFID

C’est pourtant exactement ce qu’a réussi à faire une équipe française composée de chercheurs de l’INRA et du CNRS et d’ingénieurs des filières agricoles et apicoles (ACTA, ITSAP-Institut de l’abeille, ADAPI) menée par Mickaël Henry (Inra) et Axel Decourtye (Acta). Les résultats de leur expérience sont publiés dans le revue Science du 29 mars 2012. Cette équipe a équipé le thorax de 650 abeilles avec des puces RFID de quelques millimètres. Il s’agit de la technologie utilisée dans les passes Navigo sans contact donnant accès au métro parisien. En passant à proximité de chaque puce, il est possible de recueillir par radio un signal à l’aide d ‘un lecteur. Ce qui permet de détecter les entrées et les sorties de la ruche de chaque abeille équipée. Une partie des insectes “pucés” reçoit une très faible dose, largement inférieure au seuil létal, d’un insecticide de la famille des néonicotinoïdes, un insecticide de la famille des « néonicotinoïdes », le thiaméthoxam, la molécule utilisée, entre autres, par le Cruiser, insecticide commercialisé par le groupe suisse Syngenta. La dose utilisée est, selon les chercheurs, comparable à celle qu’une abeille peut ingérer au cours de son activité de butinage du nectar des fleurs d’une culture traitée au Cruiser, comme le colza. Un autre groupe, témoin, ne reçoit pas de dose de thiaméthoxam.

Mortalité multipliée par 2 ou 3

Les 650 abeilles sont ensuite relâchées à environ 1 km de leur ruche, une distance qu’elles atteignent couramment au cours de leur butinage. Les chercheurs attendent ensuite leur retour. Ils peuvent ainsi comparer la proportion des abeilles ayant reçu une dose d’insecticide qui ont retrouvé la ruche avec la même proportion chez celles qui n’en avaient pas reçu. Résultat: le Cruiser est bien responsable du non-retour d’un nombre important d’abeilles. D’après les calculs des chercheurs, l’insecticide induit une mortalité de 25% à 50% contre 15% pour les abeilles non intoxiquées. La très faible dose de thiaméthoxam multiplie donc par deux ou trois le taux de décès normal des abeilles.

Toute la colonie d’abeilles mise en péril

Au cours d’une période de floraison, une simulation mathématique réalisée à partir des résultats de cette expérience montre que, si une majorité d’abeilles est intoxiquée par le Cruiser, la colonie entière peut chuter de 50% à 75%. Une telle hécatombe met la ruche entière en péril en la privant des réserves alimentaires nécessaires et en réduisant la production de miel. L’action du Cruiser semble donc enfin comprise. Elle ne tue pas les abeilles mais elles les désoriente au point de les rendre incapables de retrouver le chemin de la ruche. Ainsi égarées, elles ne peuvent survivre. La colonie toute entière se trouve désorganisée et les chercheurs pensent qu’elle se retrouve ainsi plus vulnérable aux agressions des virus et autres pathogènes (varroa, Nosema).

Interdiction en France envisagée

Face à un résultat aussi probant, le ministère de l’Agriculture a réagi dès le 29 mars au soir en indiquant qu’il envisageait l’interdiction de l’usage du pesticide Cruiser de Syngenta. Il a déclaré attendre l’avis de l’Agence nationale de sécurité sanitaire (Anses) sur cette étude d’ici fin mai, “avant la nouvelle campagne de semences en juillet”, selon un responsable interrogé par l’AFP. En cas de confirmation des résultats de l’équipe française, l’autorisation de mise sur le marché du Cruiser OSR, utilisé sur le colza, serait retirée. La France rejoindrait alors l’Allemagne et l’Italie qui ont déjà interdit le thiamethoxam.

Michel Alberganti

A (ré)écouter sur France Culture, l’émission Science Publique que j’ai animée sur ce sujet en novembre 2011:

Un monde sans abeilles ?

04.11.2011 – Science publique
Un monde sans abeilles?
Tandis que les apiculteurs accusent les insecticides de l’agriculture, comme le Cruiser de Syngenta Agro, les scientifiques du CNRS et de l’INRA sont sur la piste d’un cocktail mortel constitué par l’association fatale d’un champignon parasite des abeilles et d’infimes doses d’insecticides…


 

lire le billet

Speedy Neutrino – Episode 4

 

Précédemment, dans Speddy Neutrino:

Episode 1 – 23 septembre 2011
Le CERN annonce que les 15000 neutrinos de l’expérience OPERA ont franchi les 730 km qui séparent le laboratoire de Genève et celui du Gran Sasso, en Italie, ont parcouru cette distance avec 60 nanosecondes d’avance sur le temps qu’aurait mis la lumière pour effectuer la même distance. Ce résultat contredit la théorie de la relativité fondée sur le fait que la vitesse de la lumière ne peut être dépassée. La statue d’Albert Einstein vacille. Les physiciens du monde entier en ont le souffle coupé. Des centaines d’entre eux se mettent au travail pour tenter de comprendre le phénomène ou de trouver une erreur possible dans l’expérience.

Episode 2 – 18 novembre 2011
Le CERN refait l’expérience en réduisant le délai entre les pulsations de neutrinos. Le résultat est identique. Les neutrinos dépassent toujours la vitesse de la lumière.

Episode 3 – 23 février 2012
Le CERN identifie deux possibilités d’erreurs de manipulation dans l’expérience OPERA. La première concerne un oscillateur utilisé pour la synchronisation des GPS qui aurait pu conduire à surestimer le temps de vol des neutrinos. En d’autres termes, les neutrinos auraient été moins rapides. La seconde cause d’erreur pourrait être engendrée par une connexion de fibre optique dans la liaison entre le signal GPS externe et l’horloge principale d’OPERA qui aurait pu ne pas fonctionner correctement pendant la mesure. Là encore, cette erreur aurait pu conduire à une mesure du temps de vol des neutrinos plus courte que dans la réalité. Le CERN annonce que les impacts potentiels de ces deux sources d’erreurs sont analysés par les chercheurs d’OPERA. Les physiciens respirent… Le CERN annonce une nouvelle expérience pour le mois de mai 2012.

Nouvel Episode – 16 mars 2012

Le CERN annonce avoir refait le calcul du temps de vol des neutrinos émis en septembre 2011 à l’aide d’une autre expérience, ICARUS, installée dans le laboratoire du Gran Sasso. Résultat: ils ne dépassent pas la vitesse de la lumière. “Cela va à l’encontre des mesures initiales rapportées par l’expérience OPERA en septembre”, commente le CERN dans un communiqué.  L’organisme que certains commentateurs, dont quelques physiciens sur ce blog, avaient osé critiqué, en profite pour expliquer comment marche la science par la voix de Sergio Bertolucci, directeur de la recherche au CERN :

La preuve d’une erreur de mesure commence à apparaître au sujet de l’expérience OPERA. Mais il est important d’être rigoureux et les expériences de Gran Sasso, BOREXINO, ICARUS, LVD and OPERA, effectueront de nouvelles mesures avec des faisceaux pulsés depuis le CERN en mai afin de fournir un verdict final. De plus, des vérifications croisées sont en cours à Gran Sasso pour comparer les temps de parcours des particules cosmiques entre deux expériences, LVD et OPERA. Quel que soit le résultat, l’expérience OPERA s’est comportée avec une parfaite intégrité scientifique en ouvrant ses résultats à un large examen et en sollicitant des mesures indépendantes. C’est ainsi que la science fonctionne.

En somme, à ce stade, le CERN ne trouve que des raisons de se féliciter. Suite au prochain épisode pour, peut-être, l’épilogue de cette formidable leçon de physique et de probité scientifique.

Michel Alberganti

lire le billet

La biologie synthétique inquiète

La double hélice de l'ADN

“Une forme extrême d’ingénierie génétique”. C’est ainsi qu’ont qualifié la biologie synthétique les 111 organisations (environnementalistes, lanceurs d’alerte…) qui ont appelé à un moratoire sur certaines recherches dans ce domaine, mardi 13 mars 2012. Le Woodrow Wilson International Center for Scholars lance ainsi une consultation publique sur les impacts sociétaux de la biologie synthétique. Les questions posées concernent également le droit et l’éthique.  Cette prise de position se manifeste aussi par des recommandations regroupées au sein du Synthetic Biology Project. Dans l’ensemble, il s’agit de demander la création d’une véritable “gouvernance” de la biologie synthétique afin de contrôler le développement des nouvelles technologies permettant de fabriquer ou de reconstruire des organismes vivants destinés à la recherche et aux applications commerciales dans toute une série de domaines allant de la médecine à la production de biocarburants.

Demande d’interdiction pour le génome humain

En fait, le groupe qui rassemble des organisations telles que ETC Group and Friends of the Earth, a pour objectif l’interdiction de la manipulation du génome humain ou de celui de microbes. Il demande également la publication de la nature des organismes synthétiques créés et des procédures de contrôle appliquées pour protéger le personnel et l’environnement. En attendant que de telles mesures soient prises, le groupe réclame un moratoire sur la réalisation et l’utilisation commerciale des organismes provenant de la biologie synthétique.

Une commission américaine minimise les risques

Craig Venter

Cette position s’oppose aux conclusions d’une commission de bioéthique constituée par Barack Obama en mai 2010, après la publication par Craig Venter au sujet de l’introduction d’un génome synthétique dans une cellule capable de se reproduire, et qui a rendu ses conclusions en décembre 2010. Les 13 membres de la commission avaient alors conclu que la biologie synthétique ne posait pas encore de problèmes en matière d’environnement et de santé publique. Amy Gutmann, président de l’université de Pennsylvanie et co-président de cette commission avait alors déclaré: “Les bénéfices à venir de cette technologie et l’engagement de notre pays en faveur de la liberté intellectuelle suggèrent de ne pas déclarer de moratoire. Aucune nouvelle agence ou nouvelle loi ne sont nécessaires”. La commission avait alors publié 18 recommandations visant le dialogue et la surveillance. A l’époque, certains experts comme George Church, de l’université d’Harvard, avaient exprimé leur inquiétude en particulier envers les amateurs qui pratiquent la biologie synthétique dans leur garage en estimant qu’ils devaient être contrôlés. La commission avait répliqué que ces amateurs étaient loin d’être en mesure de créer des organismes capables de se reproduire.

Brent Erickson, de l’organisation des industries biotechnologiques, a qualifié d’absurde cette demande de moratoire. “Avec son ton et son manque d’objectivité, je ne pense pas qu’elle soit vraiment utile pour les hommes politiques et le public”, a-t-il déclaré. Pour lui, la biologie synthétique  n’est que le nouveau nom et une simple évolution des biotechnologies qui se pratiquent depuis des décennies. S’il admet que la réglementation actuelle peut avoir besoin d’une mise à jour, “ce n’est pas comme si nous n’avions pas d’expérience vis à vis de tels organismes”, a-t-il souligné. “Il y a beaucoup de précautions prises”.

Mission d’évaluation tous les trois ans

En France, le gouvernement a créé le site Biologie de Synthèse en 2011 pendant les travaux de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) qui a rendu, le 15 février 2012, le rapport élaboré par la députée socialiste Geneviève Fioraso sur la biologioe synthétique. Cette dernière plaide pour une développement volontariste de la France dans ce domaine, avec le soutien de la recherche publique. Elle recommande de “procéder, tous les trois ans, dans le cadre d’une mission d’évaluation de l’OPECST, à l’examen de ces mécanismes d’analyse et de maîtrise des risques, en vue éventuellement de recommander des adaptations de la réglementation. Cette mission d’évaluation récurrente de l’OPECST devraitêtre inscrite dans la loi pour garantir sa régularité”. Pas question, pour l’instant, d’élaborer une législation particulière. Pas d’appel, non plus, à un quelconque moratoire. En revanche, la députée estime nécessaire “d’organiser des débats publics en concertation avec l’ensemble des parties concernées (scientifiques de la BS et des SHS, politiques, instituts derecherche, Europe, ONG, entreprises, syndicats…), ainsi qu’à intervalles réguliers, des conférences des citoyens, pour tenir compte des évolutions de la biologie synthétique”.

Ces débats publics devront avoir un objectif clair et honnête, si possible. S’agit-il de convaincre les foules ignorantes des bienfaits de la biologie synthétique ou bien veut-on informer le public afin qu’il puisse forger sa propre opinion ?  Faute d’avoir choisi le premier objectif tout en feignant de viser le second, le débat public sur les nanotechnologies a été un fiasco. Mais opter clairement pour l’information du public impose de ne pas avoir pris de décision avant de connaître son opinion après information. Or, souvent, rien n’est prévu pour connaître cet opinion…

Michel Alberganti

 

lire le billet

Un oeil de mouche pour les aveugles

Une drosophile, la mouche qui aime la rosée

Comment font les mouches pour voler à une vitesse de plusieurs mètres par seconde en évitant les obstacles ? Depuis leur apparition sur Terre, il y a 400 millions d’années, ces insectes ont mis au point une technique visuelle aussi efficace qu’économe. Le fameux œil sphérique est doté, chez la mouche bleue, de 5000 facettes correspondant à autant de pixels sur une image numérique. Une bien pauvre résolution, en fait, si on la compare aux quelque 20 millions de pixels captés par l’œil humain. Alors comment voler à cette vitesse avec aussi peu d’informations ? C’est la question que s’est posée Nicolas Franceschini, directeur de recherche CNRS à l‘Institut des sciences du mouvement de l’université de la Méditerranée Aix Marseille. Cette équipe a découvert que le secret des mouches réside dans un système d’analyse des images compatible avec les capacités de l’oeil des mouches et avec celles de leur cerveau. Les insectes se concentrent sur une vision du mouvement des différents éléments du paysage pendant leur vol. “Les objets à très grande distance défilent à une vitesse angulaire faible, alors que les objets proches défilent avec une vitesse très élevée”, explique Nicolas Franceschini à l’AFP (25 février 2012).

Hélicoptère de 100 grammes utilisant un capteur "œil de mouche"

“Flux optique”

Les mouches analysent ce que les chercheurs nomment le “flux optique”. En fait, elles ne distinguent que les différences de contraste entre les objets et analysent leur distance grâce à leur vitesse de défilement. Cela suffit pour éviter les obstacles, poursuivre des congénères, faire du vol stationnaire et maîtriser des atterrissages précis. Autant de performances qui ne peuvent que séduire les roboticiens. Ces derniers sont en effet confrontés à un grave problème dès lors qu’ils conçoivent des engins volants de très faible poids, comme les fameux insectes espions dont nous avons parlé récemment : comment embarquer des grosses puissances de calcul dans des volumes microscopiques, des masses très réduites et sans consommer trop d’énergie.

Un prototype de la "bande de vision" de l'EPFL

Moins de calculs

La mouche avec son œil simplifié et son analyse sommaire des images apporte une solution intéressante. Il lui suffit de quelques dizaines de neurones de détection des mouvements et de 18 paires de muscles à chaque aile pour obtenir une autonomie remarquable. Ce dispositif exige “moins de capacités calculatoires que tous les autres systèmes proposés dans la robotique jusqu’ici”, note Nicolas Franceschini. Son laboratoire à l’Institut des sciences du mouvement a déjà conçu un robot hélicoptère d’une centaine de grammes qui exploite la vision par analyse du flux optique. Parallèlement, le projet européen Curvace (Curved Artificial Compound Eyes) piloté par l’École Polytechnique Fédérale de Lausanne et auquel participe l’université de la Méditérannée Aix-Marseille a pour objectif de fabriquer un oeil artificiel pesant 1,7 gramme et disposant de 700 facettes, équivalent à l’oeil de la drosophile ou mouche du vinaigre.

Dessin d'artiste montrant l'utilisation du système Curvace pour l'assistance des personnes aveugles

Détection d’obstacles par vibrations

Le capteur panoramique pourra se présenter sous une forme sphérique ou cylindrique ou bien en bandes flexibles de 1 mm d’épaisseur. Une telle “caméra” miniaturisée dotée d’une analyse de mouvement inspirée par celle du cerveau des mouches pourrait bouleverser l’assistance aux personnes aveugles. C’est l’un des objectifs du programme Curvace. Il reste à réaliser l’interface entre les signaux captés et les handicapés visuels.  Les chercheurs évoquent une transformation en vibrations permettant, par exemple, d’alerter sur l’approche d’un obstacle. On pense aux radars installés sur les automobiles pour faciliter les manœuvres de parking. Dans ce cas, l’appareil émet des sons de plus en plus rapprochés lorsque la distance diminue. Le conducteur se trouve dans une situation proche de celle d’un aveugle puisqu’il ne voit pas les obstacles de faible hauteur qui se trouvent à l’arrière de la voiture. On peut donc espérer que la caméra de Curvace permette de mettre au point des systèmes d’assistance moins invasifs que les rétines artificielles ou les implants dans le cerveau.

Biorobotique

Voici donc une preuve supplémentaire des précieuses ressources pour l’homme que les scientifiques peuvent exploiter à partir des mécanismes mis au point par la nature au cours de millions d’années d’évolution. Le biomimétisme appliqué à la robotique a ainsi fait l’objet d’un atelier international à l’Ecole des Mines de Nantes du 6 au 8 avril 2011.

Michel Alberganti

lire le billet

Neutrinos : Le chrono serait faux !

Un neutrino détecté grâce aux particules émises après une interaction - CERN

“Selon une source proche de l’expérience”, les neutrinos qui semblaient avoir battu la lumière en septembre 2011 auraient simplement bénéficié d’une mauvaise connexion entre un GPS et un ordinateur. Incroyable, impensable. Une erreur aussi grossière serait donc à l’origine de l’un des résultats les plus tonitruants de la recherche en physique depuis plusieurs décennies. Il y a 5 mois, donc, les scientifiques de l’expérience Opera nous ont joué le grand air de la remise en cause de l’un des piliers de la physique moderne, établi par Einstein il y a plus d’un siècle: le caractère indépassable de la vitesse de la lumière, théorie qu’aucune expérience n’avait, jusqu’alors, remise en question. Or, les neutrinos, particules mystérieuses qui, aux dernières nouvelles, ont une masse, auraient dépassé cette vitesse (300 000 km/s) sur les 731 km de leur trajet entre le CERN de Genève et le laboratoire de Gran Sasso en Italie. On savait que rien n’arrête les neutrinos. Mais de là à dépasser la vitesse de la lumière en se déplaçant, de surcroit, dans la croute terrestre… Nombre de physiciens ont alors failli avaler leur chapeau ou en perdre leur latin. Et des centaines d’entre eux se sont mis à cogiter pour trouver une explication. Cette prise de tête a donné lieu à une multitude de publications scientifiques. Et consommé une quantité considérable d’énergie et de temps.

Connexion défectueuse d’une fibre optique entre un GPS et un ordinateur

Un peu inquiets, les chercheurs du CERN ont refait l’expérience en novembre 2011: même résultat ! Les neutrinos battent la lumière de 60 nanosecondes. Connaissant le sérieux des physiciens travaillant dans ce temple de la recherche en physique, lieu où ils chassent, par ailleurs, le boson de Higgs à l’intérieur du LHC, l’affaire semblait entendue. Et voilà que le journal Science annonce, le 22 février 2012: “Les 60 nanosecondes de différence semblent provenir d’une mauvaise connexion entre un câble à fibre optique reliant un récepteur GPS utilisé pour corriger la durée du trajet des neutrinos et la carte électronique d’un ordinateur”. Après réparation, la mesure de la vitesse de transmission des données entre les deux appareils fait apparaître une différence de… 60 nanosecondes ! Diable ! Cela revient à ajouter 60 nanosecondes au chrono des neutrinos. Tout rentre alors dans l’ordre. La vitesse de la lumière n’est pas violée. Albert Einstein n’a plus a se retourner dans sa tombe…

Encore faudrait-il, tout de même, refaire l’expérience, avec une bonne connexion cette fois. Histoire d’être vraiment sûr que l’on peut consigner cette anecdote dans la liste des plus grosses bourdes expérimentales de l’histoire de la physique. Le CERN peut difficilement éviter de faire rejouer le match.

Les Américains savourent…

Prudence, donc… Chat échaudé… La nouvelle, comme par hasard, émane du journal américain Science. Outre-Atlantique, on ne serait sans doute pas trop mécontent de voir les collègues européens se couvrir de ridicule. La démarche de Science est en effet assez surprenante: voici l’un des deux journaux scientifiques les plus renommés de la planète (l’autre étant Nature) qui sort un scoop à partir d’une source non citée. Pratique peu courante dans l’univers de la recherche. On peut espérer que Science utilisera aussi les fuites provenant de la NASA ou d’autres centres de recherche américains pour en faire profiter la communauté scientifique avec la même célérité.

De son coté, Nature n’a pas tardé à réagir sur son blog en reprenant l’information révélée par Science et en ajoutant une autre rumeur concernant une deuxième source d’erreur possible : un défaut de calcul (interpolation) dans la synchronisation des horloges atomiques utilisées pour mesurer le temps entre les lieux de départ et d’arrivée de la course. Pas de communiqué sur le site du CERN mais une confirmation de l’information diffusée par Science à  l’agence Reuters par James Gilliers, son porte-parole “C’est une explication possible. Mais nous n’en saurons pas plus avant d’avoir effectué de nouveaux tests”.

Michel Alberganti

lire le billet