Quand les dinosaures arpentaient le Grand Canyon…

Un dinosaure sur les bords du Grand Canyon… Une image forte qui semble désormais probable grâce à l’étude réalisée par des chercheurs de l’université de Colorado Boulder. L’analyse de minéraux au fond de sa partie ouest indique que le Grand Canyon était déjà largement creusé il y a… 70 millions d’années. Les dinosaures, qui seraient apparus sur Terre il y a quelque 230 millions d’années pour disparaître il y a 65 millions d’années, auraient donc pu se promener dans ces lieux sans doute déjà magiques à cette époque reculée.

10 fois plus âgé qu’on le croyait

Cette découverte bouscule les connaissances qui dataient la formation du Grand Canyon d’il y a seulement 5 à 6 millions d’années. Il s’agit d’un bond en arrière de plus de 60 millions d’années réalisé grâce à l’analyse de la désintégration d’atomes d’uranium et de thorium en atomes d’hélium à l’intérieur d’un phosphate appelé apatite. “Nos résultats impliquent que le Grand Canyon était déjà creusé jusqu’à quelques centaines de mètres de sa profondeur actuelle il y a 70 millions d’années”, indique Rebecca Flower, l’une des signataires de l’article publié le 29 novembre 2012 dans la revue Science Magazine.

Michel Alberganti

lire le billet

+ 11 mm en 20 ans : la glace polaire fond, le niveau des mers monte

La question jaillit dès que l’on parle de la fonte des glaces polaires, même dans la rédaction de Slate.fr… “Mais alors où va l’eau ?” La réponse est à la fois simple et compliquée. Simple parce que l’eau provenant de la glace fondue va, bien entendu, dans les mers. Compliquée parce que, à la question corollaire : “Est-ce que cela fait monter le niveau des mers ?”, il était, jusqu’à aujourd’hui, difficile d’apporter une réponse précise.

Banquise ou inlandsis ?

Première difficulté : cela dépend du type de glace. S’il s’agit de la glace de mer constituant les banquises, le niveau ne monte pas. Mais lorsqu’il s’agit de la fonte de glace d’eau douce, celle des glaciers qui forment les calottes polaires, ou islandsis,  à la suite de chutes de neige accumulées pendant des millénaires, le niveau monte. De combien ? Là était la question délicate. Jusqu’à la publication, le 29 novembre 2012 dans la revue Science, de trois études produites par 47 chercheurs de 26 laboratoires. Il fallait cette association pour sortir d’une situation dans laquelle les données étaient aussi nombreuses que différentes.

Le Groenland en fonte libre

Désormais, la conclusion est limpide : la fonte des glaces polaires au cours des 20 dernières années a contribué à la montée du niveau des mers pour 11,1 mm +/- 3,8 mm. Soit une fourchette comprise entre 7,3 mm et 14,9 mm. Mais ce bilan ne reflète pas bien la dynamique du phénomène. Ainsi, le Groenland perd aujourd’hui 5 fois plus de glace qu’en 1992. Aujourd’hui, globalement, la fonte des glaces des pôles est, chaque année, trois fois supérieure à celle des années 1990 L’augmentation annuelle du niveau des mers est ainsi passé de 0,27 mm par an dans les années 1990 à 0,95 mm par an actuellement. Les deux tiers de la perte de glace se produit au Groenland contre un tiers en Antarctique.

Ce résultat tranche une question pendante concernant l’Antarctique. Certains pensaient que la quantité de glace y augmentait. Désormais,  les chercheurs affirment que les deux pôles perdent de la glace chaque année. Même si c’est au Groenland que la perte est la plus spectaculaire, comme on a pu le constater cet été. Les scientifiques ont déjà dû revoir profondément leurs prévisions dans ce domaine.

Un cinquième de la montée totale

Le chiffre de 11,1 mm en 20 ans peut paraître modeste. Il faut néanmoins ne pas oublier que la fonte des glace polaire ne contribue que pour environ un cinquième à la montée totale du niveau des mers liée au réchauffement climatique. La dilatation de l’eau joue un rôle très important. Le total atteint donc plus de 50 mm en 20 ans. Le plus inquiétant étant la forte accélération du phénomène au cours des dernières années.

Michel Alberganti

lire le billet

L’Ircam nous invite à découvrir une véritable Matrice sonore (Vidéo)

Aimer la musique, c’est, d’abord, être sensible au son. A tous les sons. Au bruit même. Mais dans la vie, l’essentiel du sonore est nuisance. On se protège plus du son qu’on ne l’écoute. Sauf lors d’un concert. Là, soudain, le silence d’abord, ce grand absent de la ville, s’installe. Rupture. Et puis, le son naît. D’une pureté douloureuse, presque, au début, tant il faut convaincre notre cerveau de l’accepter, de le laisser nous pénétrer.

L’expérience sonore peut transporter dans un autre monde plus surement que toute autre. Il suffit de fermer les yeux pour entrer dans l’univers parallèle créé par le compositeur. A quelques imperfections près. Ce monde parallèle n’en est est pas vraiment un. Les limites de la technologie brident le son et, de l’univers rêvé, ne nous parvient que des pans, des bribes, des traversées, parfois, au mieux.

Mais que se passerait-il si ces imperfections disparaissaient ? Si l’autre monde était aussi parfait que celui de la Matrice ? Avec tous ses volumes, ses angles, ses raclements, ses brisures, ses échos et ses étouffements, ses émergences et ses effondrements, ses voix d’un au-delà qui serait bien là ? A portée de la main, au sens propre. Un son qui peut naître au milieu des spectateurs avant de s’évanouir pour ressurgir là-bas, tout près ou au loin. Un son libre dans l’espace tout entier d’une salle. Le compositeur devient alors l’architecte de sa musique.  Il rejoint le sculpteur, autre maître de l’espace. Alors, sans doute, serions-nous vraiment transportés ailleurs, aussi surement qu’avec ce que promet la téléportation.

Bien sûr, il faudra laisser le temps à nos neurones ancestraux d’apprendre à voyager, les oreilles grandes ouvertes, dans ce nouvel espace. “A l’origine, l’audition spatiale servait essentiellement à nous prévenir d’un danger pouvant surgir derrière nous ou hors de notre vue”, rappelle Huges Vinet, directeur de la recherche et développement de l’Ircam. Depuis, les choses ont empiré. Si les risques de danger sont plus faibles, c’est du son lui-même, du bruit, que nous avons appris à nous protéger. Tout un nouveau parcours est donc nécessaire.

Eh bien, un tel voyage initiatique dans une Matrice sonore est désormais possible. Le 29 novembre 2012, le grand public pourra le découvrir dans les entrailles de l’Ircam, à Paris lors de l’inauguration du nouveau système de spatialisation, l’aboutissement d’une dizaine d’années de travail. L’installation est sans doute unique au monde en raison de l’association, dans le même espace, de deux systèmes : le Wave Field Synthesis et l’Ambisonique.

Pour Globule et Télescope, Hugues Vinet présente la nouvelle installation de l’Ircam. Le fondateur des lieux, Pierre Boulez, peut être fier de cette réalisation qui permet de nous projeter dans ce que sera l’univers sonore des salles de concert bientôt, des salles de cinéma demain et de nos voitures et salons, après-demain.

Pour assister à la soirée d’inauguration, le 29 novembre 2012, à 19 heures :
www.ircam.fr/eac.html
Accès gratuit sur réservation au : 01 44 78 12 40
Lieu : Ircam, 1 place Igor-Stravinsky, 75004 Paris – Métro Hôtel de ville, Rambuteau, Les Halles ou Châtelet

Michel Alberganti

lire le billet

Un aveugle lit des mots en braille… grâce à des électrodes sur sa rétine

Peu à peu, la rétine électronique sort des laboratoires. Le système Argus II fabriqué par l’entreprise américaine Second Sight est déjà implanté sur 50 patients. Il fonctionne avec un réseau de 10×6 électrodes, soit 60 électrodes de 200 microns de diamètre, implantées sur la rétine, une mini-caméra intégrée à une paire de lunettes et un ordinateur portable qui traite les images vidéo et génère le courant électrique qui stimule, en temps réel, le nerf optique via les électrodes. Argus II permet aux personnes aveugles de discerner des couleurs, des mouvements et des objets.

Des chercheurs appartenant à Second Sight, à l’université Brigham Young, à l’Institut de la vision et au Centre Hospitalier National d’Ophtalmologie des Quinze-Vingts de Paris, ont publié le 22 novembre 2012 dans la revue Frontiers in neuroprosthetics une étude concernant l’utilisation de ce système pour la lecture directe du braille sans passer par la caméra.

6 électrodes sur 60

Dans ce cas, un réseau de 6 électrodes, sur les 60 de l’Argus II, est utilisé. En court-circuitant la caméra, ces électrodes ont été directement stimulée pour créer une “perception visuelle des lettres en braille”, indiquent les chercheurs. L’expérience a été réalisée avec un seul patient, né en France. Ce dernier a réussi à identifier 80% des mots de deux lettres, 60% des mots de trois lettres et 70% des mots de quatre lettres. Un résultat qui confirme, pour les chercheurs, la possibilité de la lecture du braille par des patients équipés d’une prothèse rétinienne.

0,5 seconde par lettre

Grâce à la stimulation directe des électrodes, la vitesse de lecture est considérablement augmentée. Elle a été réalisée avec une stimulation de 0,5 seconde par lettre à 20 Hz et 1 seconde d’interruption entre chaque stimulation. Si l’on reste loin de la vitesse de lecture tactile du braille, le système accélère nettement la cadence de détection obtenue à l’aide de la vision par caméra utilisée dans la vidéo suivante :

89% de réussite

Les chercheurs ont enregistré un taux de reconnaissance de chacune des lettres de 89%. La perception d’une électrode supplémentaire a été la cause d’une erreur dans 64% des cas de lecture erronée. L’électrode en bas à gauche (F5) a été impliquée également dans 64% des erreurs, dont 6 des 11 perceptions d’une électrode supplémentaire. D’où le constat qu’une amélioration de cette électrode devrait avoir un impact significatif sur l’ensemble de résultats. Sur 10 mots de chaque catégorie, le patient en a identifié 8 de deux lettres, 6 de 3 lettres et 7 de 4 lettres. Les scientifiques estiment que ce résultat pourrait être amélioré grâce à l’entrainement. Le patient est un lecteur expérimenté du braille, c’est à dire qu’il identifie 100% des lettres par le toucher.

Pour les chercheurs, cette expérience établit l’efficacité d’une stimulation directe de la prothèse rétinienne. Bien entendu, on peut se demander quel est l’intérêt d’une telle lecture, plus délicate qu’avec les doigts. Pour certains patients paralysés, elle peut être la seule possibilité de lecture autonome. Cette solution impose néanmoins un système supplémentaire de traduction des lettres en stimulations électriques et elle ne peut concerner que les aveugles connaissant préalablement le braille.

Néanmoins, un tel test montre que l’implant rétinien peut fonctionner par stimulation directe et non uniquement par traitement des images provenant d’une caméra. Ce qui peut se révéler précieux pour le développement de futures prothèses rétiniennes.

Michel Alberganti

 

lire le billet

La classe Star Trek : l’hyperespace de l’enseignement “multitouch”

La classe du futur, ou la classe Star Trek… C’est ainsi qu’est baptisée le résultat du projet SynergyNet. Pour les spécialistes de l’enseignement numérique, cela peut ressembler à une vieille rengaine. Et pourtant, il s’agit bien, encore, de l’un des huit projets financés, en Angleterre, par l’Economic and Social Research Council (ESRC) et l’Engineering and Physical Sciences Research Council (EPSRC) britanniques à hauteur de 12 M£, soit environ 15 M€.  De quoi s’agit-il ?

Bureaux électroniques interactifs

Essentiellement de la généralisation du principe du tableau blanc, c’est à dire un tableau électronique interactif, à l’ensemble des bureaux des élèves. La photo ci-dessus, tout comme les vidéos ci-après, montrent également une disposition des bureaux très différente de celle des classes traditionnelles avec ses rangées alignées dans la direction du soleil, c’est à dire du professeur. Ici, plusieurs élèves travaillent sur le même bureau grâce à la technologie d’écran tactile “multitouch”. Leurs actions sont visibles par les autres. Le professeur, lui, voit tout, soit directement, soit via un système de suivi en direct de l’activité des élèves sur chaque bureau.  Ce futuriste et coûteux équipement, outre son look et son exploitation de l’aisance des enfants avec les outils informatiques, est-il plus efficace pour l’enseignement ?

45% contre 16%

Une étude sur l’expérimentation de Synergynet par 400 élèves de 8 à 10 ans a été menée par des chercheurs de l’université de Durham.  Les résultats montrent que 45% des utilisateurs de NumberNet, outil spécialisé dans l’enseignement des mathématiques, ont fait des progrès dans la manipulation des formules contre une proportion de 16% chez les utilisateurs des traditionnelles feuilles de papier. En fait, les maths ne sont qu’un exemple de l’efficacité de cette méthode car elle n’est pas spécialement destinée à cette discipline.

Les raisons invoquées par les chercheurs pour expliquer l’amélioration de l’apprentissage grâce aux outils de Synergynet sont multiples. Avec un point central: l’interaction. Sur le bureau électronique, les élèves ne travaillent plus seuls. En permanence, ce qu’ils font est vu par les autres élèves et inversement. Le travail devient ainsi collectif, collaboratif. Soit le schéma inverse du cours classique, fondé sur une parole univoque et une hiérarchie figée. Dans la classe Star Trek, l’ambiance ressemble plus à celle d’une salle de maternelle. Les élèves sont pourtant en CP.

Professeur homme orchestre

Pour le professeur, le rôle change en profondeur. Au lieu de dispenser (disperser ?) un savoir, il le fait naître au sein même d’une communauté dont il n’est plus vraiment le maître. Il se transforme en chef d’orchestre, ce qui doit être encore plus épuisant. Il doit en effet veiller simultanément sur ce qui se passe sur chaque bureau électronique, détecter les élèves qui se suivent pas, guider les autres, mettre parfois en commun ce qui s’est produit sur un bureau… Plus qu’à un chef d’orchestre, ce rôle ressemble à celui d’un homme orchestre…

Séduisant sur le papier lorsqu’il ne fait pas fuir les enseignants attachés à la craie et au cahier, un tel projet se heurte au problème délicat du coût du matériel et du support technique nécessaire pour le faire fonctionner. Néanmoins, au cours des trois années du projet, l’équipe de l’université de Durham a noté des progrès notables de la technologie ainsi qu’une baisse des coûts.

Fracture numérique dans l’éducation

L’efficacité pédagogique démontrée par le projet SynergyNet, après bien d’autres expérimentations, pose également un grave problème d’égalité devant l’enseignement. Nul doute que des établissement privés pourront investir dans de tels équipements avant leurs homologues publics. Une fracture numérique pourrait alors survenir dans l’éducation et s’ajouter aux inégalités déjà importantes. Alors que l’on imagine pas une armée moderne dotée d’un matériel moins performant que celui de ses voisins, personne ne semble choqué par le manque de moyens dans l’Education Nationale. Déjà largement distancée en Europe, l’école française risque fort d’être encore pénalisée si elle ne parvient pas à investir massivement dans les outils pédagogiques interactifs auxquels les élèves, eux, sont parfaitement préparés.

Michel Alberganti

lire le billet

Dahlia : le secret du rouge et du noir

Il existe pas moins de 40 000 espèces hybrides cultivées de dahlia. Et plus de 20 000 variétés de cette fleur appréciée des Aztèques. Ses couleurs peuvent ainsi couvrir une vaste gamme de nuances du blanc, au jaune et à l’orange ainsi toutes les teintes imaginables de rouge et de violet. Hormis le bleu. Néanmoins, il n’existe qu’un petit nombre d’espèces cultivées baptisées “dahlias noirs” pour leur double teinte noire et rouge. Si cette fleur a inspiré l’écrivain James Ellroy et le cinéaste Brian de Palma, elle fascine aussi une équipe de chercheurs de l’université technique de Vienne (Autriche) dirigée par Heidi Halbwirth. Leur étude a été publiée par la revue BMC Plant Biology le 23 novembre 2012. Bien entendu, tout est question de molécules.

Pour la première fois, les chercheurs estiment avoir percé le secret du dahlia noir. La fleur doit sa couleur double à une accumulation massive de pigments naturels, les anthocyanes. Ensuite, cela se complique car les scientifiques ont réalisé une analyse en profondeur de l’expression des gènes du dahlia. Ils ont découvert une augmentation de l’acheminement des flavonones vers les anthocyanes au détriment des flavones. Ainsi, tout s’explique… En dehors de leurs effets sur les dahlias, les flavones intéressent aussi le monde médical pour leur effets thérapeutiques (athérosclérose, ostéoporose, diabète et certains cancers). Leur présence dans les plantes nous permet d’en consommer de 20 à 50 mg par jour.

Pour ce qui concerne la couleur du dahlia noir, les chercheurs autrichiens semblent avoir buté sur le cas de la variété Black Barbara. Même si cette dernière montre une forte expression des gènes de l’anthocyanine qui pourrait expliquer les quantités importantes d’anthocyanines mais pas la formation élevée de flavones. Nous ne discuterons pas ce point… Les scientifiques appellent à de nouvelles études pour aller encore plus loin. Ils estiment néanmoins que la découverte du mécanisme de suppression de la formation de flavones dans la majorité des Dahlias noirs présente un intérêt pour les spécialistes. En effet, le Dahlia étant une plante octoploïde (8 jeux complets de chromosomes dans chaque cellule) et la présence de plusieurs allèles étant probable, les mécanismes découverts pourraient rendre possible la production de plantes disposant d’une quantité voulue de flavones. Là encore, nous les  croyons sur parole. Et nous ne regarderons plus les dahlias noirs de la même façon désormais…

Michel Alberganti

lire le billet

François Bon, une science du récit

L’écrivain François Bon raconte les histoires de scientifiques qui travaillent sur le plateau de Saclay, provoque le récit des hasards de vie, des passions de jeunesse et des vocations de chercheurs et fait surgir ce qui donne son humanité à la science. Rencontre à l’occasion des Artsciencefactory Days dont Slate est partenaire, jusqu’au 29 novembre 2012, à Palaiseau.

Sur France Culture, dans l’émission Science Publique que j’ai animée le 23 novembre 2012, François Bon a retrouvé Jean-Michel Frodon, coorganisateur des Artsciencefactory Days, ainsi que deux des scientifiques qu’il a rencontrés sur le plateau de Saclay, Valérie Masson Delmotte et Serge Abiteboul :

—————————————————————————————————————————————

La littérature peut-elle raconter la science ?23.11.2012 – Science publique
La littérature peut-elle raconter la science ?
57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobile

Les chercheurs peuvent-ils faire connaître leur travail grâce à un récit littéraire ? Science Publique vous propose cette semaine une escapade sur le plateau de Saclay grâce aux rencontres d’un écrivain, François Bon, avec les scientifiques qui travaillent dans les laboratoires du CEA, de Polytechnique ou de l’université d’Orsay. Les textes que François Bon a écrit après ces rencontres …
—————————————————————————————————————————————

Vous pouvez également toujours (re)lire l’article que Slate.fr a consacré à la résidence d’écrivain de François Bon sur le plateau de Saclay :La chambre à bulles, exposée à Orsay (*). Image François Bon. Licence CC BY-NC-SA. * et pas à Saclay comme indiqué dans  une version précédente de la légende de cette photo.

Il fallait oser… François Bon s’est lancé. Il a franchi cette frontière aussi invisible qu’étanche qui sépare deux univers: la littérature et la science. Cet écrivain tourangeau a frappé à la porte des labos sur le plateau de Saclay. Ceux où l’on travaille sur l’astrophysique, l’astronomie, les particules élémentaires, la volcanologie ou les cellules souches. Derrière chaque porte, un chercheur et une rencontre. Un choc de cultures, bien sûr, mais aussi un choc purement humain. Un rapport au monde singulier découvert à travers un rapport humain. Lire la suite…

Michel Alberganti

lire le billet

Vidéo : l’éruption du volcan Tongariro filmée sur le vif

Une éruption du Mont Tongariro, en Nouvelle-Zélande, a été saisie par la caméra de GNS Science, organisme de recherche en géophysique, le mercredi 21 novembre 2012. S’il ne s’est pas produit de coulée de lave, un panache de fumée et de cendres d’environ 4 km de haut s’est échappé du cratère Te Maari, sur la face ouest de la montagne. L’éruption n’était pas attendue par les scientifiques, d’autant qu’une autre s’était produite en août 2012 après un siècle sans activité. Des randonneurs et une classe d’enfants étaient en promenade à proximité au moment de l’éruption.

Voici les vidéos les plus révélatrices de cet événement impressionnant :

Michel Alberganti

lire le billet

Taux de CO2 dans l’atmosphère: la lutte contre le réchauffement climatique a échoué

L’organisation météorologique mondiale (WMO) a publié, le 20 novembre 2012, son bilan annuel sur l’évolution de la concentration des gaz à effet de serre (GES) dans l’atmosphère. En 2011, un nouveau niveau record a été atteint, ce qui signifie que toutes les conférences internationales sur le réchauffement climatique ont échoué. Elles ne sont pas parvenues à infléchir la courbe de croissance de ces gaz. Le CO2 a atteint les 390,9 parties par million (ppm) en 2011, soit 40% de plus que les 280 ppm de l’ère pré-industrielle.

Ainsi, entre 1990 et 2011, le forçage radiatif a augmenté de 30% à cause du CO2 et des autres GES comme le méthane. Depuis le début de l’ère industrielle, au XIXe siècle, 375 milliards de tonnes de carbone ont été relâchées dans l’atmosphère, prioritairement par la combustion de combustibles fossiles. Environ la moitié de ce carbone reste dans l’atmosphère tandis que l’autre moitié a été absorbée par les océans et la biosphère terrestre.

“Ces milliards de tonnes de CO2 ajoutées dans l’atmosphère terrestre vont y rester pendant des siècles, contribuant au réchauffement de la planète avec des impacts sur tous les aspects de la vie sur Terre. Les émissions futures ne feront qu’aggraver la situation”, a commenté Michel Jarraud, secrétaire général de la WMO. Avant l’ère industrielle, la quantité de CO2 émise dans l’atmosphère était entièrement récupérée par les écosystèmes marin et terrestre. Aujourd’hui, cette captation n’atteint plus que 50% des émissions et rien ne permet de prédire que cette proportion va rester stable.

On peut se satisfaire d’une croissance qui n’accélère pas malgré l’augmentation de la population sur Terre et le développement de pays comme la Chine et l’Inde. Néanmoins, ce résultat est loin de permettre d’atteindre l’objectif d’une augmentation limitée à 2°C en 2100. Désormais, les projections, comme celle de l’étude commandée par la Banque mondiale, tablent plutôt sur 4°C. Sans certitude.

Ainsi, la température sur Terre, qui était de 13,9°C en moyenne au XXe siècle, a affiché en 2011, un écart de + 0,51°C, soit:

14,41 °C

Michel Alberganti

lire le billet

La machine à vapeur du 21e siècle : énergie solaire et nanoparticules

La machine à vapeur est à l’origine de la révolution industrielle. Elle a commencé par fournir de l’énergie mécanique pour les trains et autres machines et on la retrouve dans les centrales nucléaires où elle entraîne les turbines produisant de l’électricité. La vapeur peut également servir à stériliser, à distiller, à désaliniser. Aujourd’hui, c’est grâce à l’énergie solaire associée à des nanoparticules qu’une nouvelle voie de production de vapeur apparaît. Un dispositif conçu par l’équipe de Naomi Halas, directrice du laboratoire de nanophotonique (LANP) de l’université Rice, affiche des performances remarquables avec ce cocktail inédit qui risque de troubler ceux qui défendent les énergies alternatives tout en vouant les nanotechnologies aux gémonies. Les résultats de l’équipe sont publiés dans un article de la revue ACS Nano du 19 novembre 2012.

Un rendement de 24%

Les chercheurs avancent un rendement global de leur système de… 24%. Nettement plus élevé que celui des panneaux photovoltaïques (environ 15%). L’idée de Naomi Halas dérive de celle des capteurs thermiques classiques. Ces derniers sont constitués d’une boite dont l’une des faces est réalisé est en verre transparent. A l’intérieur, un circuit d’eau collecte la chaleur piégée par l’effet de serre et par la couleur noire du capteur. Les échanges thermiques sont donc réalisés par conduction entre la paroi métallique du capteur et l’eau qui y circule. Le LANP a, d’une certaine façon, réduit ce capteur en nanoparticules qu’il a mises en solution dans l’eau. Bien entendu, il a choisi des nanoparticules qui captent particulièrement bien les longueurs d’ondes de l’ensemble du spectre solaire, y compris celles qui sont en dehors du visible, pour les convertir en chaleur. Ce sont ainsi des milliards de capteurs qui agissent au plus près des molécules d’eau. Le résultat est spectaculaire : en 10 secondes, des bulles de vapeur se forment et remontent à la surface du liquide.

“Avec cette technologie, nous commençons à concevoir l’énergie solaire thermique d’une façon complètement différente”, explique Naomi Halas. “Nous passons du chauffage de l’eau à l’échelle macroscopique à un chauffage à l’échelle nanoscopique. Nos particules sont extrêmement petites, plus petites que la longueur d’onde de la lumière. Cela signifie qu’elles disposent d’une très faible surface pour dissiper la chaleur. L’intense montée en température nous permet de générer de la vapeur localement, juste à la surface des nanoparticules. L’idée de générer de la vapeur localement est contre-intuitive”, ajoute-t-elle. Et pourtant, cela marche !

Pour le démontrer, les chercheurs plongent un  tube rempli d’eau et de nanoparticules dans un sceau plein de glace. Avec une simple lentille de Fresnel, ils concentrent la lumière sur la base du tube en contact avec l’eau glacée. Aussitôt des bulles de vapeur se forment dans le tube. L’eau vient de passer de 0°C à 100°C en quelques secondes. Le LANP a utilisé deux types de nanoparticules, du carbone et des nanocoquilles (nanoshells)  d’or et dioxyde de silicium (SiO2). L’intérêt du procédé, c’est qu’il ne consomme pas de nanoparticules. Celles-ci restent dans le liquide. Il suffit donc d’alimenter le système en eau pour obtenir de la vapeur…

Les applications d’un tel système semblent multiples et pas forcément imaginables aujourd’hui. Si Naomi Halas préfère modérer les perspectives en matière de production d’électricité et insister plutôt sur les utilisations destinées aux pays en développement (sanitaire, stérilisation, distillation, dessalement), c’est peut-être en raison du soutien de la fondation Bill et Melinda Gates… La voie ouverte par la combinaison solaire-nano pourrait faire partie des avancées majeures que la planète attend pour accélérer la transition énergétique et apporter les moyens nécessaires à la lutte contre un réchauffement climatique excessif.

Michel Alberganti

lire le billet