Des trous, des p’tits trous… sur Mars

Enfin ! On commençait à désespérer… Le rover Curiosity est arrivé sur Mars début août 2012. Et il a fallu attendre six mois pour qu’il entame enfin son véritable travail : l’analyse de la roche martienne. Avec, en arrière pensée, l’espoir de découvrir des traces de vie ancienne sur la planète rouge.

Le premier forage sur Mars

La Nasa l’a annoncé fièrement le 9 février 2013 : pour la première fois, un robot perce des trous dans le sol de Mars pour récolter des échantillons. Et il faut reconnaître que cela donne un petit frisson. Cela se passe à quelque centaines de millions de km de la Terre. Là-bas, un robot qui pèse autant qu’une petite voiture (900 kg) se promène à la recherche de sédiments sans doute vieux de plusieurs milliards d’années et qui ont été déposés par les immenses rivières qui sillonnaient Mars à cette époque. Que contenait cette eau ? Avait-elle, comme sur Terre, contribué à la création d’une forme de vie ? Curiosity va-t-il en trouver des traces indubitables ? Ce sont les questions qui hantent les chercheurs de la Nasa. Et Mars nous donne une formidable chance d’y répondre avec une très grande précision. En effet, pour les milliards d’exoplanètes qui existent dans la Voix Lactée et les galaxies environnantes, les mesures seront forcément faites à distance. A très grande distance. L’homme n’est pas prêt d’y poser le pied. Avec Mars, tout est différent.

Peu à peu, au fil des missions, comme celle qui a précédé Curiosity avec les robots Spirit et Opportunity arrivés en 2004, la planète rouge devient de plus en plus familière. Ses paysages, qui ressemblent tant à ceux de nos déserts terriens, ont fini par faire partie de notre album photo mental. Certes, comme les images d’une contrée inaccessible pour la grande majorité des hommes. Mais des images dans lesquelles nous savons que nous verrons, un jour, un homme dans sa combinaison blanche. Un homme qui foulera ce sol jaunâtre…

1,6 cm de diamètre sur 6,4 cm de profondeur

Premier acte de ce futur viol d’une terre vierge, un trou percé à l’aide d’un foret. Tout un symbole… Bon, la saillie reste modeste: un diamètre de 1,6 cm sur 6,4 cm de profondeur. Pas de quoi bouleverser une planète. Mais, déjà, quelques surprises. D’abord en raison d’un phénomène optique qui donne l’impression que les trous… sont en relief. Et puis, la couleur. Sous la pellicule de poussière ocre, le sol se révèle gris comme du ciment. Sur Mars, la roche mère est donc aussi blanche que du calcaire sur Terre.

La poudre de roche martienne créée par la mèche de la perceuse est acheminée par des cannelures jusqu’au système de collecte des échantillons du rover, le Chimra. “Nous allons secouer la poudre recueillie pour nettoyer les surfaces internes du mandrin”, explique Scott McCloskey, l’ingénieur responsable du système de forage. “Ensuite, le bras transférera la poudre de la perceuse jusqu’à la pelle où nous pourrons voir enfin l’échantillon”, précise-t-il.

Les opérations ainsi réalisées pour une bonne partie à l’aveugle ont demandé une conception minutieuse. “Construire un outil pour interagir violemment avec des roches inconnues sur Mars impose un programme de développement et de test ambitieux”, confirme Louise Jandura, ingénieur en chef du système d’échantillon qui indique que la mise au point du système de forage a conduit à tester 8 perceuses qui ont réalisé 1200 trous sur 20 types de roche différents sur Terre.

Une fois parvenue au système d’analyse des échantillons, la poudre martienne sera vibrée et tamisée pour retirer les grains supérieurs à 150 microns de diamètre. La petite partie de l’échantillon restante tombera dans les systèmes d’analyse, le CheMin et le SAM, qui pourront alors commencer la mise à nu de la minéralogie et de la chimie martienne.

Michel Alberganti

– Mise à jour le 10 février 2013 avec la vidéo –

lire le billet

Graphène, le projet du XXIe siècle pour l’Europe

Avec le Human Brain Project qui sera piloté par la Suisse, le projet Graphène a remporté le second Future Emerging Technology (FET) Flagship accordé par la Commission européenne le 28 janvier 2013, à Bruxelles. Soit un financement total d’un milliard d’euros sur 10 ans pour le développement de ce matériau confié à l’université technologique Chalmers, à Göteborg en Suède. Si le choix de ce projet visant l’industrialisation du graphène n’est guère surprenant, il est notable que, après la Suisse, ce soit un “petit” pays européen qui ait été choisi pour piloter un programme disposant d’un financement aussi important. D’autant que l’université la plus logique aurait sans douté été celle de Manchester où travaille Andre Geim qui a obtenu le prix Nobel de physique en 2010 avec son collègue, d’origine russe comme lui, Konstantin Novoselov pour la découverte du graphène ou du moins pour la première mise en évidence expérimentale de l’existence de ce matériau.

1°/ Qu’est-ce que le graphène ?

On le décrit souvent comme le premier matériau en deux dimensions. Ce qui est presque vrai étant donné que sa troisième dimension, l’épaisseur, est égale à la taille d’un seul atome de carbone. Le graphène est donc un matériau plan qui se présente, au microscope, sous la forme d’un réseau hexagonal à 6 atomes parfaitement pur et ordonné. Il forme ainsi un grillage. Pour arriver à l’observer, de longues années de recherche ont été nécessaires alors qu’il existe à l’état naturel… dans les cristaux de graphite. Autrement dit, dans les mines de crayon à papier… Mais de là à isoler une couche unique. Les techniques ont longtemps buté sur la réduction du nombre de couches superposées. Les chercheurs sont parvenus à 100, puis à 10. ils étaient au bord du découragement lorsque, en 2004, André Geim et ses collègues ont réalisé “la” découverte grâce à un bel exemple de sérendipité. Sans vraiment y croire, les chercheurs ont utilisé la bande adhésive d’un rouleau de scotch pour y coller des débris de graphite présents sur une table. Ensuite, ils ont plié cette bande dont la face adhésive était couverte de graphite. En la dépliant, ils en ont réduit l’épaisseur. Et ainsi de suite… Au final, il ne restait plus qu’une couche de graphite. André Geim avait réalisé la découverte qui lui vaudrait le prix Nobel.

2°/ Quelles sont ses propriétés ?

Matériau unique par sa structure, le graphène l’est aussi par ses propriétés. Malgré sa très faible épaisseur, il se révèle extraordinairement résistant et dur tout en conservant une assez grande souplesse. Surtout, c’est le meilleur conducteur de l’électricité connu à ce jour. Il surpasse tous les métaux dans ce domaine. Les chercheurs pensent que sa structure et sa pureté jouent un rôle important. Sans atteindre la supraconductivité, le graphène offre, à température ambiante, un conducteur inégalable.

Mais l’originalité du graphène va bien au delà. Soumis à un champ électrique, il devient le siège de phénomènes quantiques. C’est-à-dire qui ne relèvent pas de la physique classique. Les scientifiques rêvent donc de l’utiliser pour étudier des  phénomènes de la mécanique quantique relativiste qui restait essentiellement le domaine des astrophysiciens ou des physiciens des particules utilisant des instruments gigantesques comme le LHC du Cern qui traque le boson de Higgs. Demain, ils pourront peut-être travailler sur les trous noirs… dans un vulgaire laboratoire, un crayon à la main et du graphène sous leur microscope.

3°/ Quelles sont ses applications ?

Le graphène pourrait devenir le silicium du XXI siècle. Ses caractéristiques de conduction, entre autres, intéressent fortement les fabricants de puces électroniques qui buttent, aujourd’hui, sur les limites du silicium en matière de miniaturisation. Plus les microprocesseurs sont petits, plus ils chauffent. Plus le matériau utilisé est conducteur, moins leur température sera élevée. André Geim estime ainsi que, grâce au graphène, la fameuse loi de Mooore qui prévoit un doublement de la performance des puces tous les 12 à 18 mois, trouvera un second souffle. C’est dire les enjeux industriels du graphène. La maîtrise de sa production peut ouvrir la voie à de nouvelles générations d’ordinateurs.

Le graphène, qui est transparent, pourrait également révolutionner les technologies de fabrication des écrans souples ou des cellules photovoltaïques. Il est également utilisable pour réaliser des capteurs chimiques.  Sans doute d’autres applications viendront s’ajouter à ces perspectives. Comme dans le textile, par exemple.

En fait, le graphène n’est autre que la version plane des nanotubes de carbone. Autrement dit, ces derniers sont constitués de feuilles de graphène mises sous forme cylindrique. Ces nanotubes sont également promis à une multitude d’applications. C’est donc bien une nouvelle génération de matériau qui surgit. Après celle du silicium, l’ère du carbone s’ouvre aujourd’hui. Que l’Europe tente d’y jouer un rôle majeur est donc bien une excellente nouvelle.

Michel Alberganti

lire le billet

Aaron Swartz: l’appel à la guérilla

Le web bruisse d’une longue plainte, d’une profonde douleur. Le suicide d’Aaron Swartz, à 26 ans par pendaison, le 11 janvier 2013, n’en finit pas provoquer des réactions dans le monde entier. L’émotion est à la mesure du drame. Internet vient de perdre l’une de ses icônes. La plus jeune victime d’un combat mené par des milliers de militants pour l’accès libre à l’information sur toute la planète. Aaron Swartz était né avec Internet. Au lieu d’y faire fortune comme ces jeunes qui vendent leur société à 20 ans et n’ont plus qu’à attendre la retraite, il avait utilisé cet argent pour se lancer dans ce combat. Tous les projets auxquels il a participé (RSS, Creative Commons, Reddit, Demand Progress…) tournaient autour de cet objectif.

Libérer l’information

Libérer l’information. Surtout celle qui a déjà été payée par le contribuable. L’information scientifique diffusée par des chercheurs financés sur fonds publics. Réserver, par le biais des abonnements, cette culture aux plus riches lui était insupportable. Pour mettre fin à cette situation héritée de l’ère pré-Internet, Aaron Swartz appelait à la révolte, à la résistance. L’impatience de ses 20 ans ne lui a pas permis d’attendre. Bien sûr, tous ceux qui le connaissaient savent bien que son suicide n’est pas uniquement lié à l’action judiciaire absurde et perverse que lui a intenté la justice américaine. Aaron Swartz était fragile, tourmenté et dépressif.

La menace judiciaire

La compagne qu’il avait quittée, Quinn Norton, l’exprime d’une façon bouleversante sur son blog. Mais la menace d’une peine de 35 ans de prison et d’une amende d’un million de dollars lors de son procès prévu pour le mois d’avril n’a certainement pas joué un rôle positif. Son suicide provoque une flambée de messages sur Tweeter (hashtag #pdftribute). Des centaines de chercheurs y annoncent avoir mis leurs publications en libre accès en violant délibérément les droits des éditeurs de revues scientifiques. Cet hommage posthume dépasse la simple déclaration. Il engendre la révolte à laquelle Aaron Swartz appelait dès 2008.

Michel Alberganti

«Manifeste de la guérilla pour le libre accès»

Il avait alors 22 ans. C’était deux ans après la fusion entre la société qu’il avait créée, Infogami, avec Reddit. Il aurait pu alors simplement profiter de sa fortune et de sa renommée. Mais il appelait déjà à la guérilla dans un manifeste écrit en juillet 2008 à Eremon, en Italie. Alexis Kauffmann en a publié une traduction en français sur Framablog. La voici :

L’information, c’est le pouvoir. Mais comme pour tout pouvoir, il y a ceux qui veulent le garder pour eux. Le patrimoine culturel et scientifique mondial, publié depuis plusieurs siècles dans les livres et les revues, est de plus en plus souvent numérisé puis verrouillé par une poignée d’entreprises privées. Vous voulez lire les articles présentant les plus célèbres résultats scientifiques ? Il vous faudra payer de grosses sommes à des éditeurs comme Reed Elsevier.

Et il y a ceux qui luttent pour que cela change. Le mouvement pour le libre accès s’est vaillamment battu pour s’assurer que les scientifiques ne mettent pas toutes leurs publications sous copyright et s’assurer plutôt que leurs travaux seront publiés sur Internet sous des conditions qui en permettent l’accès à tous. Mais, même dans le scénario le plus optimiste, la politique de libre accès ne concerne que les publications futures. Tout ce qui a été fait jusqu’à présent est perdu.

C’est trop cher payé. Contraindre les universitaires à débourser de l’argent pour lire le travail de leurs collègues ? Numériser des bibliothèques entières mais ne permettre qu’aux gens de chez Google de les lire ? Fournir des articles scientifiques aux chercheurs des plus grandes universités des pays riches, mais pas aux enfants des pays du Sud ? C’est scandaleux et inacceptable.

Nombreux sont ceux qui disent : « Je suis d’accord mais que peut-on y faire ? Les entreprises possèdent les droits de reproduction de ces documents, elles gagnent énormément d’argent en faisant payer l’accès, et c’est parfaitement légal, il n’y a rien que l’on puisse faire pour les en empêcher. » Mais si, on peut faire quelque chose, ce qu’on est déjà en train de faire : riposter.

Vous qui avez accès à ces ressources, étudiants, bibliothécaires, scientifiques, on vous a donné un privilège. Vous pouvez vous nourrir au banquet de la connaissance pendant que le reste du monde en est exclu. Mais vous n’êtes pas obligés — moralement, vous n’en avez même pas le droit — de conserver ce privilège pour vous seuls. Il est de votre devoir de le partager avec le monde. Et c’est ce que vous avez fait : en échangeant vos mots de passe avec vos collègues, en remplissant des formulaires de téléchargement pour vos amis.

Pendant ce temps, ceux qui ont été écartés de ce festin n’attendent pas sans rien faire. Vous vous êtes faufilés dans les brèches et avez escaladé les barrières, libérant l’information verrouillée par les éditeurs pour la partager avec vos amis.

Mais toutes ces actions se déroulent dans l’ombre, de façon souterraine. On les qualifie de « vol » ou bien de « piratage », comme si partager une abondance de connaissances était moralement équivalent à l’abordage d’un vaisseau et au meurtre de son équipage. Mais le partage n’est pas immoral, c’est un impératif moral. Seuls ceux qu’aveugle la cupidité refusent une copie à leurs amis.

Les grandes multinationales, bien sûr, sont aveuglées par la cupidité. Les lois qui les gouvernent l’exigent, leurs actionnaires se révolteraient à la moindre occasion. Et les politiciens qu’elles ont achetés les soutiennent en votant des lois qui leur donnent le pouvoir exclusif de décider qui est en droit de faire des copies.

La justice ne consiste pas à se soumettre à des lois injustes. Il est temps de sortir de l’ombre et, dans la grande tradition de la désobéissance civile, d’affirmer notre opposition à la confiscation criminelle de la culture publique.

Nous avons besoin de récolter l’information où qu’elle soit stockée, d’en faire des copies et de la partager avec le monde. Nous devons nous emparer du domaine public et l’ajouter aux archives. Nous devons acheter des bases de données secrètes et les mettre sur le Web. Nous devons télécharger des revues scientifiques et les poster sur des réseaux de partage de fichiers. Nous devons mener le combat de la guérilla pour le libre accès.

Lorsque nous serons assez nombreux de par le monde, nous n’enverrons pas seulement un puissant message d’opposition à la privatisation de la connaissance : nous ferons en sorte que cette privatisation appartienne au passé. Serez-vous des nôtres ?

Aaron Swartz

Traduction : Gatitac, albahtaar, Wikinade, M0tty, aKa, Jean-Fred, Goofy, Léna, greygjhart + anonymous)

lire le billet

Passe-moi la bobine de fil de carbone…

L’équipe de chercheurs de l’université Rice retient sa joie… Pourtant, elle vient de réussir un joli coup avec la mise au point d’un nouveau fil réalisé en nanotube de carbone prêt pour l’industrialisation. Demain, ce nouveau matériau deviendra peut-être aussi banal que le fil de pêche en nylon ou le fil de machine à coudre.  Pour des applications sans doute assez différentes. La performance de cette équipe, rapportée dans l’article publié dans la revue Science du 11 janvier 2013, est d’avoir obtenu les propriétés prédites par la théorie des nanotubes et d’avoir mis au point un procédé de production par tréfilage qui pourrait aboutir à une fabrication de masse.

100 fois plus résistants que l’acier, 10 fois plus conducteurs

Coté propriétés, les nanotubes de carbone sont de la taille d’un brin dADN (quelques dizaines de nanomètres de diamètre). Ils font rêver les ingénieurs depuis leur découverte officielle attribuée à Sumio Iijima (NEC) en 1991.  Il faut dire qu’ils sont 100 plus résistants que l’acier avec un sixième de son poids. Quant à leur conductivité électrique et thermique, elle est dix fois supérieure à celle des meilleurs conducteurs métalliques.  Ils sont déjà utilisés, par exemple,  dans les semi-conducteurs, les systèmes délivrance de médicaments et les éponges pour ramasser le pétrole. Restait à fabriquer un fil utilisant ces nanotubes miracles.

Coton noir

C’est ce que les chercheurs de l’université de Rice, associés à l’entreprise Teijin Aramid des Pays-Bas, à l’institut Technion d’Haifa (Israël) et à un laboratoire de l’armée de l’air américaine (AFRL), ont réalisé. Ils ont obtenu une fibre en nanotubes “dont les propriétés n’existent dans aucun autre matériau”, selon les termes de Matteo Pasquali, professeur de chimie et d’ingénierie biomoléculaire à l’université de Rice. “Cela ressemble à des fils de coton noir mais cela se comporte comme des fils de métal ayant la résistance de fibres de carbone”, précise-t-il.

Le diamètre d’une seule fibre du  nouveau fil ne dépasse pas le quart de celui d’un cheveu humain et il contient des dizaines de millions de nanotubes en rangs serrés, côte à côte. Toute la difficulté réside dans la production de tels fils à partir de nanotubes purs. C’est le procédé mis au point à l’université Rice à la fois grâce au travail fondamental des chercheurs et à l’apport de l’expérience industrielle de l’entreprise Teijin Aramid, spécialisée dans la fabrication de fibres d’aramides telles que celles qui composent le fameux Kevlar de Dupont de Neunours.

Les images de la production du fil de nanotubes par tréfilage sont spectaculaires sur la vidéo réalisée par les chercheurs (ci-dessous). Plus impressionnant que l’exemple d’utilisation à l’aide d’une lampe halogène suspendue à deux fils en nanotubes… Certes, cela montre que les fils conduisent l’électricité nécessaire malgré leur composition et leur faible diamètre. Mais, bon, ce n’est guère renversant.

Grâce à une résistance mécanique et une conductivité 10 fois supérieures aux précédentes réalisations de telles fibres, le nouveau fil rivalise avec le cuivre, l’or et l’aluminium. Ces deux propriétés rassemblées pourraient lui donner l’avantage sur le métal pour le transport de données et les applications imposant une faible consommation. Deux domaines plein d’avenir. L’aérospatial, l’automobile, la médecine et les textiles intelligents sont dans le collimateur. Imaginons une veste au tissu ultra-résistant et conduisant l’électricité. Des capteurs solaires intégrés pourraient recharger en permanence un téléphone portable ou une tablette de poche. Sans parler de l’imagination des créateurs de mode pouvant nous tailler des costumes lumineux. Effet garanti…

Michel Alberganti

lire le billet

Le robot mulet répond à la voix du soldat, le suit et porte son barda

Lorsqu’il fera son apparition sur les champs de bataille, nul doute que le robot mulet LS3 donnera l’avantage aux soldats qui l’utiliseront, ne serait-ce que par l’effet de surprise de leurs adversaires. L’engin développé par l’entreprise Boston Dymanics est probablement le plus gros robot parvenu à un stade aussi avancé de développement. Il peut en effet transporter environ 180 kg de matériel et dispose d’assez de carburant pour parcourir 30 km et fonctionner pendant 24 heures. Déjà, lorsque le LS3 était à l’entrainement dans un laboratoire, bardé de fils et de câbles, il impressionnait par les mouvements de ses quatre pattes, très proches de celles d’un animal comme une vache, un cheval ou un mulet, mais aussi par ses capacités de relèvement après une chute. Mais les premiers séquences vidéo filmées dans la nature sont, elles, tout bonnement sidérantes. Vous pouvez juger par vous-même :

La dernière vidéo date du 19 décembre 2012 et montre, pour la première fois, le LS3 lourdement chargé et, surtout, capable de suivre un soldat sur des terrains accidentés. On note qu’il répond aux commandes vocales et qu’il est capable de trouver son chemin pour rejoindre le soldat en évitant les obstacles. L’engin conserve son aptitude à se relever après une chute, même sur un terrain boueux. Une fonction essentielle car, vu son poids, il est impossible à un homme seul de le remettre debout. Ses flancs équipés d’arceaux jouent un rôle important pour cette opération tandis qu’un réseau de barres protègent la tête et son électronique.

Un tel engin démontre, une nouvelle fois, les ressources fournies par le biomimétisme. La démarche des quadrupèdes est, ici, parfaitement reproduite. Au trot, le LS3 semble ne plus toucher le sol. Et il compense son manque de souplesse par un  jeu des articulations des pattes avant qui lui permettent de se sortir de tous les mauvais pas.

Financé par la Darpa, l’agence américaine des projets avancés de l’armée, et par la marine américaine, le LS3 préfigure peut-être l’équipement des soldats de demain. Difficile de ne pas penser, en le voyant évoluer, à certains robots de Star Wars. Pourtant, la fonction de ce mulet métallique n’est guère belliqueuse puisqu’elle se limite au transport de matériel. La tentation de l’équiper d’armement doit néanmoins titiller certains responsables militaires. Le mulet se transformerait alors en dragon crachant du feu et des balles sur son passage, sorte d’hélicoptère au sol… De quoi rêver, ou cauchemarder…

Michel Alberganti

lire le billet

Tau Ceti : une autre Terre, à 12 “pas” ?

Le rêve de découvrir une autre Terre n’en finit pas de se régénérer. Il faut dire que l’avalanche permanente des annonces de nouvelles exoplanètes ne risque pas de le laisser s’évanouir. Et puis, plus notre planète semble mal partie – trop peuplée, polluée, réchauffée…- plus l’appel de l’exode devient puissant. L’instinct explorateur, voire colonisateur, ne demande qu’à se rallumer. Et quelques heures avant une “fin du monde”, même aussi fausse que stupide, le sentiment de vulnérabilité, d’insécurité, nous étreint. Un jour, peut-être, sans doute, faudra-t-il partir. Mais pour aller où ?

En cadeau de Noël, les astronomes nous apportent ce qu’ils ont trouvé de mieux: un autre système solaire, avec son étoile, Tau Ceti, et 5 planètes. Pas de quoi être déboussolés par rapport à notre système actuel, avec son étoile, le Soleil, et ses 8 planètes. Si Tau Ceti fait rêver, c’est aussi, sans doute, parce qu’elle est visible à l’oeil nu dans le ciel, depuis l’Europe. Comme à portée de la main… Toutes proportions gardées. Nous parlons d’une étoile, certes parmi les plus proches puisqu’elle ne se situe que trois fois plus loin qu’Alpha du Centaure. Ce dernier est un système à trois étoiles ce qui se semble guère propice à la présence de planète à une distance suffisante d’une étoile pour que des conditions compatibles avec la vie y règnent. La fameuse zone habitable.

A 120 000 milliards de km

Tau Ceti, elle, est seule. Et c’est l’étoile la plus proche de nous dans cette situation. Toutefois, la distance à parcourir pour l’atteindre est tout de même de 12 années-lumière. Le chiffre est faible mais l’unité est grande. D’où un voyage de 120 000 milliards de km. Aujourd’hui, les vaisseaux spatiaux les plus rapides atteignent des vitesses encore inférieures à 100 000 km/h. Admettons qu’ils l’atteignent un jour. Sauf erreur de calcul, ils pourraient alors parcourir 876 millions de km par an, soit environ 0,9 milliard de km par an. Pour atteindre Tau Ceti, il faudrait alors plus de 130 000 ans. Ce qui paraît très excessif, même en plongeant l’équipage dans un sommeil profond. A titre de comparaison, les vaisseaux qui ont parcouru la plus grande distance sont aujourd’hui les sondes Voyager qui sont en passe de sortir du système solaire. Lancées en 1977, elles ne se trouvent qu’à environ 18 milliards de km de la Terre. Pour parvenir à la distance de Tau Ceti, il leur faudrait encore pas loin de 240 000 ans.


Stuck In The Sound – Let's Go (Official Video) par Discograph

On constate donc que le voyage vers les étoiles ne peut se concevoir, à l’échelle de temps de la vie des êtres humains, que si l’on atteint des vitesses très proches de celle de la lumière. Cette limite indépassable, même par les neutrinos, fixe à un peu plus de 12 ans la durée minimale de l’exode vers Tau Ceti. Avant de parvenir à créer des vaisseaux capables de telles performances, dans le style de l’hyperespace des romans de science-fiction, pas mal d’eau coulera, sans doute, sous les ponts. Le temps de vérifier que les planètes détectées aujourd’hui par les astronomes sont effectivement hospitalières.

Une étoile moins lumineuse que le Soleil

Il reste l’exploit de l’observation. Obtenus à l’aide de trois télescopes, situés au Chili, en Australie et à Hawaï, les résultats obtenus par une équipe internationale dirigée par Mikko Tuomi de l’université du Hertfordshire en Angleterre ont été publiés dans la revue Astronomy & Astrophysics le 19 décembre 2012.  Les 5 planètes détectées ont des masses comprises entre 2 et 7 fois celle de la Terre. Leur distance par rapport à leur étoile, Tau Ceti, est inférieure à celle qui sépare notre Soleil de Mars. Toutefois, l’étoile émet seulement 45% de la lumière du Soleil. Si trois des planètes détectées semblent trop proches de Tau Ceti et donc trop chaudes pour le développement de la vie, il en reste deux…

Michel Alberganti

lire le billet

La Lune pour 750 millions de dollars

Il ne s’agit pas d’une version de la Lune à la Warhol ou à la Niki de Saint Phalle. Mais de la cartographie des variations de gravité mesurées à la surface de notre satellite. Réalisées par les deux sondes jumelles de la mission Grail, ces mesures, publiées dans la revue Science du 5 décembre 2012, révèlent d’intéressantes caractéristiques qui pourraient guider la recherche d’eau sous la surface de Mars.  Mais cette robe de la Lune évoque également… un papier cadeau. De circonstance avant les fêtes de fin d’année même si elles tombent, en 2012, juste après la fin du monde du 21 décembre…

Certains riches, pourchassés par les fiscalistes de crise,  pourraient se consoler en caressant le doux projet de décrocher enfin, prochainement, la Lune. Passées certaines frontières de la fortune, à quoi rêver d’autre ? Justement le tarif, pas vraiment low cost, est fixé à 750 millions de dollars par personne. Idéal pour faire baisser des bénéfices indécents pour peu que l’on fasse passer l’escapade en frais professionnels.

Le 6 décembre 2012, le tourisme lunaire a pris un nouveau tour avec l’annonce d’Alan Stern. Cet ancien administrateur de la direction des missions scientifiques de la NASA a annoncé la création de son entreprise, Golden Spike, dans le Colorado. Avec une activité simple : vendre des vols commerciaux à destination de la Lune. Il s’agira de voyages à vocation scientifique. Ou minière. Ou de pur prestige. Et quel prestige !

Etude de marché

Alan Stern a choisi la Lune parce qu’elle s’imposait comme le nez au milieu de la figure. “Pourquoi la Lune ? Parce qu’elle est proche, parce qu’elle est énorme et parce que nous pensons qu’il va se développer un important marché autour d’elle”, a-t-il déclaré.  Pour l’instant, pas de tickets vendus. Mais la revue New Scientist indique que des pourparlers sont en cours avec les agences spatiales en Asie et en Europe pour leur vendre des vols lunaires. Car, pour Alan Stern, ces organismes devraient être ses principaux clients. Sans doute le résultat de l’étude de marché de quatre mois qui a précédé la création de Golden Spike qui rassemble, autour de son fondateur, d’autres transfuges de la NASA, comme Gerry Griffin et Wayne Hale ainsi qu’un ancien candidat à l’élection présidentielle américaine, Newt Gingrich.

Course à la Lune

Conçue comme un  affréteur, Golden Spike ne devrait pas construire de fusées. Elle en achètera aux autres entreprises qui se sont déjà lancées dans les projets de tourisme spatial comme Space X ou Blue Origin. Il ne restera qu’a construire un atterrisseur pour se poser sur la Lune et en repartir et à créer des combinaisons spatiales un peu plus fun que celles de la NASA (ornées de fleurs ?). Le coût de la première mission est estimée entre 7 et 8 milliards de dollars. Un gros investissement pour des vols commerciaux prévus pour la fin de la décennie.

Auparavant, vers 2016 ou 2017, Space Adventures devrait avoir inauguré ses vols autour de la Lune pour la modique somme de 15 millions de dollars par personne. Deux places de passagers sont prévues. Idéal pour un voyage de noce à 300 millions de dollars. Quels souvenirs ! Coucher de Terre et nuit en apesanteur garantis.

Michel Alberganti

lire le billet

L’Inria (ré)invente le troisième oeil [Vidéo]

Alfred Faucher n’aurait sans pas manqué de sourire s’il avait assisté, ce matin, à la présentation de la dernière innovation de l’Inria,les inventeurs du monde numérique” (sic). Mardi 4 décembre 2012, en effet, l’Institut de recherche en informatique dévoilait “FlyViz, des yeux derrière la tête”. En 1906, il y a donc plus de 100 ans, Alfred Faucher déposait, lui, le brevet N°369 252 relatif au… rétroviseur. Un objet si utile qu’il est devenu obligatoire sur toutes les automobiles dès 1921. Pas sûr que le FlyViz trouve autant d’applications.

Pourtant le dossier de presse n’hésite pas à imaginer jusqu’à l’improbable: “permettre à des soldats, des policiers ou des pompiers d’éviter des dangers potentiels (…). La technologie peut être envisagée dans de nombreuses situations du quotidien pour voir ce dont nous avons toujours rêvé: ce qu’il se passe “dans notre dos”! Surveiller une classe alors que le professeur écrit au tableau ou encore bébé confortablement installé dans son parc de jeu tout en cuisinant sont autant d’exemples d’applications qui pourraient vite rendre FlyViz indispensable !”.

Le visiocasque FlyViz pourrait peut-être servir dès à présent aux chercheurs de l’Inria pour la surveillance de ceux qui écrivent leur dossier de presse… dans leur dos, probablement.

Michel Alberganti

lire le billet

La classe Star Trek : l’hyperespace de l’enseignement “multitouch”

La classe du futur, ou la classe Star Trek… C’est ainsi qu’est baptisée le résultat du projet SynergyNet. Pour les spécialistes de l’enseignement numérique, cela peut ressembler à une vieille rengaine. Et pourtant, il s’agit bien, encore, de l’un des huit projets financés, en Angleterre, par l’Economic and Social Research Council (ESRC) et l’Engineering and Physical Sciences Research Council (EPSRC) britanniques à hauteur de 12 M£, soit environ 15 M€.  De quoi s’agit-il ?

Bureaux électroniques interactifs

Essentiellement de la généralisation du principe du tableau blanc, c’est à dire un tableau électronique interactif, à l’ensemble des bureaux des élèves. La photo ci-dessus, tout comme les vidéos ci-après, montrent également une disposition des bureaux très différente de celle des classes traditionnelles avec ses rangées alignées dans la direction du soleil, c’est à dire du professeur. Ici, plusieurs élèves travaillent sur le même bureau grâce à la technologie d’écran tactile “multitouch”. Leurs actions sont visibles par les autres. Le professeur, lui, voit tout, soit directement, soit via un système de suivi en direct de l’activité des élèves sur chaque bureau.  Ce futuriste et coûteux équipement, outre son look et son exploitation de l’aisance des enfants avec les outils informatiques, est-il plus efficace pour l’enseignement ?

45% contre 16%

Une étude sur l’expérimentation de Synergynet par 400 élèves de 8 à 10 ans a été menée par des chercheurs de l’université de Durham.  Les résultats montrent que 45% des utilisateurs de NumberNet, outil spécialisé dans l’enseignement des mathématiques, ont fait des progrès dans la manipulation des formules contre une proportion de 16% chez les utilisateurs des traditionnelles feuilles de papier. En fait, les maths ne sont qu’un exemple de l’efficacité de cette méthode car elle n’est pas spécialement destinée à cette discipline.

Les raisons invoquées par les chercheurs pour expliquer l’amélioration de l’apprentissage grâce aux outils de Synergynet sont multiples. Avec un point central: l’interaction. Sur le bureau électronique, les élèves ne travaillent plus seuls. En permanence, ce qu’ils font est vu par les autres élèves et inversement. Le travail devient ainsi collectif, collaboratif. Soit le schéma inverse du cours classique, fondé sur une parole univoque et une hiérarchie figée. Dans la classe Star Trek, l’ambiance ressemble plus à celle d’une salle de maternelle. Les élèves sont pourtant en CP.

Professeur homme orchestre

Pour le professeur, le rôle change en profondeur. Au lieu de dispenser (disperser ?) un savoir, il le fait naître au sein même d’une communauté dont il n’est plus vraiment le maître. Il se transforme en chef d’orchestre, ce qui doit être encore plus épuisant. Il doit en effet veiller simultanément sur ce qui se passe sur chaque bureau électronique, détecter les élèves qui se suivent pas, guider les autres, mettre parfois en commun ce qui s’est produit sur un bureau… Plus qu’à un chef d’orchestre, ce rôle ressemble à celui d’un homme orchestre…

Séduisant sur le papier lorsqu’il ne fait pas fuir les enseignants attachés à la craie et au cahier, un tel projet se heurte au problème délicat du coût du matériel et du support technique nécessaire pour le faire fonctionner. Néanmoins, au cours des trois années du projet, l’équipe de l’université de Durham a noté des progrès notables de la technologie ainsi qu’une baisse des coûts.

Fracture numérique dans l’éducation

L’efficacité pédagogique démontrée par le projet SynergyNet, après bien d’autres expérimentations, pose également un grave problème d’égalité devant l’enseignement. Nul doute que des établissement privés pourront investir dans de tels équipements avant leurs homologues publics. Une fracture numérique pourrait alors survenir dans l’éducation et s’ajouter aux inégalités déjà importantes. Alors que l’on imagine pas une armée moderne dotée d’un matériel moins performant que celui de ses voisins, personne ne semble choqué par le manque de moyens dans l’Education Nationale. Déjà largement distancée en Europe, l’école française risque fort d’être encore pénalisée si elle ne parvient pas à investir massivement dans les outils pédagogiques interactifs auxquels les élèves, eux, sont parfaitement préparés.

Michel Alberganti

lire le billet

Energie nucléaire: la France ferme Fessenheim, le Japon ferme tout

Coup dur pour les inconditionnels de l’énergie nucléaire. Dix huit mois après la catastrophe de Fukushima, le gouvernement japonais a annoncé, vendredi 14 septembre 2012, sa nouvelle stratégie énergétique : « réaliser une société qui ne dépend plus de l’énergie nucléaire dans les années 2030 ». A terme, le Japon ne prévoit de conserver que son surgénérateur de Monju en l’utilisant pour le traitement des déchets nucléaires.

Le même jour, quelques heures auparavant, François Hollande avait annoncé, en ouverture de la conférence environnementale des 14 et 15 septembre, que la centrale nucléaire de Fessenheim «sera fermée à la fin de l’année 2016», quelques mois avant l’expiration de son mandat. Ce calendrier semble satisfaire les écologistes, ravis, par ailleurs, de la décision d’enterrer l’exploration et, a fortiori, l’exploitation du gaz de schiste en France.

Pression populaire

Le parallèle avec le Japon est instructif. Dix huit mois après la catastrophe de Fukushima, le gouvernement de Yoshihiko Noda était soumis à une forte pression populaire. Il faut dire que le Japon l’avait échappé belle en mars 2011 lorsque la centrale de Fukushima-Daiichi a été dévastée par le tsunami et que des explosions ont projeté un nuage de particules radioactives dans l’atmosphère. Tokyo, située à 220 km au sud-ouest, n’a été épargnée que grâce à une direction favorable des vents. Depuis, l’exploitant Tepco, largement convaincu d’incompétence, lutte pour contrôler la centrale. Encore aujourd’hui, le réacteur N°4 et sa piscine contenant 264 tonnes de barres de combustible hautement radioactives reste un danger permanent.

Épée de Damoclès

Pour rassurer une population traumatisée par l’épée de Damoclès de Fukushima et, sans doute aussi, par la mémoire des bombes atomiques de la seconde guerre mondiale, le gouvernement a donc fini par prendre une décision courageuse. Pour la première fois, l’une des premières économies mondiales planifie sa sortie du nucléaire. Le Japon se donne moins de 30 ans pour y parvenir. Un délai qui semble raisonnable si l’on considère que le nucléaire fournissait 29% de la production électrique du pays en 2010.

Après le séisme du 11 mars 2011, tous les réacteurs japonais sont progressivement mis à l’arrêt. En mai 2012, plus aucun ne fonctionne et le Japon est alors sorti du nucléaire en… 14 mois. Mais cette situation n’est guère tenable économiquement et, en juin 2012, Yoshihiko Noda annonce la remise en service de deux réacteurs dans la centrale d’Ohi, dans l’ouest du Japon. Mais le mois suivant, en juillet dernier, les manifestations anti-nucléaires rassemblent des dizaines de milliers de Japonais à Tokyo.

600 milliards de dollars

C’est donc bien sous la pression de l’opinion publique japonaise que le gouvernement nippon a décidé de s’engager dans une sortie du nucléaire. Il y a une semaine, les discussions du cabinet du premier ministre Yoshihiko Noda laissaient pourtant entendre que le coût d’une telle stratégie s’élèverait à plus de 600 milliards de dollars. En face de ce coût, le Japon a pesé le risque d’un nouveau tremblement de terre majeur de magnitude 8 au cours des prochaines décennies. D’après les scientifiques, ce risque est évalué à 87% dans la région du Tokai, à 200 km au sud-ouest de Tokyo, pour les 30 prochaines années.

En prenant la décision de sortir définitivement du nucléaire avant 2040, le Japon se met en situation de devoir impérativement développer ses ressources en énergies renouvelables. Sans ces dernières, les importations de pétrole et de gaz pour compenser les 30% de son électricité nucléaire pèseront de façon insupportable sur son économie.

5ème mondial dans le solaire

Avant de se mettre ainsi le couteau sous la gorge, le Japon occupait une place loin d’être ridicule dans l’industrie du solaire. Il se place en 5ème position mondiale en terme de surface de panneaux photovoltaïques installés, avec 5 GW en 2011, contre 2,8 GW en France. Cinq entreprises nippones (contre 400 en Chine…) fabriquent de tels panneaux. En 2009, le gouvernement a fixé comme objectif de parvenir à 28 GW en 2020 et à 53 GW en 2030. Il est très probable que ces chiffres seront revus à la hausse après la décision du 14 septembre. Le solaire devra contribuer à compenser le nucléaire. Avec 54 réacteurs, ce dernier représentait près de 30% de sa production d’électricité et il était prévu que cette part monte à 40%. En 2010, le Japon disposait de 282 GW de puissance électrique installée. Le solaire représentait donc moins de 2%.  Mais l’objectif 2030 l’aurait fait passer à près de 20%, à puissance installée égale.

Pas de difficultés insurmontables pour le Japon

On voit donc que les ordres de grandeur ne présentent pas de difficultés insurmontables. Si l’on ajoute les 2,3 GW d’électricité éolienne nippone en 2010, le Japon dispose d’environ 7,5 GW d’électricité renouvelable. En trente ans, il lui faut multiplier ce chiffre par 4 pour compenser son électricité nucléaire. Cela semble très loin d’être impossible si l’on ajoute à cela l’impact des économies d’énergie. Certaines régions ont réduit de 15% leur consommation après le tsunami de mars 2011. Ainsi, la situation du Japon ne semble pas catastrophique. On connaît les capacités industrielles de ce pays et ses facultés de réaction dans l’adversité. La décision du gouvernement pourrait provoquer un électrochoc salutaire et un élan important vers le développement des énergies renouvelables.

Fessenheim: moins que le solaire

La situation de la France est bien différente. Avec nos 58 réacteurs, nous produisons 74% de notre électricité grâce à nos centrales nucléaires. La fermeture de Fessenheim (1,8 GW) représentera une perte inférieure à 3% des 63 GW nucléaires installés en France. A titre de comparaison, le solaire représentait, fin 2011, 2,8 GW de puissance installée et l’éolien 6,8 GW. Certes, la part de l’ensemble des énergies renouvelables dans la production française d’électricité n’était que de 12% en 2009 ce qui nous classait à la 13ème place européenne… Et le rapport sur l’éolien et le photovoltaïque remis au gouvernement le 13 septembre 2012 risque de ne pas provoquer d’enthousiasme démesuré. Les experts y déclarent: “ces contraintes interdisent d’envisager que les énergies éolienne et photovoltaïque, à elles seules, permettent la diminution de 75 % à 50 % du nucléaire dans le mix électrique français à l’horizon de 2025”. Voilà donc l’objectif affiché par François Hollande lors de la campagne présidentielle habillé pour l’hivers.

Pas de couteau sous la gorge en France

Contrairement au Japon sous la menace permanente de tremblements de terre dévastateurs, la France n’a pas le couteau sous la gorge. Grâce au nucléaire, elle bénéficie même d’un luxe mortel pour les énergies renouvelables. Le phénomène mine depuis 30 ans tout développement important d’une économie verte en France. Les deux décisions que François Hollande vient de prendre le 14 septembre, fermer Fessenheim et interdire le gaz de schiste, va lui permettre de satisfaire les écologistes à peu de frais politique. Coté économique, la France devra se contenter de l’espoir de devenir la spécialiste du démantèlement des centrales nucléaires. Un domaine dans lequel il lui reste toutefois à faire ses preuves. Aucune centrale nucléaire n’a été complètement démantelée sur son territoire à ce jour. Coté énergies renouvelables, nous pourrons continuer à tranquillement caracoler en queue de peloton. Pendant que le Japon se retrousse les manches pour sortir du nucléaire.

Michel Alberganti

lire le billet