Le saut en chute libre au cours duquel l’Autrichien Felix Baumgartner espère pouvoir franchir le mur du son devait avoir lieu lundi 8 octobre. Il est repoussé au mardi 9 octobre en raison des conditions météorologiques. Il est possible de suivre le compte à rebours sur le site de l’exploit, Redbull Stratos.
Gilles-Eric Séralini, sommé par différentes institutions (EFSA, BfR, HCB…) de fournir ses données d’expérience au sujet de sa publication du 19 septembre, a déclaré qu’il ne les fournirait que si l’agence européenne EFSA publiait celles qui l’on conduit à autoriser le maïs transgénique NK 83 et le Roundup… Blocage en vue. En attendant, voici une version du débat par l’émission en ligne “Arrêt sur image” sur ce sujet :
Chaque année, on s’y attend pas et puis, brusquement, c’est l’affolement. les Nobels se mettent à tomber et les rédactions s’affolent ! “Tu comprends de quoi ça parle ?” étant la question qui revient le plus souvent après la remise des prix. Cela commence lundi 8 octobre avec la médecine, suivie par la physique mardi, la chimie mercredi et la paix le 12 octobre. Il faudra attendre le 15 pour l’économie et on ne sait encore quand pour la littérature. Cette année, Slate.fr est fin prêt. Vous allez voir ! Pour patienter, voici quelques images de la cérémonie d’ouverture de l’an dernier. Un ambiance à la bonne franquette et une famille royale hyper détendue… Quelques mots de suédois qui rappellent les films de Bergman en VO et quelques notes de Mozart… Et de sublimes couronnes ! Royales en attendant celles des scientifiques.
Michel Alberganti
lire le billetPour l’instant, il s’appelle encore UUT, comme Ununtrium, c’est à dire… 113. Si sa création par l’équipe japonaise de Kosuke Morita, du laboratoire des éléments superlourds du Centre RIKEN Nishina, est confirmée, il prendra sans doute un vrai nom d’élément chimique comme ses voisins, le 112, baptisé Copernicium, ou le 114, Flerovium. Pour cela, l’expérience japonaise devra être homologuée par l’IUPAC. Mais pour Kosuke Morita, le résultat obtenu est concluant et il déclare: “Pendant 9 ans, nous avons cherché à obtenir des données identifiant l’élément 113 et maintenant, enfin, nous les avons. Nous ressentons comme un grand poids retiré de nos épaules”.
La réalisation de l’équipe japonaise s’inscrit dans la longue course que se livrent, depuis 1940, les chercheurs américains, russes et allemands pour débusquer les éléments chimiques superlourds. Ces derniers ont la caractéristique assez particulière… de ne pas exister dans la nature. Néanmoins, si les chimistes cherchent à les produire de façon artificielle, c’est parce qu’ils existent… dans la fameuse classification périodique des éléments établie par le russe Dmitri Mendeleïev en 1869. Ce dernier, qui compte parmi les plus grands génies de la science, a proposé alors de classer tous les éléments chimiques suivant l’ordre croissant de leur numéro atomique, c’est à dire du nombre de protons qui constituent leur noyau. L’idée était d’autant plus osée que, à la fin du 19ème siècle, un nombre important de ces éléments n’existaient pas dans le bestiaire des chimistes. Qu’à cela ne tienne ! Dimitri Mendeleïev, confiant dans une sorte de logique naturelle, a construit son tableau… avec des trous. Et le plus extraordinaire, c’est que les trous se sont peu à peu comblés.
Avec les éléments superlourds, cela se complique puisqu’il n’est plus question de les découvrir mais bien de les fabriquer. Le jeu consistait donc, pour les Japonais, à créer un élément dont le noyau contient 113 protons. Toute la difficulté réside dans l’instabilité extrême d’un tel élément. Ce qui explique d’ailleurs que l’on ne puisse l’observer dans la nature. Pour le créer, il faut faire appel à des réacteurs nucléaires ou à des accélérateurs de particules provoquant, par exemple, des phénomènes de fusion nucléaire. Kosuke Morita a procédé ainsi sans succès en 2004 et 2005. Avec l’accélérateur de particules RIKEN de Wako, près de Tokyo, le 12 août 2012, des ions de zinc voyageant à 10% de la vitesse de la lumière sont entrés en collision avec une fine couche de bismuth. Résultat : pendant un bref instant, l’élément au noyau contenant 113 protons a existé.
Mais comment en être sûr étant donné qu’un tel élément se désintègre instantanément ? Les 113 protons de ce fugace élément proviennent des 30 protons du zinc et des 83 protons du bismuth. Même si le compte de la somme est bon, encore faut-il vérifier qu’un noyau à 113 protons s’est bien créé. Pour cela, les chercheurs analysent les désintégrations qui suivent la collision. Pour homologuer la création de l’élément cherché, il faut observer 6 désintégrations alpha successives. Et ces dernières ont bien été identifiées comme des isotopes de l’élément 113. L’étude a été publiée le 27 septembre 2012 dans le Journal of the Physical Society of Japan.
Si cette réussite est confirmée, Kosuke Morita deviendra le premier Japonais, mais également le premier asiatique à s’inscrire dans le palmarès de la course aux éléments superlourds. Une épreuve qui n’est pas terminée. Sur les 118 éléments du tableau de Mendeleïev, tout a désormais été réalisé même s’il reste des débats entre Américains et Russes au sujet du plus lourd, le 118. Parmi ceux qui n’ont pas encore de nom définitif, on trouve le 117 , observé par les Russes du Flerov Laboratory of Nuclear Reactions en 2010 et le 115 qui résulte d’une collaboration entres Russes et Américains (2004). Qu’à cela ne tienne. Kosuke Morita s’est déjà fixé un nouvel objectif : sortir du tableau de Mendeleïev et créer… le 119.
Michel Alberganti
lire le billetUne vidéo en forme de conte de fée… pédagogique. C’est assez rare pour être noté. De plus, c’est une histoire vraie, rien à voir avec le train d’Harry Potter, hormis la poésie. La preuve, cette vidéo réalisée par Ron Fugelseth, directeur de création chez Oxygen Productions, spécialiste de graphisme numérique, pour son fils de 4 ans. L’idée est simple : arrimer Stanley, le jouet locomotive favori du bambin à un ballon météorologique, lâcher le tout et contempler l’ascension du petit train vers la stratosphère. Le papa épris d’expérience éducative pour son fiston a perfectionné quelque peu la manip. Il a attaché une caméra HD à l’équipage et l’a doté d’un GPS via un téléphone mobile également embarqué dans cette équipée express vers l’espace.
Ensuite, père et fils ont suivi des yeux Stanley montant vers les cieux. Une heure pour atteindre près de 30 km d’altitude. Puis l’explosion du ballon, la chute libre pendant 20 minutes et l’atterrissage dans un champ de maïs (Monsanto ?) à plus de 40 km de distance. Il ne restait plus qu’à localiser Stanley grâce au GPS avant l’aller le récupérer. Pour le plus grand bonheur de son fils. Surtout lorsque, après le montage de la vidéo captée lors du vol, il a pu découvrir les yeux écarquillés et le sourire de Stanley découvrant la Terre vue d’en haut.
Autre chose qu’un ordinaire clip familial… Ron Fugelseth devrait donner des idées aux pédagogues à la recherche d’altitude. Un peu d’imagination, un brin de bricolage, un zeste d’émotion et les petits trains se mettent à voler.
Michel Alberganti
lire le billetPubliée le 9 septembre 2012 dans la revue Nature Climate Change, une nouvelle étude affirme que l’éolien pourrait, théoriquement, couvrir l’ensemble des besoins énergétiques de la planète. Selon Kate Marvel du laboratoire national Lawrence Livermore qui a dirigé les travaux de l’équipe, 400 térawatts pourraient être obtenus grâce aux éoliennes sur terre et en mer tandis que l’éolien d’altitude aurait une capacité de 1800 terrawatts. Or, l’humanité consomme aujourd’hui 18 terrawatts. Ainsi, le vent terrestre couvrirait 20 fois ces besoins et le vent d’altitude 100 fois. De quoi faire réfléchir ceux qui considèrent l’énergie éolienne comme tout juste capable d’apporter, comme le solaire, un appoint aux énergies “sérieuses” que sont le pétrole, le charbon et le nucléaire.
Il faut néanmoins préciser que ces chiffres représentent le potentiel géophysique de cette source d’énergie renouvelable et propre. Ils ne tiennent pas compte des limitations technologiques ou économiques. Il ne s’agit donc que d’un gisement. Pas de la ressource réellement exploitable. L’étude s’est concentrée sur la recherche de l’optimum d’exploitation possible du vent. En effet, trop d’éoliennes finiraient par ralentir les courants aériens, phénomène de saturation qui conduit à la définition d’un maximum de la ressource.
Les chercheurs ont également tenté d’évaluer les effets sur le climat de la Terre d’une exploitation massive de l’énergie éolienne. Selon eux, l’impact de l’extraction d’une quantité d’énergie égale à la consommation de l’humanité serait minime, dans la mesure ou les turbines seraient réparties et non concentrées dans certaines régions. D’après leurs calculs, une telle exploitation ferait varier la température du globe d’environ 0,1°C et affecterait 1% des précipitations. En conclusion, Ken Caldera, co-auteur de l’étude et membre de l’institution Carnegie à Washington, estime que “les facteurs limitant l’exploitation de l’énergie éolienne seront économiques, technologiques et politiques mais non géophysiques”.
En 2009, Ken Caldera avait déjà publié, avec Cristina Archer dans la revue Energies, un article dédié au potentiel des vents de haute altitude. Les chercheurs s’étaient alors penchés sur les fameux courants-jets, les fameux jet streams, qui circulent dans l’atmosphère à des altitudes comprises en 6 et 15 km. Il en avait déduit de forts potentiels sans donner la méthode pour exploiter ces véritables rivières aériennes. Comment installer une turbine à ces altitudes et récupérer le courant électrique produit ? Mystère… Moins ambitieux mais plus réalistes, de nombreux projets visent l’exploitation du vent à moyenne altitude, c’est à dire à quelques centaines de mètres de la terre. Il s’agit de se dégager de l’effet de ralentissement du vent que provoque sa friction sur le sol afin d’exploiter un flux plus fort et plus régulier. Mais, là encore, comment faire ?
Une société italienne, Kite Gen Research fondée en 2007 à Chieri, près de Turin, détient une vingtaine de brevets pour une solution originale: le cerf-volant (kite en anglais). Son idée essentielle réside dans le fait de conserver sur terre toute la partie lourde et encombrante de l’installation, c’est à dire la turbine. Cette dernière tourne grâce au déplacement ascensionnel du cerf-volant qui entraîne un câble. Le problème, c’est qu’il faut faire redescendre le cerf-volant au bout d’un certain temps… Pour cela, le système rompt la portance de l’aile volante de plusieurs dizaines de m2 en exerçant une traction sur l’un des câbles. le cerf-volant se met, en quelque sorte, en torche, ce qui facilite sa descente. Ensuite, il suffit de rétablir la portance pour que l’ascension reprenne. Et ainsi de suite, dans un mouvement qui rappelle celui du yo-yo. De essais du système ont été réalisé au début de 2012. Certains problèmes restent à résoudre, semble-t-il mais Kite Gen mise sur des installations de 3 MW par cerf-volant et envisage de vastes carrousels sur terre et sur mer pour rassembler des dizaines de systèmes sur un même site. Un jour, peut-être, notre courant électrique sera produit par des cerf-volants… Nul doute que l’idée devrait séduire la Chine…
Michel Alberganti
lire le billetLe 19 août 2012, le rover Curiosity a effectué sa première analyse du sol martien à l’aide de son instrument Chemical and Camera (ChemCam), construit en partie par la France à l’Institut de Recherche en Astrophysique et Planétologie (IRAP) sous la direction de Sylvestre Maurice, en lien avec le CNES.
Le ChemCam est digne des films de science fiction avec son rayon laser pouvant porter à près de 10 mètres. Pour le reste, il s’agit d’un instrument très scientifique puisque les tirs de son rayon n’ont d’autre but que de vaporiser un peu de roche martienne afin d’en analyser les constituants.
Treize jours après son atterrissage sur la planète rouge, Curiosity a donc commencé son travail essentiel d’exploration. L’échantillon de roche choisi, le premier d’une planète extraterrestre à être analysé avec cette méthode, a été baptisé Coronation par la Nasa. Le ChemCam l’a bombardé avec 30 pulsations de son laser. L’opération a duré 10 secondes. Chaque pulsation a frappé la surface avec une énergie d’un million de watts pendant 5 milliardièmes de seconde. Cette énergie a transformé les atomes de la surface de la roche en un plasma brillant dont la lumière est riche d’enseignements. En la captant avec ses trois spectromètres, le ChemCam a engrangé toutes les informations nécessaires pour analyser la composition de Coronation.
Ce premier tir avait essentiellement pour but d’étalonner le CheCam sur le sol martien. Mais il pourrait aussi apporter des informations intéressantes. Les chercheurs qui vont analyser les données vérifieront l’évolution de la composition après chaque pulsation. Les changements, s’ils existent, permettront de connaître la composition de la roche en profondeur, sous sa surface.
Curiosity est donc désormais à pied d’oeuvre. Tout semble fonctionner à merveille, en particulier ce ChemCam, composant essentiel pour sa mission. Sur ses 6 roues, le rover va devoir gravir la distance qui le sépare du Mont Aegis, considéré comme un grand livre de l’histoire de Mars que le robot va devoir déchiffrer au cours des prochains mois.
Michel Alberganti
lire le billet
Baptisé “fumée solide” tant il est léger et translucide, ce matériau possède des propriétés assez stupéfiantes. Extrêmement résistant à la compression, il offre également une isolation thermique exceptionnelle qui le destine aussi bien aux engins spatiaux et aux combinaisons des cosmonautes qu’aux réfrigérateurs de demain. Imaginez que l’épaisseur des parties isolantes de ces derniers soit réduite à quelques millimètres. La place gagnée à l’intérieur, à volume extérieur constant, sera très appréciable.
Lors du 244ème congrès national de l’American Chemical Society qui se tient à Philadelphie du 19 au 23 août 2012, où ont été présentées hier les propriétés du resvératrol, Mary Ann B. Meador, du centre de recherche Glenn de la Nasa à Cleveland, Ohio, a exposé les derniers développements de cet aérogel qui a fait l’objet de la vidéo ci-dessus réalisée en 2008. A cette époque, il était présenté comme très fragile (faible résistance à la flexion), malgré sa résistance extrême à la compression. Aujourd’hui, les chercheurs montrent qu’ils ont réussi à le rendre flexible, ce qui lui ouvre de nouvelles applications, en particulier dans le domaine des vêtements.
Cet aérogel tire ses propriétés étonnantes de sa structure. Constitué de dioxyde de silicium, il est constitué de pores nanoscopiques, le secret de ses facultés isolantes près de 40 fois supérieures à celle des meilleures fibres de verre. La meilleure résistance à la conduction de chaleur est apportée par les bulles d’air. Plus elles sont petites moins la chaleur se propage facilement. Dans la vidéo, la scène du chalumeau est particulièrement explicite à cet égard.
Mary Ann Meador indique que l’aérogel flexible possède un pouvoir isolant 5 à 10 fois supérieur aux meilleurs matériaux actuels dans ce domaine. Ainsi, avec un peu plus de 5 mm d’épaisseur, il offre la même isolation que 75 mm de fibre de verre. Une sorte d’amiante de demain, la toxicité en moins. On imagine son intérêt pour les tentes ou les sacs de couchage. Mais la Nasa envisage aussi de l’utiliser pour ses systèmes de rentrée des vaisseaux spatiaux dans l’atmosphère dont une version gonflable a été testée récemment.
Michel Alberganti
lire le billetLa Terre, avec ses océans, ses forêts et ses autres écosystèmes, parvient encore à absorber 50% du carbone produit par les activités humaines, en particulier avec la combustion de carburants fossiles comme le pétrole ou le charbon. Ce résultat provient d’une étude publiée le 2 août 2012 dans la revue Nature par des scientifiques de l’université Boulder du Colorado et de la National Oceanic and Atmospheric Administration (NOAA). Nul doute qu’il s’agit là d’une bonne nouvelle qui démontre les formidables capacités de la Terre pour jouer un rôle d’amortisseur des variations de la composition de l’atmosphère. Ainsi, l’augmentation de l’effet de serre, principal responsable du réchauffement climatique, n’en déplaise aux sceptiques (voir commentaires d’un billet récent), reste décalée par rapport à celle de la concentration de CO2. La mauvaise nouvelle, c’est que 50% du carbone émis… reste dans l’atmosphère. Et toute la question est de savoir pendant combien de temps la Terre va continuer à être capable d’engloutir de telles masses de carbone. Les chercheurs ne répondent pas à cette interrogation mais ils assurent que le phénomène ne peut être éternel. Tout se passe comme si la planète nous donnait un délai de grâce.
Le résultat publié aujourd’hui signifie que l’augmentation de la concentration de CO2 dans l’atmosphère (représentée ci-dessus) serait nettement plus forte sans la part de 50% des émissions absorbée par la Terre. Il faut remarquer que ce phénomène s’est fortement accentué. “Par rapport à 1960, la planète absorbe deux fois plus de CO2”, note Ashley Ballantyne, principal auteur de l’étude publiée dans Nature. Pour autant, et le résultat publié aujourd’hui le montre, les scientifiques ne comprennent pas exactement comment la Terre effectue ce travail d’absorption massive et variable en fonction des quantités émises. D’où l’impossibilité de créer de nouveaux puits de carbone avec une garantie sur leur efficacité. “Comme nous ne savons pas pourquoi ni où le processus se produit, nous ne pouvons pas compter dessus, commente Pieter Tans, climatologue de la NOAA. Nous devons clarifier ce qui se passe afin de pouvoir améliorer nos projections sur les futures concentrations de CO2 et notre compréhension de la façon dont le changement climatique va évoluer dans l’avenir”.
Les effets de l’absorption du carbone par les océans, estimée au quart des émissions, se traduit par une acidification des eaux qui a des conséquences sur la vie marine, en particuliers sur les écosystèmes des récifs coralliens qui abritent 25% des espèces de poissons répertoriées sur la planète. “Plus les océans s’acidifient, plus il deviendra difficile pour eux d’absorber plus de carbone”, estime Pieter Tans qui précise néanmoins que le ralentissement de ce phénomène n’est pas encore perceptible. Des irrégularités apparaissent néanmoins avec une absorption qui s’est réduite dans les années 1990 avant d’augmenter entre 2000 et 2010. Cette instabilité pourrait être le signe des difficultés croissantes rencontrées par le mécanisme d’absorption. “Si nous conduisons à 150 km/h, la voiture va commencer à trembler et cliqueter en raison d’instabilités et cela signifie qu’il est temps de relâcher l’accélérateur”, explique Jim White, professeur à l’université Boulder. “C’est la même chose pour les émissions de CO2”.
La courbe de croissance de la concentration en CO2 sur une longue période (courbe de gauche) laisse néanmoins craindre que le moment pour les océans seront saturés en CO2 pourrait arriver assez vite. Les courbes ne laissent pas apparaître le moindre signe d’inflexion malgré la multiplication des “sommets de la Terre” au cours des dernières décennies. En 2010, 33,6 milliards de tonnes de CO2 ont été rejetées dans l’atmosphère et, en 2011, 34,8 milliards de tonnes. A ce rythme, la concentration en CO2 devrait atteindre les 400 parts par million (ppm) en 2016, contre 394 ppm aujourd’hui. Avant l’ère industrielle, cette valeur était de 280 ppm. Entre 1959 et 2010, 350 milliards de tonnes de carbone ont été relâchées dans l’atmosphère, ce qui correspond à environ 1000 milliards de tonnes de CO2. La nouvelle étude montre donc que seulement la moitié de cette quantité a été absorbée par la Terre. “Nous constatons déjà un changement climatique, note Caroline Alden, doctorante à l’université de Boulder. Si les puits naturels de carbone saturent, comme les modèles le prédisent, l’impact des émissions humaines de CO2 dans l’atmosphère doublera”.
Michel Alberganti
lire le billetQue vous vouliez atterrir sur la Terre, Mars, Vénus, Titan ou même sur les géantes gazeuses comme Jupiter, Saturne, Uranus ou Neptune, voilà ce qu’il vous faut ! Ce bouclier gonflable de 3 mètres de diamètre ralentira et protégera votre vaisseau lors de son entrée dans n’importe quelle atmosphère ! Léger et peu encombrant, c’est la protection idéale ! Telle pourrait être l’argument publicitaire pour l’IRVE-3 (Inflatable Reentry Vehicle Experiment) si… ce nouveau produit pouvait concerner de nombreux acheteurs. Mais ce n’est pas vraiment le cas, surtout en ces temps de restrictions budgétaires pour l’exploration spatiale. Le nouveau bouclier de la Nasa en forme de soucoupe volante pourrait servir plus souvent à revenir sur Terre qu’à accompagner des missions lointaines.
Cela n’a pas empêché l’agence spatiale américaine de tester son nouveau matériel le 23 juillet 2012 avec un vol de 20 minutes dans l’atmosphère terrestre à la vitesse hypersonique de 12 230 km/h. Il aura fallu, tout de même, une fusée à trois étages Black Brant pour réalisé cet essai qui a permis, après 6 minutes de vol, de faire déployer le bouclier de 310 kg à environ 462 km d’altitude au dessus de l’océan Atlantique.
Le système de gonflage a injecté de l’azote dans l’IRVE-3 pour qu’il se déploie tel un champignon. Ensuite, le bouclier est sa charge utile ont plongé vers la Terre et ont traversé la couche d’atmosphère d’environ 120 km d’épaisseur. Les ingénieurs du centre de Wallops ont suivi les opérations grâce à 4 caméras embarquées pour vérifier le bon déploiement du champignon et le maintien de sa forme malgré la pression de l’air et la température élevée provoquée par le frottement de l’air.
L’IRVE-3 est ensuite tombé dans l’océan au large des côtes de la Caroline du Nord où un navire de l’US Navy devait le récupérer. La NASA a consacré trois années aux développement de ce premier bouclier gonflable et prévoit d’en fabriquer d’autres, de plus grande taille. Notons qu’elle indique que les matériaux utilisés se trouvent dans le commerce. Un gage d’économie même si le kevlar est largement mis à contribution. Les boucliers gonflables pourraient être utilisé par les vaisseaux qui font la navette entre la Terre et la station spatiale internationale (ISS), faute, pour l’instant, d’atterrissage sur des planètes plus lointaines. A terme, ils devraient permettre à de plus gros engins spatiaux de traverser l’atmosphère. D’ici là, gageons que leur forme va occuper les chasseurs d’OVNI…
Michel Alberganti
lire le billetLe 4 juillet 2012, à 10h35, les applaudissements fusent dans la salle de conférence du Cern. Fabiola Gianotti, porte-parole de l’expérience Atlas, vient d’afficher sur son powerpoint les chiffres que tout le monde attend: la masse de la particule mystère et le taux de confiance dans les mesures effectuées.
126,5 giga-électronvolts (GeV); 5 sigma.
Ces deux chiffres signent officiellement une découverte.
Grâce à la plus grosse machine jamais construite sur Terre pour réaliser des expériences de physique, le LHC (Large hadron collider) de Genève, les physiciens viennent officiellement de découvrir une nouvelle particule. Elle a toutes les apparences de ce que la théorie prédisait sous l’appellation «boson de Higgs». S’agit-il bien d’elle, cette fameuse 25e particule? Pour Etienne Klein, physicien au CEA, tout semble converger dans ce sens.
«La nouvelle particule a tous les traits du boson de Higgs. Pour en être absolument certain, il faut poursuivre le dépouillement des données ce qui devrait être achevé d’ici la fin de 2012.»
Pourquoi cette nouvelle est-elle importante? Lire la suite sur Slate.fr.
Et vous pouvez écouter Science Publique du 6 juillet 2012 sur ce thème, sur France Culture:
Au CERN, à 10h35, mercredi 4 juillet 2012, lorsque Fabiola Gianotti annonce ses résultats applaudissements fusent : 126,5 giga-électronvolts, 5 sigma. Une nouvelle particule élémentaire de la matière a été découverte… Avec Jean Iliopoulos, physicien théoricien (ENS), Bruno Mansoulié (CEA), physicien expérimentateur, et Michel Davier, professeur de physique (Université Paris Sud).
Sans que nous en rendions compte, la Terre tourne de plus en plus lentement… Pas que quoi s’affoler toutefois. Pour rattraper le minuscule retard sur le jour solaire théorique de 24 heures, les horloges vont ajouter une seconde, ce soir, samedi 30 juin 2012. A 23:59:59, il sera donc 23:59:60 ou 00:00 dimanche 1er juillet. Contrairement aux horaires d’été et d’hivers, cela ne va pas bousculer notre emploi du temps ni notre rythme biologique. Mais cela révèle un phénomène très ancien qui fait partie de la vie de notre planète. Ainsi, du temps des dinosaures, le jour durait 23 heures au lieu de 24 heures. Mais c’était il y a au moins 65 millions d’années…
En fait, c’est en 1820 que la Terre effectuait une rotation complète en exactement 24 heures, soit 86 400 secondes. Depuis, son ralentissement s’est poursuivi et “le jour solaire s’est accru d’environ 2,5 millisecondes”, indique Daniel MacMillan du Goddard Space Flight Center de la NASA. Le phénomène n’était pas perceptible lorsque la définition de la seconde s’appuyait sur la durée d’un jour solaire. Mais en 1967, les scientifiques ont modifié cette définition en se fondant, désormais, sur les transitions électromagnétiques dans les atomes de césium. Les horloges atomiques étaient nées. Elles disposent d’une précision d’une seconde sur 1,4 million d’années et déterminent le temps universel coordonné (UTC) déconnecté de la rotation de la Terre.
Aujourd’hui, les scientifiques calculent la durée exacte d’une rotation de la Terre sur elle-même grâce à la technique VLBI (Very Long Baseline Interferometry) qui est exploitée à l’aide de multiples stations réparties sur le planète. Toutes pointent sur des objets célestes tels que des quasars situés extrêmement loin (plusieurs milliards d’années lumière) et, donc, pratiquement immobiles lorsqu’ils sont observés depuis la Terre. Le laboratoire Goddard de la Nasa se charge de la coordination de ces mesures et de leur traitement. C’est grâce à cette technique qu’il est possible de mesurer le ralentissement de la rotation de notre planète dû à la force de marée entre la Terre et la Lune.
Il va de soi que ce ajout d’une seconde n’est critique que pour des instruments ayant besoin d’une extrême précision dans la mesure du temps. Certains estiment que le coût de l’arrêt de tels systèmes qui permet d’ajouter la seconde en question n’est pas justifié et ils plaident pour laisser les horloges dériver au fil de ces infimes différences. Aucune décision dans ce domaine ne devrait être prise avant 2015. L’enjeu n’est pas tout à fait négligeable. Sans les corrections comme celle qui a lieu aujourd’hui, la dérive atteindrait tout de même 25 minutes dans 500 ans. Le saut de seconde du 30 juin 2012 est le 35ème à être réalisé et le premier depuis 2008.
Michel Alberganti
lire le billet
Derniers commentaires