Peindre les astéroïdes en blanc : une idée pour les détourner de la Terre…

Tandis que les astronomes et autres astrophysiciens s’interrogent sur le meilleur moyen de détourner un astéroïde menaçant la Terre, un diplômé du Massachusetts Institute of Technology (MIT) propose une stratégie originale. Nul besoin d’une bombe atomique enfouie par un Bruce Willis, ni de laser de l’espace ou de vaisseau tracteur. Pour Sung Wook Paek, qui travaille dans le département Aéronautique et Astronautique du MIT, de simples bombes de peinture suffiraient. De la peinture blanche… En effet, le chercheur explique que grâce à cette version spatiale du paintball, l’albédo de l’astéroïde serait doublée. Ainsi, l’énergie due à l’impact des bombes de peinture commencerait à dévier l’astéroïde. La pression des photons réfléchis par la surface blanche achèverait le travail !

On se demande pourquoi personne n’avait eu cette idée auparavant… Sans doute parce que ce n’est pas aussi simple. Néanmoins, Sung Wook Paek a reçu le prix du meilleur article technique lors de la compétition “Fais bouger un astéroïde 2012” organisée à Naples en octobre 2012. L’article du jeune chercheur utilise Apophis comme exemple. Cet astéroïde fait partie des géocroiseurs qui pourrait menacer la Terre. Ses prochains passage près de chez nous sont prévus pour 2029, et, surtout, en 2036, où il se rapprochera sensiblement. Avec une masse de 27 mégatonnes pour un diamètre de 270 mètres environ, nul doute que son impact sur Terre aurait des conséquences désastreuses.

5 tonnes de peinture

Sung Wook Paek a utilisé la période de rotation de l’astéroïde, environ 30 heures, pour le calcul du moment de lancement des boules de peinture. Celles-ci seraient envoyées en deux vagues afin d’atteindre les deux faces d’Apophis. Au contact, les boules explosent et déposent sur la surface une couche de peinture de 5 microns d’épaisseur. Cinq tonnes de peintures suffiraient pour couvrir la totalité de la surface d’Apophis. Les boules seraient lancées à partir d’un vaisseau spatial croisant à proximité.

20 ans de délais

D’après les calculs de Sung Wook Paek, il faudrait 20 années d’effets cumulés des rayons solaires sur sa surface blanche pour détourner Apophis de sa trajectoire. Une durée qui n’est pas incompatible avec la fréquence des passages de l’astéroïde près de la Terre. Bien que ce soit raté pour 2029. En revanche, il suffirait d’exécuter le plan de Sung Wook Paek en 2016 pour qu’Apophis soit dévié en 2036. Pour l’instant, toutefois, il semble que les probabilités d’impact soient très faibles pour cette date. Néanmoins, l’opération peinture blanche permettrait de mieux suivre l’évolution d’Apophis dans le système solaire et d’améliorer ainsi la précision du calcul de sa trajectoire.

Bientôt, peut-être, de nouveaux objets célestes seront visibles dans le ciel : les astéroïdes peints en blanc.

Michel Alberganti

A ce sujet, vous pouvez (ré) écouter l’émission Science Publique que j’ai animée le vendredi 26 octobre 2012 sur France Culture :

Espace

26.10.2012 – Science publique
Un astéroïde peut-il provoquer la fin du monde? 57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

La fin du monde, que certains prévoient pour le 21 décembre 2012 à partir d’une interprétation du calendrier maya,pourrait-elle être provoquée par une collision entre un astéroïde géant et la Terre ? Nous en débattons avec nos invités : jean-Pierre Luminet, astrophysicien,Patrick Michel,astrophysicien et David Bancelin, astronome.

 


lire le billet

Procès de L’Aquila : une confusion dans les responsabilités ?

Le 6 avril 2009, un séisme de magnitude 6,3 a fait 309 victimes parmi la population de cette ville italienne d’Aquila dans les Abruzzes.  Un article rédigé par le sismologue Max Wyss, directeur de l’agence mondiale de suivi planétaire et de réduction du risque sismique (WAPMERR), installée à Genève, et publié dans la revue Earth le 26 octobre 2012 éclaire la communication officielle qui a précédé le drame. Elle jette également un nouveau jour sur la sentence prononcée le 22 octobre 2012 par le juge Marco Billi qui a condamné 7 personnes à  6 ans de prison ferme et 7,8 millions d’euros de dommages et intérêts à verser solidairement aux parties civiles. Après la première réaction que peut susciter un tel verdict, il est maintenant possible de préciser les rôles des 7 condamnés dans ce drame. Pour cela, il est important de préciser les fonctions de chacun des “sept de L’Aquila”, comme ils sont désormais appelés :

– Franco Barberi : volcanologue ayant une longue expérience en protection civile

– Enzo Boschi : alors vice-président de l’Institut national de géophysique et de volcanologie (INGV)

– Gian Michele Calvi : président du Centre européen pour la recherche et la formation sur l’ingénierie des tremblements de terre à Pavie

– Bernardo De Bernardinis : alors directeur adjoint du Département de la protection civile, ingénieur en mécanique des fluides

– Mauro Dolce : chef du bureau des risques sismiques au Département national de la protection civile à Rome.

– Claudio Eva : professeur à l’université de Gênes.

– Giulio Selvaggi : directeur de l’INGV

Ces sept personnes faisaient partie de la Commission italienne des risques majeurs chargée d’évaluer les risques d’un séisme important dans la région de L’Aquila. Cette évaluation était motivée par une succession de centaines de séisme de faibles magnitudes survenus dans cette zone au cours du mois de mars 2009. Toute la question était de déterminer si cette série de secousses pouvait annoncer un séisme majeur ou non. La Commission, dirigée par Franco Barberi, comprenait trois véritables sismologues : Enzo Boschi, Claudio Eva et Giulio Selvaggi qui n’était pas un membre effectif de la Commission mais devait y présenter des données sismologiques.

L’article de Max Wyss retrace la chronologie des faits qui se sont déroulé le 31 mars 2009, quelques jours avant le séisme du 6 avril. Pour cela, il distingue trois temps.

Premier acte: les déclarations avant la réunion de la Commission des risques majeurs

Au sein des sept de L’Aquila, Bernardo De Bernardinis joue un rôle particulier. Une heure avant la réunion du 31 mars, il répond à une interview d’une chaîne de télévision locale affirmant que “la situation sismique de L’Aquila est certainement normale et ne présente pas de danger”. Et il aggrave encore son diagnostic en déclarant : “La communauté scientifique continue de m’assurer que, au contraire, la situation est favorable en raison de la décharge continue d’énergie”. Il fait ainsi référence aux centaines de tremblements de terre mineurs du mois de mars. Pour lui, ces phénomènes réduisent le risque d’un séisme majeur en raison de l’affaiblissement des contraintes sismiques qu’ils engendrent.

Pour Max Wyss, cette affirmation est “scientifiquement inexacte”. Le sismologue indique en effet qu’il existe une énorme différence d’énergie entre les petits tremblement de terre et les séismes majeurs. “La déclaration de De Bernardinis reviendrait à dire, à une moindre échelle, que le fait de retirer quelques tonnes d’eau dans la mer pourrait réduire le risque d’un tsunami”, explique-t-il. Pourtant, les propos de Bernardo De Bernardinis sont apparus comme essentiels lors du procès.

Un article paru dans la revue Nature du 14 septembre 2011 témoigne de l’impact de ces déclarations rassurantes sur la population. Elles engendrent alors un énorme soulagement: “Plus il y a de secousses, moins il y a de danger”. Cette assurance va jusqu’à altérer les habitudes locales lors des tremblements de terre. Les habitants de L’Aquila avait en effet coutume de sortir de leur maison pendant les secousses et même, parfois, de passer la nuit dehors. En raison des propos de Bernardo De Bernardinis, certains ont décidé de rester à l’intérieur des maisons ce qui a pu se révéler fatal le 6 avril.

Deuxième acte : la réunion de la Commission des risques majeurs du 31 mars 2009

Pendant que Bernardo De Bernardinis faisait ces déclarations, les trois sismologues devant participer à la réunion de la Commission des risques majeurs étaient… en route pour s’y rendre. Lorsqu’ils sont arrivés, il ont participé à la réunion, sans doute sans connaître les déclarations précédentes. La réunion dura exactement une heure, selon Max Wyss.  Enzo Boschi y déclare : “Il est peu probable qu’un séisme tel que celui de 1703 se produise à court terme, mais la possibilité ne peut être totalement écartée”.  En 1703, un séisme majeur avait tué 3000 personnes à L’Aquila. Claudio Eva, de son coté, déclare que “dans la région sismiquement active de L’Aquila, il n’est pas possible d’affirmer qu’un tremblement de terre ne va pas se produire”. Quant à Giulio Selvaggi, il précise que “bien que certains récents tremblements de terre aient été précédés par de petites secousses, il est également exact que, parfois, de telles séquences n’ont pas conduit à un important séisme”.

Tout est dit. Pour les sismologues, il est impossible à la fois d’être certain qu’un séisme majeur va se produire et d’écarter un tel risque. Cela signifie clairement que la science ne peut se prononcer clairement dans cette situation. Autrement dit, le risque ne peut, en aucun cas, être considéré comme nul.

Troisième acte : les déclarations après cette réunion

Après cette courte réunion de la Commission des risques majeurs, une conférence de presse se tient à L’Aquila. Avec les sismologues ? Non. Ils n’y ont pas été conviés et sont déjà repartis vers Rome. Ils ne sont même pas au courant…  Il semble que Bernardo De Bernardinis n’ait pas souhaité qu’ils soient présents. Il n’a pas, non plus, corrigé ses propos trop optimistes lors de cette conférence de presse. Alors même qu’il venait d’entendre l’avis des sismologues.

Max Wyss note que la cour qui a prononcé le verdict du 22 octobre n’a fait aucune distinction entre les accusés. Il semble pourtant que leurs rôles ne soient pas du tout identiques dans cette affaire.

Michel Alberganti

lire le billet

Séisme d’Aquila: De la stupidité du verdict condamnant les experts

L'Aquila, le 8 avril 2009. REUTERS/Alessandro Garofalo

Les villes risquent d’être plus souvent évacuées qu’habitées. A la moindre alerte, séisme, tempête, crue, canicule ou épidémie de grippe, nous irons tous aux abris. Pour y rejoindre les experts.

Si le jugement du tribunal de l’Aquila est confirmé, en Italie, les prochains experts nous enverront systématiquement aux abris à la moindre alerte.
Le 22 octobre 2012, Franco Barberi, Enzo Boschi, Mauro Dolce, Bernardo De Bernardinis, Giulio Selvaggi, Claudio Eva et Gian Michele Calvi ont en effet été condamnés à six ans de prison ferme et à l’interdiction de tout office public pour homicide involontaire.Leur faute? Ne pas avoir alerté la population, avant le 6 avril 2009, de l’imminence d’un tremblement de terre. Ce jour-là, un séisme de magnitude 6,3 sur l’échelle de Richter s’est produit près de L’Aquila et a fait 309 victimes et plus de 50.000 sans-abri.

Lire la suite…

Michel Alberganti

 

lire le billet

Environ 23 centrales nucléaires sont sous la menace d’un tsunami

Après la catastrophe nucléaire de Fukushima provoquée par le tsunami qui a dévasté le nord-est du Japon le 11 mars 2011, on pouvait se douter que d’autres centrales couraient le même risque dans le monde. Encore fallait-il les identifier. C’est le travail qu’une équipe dirigée par des chercheurs espagnols a réalisé. Résultat: quelque 23 centrales comprenant 74 réacteurs nucléaires sont implantées dans des zones “potentiellement dangereuses” vis à vis des tsunamis, dans la mesure où ces phénomènes restent difficiles à prévoir.

Dans l’étude publiée dans la revue Natural Hazards, les chercheurs dénombrent 13 centrales en activité abritant 29 réacteurs parmi les 23 centrales à risque. Quatre autres, avec 20 réacteurs, sont en cours d’extension pour disposer de 9 réacteurs supplémentaires. Enfin, 7 centrales, avec 16 réacteurs, sont en cours de construction. (Soit 24 centrales au total et non 23 comme annoncé par les chercheurs…).

Première cartographie mondiale

“Il s’agit de la première vision de la distribution mondiale des réacteurs de centrales nucléaires civiles situées sur une côte et exposées aux tsunamis”, indique José Manuel Rodríguez-Llanes, coauteur de l’étude au Centre de recherche sur l’épidémiologie des désastres (CRED) à l’université catholique de Louvain, en Belgique. Les chercheurs ont utilisé des données historiques, archéologiques et géologiques ainsi que des relevés de mesures pour établir les risques de tsunamis.

Les zones géographiques côtières concernées sont très étendues : l’ouest du continent américain, la côte atlantique de l’Espagne, du Portugal et de l’Afrique du nord, l’est de la Méditerranée, certaines partie de l’Océanie et, surtout, le sud et le sud-est de l’Asie. Ainsi, la Chine se trouve particulièrement visée du fait de sa forte expansion nucléaire actuelle. Pas moins de 27 des 54 réacteurs en cours de contruction dans le monde s’y trouvent.

19 réacteurs en Chine et 19 au Japon

“Le fait le plus important est que 19 réacteurs, dont 2 à Taiwan, sur les 27 en construction en Chine sont dans des zones dangereuses”, notent les auteurs. Au Japon,  les chercheurs ont identifié 19 réacteurs à risque, dont l’un est en cours de construction. La Corée du sud est en train d’étendre deux centrales à risque avec 5 réacteurs. Deux réacteurs en Inde et un au Pakistan pourraient également subir des tsunamis.

Joaquín Rodríguez-Vidal, auteur principal et chercheur au département de paléontologie et de géodynamique de l’université de Huelva, souligne que “les implications des choix d’implantation des centrales nucléaires ne concernent pas uniquement les Etats qui les font mais également ceux qui pourraient être touchés par les fuites radioactives”. Et de remarquer que, depuis le tsunami de 2004, les régions de l’Océan indien n’ont pas pris de décisions politiques dans ce domaine.

La leçon de Fukushima

Le drame de Fukushima s’est produit dans un pays techniquement en pointe et doté d’infrastructures modernes. Il aurait sans doute eu des conséquences encore plus graves s’il s’était produit dans un Etat moins développé. Les chercheurs recommandent donc de réaliser des analyses locales qui prennent en compte le risque sismique et celui d’un tsunami afin de déterminer l’adaptation nécessaire des centrales mentionnées dans leur étude.

Un tel conseil aurait pu paraître saugrenu avant Fukushima, tant l’on pouvait alors être persuadé que toutes les mesures anti-tsunami avaient bien été prises. Surtout dans un pays comme le Japon qui vit sous la menace permanente d’un séisme majeur. Désormais, nous savons que l’une des premières puissances économiques mondiales est capable de ne pas protéger efficacement ses centrales contre un tsunami. D’où l’importance de cette nouvelle étude. Mais sera-t-elle suivie d’effets ?

Michel Alberganti

lire le billet

Un expert prédit la disparition de la glace d’été en Arctique d’ici 4 ans

Peter Wadhams, de l’université de Cambridge, prédit que la glace d’été, en Arctique, aura totalement disparu d’ici 4 ans. Dans un email adressé au journal The Guardian qui en a rendu compte le 17 septembre 2012, il écrit: “Le changement climatique n’est plus un phénomène au sujet duquel il faut faire quelque chose d’ici quelques décennies”. Pour lui, il n’est même plus question de réagir en tentant de réduire nos émissions de CO2. Il estime qu’il faut passer à la vitesse supérieure et s’en remettre aux techniques de géo-ingénierie. Parmi ces dernières, on trouve l’envoi de particules dans l’atmosphère pour réfléchir les rayons du soleil, le fait de rendre les nuages plus blancs ou de répandre dans les océans des minéraux capables d’absorber plus de CO2. En gros, l’heure n’est plus aux mesures passives mais à l’action, même si celle-ci est fortement soupçonnée de provoquer des catastrophes pires que celles du réchauffement climatique.

2012, en recul de 500 000 km2 sur 2007

Peter Wadhams s’est illustré, au cours des dernières années, grâce à la précision de ses prédictions concernant l’évolution des glaces en Arctique. Il a passé des années à en mesurer l’épaisseur dans des sous-marins. C’est ainsi qu’il avait annoncé une rupture de la glace d’été pour 2007, année où la surface de cette glace e effectivement atteint un minium historique de 4,17 millions de km2. En 2012, ce record sera battu avec une réduction de plus de 500 000 km2 supplémentaires avec une surface de seulement 3,5 millions de km2.

Plus de glace vers 2015-2016

Pour Peter Wadhams, ce phénomène est une conséquence directe du réchauffement climatique. “Il y a moins de glace qui se crée en hivers et plus de glace qui fond en été”, précise-t-il. Le point de rupture final survient lorsque la fonte de l’été dépasse le gel de l’hiver. “J’avais prédit que cette rupture se produirait vers 2015-2016. L’océan arctique en été (août à septembre) sera alors totalement libre de glace. Nous assistons aujourd’hui au début de cette rupture qui devrait être achevée aux environs de ces dates”. D’ici 4 ou 5 ans, donc, plus de glace d’été en Arctique…

Le dégel du permafrost

Est-ce dramatique ? Pour Peter Wadhams, c’est “épouvantable”. Aux conséquences positives sur le transport et l’accès au pétrole et au gaz, s’opposent les effets sur le réchauffement climatique. C’est à dire une accélération. “Lorsque la glace disparaît en été, l’océan se réchauffe (de 7°C en 2011) et il augmente la température des côtes. Le plateau continental de l’Arctique est composé de permafrost, des sédiments gelés depuis le dernier âge glaciaire. Lorsque l’eau de l’océan réchauffe ces sols, le permafrost dégèle et libère d’énormes quantités de méthane emprisonné. Ce puissant gaz à effet de serre donnera un coup d’accélérateur au réchauffement climatique”.

Jean Jouzel “sceptique”

Un tel scénario catastrophe dans la bouche d’un expert peut faire… froid dans le dos. Interrogé par Globule et télescope, le glaciologue Jean Jouzel se déclare “sceptique vis à vis des propos de Peter Wadhams” au sujet du délai de 4 ans. Il a plutôt tendance à suivre les chercheurs qui “tablent sur une vingtaine d’années”. Un délai supplémentaire pas si long. Sera-t-il suffisant pour que nous réagissions ? Et comment réagir ?

Michel Alberganti

lire le billet

La bombe atomique du climat : faisable et rentable…

Ce serait la solution du désespoir pour le cas où le réchauffement climatique atteindrait des niveaux insupportables, selon le conseiller scientifique du président Obama, John P. Holdren. Sorte de bombe atomique du climat, la géo-ingénierie consiste à expédier dans la stratosphère terrestre des particules à base de souffre pour réduire la quantité de lumière solaire parvenant sur la Terre. Une sorte de filtre anti-réchauffement qui s’inspire de la nature. En effet, les grandes irruptions volcaniques du passé ont provoqué des refroidissements planétaires engendrés par les particules rejetées. Si un volcan peut le faire, pourquoi pas l’homme ? Surtout s’il est Américain.

L’idée n’est pas nouvelle et l’on pouvait même la croire enterrée, tant elle suscite de critiques de la part des climatologues. La mise en pratique de la géo-ingénierie serait  la version climatique de l’apprenti-sorcier. Réduire la quantité de lumière solaire parvenant sur la Terre peut en effet avoir des effets totalement imprévisibles sur les équilibres climatiques terrestres et engendrer des catastrophes naturelles bien plus graves que celles du réchauffement lui-même. Le médicament pourrait tuer le malade…

5 milliards de dollars par an

Toutes ces considérations n’ont pas empêché Justin McCLellan (Aurora Flight Science Corporation), David Keith (université d’Harvard) et Jay Apt (université de Carnegie Mellon) d’évaluer la faisabilité et de chiffrer cette solution. Juste histoire de voir… Résultat: la géo-ingénierie est à la fois faisable et rentable. Leur étude, publiée dans la revue Environmental Research Letters de l’Institut de Physique (IOP) britannique du 31 août 2012, porte sur l’injection d’un million de tonnes d’aérosols par an à des altitudes comprises entre 18 et 25 km. Coût estimé: 5 milliards de dollars par an. Une bagatelle comparée au coût de la réduction des émissions de CO2 estimé, lui, entre 200 et 2000 milliards de dollars pour 2030.

Avion spécialisé

Forts de ce constat encourageant, les chercheurs ont analysé les technologies exploitables pour transporter et répandre ce million de tonnes de poussières. Comme par hasard, alors qu’un représentant d’un fabricant d’avions sans pilote, Aurora Flight Science, fait partie de l’équipe, c’est justement la solution aéronautique qui se révèle la plus économique. Moins coûteuse que l’adaptation d’un avion existant, la construction d’un aéronef dédié au vol à très haute altitude et capable de disperser les particules reviendrait entre 1 et 2 milliards de dollars par an. Les canons et les fusées seraient, eux, beaucoup trop onéreux car non réutilisables. En fait, ce qui serait encore plus économique que l’avion spécialisé, ce serait une sorte de pipeline aérien de 20 km de long maintenu en l’air par des ballons gonflés à l’hélium…

Les trois chercheurs prennent toutes les précautions nécessaires en précisant que leur étude est purement économique et qu’elle ne prend pas en compte les impacts climatiques de cette solution. Du coup, elle est incapable de déterminer si les dégâts causés par la “solution” ne reviendraient pas plus chers que ceux du réchauffement climatique lui-même. Ce qu’il faudrait démontrer…

Polluer en paix

Une telle étude est probablement révélatrice de l’état d’esprit général des Américains vis à vis de la question climatique. Avec une opinion publique peu convaincue de la responsabilité de l’homme dans le réchauffement, ils s’accommoderaient volontiers d’une solution leur permettant de poursuivre leurs émissions massives de CO2 dans l’atmosphère tout en évitant une augmentation de la température du globe. Continuer à polluer en paix, en somme.

Michel Alberganti

lire le billet

Sous les glaces de l’Antarctique, d’énormes quantités de méthane…

Publiée dans la revue Nature du 30 août 2012, l’étude de Jemma Wadham, de l’école de géographie de l’université de Bristol et de Slawek Tulaczyk, professeur de sciences de la terre à l’université de Californie Santa Cruz, fait l’effet d’une bombe potentielle. Au sens propre. Le projet des deux chercheurs, lancé lors d’une discussion il y a 5 ans, les a conduit à simuler l’évolution des bassins sédimentaires qui se sont formés à la surface de l’Antarctique avant la période qui a couvert ce continent de glaces, il y a 35 millions d’années. Auparavant, la vie grouillait au pôle Sud. Les plantes et les animaux se sont accumulés au cours des millions d’années précédants. Sous la glace, les microbes ont transformé ce carbone organique en CO2 et en méthane. En quantités énormes.

Les chercheurs estiment que 50% de la partie Ouest (1 million de km2) et 25% de la partie Est (2,5 millions de km2) de la calotte polaire de l’Antarctique recouvrent des bassins de sédiments pré-glaciaires. Ces régions concentreraient ainsi pas moins de 21 000 milliards de tonnes de carbone organique. Jemma Wadham note que cela représente 10 fois le stock de carbone piégé dans le permafrost des régions nordiques. D’après ses expériences en laboratoire, ce carbone est probablement métabolisé par les microbes. Les chercheurs ont simulé numériquement cette accumulation de méthane. Ils ont ainsi découvert que les conditions sont favorables à la création d’hydrate de méthane, c’est à dire du méthane piégé dans la glace.

D’après les calculs basés sur ces simulations, la quantité de méthane sous forme d’hydrates ou de gaz pourrait atteindre 4 milliards de tonnes, soit un ordre de grandeur identique aux estimations du méthane piégé dans le permafrost des régions Arctiques. La relative faible profondeur des réservoirs de l’Antarctique les rend plus susceptibles de libérer leur méthane dans l’atmosphère que les autres (Arctique et fonds marins). Sandra Arndt, de l’université de Bristol, co-auteur de l’article, note qu’il “n’est pas surprenant que des quantités significatives de méthane soient piégées sous la calotte polaire de l’Antarctique. Comme pour les sédiments situés sous le fond des mers, il y fait froid et la pression est élevée. Des conditions nécessaires à la formation des hydrates de méthane.

L’inquiétude vient, comme pour l’Arctique, du réchauffement de la calotte polaire de l’Antarctique qui se traduit par des ruptures de la glace. Le risque est que ces rupture libèrent le méthane piégé. Ce qui aurait un fort effet d’accélération du réchauffement climatique. Le méthane est en effet un gaz à effet de serre environ 20 fois plus puissant que le CO2.

Ces prévisions sont issues de simulations. On sait que les modèles mathématiques ont une précision plutôt faible en ce qui concerne l’évolution du climat des pôles. Mais, jusqu’à présent, les erreurs ont toujours été dans le sens d’une sous-estimation de la vitesse de réchauffement de ces régions…

Michel Alberganti

lire le billet

98% des Canadiens pensent qu’un changement climatique est en cours

L’étude publiée par l’ONG International Performance Assessment Centre for Geologic Storage of Carbon Dioxide (IPAC-CO2), le 15 août 2012, révèle que seulement 2% des Canadiens ne croient pas qu’un changement climatique est en train de se produire. Ce résultat confirme celui de 2011. “Les Canadiens sont concernés par les problèmes tels  que les événements météorologiques extrêmes, les sécheresses ou le changement climatique”, note Carmen Dybwad, PDG d’IPAC-CO2.

Ce résultat est nettement meilleur que celui qu’Ipsos a enregistré en France en janvier 2010,  un mois après le sommet de Copenhague. Le sondage réalisé alors montrait que 84% des Français croyaient à la réalité du réchauffement climatique. Ce chiffre reste sensiblement supérieur à celui qui a été mesuré en 2011 aux Etats-Unis par l’université de Yale qui s’était alors penchée sur les différences de perception en fonction des préférences politiques des personnes interrogées. Ainsi, 78% des Démocrates et 53% des Républicains estimaient qu’un réchauffement climatique se produit.

Cette adhésion relativement massive au changement climatique masque des différences importantes quant aux causes de ce phénomène. Même au Canada. Ainsi, 54% des Canadiens estiment que le changement climatique est partiellement dû aux activités humaines et partiellement à des variations climatiques naturelles et 32% qu’il est uniquement dû aux activités humaines. Seuls 9% jugent qu’il provient uniquement de variations climatiques naturelles.

La division des Canadiens est également importante en matière de solutions pour limiter le changement climatique. Pour 35% d’entre eux, les priorités concernent la promotion de voitures plus propres fonctionnant à l’électricité ou à des carburants à faible émission de carbone. Seulement 16% ont favorable à une taxation générale sur l’émission de CO2. Au sujet du stockage du CO2, 59% de Canadiens estiment qu’il devrait être obligatoirement prévu lors de la construction de nouvelles centrales au charbon ou au gaz naturel. Mais le pourcentage de ceux qui ne sont pas sûr qu’ils tireraient profit de la capture et du stockage du carbone est passé de 42% en 2011 à 48% en 2012. Ces résultats sont des moyennes qui masquent d’assez importantes différences suivant les régions où habitent les Canadiens.

On note donc que, malgré les sommets et autres conférences internationales, la prise de conscience du changement climatique et, surtout, de ses causes humaines, progresse lentement. Le Canada, qui devrait faire partie des pays pouvant tirer profit d’un réchauffement grâce à la fonte de la banquise ouvrant des voies de navigation au Nord et permettant d’exploiter le sous-sol, reste en tête des pays sensibilisés à la nécessité de réduire ce réchauffement en agissant sur les émissions humaines de CO2. De quoi confirmer la fibre écologique particulière des Canadiens.

Michel Alberganti

lire le billet

La glace de l’Arctique fond beaucoup plus vite que prévu

Un article publié dans le quotidien anglais The Guardian le 11 août 2012 révèle que 900 km3 de glace ont disparu de l’océan Arctique par rapport à l’an dernier. Cette donnée révèle un taux de perte de la calotte glaciaire 50% plus fort que celui que les scientifiques prenaient en compte jusqu’à présent. Ce constat provient des mesures effectuées par le satellite CryoSat-2 lancé par l’Agence spatiale européenne (ESA)en 2010, spécialisé dans le mesure de l’épaisseur des glaces polaires. Le volume de glace de mer dans la partie centrale de l’Arctique serait ainsi passée 17 000 km3 au cours de l’hivers 2004 à 14 000 km3 cet hivers, selon les mesures effectuées par le satellite.

Plus aucune glace en été

A ce volume réduit en hivers, s’ajoute une fonte plus forte en été. Seymour Laxon, chercheur du Centre pour les observations et les modélisations polaires (CPOM) à l’Université College London (UCL) qui traite les données fournies par CyoSat-2, indique que “les analyses préliminaires montrent que le taux de réduction du volume de glace en Arctique semble beaucoup plus élevé que prévu”. Selon The Guardian, il ajoute: “Très bientôt, nous pourrions vivre ce moment symbolique où, un jour d’été, les images satellites ne montreront plus aucune glace sur l’Arctique, juste de l’eau liquide”.

Moins 50% en 8 ans

Déjà, les glaces de mer en été sont passées d’un volume de 13 000 km3 en 2004 à 7 000 km3 en 2012, soit une réduction de près de 50% en 8 ans. A la vitesse de 900 km3 de glace fondue de plus chaque année, il faudrait moins de 10 ans pour atteindre la disparition totale des glace en été. Seymour Laxon a beau appeler à la prudence en raison du caractère préliminaire des résultats de CryoSat ainsi que d’éventuelles modifications de l’évolution du taux de fonte au cours des prochaines années, il est difficile de ne pas constater que ces nouvelles mesures vont dans le sens des précédentes. Toutes les prévisions concernant l’évolution de la calotte glaciaire arctique se sont révélées trop optimistes, c’est à dire qu’elles ont sous-estimé le phénomène, preuve que les modèles climatiques actuels ne sont pas bien adaptés au cas particulier des pôles.

Le spectre du méthane

Si les mesures de CryoSat-2 sont confirmées, elles sonneront une nouvelle fois l’alerte au réchauffement climatique. Mais il ne s’agira plus d’un problème pour les générations futures ou pour la fin du siècle. La disparition des glaces couvrant l’Arctique en été pourraient avoir des conséquences très importantes sur le climat et la météo des prochaines décennies. En effet, moins de glace induit un changement d’albédo de la surface terrestre qui favorise son échauffement (la mer ou la terre absorbent plus de chaleur que la glace dont la couleur blanche réfléchit les rayons solaires). Un réchauffement du pôle Nord réduira la différence de température avec l’Equateur ce qui influencera les grands courants aériens (jet stream) en rendant la météo plus instable. Le réchauffement de océans favorisera les relâchements dans l’atmosphère du méthane stocké au fond des océans. Or, le méthane a un impact beaucoup plus fort sur l’effet de serre que le CO2…

Si la glace de l’Arctique est un indicateur du réchauffement climatique, elle en est également un acteur important. Lorsque la Nasa a révélé que 97% de la surface des glaces du Groenland s’est mise à fondre en juillet 2012, certains ont pu comprendre qu’il ne restait que 3% de la surface couverte par les glaces. C’était faux, bien entendu, en 2012…

Michel Alberganti

 

 

lire le billet

97% des glaces du Groenland se sont mises à fondre… en 4 jours

Les satellites, et surtout les scientifiques de la Nasa qui ont analysé leurs images, n’en sont pas revenus. En 30 ans d’observation, jamais le Groenland n’avait fondu à une telle vitesse. En 4 jours, la calotte glaciaire intacte du “pays vert” a perdu 97% de sa surface… Les mesures effectuées par trois satellites montraient, le 8 juillet 2012, que 40% de la calotte glaciaire avait déjà fondu. Mais le 12 juillet, quatre jours plus tard, c’est donc 97% de sa surface qui fondait. Cela paraît d’autant plus extraordinaire que l’épaisseur de la glace, au centre de l’île, atteint les 3 km en hivers, saison où la calotte (inlandsis) couvre 80% de la surface du Groenland. Normalement, en été, seulement 50% de l’inlandsis fond. Et, à haute altitude (le Groenland a des sommets entre 3000 et 4000 m), l’eau regèle sur place. Cette année, la fonte est si importante que les chercheurs se demandent quelle quantité d’eau va réellement s’écouler dans l’océan et quel impact cela pourra avoir sur le niveau des mers sur la planète. Il faut toutefois préciser que la glace n’a pas disparu de la surface du Groenland. Les zones rouges de la carte ci dessus montrent les zones qui fondent. La zone blanche est celle de la zone qui ne fond pas et c’est celle-là qui ne représente plus que 3% de la surface couverte en hivers.

Un couvercle d’air chaud

” C’est si extraordinaire que, pour la première fois, je me suis interrogé sur le résultat des mesures en me demandant s’il ne s’agissait pas d’une erreur”, note Son Nghiem du Jet Propulsion Laboratory (JPL) de la Nasa à Pasadena. Les météorologistes indiquent que cette fonte est liée à un front d’air chaud qui forme une sorte de couvercle sur le Groenland. Cela rappelle la canicule de 2003 en France qui résultait d’un phénomène similaire. Le front d’air chaud actuel n’est pas le premier. Depuis mai 2012, plusieurs se sont formés sur le Groenland. “Chacun d’entre eux s’est révélé plus fort que le précédent”, remarque Thomas Mote, climatologue de l’université de Géorgie. Le dernier en date a commencé à arriver sur le Groenland le 8 juillet et s’est stabilisé sur le calotte glaciaire le 11 juillet avant de se dissiper à partir du 16 juillet.

Un phénomène qui se produit tous les 150 ans…

Même la glace située dans la région de la station Summit, à 3000 mètres d’altitude dans le centre de l’île, a commencé à fondre. Cela ne s’était pas produit depuis 1889, selon les carottes de glace analysées au Darthmouth College de Hanovre. Ces carottes indiquent qu’une fonte comme celle de cette année ne survient que tous les 150 ans en moyenne. Ce phénomène exceptionnel pourrait donc s’inscrire dans le cycle naturel de cette région. Sauf s’il se reproduisait l’année prochaine. Dans ce cas, le mot qui est dans tous les esprits, mais que la Nasa ne cite guère, c’est à dire le réchauffement climatique, pourrait bien se révéler être la cause de cette fonte ultra rapide de l’inlandsis du Groenland. D’ici là, il faudra mesurer l’impact de toute cette eau polaire sur le niveau des mers. La rupture, la semaine dernière, d’une partie du glacier Petermann grande comme la ville de Paris avait déjà donné l’alerte au réchauffement et à la montée des eaux.

 

Michel Alberganti

Note : Quelques informations sur la calotte glaciaire du Groenland à la suite de certains commentaires sur cet article :

– Son épaisseur moyenne est de 2,3 km avec un maximum d’environ 3 km en son centre.
– Ses glaces les plus anciennes dateraient de 110 000 ans.
– Sa surface est d’environ 1,8 million de km2 et son volume est de 2,9 millions de km3.
– Il s’agit du plus grand réservoir d’eau douce de la planète après l’inlandsis de l’Antarctique qui rassemble 70% de l’eau douce présente sur Terre.
– Si toute la glace du Groenland fondait, le niveau des mers s’élèverait de 7,3 mètres.
– Si toute la glace de l’Antarctique fondait, le niveau des mers s’élèverait de 56,6 mètres.

Sources:
http://www.esa.int/esaEO/SEMILF638FE_planet_0.html
http://www.iceandwater.gl/
http://www.mpimet.mpg.de/en/news/press/faq-frequently-asked-questions/how-much-will-the-sea-level-rise.html
Et, bien sûr, Wikipédia…


lire le billet