Un expert prédit la disparition de la glace d’été en Arctique d’ici 4 ans

Peter Wadhams, de l’université de Cambridge, prédit que la glace d’été, en Arctique, aura totalement disparu d’ici 4 ans. Dans un email adressé au journal The Guardian qui en a rendu compte le 17 septembre 2012, il écrit: “Le changement climatique n’est plus un phénomène au sujet duquel il faut faire quelque chose d’ici quelques décennies”. Pour lui, il n’est même plus question de réagir en tentant de réduire nos émissions de CO2. Il estime qu’il faut passer à la vitesse supérieure et s’en remettre aux techniques de géo-ingénierie. Parmi ces dernières, on trouve l’envoi de particules dans l’atmosphère pour réfléchir les rayons du soleil, le fait de rendre les nuages plus blancs ou de répandre dans les océans des minéraux capables d’absorber plus de CO2. En gros, l’heure n’est plus aux mesures passives mais à l’action, même si celle-ci est fortement soupçonnée de provoquer des catastrophes pires que celles du réchauffement climatique.

2012, en recul de 500 000 km2 sur 2007

Peter Wadhams s’est illustré, au cours des dernières années, grâce à la précision de ses prédictions concernant l’évolution des glaces en Arctique. Il a passé des années à en mesurer l’épaisseur dans des sous-marins. C’est ainsi qu’il avait annoncé une rupture de la glace d’été pour 2007, année où la surface de cette glace e effectivement atteint un minium historique de 4,17 millions de km2. En 2012, ce record sera battu avec une réduction de plus de 500 000 km2 supplémentaires avec une surface de seulement 3,5 millions de km2.

Plus de glace vers 2015-2016

Pour Peter Wadhams, ce phénomène est une conséquence directe du réchauffement climatique. “Il y a moins de glace qui se crée en hivers et plus de glace qui fond en été”, précise-t-il. Le point de rupture final survient lorsque la fonte de l’été dépasse le gel de l’hiver. “J’avais prédit que cette rupture se produirait vers 2015-2016. L’océan arctique en été (août à septembre) sera alors totalement libre de glace. Nous assistons aujourd’hui au début de cette rupture qui devrait être achevée aux environs de ces dates”. D’ici 4 ou 5 ans, donc, plus de glace d’été en Arctique…

Le dégel du permafrost

Est-ce dramatique ? Pour Peter Wadhams, c’est “épouvantable”. Aux conséquences positives sur le transport et l’accès au pétrole et au gaz, s’opposent les effets sur le réchauffement climatique. C’est à dire une accélération. “Lorsque la glace disparaît en été, l’océan se réchauffe (de 7°C en 2011) et il augmente la température des côtes. Le plateau continental de l’Arctique est composé de permafrost, des sédiments gelés depuis le dernier âge glaciaire. Lorsque l’eau de l’océan réchauffe ces sols, le permafrost dégèle et libère d’énormes quantités de méthane emprisonné. Ce puissant gaz à effet de serre donnera un coup d’accélérateur au réchauffement climatique”.

Jean Jouzel “sceptique”

Un tel scénario catastrophe dans la bouche d’un expert peut faire… froid dans le dos. Interrogé par Globule et télescope, le glaciologue Jean Jouzel se déclare “sceptique vis à vis des propos de Peter Wadhams” au sujet du délai de 4 ans. Il a plutôt tendance à suivre les chercheurs qui “tablent sur une vingtaine d’années”. Un délai supplémentaire pas si long. Sera-t-il suffisant pour que nous réagissions ? Et comment réagir ?

Michel Alberganti

lire le billet

Eolien : autant en apporte le vent

Publiée le 9 septembre 2012 dans la revue Nature Climate Change, une nouvelle étude affirme que l’éolien pourrait, théoriquement, couvrir l’ensemble des besoins énergétiques de la planète. Selon Kate Marvel du laboratoire national Lawrence Livermore qui a dirigé les travaux de l’équipe, 400 térawatts pourraient être obtenus grâce aux éoliennes sur terre et en mer tandis que l’éolien d’altitude aurait une capacité de 1800 terrawatts. Or, l’humanité consomme aujourd’hui 18 terrawatts. Ainsi, le vent terrestre couvrirait 20 fois ces besoins et le vent d’altitude 100 fois. De quoi faire réfléchir ceux qui considèrent l’énergie éolienne comme tout juste capable d’apporter, comme le solaire, un appoint aux énergies “sérieuses” que sont le pétrole, le charbon et le nucléaire.

Recherche de l’optimum

Il faut néanmoins préciser que ces chiffres représentent le potentiel géophysique de cette source d’énergie renouvelable et propre. Ils ne tiennent pas compte des limitations technologiques ou économiques. Il ne s’agit donc que d’un gisement. Pas de la ressource réellement exploitable. L’étude s’est concentrée sur la recherche de l’optimum d’exploitation possible du vent. En effet, trop d’éoliennes finiraient par ralentir les courants aériens, phénomène de saturation qui conduit à la définition d’un maximum de la ressource.

Peu d’impacts sur le climat

Les chercheurs ont également tenté d’évaluer les effets sur le climat de la Terre d’une exploitation massive de l’énergie éolienne. Selon eux, l’impact de l’extraction d’une quantité d’énergie égale à la consommation de l’humanité serait minime, dans la mesure ou les turbines seraient réparties et non concentrées dans certaines régions. D’après leurs calculs, une telle exploitation ferait varier la température du globe d’environ 0,1°C et affecterait 1% des précipitations. En conclusion, Ken Caldera, co-auteur de l’étude et membre de l’institution Carnegie à Washington, estime que “les facteurs limitant l’exploitation de l’énergie éolienne seront économiques, technologiques et politiques mais non géophysiques”.


Courants-jets

En 2009, Ken Caldera avait déjà publié, avec Cristina Archer dans la revue Energies, un article dédié au potentiel des vents de haute altitude. Les chercheurs s’étaient alors penchés sur les fameux courants-jets, les fameux jet streams, qui circulent dans l’atmosphère à des altitudes comprises en 6 et 15 km. Il en avait déduit de forts potentiels sans donner la méthode pour exploiter ces véritables rivières aériennes. Comment installer une turbine à ces altitudes et récupérer le courant électrique produit ? Mystère… Moins ambitieux mais plus réalistes, de nombreux projets visent l’exploitation du vent à moyenne altitude, c’est à dire à quelques centaines de mètres de la terre. Il s’agit de se dégager de l’effet de ralentissement du vent que provoque sa friction sur le sol afin d’exploiter un flux plus fort et plus régulier. Mais, là encore, comment faire ?

Cerf-volant et yo-yo

Une société italienne, Kite Gen Research fondée en 2007 à Chieri, près de Turin, détient une vingtaine de brevets pour une solution originale: le cerf-volant (kite en anglais). Son idée essentielle réside dans le fait de conserver sur terre toute la partie lourde et encombrante de l’installation, c’est à dire la turbine. Cette dernière tourne grâce au déplacement ascensionnel du cerf-volant qui entraîne un câble. Le problème, c’est qu’il faut faire redescendre le cerf-volant au bout d’un certain temps… Pour cela, le système rompt la portance de l’aile volante de plusieurs dizaines de m2 en exerçant une traction sur l’un des câbles. le cerf-volant se met, en quelque sorte, en torche, ce qui facilite sa descente. Ensuite, il suffit de rétablir la portance pour que l’ascension reprenne. Et ainsi de suite, dans un mouvement qui rappelle celui du yo-yo. De essais du système ont été réalisé au début de 2012. Certains problèmes restent à résoudre, semble-t-il mais Kite Gen mise sur des installations de 3 MW par cerf-volant et envisage de vastes carrousels sur terre et sur mer pour rassembler des dizaines de systèmes sur un même site. Un jour, peut-être, notre courant électrique sera produit par des cerf-volants… Nul doute que l’idée devrait séduire la Chine…

Michel Alberganti

lire le billet

La bombe atomique du climat : faisable et rentable…

Ce serait la solution du désespoir pour le cas où le réchauffement climatique atteindrait des niveaux insupportables, selon le conseiller scientifique du président Obama, John P. Holdren. Sorte de bombe atomique du climat, la géo-ingénierie consiste à expédier dans la stratosphère terrestre des particules à base de souffre pour réduire la quantité de lumière solaire parvenant sur la Terre. Une sorte de filtre anti-réchauffement qui s’inspire de la nature. En effet, les grandes irruptions volcaniques du passé ont provoqué des refroidissements planétaires engendrés par les particules rejetées. Si un volcan peut le faire, pourquoi pas l’homme ? Surtout s’il est Américain.

L’idée n’est pas nouvelle et l’on pouvait même la croire enterrée, tant elle suscite de critiques de la part des climatologues. La mise en pratique de la géo-ingénierie serait  la version climatique de l’apprenti-sorcier. Réduire la quantité de lumière solaire parvenant sur la Terre peut en effet avoir des effets totalement imprévisibles sur les équilibres climatiques terrestres et engendrer des catastrophes naturelles bien plus graves que celles du réchauffement lui-même. Le médicament pourrait tuer le malade…

5 milliards de dollars par an

Toutes ces considérations n’ont pas empêché Justin McCLellan (Aurora Flight Science Corporation), David Keith (université d’Harvard) et Jay Apt (université de Carnegie Mellon) d’évaluer la faisabilité et de chiffrer cette solution. Juste histoire de voir… Résultat: la géo-ingénierie est à la fois faisable et rentable. Leur étude, publiée dans la revue Environmental Research Letters de l’Institut de Physique (IOP) britannique du 31 août 2012, porte sur l’injection d’un million de tonnes d’aérosols par an à des altitudes comprises entre 18 et 25 km. Coût estimé: 5 milliards de dollars par an. Une bagatelle comparée au coût de la réduction des émissions de CO2 estimé, lui, entre 200 et 2000 milliards de dollars pour 2030.

Avion spécialisé

Forts de ce constat encourageant, les chercheurs ont analysé les technologies exploitables pour transporter et répandre ce million de tonnes de poussières. Comme par hasard, alors qu’un représentant d’un fabricant d’avions sans pilote, Aurora Flight Science, fait partie de l’équipe, c’est justement la solution aéronautique qui se révèle la plus économique. Moins coûteuse que l’adaptation d’un avion existant, la construction d’un aéronef dédié au vol à très haute altitude et capable de disperser les particules reviendrait entre 1 et 2 milliards de dollars par an. Les canons et les fusées seraient, eux, beaucoup trop onéreux car non réutilisables. En fait, ce qui serait encore plus économique que l’avion spécialisé, ce serait une sorte de pipeline aérien de 20 km de long maintenu en l’air par des ballons gonflés à l’hélium…

Les trois chercheurs prennent toutes les précautions nécessaires en précisant que leur étude est purement économique et qu’elle ne prend pas en compte les impacts climatiques de cette solution. Du coup, elle est incapable de déterminer si les dégâts causés par la “solution” ne reviendraient pas plus chers que ceux du réchauffement climatique lui-même. Ce qu’il faudrait démontrer…

Polluer en paix

Une telle étude est probablement révélatrice de l’état d’esprit général des Américains vis à vis de la question climatique. Avec une opinion publique peu convaincue de la responsabilité de l’homme dans le réchauffement, ils s’accommoderaient volontiers d’une solution leur permettant de poursuivre leurs émissions massives de CO2 dans l’atmosphère tout en évitant une augmentation de la température du globe. Continuer à polluer en paix, en somme.

Michel Alberganti

lire le billet

Sous les glaces de l’Antarctique, d’énormes quantités de méthane…

Publiée dans la revue Nature du 30 août 2012, l’étude de Jemma Wadham, de l’école de géographie de l’université de Bristol et de Slawek Tulaczyk, professeur de sciences de la terre à l’université de Californie Santa Cruz, fait l’effet d’une bombe potentielle. Au sens propre. Le projet des deux chercheurs, lancé lors d’une discussion il y a 5 ans, les a conduit à simuler l’évolution des bassins sédimentaires qui se sont formés à la surface de l’Antarctique avant la période qui a couvert ce continent de glaces, il y a 35 millions d’années. Auparavant, la vie grouillait au pôle Sud. Les plantes et les animaux se sont accumulés au cours des millions d’années précédants. Sous la glace, les microbes ont transformé ce carbone organique en CO2 et en méthane. En quantités énormes.

Les chercheurs estiment que 50% de la partie Ouest (1 million de km2) et 25% de la partie Est (2,5 millions de km2) de la calotte polaire de l’Antarctique recouvrent des bassins de sédiments pré-glaciaires. Ces régions concentreraient ainsi pas moins de 21 000 milliards de tonnes de carbone organique. Jemma Wadham note que cela représente 10 fois le stock de carbone piégé dans le permafrost des régions nordiques. D’après ses expériences en laboratoire, ce carbone est probablement métabolisé par les microbes. Les chercheurs ont simulé numériquement cette accumulation de méthane. Ils ont ainsi découvert que les conditions sont favorables à la création d’hydrate de méthane, c’est à dire du méthane piégé dans la glace.

D’après les calculs basés sur ces simulations, la quantité de méthane sous forme d’hydrates ou de gaz pourrait atteindre 4 milliards de tonnes, soit un ordre de grandeur identique aux estimations du méthane piégé dans le permafrost des régions Arctiques. La relative faible profondeur des réservoirs de l’Antarctique les rend plus susceptibles de libérer leur méthane dans l’atmosphère que les autres (Arctique et fonds marins). Sandra Arndt, de l’université de Bristol, co-auteur de l’article, note qu’il “n’est pas surprenant que des quantités significatives de méthane soient piégées sous la calotte polaire de l’Antarctique. Comme pour les sédiments situés sous le fond des mers, il y fait froid et la pression est élevée. Des conditions nécessaires à la formation des hydrates de méthane.

L’inquiétude vient, comme pour l’Arctique, du réchauffement de la calotte polaire de l’Antarctique qui se traduit par des ruptures de la glace. Le risque est que ces rupture libèrent le méthane piégé. Ce qui aurait un fort effet d’accélération du réchauffement climatique. Le méthane est en effet un gaz à effet de serre environ 20 fois plus puissant que le CO2.

Ces prévisions sont issues de simulations. On sait que les modèles mathématiques ont une précision plutôt faible en ce qui concerne l’évolution du climat des pôles. Mais, jusqu’à présent, les erreurs ont toujours été dans le sens d’une sous-estimation de la vitesse de réchauffement de ces régions…

Michel Alberganti

lire le billet

La glace de l’Arctique fond beaucoup plus vite que prévu

Un article publié dans le quotidien anglais The Guardian le 11 août 2012 révèle que 900 km3 de glace ont disparu de l’océan Arctique par rapport à l’an dernier. Cette donnée révèle un taux de perte de la calotte glaciaire 50% plus fort que celui que les scientifiques prenaient en compte jusqu’à présent. Ce constat provient des mesures effectuées par le satellite CryoSat-2 lancé par l’Agence spatiale européenne (ESA)en 2010, spécialisé dans le mesure de l’épaisseur des glaces polaires. Le volume de glace de mer dans la partie centrale de l’Arctique serait ainsi passée 17 000 km3 au cours de l’hivers 2004 à 14 000 km3 cet hivers, selon les mesures effectuées par le satellite.

Plus aucune glace en été

A ce volume réduit en hivers, s’ajoute une fonte plus forte en été. Seymour Laxon, chercheur du Centre pour les observations et les modélisations polaires (CPOM) à l’Université College London (UCL) qui traite les données fournies par CyoSat-2, indique que “les analyses préliminaires montrent que le taux de réduction du volume de glace en Arctique semble beaucoup plus élevé que prévu”. Selon The Guardian, il ajoute: “Très bientôt, nous pourrions vivre ce moment symbolique où, un jour d’été, les images satellites ne montreront plus aucune glace sur l’Arctique, juste de l’eau liquide”.

Moins 50% en 8 ans

Déjà, les glaces de mer en été sont passées d’un volume de 13 000 km3 en 2004 à 7 000 km3 en 2012, soit une réduction de près de 50% en 8 ans. A la vitesse de 900 km3 de glace fondue de plus chaque année, il faudrait moins de 10 ans pour atteindre la disparition totale des glace en été. Seymour Laxon a beau appeler à la prudence en raison du caractère préliminaire des résultats de CryoSat ainsi que d’éventuelles modifications de l’évolution du taux de fonte au cours des prochaines années, il est difficile de ne pas constater que ces nouvelles mesures vont dans le sens des précédentes. Toutes les prévisions concernant l’évolution de la calotte glaciaire arctique se sont révélées trop optimistes, c’est à dire qu’elles ont sous-estimé le phénomène, preuve que les modèles climatiques actuels ne sont pas bien adaptés au cas particulier des pôles.

Le spectre du méthane

Si les mesures de CryoSat-2 sont confirmées, elles sonneront une nouvelle fois l’alerte au réchauffement climatique. Mais il ne s’agira plus d’un problème pour les générations futures ou pour la fin du siècle. La disparition des glaces couvrant l’Arctique en été pourraient avoir des conséquences très importantes sur le climat et la météo des prochaines décennies. En effet, moins de glace induit un changement d’albédo de la surface terrestre qui favorise son échauffement (la mer ou la terre absorbent plus de chaleur que la glace dont la couleur blanche réfléchit les rayons solaires). Un réchauffement du pôle Nord réduira la différence de température avec l’Equateur ce qui influencera les grands courants aériens (jet stream) en rendant la météo plus instable. Le réchauffement de océans favorisera les relâchements dans l’atmosphère du méthane stocké au fond des océans. Or, le méthane a un impact beaucoup plus fort sur l’effet de serre que le CO2…

Si la glace de l’Arctique est un indicateur du réchauffement climatique, elle en est également un acteur important. Lorsque la Nasa a révélé que 97% de la surface des glaces du Groenland s’est mise à fondre en juillet 2012, certains ont pu comprendre qu’il ne restait que 3% de la surface couverte par les glaces. C’était faux, bien entendu, en 2012…

Michel Alberganti

 

 

lire le billet

La Terre absorbe encore 50% du carbone émis par l’homme

La Terre, avec ses océans, ses forêts et ses autres écosystèmes, parvient encore à absorber 50% du carbone produit par les activités humaines, en particulier avec la combustion de carburants fossiles comme le pétrole ou le charbon. Ce résultat provient d’une étude publiée le 2 août 2012 dans la revue Nature par des scientifiques de l’université Boulder du Colorado et de la National Oceanic and Atmospheric Administration (NOAA). Nul doute qu’il s’agit là d’une bonne nouvelle qui démontre les formidables capacités de la Terre pour jouer un rôle d’amortisseur des variations de la composition de l’atmosphère. Ainsi, l’augmentation de l’effet de serre, principal responsable du réchauffement climatique, n’en déplaise aux sceptiques (voir commentaires d’un billet récent), reste décalée par rapport à celle de la concentration de CO2. La mauvaise nouvelle, c’est que 50% du carbone émis… reste dans l’atmosphère. Et toute la question est de savoir pendant combien de temps la Terre va continuer à être capable d’engloutir de telles masses de carbone. Les chercheurs ne répondent pas à cette interrogation mais ils assurent que le phénomène ne peut être éternel. Tout se passe comme si la planète nous donnait un délai de grâce.

Le résultat publié aujourd’hui signifie que l’augmentation de la concentration de CO2 dans l’atmosphère (représentée ci-dessus) serait nettement plus forte sans la part de 50% des émissions absorbée par la Terre. Il faut remarquer que ce phénomène s’est fortement accentué. “Par rapport à 1960, la planète absorbe deux fois plus de CO2”, note Ashley Ballantyne, principal auteur de l’étude publiée dans Nature. Pour autant, et le résultat publié aujourd’hui le montre, les scientifiques ne comprennent pas exactement comment la Terre effectue ce travail d’absorption massive et variable en fonction des quantités émises. D’où l’impossibilité de créer de nouveaux puits de carbone avec une garantie sur leur efficacité. “Comme nous ne savons pas pourquoi ni où le processus se produit, nous ne pouvons pas compter dessus, commente Pieter Tans, climatologue de la NOAA. Nous devons clarifier ce qui se passe afin de pouvoir améliorer nos projections sur les futures concentrations de CO2 et notre compréhension de la façon dont le changement climatique va évoluer dans l’avenir”.

Acidification des océans

Les effets de l’absorption du carbone par les océans, estimée au quart des émissions, se traduit par une acidification des eaux qui a des conséquences sur la vie marine, en particuliers sur les écosystèmes des récifs coralliens qui abritent 25% des espèces de poissons répertoriées sur la planète. “Plus les océans s’acidifient, plus il deviendra difficile pour eux d’absorber plus de carbone”, estime Pieter Tans qui précise néanmoins que le ralentissement de ce phénomène n’est pas encore perceptible. Des irrégularités apparaissent néanmoins avec une absorption qui s’est réduite dans les années 1990 avant d’augmenter entre 2000 et 2010. Cette instabilité pourrait être le signe des difficultés croissantes rencontrées par le mécanisme d’absorption. “Si nous conduisons à 150 km/h, la voiture va commencer à trembler et cliqueter en raison d’instabilités et cela signifie qu’il est temps de relâcher l’accélérateur”, explique Jim White, professeur à l’université Boulder. “C’est la même chose pour les émissions de CO2”.

La courbe de croissance de la concentration en CO2 sur une longue période (courbe de gauche) laisse néanmoins craindre que le moment pour les océans seront saturés en CO2 pourrait arriver assez vite. Les courbes ne laissent pas apparaître le moindre signe d’inflexion malgré la multiplication des “sommets de la Terre” au cours des dernières décennies. En 2010, 33,6 milliards de tonnes de CO2 ont été rejetées dans l’atmosphère et, en 2011, 34,8 milliards de tonnes. A ce rythme, la concentration en CO2 devrait atteindre les 400 parts par million (ppm) en 2016, contre 394 ppm aujourd’hui. Avant l’ère industrielle, cette valeur était de 280 ppm. Entre 1959 et 2010, 350 milliards de tonnes de carbone ont été relâchées dans l’atmosphère, ce qui correspond à environ 1000 milliards de tonnes de CO2. La nouvelle étude montre donc que seulement la moitié de cette quantité a été absorbée par la Terre. “Nous constatons déjà un changement climatique, note Caroline Alden, doctorante à l’université de Boulder. Si les puits naturels de carbone saturent, comme les modèles le prédisent, l’impact des émissions humaines de CO2 dans l’atmosphère doublera”.

Michel Alberganti

lire le billet

Richard Muller : la conversion publique d’un climatosceptique

“Appelez-moi un sceptique converti”. C’est par ces mots que Richard A. Muller, professeur de physique à l’université de Berkeley, commence son point de vue publié dans l’édition du New York Times du 28 juillet 2012. Suit ensuite le récit de cette conversion aussi spectaculaire qu’exemplaire. Il y a trois ans, ce scientifique avait conçu de sérieux doutes sur les études concernant le changement climatique. L’an dernier, il a créé un groupe de travail rassemblant une douzaine de collègues. “J’en ai conclu que le réchauffement de la planète était réel et que les estimations précédentes de l’évolution de ce réchauffement étaient correctes. Je fais maintenant un pas supplémentaire: les hommes en sont presque entièrement la cause”, écrit-il.

L’origine humaine du réchauffement

Pour parvenir à de retournement complet d’opinion et à cet aveu public de sa conversion, Richard Muller a lancé un projet, Berkeley Earth Surface Temperature, avec sa fille Elisabeth. Le résultat qu’il a obtenu montre que la température terrestre a augmenté de 1,4°C au cours des 250 dernières années dont 0,8°C pendant les 50 dernières années. Pour lui, la totalité de ce réchauffement est probablement liée aux émissions humaines de gaz à effet de serre.

Richard Muller estime que ces résultats vont plus loin que les affirmations publiées par le GIEC en 2007. Le dernier rapport de cette institution attribuait la plus grande part du réchauffement des 50 dernières années à l’activité humaine et estimait que l’augmentation de température observée avant 1956 pouvait être liée aux modifications de l’activité solaire et même qu’une part substantielle du réchauffement pouvait être d’origine naturelle.

Le projet Berkeley Earth Surface Temperature a fait appel à des méthodes statistiques sophistiquées développée par Robert Rohde afin d’évaluer la température terrestre lors de périodes plus anciennes. Ainsi, toutes les sources d’erreurs utilisées par les sceptiques pour contester l’origine anthropique du réchauffement ont été prises en compte :  biais dû au chauffage urbain, sélection des données utilisées, faible qualité des informations provenant de certaines stations météo, correction humaine des données. “Nous démontrons qu’aucun de ces effets perturbateurs potentiels ne biaisent nos conclusions”, déclare Richard Muller.

Pas d’empreinte de l’activité solaire

Le physicien règle également son compte à l’activité solaire, principal argument opposé par les climatosceptiques aux conclusions du GIEC. Pour eux, les variations de température terrestre seraient essentiellement liées aux cycles solaires. Ils expliquent ainsi la stabilité de cette température observée depuis quelques années et prédisent même un prochain refroidissement en raison du ralentissement en cours de l’activité solaire. Ainsi, le soleil dédouanerait l’homme de sa responsabilité et l’effet de serre ne jouerait qu’un rôle mineur dans le réchauffement.

Les calculs effectués par l’équipe de Richard Muller invalident cette théorie. “Notre analyse concerne une période assez longue pour nous permettre de chercher l’empreinte de l’activité solaire basée sur l’enregistrement de l’historique des taches solaires. Cette empreinte est absente”, conclue-t-il. Pour lui, l’augmentation de la température terrestre observée depuis 250 ans ne peut donc être attribuée au soleil.

Corrélation et causalité

Quant à l’attribution de ce réchauffement à l’activité humaine, elle est liée à la courbe du CO2 qui apporte une meilleure corrélation que tous les autres facteurs testés. Cela n’induit pas, bien entendu, une causalité, surtout pour un sceptique… Mais Richard Muller note que cela “monte la barre” dans la mesure où c’est le CO2 qui apporte la meilleure explication du phénomène de réchauffement.

“C’est un devoir du scientifique d’être convenablement sceptique”, ajoute le physicien dont la conversion ne va pas jusqu’à adhérer aux scénarios les plus catastrophistes.  Il estime que bon nombre, si ce n’est la plupart, des phénomènes attribués au changement climatique “sont spéculatifs, exagérés ou complètement faux”. Sur ce point, pas de conversion. “L’ouragan Katrina ne peut pas être attribué au réchauffement climatique”, affirme Richard Muller. Il ajoute que, pour lui, les ours blancs ne souffrent pas de la réduction des surfaces de glace pas plus que les glaciers himalayens ne vont disparaître en 2035 (une allusion à une erreur du GIEC).

Honnêteté intellectuelle

“La science est ce domaine étroit de la connaissance qui est, en principe, universellement accepté”, note-t-il. Après avoir étudié des questions qu’il estimait sans réponse, Richard Muller espère avoir apporté sa contribution au débat scientifique sur le réchauffement climatique et ses causes humaines. Il reconnaît qu’il reste la partie la plus difficile: obtenir un accord dans le champ politique et diplomatique sur ce qui peut et doit être fait. Nul doute que la démarche de Richard Muller pourra servir d’exemple à d’autres climatosceptiques qui ne font pas toujours preuve de la même rigueur scientifique et de la même honnêteté intellectuelle. Au droit au doute répond le devoir de reconnaître ses erreurs. En science comme ailleurs.

Michel Alberganti

lire le billet

97% des glaces du Groenland se sont mises à fondre… en 4 jours

Les satellites, et surtout les scientifiques de la Nasa qui ont analysé leurs images, n’en sont pas revenus. En 30 ans d’observation, jamais le Groenland n’avait fondu à une telle vitesse. En 4 jours, la calotte glaciaire intacte du “pays vert” a perdu 97% de sa surface… Les mesures effectuées par trois satellites montraient, le 8 juillet 2012, que 40% de la calotte glaciaire avait déjà fondu. Mais le 12 juillet, quatre jours plus tard, c’est donc 97% de sa surface qui fondait. Cela paraît d’autant plus extraordinaire que l’épaisseur de la glace, au centre de l’île, atteint les 3 km en hivers, saison où la calotte (inlandsis) couvre 80% de la surface du Groenland. Normalement, en été, seulement 50% de l’inlandsis fond. Et, à haute altitude (le Groenland a des sommets entre 3000 et 4000 m), l’eau regèle sur place. Cette année, la fonte est si importante que les chercheurs se demandent quelle quantité d’eau va réellement s’écouler dans l’océan et quel impact cela pourra avoir sur le niveau des mers sur la planète. Il faut toutefois préciser que la glace n’a pas disparu de la surface du Groenland. Les zones rouges de la carte ci dessus montrent les zones qui fondent. La zone blanche est celle de la zone qui ne fond pas et c’est celle-là qui ne représente plus que 3% de la surface couverte en hivers.

Un couvercle d’air chaud

” C’est si extraordinaire que, pour la première fois, je me suis interrogé sur le résultat des mesures en me demandant s’il ne s’agissait pas d’une erreur”, note Son Nghiem du Jet Propulsion Laboratory (JPL) de la Nasa à Pasadena. Les météorologistes indiquent que cette fonte est liée à un front d’air chaud qui forme une sorte de couvercle sur le Groenland. Cela rappelle la canicule de 2003 en France qui résultait d’un phénomène similaire. Le front d’air chaud actuel n’est pas le premier. Depuis mai 2012, plusieurs se sont formés sur le Groenland. “Chacun d’entre eux s’est révélé plus fort que le précédent”, remarque Thomas Mote, climatologue de l’université de Géorgie. Le dernier en date a commencé à arriver sur le Groenland le 8 juillet et s’est stabilisé sur le calotte glaciaire le 11 juillet avant de se dissiper à partir du 16 juillet.

Un phénomène qui se produit tous les 150 ans…

Même la glace située dans la région de la station Summit, à 3000 mètres d’altitude dans le centre de l’île, a commencé à fondre. Cela ne s’était pas produit depuis 1889, selon les carottes de glace analysées au Darthmouth College de Hanovre. Ces carottes indiquent qu’une fonte comme celle de cette année ne survient que tous les 150 ans en moyenne. Ce phénomène exceptionnel pourrait donc s’inscrire dans le cycle naturel de cette région. Sauf s’il se reproduisait l’année prochaine. Dans ce cas, le mot qui est dans tous les esprits, mais que la Nasa ne cite guère, c’est à dire le réchauffement climatique, pourrait bien se révéler être la cause de cette fonte ultra rapide de l’inlandsis du Groenland. D’ici là, il faudra mesurer l’impact de toute cette eau polaire sur le niveau des mers. La rupture, la semaine dernière, d’une partie du glacier Petermann grande comme la ville de Paris avait déjà donné l’alerte au réchauffement et à la montée des eaux.

 

Michel Alberganti

Note : Quelques informations sur la calotte glaciaire du Groenland à la suite de certains commentaires sur cet article :

– Son épaisseur moyenne est de 2,3 km avec un maximum d’environ 3 km en son centre.
– Ses glaces les plus anciennes dateraient de 110 000 ans.
– Sa surface est d’environ 1,8 million de km2 et son volume est de 2,9 millions de km3.
– Il s’agit du plus grand réservoir d’eau douce de la planète après l’inlandsis de l’Antarctique qui rassemble 70% de l’eau douce présente sur Terre.
– Si toute la glace du Groenland fondait, le niveau des mers s’élèverait de 7,3 mètres.
– Si toute la glace de l’Antarctique fondait, le niveau des mers s’élèverait de 56,6 mètres.

Sources:
http://www.esa.int/esaEO/SEMILF638FE_planet_0.html
http://www.iceandwater.gl/
http://www.mpimet.mpg.de/en/news/press/faq-frequently-asked-questions/how-much-will-the-sea-level-rise.html
Et, bien sûr, Wikipédia…


lire le billet

L’agriculture peut tirer profit de la biodiversité au lieu de la détruire

Rio+20, le dernier sommet de la Terre qui s’est tenu à Rio de Janeiro du 20 au 22 juin 2012 n’a pas dérogé à la règle qui semble être devenue la marque des grands rassemblements de chefs d’Etat et de gouvernement (130 à Rio) autour des questions d’écologie ou de climat : la déception. Cette fois, au moins, les débats n’ont pas traîné en longueur comme lors de la conférence de Durban, en décembre 2011. Le document final avait été rédigé avant même l’arrivée des « décideurs ». Sage stratégie. Maigre résultat. A lire ce texte de 60 pages, on a souvent l’impression qu’il concerne le sommet de Rio de 1992 et non celui de 2012. On peut y lire, par exemple, au sujet de la biodiversité : « Nous sommes conscients de la gravité de la perte de la biodiversité et de la dégradation des écosystèmes qui entravent le développement mondial, compromettant la sécurité alimentaire et la nutrition, l’accès à l’eau et son approvisionnement ainsi que la santé des pauvres des zones rurales et des populations dans le monde, y compris pour les générations présentes et futures ».

20 ans de prise de conscience

On aurait pu penser, sans doute naïvement, que, 20 ans après, les décideurs avaient dépassé le stade de la prise de conscience et se trouvaient en pleine action. A elle seule, cette phrase résume le paradoxe de ce décalage. Elle énumère en effet une série de conséquences de la perte de biodiversité sur la planète qui se révèlent encore plus graves que celles du réchauffement climatique. Pourtant, pas plus que dans ce domaine, l’heure n’est guère aux décisions contraignantes. Plus loin, le texte annonce : Nous « lançons un appel en faveur de mesures urgentes qui réduisent sensiblement le taux de perte de biodiversité, mettent fin à ce processus et permettent de l’inverser ».Face à ce qui est présenté comme une véritable catastrophe, les décideurs, 20 ans après le Sommet de Rio et la Convention sur la biodiversité signée alors, lancent un appel…

Sur le modèle du GIEC pour le climat

Cela signifie-t-il qu’il ne s’est rien passé en deux décennies et que la question de la biodiversité souffre d’un attentisme plus profond encore que celle du réchauffement climatique ? Oui et non. Oui parce que la création d’une structure comparable à celle du GIEC pour le climat ne date que du 21 avril 2012. Elle est malheureusement affublée d’un nom peu ragoutant : IPBES, pour Intergovernmental Platform on Biodiversity and Ecosystem Services, dénomination qui n’a, semble-t-il, pas encore été traduite en français… Lors de sa création, Robert Watson, conseiller scientifique du ministère de l’environnement du Royaume Uni, s’est exclamé : « Aujourd’hui, la biodiversité a gagné ! » Sans forcément céder à cet enthousiasme, il est néanmoins possible de dégager quelques points positifs dans l’évolution de la prise en compte de la biodiversité au cours des 20 dernières années :

1°/ La sensiblerie au placard

Bonne nouvelle pour ceux qui ne pouvaient plus voir en photo l’ours blanc à la dérive sur son bloc de glace. Ou celles du panda suggérant la privation programmée de toutes peluches pour les bambins des futures générations. La corde de la sensiblerie semble définitivement usée et remisée au rayon des accessoires hors sujet. Compter sur la larme à l’œil de la population n’a pas donné les résultats escomptés et, surtout, elle a totalement échoué sur le plan pédagogique. Le problème de la perte de la biodiversité ne se résume pas à la protection de quelques espèces, certes sympathiques, mais dont la disparition ne bouleversera pas le mode vie de l’humanité. Or, même si l’on peut souvent s’en désoler, la grande majorité des êtres humains n’est sensible qu’aux problèmes susceptibles de le toucher directement. C’est-à-dire d’affecter sa santé, son confort, son travail ou l’avenir de ses enfants.

2°/ L’impact négatif sur l’homme

Justement, la perte de biodiversité n’est plus considérée comme une simple douleur pour les amoureux de la nature ou une perte d’outil de travail pour les biologistes. La notion de services fournis par les écosystèmes désigne les apports à l’homme par certains équilibres naturels. Un exemple : la destruction massive des requins par la surpêche engendre une prolifération de certaines espèces qui ont perdu leur prédateur. C’est le cas des raies. Or, ces dernières se nourrissent de coquillages comme les coquilles Saint-Jacques qui constituent l’une des principales ressources économiques pour les populations côtières. Ainsi, un déséquilibre provoqué par l’homme entraîne directement un phénomène nuisible pour l’homme. La leçon est claire : ce sont les requins qui garantissaient la récolte des coquillages. Avant même la disparition d’une espèce, une réduction importante de ses effectifs peut ainsi avoir des conséquences néfastes sur l’industrie humaine. On pense également aux abeilles dont le travail de pollinisation est estimé en dizaines de milliards de dollars. Déjà, leur raréfaction induit des coûts importants de transport et de location des ruches pour pallier l’absence d’abeilles locales. Là encore, avant même leur éventuelle disparition, la forte mortalité des abeilles, désormais attribuée à un cocktail de doses subléthales d’insecticides, coûte très cher aux cultivateurs d’arbres fruitiers.

3°/La possibilité d’une agriculture écologiquement  intensive

Un tel constat de l’impact négatif sur l’activité humaine des déséquilibres écologiques engendrés par cette même activité conduit naturellement à s’interroger. La guerre que mène actuellement l’agriculture contre l’environnement, à coup d’engrais chimiques et de pesticides, est-elle la solution optimale ? Non pas pour préserver la nature mais bien pour en tirer le meilleur profit ? Une telle question prend à contre-pied les militants de la décroissance pour lesquels la protection de la nature passe pas l’abandon de la culture intensive. Or, la démographie galopante des pays émergents rend fortement improbable de parvenir à nourrir la planète sans, au contraire, augmenter la productivité de l’agriculture dont les surfaces cultivables sont passablement réduite par les productions destinées aux biocarburants. Que faire ? Augmenter encore les fameux intrants, engrais et pesticides ? Recourir aux OGM ? Ou bien faire appel au concept qui se développe depuis quelques années : l’agriculture écologiquement intensive. L’idée fait son chemin comme en témoigne, par exemple, la tribune publiée dans Slate Afrique par Bernard Giraud, président de Livelihoods Venture près Rio+20. De quoi s’agit-il ?

Subvenir à des besoins alimentaires croissants

Dès 1999, Kenneth Cassman, professeur d’agronomie à l’université du Nebraska-Lincoln, plaidait pour une « intensification écologique des systèmes de production de céréales », dans un article publié dans les Proceedings of the National Academy of Science (PNAS) des Etats-Unis. Sa thèse n’a rien à voir avec un quelconque retour à la bougie ou au troc du tracteur pour les bœufs. Il s’agit de trouver des solutions agronomiques pour subvenir aux besoins croissants de la population du globe dans un contexte de surfaces cultivables limitées. L’article de Kenneth Cassman concluait :

« La sécurité alimentaire des 30 années à venir dépendra de rapides avancées scientifiques dans la compréhension des bases physiologiques du potentiel de rendement des récoltes, des relations entre la qualité des sols et la productivité des récoltes, de l’écologie des végétaux en relation avec les nombreux facteurs d’interaction avec l’environnement qui détermine les rendements. Atteindre ces objectifs scientifiques est possible, mais les actuels niveaux d’investissement dans ces domaines de recherche, aux Etats-Unis ou ailleurs,  ne sont pas adaptés pour relever ce défi ».

Au-delà de la révolution verte

En d’autres termes, l’ère de l’agriculture intensive issue de la révolution verte ne sera pas capable de subvenir aux besoins alimentaires des prochaines décennies. Les gains de rendement nécessaires ne peuvent passer que par la prise en compte de facteurs écologiques. De fait, les rendements de la culture du blé stagnent depuis 1999, selon les chiffres de la FAO. Le nouveau chantier vise donc à réconcilier l’agriculture avec l’écologie, non pas pour seulement préserver la nature mais, aussi, pour améliorer l’efficacité des cultures. Nous entrerions alors dans une période d’études des mécanismes intimes de la croissance des végétaux.

De quoi donner une tout autre signification à la démarche écologique. Au lieu d’opposer systématiquement l’homme à la nature, il s’agirait d’optimiser les relations entre les deux « camps ». Les bénéfices attendus par l’humanité pourraient bien alors se révéler compatibles avec ceux des équilibres écologiques. La biodiversité ne serait plus uniquement considérée sous l’angle des agressions à combattre mais sous celui des apports mutuels des espèces entre elles. Un rêve ?…

Michel Alberganti

Sur ce thème, vous pouvez (ré)écouter l’émission sur j’ai animée sur France Culture le 22 juin 2012 : Rio+20 : La perte de biodiversité est-elle une perte pour l’homme ?

Regardez egalement cette vidéo très didactique sur les impacts de la biodiversité sur l’homme:

lire le billet