La glace de l’Arctique fond beaucoup plus vite que prévu

Un article publié dans le quotidien anglais The Guardian le 11 août 2012 révèle que 900 km3 de glace ont disparu de l’océan Arctique par rapport à l’an dernier. Cette donnée révèle un taux de perte de la calotte glaciaire 50% plus fort que celui que les scientifiques prenaient en compte jusqu’à présent. Ce constat provient des mesures effectuées par le satellite CryoSat-2 lancé par l’Agence spatiale européenne (ESA)en 2010, spécialisé dans le mesure de l’épaisseur des glaces polaires. Le volume de glace de mer dans la partie centrale de l’Arctique serait ainsi passée 17 000 km3 au cours de l’hivers 2004 à 14 000 km3 cet hivers, selon les mesures effectuées par le satellite.

Plus aucune glace en été

A ce volume réduit en hivers, s’ajoute une fonte plus forte en été. Seymour Laxon, chercheur du Centre pour les observations et les modélisations polaires (CPOM) à l’Université College London (UCL) qui traite les données fournies par CyoSat-2, indique que “les analyses préliminaires montrent que le taux de réduction du volume de glace en Arctique semble beaucoup plus élevé que prévu”. Selon The Guardian, il ajoute: “Très bientôt, nous pourrions vivre ce moment symbolique où, un jour d’été, les images satellites ne montreront plus aucune glace sur l’Arctique, juste de l’eau liquide”.

Moins 50% en 8 ans

Déjà, les glaces de mer en été sont passées d’un volume de 13 000 km3 en 2004 à 7 000 km3 en 2012, soit une réduction de près de 50% en 8 ans. A la vitesse de 900 km3 de glace fondue de plus chaque année, il faudrait moins de 10 ans pour atteindre la disparition totale des glace en été. Seymour Laxon a beau appeler à la prudence en raison du caractère préliminaire des résultats de CryoSat ainsi que d’éventuelles modifications de l’évolution du taux de fonte au cours des prochaines années, il est difficile de ne pas constater que ces nouvelles mesures vont dans le sens des précédentes. Toutes les prévisions concernant l’évolution de la calotte glaciaire arctique se sont révélées trop optimistes, c’est à dire qu’elles ont sous-estimé le phénomène, preuve que les modèles climatiques actuels ne sont pas bien adaptés au cas particulier des pôles.

Le spectre du méthane

Si les mesures de CryoSat-2 sont confirmées, elles sonneront une nouvelle fois l’alerte au réchauffement climatique. Mais il ne s’agira plus d’un problème pour les générations futures ou pour la fin du siècle. La disparition des glaces couvrant l’Arctique en été pourraient avoir des conséquences très importantes sur le climat et la météo des prochaines décennies. En effet, moins de glace induit un changement d’albédo de la surface terrestre qui favorise son échauffement (la mer ou la terre absorbent plus de chaleur que la glace dont la couleur blanche réfléchit les rayons solaires). Un réchauffement du pôle Nord réduira la différence de température avec l’Equateur ce qui influencera les grands courants aériens (jet stream) en rendant la météo plus instable. Le réchauffement de océans favorisera les relâchements dans l’atmosphère du méthane stocké au fond des océans. Or, le méthane a un impact beaucoup plus fort sur l’effet de serre que le CO2…

Si la glace de l’Arctique est un indicateur du réchauffement climatique, elle en est également un acteur important. Lorsque la Nasa a révélé que 97% de la surface des glaces du Groenland s’est mise à fondre en juillet 2012, certains ont pu comprendre qu’il ne restait que 3% de la surface couverte par les glaces. C’était faux, bien entendu, en 2012…

Michel Alberganti

 

 

lire le billet

La Terre absorbe encore 50% du carbone émis par l’homme

La Terre, avec ses océans, ses forêts et ses autres écosystèmes, parvient encore à absorber 50% du carbone produit par les activités humaines, en particulier avec la combustion de carburants fossiles comme le pétrole ou le charbon. Ce résultat provient d’une étude publiée le 2 août 2012 dans la revue Nature par des scientifiques de l’université Boulder du Colorado et de la National Oceanic and Atmospheric Administration (NOAA). Nul doute qu’il s’agit là d’une bonne nouvelle qui démontre les formidables capacités de la Terre pour jouer un rôle d’amortisseur des variations de la composition de l’atmosphère. Ainsi, l’augmentation de l’effet de serre, principal responsable du réchauffement climatique, n’en déplaise aux sceptiques (voir commentaires d’un billet récent), reste décalée par rapport à celle de la concentration de CO2. La mauvaise nouvelle, c’est que 50% du carbone émis… reste dans l’atmosphère. Et toute la question est de savoir pendant combien de temps la Terre va continuer à être capable d’engloutir de telles masses de carbone. Les chercheurs ne répondent pas à cette interrogation mais ils assurent que le phénomène ne peut être éternel. Tout se passe comme si la planète nous donnait un délai de grâce.

Le résultat publié aujourd’hui signifie que l’augmentation de la concentration de CO2 dans l’atmosphère (représentée ci-dessus) serait nettement plus forte sans la part de 50% des émissions absorbée par la Terre. Il faut remarquer que ce phénomène s’est fortement accentué. “Par rapport à 1960, la planète absorbe deux fois plus de CO2”, note Ashley Ballantyne, principal auteur de l’étude publiée dans Nature. Pour autant, et le résultat publié aujourd’hui le montre, les scientifiques ne comprennent pas exactement comment la Terre effectue ce travail d’absorption massive et variable en fonction des quantités émises. D’où l’impossibilité de créer de nouveaux puits de carbone avec une garantie sur leur efficacité. “Comme nous ne savons pas pourquoi ni où le processus se produit, nous ne pouvons pas compter dessus, commente Pieter Tans, climatologue de la NOAA. Nous devons clarifier ce qui se passe afin de pouvoir améliorer nos projections sur les futures concentrations de CO2 et notre compréhension de la façon dont le changement climatique va évoluer dans l’avenir”.

Acidification des océans

Les effets de l’absorption du carbone par les océans, estimée au quart des émissions, se traduit par une acidification des eaux qui a des conséquences sur la vie marine, en particuliers sur les écosystèmes des récifs coralliens qui abritent 25% des espèces de poissons répertoriées sur la planète. “Plus les océans s’acidifient, plus il deviendra difficile pour eux d’absorber plus de carbone”, estime Pieter Tans qui précise néanmoins que le ralentissement de ce phénomène n’est pas encore perceptible. Des irrégularités apparaissent néanmoins avec une absorption qui s’est réduite dans les années 1990 avant d’augmenter entre 2000 et 2010. Cette instabilité pourrait être le signe des difficultés croissantes rencontrées par le mécanisme d’absorption. “Si nous conduisons à 150 km/h, la voiture va commencer à trembler et cliqueter en raison d’instabilités et cela signifie qu’il est temps de relâcher l’accélérateur”, explique Jim White, professeur à l’université Boulder. “C’est la même chose pour les émissions de CO2”.

La courbe de croissance de la concentration en CO2 sur une longue période (courbe de gauche) laisse néanmoins craindre que le moment pour les océans seront saturés en CO2 pourrait arriver assez vite. Les courbes ne laissent pas apparaître le moindre signe d’inflexion malgré la multiplication des “sommets de la Terre” au cours des dernières décennies. En 2010, 33,6 milliards de tonnes de CO2 ont été rejetées dans l’atmosphère et, en 2011, 34,8 milliards de tonnes. A ce rythme, la concentration en CO2 devrait atteindre les 400 parts par million (ppm) en 2016, contre 394 ppm aujourd’hui. Avant l’ère industrielle, cette valeur était de 280 ppm. Entre 1959 et 2010, 350 milliards de tonnes de carbone ont été relâchées dans l’atmosphère, ce qui correspond à environ 1000 milliards de tonnes de CO2. La nouvelle étude montre donc que seulement la moitié de cette quantité a été absorbée par la Terre. “Nous constatons déjà un changement climatique, note Caroline Alden, doctorante à l’université de Boulder. Si les puits naturels de carbone saturent, comme les modèles le prédisent, l’impact des émissions humaines de CO2 dans l’atmosphère doublera”.

Michel Alberganti

lire le billet

Richard Muller : la conversion publique d’un climatosceptique

“Appelez-moi un sceptique converti”. C’est par ces mots que Richard A. Muller, professeur de physique à l’université de Berkeley, commence son point de vue publié dans l’édition du New York Times du 28 juillet 2012. Suit ensuite le récit de cette conversion aussi spectaculaire qu’exemplaire. Il y a trois ans, ce scientifique avait conçu de sérieux doutes sur les études concernant le changement climatique. L’an dernier, il a créé un groupe de travail rassemblant une douzaine de collègues. “J’en ai conclu que le réchauffement de la planète était réel et que les estimations précédentes de l’évolution de ce réchauffement étaient correctes. Je fais maintenant un pas supplémentaire: les hommes en sont presque entièrement la cause”, écrit-il.

L’origine humaine du réchauffement

Pour parvenir à de retournement complet d’opinion et à cet aveu public de sa conversion, Richard Muller a lancé un projet, Berkeley Earth Surface Temperature, avec sa fille Elisabeth. Le résultat qu’il a obtenu montre que la température terrestre a augmenté de 1,4°C au cours des 250 dernières années dont 0,8°C pendant les 50 dernières années. Pour lui, la totalité de ce réchauffement est probablement liée aux émissions humaines de gaz à effet de serre.

Richard Muller estime que ces résultats vont plus loin que les affirmations publiées par le GIEC en 2007. Le dernier rapport de cette institution attribuait la plus grande part du réchauffement des 50 dernières années à l’activité humaine et estimait que l’augmentation de température observée avant 1956 pouvait être liée aux modifications de l’activité solaire et même qu’une part substantielle du réchauffement pouvait être d’origine naturelle.

Le projet Berkeley Earth Surface Temperature a fait appel à des méthodes statistiques sophistiquées développée par Robert Rohde afin d’évaluer la température terrestre lors de périodes plus anciennes. Ainsi, toutes les sources d’erreurs utilisées par les sceptiques pour contester l’origine anthropique du réchauffement ont été prises en compte :  biais dû au chauffage urbain, sélection des données utilisées, faible qualité des informations provenant de certaines stations météo, correction humaine des données. “Nous démontrons qu’aucun de ces effets perturbateurs potentiels ne biaisent nos conclusions”, déclare Richard Muller.

Pas d’empreinte de l’activité solaire

Le physicien règle également son compte à l’activité solaire, principal argument opposé par les climatosceptiques aux conclusions du GIEC. Pour eux, les variations de température terrestre seraient essentiellement liées aux cycles solaires. Ils expliquent ainsi la stabilité de cette température observée depuis quelques années et prédisent même un prochain refroidissement en raison du ralentissement en cours de l’activité solaire. Ainsi, le soleil dédouanerait l’homme de sa responsabilité et l’effet de serre ne jouerait qu’un rôle mineur dans le réchauffement.

Les calculs effectués par l’équipe de Richard Muller invalident cette théorie. “Notre analyse concerne une période assez longue pour nous permettre de chercher l’empreinte de l’activité solaire basée sur l’enregistrement de l’historique des taches solaires. Cette empreinte est absente”, conclue-t-il. Pour lui, l’augmentation de la température terrestre observée depuis 250 ans ne peut donc être attribuée au soleil.

Corrélation et causalité

Quant à l’attribution de ce réchauffement à l’activité humaine, elle est liée à la courbe du CO2 qui apporte une meilleure corrélation que tous les autres facteurs testés. Cela n’induit pas, bien entendu, une causalité, surtout pour un sceptique… Mais Richard Muller note que cela “monte la barre” dans la mesure où c’est le CO2 qui apporte la meilleure explication du phénomène de réchauffement.

“C’est un devoir du scientifique d’être convenablement sceptique”, ajoute le physicien dont la conversion ne va pas jusqu’à adhérer aux scénarios les plus catastrophistes.  Il estime que bon nombre, si ce n’est la plupart, des phénomènes attribués au changement climatique “sont spéculatifs, exagérés ou complètement faux”. Sur ce point, pas de conversion. “L’ouragan Katrina ne peut pas être attribué au réchauffement climatique”, affirme Richard Muller. Il ajoute que, pour lui, les ours blancs ne souffrent pas de la réduction des surfaces de glace pas plus que les glaciers himalayens ne vont disparaître en 2035 (une allusion à une erreur du GIEC).

Honnêteté intellectuelle

“La science est ce domaine étroit de la connaissance qui est, en principe, universellement accepté”, note-t-il. Après avoir étudié des questions qu’il estimait sans réponse, Richard Muller espère avoir apporté sa contribution au débat scientifique sur le réchauffement climatique et ses causes humaines. Il reconnaît qu’il reste la partie la plus difficile: obtenir un accord dans le champ politique et diplomatique sur ce qui peut et doit être fait. Nul doute que la démarche de Richard Muller pourra servir d’exemple à d’autres climatosceptiques qui ne font pas toujours preuve de la même rigueur scientifique et de la même honnêteté intellectuelle. Au droit au doute répond le devoir de reconnaître ses erreurs. En science comme ailleurs.

Michel Alberganti

lire le billet

97% des glaces du Groenland se sont mises à fondre… en 4 jours

Les satellites, et surtout les scientifiques de la Nasa qui ont analysé leurs images, n’en sont pas revenus. En 30 ans d’observation, jamais le Groenland n’avait fondu à une telle vitesse. En 4 jours, la calotte glaciaire intacte du “pays vert” a perdu 97% de sa surface… Les mesures effectuées par trois satellites montraient, le 8 juillet 2012, que 40% de la calotte glaciaire avait déjà fondu. Mais le 12 juillet, quatre jours plus tard, c’est donc 97% de sa surface qui fondait. Cela paraît d’autant plus extraordinaire que l’épaisseur de la glace, au centre de l’île, atteint les 3 km en hivers, saison où la calotte (inlandsis) couvre 80% de la surface du Groenland. Normalement, en été, seulement 50% de l’inlandsis fond. Et, à haute altitude (le Groenland a des sommets entre 3000 et 4000 m), l’eau regèle sur place. Cette année, la fonte est si importante que les chercheurs se demandent quelle quantité d’eau va réellement s’écouler dans l’océan et quel impact cela pourra avoir sur le niveau des mers sur la planète. Il faut toutefois préciser que la glace n’a pas disparu de la surface du Groenland. Les zones rouges de la carte ci dessus montrent les zones qui fondent. La zone blanche est celle de la zone qui ne fond pas et c’est celle-là qui ne représente plus que 3% de la surface couverte en hivers.

Un couvercle d’air chaud

” C’est si extraordinaire que, pour la première fois, je me suis interrogé sur le résultat des mesures en me demandant s’il ne s’agissait pas d’une erreur”, note Son Nghiem du Jet Propulsion Laboratory (JPL) de la Nasa à Pasadena. Les météorologistes indiquent que cette fonte est liée à un front d’air chaud qui forme une sorte de couvercle sur le Groenland. Cela rappelle la canicule de 2003 en France qui résultait d’un phénomène similaire. Le front d’air chaud actuel n’est pas le premier. Depuis mai 2012, plusieurs se sont formés sur le Groenland. “Chacun d’entre eux s’est révélé plus fort que le précédent”, remarque Thomas Mote, climatologue de l’université de Géorgie. Le dernier en date a commencé à arriver sur le Groenland le 8 juillet et s’est stabilisé sur le calotte glaciaire le 11 juillet avant de se dissiper à partir du 16 juillet.

Un phénomène qui se produit tous les 150 ans…

Même la glace située dans la région de la station Summit, à 3000 mètres d’altitude dans le centre de l’île, a commencé à fondre. Cela ne s’était pas produit depuis 1889, selon les carottes de glace analysées au Darthmouth College de Hanovre. Ces carottes indiquent qu’une fonte comme celle de cette année ne survient que tous les 150 ans en moyenne. Ce phénomène exceptionnel pourrait donc s’inscrire dans le cycle naturel de cette région. Sauf s’il se reproduisait l’année prochaine. Dans ce cas, le mot qui est dans tous les esprits, mais que la Nasa ne cite guère, c’est à dire le réchauffement climatique, pourrait bien se révéler être la cause de cette fonte ultra rapide de l’inlandsis du Groenland. D’ici là, il faudra mesurer l’impact de toute cette eau polaire sur le niveau des mers. La rupture, la semaine dernière, d’une partie du glacier Petermann grande comme la ville de Paris avait déjà donné l’alerte au réchauffement et à la montée des eaux.

 

Michel Alberganti

Note : Quelques informations sur la calotte glaciaire du Groenland à la suite de certains commentaires sur cet article :

– Son épaisseur moyenne est de 2,3 km avec un maximum d’environ 3 km en son centre.
– Ses glaces les plus anciennes dateraient de 110 000 ans.
– Sa surface est d’environ 1,8 million de km2 et son volume est de 2,9 millions de km3.
– Il s’agit du plus grand réservoir d’eau douce de la planète après l’inlandsis de l’Antarctique qui rassemble 70% de l’eau douce présente sur Terre.
– Si toute la glace du Groenland fondait, le niveau des mers s’élèverait de 7,3 mètres.
– Si toute la glace de l’Antarctique fondait, le niveau des mers s’élèverait de 56,6 mètres.

Sources:
http://www.esa.int/esaEO/SEMILF638FE_planet_0.html
http://www.iceandwater.gl/
http://www.mpimet.mpg.de/en/news/press/faq-frequently-asked-questions/how-much-will-the-sea-level-rise.html
Et, bien sûr, Wikipédia…


lire le billet

L’agriculture peut tirer profit de la biodiversité au lieu de la détruire

Rio+20, le dernier sommet de la Terre qui s’est tenu à Rio de Janeiro du 20 au 22 juin 2012 n’a pas dérogé à la règle qui semble être devenue la marque des grands rassemblements de chefs d’Etat et de gouvernement (130 à Rio) autour des questions d’écologie ou de climat : la déception. Cette fois, au moins, les débats n’ont pas traîné en longueur comme lors de la conférence de Durban, en décembre 2011. Le document final avait été rédigé avant même l’arrivée des « décideurs ». Sage stratégie. Maigre résultat. A lire ce texte de 60 pages, on a souvent l’impression qu’il concerne le sommet de Rio de 1992 et non celui de 2012. On peut y lire, par exemple, au sujet de la biodiversité : « Nous sommes conscients de la gravité de la perte de la biodiversité et de la dégradation des écosystèmes qui entravent le développement mondial, compromettant la sécurité alimentaire et la nutrition, l’accès à l’eau et son approvisionnement ainsi que la santé des pauvres des zones rurales et des populations dans le monde, y compris pour les générations présentes et futures ».

20 ans de prise de conscience

On aurait pu penser, sans doute naïvement, que, 20 ans après, les décideurs avaient dépassé le stade de la prise de conscience et se trouvaient en pleine action. A elle seule, cette phrase résume le paradoxe de ce décalage. Elle énumère en effet une série de conséquences de la perte de biodiversité sur la planète qui se révèlent encore plus graves que celles du réchauffement climatique. Pourtant, pas plus que dans ce domaine, l’heure n’est guère aux décisions contraignantes. Plus loin, le texte annonce : Nous « lançons un appel en faveur de mesures urgentes qui réduisent sensiblement le taux de perte de biodiversité, mettent fin à ce processus et permettent de l’inverser ».Face à ce qui est présenté comme une véritable catastrophe, les décideurs, 20 ans après le Sommet de Rio et la Convention sur la biodiversité signée alors, lancent un appel…

Sur le modèle du GIEC pour le climat

Cela signifie-t-il qu’il ne s’est rien passé en deux décennies et que la question de la biodiversité souffre d’un attentisme plus profond encore que celle du réchauffement climatique ? Oui et non. Oui parce que la création d’une structure comparable à celle du GIEC pour le climat ne date que du 21 avril 2012. Elle est malheureusement affublée d’un nom peu ragoutant : IPBES, pour Intergovernmental Platform on Biodiversity and Ecosystem Services, dénomination qui n’a, semble-t-il, pas encore été traduite en français… Lors de sa création, Robert Watson, conseiller scientifique du ministère de l’environnement du Royaume Uni, s’est exclamé : « Aujourd’hui, la biodiversité a gagné ! » Sans forcément céder à cet enthousiasme, il est néanmoins possible de dégager quelques points positifs dans l’évolution de la prise en compte de la biodiversité au cours des 20 dernières années :

1°/ La sensiblerie au placard

Bonne nouvelle pour ceux qui ne pouvaient plus voir en photo l’ours blanc à la dérive sur son bloc de glace. Ou celles du panda suggérant la privation programmée de toutes peluches pour les bambins des futures générations. La corde de la sensiblerie semble définitivement usée et remisée au rayon des accessoires hors sujet. Compter sur la larme à l’œil de la population n’a pas donné les résultats escomptés et, surtout, elle a totalement échoué sur le plan pédagogique. Le problème de la perte de la biodiversité ne se résume pas à la protection de quelques espèces, certes sympathiques, mais dont la disparition ne bouleversera pas le mode vie de l’humanité. Or, même si l’on peut souvent s’en désoler, la grande majorité des êtres humains n’est sensible qu’aux problèmes susceptibles de le toucher directement. C’est-à-dire d’affecter sa santé, son confort, son travail ou l’avenir de ses enfants.

2°/ L’impact négatif sur l’homme

Justement, la perte de biodiversité n’est plus considérée comme une simple douleur pour les amoureux de la nature ou une perte d’outil de travail pour les biologistes. La notion de services fournis par les écosystèmes désigne les apports à l’homme par certains équilibres naturels. Un exemple : la destruction massive des requins par la surpêche engendre une prolifération de certaines espèces qui ont perdu leur prédateur. C’est le cas des raies. Or, ces dernières se nourrissent de coquillages comme les coquilles Saint-Jacques qui constituent l’une des principales ressources économiques pour les populations côtières. Ainsi, un déséquilibre provoqué par l’homme entraîne directement un phénomène nuisible pour l’homme. La leçon est claire : ce sont les requins qui garantissaient la récolte des coquillages. Avant même la disparition d’une espèce, une réduction importante de ses effectifs peut ainsi avoir des conséquences néfastes sur l’industrie humaine. On pense également aux abeilles dont le travail de pollinisation est estimé en dizaines de milliards de dollars. Déjà, leur raréfaction induit des coûts importants de transport et de location des ruches pour pallier l’absence d’abeilles locales. Là encore, avant même leur éventuelle disparition, la forte mortalité des abeilles, désormais attribuée à un cocktail de doses subléthales d’insecticides, coûte très cher aux cultivateurs d’arbres fruitiers.

3°/La possibilité d’une agriculture écologiquement  intensive

Un tel constat de l’impact négatif sur l’activité humaine des déséquilibres écologiques engendrés par cette même activité conduit naturellement à s’interroger. La guerre que mène actuellement l’agriculture contre l’environnement, à coup d’engrais chimiques et de pesticides, est-elle la solution optimale ? Non pas pour préserver la nature mais bien pour en tirer le meilleur profit ? Une telle question prend à contre-pied les militants de la décroissance pour lesquels la protection de la nature passe pas l’abandon de la culture intensive. Or, la démographie galopante des pays émergents rend fortement improbable de parvenir à nourrir la planète sans, au contraire, augmenter la productivité de l’agriculture dont les surfaces cultivables sont passablement réduite par les productions destinées aux biocarburants. Que faire ? Augmenter encore les fameux intrants, engrais et pesticides ? Recourir aux OGM ? Ou bien faire appel au concept qui se développe depuis quelques années : l’agriculture écologiquement intensive. L’idée fait son chemin comme en témoigne, par exemple, la tribune publiée dans Slate Afrique par Bernard Giraud, président de Livelihoods Venture près Rio+20. De quoi s’agit-il ?

Subvenir à des besoins alimentaires croissants

Dès 1999, Kenneth Cassman, professeur d’agronomie à l’université du Nebraska-Lincoln, plaidait pour une « intensification écologique des systèmes de production de céréales », dans un article publié dans les Proceedings of the National Academy of Science (PNAS) des Etats-Unis. Sa thèse n’a rien à voir avec un quelconque retour à la bougie ou au troc du tracteur pour les bœufs. Il s’agit de trouver des solutions agronomiques pour subvenir aux besoins croissants de la population du globe dans un contexte de surfaces cultivables limitées. L’article de Kenneth Cassman concluait :

« La sécurité alimentaire des 30 années à venir dépendra de rapides avancées scientifiques dans la compréhension des bases physiologiques du potentiel de rendement des récoltes, des relations entre la qualité des sols et la productivité des récoltes, de l’écologie des végétaux en relation avec les nombreux facteurs d’interaction avec l’environnement qui détermine les rendements. Atteindre ces objectifs scientifiques est possible, mais les actuels niveaux d’investissement dans ces domaines de recherche, aux Etats-Unis ou ailleurs,  ne sont pas adaptés pour relever ce défi ».

Au-delà de la révolution verte

En d’autres termes, l’ère de l’agriculture intensive issue de la révolution verte ne sera pas capable de subvenir aux besoins alimentaires des prochaines décennies. Les gains de rendement nécessaires ne peuvent passer que par la prise en compte de facteurs écologiques. De fait, les rendements de la culture du blé stagnent depuis 1999, selon les chiffres de la FAO. Le nouveau chantier vise donc à réconcilier l’agriculture avec l’écologie, non pas pour seulement préserver la nature mais, aussi, pour améliorer l’efficacité des cultures. Nous entrerions alors dans une période d’études des mécanismes intimes de la croissance des végétaux.

De quoi donner une tout autre signification à la démarche écologique. Au lieu d’opposer systématiquement l’homme à la nature, il s’agirait d’optimiser les relations entre les deux « camps ». Les bénéfices attendus par l’humanité pourraient bien alors se révéler compatibles avec ceux des équilibres écologiques. La biodiversité ne serait plus uniquement considérée sous l’angle des agressions à combattre mais sous celui des apports mutuels des espèces entre elles. Un rêve ?…

Michel Alberganti

Sur ce thème, vous pouvez (ré)écouter l’émission sur j’ai animée sur France Culture le 22 juin 2012 : Rio+20 : La perte de biodiversité est-elle une perte pour l’homme ?

Regardez egalement cette vidéo très didactique sur les impacts de la biodiversité sur l’homme:

lire le billet

Les particules diesel flashées par un laser

Les rayons du soleil révèlent le nuage émis par une locomotive à bio-diesel

Comme les milliards de particules qui peuplent l’air que nous respirons, surtout en ville, les suies émises par les moteurs diesel font particulièrement débat depuis que l’Organisation mondiale de la santé (OMS) les a classées comme cancérogènes certains pour l’homme (lire l’article de Gilles Bridier à ce sujet). L’une des difficultés pour appréhender ce type de pollution atmosphérique réside dans son caractère invisible et souvent inodore. Or, on le sait bien, ce que l’on ne voit pas est moins inquiétant que ce que l’on voit. Pourtant, ces particules, dangereuses pour la santé, jouent également un rôle dans le changement climatique. D’où l’intérêt de pouvoir mieux les observer. C’est justement le but des travaux publiés par le Centre pour le laser à électrons libres (CFEL) de Hambourg dans la revue Nature de cette semaine.

Laser à rayon X

“Pour la première fois, nous pouvons réellement voir la structure de particules individuelles flottant dans l’air, leur habitat naturel”, déclare Henry Chapman, un chercheur de l’Électron-synchrotron allemand (DESY), membre du CFEL. Pour y parvenir, les scientifiques ont dû trouver un moyen plus efficace que la lumière visible  ou les rayons X. Finalement, la solution a été apporté par le plus puissant laser à rayon X actuel, le LCLS, issu de l’accélérateur SLAC fondé par le ministère de l’énergie américain (DOE) à Stanford. De tels lasers utilisent les électrons libres, c’est à dire non liés à un atome, produits par un accélérateur de particules. Au LCLS, ces électrons émettent ensuite des photons ayant la longueur d’onde des rayons X. A Hambourg, un système similaire est en cours de construction, le XFEL, qui doit entrer en service en 2015. Il existe également un projet de ce type en France en collaboration avec le Synchrotron Soleil.

Le principe du laser à électrons libres

Particules de moins de 2,5 microns

La partie dans laquelle les électrons ondulent mesure de 3 à 4 km, ce qui fait du laser à électrons libres un instrument qui n’est pas vraiment portatif… Néanmoins, les chercheurs du CFEL sont parvenus à une première sur les particules de moins de 2,5 microns (millièmes de mm) qui correspondent à celles qui pénètrent dans nos poumons et qui arrivent en seconde position, après le CO2, parmi les acteurs du réchauffement climatique. Pour l’expérience, les chercheurs ont fabriqué eux-mêmes des particules de suie à partir d’un morceau de graphite et ils les ont dispersées, mélangées à du sel, dans un flux d’air. C’est cet aérosol qui a été intercepté par le rayon laser à électrons libres. L’interaction entre les pulsations du laser et les particules ont produit une diffraction de la lumière que les scientifiques ont enregistrée. A partir de ces motifs de diffraction, ils sont capables de reconstituer la structure de la particule qui les a engendrés.

Les figures de diffraction rendent visible la structure de particules de suie

“La structure des particules détermine comment elle disperse la lumière”, explique Andrew Martin, un autre signataire de l’étude travaillant au DESY. “Et ce phénomène explique comment l’énergie solaire est absorbée par l’atmosphère terrestre et joue ainsi un rôle majeur dans les modèles climatiques. De même, il existe de nombreux liens entre ces particules d’environ 2 microns et les effets négatifs sur la santé”, note le chercheur. Grâce au laser à électrons libres, la forme et la composition de particules individuelles ont pu être analysées. Cela pourrait permettre de mieux comprendre comment elles interfèrent avec les fonctions des cellules dans les poumons.

Dimension fractale importante

L’équipe du CFEL a ainsi analysé 174 particules dont elle a également mesuré la compacité en utilisant une propriété appelée “dimension fractale” et qui décrit comment un objet rempli l’espace. Les chercheurs ont été surpris par les valeurs obtenues, supérieures à ce qu’ils attendaient. La preuve d’une compacité importante. De même, la structure des particules s’est révélée étonnamment variable ce qui révèle un nombre important de déformations dans l’air.

Réchauffement climatique et suies de moteurs diesel

Ces travaux laissent entrevoir la possibilité de mieux visualiser l’évolution de la formation des suies dans un moteur diesel, par exemple, et même d’analyser les premières étapes de la formation des cristaux de glace dans les nuages. Ils pourraient affiner les modèles climatiques qui en ont besoin en matière d’interaction entre l’énergie solaire et l’atmosphère terrestre. Pour les constructeurs automobiles, de précieuses informations sur les fameuses suies émises par les moteurs diesel pourraient permettre d’en réduire la quantité ou d’en atténuer la dangerosité pour la santé humaine.

Michel Alberganti

lire le billet

Un torrent de lait… jeté dans l’évier

“No milk today”, le célèbre tube des Herman’s Hermits de… 1966, outre le plaisir inusable qu’il procure encore aujourd’hui, retrouve une forme d’actualité grâce à l’étude publiée par David Reay, professeur à l’université d’Edimbourg, dans la revue Nature Climate Change du 13 mai 2012. Consacrée aux émissions de dioxyde d’azote (NO2) par l’agriculture, la publication révèle quelques chiffres édifiants.

Les rejets annuels de 20 000 automobiles

D’après David Reay, les Anglais jetteraient dans leurs éviers pas moins de 360 000 tonnes de lait par an. Soit l’équivalent de 100 000 tonnes de CO2 émis dans l’atmosphère au cours des différentes étapes de la production de ce lait gaspillé. Cela équivaut aux rejets annuels de 20 000 automobiles… Pour les auteurs de l’étude, qui comprennent également des chercheurs de l’université d’Aberdeen et des partenaires en Europe et aux Etats-Unis, notre façon de consommer, en particulier lorsqu’il s’agit de nourriture, contribue significativement aux émissions de CO2 responsables du renforcement de l’effet de serre qui fait monter la température du globe. Pour les scientifiques, les consommateurs pourraient agir sur ces émissions en réduisant la quantité de nourriture qu’ils achètent, qu’ils mangent et qu’ils jettent. L’industrie agroalimentaire, de son coté, pourrait jouer également un rôle positif en utilisant les engrais de manière plus efficace.

Diviser par deux la consommation de poulets

Après le lait, le poulet… Les chercheurs estiment que la division par deux du nombre de poulets mangés en Grande-Bretagne et dans les autres pays développés serait équivalente au retrait de la circulation de 10 millions de voitures. Et ce n’est pas inconcevable si l’on considère l’exemple des Japonais. Ces derniers consomment chacun 12 kg de poulet par an. Contre 26 kg par an pour chaque habitant des pays développés. En les mettant ce dernier au régime nippon d’ici 2020, les émissions mondiales dues à l’élevage de la volaille tomberaient en dessous de leur niveau actuel malgré la croissance économique. Au total, les émissions de NO2 chuteraient de 20%.

Manger moins de viande, gaspiller moins de nourriture

En fait, la consommation de viande devrait plutôt augmenter dans les prochaines années du fait de la progression démographique et de l’impact des pays émergents dont les habitants s’y adonnent de plus en plus. Or, l’agriculture est la principale source de NO2. Produire de la viande en émet plus que la simple culture consommée directement du fait des quantités considérables de céréales qui servent à nourrir le bétail. D’où la conclusion de David Reay: “Manger moins de viande et gaspiller moins de nourriture peut jouer un grand rôle dans la maîtrise des émissions de gaz à effet de serre face à la croissance de la population mondiale”. Commençons tout de suite: pas de lait aujourd’hui !

Michel Alberganti

 

lire le billet

Energie: la feuille artificielle qui produit de l’hydrogène

Mère Nature est loin d’avoir livré tous ses secrets aux scientifiques. Après l’avoir longtemps ignorée ou méprisée, les chercheurs se tournent désormais de plus en plus souvent vers elle pour la copier (biomimétisme, biorobotique…). Une façon de ne pas réinventer la roue… Il pourrait en être de même avec les cellules solaires. Après avoir développé le photovoltaïque qui transforme directement l’énergie solaire en électricité, certains chercheurs travaillent sur la création de feuilles artificielles. Il s’agit tout simplement de réaliser un processus qui s’inspire de la photosynthèse à l’oeuvre dans les feuilles des plantes. Ces dernières fonctionnent avec deux ressources très abondantes: l’eau et la lumière. Véritables capteurs solaires, les feuilles fournissent l’énergie dont les plantes et les arbres ont besoin pour vivre. Pourquoi un tel système, breveté par la nature, ne pourrait-il pas nous apporter les mêmes services ? C’est la question que s’est posée Daniel Nocera, professeur d’énergétique et de chimie au Massachusetts Institute of Technology, le MIT. Sa réponse : la feuille artificielle.

Hydrogène, le retour

Daniel Nocera, professeur au MIT

Il s’agit pas d’une dénomination légèrement abusive. La feuille de Daniel Nocera ne ressemble que vaguement à l’original. Et son fonctionnement ne lui est fidèle que dans son principe. Contrairement à son homologue naturel, son carburant n’est pas l’air et le CO2 qu’il contient mais l’eau dans laquelle elle est plongée. Éclairée par le soleil, la feuille artificielle produit de l’oxygène et, surtout, de l’hydrogène. Et qui dit hydrogène dit énergie. En effet, les piles à combustibles prennent le relais et transforment l’hydrogène en eau et en électricité. On pourrait alors penser que la feuille artificielle introduit une étape inutile par rapport à la cellule photovoltaïque qui réalise directement la conversion soleil-électricité. En réalité, cette étape se révèle très précieuse. En effet, la production d’hydrogène permet de stocker l’énergie électrique que la même façon que le pétrole. Pour faire de même avec les cellules photovoltaïques, on fait appel à des batteries. Ce qui remet les deux processus à égalité, avec trois étapes chacun. Toutefois, malgré les progrès des batteries au lithium par exemple, l’hydrogène est considéré par certains, comme Jeremy Rifkin,  comme le carburant du futur grâce à sa très importante densité d’énergie (rapport entre la masse et l’énergie emmagasinée) et malgré les risques d’explosion que les spécialistes estiment maîtrisables.

Plongée dans un récipient d’eau et éclairée par de la lumière, la feuille artificielle produit en permanence des bulles de gaz (oxygène et hydrogène). Cela semble un peu miraculeux. Le système résout l’un des problèmes majeurs de l’hydrogène: l’importante quantité d’énergie nécessaire pour l’extraire de l’eau avec les techniques classiques (hydrolyse). Ici, l’énergie est fournie par le soleil. Et le système semble très stable. Il a montré qu’il peut fonctionner pendant plus de 40 heures. Comment réaliser une telle alchimie ? Comment ça marche !?

La feuille artificielle de Daniel Nocera

De la chimie impénétrable

Daniel Nocera explique ses derniers progrès dans un article publié le 4 avril 2012 dans la revue Accounts of Chemical Research. Etant donné qu’il s’agit essentiellement de chimie, le processus est totalement incompréhensible, impénétrable pour le commun des mortels. Les spécialistes apprécieront… Nous nous contenterons de noter que la feuille artificielle est composée d’un sandwich constitué par, d’un coté, du silicium amorphe photovoltaïque qui se charge d’isoler l’hydrogène grâce aux photons fournis par la lumière et, de l’autre coté, par un assemblage de cobalt et de phosphate. Entre les deux, un alliage ternaire (nickel, molybdène, zinc, joue le rôle de catalyseur. Au final, ce morceau de silicium recouvert de deux couches d’alliages métalliques suffit pour séparer l’oxygène et l’hydrogène de l’eau… Et l’on peut, selon Daniel Nocera, produire assez d’énergie pour alimenter une maison avec moins de 4 litres d’eau (un gallon) par jour dans les pays ensoleillés… Soleil, eau, feuille artificielle, hydrogène, pile à combustible, électricité. Le tour est joué…

Tata sur le coup

Avant d’arriver à ce “petit” miracle, juste capable de résoudre le problème de la fourniture d’une énergie verte en quantité illimitée à moindre coût, il faudra résoudre quelques problèmes techniques. Récupérer l’hydrogène, par exemple. Mais gageons les enjeux vont stimuler les techniciens… et les industriels. Justement, l’un d’entre eux, et pas de moindre puisqu’il s’agit du groupe indien Tata (100 sociétés dans 80 pays, 425 000 salariés, 83,3 milliards de dollars de chiffre d’affaires) va construire une petite centrale, de la taille d’un réfrigérateur, d’ici fin 2012, selon Wired UK.

L’énergie personnalisée

En attendant, Daniel Nocera milite. Il ne s’agit pas seulement d’un scientifique potentiellement génial – si la feuille artificielle fonctionne, il devrait avoir le prix Nobel -, c’est aussi un orateur qui plaide pour le développement de “l’énergie personnalisée”. C’est à dire le modèle exactement inverse de celui, très centralisé, que nous utilisons aujourd’hui. Pour lui, demain, chacun produira l’énergie dont il a besoin. Cela paraissait difficile d’y parvenir avec les technologies vertes (solaire, éolien, biomasse, géothermie…). Mais la feuille artificielle pourrait apporter une solution capable, un jour peut-être assez proche, de nous permettre le rompre le cordon ombilical qui nous relie à… EDF.

Michel Alberganti

lire le billet

Un scientifique russe prédit un refroidissement du climat

Les climatosceptiques ne désarment pas. Tandis qu’ils féraillent toujours aux Etats-Unis, voici qu’un renfort leur parvient… de Russie. Nikolaï Dobretsov, président du Conseil unifié des sciences sur la Terre (section sibérienne de l’Académie des sciences de Russie) a ainsi déclaré le 26 mars 2012 que la prévision d’un réchauffement climatique ininterrompu ne se justifie pas. A l’appui de sa thèse, il avance l’évolution de la calotte polaire de l’Arctique. Nikolaï Dobretsov estime que, pendant le 21ème siècle, les glaces du pôle Nord subiront des phases successives de décroissance et de croissance sous l’effet de périodes de réchauffement et de refroidissement. « Vers la fin de ce siècle, un refroidissement climatique aura lieu et non pas un réchauffement, telle est la prévision actualisée », a-t-il affirmé. Pour affiner cette prévision, il estime nécessaire de développer le réseau des stations météorologiques en Arctique telle que celle qui doit être implantée en août 2012 sur l’île de Samoïlovski dans l’embouchure de la Léna.

Nikolaï Dobretsov, par ailleurs président honoraire de l’Académie des sciences en Asie et bardé de distinctions et de postes prestigieux, est géologue. Et cela nous rappelle la spécialité des deux plus médiatiques climatosceptiques français; Claude Allegre et Vincent Courtillot. Eux plaident pour des fluctuations climatiques liées à celles de l’activité du soleil.

Sa déclaration concernant la calotte polaire arctique est d’autant plus surprenante qu’il s’agit de la zone où le réchauffement progresse à une vitesse très supérieure aux prévisions des climatologues du GIEC.

Dans un contexte d’affrontement de lobbies, il est difficile de ne pas remarquer que la Russie fait partie des pays qui ont d’importants intérêts économiques liés au réchauffement climatique: l’ouverture du passage du Nord qui pourrait concurrencer le canal de Suez mais également sa production de pétrole et de gaz, parmi les deux premières du monde, et dont l’utilisation contribue à accroître les émissions de gaz à effet de serre contribuant au réchauffement planétaire.

Si un tel soupçon était fondé, cela signifierait la Russie met la réputation de certains de ses scientifiques au service de causes politiques et économiques, ce qui ne grandirait pas le régime de Vladimir Poutine. Si Nikolaï Dobretsov est sincère et s’il étaye son analyse, son avis pourrait relancer le débat sur le réchauffement climatique un temps éclipsé par la crise économique.

Michel Alberganti

lire le billet

3,7 millions d’Américains risquent l’inondation d’ici 2100

Elévation moyenne du niveau des marées hautes en 2100

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L’une des conséquences du réchauffement climatique sera une montée du niveau des mers en raison de la fonte des glaces aux pôles et de la dilatation de l’eau en fonction de la température. On a souvent parlé des zones les plus menacées par ce phénomène, qu’ils s’agissent des îles du pacifiques, d’estuaires de grands fleuves ou de pays comme la Hollande. Mais les auteurs d’une étude publiée le 14 mars dans les Environmental Research Letters se sont penchés sur le cas des Etats-Unis, pays qui compte parmi les plus réticents face aux mesures de limitation des émissions de CO2 dans l’atmosphère. Les chercheurs de l’université d’Arizona ont découvert que pas moins de 3,7 millions d’Américains sont menacés par des inondations à marée haute dans le cas où le niveau de la mer monterait d’un mètre d’ici 2100. Près de 32 000 km2 de terre, soit environ la taille d’un Etat tel que le Maryland, se situent à moins d’un mètre au dessus du niveau le plus haut atteint par les marées actuelles. Ces 3,7 millions d’Américains concernés par les inondations en 2100 représentent 1,2% de la population du pays. Et 89% d’entre eux se trouvent dans 5 Etats: Floride, Louisiane, Californie, New York et New Jersey. Dans 544 municipalités situées dans 32 contés, plus de 10% de la population vit à moins d’un mètre au dessus du  niveau atteint par les grandes marées. Certes, ces populations ne se retrouveront sous l’eau en permanence mais elles risqueront un inondation lors de chaque grande marée d’ici 2100. Une autre carte montre la répartition géographique des populations concernées aux Etats-Unis :

Populations vivant à moins d'un mètre au dessus du niveau maximal atteint aujourd'hui par les marées hautes.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Michel Alberganti

lire le billet