Débat sur le climat: Claude Allègre s’en mêle… aux Etats-Unis

“Pas besoin de paniquer au sujet du réchauffement planétaire”. Un titre éloquent qui semble tout droit tiré d’un blog de climato-sceptiques. En fait, il s’agit de celui d’un point de vue publié dans la rubrique “Opinion” du Wall Street Journal, dans son édition du 27 janvier 2012. Le texte est signé par pas moins de 16 scientifiques au pedigree respectable, bien que souvent à la retraite, dont l’un au moins n’est pas inconnu des Français… Claude Allègre, ordre alphabétique oblige, se retrouve même en tête de la liste…
Comme son titre l’indique clairement, il s’agit d’un plaidoyer climato-sceptique destiné aux candidats aux élections américaines. Le message est simple et bien connu: pas la peine de dépenser beaucoup d’argent pour lutter contre le réchauffement climatique en réduisant les émissions de CO2 par l’industrie et le transport. Pourquoi ? D’abord parce que l’augmentation de température s’est ralentie au cours des 10 dernières années, dixit les signataires. Et surtout parce que le lien entre ce réchauffement et l’accroissement du taux de CO2 dans l’atmosphère serait loin d’être établi, toujours selon les climato-sceptiques. Rien de nouveau sous le soleil, donc… Ou plutôt si: son absence dans le raisonnement des anti-consensus. Alors que le réchauffement est présenté, par les contestataires comme le géophysicien Vincent Courtillot en France, comme dû à l’augmentation de l’activité solaire au cours des dernières décennies, cet argument n’est plus repris par le texte publié dans le Wall Street Journal. Il faut dire que, toujours selon cette thèse, le soleil entrant dans une phase de moindre activité, le réchauffement doit se ralentir, comme le montrerait le plateau du réchauffement observé au cours des 10 dernières années.

Impact du CO2

Evolution de la concentration en CO2 dans l'atmosphère mesurée au Mauna Loa Observatory, Hawaii. Courbe en rouge: valeurs mensuelles moyennes. Courbe en noir: valeurs corrigées par les variations saisonnières. Source: NOAA

Le point de vue des climato-sceptiques américains se focalise sur le rôle du CO2 dont l’impact sur l’économie est direct.  Les signataires le martèlent: pour eux, l’impact de l’accroissement de la concentration en gaz carbonique dans l’atmosphère sur le réchauffement de la planète n’est pas démontré. Mais le débat sur ce point serait tabou, interdit par la majorité des scientifiques défendant la thèse inverse et réclamant des mesures drastiques pour limiter les rejets de gaz à effet de serre, dont le CO2, dans l’atmosphère. Ce diktat du consensus aurait conduit, selon le texte, Ivar Giaever, prix Nobel de physique en 1973 pour ses découvertes sur l’effet tunnel dans les semi-conducteurs, supporter du président Obama et climato-sceptique connu, à ne pas renouveler son adhésion à l’American Physical Society. Cette dernière a en effet affirmé que ” la preuve du réchauffement climatique est irréfutable” [incontrovertible]. Un mot qui n’est pas passé et sur lequel les signataires du texte du Wall Street Journal s’appuient pour dénoncer une chasse aux sorciers du climat, tels Chris de Freitas, éditeur du journal Climate Research. Ils vont jusqu’à invoquer, à nouveau, l’affaire Lysenko en se comparant aux scientifiques dissidents russes envoyés au goulag parce qu’ils croyaient à la génétique. Voici donc les climato-sceptiques auto-érigés en hérétiques pourchassés par l’inquisition du réchauffement…

Manque de réchauffement

Le plus étonnant, dans l’argumentaire des signataires, concerne leur affirmation que l’on observerait un “manque de réchauffement depuis plus de 10 ans” et que l’augmentation de la température du globe sur les 22 dernières années serait inférieure aux prévisions du GIEC. L’argumentaire se radicalise ainsi en s’attaquant désormais, non seulement au rôle du CO2, mais également à la réalité de la poursuite du réchauffement.
Sur ce dernier point au moins, il semble bien difficile de les suivre, tant ils s’opposent à de nombreux signes de l’augmentation de la température du globe depuis le début du 21ème siècle.

 

La courbe ci-dessus montre à la fois l’évolution des anomalies de température (plus faciles à mesurer que les température moyennes absolues sur la planète) entre 1880 et 2010. La courbe en bleu compare ces anomalies annuelles avec la moyenne du 20ème siècle (1901-2000). On constate que cette dernière atteint une sorte de plateau à partir de 2005. En effet, les années comprises entre 2006, 2007, 2008 et 2009 ont connu des anomalies de température plus faibles. Cela n’a pas été le cas de 2010 qui se situe à un niveau record, égalant le pic de 2005 et dépassant celui de 1998.

Records de chaleur en 2005 et 2010

En 2010, selon l’agence fédérale américaine National Oceanic and Atmospheric Administration (NOAA), tous les records de température ont été battus avec une augmentation de 0,62°C par rapport à la moyenne du 20ème siècle (13,9°C). En 2011, rebelote. L’année égale le niveau de 1997 et se classe en 11ème position dans les années records depuis 1880. La température moyenne du globe se situe 0,51°C au dessus de la moyenne du 20ème siècle. La NOOA note que 2011 est la 35ème année consécutive avec une température supérieure à la moyenne du 21ème siècle. Certes, avec un résultat similaire à 2004, 2011 va conduire à un prolongement du plateau de la courbe bleue du schéma ci-dessus. Une représentation quelque peu trompeuse car elle lisse le phénomène. Néanmoins, il est clair qu’elle affiche une croissance depuis l’an 2000, contrairement à la position des climato-sceptiques qui déclarent, dans le texte du Wall Street Journal, que ” le fait le plus gênant est le manque de réchauffement global pendant bien plus de 10 ans maintenant”.

Affirmation sans source

Une affirmation qui contredit donc la NOAA. Il eut été indispensable de citer une source pour étayer la crédibilité d’une telle assertion. De la même façon, le texte conteste les modèles informatiques qui servent aux climatologues à établir le lien entre réchauffement et concentration en CO2 dans l’atmosphère. Pour les signataires “le manque de réchauffement au cours de la dernière décennie – en fait  le réchauffement le plus inférieur aux prévisions sur les 22 dernières années pendant lesquelles le GIEC a publié des prévisions – suggère que les modèles informatiques ont grandement exagéré le réchauffement que peut engendrer une augmentation du CO2”. Fondée sur une affirmation non démontrée, la contestation se révèle un peu courte.

Perception délicate

La perception du changement climatique à travers la météo est délicate et les climato-sceptiques exploitent largement cette difficulté. Ainsi, alors que l’année 2010 a battu tous les records au niveau mondial, elle est révélée particulrement “fraiche” en France. En revanche, 2011, année tiède dans le classement planétaire, a été la plus chaude en France depuis 1900, selon le bilan de Météo France. Elle surpasse même 2003, année de la fameuse canicule meurtrière.

 

La délicate relation entre météorologie et climatologie devrait conduire le GIEC à un effort pédagogique. Or, ce dernier se contente de publier ses rapports tous les… 7 ans. Après celui de 2007, il faudra attendre 2014 pour un nouvel état des lieux du réchauffement climatique. Les rares documents intermédiaires manquent souvent de conclusions claires. Ainsi, le dernier en date concernant la relation entre les événements climatiques extrêmes et l’augmentation de la température de la Terre liée aux activité humaine brille surtout par son luxe de précautions.

Manque de pédagogie

Lorsque l’on cherche des données sur les mesures annuelles montrant l’évolution de la température su globe, M. Google ne nous aide guère. Il faut fouiller pour dénicher les valeurs publiées par la NOAA… Et le site du GIEC n’est guère utile dans ce domaine. Or, face à des climato-sceptiques qui n’hésitent pas à lancer des affirmations sans sources, il serait hautement souhaitable de disposer d’informations faciles d’accès et présentées de façon pédagogique. Quel site va enfin se décider à publier l’évolution de la température de la planète ? Au risque d’afficher des baisses de cette température pour certaines années. Si les climatologues veulent combattre le climato-scepticisme, ils ne peuvent que gagner à fournir de telles données aux citoyens qui cherchent à étayer leur opinion. D’ailleurs le temps presse. En particuliers aux Etats-Unis où la vogue du scepticisme est telle que la question de la climatologie a rejoint celle du néo-créationnisme (l’intelligent design) en matière d’enseignement dans les écoles.
Dans ce contexte, on ne peut que saluer l’effort de la NASA pour illustrer le réchauffement climatique au cours du temps :

 

Michel Alberganti

lire le billet

La planète n’est pas en danger. L’humanité oui

C’est un des articles qui a fait le “buzz” du début de la semaine sur le site Internet du Monde. Son titre : “Pour sauver la planète, mieux vaudrait que les Américains cessent de se reproduire”. Le papier racontait qu’une association américaine de défense de l’environnement profitait de l’effet “7 milliards d’habitants” pour demander aux personnes habitant aux Etats-Unis de réfléchir à deux fois avant de procréer, étant donné qu’elles ont le plus fort impact en termes d’émissions de gaz carbonique. On pouvait y voir une série d’affichettes vantant les mérites des préservatifs pour la préservation (justement !) d’espèces animales, le tout avec des slogans à rimes dont voici un exemple traduit en français par mes soins : “Enveloppez soigneusement… Sauvez l’ours blanc.”

Au-delà de ces publicités, on a pu constater, au fil des dernières années, une multiplication des campagnes médiatiques pour, je cite, “sauver la planète”. Pour “sauver la planète”, ne mangeons plus de viande car une vache élevée, c’est x hectolitres d’eau, y tonnes de CO2, z flatulences et éructations remplies de méthane. Pour sauver la planète, préférons le vélo à l’auto sur les petits trajets. Pour sauver la planète, isolons bien nos maisons et ne les chauffons qu’à 19°C. Pour sauver la planète, préférons des appareils électro-ménagers moins gourmands en électricité ou des ampoules basse consommation. Pour sauver la planète, recyclons nos déchets. Pour sauver la planète, lavons-nous moins souvent et nos vêtements aussi. Pour sauver la planète, consommons local. Pour sauver la planète, sortons du capitalisme (pour reprendre le titre d’un livre de mon confrère du Monde, Hervé Kempf). Etc.

A lire tous ces slogans, j’ai envie de dire une chose. Ceux qui les ont écrits se trompent de sauvetage. Ce n’est pas la planète qu’il faut sauver en agissant ainsi, mais bien l’humanité et, plus précisément, si l’on enlève l’hypocrisie, notre style de vie très confortable : je doute en effet que la majorité des humains mangent de la vache tous les jours, roulent en voiture, chauffent leurs maisons, aient quantité de grille-pain, de mixers et de machines à laver. Pour être très clair : la planète n’est pas à sauver parce qu’elle n’est pas en danger. Même si certains considèrent que nous sommes entrés dans une nouvelle ère géologique, l’anthropocène, marquée par la capacité de l’homme à bouleverser son écosystème, à le polluer, à modifier la composition atmosphérique, à détruire massivement des espèces et des ressources naturelles, à créer des tremblements de terre, la planète n’en a cure. Pour la simple raison qu’elle a connu des révolutions bien plus profondes, des changements climatiques drastiques, cinq grandes extinctions de masse, des hivers nucléaires sans nucléaire mais avec volcans, des perturbations orbitales, des bombardements de météorites ou d’astéroïdes, des glaciations incroyables des dislocations de continents, et qu’elle s’en est toujours remise. La vie a toujours repris ses droits même lorsque, il y a 250 millions d’années, 96% des espèces marines ont disparu ainsi que 70% des vertébrés terrestres.

Pourquoi ? Parce que ce système naturel qu’est la Terre s’ajuste aux conditions qui lui sont imposées. Dans le cas du réchauffement climatique, la planète retrouvera, dans quelques siècles, un équilibre. Simplement, il sera bien loin de celui que nous connaissons et nos descendants risquent d’y laisser des plumes : parce que les extrêmes climatiques seront plus fréquemment atteints, parce que les villes côtières seront fragilisées par la montée des océans quand elles ne disparaîtront pas, parce que l’accès aux ressources naturelles de base telles que l’eau potable et la nourriture sera nettement plus problématique voire une source de conflits, parce que les services rendus gratuitement par la nature seront réduits en raison de la perte de biodiversité.

Invoquer la sauvegarde de la planète pour inciter les gens à un mode de vie plus respectueux de l’environnement est un argument défectueux. Ne pas expliciter qu’en ayant dépassé les limites de notre biosphère nous mettons en péril la survie même de notre propre espèce s’avère une manière de fermer les yeux sur nos responsabilités et sur les défis qui nous attendent. Comme une façon étrange de nous extraire de notre écosystème et d’oublier que nous constituons l’une des “cibles” des changements globaux, parce que nous sommes fragiles. C’est bien l’humanité qu’il faut sauver. La planète, elle, se sauvera toute seule.

Pierre Barthélémy

lire le billet

Peut-on contrer un tsunami ?

Depuis le séisme japonais du 11 mars dernier, j’ai beaucoup écrit sur le tsunami (ici, et ), en tâchant d’évoquer différents aspects du phénomène. Malgré cela, j’ai omis de mentionner la première remarque que je me suis faite en regardant les images de la catastrophe, quasiment en direct, ce vendredi 11 mars : c’était la première fois que je voyais un tsunami en action, dans ce qui semblait une inexorable marche dans ces champs de la campagne nippone. C’était, vue d’hélicoptère, une vague noire infatigable, déjà jonchée de débris, comme une longue cape de mort qui glissait silencieusement sur les serres et les routes, emportant comme fétus de paille autos, camions, voiliers, cargos, maisons et, malheureusement, les hommes. Lors du grand tsunami du 26 décembre 2004 dans l’océan Indien, qui avait avant tout frappé l’Indonésie, les vidéos qui nous étaient parvenues étaient rares, prises du sol et d’assez mauvaise qualité. Le 11 mars, la télévision nippone avait, elle, les moyens de filmer cet événement exceptionnel. Pour l’histoire et, je suis prêt à le parier, pour la science car chercheurs et ingénieurs se serviront de ces images pour mieux comprendre la mécanique du phénomène sur les côtes et à l’intérieur des terres.

Au début de cette deuxième vidéo, l’hélicoptère survole l’océan et on distingue parfaitement le train d’ondes qui s’avance vers la côte :

Les vidéastes amateurs ont aussi, avec des moyens plus rudimentaires, contribué à la couverture de l’événement. Ici, le tsunami vécu en direct par un automobiliste dans son véhicule. On peut imaginer que si la vidéo est sur Youtube, le (ou les) occupant(s) de la voiture a (ont) pu s’en sortir :

Là, on touche du doigt la petitesse de l’homme et la fragilité de sa technologie. On a en effet tendance à l’oublier mais un seul mètre cube d’eau pèse exactement une tonne, soit plus qu’une voiture moyenne… Quand on sait que ce tsunami s’est répandu sur plus de 400 kilomètres carrés, ce sont probablement des centaines de millions de tonnes d’eau, voire des milliards, qui ont participé à l’inondation. Les petites digues de cette ville sont submergées en un rien de temps :

On n’a sûrement pas fini de compter les morts ni d’évaluer les dégâts et, de la même manière, il faudra encore du temps pour connaître la hauteur exacte des vagues. D’après le quotidien japonais Yomiuri Shimbun, cité par 20minutes.fr, une première étude parle d’une hauteur d’au moins 23 mètres, soit la taille d’un immeuble moderne de 8 étages (rez-de-chaussée compris), ce qui est plus élevé que les immeubles haussmanniens à Paris, dont les plus grandes façades ne devaient pas dépasser les 20 mètres. On comprend que, le 11 mars, des vagues pareilles aient eu raison des digues les plus imposantes, comme celle de Taro, une localité appartenant à la ville de Miyako et qui, déjà frappée par deux tsunamis en 1896 (et pas en 1895 comme indiqué par erreur dans la vidéo qui suit) et 1933, avait cru être protégée en élevant une digue en forme de X de 10 mètres de haut. Cela n’a pas servi à grand chose, comme on peut le voir dans ce reportage :

Dans un article publié le 13 mars, le New York Times rappelait que 40% des côtes nippones étaient protégées par des digues ou des môles, censées les prémunir des grosses vagues, des typhons et, dans le pire des cas, des tsunamis. L’événement du 11 mars montre que, dans le cas d’un tsunami exceptionnel, il s’agit d’une protection illusoire. Autant les constructions ont plutôt bien résisté à un des séismes les plus importants qu’ait connus la planète, grâce aux normes parasismiques en vigueur au pays du Soleil levant, autant rien n’était vraiment dimensionné pour faire face à l’arrivée d’un train de vagues colossales, comme on a pu le voir avec la centrale nucléaire de Fukushima Daiichi. Nul doute que le débat sur l’utilité des digues se tiendra lorsque les Japonais auront pansé leurs plaies.

L’alternative est assez simple : construire des digues encore plus hautes, sans avoir l’assurance que le prochain tsunami ne s’en jouera pas, ou bien faire preuve de modestie, constater son impuissance face à ces cataclysmes naturels extrêmes et consacrer cet argent à des systèmes d’alerte et d’évacuation des populations plus performants. Car avec moins de 15% de plaines sur son territoire, le Japon a concentré plus de 100 millions de ses habitants sur les littoraux et ne les fera pas déménager dans les montagnes. Et l’on peut être sûr que, dans cet archipel à la forte sismicité, il y aura d’autres tsunamis.

Pierre Barthélémy

lire le billet

Une bombe peut-elle créer un tsunami ?

Tsunami3

C’était à prévoir. Dans un contexte anxiogène alimenté par des médias sur le mode “crise”, il fallait que, comme pour le 11-Septembre, la théorie du complot vienne mettre ses gros doigts dans la catastrophe japonaise. C’est un commentaire laissé sur mon billet précédent (consacré à l’hypothèse d’un méga-tsunami dans l’Atlantique) qui m’a mis la puce à l’oreille. Lefevre, un internaute, disait ceci (j’ai corrigé les fautes d’orthographe) : “Vous oubliez aussi les tsunamis causés par l’homme (Etats bandits, militaires, etc., voir Haïti et peut-être d’autres, et là on ne connait pas les limites).” Il ne m’a fallu que quelques secondes pour trouver, sur le site AboveTopSecret, repaire de nombreux conspirationnistes, ufologues et autres adeptes des sociétés secrètes, un texte dont le titre, en français, est “Le tsunami japonais a-t-il été créé par l’homme ?”

On sait depuis plusieurs années maintenant que certaines activités humaines (forages profonds ou lac de retenue d’un barrage, par exemple) ont la capacité de provoquer des petits tremblements de terre, dont certains ne sont pas anodins. Mais de là à créer un tsunami, il y a un pas de géant. Il faut donc trouver autre chose, un déclic plus puissant… et rien de mieux que l’armée pour cela. Pour étayer ses soupçons, le texte en question mentionne une expérience militaire peu connue, menée à la fin de la Seconde Guerre mondiale par les Néo-Zélandais avec la coopération de la marine américaine et de conseillers scientifiques britanniques : le projet Seal. Son but, provoquer un tsunami grâce à des explosions sous-marines bien calculées. Quand il s’agit de trouver de nouvelles armées pour battre l’ennemi, les militaires ne manquent pas d’imagination.

D’après le rapport final du projet Seal, aujourd’hui déclassifié, que je me suis procuré (attention, le fichier est “lourd” : 93 MB), l’histoire commence en janvier 1944, en pleine guerre du Pacifique, lorsqu’un officier de l’armée de l’air néo-zélandaise dit avoir remarqué que les explosions en mer provoquent parfois des vagues importantes. Très vite, germe l’idée d’utiliser l’océan comme une arme contre… le Japon (cela ne s’invente pas). C’est dans ce but qu’après des tests préliminaires effectués en Nouvelle-Calédonie, environ 3 700 expériences, classées secrètes, sont menées entre le 6 juin 1944 et le 8 janvier 1945 par le chercheur australien Thomas Leech près de la péninsule néo-zélandaise de Whangaparaoa. Leur objectif officiel : déterminer le potentiel d’“inondations offensives par des vagues générées au moyen d’explosifs”. Les charges utilisées vont de quelques grammes à 300 kg de TNT. Les essais à grande échelle ont lieu en mer et ceux à petite échelle dans un bassin de tests de 365 m sur 60 construit pour l’occasion.

Le projet Seal se termine de manière un peu abrupte, en janvier 1945, “avant, écrit Thomas Leech, que tout le programme expérimental soit complété et que les problèmes scientifiques fondamentaux soient résolus”. Deux raisons sont avancées dans le rapport : des désaccords avec les Britanniques qui n’y croyaient pas vraiment et la progression des Alliés dans le Pacifique qui force le Japon à lâcher ses conquêtes les unes après les autres. N’étant plus une priorité, Seal est donc stoppé. Ce qui n’empêche pas Thomas Leech de faire la liste de ses premières conclusions. Tout d’abord, affirme-t-il, le concept d’“inondations offensives” est validé. Les expériences ont permis de découvrir que, contrairement à ce que l’intuition suggère, ce n’est pas parce que les explosifs seront placés tout au fond de l’océan qu’ils seront le plus efficaces. La bulle créée par la déflagration transmettra mieux son énergie à la masse d’eau si elle est créée assez près de la surface, dans une zone appelée “la profondeur critique”. Autre enseignement, une bombe unique sera inefficace : il faut savamment répartir plusieurs charges pour “soigner” la géométrie de l’explosion et fabriquer un train d’ondes plus destructeur. Le chercheur australien, qui rédige ce rapport final en 1950, ne se prive d’ailleurs pas d’imaginer l’utilisation de plusieurs bombes atomiques pour un maximum de puissance…

Thomas Leech note toutefois que si l’on peut, à l’aide d’explosifs, obtenir la même amplitude d’onde que pour un tsunami d’origine sismique, la longueur d’onde est nettement plus courte. Selon le géophysicien américain Jay Melosh, spécialiste des cratères d’impact et qui s’est donc intéressé, à ce titre, au tsunami que pourrait engendrer un astéroïde tombant dans l’océan, ce point est crucial. C’est leur très grande longueur d’onde qui permet aux vagues des tsunamis de ne pas se “casser” en arrivant près des côtes, comme le font les vagues dues à la houle. Par conséquent, un tsunami provoqué par des bombes ne pénétrerait que peu à l’intérieur des terres. En revanche, il pourrait être dangereux pour tous les bateaux naviguant dans les zones côtières, en créant de fortes turbulences à cet endroit.

Donc, désolé pour tous les fans de complots, mais le tsunami du 11 mars n’est pas un monstre fabriqué par des militaires ou des terroristes. Et on ne peut pas plus incriminer, comme a pu le faire un internaute à l’humour douteux, la vengeance des cétacés contre le pays qui les chasse le plus.

Pierre Barthélémy

(Crédit photo : Reuters)

lire le billet

Un méga-tsunami dans l’Atlantique ? C’est possible.

maison_1

Comme vient de le confirmer tragiquement la catastrophe du 11 mars au Japon, l’immense majorité des tsunamis enregistrés dans le monde se produisent dans le Pacifique. L’océan Indien et la Méditerranée ont aussi eu leur lot, que ce soit avec le séisme de Sumatra en 2004 ou avec celui de 365 en Crète, qui ravagea Alexandrie. Pour ce qui concerne l’Atlantique, si l’on met de côté  le tremblement de terre de Lisbonne de la Toussaint 1755 qui fut suivi d’un tsunami, peu d’événements majeurs sont à noter. Et pourtant, si l’on en croit plusieurs études, c’est peut-être là qu’un méga-tsunami se prépare. Plus précisément sur l’île de Palma (voir photo satellite ci-dessous), dans l’archipel des Canaries.

La_PalmaComme l’expliquaient en 2001, dans un article publié par la revue scientifique Geophysical Research Letters, l’Américain Steven Ward et le Britannique Simon Day, le flanc ouest du volcan Cumbre Vieja, situé sur cette île, est instable et pourrait, à la suite d’une future éruption, s’écrouler dans l’océan. Dans le pire des scénarios que ces deux chercheurs ont retenu, c’est un énorme morceau long de 25 km, large de 15 et épais de 1 400 mètres qui  se détacherait, soit un total de 500 kilomètres cubes de terres et de roches. Pour donner un ordre de grandeur, c’est à peu près l’équivalent du volume de 200 000 pyramides de Khéops. Beaucoup, donc.

Selon Ward et Day, si cette chose tombe dans l’océan, le déplacement de la masse d’eau va créer un méga-tsunami. Leur modélisation montre qu’un dôme d’eau de 900 mètres de haut se forme (soit un peu moins de trois fois la hauteur de la tour Eiffel), qui va donner naissance à un train d’ondes colossal. Les Canaries seraient évidemment les premières touchées. Hormis Palma, qui pourrait faire face à une vague de plusieurs hectomètres de haut, les îles d’El  Hierro et de La Gomera verraient arriver des déferlantes pouvant dépasser les cent mètres. Ténérife serait également touchée par une vague de plus de 60 m. Le Sahara occidental constituerait la victime suivante, avec une montagne d’eau frôlant les cinq décamètres. L’île de Palma ayant fait bouclier, l’onde ne serait pas trop méchante avec les pays européens, les plus exposés étant l’Espagne et l’Angleterre, avec des vagues de 5 à 7 m. Vers l’ouest, en revanche, rien ne viendrait arrêter le tsunami et la déperdition due à la distance ne serait pas si grande qu’on pourrait l’imaginer. Ainsi, la simulation utilisée par les auteurs de l’étude montre que le sud de la Floride, Miami compris, serait noyé sous des vagues de 20 à 25 m !

Cette modélisation et ses résultats ont donné lieu à de nombreuses critiques qui les trouvaient exagérés. Pourtant, l’idée d’une vague de plusieurs centaines mètres de haut n’est pas folle. Le 8 juillet 1958, dans la baie de Lituya, en Alaska, un mur d’eau de plus d’un demi-kilomètre d’altitude, créé par un glissement de terrain consécutif à un tremblement de terre, a dévasté un fjord, comme le raconte la vidéo ci-dessous :

La conformation très particulière de cette baie ne ressemble toutefois pas à celle de l’océan ouvert. La principale question qui s’est posée après la publication de l’étude de Steven Ward et Simon Day était de savoir si la vague initiale pouvait traverser l’Atlantique en conservant une telle ampleur. En 2008, une modélisation différente et plus poussée, intégrant davantage de paramètres, a été publiée dans le Journal of Geophysical Research. Réalisée par une équipe norvégienne, cette étude estime pour commencer que le volume des 500 km3 retenu comme limite supérieure dans l’éventuel glissement de terrain de La Palma n’est pas imaginable et qu’il vaut mieux prendre 375 km3 comme barre haute. De plus, ses auteurs montrent que la propagation du tsunami ne se ferait pas aussi bien que Ward et Day l’avaient assuré.

Malheureusement, pour les îles Canaries, cela ne changerait pas grand chose, avec des vagues gigantesques synonymes d’apocalypse. Pour les autres régions, les estimations sont revues à la baisse, mais pas forcément de manière drastique. Voici les chiffres : Sahara occidental, 37 m ; Sénégal, 13,9 m ; Portugal, 7,8 m ; Cap Vert 33 m ; Madère, 40 m ; Açores 29 m ; Guyane, 14,7 m ; nord du Brésil, 15,3 m ; Floride 9,5 m ; nord des Etats-Unis 4,6 m. Autant dire que les îles de l’Atlantique seraient dévastées, ainsi que les côtes nord-est du continent sud-américain. Pour ce qui est de la Floride, même si la vague attendue a diminué de plus de la moitié, elle reste effrayante quand on sait que cette péninsule n’est pas très élevée au-dessus de la mer.

Il faut néanmoins garder à l’esprit qu’il s’agit là des chiffres correspondant au scénario le plus pessimiste. Il se peut que le volume de terrains décrochés soit nettement inférieur car au cours du dernier million d’années, plusieurs de ces événements se sont produits avec des volumes compris en moyenne entre 50 et 200 km3. Il se peut aussi que ce glissement de terrain ait lieu seulement dans plusieurs milliers d’années, voire davantage. Comme le disait, non sans humour, le Danois Niels Bohr, un des pères de la mécanique quantique et Prix Nobel de physique en 1922, “la prédiction est un exercice très compliqué, spécialement quand elle concerne le futur.”

Pierre Barthélémy

(Crédit de la photo d’ouverture, prise dans le Pacifique ce 13 mars :

REUTERS/U.S. Navy photo by Mass Communication Specialist 3rd Class Dylan McCord)

lire le billet