OGM: Gilles-Eric Séralini prend un gros risque, la France aussi

Gilles-Eric Séralini, GES pour les intimes, prend un gros risque avec le dernier chapitre en date de sa croisade anti-OGM. Et la France, aussi, en soutenant ses résultats avant même qu’ils ne soient vérifiés et en envisageant, si vite, comme le Premier ministre Jean-Marc Ayrault en déplacement à Dijon, une demande de l’interdiction pure et simple des OGM en Europe.

Gilles-Eric Séralini dirige l’équipe qui a publié l’étude «Long term toxicity of a Roundup herbicide and a Roundup-tolerant genetically modified maize» montrant que des rats nourris aux OGM et au Roundup meurent beaucoup plus vite que les rats du groupe de contrôle recevant une nourriture sans OGM ni Roundup.

Moins de 24 heures après la divulgation des résultats de l’étude dans la revue Food and Chemical Toxicology, la déclaration de Jean-Marc Ayrault confirme l’impression d’affolement que le gouvernement a donné après l’orchestration à grand spectacle de la révélation, par le Nouvel Obs daté du 20 septembre, des résultats obtenus sur des rats.

Une publication dans une revue plutôt modeste

Une médiatisation hors du commun pour une publication scientifique de chercheurs, certes français, dans une revue de renommée moyenne (facteur d’ impact de 3, loin de celui des principales revues: 38 pour The Lancet,  36 pour Nature, 31 pour Science, 16 pour PLoS Medecine…). Food and Chemical Toxicology est donc une revue, à comité de lecture certes, mais plutôt spécialisée et dont l’autorité n’a rien de comparable avec celle des grands journaux scientifiques. Elle n’atteint pas, non plus, le facteur d’impact de Toxicology and Applied Pharmacology (4,4). La publication, encore absente du site de la revue, de l’article cosigné par Gilles-Eric Séralini ne peut donc pas être considérée comme totalement validée.

D’ailleurs, le gouvernement appelle les autorités compétentes –l’agence de sécurité sanitaire (ANSES) et l’autorité européenne de sécurité des aliments (EFSA)– à vérifier l’étude au plus vite. Cela induit une analyse des données brutes et des résultats publiés mais ne permet pas de refaire l’expérience qui a pris deux années aux chercheurs français.


Les réactions à l’enquete montrant les dangers… par Maxisciences

Au stade actuel, moins de deux jours après «l’événement», un premier bilan se dessine. Avec des points forts, des points faibles et des zones d’ombres.

1°/ Les points forts

  • Gilles-Eric Séralini est en passe de réussir son coup médiatique. Via le Nouvel Obs qui affirme, en une, que “oui, les OGM sont des poisons”, il a mis le gouvernement sur le pont, affolé la population qui va fuir les biscuits d’apéritif, les plats cuisinés et les potages de peur de se retrouver avec des tumeurs grosses comme des ballons de football, réveillé les institutions françaises et européennes qui pouvaient espérer que le débat sur les OGM commençait à s”épuiser et embêté le géant Monsanto piqué par la mouche française.
  • Quelques jours après la conférence environnementale des 14 et 15 septembre qui a satisfait bon nombre d’écologistes, cette nouvelle affaire va conforter la position de la France en faveur d’un moratoire sur la culture des OGM. Décrété en février 2008, ce moratoire a été invalidé en 2011 par la Cour européenne de justice. Mais le gouvernement Fillon a de nouveau interdit la culture des OGM en mars 2012. Jean-Marc Ayrault reste sur la même ligne et hérite ainsi du bras de fer avec l’Europe. La publication de Gilles-Eric Séralini pourrait l’aider à plaider sa cause.
  • Sur le plan plus scientifique, la nouvelle étude a le mérite de pointer une pratique peut-être un peu légère de l’EFSA qui s’est, jusqu’à présent, contentée de tests de 90 jours sur les rats pour juger de l’innocuité des OGM. Un peu court, semble-t-il. Mais deux ans, c’est long et coûteux. N’empêche, cela vaut tout de même la peine de faire cet effort pour savoir, dès lors que l’alimentation humaine est en jeu.
  • Gilles-Eric Séralini a le mérite de contraindre les institutions européennes à revoir les protocoles des expériences dans ce domaine. Pierre-Henri Gouyon, spécialiste de l’évolution, professeur au Muséum national d’histoire naturelle, membre de la fondation Nicolas Hulot et du CRIIGEN, nous précise que, pour lui, ces études devraient concerner également la 2ème génération des rats nourris aux OGM.
  • Le tapage médiatique intense orchestré par le CRIIGEN paraît excessif et assez insupportable. Mais il peut être défendu comme réaction proportionnelle aux menées d’un groupe comme Monsanto dont la puissance lobbyiste n’a rien de commun avec celle du CRIIGEN. La différence, c’est aussi que le semencier agit dans l’ombre alors que les chercheurs français ne peuvent compter que sur les médias et la lumière pour alerter l’opinion publique.

2°/ Les points faibles

  • La méthode de communication tous azimuts utilisée par Gilles-Eric Séralini (presse + publication scientifique + livre + documentaire) peut se retourner contre lui. De même que son militantisme notoire contre les OGM. Certes, il faut parfois frapper fort. Mais jusqu’à quel point ?
  • En privant les médias, hors Nouvel Obs, et les scientifiques d’une analyse de l’étude avant sa diffusion massive, les chercheurs ont mis les politiques en situation de devoir réagir en absence de toute prise de position du milieu scientifique.
  • Gilles-Eric Séralini s’est déjà fait de nombreux ennemis parmi ses confrères. L’un des derniers en date est Marc Fellous, président de l’Association française des biotechnologies végétales (AFBV), qui a été condamné pour diffamation en janvier 2011 pour avoir contesté l’indépendance de Gilles-Eric Séralini vis a vis de Greenpeace au sujet d’une étude menée sur l’impact de trois variétés de maïs transgénique sur la santé des mammifères. Le chercheur a également eu des démêlés avec le CNRS et l’INRA.
  • Le 15 juin 2007, un avis rendu par la Commission du génie biomoléculaire (CGB) a contesté la méthodologie utilisée par Gilles-Eric Séralini et son équipe lors d’une étude concernant la toxicité du maïs transgénique MON 863 publiée dans la revue Archives of Environnemental Contamination and Toxicology.

3°/ Les zones d’ombre

  • Au moment même où le gouvernement français accorde un crédit tel à l’étude de Gilles-Eric Séralini que le chercheur va être auditionné au Parlement, des voix commencent à contester plusieurs points de l’étude publiée le 19 septembre.
  • La race de rats utilisée, Sprague Dawley, serait réputée pour développer spontanément des tumeurs mammaires cancéreuses.
  • Les groupes de rats, dans chaque catégorie étudiée, ne comptent que 10 individus alors qu’il en faudrait 50 pour obtenir des résultats statistiques valables en matière de cancer pour une étude sur 2 ans.
  • Le régime alimentaire des rats, hors OGM et Roundup, n’est pas communiqué.
  • Les résultats de mortalité identiques pour les groupes nourris à 11% et à 33% d’OGM s’expliqueraient mal.

Désormais, il faut attendre l’avis des autorités saisies par le gouvernement sur la nouvelle étude. Dans l’intervalle, la campagne médiatique de Gilles-Eric Séralini et de ses soutiens va se poursuivre. Il semble donc que l’on ait mis la charrue avant les bœufs, avec tous les risques d’accidents que cela comporte. Si jamais l’étude était invalidée, la carrière de Gilles-Eric Séralini ne s’en remettrait pas et la France serait ridicule. Si elle est confirmée et que des dangers pour l’homme peuvent en être déduits, Gilles-Eric Séralini deviendra le héros de la lutte contre Monsanto et la diablerie des OGM.

Michel Alberganti

Photo: Gilles-Eric Séralini. REUTERS/Yves Herman

lire le billet

Le militantisme anti-OGM est-il compatible avec la science ?

Les photos illustrant l’étude publiée le 19 septembre 2012 par Gilles Eric Séralini (Université de Caen, Institut de biologie, CRIIGEN) dans la version en ligne de la revue Food and Chemical Toxicology rappellent celles qui ornent… les paquets de cigarettes. Reprises par le Nouvel Obs qui fait la couverture de son édition du 20 septembre avec le titre “Oui, les OGM sont des poisons!”, elles montrent des rats perclus de tumeurs après avoir été alimentés avec du maïs Monsanto NK603, résistant à l’herbicide Roundup de… Monsanto, et de l’herbicide Roundup. Résultat : les rats ainsi nourris meurent beaucoup plus vite que les rats du groupe de contrôle recevant une nourriture sans OGM ni Roundup.

Quels effets sur l’homme ?

Les scientifiques se prononceront sur le fond de cette étude. Ils devront, en particulier, reproduire l’expérience afin de vérifier qu’ils obtiennent les même résultats que l’équipe de Gilles-Eric Séralini. La procédure classique. En cas de confirmation de l’effet de ce cocktail mortel, il restera à extrapoler ses effets sur l’être humain. Il faudra enfin vérifier que les doses utilisées par les chercheurs français, transposées à la masse corporelle humaine, sont représentatives de ce que nous consommons. C’est dire s’il reste des choses à vérifier avant de conclure, comme nos confrères du Nouvel Observateur, que les OGM sont des poisons. Si tel était le cas, un désastre sanitaire majeur serait à craindre aux Etats-Unis, grands consommateurs d’OGM depuis des décennies. Pour l’instant, donc, il s’agit d’une alerte très inquiétante qui impose de lancer de nouvelles études indépendantes.

Traitement médiatique et éthique

S’il est trop tôt pour statuer sur la valeur scientifique de cette étude, il est d’ores et déjà possible d’en analyser le traitement médiatique et la composante éthique. Il se trouve en effet que le principal auteur de l’étude, Gilles-Eric Séralini, est également ouvertement militant anti-OGM. A la fin de la publication dans Food and Chemical Toxicology, il est mentionné:

Conflict of Interest
The authors declare that there are no conflicts of interest.

Les mêmes auteurs remercient ensuite, pour leur support, la fondation “Charles Leopold Meyer pour le progrès de l’homme” et le CRIIGEN (Comité de Recherche et d’Information Indépendantes sur le génie Génétique), l’équivalent de la CRIIRAD, spécialisée dans le nucléaire, mais pour le génie génétique. Le CRIIGEN se déclare un comité “apolitique et non-militant d’expertise, de conseil, indépendant des producteurs d’OGM“. Le président de son comité scientifique est… Gilles-Eric Séralini. Parmi ses membres, on trouve Corinne Lepage, présidente d’honneur, et Jean-Marie Pelt, secrétaire général.

Publication scientifique, livres, documentaire…

Gilles-Eric Séralini publie, le 26 septembre prochain chez Flammarion, un ouvrage intitulé : Tous cobayes, OGM, pesticides, produits chimiques”. Le même jour, sort au cinéma un documentaire de Jean-Paul Jaud, “Tous cobayes”, adapté du livre de Gilles-Eric Séralini. Ce film sera diffusé sur France 5 le 16 octobre. Quelques jours auparavant, le 22 septembre, les éditions Charles Leopold Meyer auront publié un ouvrage intitulé “Pour qu’ils ne puissent plus dire qu’ils ne savaient pas !” signé par Corinne Lepage. Le livre “démontre l’absolue nécessité et l’urgence dans laquelle nous nous trouvons aujourd’hui de mener des études indépendantes” sur les OGM, selon  l’éditeur. Cela fait beaucoup. Même si l’on considère comme aussi salutaire que nécessaire l’alerte de l’opinion publique sur les questions que soulèvent les OGM et les agissements de Monsanto, largement exposés dans le remarquable documentaire Le Monde selon Monsanto, réalisé par Marie-Monique Robin.

Indépendant… et militant

Indépendant, le CRIIGEN n’en est pas moins militant, quoi qu’il en dise. Les écrits de ses principaux membres en témoignent largement. Gilles-Eric Séralini est l’auteur de Génétiquement incorrect (Flammarion, 2003, 2012), Ces OGM qui changent le monde (Flammarion, 2004) et Nous pouvons nous dépolluer ! (Josette Lyon, 2009). Avec Jean-Marie Pelt, il a publié Après nous le déluge ? (Flammarion, 2006). Quant à Joël Spiroux de Vendômois, docteur en médecine et président du CRIIGEN, il signe aujourd’hui même, dans le Nouvel Observateur, une tribune intitulée: “OGM, Monsanto, Roundup & Co : comment notre société produit des malades”. Difficile, dans ces conditions, d’arguer d’une quelconque indépendance d’opinion du CRIIGEN et de ses membres vis à vis des OGM. Tous mènent un combat ouvert contre les organismes génétiquement modifiés.

Influence sur le protocole expérimental ?

Rien de plus respectable. La question qui se pose concerne la conjonction entre la publication d’une étude scientifique et un battage médiatique visiblement orchestré s’exprimant simultanément dans la presse, dans l’édition, au cinéma et à la télévision. Bien entendu, l’objectivité scientifique n’existe pas plus que l’objectivité journalistique. Mais jusqu’où le militantisme peut-il influencer le protocole d’une expérience ? La publication d’aujourd’hui dans Food and Chemical Toxicology conduit forcément à cette interrogation du fait de l’engagement idéologique et politique de son auteur principal. Seule l’expertise scientifique de ses travaux pourra lever ce doute légitime. S’il est prouvé que la découverte de Gilles-Eric Séralini constitue effectivement une grave menace pour l’homme, cela démontrera que le militantisme peut servir de moteur efficace à la démarche scientifique.  Dans le cas contraire…

Michel Alberganti

» A lire aussi: Maïs OGM Monsanto, l’étrange affolement du gouvernement français

(Ré) écoutez l’émission Science Publique que j’ai animée sur France Culture le 24 février 2012 :

24.02.2012 – Science publique│La France peut-elle se passer de la recherche sur les OGM ? 59 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobileaudiovideo

Avec:
Philippe Chalmin, professeur d’économie à Paris-Dauphine.
François Houllier, directeur général délégué à l’organisation, aux moyens et à l’évaluation scientifique de l’Institut national de la recherche agronomique, l’INRA.
Jean-Christophe Pagès, président du comité scientifique du Haut Conseil des Biotechnologies ( HCB).
Joël Spiroux de Vendomois, docteur en médecine générale et en environnement, président du Comité de recherche et d’informations indépendantes sur le génie génétique, le CRIIGEN.

20 commentaires

lire le billet

Un expert prédit la disparition de la glace d’été en Arctique d’ici 4 ans

Peter Wadhams, de l’université de Cambridge, prédit que la glace d’été, en Arctique, aura totalement disparu d’ici 4 ans. Dans un email adressé au journal The Guardian qui en a rendu compte le 17 septembre 2012, il écrit: “Le changement climatique n’est plus un phénomène au sujet duquel il faut faire quelque chose d’ici quelques décennies”. Pour lui, il n’est même plus question de réagir en tentant de réduire nos émissions de CO2. Il estime qu’il faut passer à la vitesse supérieure et s’en remettre aux techniques de géo-ingénierie. Parmi ces dernières, on trouve l’envoi de particules dans l’atmosphère pour réfléchir les rayons du soleil, le fait de rendre les nuages plus blancs ou de répandre dans les océans des minéraux capables d’absorber plus de CO2. En gros, l’heure n’est plus aux mesures passives mais à l’action, même si celle-ci est fortement soupçonnée de provoquer des catastrophes pires que celles du réchauffement climatique.

2012, en recul de 500 000 km2 sur 2007

Peter Wadhams s’est illustré, au cours des dernières années, grâce à la précision de ses prédictions concernant l’évolution des glaces en Arctique. Il a passé des années à en mesurer l’épaisseur dans des sous-marins. C’est ainsi qu’il avait annoncé une rupture de la glace d’été pour 2007, année où la surface de cette glace e effectivement atteint un minium historique de 4,17 millions de km2. En 2012, ce record sera battu avec une réduction de plus de 500 000 km2 supplémentaires avec une surface de seulement 3,5 millions de km2.

Plus de glace vers 2015-2016

Pour Peter Wadhams, ce phénomène est une conséquence directe du réchauffement climatique. “Il y a moins de glace qui se crée en hivers et plus de glace qui fond en été”, précise-t-il. Le point de rupture final survient lorsque la fonte de l’été dépasse le gel de l’hiver. “J’avais prédit que cette rupture se produirait vers 2015-2016. L’océan arctique en été (août à septembre) sera alors totalement libre de glace. Nous assistons aujourd’hui au début de cette rupture qui devrait être achevée aux environs de ces dates”. D’ici 4 ou 5 ans, donc, plus de glace d’été en Arctique…

Le dégel du permafrost

Est-ce dramatique ? Pour Peter Wadhams, c’est “épouvantable”. Aux conséquences positives sur le transport et l’accès au pétrole et au gaz, s’opposent les effets sur le réchauffement climatique. C’est à dire une accélération. “Lorsque la glace disparaît en été, l’océan se réchauffe (de 7°C en 2011) et il augmente la température des côtes. Le plateau continental de l’Arctique est composé de permafrost, des sédiments gelés depuis le dernier âge glaciaire. Lorsque l’eau de l’océan réchauffe ces sols, le permafrost dégèle et libère d’énormes quantités de méthane emprisonné. Ce puissant gaz à effet de serre donnera un coup d’accélérateur au réchauffement climatique”.

Jean Jouzel “sceptique”

Un tel scénario catastrophe dans la bouche d’un expert peut faire… froid dans le dos. Interrogé par Globule et télescope, le glaciologue Jean Jouzel se déclare “sceptique vis à vis des propos de Peter Wadhams” au sujet du délai de 4 ans. Il a plutôt tendance à suivre les chercheurs qui “tablent sur une vingtaine d’années”. Un délai supplémentaire pas si long. Sera-t-il suffisant pour que nous réagissions ? Et comment réagir ?

Michel Alberganti

lire le billet

50% de nucléaire ? A ce rythme, plutôt en 2066 qu’en 2025

En 2011, la France exploitait 58 réacteurs nucléaires répartis dans 19 centrales. Grâce à une puissance installée de 63,1 GW, la production d’électricité d’origine nucléaire a atteint 423,5 milliards de KWh représentant 77,7% de l’électricité consommée l’an dernier. En 2012, la France aura besoin de 9254 tonnes d’uranium pour alimenter ses réacteurs nucléaires.

Fessenheim: 2,3% de l’électricité nucléaire

Lors de sa campagne présidentielle, François Hollande a fixé l’objectif de ramener la part du nucléaire dans le mix électrique de 75% à 50% à l’horizon 2025. Le 14 septembre, il a annoncé sa décision de fermer la centrale de centrale de Fessenheim en 2016. Cette centrale, construite à partir de 1971 a été raccordée au réseau en 1978. La puissance installée de ses deux réacteurs est de 1760 MW. Sa production annuelle moyenne atteint 10 milliards de KWh, soit 2,3% de l’électricité nucléaire française.

Sortie du nucléaire… dans 150 ans

Pour passer de 75% (ce qui est en dessous du chiffre actuel de 77,7% mais admettons…), à 50%, il faut donc réduire de 25% la part du nucléaire dans le mix énergétique. Admettons également que la production française d’électricité reste constante au cours de prochaines décennies (la crise économique nous y aidera un certains temps) à environ 545 milliards de KWh. La part du nucléaire, si elle était bien de 75%, atteindrait 409 milliards de KWh. Pour la faire passer à 50%, il faut la réduire d’un tiers, soit de 136 milliards de KWh. Cela représente la  production de 13,6 centrales de Fessenheim. S’il faut quatre ans pour fermer une telle centrale, nous aurons atteint l’objectif fixé par François Hollande dans 54 ans, soit en 2066. Et non en 2025… Au même rythme, la sortie du nucléaire de la France ne se produirait qu’au bout d’environ 150 ans, c’est à dire aux alentours de 2162, année électorale…

Au delà d’un second mandat

Sauf erreur de calcul que vous ne manquerez pas de relever, et, il est vrai, à d’importantes approximations près, il semble bien que le rythme imprimé par François Hollande à la réduction du nucléaire dans le mix électrique français ne soit pas suffisant pour atteindre son objectif. Il faut noter qu’avec une certaine prudence, l’année 2025 retenue se situe au delà de la fin de son second et dernier mandat, s’il est réélu en 2017.

Fermeture de Fessenheim : pourquoi attendre 4 ans ?

Dans ce contexte, on peut s’étonner de la satisfaction affichée par nombre d’écologistes après les annonces du 14 septembre. A l’exception de Greenpeace qui déclarait, dès le 13 septembre: “La centrale de Fessenheim pourrait être fermée très rapidement. En 2011, elle n’a contribué qu’à 1,3% de la production nette d’électricité nationale”. Et l’organisation de s’inquiéter des déclarations au Sénat de Delphine Batho, ministre de l’écologie, affirmant que les travaux prévus à Fessenheim seraient bien réalisés. “Quel signal le gouvernement peut-il envoyer en investissant des millions d’euros dans une centrale qu’il a promis de fermer dans le quinquennat ?” s’interroge Jean-François Julliard, directeur général de Greenpeace France.

50% en 2066 ? Pas sûr… Que les adeptes du nucléaire se rassurent. La France n’est pas le Japon qui affiche un objectif de sortie du nucléaire en 30 ans.

Michel Alberganti

lire le billet

Energie nucléaire: la France ferme Fessenheim, le Japon ferme tout

Coup dur pour les inconditionnels de l’énergie nucléaire. Dix huit mois après la catastrophe de Fukushima, le gouvernement japonais a annoncé, vendredi 14 septembre 2012, sa nouvelle stratégie énergétique : « réaliser une société qui ne dépend plus de l’énergie nucléaire dans les années 2030 ». A terme, le Japon ne prévoit de conserver que son surgénérateur de Monju en l’utilisant pour le traitement des déchets nucléaires.

Le même jour, quelques heures auparavant, François Hollande avait annoncé, en ouverture de la conférence environnementale des 14 et 15 septembre, que la centrale nucléaire de Fessenheim «sera fermée à la fin de l’année 2016», quelques mois avant l’expiration de son mandat. Ce calendrier semble satisfaire les écologistes, ravis, par ailleurs, de la décision d’enterrer l’exploration et, a fortiori, l’exploitation du gaz de schiste en France.

Pression populaire

Le parallèle avec le Japon est instructif. Dix huit mois après la catastrophe de Fukushima, le gouvernement de Yoshihiko Noda était soumis à une forte pression populaire. Il faut dire que le Japon l’avait échappé belle en mars 2011 lorsque la centrale de Fukushima-Daiichi a été dévastée par le tsunami et que des explosions ont projeté un nuage de particules radioactives dans l’atmosphère. Tokyo, située à 220 km au sud-ouest, n’a été épargnée que grâce à une direction favorable des vents. Depuis, l’exploitant Tepco, largement convaincu d’incompétence, lutte pour contrôler la centrale. Encore aujourd’hui, le réacteur N°4 et sa piscine contenant 264 tonnes de barres de combustible hautement radioactives reste un danger permanent.

Épée de Damoclès

Pour rassurer une population traumatisée par l’épée de Damoclès de Fukushima et, sans doute aussi, par la mémoire des bombes atomiques de la seconde guerre mondiale, le gouvernement a donc fini par prendre une décision courageuse. Pour la première fois, l’une des premières économies mondiales planifie sa sortie du nucléaire. Le Japon se donne moins de 30 ans pour y parvenir. Un délai qui semble raisonnable si l’on considère que le nucléaire fournissait 29% de la production électrique du pays en 2010.

Après le séisme du 11 mars 2011, tous les réacteurs japonais sont progressivement mis à l’arrêt. En mai 2012, plus aucun ne fonctionne et le Japon est alors sorti du nucléaire en… 14 mois. Mais cette situation n’est guère tenable économiquement et, en juin 2012, Yoshihiko Noda annonce la remise en service de deux réacteurs dans la centrale d’Ohi, dans l’ouest du Japon. Mais le mois suivant, en juillet dernier, les manifestations anti-nucléaires rassemblent des dizaines de milliers de Japonais à Tokyo.

600 milliards de dollars

C’est donc bien sous la pression de l’opinion publique japonaise que le gouvernement nippon a décidé de s’engager dans une sortie du nucléaire. Il y a une semaine, les discussions du cabinet du premier ministre Yoshihiko Noda laissaient pourtant entendre que le coût d’une telle stratégie s’élèverait à plus de 600 milliards de dollars. En face de ce coût, le Japon a pesé le risque d’un nouveau tremblement de terre majeur de magnitude 8 au cours des prochaines décennies. D’après les scientifiques, ce risque est évalué à 87% dans la région du Tokai, à 200 km au sud-ouest de Tokyo, pour les 30 prochaines années.

En prenant la décision de sortir définitivement du nucléaire avant 2040, le Japon se met en situation de devoir impérativement développer ses ressources en énergies renouvelables. Sans ces dernières, les importations de pétrole et de gaz pour compenser les 30% de son électricité nucléaire pèseront de façon insupportable sur son économie.

5ème mondial dans le solaire

Avant de se mettre ainsi le couteau sous la gorge, le Japon occupait une place loin d’être ridicule dans l’industrie du solaire. Il se place en 5ème position mondiale en terme de surface de panneaux photovoltaïques installés, avec 5 GW en 2011, contre 2,8 GW en France. Cinq entreprises nippones (contre 400 en Chine…) fabriquent de tels panneaux. En 2009, le gouvernement a fixé comme objectif de parvenir à 28 GW en 2020 et à 53 GW en 2030. Il est très probable que ces chiffres seront revus à la hausse après la décision du 14 septembre. Le solaire devra contribuer à compenser le nucléaire. Avec 54 réacteurs, ce dernier représentait près de 30% de sa production d’électricité et il était prévu que cette part monte à 40%. En 2010, le Japon disposait de 282 GW de puissance électrique installée. Le solaire représentait donc moins de 2%.  Mais l’objectif 2030 l’aurait fait passer à près de 20%, à puissance installée égale.

Pas de difficultés insurmontables pour le Japon

On voit donc que les ordres de grandeur ne présentent pas de difficultés insurmontables. Si l’on ajoute les 2,3 GW d’électricité éolienne nippone en 2010, le Japon dispose d’environ 7,5 GW d’électricité renouvelable. En trente ans, il lui faut multiplier ce chiffre par 4 pour compenser son électricité nucléaire. Cela semble très loin d’être impossible si l’on ajoute à cela l’impact des économies d’énergie. Certaines régions ont réduit de 15% leur consommation après le tsunami de mars 2011. Ainsi, la situation du Japon ne semble pas catastrophique. On connaît les capacités industrielles de ce pays et ses facultés de réaction dans l’adversité. La décision du gouvernement pourrait provoquer un électrochoc salutaire et un élan important vers le développement des énergies renouvelables.

Fessenheim: moins que le solaire

La situation de la France est bien différente. Avec nos 58 réacteurs, nous produisons 74% de notre électricité grâce à nos centrales nucléaires. La fermeture de Fessenheim (1,8 GW) représentera une perte inférieure à 3% des 63 GW nucléaires installés en France. A titre de comparaison, le solaire représentait, fin 2011, 2,8 GW de puissance installée et l’éolien 6,8 GW. Certes, la part de l’ensemble des énergies renouvelables dans la production française d’électricité n’était que de 12% en 2009 ce qui nous classait à la 13ème place européenne… Et le rapport sur l’éolien et le photovoltaïque remis au gouvernement le 13 septembre 2012 risque de ne pas provoquer d’enthousiasme démesuré. Les experts y déclarent: “ces contraintes interdisent d’envisager que les énergies éolienne et photovoltaïque, à elles seules, permettent la diminution de 75 % à 50 % du nucléaire dans le mix électrique français à l’horizon de 2025”. Voilà donc l’objectif affiché par François Hollande lors de la campagne présidentielle habillé pour l’hivers.

Pas de couteau sous la gorge en France

Contrairement au Japon sous la menace permanente de tremblements de terre dévastateurs, la France n’a pas le couteau sous la gorge. Grâce au nucléaire, elle bénéficie même d’un luxe mortel pour les énergies renouvelables. Le phénomène mine depuis 30 ans tout développement important d’une économie verte en France. Les deux décisions que François Hollande vient de prendre le 14 septembre, fermer Fessenheim et interdire le gaz de schiste, va lui permettre de satisfaire les écologistes à peu de frais politique. Coté économique, la France devra se contenter de l’espoir de devenir la spécialiste du démantèlement des centrales nucléaires. Un domaine dans lequel il lui reste toutefois à faire ses preuves. Aucune centrale nucléaire n’a été complètement démantelée sur son territoire à ce jour. Coté énergies renouvelables, nous pourrons continuer à tranquillement caracoler en queue de peloton. Pendant que le Japon se retrousse les manches pour sortir du nucléaire.

Michel Alberganti

lire le billet

Gaz de schiste: l’abstention l’emporte sur la précaution

En ouverture de la conférence sur l’environnement, François Hollande a annoncé ses décisions concernant l’exploration et l’exploitation du gaz de schiste en France:

«J’ai demandé à Delphine Batho, ministre de l’Ecologie, du Développement durable et de l’Energie, de prononcer sans attendre le rejet de sept demandes de permis déposées auprès de l’État et qui ont légitimement suscité l’inquiétude dans plusieurs régions (…) S’agissant de l’exploration et de l’exploitation des hydrocarbures non conventionnels, telle sera ma ligne de conduite tout au long de mon quinquennat. (…) Dans l’état actuel de nos connaissances, personne ne peut affirmer que l’exploitation des gaz et huiles de schiste par fracturation hydraulique, seule technique aujourd’hui connue, est exempte de risques lourds pour la santé et l’environnement.»

publicité

Le président de la République a ajouté que«le gaz de schiste soulève bien des questions»,et il a dit «entendre les arguments économiques et les considérations souvent exagérées sur les gisements».

Ainsi, François Hollande cède aux arguments des écologistes. La France rejoint la Bulgarie et la Roumanie, les pays européens qui ont décidé d’un moratoire sur l’exploration et l’exploitation du gaz de schiste.

Lire la suite…

 

lire le billet

Curiosity peut-il ensemencer Mars ?

Dans quelques millions ou milliards d’années, des martiens dénicheront peut-être un étrange tas de ferraille au fond d’une crevasse. Auront-ils alors les moyens d’investigation leur permettant de comprendre qu’il s’agit là du vaisseau porteur de leurs plus lointains ancêtres ? Nous n’en sommes pas là… Pourtant, le rover Curiosity, car c’est lui dont on il s’agit, est bien soupçonné de constituer un potentiel géniteur de la vie sur Mars. Soit tout le contraire de sa mission qui vise à détecter des traces de vie passée sur la planète rouge.

Plus sérieusement, ce risque pourrait se traduire, d’ici quelques années, par la découverte, lors d’une future mission martienne, d’une vie martienne… issue de la Terre. Outre les considérations éthiques qui prônent d’éviter de polluer l’espace et ses planètes, une contamination de Mars compliquerait la tâche de son exploration. Il faudrait en effet déterminer si les découvertes sont bien d’origine purement martiennes.

L’affaire a été soulevée par un article paru dans le Los Angeles Times du 9 septembre. Le journaliste Louis Sahagun attaque fort en priant pour que Curiosity ne trouve pas d’eau sur Mars, ce qui a peu de chance de se produire dans cette région de la planète. Mais si c’était le cas… “Les outils de forage de Curiosity sont peut-être contaminés par des microbes terrestres. Si c’est le cas et si ces forets touchent de l’eau, les organismes pourraient survivre”, écrit-il. Le journaliste explique ensuite que ces forets, destinés à percer des trous dans la roche martienne afin d’en analyser la composition chimique, devaient être stérilisés et confinés dans une boite étanche ne devant pas être ouverte avant l’arrivée sur Mars. Cette procédure a été modifiée lorsque les ingénieurs de la Nasa ont émis une crainte : un atterrissage brutal pourrait endommager le système de perçage ce qui risquerait de rendre impossible le montage des forets dans leur mandrin. Que faire ?

Les opérations de perçage sont vitales pour la mission de Curiosity de recherche de traces de vie… Les ingénieurs ont donc décidé de monter, sur Terre, l’un des forets dans la perceuse et de l’y laisser. En cas de choc rendant impossible l’introduction d’un foret, il y en aurait au moins un en place et il pourrait réaliser quelques trous. Oui, mais… ce foret n’est donc pas stérile. Outre les débats internes à la Nasa entre les ingénieurs et les spécialistes de la protection des planètes, le risque pris pose une question simple: des organismes terriens pourraient-ils avoir survécu au voyage dans l’espace ?

Selon le Los Angeles Times qui cite des sources officielles, pas moins de 250 000 spores de bactéries pourraient se trouver sur Curiosity après l’atterrissage. Ils devraient tous être détruits par les conditions qui règnent sur le site du cratère Gale (pression, température, rayonnement UV, atmosphère de CO2 presque pur…). Néanmoins, les biologistes ont appris que des organismes vivant sur Terre pouvaient résister à des conditions extrêmes dans l’espace.  Cette année, mentionne le Los Angeles Times, Andrew Schuerger, spécialiste de la survie des micro-organismes terriens dans l’environnement martien, a découvert une espèce de bactérie, Bacillus subtilis, capable de survivre à certaines des conditions qui règnent sur la planète touge.

Pour éviter tout risque de contamination, la Nasa est donc condamnée à éviter à tout prix de trouver de l’eau avec Curiosity. Un comble après avoir si longtemps traqué la présence de cette eau sur Mars. Même si la zone d’exploration semble particulièrement sèche, le risque ne peut être totalement écarté. Pas plus que celui d’une bactérie qui aurait résisté à tout et serait toujours là, blottie au creux du foret avec lequel Curiosity s’apprête à pénétrer dans la roche de Mars…

Michel Alberganti

lire le billet

La bombe atomique du climat : faisable et rentable…

Ce serait la solution du désespoir pour le cas où le réchauffement climatique atteindrait des niveaux insupportables, selon le conseiller scientifique du président Obama, John P. Holdren. Sorte de bombe atomique du climat, la géo-ingénierie consiste à expédier dans la stratosphère terrestre des particules à base de souffre pour réduire la quantité de lumière solaire parvenant sur la Terre. Une sorte de filtre anti-réchauffement qui s’inspire de la nature. En effet, les grandes irruptions volcaniques du passé ont provoqué des refroidissements planétaires engendrés par les particules rejetées. Si un volcan peut le faire, pourquoi pas l’homme ? Surtout s’il est Américain.

L’idée n’est pas nouvelle et l’on pouvait même la croire enterrée, tant elle suscite de critiques de la part des climatologues. La mise en pratique de la géo-ingénierie serait  la version climatique de l’apprenti-sorcier. Réduire la quantité de lumière solaire parvenant sur la Terre peut en effet avoir des effets totalement imprévisibles sur les équilibres climatiques terrestres et engendrer des catastrophes naturelles bien plus graves que celles du réchauffement lui-même. Le médicament pourrait tuer le malade…

5 milliards de dollars par an

Toutes ces considérations n’ont pas empêché Justin McCLellan (Aurora Flight Science Corporation), David Keith (université d’Harvard) et Jay Apt (université de Carnegie Mellon) d’évaluer la faisabilité et de chiffrer cette solution. Juste histoire de voir… Résultat: la géo-ingénierie est à la fois faisable et rentable. Leur étude, publiée dans la revue Environmental Research Letters de l’Institut de Physique (IOP) britannique du 31 août 2012, porte sur l’injection d’un million de tonnes d’aérosols par an à des altitudes comprises entre 18 et 25 km. Coût estimé: 5 milliards de dollars par an. Une bagatelle comparée au coût de la réduction des émissions de CO2 estimé, lui, entre 200 et 2000 milliards de dollars pour 2030.

Avion spécialisé

Forts de ce constat encourageant, les chercheurs ont analysé les technologies exploitables pour transporter et répandre ce million de tonnes de poussières. Comme par hasard, alors qu’un représentant d’un fabricant d’avions sans pilote, Aurora Flight Science, fait partie de l’équipe, c’est justement la solution aéronautique qui se révèle la plus économique. Moins coûteuse que l’adaptation d’un avion existant, la construction d’un aéronef dédié au vol à très haute altitude et capable de disperser les particules reviendrait entre 1 et 2 milliards de dollars par an. Les canons et les fusées seraient, eux, beaucoup trop onéreux car non réutilisables. En fait, ce qui serait encore plus économique que l’avion spécialisé, ce serait une sorte de pipeline aérien de 20 km de long maintenu en l’air par des ballons gonflés à l’hélium…

Les trois chercheurs prennent toutes les précautions nécessaires en précisant que leur étude est purement économique et qu’elle ne prend pas en compte les impacts climatiques de cette solution. Du coup, elle est incapable de déterminer si les dégâts causés par la “solution” ne reviendraient pas plus chers que ceux du réchauffement climatique lui-même. Ce qu’il faudrait démontrer…

Polluer en paix

Une telle étude est probablement révélatrice de l’état d’esprit général des Américains vis à vis de la question climatique. Avec une opinion publique peu convaincue de la responsabilité de l’homme dans le réchauffement, ils s’accommoderaient volontiers d’une solution leur permettant de poursuivre leurs émissions massives de CO2 dans l’atmosphère tout en évitant une augmentation de la température du globe. Continuer à polluer en paix, en somme.

Michel Alberganti

lire le billet

Sous les glaces de l’Antarctique, d’énormes quantités de méthane…

Publiée dans la revue Nature du 30 août 2012, l’étude de Jemma Wadham, de l’école de géographie de l’université de Bristol et de Slawek Tulaczyk, professeur de sciences de la terre à l’université de Californie Santa Cruz, fait l’effet d’une bombe potentielle. Au sens propre. Le projet des deux chercheurs, lancé lors d’une discussion il y a 5 ans, les a conduit à simuler l’évolution des bassins sédimentaires qui se sont formés à la surface de l’Antarctique avant la période qui a couvert ce continent de glaces, il y a 35 millions d’années. Auparavant, la vie grouillait au pôle Sud. Les plantes et les animaux se sont accumulés au cours des millions d’années précédants. Sous la glace, les microbes ont transformé ce carbone organique en CO2 et en méthane. En quantités énormes.

Les chercheurs estiment que 50% de la partie Ouest (1 million de km2) et 25% de la partie Est (2,5 millions de km2) de la calotte polaire de l’Antarctique recouvrent des bassins de sédiments pré-glaciaires. Ces régions concentreraient ainsi pas moins de 21 000 milliards de tonnes de carbone organique. Jemma Wadham note que cela représente 10 fois le stock de carbone piégé dans le permafrost des régions nordiques. D’après ses expériences en laboratoire, ce carbone est probablement métabolisé par les microbes. Les chercheurs ont simulé numériquement cette accumulation de méthane. Ils ont ainsi découvert que les conditions sont favorables à la création d’hydrate de méthane, c’est à dire du méthane piégé dans la glace.

D’après les calculs basés sur ces simulations, la quantité de méthane sous forme d’hydrates ou de gaz pourrait atteindre 4 milliards de tonnes, soit un ordre de grandeur identique aux estimations du méthane piégé dans le permafrost des régions Arctiques. La relative faible profondeur des réservoirs de l’Antarctique les rend plus susceptibles de libérer leur méthane dans l’atmosphère que les autres (Arctique et fonds marins). Sandra Arndt, de l’université de Bristol, co-auteur de l’article, note qu’il “n’est pas surprenant que des quantités significatives de méthane soient piégées sous la calotte polaire de l’Antarctique. Comme pour les sédiments situés sous le fond des mers, il y fait froid et la pression est élevée. Des conditions nécessaires à la formation des hydrates de méthane.

L’inquiétude vient, comme pour l’Arctique, du réchauffement de la calotte polaire de l’Antarctique qui se traduit par des ruptures de la glace. Le risque est que ces rupture libèrent le méthane piégé. Ce qui aurait un fort effet d’accélération du réchauffement climatique. Le méthane est en effet un gaz à effet de serre environ 20 fois plus puissant que le CO2.

Ces prévisions sont issues de simulations. On sait que les modèles mathématiques ont une précision plutôt faible en ce qui concerne l’évolution du climat des pôles. Mais, jusqu’à présent, les erreurs ont toujours été dans le sens d’une sous-estimation de la vitesse de réchauffement de ces régions…

Michel Alberganti

lire le billet

98% des Canadiens pensent qu’un changement climatique est en cours

L’étude publiée par l’ONG International Performance Assessment Centre for Geologic Storage of Carbon Dioxide (IPAC-CO2), le 15 août 2012, révèle que seulement 2% des Canadiens ne croient pas qu’un changement climatique est en train de se produire. Ce résultat confirme celui de 2011. “Les Canadiens sont concernés par les problèmes tels  que les événements météorologiques extrêmes, les sécheresses ou le changement climatique”, note Carmen Dybwad, PDG d’IPAC-CO2.

Ce résultat est nettement meilleur que celui qu’Ipsos a enregistré en France en janvier 2010,  un mois après le sommet de Copenhague. Le sondage réalisé alors montrait que 84% des Français croyaient à la réalité du réchauffement climatique. Ce chiffre reste sensiblement supérieur à celui qui a été mesuré en 2011 aux Etats-Unis par l’université de Yale qui s’était alors penchée sur les différences de perception en fonction des préférences politiques des personnes interrogées. Ainsi, 78% des Démocrates et 53% des Républicains estimaient qu’un réchauffement climatique se produit.

Cette adhésion relativement massive au changement climatique masque des différences importantes quant aux causes de ce phénomène. Même au Canada. Ainsi, 54% des Canadiens estiment que le changement climatique est partiellement dû aux activités humaines et partiellement à des variations climatiques naturelles et 32% qu’il est uniquement dû aux activités humaines. Seuls 9% jugent qu’il provient uniquement de variations climatiques naturelles.

La division des Canadiens est également importante en matière de solutions pour limiter le changement climatique. Pour 35% d’entre eux, les priorités concernent la promotion de voitures plus propres fonctionnant à l’électricité ou à des carburants à faible émission de carbone. Seulement 16% ont favorable à une taxation générale sur l’émission de CO2. Au sujet du stockage du CO2, 59% de Canadiens estiment qu’il devrait être obligatoirement prévu lors de la construction de nouvelles centrales au charbon ou au gaz naturel. Mais le pourcentage de ceux qui ne sont pas sûr qu’ils tireraient profit de la capture et du stockage du carbone est passé de 42% en 2011 à 48% en 2012. Ces résultats sont des moyennes qui masquent d’assez importantes différences suivant les régions où habitent les Canadiens.

On note donc que, malgré les sommets et autres conférences internationales, la prise de conscience du changement climatique et, surtout, de ses causes humaines, progresse lentement. Le Canada, qui devrait faire partie des pays pouvant tirer profit d’un réchauffement grâce à la fonte de la banquise ouvrant des voies de navigation au Nord et permettant d’exploiter le sous-sol, reste en tête des pays sensibilisés à la nécessité de réduire ce réchauffement en agissant sur les émissions humaines de CO2. De quoi confirmer la fibre écologique particulière des Canadiens.

Michel Alberganti

lire le billet