Périscope: Nobel de chimie, mur du son et OGM


Un Nobel de chimie au goût de café

Le prix Nobel de chimie 2012 est avant tout un prix Nobel de biochimie: il récompense deux chercheurs qui ont élucidé l’un des principaux mystères de la transmission moléculaire des informations à l’intérieur de chaque cellule des mammifères. A commencer par les corps humains.

Un exemple: lorsque nous buvons une tasse de café, nous percevons et ressentons dans l’instant sa robe, ses fragrances, sa suavité exotique d’arabica. Comment ce miracle matinal peut-il se produire voire se reproduire pluri-quotidiennement? Pour une large part grâce aux précieuses clés moléculaires découvertes par Robert Lefkowitz et Brian Kobilka.

L’analyse (consciente ou non) des milliers d’informations qui nous parviennent de l’extérieur (mais aussi et surtout de l’intérieur) de notre corps réclame des myriades de molécules réceptrices situées à la surface des milliards de cellules qui constituent notre organisme. Ce sont ces récepteurs qui captent les substances moléculaires circulant dans leur environnement immédiat, des hormones ou des médicaments, par exemple.
Lire la suite…


US Researcher: Nobel Prize Win a ‘Total Shock’ par AP-Tech


Nobel chemistry winner Kobilka hopes for better… par reuters

Le saut du mur du son encore retardé

Il devait avoir lieu le lundi 8 octobre. Il a été repoussé à mardi 9 octobre. Mais les conditions météorologiques, en particulier le vent trop fort, ont conduit à un nouveau report du saut en chute libre de l’australien Felix Baumgartner d’une altitude de près de 37 km. Le sauteur fou veut franchir le mur du son avec sa seule combinaison comme protection. Après une annonce pour jeudi 11 octobre, le saut a finalement été repoussé au dimanche 14 octobre. Si le ciel est d’accord…


Daredevil Felix Baumgartner ‘disappointed’ par andfinally

Les OGM devant l’Assemblée Nationale

Auditionné par l’Assemblée nationale mardi 9 octobre, Gilles-Eric Séralini, auteur d’une étude controversée sur la toxicité d’un du maïs Monsanto NK603, résistant à l’herbicide Roundup, et du Roundup lui-même, a appelé les députés à instituer une “expertise contradictoire” pour mettre fin à quinze ans de “débat stérile” sur les OGM. Le professeur ne cesse de demander une telle innovation qui ne laisse d’inquiéter sur son réalisme. Pour lui, les études devraient être soumises à deux expertises, chacune étant effectuée par l’un des deux camps.  La “solution” aurait surtout pour résultat de plonger le législateur dans une perplexité encore plus grande qu’aujourd’hui. Comment départager deux expertises ouvertement militantes ? En en commanditant une troisième, indépendante ? Autant aller tout de suite à cette solution, non?


OGM : l’étude qui dérange par LCP

Michel Alberganti

lire le billet

OGM : Le PDG de l’Inra s’exprime, les paysans indiens se suicident

18h24, le 3 octobre 2012. Tombe un mail venant de l’Inra et contenant un texte signé par François Houllier, son nouveau PDG, successeur de Marion Guillou depuis le 27 juillet 2012. Pas de traces, pour l’instant, sur le site de l’institut. Ce texte, adressé, semble-t-il, directement aux journalistes et à l’AFP, est intitulé: “OGM: quelle place pour la recherche publique ?”. François Houllier réagit à “l’étude secrète” de Gilles-Eric Seralini qui défraie la chronique depuis le 19 septembre.

Aussitôt, il souligne les “ambiguïtés de ces travaux” ainsi que “l’opération médiatique”. “Le poison de la peur et du doute est ainsi instillé”, en conclut François Houiller qui rappelle le sondage montrant que 8 Français sur 10 s’inquiètent de la présence d’OGM dans leur alimentation.

“Le doute, aussi, vis-à-vis de la recherche publique qui ne remplirait pas sa fonction”, poursuit-il en arrivant ainsi au fait. Ce texte dénonce, en effet, la suspicion “de conflits d’intérêts ou de collusion avec ces firmes et de surcroît coupables d’abandon de citoyens consommateurs en danger” dont est victime la recherche publique. Et d’en conclure: “Le mal est donc fait. Il est injuste, mais pas irréparable.”

Faucheurs de Colmar et maïs MON810

François Houiller cite, bien entendu, le cas “des porte-greffes de vignes génétiquement modifiés pour résister au virus transmis par de  minuscules vers du sol” et arrachés par des faucheurs volontaires à Colmar en août 2010. Il cite également le cas bien connu du maïs MON810 avec le moratoire sur la mise en culture en France, la dénonciation et l’annulation par le Conseil d’Etat après la Cour européenne de justice de ce moratoire, le rétablissement de l’interdiction de la culture, le 16 mars 2012 par NKM sous la pression des écologistes. L’Inra a été chargé par la Commission européenne d’une réévaluation des mesures de toxicité du MON810 (modifié pour résister à certains ravageurs). Résultats dans trois ans.

Plus d’argent pour l’Inra

En guise de synthèse de ces événements épars, François Houllier prend un risque en estimant que les travaux de M. Séralini “ne répondent probablement pas aux critères permettant d’en tirer des conclusions scientifiques solides”.

Voilà donc une expertise semble-t-il sans preuve de la part du dirigeant d’un organisme chargé, lui, de réaliser des études répondant à des critères scientifiques stricts. Comment exprimer un tel jugement avant la publication du rapport demandé par le gouvernement à l’Anses?

Le patron de l’Inra en arrive ensuite à la conclusion, convenue, de son texte. Si le public veut plus d’études sur les OGM, alors que l’institut en effectue déjà mais “à bas bruit médiatique”, il lui faut plus d’argent. Ainsi qu’une “confiance collective dans l’impartialité de ses résultats”. François Houllier estime que “notre société doit sortir de sa schizophrénie pour permettre à la recherche publique de poursuivre ses travaux selon des protocoles incontestables, sans être en permanence soupçonnée du pire et, dans certains cas, voir ses essais détruits”.

Quelques heures plus tard, Arte consacre un sujet de son journal à l’utilisation du coton OGM de Monsanto en Inde:

Monsanto oblitère l’image des OGM

En voulant, à toute force, démontrer que les OGM sont mauvais pour la santé humaine à partir d’un seul exemple, le NK603, Gilles-Eric Séralini a, une nouvelle fois, mis sur la table un débat mal ciblé. D’où le tollé des scientifiques concernés.

L’une des vraies questions n’est-elle pas posée par l’expérience indienne? Pas besoin de tests sur les rats pour constater que l’introduction du coton transgénique y réduit l’espérance de vie des cultivateurs. L’origine du problème des OGM n’est pas scientifique ou sanitaire. Elle est industrielle.

Une firme, Monsanto, a réussi à totalement oblitérer l’image des OGM en la confondant avec l’utilisation qu’elle en fait. Monsanto asservit les paysans et se moque de la santé humaine. Son seul but est de vendre des semences et d’en tirer le maximum de profit. En cela, elle joue son rôle de pure entreprise capitaliste.

Mais a-t-elle, pour autant, démontré tout le potentiel des OGM? Est-il impossible de faire mieux? Ces fameux OGM philanthropiques dont parle Jean-Pierre Berlan sans y croire sont-ils vraiment de doux rêves? La vigne française ne peut-elle profiter de la transgenèse sans y perdre son âme? La biodiversité est-elle forcément menacée par la culture des OGM? La diabolisation des plantes transgéniques se confond avec celle de l’entreprise dominante dans ce domaine. Mais pourquoi est-elle si dominante? Que fait l’Europe en recherche et en industrialisation d’OGM? L’Inra peut-il, seul, prendre en charge les travaux nécessaires? Peut-être, par ailleurs, n’avons-nous aucun besoin d’OGM pour nourrir une planète à 9 milliards d’habitants.

Schizophrénie française

Sortons, alors, de cette schizophrénie qui fait interdire en France la culture des OGM et, de facto, la recherche dans ce domaine, alors que nous importons massivement les mêmes OGM pour nourrir notre bétail et les intégrer à notre alimentation.

En France, on protège les cultures bio de la dissémination des OGM mais on laisse ces mêmes OGM en vente libre dans les supermarchés. Ces supermarchés qui financent une étude pour démontrer que les OGM, présents directement ou indirectement sur leurs rayons, engendrent des tumeurs… Tout cela pour mieux vendre leurs produits bio et soigner leur image verte.

Un “débat raisonné” ne doit pas avoir raison du débat

Il apparaît clairement aujourd’hui qu’à force de prendre des décisions sous la pression de différents lobbies (industriels et écologistes), la situation des OGM en France est devenue un sac de noeuds et d’absurdités qui insulte la cohérence et hypothèque l’avenir.

Ce «débat raisonné» ne doit pas avoir raison du débat. Un vrai débat ne consiste pas à ramener à la raison des ignorants égarés. Il ne s’agit pas d’évangéliser des foules ignares comme on fertilise des terres incultes. Cela signifie que, dans un débat démocratique digne de ce nom, les décisions ne sont pas prises à l’avance.

Un vrai débat met sur la table tous les éléments connus d’un dossier afin que chacun puisse forger sa propre opinion. Il peut aboutir à la nécessité de compléter ce dossier. Pour les OGM, à faire de nouvelles études sur la toxicité, mais également sur la dépendance des agriculteurs. Il peut aboutir à une réglementation, à des interdictions, à des autorisations. Pourquoi pas à des moratoires.

Mais toutes ces décisions ne doivent être prises qu’après le débat. Cela permet aux citoyens de comprendre les motivations de ces décisions. Même s’ils n’en approuvent pas certaines. Dans ce cas de la science, le peuple ne peut pas prendre la décision lui-même mais tout doit être fait pour qu’il la comprenne. Pour cela, il faut la justifier publiquement. Sans autoritarisme d’experts, ni mépris pour la contestation. En matière d’OGM en France, tout comme en ce qui concerne le nucléaire, le gaz de schiste ou les nanotechnologies, nous sommes à des années lumière de la possibilité d’un tel débat. Dommage.

Michel Alberganti

lire le billet

Hubble farfouille dans les photos de jeunesse de l’Univers

Hubble eXtreme Deep Field (XDF)Source: Hubblesite.org

C’est difficile à croire et encore plus à imaginer. Cette photo montre une portion de notre Univers tel qu’il était il y a 13,2 milliards d’années. A cette époque, il n’existait que depuis… 500 millions d’années. Déjà, pourtant, il pullulait de galaxies. Cette image en montre environ 5500 alors qu’elle n’a capté qu’une portion infime de l’ensemble. Nous sommes dans le Fourneau, une constellation extrêmement peu lumineuse. La lumière émise par le moins brillant de ces objets célestes est dix milliards de fois plus faible que celle que peut détecter l’oeil nu humain.  Pour l’enregistrer, les caméras du satellite Hubble l’ont captée pendant un million de secondes… C’est dire si cette trace de notre lointain, dans tous les sens du terme, passé est ténue. A peine palpable par le nouveau système d’imagerie couleur XDF (eXtreme Deep Field) d’Hubble qui associe lumière visible et infrarouge. Pour Garth Illingworth, de l’université de Californie à Santa Cruz et principal responsable du programme Hubble Ultra Deep Field 2009, il s’agit là de “l’image la plus profonde du ciel révélant les plus moins visibles et les plus lointaines des galaxies jamais observées”.

Un tunnel dans le temps

Outre la distance spatiale, l’intérêt de telles images réside dans ce qu’elles nous montrent de l’état de l’Univers à ses débuts. La plupart des galaxies sont alors encore jeunes, petites et en pleine croissance. Avec des cataclysmes cosmiques lorsqu’elles se croisent, entrent en collision et fusionnent. A cette époque, il existait des étoiles bleues plus brillantes que notre Soleil. La lumière émise à cette époque par le chaos de l’Univers en formation ne touche la Terre qu’aujourd’hui. Ce phénomène spatio-temporel qu’il est toujours délicat de se représenter mentalement fonctionne comme un tunnel dans le temps qui nous permet d’accéder visuellement à notre passé… La plus jeune des galaxies de l’image XDF s’est formée 450 millions d’années après le Big Bang.

Jusqu’à 5% de l’âge de l’Univers

Avant Hubble, lancé en 1990, les astronomes devaient se contenter d’observer des galaxies distances de 7 milliards d’années lumière, soit environ la moitié de l’âge de l’Univers. C’est dire les progrès accomplis. Désormais nous plongeons jusqu’à moins de 5% de cet âge. Le successeur d’Hubble, le James Weeb Space Telescope qui devrait être lancé en 2018, verra encore plus loin et tôt: quelques centaines de millions d’années, l’époque de la formation des premières étoiles et galaxies. Mais encore bien loin du Big Bang dont aucun scientifique ne nous promet encore de tirer, un jour, le portrait.

Michel Alberganti

lire le billet

Le petit train qui monte, qui monte… jusqu’à la stratosphère

Une vidéo en forme de conte de fée… pédagogique. C’est assez rare pour être noté. De plus, c’est une histoire vraie, rien à voir avec le train d’Harry Potter, hormis la poésie. La preuve, cette vidéo réalisée par Ron Fugelseth, directeur de création chez Oxygen Productions, spécialiste de graphisme numérique, pour son fils de 4 ans. L’idée est simple : arrimer Stanley, le jouet locomotive favori du bambin à un ballon météorologique, lâcher le tout et contempler l’ascension du petit train vers la stratosphère. Le papa épris d’expérience éducative pour son fiston a perfectionné quelque peu la manip. Il a attaché une caméra HD à l’équipage et l’a doté d’un GPS via un téléphone mobile également embarqué dans cette équipée express vers l’espace.

Ensuite, père et fils ont suivi des yeux Stanley montant vers les cieux. Une heure pour atteindre près de 30 km d’altitude. Puis l’explosion du ballon, la chute libre pendant 20 minutes et l’atterrissage dans un champ de maïs (Monsanto ?) à plus de 40 km de distance. Il ne restait plus qu’à localiser Stanley grâce au GPS avant l’aller le récupérer. Pour le plus grand bonheur de son fils. Surtout lorsque, après le montage de la vidéo captée lors du vol, il a pu découvrir les yeux écarquillés et le sourire de Stanley découvrant la Terre vue d’en haut.

Autre chose qu’un ordinaire clip familial…  Ron Fugelseth devrait donner des idées aux pédagogues à la recherche d’altitude. Un peu d’imagination, un brin de bricolage, un zeste d’émotion et les petits trains se mettent à voler.

Michel Alberganti

lire le billet

Environ 23 centrales nucléaires sont sous la menace d’un tsunami

Après la catastrophe nucléaire de Fukushima provoquée par le tsunami qui a dévasté le nord-est du Japon le 11 mars 2011, on pouvait se douter que d’autres centrales couraient le même risque dans le monde. Encore fallait-il les identifier. C’est le travail qu’une équipe dirigée par des chercheurs espagnols a réalisé. Résultat: quelque 23 centrales comprenant 74 réacteurs nucléaires sont implantées dans des zones “potentiellement dangereuses” vis à vis des tsunamis, dans la mesure où ces phénomènes restent difficiles à prévoir.

Dans l’étude publiée dans la revue Natural Hazards, les chercheurs dénombrent 13 centrales en activité abritant 29 réacteurs parmi les 23 centrales à risque. Quatre autres, avec 20 réacteurs, sont en cours d’extension pour disposer de 9 réacteurs supplémentaires. Enfin, 7 centrales, avec 16 réacteurs, sont en cours de construction. (Soit 24 centrales au total et non 23 comme annoncé par les chercheurs…).

Première cartographie mondiale

“Il s’agit de la première vision de la distribution mondiale des réacteurs de centrales nucléaires civiles situées sur une côte et exposées aux tsunamis”, indique José Manuel Rodríguez-Llanes, coauteur de l’étude au Centre de recherche sur l’épidémiologie des désastres (CRED) à l’université catholique de Louvain, en Belgique. Les chercheurs ont utilisé des données historiques, archéologiques et géologiques ainsi que des relevés de mesures pour établir les risques de tsunamis.

Les zones géographiques côtières concernées sont très étendues : l’ouest du continent américain, la côte atlantique de l’Espagne, du Portugal et de l’Afrique du nord, l’est de la Méditerranée, certaines partie de l’Océanie et, surtout, le sud et le sud-est de l’Asie. Ainsi, la Chine se trouve particulièrement visée du fait de sa forte expansion nucléaire actuelle. Pas moins de 27 des 54 réacteurs en cours de contruction dans le monde s’y trouvent.

19 réacteurs en Chine et 19 au Japon

“Le fait le plus important est que 19 réacteurs, dont 2 à Taiwan, sur les 27 en construction en Chine sont dans des zones dangereuses”, notent les auteurs. Au Japon,  les chercheurs ont identifié 19 réacteurs à risque, dont l’un est en cours de construction. La Corée du sud est en train d’étendre deux centrales à risque avec 5 réacteurs. Deux réacteurs en Inde et un au Pakistan pourraient également subir des tsunamis.

Joaquín Rodríguez-Vidal, auteur principal et chercheur au département de paléontologie et de géodynamique de l’université de Huelva, souligne que “les implications des choix d’implantation des centrales nucléaires ne concernent pas uniquement les Etats qui les font mais également ceux qui pourraient être touchés par les fuites radioactives”. Et de remarquer que, depuis le tsunami de 2004, les régions de l’Océan indien n’ont pas pris de décisions politiques dans ce domaine.

La leçon de Fukushima

Le drame de Fukushima s’est produit dans un pays techniquement en pointe et doté d’infrastructures modernes. Il aurait sans doute eu des conséquences encore plus graves s’il s’était produit dans un Etat moins développé. Les chercheurs recommandent donc de réaliser des analyses locales qui prennent en compte le risque sismique et celui d’un tsunami afin de déterminer l’adaptation nécessaire des centrales mentionnées dans leur étude.

Un tel conseil aurait pu paraître saugrenu avant Fukushima, tant l’on pouvait alors être persuadé que toutes les mesures anti-tsunami avaient bien été prises. Surtout dans un pays comme le Japon qui vit sous la menace permanente d’un séisme majeur. Désormais, nous savons que l’une des premières puissances économiques mondiales est capable de ne pas protéger efficacement ses centrales contre un tsunami. D’où l’importance de cette nouvelle étude. Mais sera-t-elle suivie d’effets ?

Michel Alberganti

lire le billet

Le militantisme anti-OGM est-il compatible avec la science ?

Les photos illustrant l’étude publiée le 19 septembre 2012 par Gilles Eric Séralini (Université de Caen, Institut de biologie, CRIIGEN) dans la version en ligne de la revue Food and Chemical Toxicology rappellent celles qui ornent… les paquets de cigarettes. Reprises par le Nouvel Obs qui fait la couverture de son édition du 20 septembre avec le titre “Oui, les OGM sont des poisons!”, elles montrent des rats perclus de tumeurs après avoir été alimentés avec du maïs Monsanto NK603, résistant à l’herbicide Roundup de… Monsanto, et de l’herbicide Roundup. Résultat : les rats ainsi nourris meurent beaucoup plus vite que les rats du groupe de contrôle recevant une nourriture sans OGM ni Roundup.

Quels effets sur l’homme ?

Les scientifiques se prononceront sur le fond de cette étude. Ils devront, en particulier, reproduire l’expérience afin de vérifier qu’ils obtiennent les même résultats que l’équipe de Gilles-Eric Séralini. La procédure classique. En cas de confirmation de l’effet de ce cocktail mortel, il restera à extrapoler ses effets sur l’être humain. Il faudra enfin vérifier que les doses utilisées par les chercheurs français, transposées à la masse corporelle humaine, sont représentatives de ce que nous consommons. C’est dire s’il reste des choses à vérifier avant de conclure, comme nos confrères du Nouvel Observateur, que les OGM sont des poisons. Si tel était le cas, un désastre sanitaire majeur serait à craindre aux Etats-Unis, grands consommateurs d’OGM depuis des décennies. Pour l’instant, donc, il s’agit d’une alerte très inquiétante qui impose de lancer de nouvelles études indépendantes.

Traitement médiatique et éthique

S’il est trop tôt pour statuer sur la valeur scientifique de cette étude, il est d’ores et déjà possible d’en analyser le traitement médiatique et la composante éthique. Il se trouve en effet que le principal auteur de l’étude, Gilles-Eric Séralini, est également ouvertement militant anti-OGM. A la fin de la publication dans Food and Chemical Toxicology, il est mentionné:

Conflict of Interest
The authors declare that there are no conflicts of interest.

Les mêmes auteurs remercient ensuite, pour leur support, la fondation “Charles Leopold Meyer pour le progrès de l’homme” et le CRIIGEN (Comité de Recherche et d’Information Indépendantes sur le génie Génétique), l’équivalent de la CRIIRAD, spécialisée dans le nucléaire, mais pour le génie génétique. Le CRIIGEN se déclare un comité “apolitique et non-militant d’expertise, de conseil, indépendant des producteurs d’OGM“. Le président de son comité scientifique est… Gilles-Eric Séralini. Parmi ses membres, on trouve Corinne Lepage, présidente d’honneur, et Jean-Marie Pelt, secrétaire général.

Publication scientifique, livres, documentaire…

Gilles-Eric Séralini publie, le 26 septembre prochain chez Flammarion, un ouvrage intitulé : Tous cobayes, OGM, pesticides, produits chimiques”. Le même jour, sort au cinéma un documentaire de Jean-Paul Jaud, “Tous cobayes”, adapté du livre de Gilles-Eric Séralini. Ce film sera diffusé sur France 5 le 16 octobre. Quelques jours auparavant, le 22 septembre, les éditions Charles Leopold Meyer auront publié un ouvrage intitulé “Pour qu’ils ne puissent plus dire qu’ils ne savaient pas !” signé par Corinne Lepage. Le livre “démontre l’absolue nécessité et l’urgence dans laquelle nous nous trouvons aujourd’hui de mener des études indépendantes” sur les OGM, selon  l’éditeur. Cela fait beaucoup. Même si l’on considère comme aussi salutaire que nécessaire l’alerte de l’opinion publique sur les questions que soulèvent les OGM et les agissements de Monsanto, largement exposés dans le remarquable documentaire Le Monde selon Monsanto, réalisé par Marie-Monique Robin.

Indépendant… et militant

Indépendant, le CRIIGEN n’en est pas moins militant, quoi qu’il en dise. Les écrits de ses principaux membres en témoignent largement. Gilles-Eric Séralini est l’auteur de Génétiquement incorrect (Flammarion, 2003, 2012), Ces OGM qui changent le monde (Flammarion, 2004) et Nous pouvons nous dépolluer ! (Josette Lyon, 2009). Avec Jean-Marie Pelt, il a publié Après nous le déluge ? (Flammarion, 2006). Quant à Joël Spiroux de Vendômois, docteur en médecine et président du CRIIGEN, il signe aujourd’hui même, dans le Nouvel Observateur, une tribune intitulée: “OGM, Monsanto, Roundup & Co : comment notre société produit des malades”. Difficile, dans ces conditions, d’arguer d’une quelconque indépendance d’opinion du CRIIGEN et de ses membres vis à vis des OGM. Tous mènent un combat ouvert contre les organismes génétiquement modifiés.

Influence sur le protocole expérimental ?

Rien de plus respectable. La question qui se pose concerne la conjonction entre la publication d’une étude scientifique et un battage médiatique visiblement orchestré s’exprimant simultanément dans la presse, dans l’édition, au cinéma et à la télévision. Bien entendu, l’objectivité scientifique n’existe pas plus que l’objectivité journalistique. Mais jusqu’où le militantisme peut-il influencer le protocole d’une expérience ? La publication d’aujourd’hui dans Food and Chemical Toxicology conduit forcément à cette interrogation du fait de l’engagement idéologique et politique de son auteur principal. Seule l’expertise scientifique de ses travaux pourra lever ce doute légitime. S’il est prouvé que la découverte de Gilles-Eric Séralini constitue effectivement une grave menace pour l’homme, cela démontrera que le militantisme peut servir de moteur efficace à la démarche scientifique.  Dans le cas contraire…

Michel Alberganti

» A lire aussi: Maïs OGM Monsanto, l’étrange affolement du gouvernement français

(Ré) écoutez l’émission Science Publique que j’ai animée sur France Culture le 24 février 2012 :

24.02.2012 – Science publique│La France peut-elle se passer de la recherche sur les OGM ? 59 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobileaudiovideo

Avec:
Philippe Chalmin, professeur d’économie à Paris-Dauphine.
François Houllier, directeur général délégué à l’organisation, aux moyens et à l’évaluation scientifique de l’Institut national de la recherche agronomique, l’INRA.
Jean-Christophe Pagès, président du comité scientifique du Haut Conseil des Biotechnologies ( HCB).
Joël Spiroux de Vendomois, docteur en médecine générale et en environnement, président du Comité de recherche et d’informations indépendantes sur le génie génétique, le CRIIGEN.

20 commentaires

lire le billet

Energie nucléaire: la France ferme Fessenheim, le Japon ferme tout

Coup dur pour les inconditionnels de l’énergie nucléaire. Dix huit mois après la catastrophe de Fukushima, le gouvernement japonais a annoncé, vendredi 14 septembre 2012, sa nouvelle stratégie énergétique : « réaliser une société qui ne dépend plus de l’énergie nucléaire dans les années 2030 ». A terme, le Japon ne prévoit de conserver que son surgénérateur de Monju en l’utilisant pour le traitement des déchets nucléaires.

Le même jour, quelques heures auparavant, François Hollande avait annoncé, en ouverture de la conférence environnementale des 14 et 15 septembre, que la centrale nucléaire de Fessenheim «sera fermée à la fin de l’année 2016», quelques mois avant l’expiration de son mandat. Ce calendrier semble satisfaire les écologistes, ravis, par ailleurs, de la décision d’enterrer l’exploration et, a fortiori, l’exploitation du gaz de schiste en France.

Pression populaire

Le parallèle avec le Japon est instructif. Dix huit mois après la catastrophe de Fukushima, le gouvernement de Yoshihiko Noda était soumis à une forte pression populaire. Il faut dire que le Japon l’avait échappé belle en mars 2011 lorsque la centrale de Fukushima-Daiichi a été dévastée par le tsunami et que des explosions ont projeté un nuage de particules radioactives dans l’atmosphère. Tokyo, située à 220 km au sud-ouest, n’a été épargnée que grâce à une direction favorable des vents. Depuis, l’exploitant Tepco, largement convaincu d’incompétence, lutte pour contrôler la centrale. Encore aujourd’hui, le réacteur N°4 et sa piscine contenant 264 tonnes de barres de combustible hautement radioactives reste un danger permanent.

Épée de Damoclès

Pour rassurer une population traumatisée par l’épée de Damoclès de Fukushima et, sans doute aussi, par la mémoire des bombes atomiques de la seconde guerre mondiale, le gouvernement a donc fini par prendre une décision courageuse. Pour la première fois, l’une des premières économies mondiales planifie sa sortie du nucléaire. Le Japon se donne moins de 30 ans pour y parvenir. Un délai qui semble raisonnable si l’on considère que le nucléaire fournissait 29% de la production électrique du pays en 2010.

Après le séisme du 11 mars 2011, tous les réacteurs japonais sont progressivement mis à l’arrêt. En mai 2012, plus aucun ne fonctionne et le Japon est alors sorti du nucléaire en… 14 mois. Mais cette situation n’est guère tenable économiquement et, en juin 2012, Yoshihiko Noda annonce la remise en service de deux réacteurs dans la centrale d’Ohi, dans l’ouest du Japon. Mais le mois suivant, en juillet dernier, les manifestations anti-nucléaires rassemblent des dizaines de milliers de Japonais à Tokyo.

600 milliards de dollars

C’est donc bien sous la pression de l’opinion publique japonaise que le gouvernement nippon a décidé de s’engager dans une sortie du nucléaire. Il y a une semaine, les discussions du cabinet du premier ministre Yoshihiko Noda laissaient pourtant entendre que le coût d’une telle stratégie s’élèverait à plus de 600 milliards de dollars. En face de ce coût, le Japon a pesé le risque d’un nouveau tremblement de terre majeur de magnitude 8 au cours des prochaines décennies. D’après les scientifiques, ce risque est évalué à 87% dans la région du Tokai, à 200 km au sud-ouest de Tokyo, pour les 30 prochaines années.

En prenant la décision de sortir définitivement du nucléaire avant 2040, le Japon se met en situation de devoir impérativement développer ses ressources en énergies renouvelables. Sans ces dernières, les importations de pétrole et de gaz pour compenser les 30% de son électricité nucléaire pèseront de façon insupportable sur son économie.

5ème mondial dans le solaire

Avant de se mettre ainsi le couteau sous la gorge, le Japon occupait une place loin d’être ridicule dans l’industrie du solaire. Il se place en 5ème position mondiale en terme de surface de panneaux photovoltaïques installés, avec 5 GW en 2011, contre 2,8 GW en France. Cinq entreprises nippones (contre 400 en Chine…) fabriquent de tels panneaux. En 2009, le gouvernement a fixé comme objectif de parvenir à 28 GW en 2020 et à 53 GW en 2030. Il est très probable que ces chiffres seront revus à la hausse après la décision du 14 septembre. Le solaire devra contribuer à compenser le nucléaire. Avec 54 réacteurs, ce dernier représentait près de 30% de sa production d’électricité et il était prévu que cette part monte à 40%. En 2010, le Japon disposait de 282 GW de puissance électrique installée. Le solaire représentait donc moins de 2%.  Mais l’objectif 2030 l’aurait fait passer à près de 20%, à puissance installée égale.

Pas de difficultés insurmontables pour le Japon

On voit donc que les ordres de grandeur ne présentent pas de difficultés insurmontables. Si l’on ajoute les 2,3 GW d’électricité éolienne nippone en 2010, le Japon dispose d’environ 7,5 GW d’électricité renouvelable. En trente ans, il lui faut multiplier ce chiffre par 4 pour compenser son électricité nucléaire. Cela semble très loin d’être impossible si l’on ajoute à cela l’impact des économies d’énergie. Certaines régions ont réduit de 15% leur consommation après le tsunami de mars 2011. Ainsi, la situation du Japon ne semble pas catastrophique. On connaît les capacités industrielles de ce pays et ses facultés de réaction dans l’adversité. La décision du gouvernement pourrait provoquer un électrochoc salutaire et un élan important vers le développement des énergies renouvelables.

Fessenheim: moins que le solaire

La situation de la France est bien différente. Avec nos 58 réacteurs, nous produisons 74% de notre électricité grâce à nos centrales nucléaires. La fermeture de Fessenheim (1,8 GW) représentera une perte inférieure à 3% des 63 GW nucléaires installés en France. A titre de comparaison, le solaire représentait, fin 2011, 2,8 GW de puissance installée et l’éolien 6,8 GW. Certes, la part de l’ensemble des énergies renouvelables dans la production française d’électricité n’était que de 12% en 2009 ce qui nous classait à la 13ème place européenne… Et le rapport sur l’éolien et le photovoltaïque remis au gouvernement le 13 septembre 2012 risque de ne pas provoquer d’enthousiasme démesuré. Les experts y déclarent: “ces contraintes interdisent d’envisager que les énergies éolienne et photovoltaïque, à elles seules, permettent la diminution de 75 % à 50 % du nucléaire dans le mix électrique français à l’horizon de 2025”. Voilà donc l’objectif affiché par François Hollande lors de la campagne présidentielle habillé pour l’hivers.

Pas de couteau sous la gorge en France

Contrairement au Japon sous la menace permanente de tremblements de terre dévastateurs, la France n’a pas le couteau sous la gorge. Grâce au nucléaire, elle bénéficie même d’un luxe mortel pour les énergies renouvelables. Le phénomène mine depuis 30 ans tout développement important d’une économie verte en France. Les deux décisions que François Hollande vient de prendre le 14 septembre, fermer Fessenheim et interdire le gaz de schiste, va lui permettre de satisfaire les écologistes à peu de frais politique. Coté économique, la France devra se contenter de l’espoir de devenir la spécialiste du démantèlement des centrales nucléaires. Un domaine dans lequel il lui reste toutefois à faire ses preuves. Aucune centrale nucléaire n’a été complètement démantelée sur son territoire à ce jour. Coté énergies renouvelables, nous pourrons continuer à tranquillement caracoler en queue de peloton. Pendant que le Japon se retrousse les manches pour sortir du nucléaire.

Michel Alberganti

lire le billet

Eolien : autant en apporte le vent

Publiée le 9 septembre 2012 dans la revue Nature Climate Change, une nouvelle étude affirme que l’éolien pourrait, théoriquement, couvrir l’ensemble des besoins énergétiques de la planète. Selon Kate Marvel du laboratoire national Lawrence Livermore qui a dirigé les travaux de l’équipe, 400 térawatts pourraient être obtenus grâce aux éoliennes sur terre et en mer tandis que l’éolien d’altitude aurait une capacité de 1800 terrawatts. Or, l’humanité consomme aujourd’hui 18 terrawatts. Ainsi, le vent terrestre couvrirait 20 fois ces besoins et le vent d’altitude 100 fois. De quoi faire réfléchir ceux qui considèrent l’énergie éolienne comme tout juste capable d’apporter, comme le solaire, un appoint aux énergies “sérieuses” que sont le pétrole, le charbon et le nucléaire.

Recherche de l’optimum

Il faut néanmoins préciser que ces chiffres représentent le potentiel géophysique de cette source d’énergie renouvelable et propre. Ils ne tiennent pas compte des limitations technologiques ou économiques. Il ne s’agit donc que d’un gisement. Pas de la ressource réellement exploitable. L’étude s’est concentrée sur la recherche de l’optimum d’exploitation possible du vent. En effet, trop d’éoliennes finiraient par ralentir les courants aériens, phénomène de saturation qui conduit à la définition d’un maximum de la ressource.

Peu d’impacts sur le climat

Les chercheurs ont également tenté d’évaluer les effets sur le climat de la Terre d’une exploitation massive de l’énergie éolienne. Selon eux, l’impact de l’extraction d’une quantité d’énergie égale à la consommation de l’humanité serait minime, dans la mesure ou les turbines seraient réparties et non concentrées dans certaines régions. D’après leurs calculs, une telle exploitation ferait varier la température du globe d’environ 0,1°C et affecterait 1% des précipitations. En conclusion, Ken Caldera, co-auteur de l’étude et membre de l’institution Carnegie à Washington, estime que “les facteurs limitant l’exploitation de l’énergie éolienne seront économiques, technologiques et politiques mais non géophysiques”.


Courants-jets

En 2009, Ken Caldera avait déjà publié, avec Cristina Archer dans la revue Energies, un article dédié au potentiel des vents de haute altitude. Les chercheurs s’étaient alors penchés sur les fameux courants-jets, les fameux jet streams, qui circulent dans l’atmosphère à des altitudes comprises en 6 et 15 km. Il en avait déduit de forts potentiels sans donner la méthode pour exploiter ces véritables rivières aériennes. Comment installer une turbine à ces altitudes et récupérer le courant électrique produit ? Mystère… Moins ambitieux mais plus réalistes, de nombreux projets visent l’exploitation du vent à moyenne altitude, c’est à dire à quelques centaines de mètres de la terre. Il s’agit de se dégager de l’effet de ralentissement du vent que provoque sa friction sur le sol afin d’exploiter un flux plus fort et plus régulier. Mais, là encore, comment faire ?

Cerf-volant et yo-yo

Une société italienne, Kite Gen Research fondée en 2007 à Chieri, près de Turin, détient une vingtaine de brevets pour une solution originale: le cerf-volant (kite en anglais). Son idée essentielle réside dans le fait de conserver sur terre toute la partie lourde et encombrante de l’installation, c’est à dire la turbine. Cette dernière tourne grâce au déplacement ascensionnel du cerf-volant qui entraîne un câble. Le problème, c’est qu’il faut faire redescendre le cerf-volant au bout d’un certain temps… Pour cela, le système rompt la portance de l’aile volante de plusieurs dizaines de m2 en exerçant une traction sur l’un des câbles. le cerf-volant se met, en quelque sorte, en torche, ce qui facilite sa descente. Ensuite, il suffit de rétablir la portance pour que l’ascension reprenne. Et ainsi de suite, dans un mouvement qui rappelle celui du yo-yo. De essais du système ont été réalisé au début de 2012. Certains problèmes restent à résoudre, semble-t-il mais Kite Gen mise sur des installations de 3 MW par cerf-volant et envisage de vastes carrousels sur terre et sur mer pour rassembler des dizaines de systèmes sur un même site. Un jour, peut-être, notre courant électrique sera produit par des cerf-volants… Nul doute que l’idée devrait séduire la Chine…

Michel Alberganti

lire le billet

Après sa défaite sur 200 m, Blade Runner est mauvais perdant

Oscar Pistorius, l’athlète sud-africain qui court avec des prothèses en forme de lames élastiques, a perdu, dimanche 2 septembre 2012, son titre sur 200 mètres aux Jeux paralympiques de Londres. Il avait pourtant battu le record du monde sur cette distance lors d’une série, la veille, avec un temps de 21,30 secondes. Soit une amélioration de 0,5 seconde sur le précédent record du monde établi par le brésilien Alan Oliveira au cours d’une série précédente. Mais dimanche, ce même Alan Oliveira a battu Oscar Pistorius en finale avec un temps de 21,45 secondes et une avance de seulement 0,07 secondes sur le sud-africain.

Au lieu d’admettre sa défaite, la première de sa carrière sur 200 mètres en compétition paralympique, Oscar Pistorius a accusé la longueur des lames de prothèses utilisées par Alan Oliveira. Trop importante pour ne pas fausser la course, selon lui. Les temps réalisés par les deux athlètes ne semblent pourtant pas confirmer ce jugement. Lors de la finale, Oscar Pistorius a simplement réalisé un temps nettement supérieur à celui de la série lors de laquelle il a battu le record du monde. Sans doute a-t-il pêché par excès de confiance. La façon dont la course s’est déroulée semble l’indiquer. Aux 100 mètres, Oscar Pistorius avait 8 mètres d’avance sur Alan Oliveira ce qui l’a sans doute conduit à réduire son effort, pensant que la course était gagnée. Le retour d’Alan Oliveira dans la seconde moitié de la distance l’a surpris et il s’est fait battre sur la ligne de 7 centièmes de seconde.

Sa réaction est d’autant plus regrettable que le champion sud-africain s’est battu, en 2008, pour obtenir le droit de participer aux compétitions des athlètes valides. Droit qu’il a obtenu pour les JO de Londres. Mais il n’a guère brillé au 400 mètres, finissant dernier de la demi finale. De quoi confirmer que les prothèses à lames ne constituent pas un avantage par rapport aux valides. Critiquer aujourd’hui la longueur des lames utilisées par Alan Oliveira semble donc plus relever du dépit que de la contestation légitime.

Mise à jour, lundi 3 septembre:
Dans un communiqué, Oscar Pistorius a présenté ses excuses à Alan Oliveira:  «Je ne souhaite jamais assombrir cet instant où un athlète triomphe et je souhaite présenter mes excuses pour le moment que j’ai choisi pour faire mes commentaires. Je pense qu’il y a un problème et je salue l’occasion qui m’est faite d’en discuter avec le Comité international paralympique, mais je reconnais que soulever ce débat immédiatement après la course était inapproprié». Ainsi, l’athlète regrette sa première réaction mais maintient sa position sur le fond, c’est à dire l’impact de la longueur de ses prothèses sur la performance de son adversaire.

Michel Alberganti

Vous pouvez également (ré)écouter l’émission Science Publique que j’ai animée sur France Culture en juillet 2012 sur ce sujet:

  • 20.07.2012 – Science publique│11-12

    JO : Que peut-on attendre des prothèses high-tech ?

    59 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

    L’une des vedettes des Jeux Olympiques qui commencent dans une semaine exactement, le 27 juillet à Londres, sera sans doute Oscar Pistorius. Membre de l’équipe sud-africaine sur 400 mètres et relais 4 fois 400 mètres, il participera pour la première fois aux Jeux Olympiques des athlètes valides alors qu’il est privé de ses deux jambes. Né en 1986 sans péronés, il a été amputé dès l’âge de …

lire le billet

Le cerveau en train de se régénérer pour la première fois en vidéo

Cela ressemble au routier d’une grande ville avec ses grands échangeurs. En fait, il s’agit de la circulation des protéines, rendues visibles grâce à des marqueurs luminescents issus de méduses, qui traversent les neurones pour les régénérer. C’est grâce à cette nouvelle méthode d’imagerie que les chercheurs de l’université de Californie du Sud (USC) ont pu réaliser cette vidéo inédite et trop courte qui dévoile l’intérieur des neurones.

Un nouveau cerveau toutes les semaines

“Notre cerveau est démonté et remonté chaque jour”, indique Don Arnold, professeur de biologie moléculaire et informatique au Dornsife College de l’USC et auteur d’un article sur ce sujet dans la revue Cell-Reports du 26 juillet 2012. “D’ici une semaine, votre cerveau sera constitué de protéines entièrement différentes de celles qui le compose aujourd’hui”, ajoute-t-il. “Cette vidéo montre cette régénération. Nous savions que cela se produisait mais, maintenant, nous pouvons voir le processus en train de se produire”.

La découverte du parcours réel des protéines

La nouvelle technique d’imagerie permet de suivre le parcours des protéines vers les deux zones qu’elles nourrissent dans les neurones : l’axone, le câble électrique qui transmet les signaux, et les dendrites, portes d’entrée des neurones pour les signaux provenant d’autre cellules. “Il est connu depuis plusieurs décennies que les protéines ont pour cible soit l’une soit l’autre de ces zones. Mais nous ne comprenions pas comment ce ciblage se produisait jusqu’à ce que nous puissions réellement voir les protéines se déplacer vers l’une ou l’autre”, note Sarmad Al-Bassam, doctorant et principal auteur de ‘l’article paru dans Cell Reports.

“Notre résultat est très surprenant”, précise Don Arnold. “Nous avons découvert qu’au lieu de viser spécifiquement les dendrites, les protéines pénètrent dans les deux zones et qu’elles sont ensuite stoppées pour leur éviter de se déplacer au delà de la portion initiale de l’axone”.

Michel Alberganti

lire le billet