Bricolage à Flamanville : 20 m3 d’eau radioactive sur le plancher

L’image que l’on se fait d’une centrale nucléaire et de ce qui s’y passe en prend un coup lorsque l’on apprend les circonstances qui ont conduit à une fuite d’environ 20 m3 d’eau radioactive dans le bâtiment d’un réacteur de la centrale de Flamanville.  Mise en service en 1987 dans la Manche, cette dernière comprend deux réacteurs de 1300 MW chacun. Ces dernières années, Flamanville était surtout connue pour les retards dans la construction du controversé réacteur EPR de nouvelle génération.

Intervention de maintenance

Contrairement à l’impression que cela donne, la scène ne se passe pas dans le local à chaudière d’un immeuble quelconque mais bien dans le bâtiment de l’un des deux réacteurs de la centrale. Mercredi 24 octobre, dans la nuit, une intervention de maintenance est décidée dans la centrale de Flamanville sur un circuit d’eau connecté au circuit primaire du réacteur N°1. Ce circuit n’est autre que celui qui relie le réacteur au générateur de la vapeur qui entraîne les turbines qui produisent du courant électrique.

Arrêt à chaud

Le réacteur N°1 est alors en “arrêt à chaud”. Cela signifie qu’après son arrêt à froid du mois de juillet pour les opérations de rechargement de combustible, il a été progressivement remis en activité jusqu’à atteindre cet état dit d’arrêt à chaud qui précède la remise en service effective avec production d’électricité. Mercredi, donc, le circuit primaire se trouvait dans les conditions normales de fonctionnement : 150 bars de pression et 300°C de température pour l’eau du circuit primaire.

Un petit tuyau pour les sondes de température

L’opération de maintenance était motivée par une baisse de débit dans un petit tuyau de 60 mm monté en parallèle (dérivation) sur l’un des quatre gros tuyaux formant les boucles qui relient le coeur du réacteur au générateur de vapeur (circuit en rouge dans le schéma ci-dessus). Ce petit tuyau supporte des sondes de températures. Il capte une petite partie du circuit de refroidissement et il en réduit la pression grâce à un diaphragme, une pièce percée de trous qui obstrue partiellement le passage de l’eau. Les opérateurs de la centrale, ayant noté une baisse anormale du débit d’eau dans ce tuyau à sondes, dépêchent une équipe pour démonter le système.

Copeaux oubliés

Les techniciens se rendent sur place. Ils isolent le tuyau du circuit primaire à l’aide de vannes, démontent l’ensemble et découvrent que le diaphragme est obstrué par, entre autres, des copeaux métalliques. Thierry Charles, de l’IRSN, indique qu’il s’agit probablement de copeaux provenant d’une réparation précédente.  Pour remplacer une sonde thermique, c’est à dire un thermomètre, les techniciens auraient réusiné un pas de vis et… ils auraient laissé tomber les copeaux dans le tuyau… L’équipe effectue le nettoyage oublié par leurs collègues et referme le tout.

Vanne fuyarde et verrine faiblarde

Il leur est alors demandé d’en profiter pour vérifier les 3 autres tuyaux de dérivation se trouvant sur les 3 autres boucles du circuit primaire. C’est alors qu’ils découvrent, sur l’un des trois tuyaux, une vanne fuyarde… Ils parviennent à l’isoler et à la remplacer. Mais lorsqu’ils remettent le circuit en fonctionnement, c’est à dire lorsque l’eau sous pression revient dans le petit tuyau, un hublot en verre permettant d’en voir l’intérieur, une verrine en langage technique, se casse. Aussitôt, c’est la fuite.

Une fuite de 7 m3/h

Pas moins de 7 m3/h d’eau radioactive à 300°C se répandent sur le sol du bâtiment réacteur N°1. L’accident sur produit à 23h15 le 24 octobre, selon le communiqué de l’ASN. Et la fuite ne sera arrêtée qu’à 5 heures au matin du 25 octobre. Soit près de 6 heures de fuite. A 7 m3/h, cela ferait environ 42 m3… L’IRSN avance néanmoins seulement 20 m3, ce qui indique que le débit s’est progressivement réduit. En effet, dès le début de la fuite, les opérateurs de la centrale ont décidé de déclencher la procédure d’arrêt à froid. Cela signifie que le coeur du réacteur est neutralisé par les barres de contrôle qui inhibent la réaction nucléaire. Progressivement, la pression et la température du circuit primaire baissent. A la fin de la procédure, le circuit se trouve à une température de 60°C et une pression d’environ 2 bars.

Pas de blessés… une chance

Par chance, aucun technicien ne se trouvait dans le bâtiment réacteur au moment du déclenchement de la fuite. Il reste néanmoins plusieurs zones d’ombres. D’abord, pour expliquer pourquoi la pression est montée jusqu’à faire exploser ce hublot. Ensuite, pour déterminer les responsabilités de cette erreur de manœuvre qui aurait pu avoir des conséquences graves en cas de présence humaine. L’équipe de maintenance provenait-elle d’EDF ou d’un sous-traitant ?  EDF devra donner des explications. Cela tombe bien, c’est l’une de ses spécialités…

Michel Alberganti

lire le billet

113ème élément : des Japonais crient victoire

Pour l’instant, il s’appelle encore UUT, comme Ununtrium, c’est à dire… 113. Si sa création par l’équipe japonaise de Kosuke Morita, du laboratoire des éléments superlourds du Centre RIKEN Nishina, est confirmée, il prendra sans doute un vrai nom d’élément chimique comme ses voisins, le 112, baptisé Copernicium, ou le 114, Flerovium. Pour cela, l’expérience japonaise devra être homologuée par l’IUPAC. Mais pour Kosuke Morita, le résultat obtenu est concluant et il déclare: “Pendant 9 ans, nous avons cherché à obtenir des données identifiant l’élément 113 et maintenant, enfin, nous les avons. Nous ressentons comme un grand poids retiré de nos épaules”.

Des éléments superlourds… qui n’existent pas

La réalisation de l’équipe japonaise s’inscrit dans la longue course que se livrent, depuis 1940, les chercheurs américains, russes et allemands pour débusquer les éléments chimiques superlourds. Ces derniers ont la caractéristique assez particulière… de ne pas exister dans la nature. Néanmoins, si les chimistes cherchent à les produire de façon artificielle, c’est parce qu’ils existent… dans la fameuse classification périodique des éléments établie par le russe Dmitri Mendeleïev en 1869. Ce dernier, qui compte parmi les plus grands génies de la science, a proposé alors de classer tous les éléments chimiques suivant l’ordre croissant de leur numéro atomique, c’est à dire du nombre de protons qui constituent leur noyau. L’idée était d’autant plus osée que, à la fin du 19ème siècle, un nombre important de ces éléments n’existaient pas dans le bestiaire des chimistes. Qu’à cela ne tienne ! Dimitri Mendeleïev, confiant dans une sorte de logique naturelle, a construit son tableau… avec des trous. Et le plus extraordinaire, c’est que les trous se sont peu à peu comblés.

10% de la vitesse de la lumière

Avec les éléments superlourds, cela se complique puisqu’il n’est plus question de les découvrir mais bien de les fabriquer. Le jeu consistait donc, pour les Japonais, à créer un élément dont le noyau contient 113 protons. Toute la difficulté réside dans l’instabilité extrême d’un tel élément. Ce qui explique d’ailleurs que l’on ne puisse l’observer dans la nature. Pour le créer, il faut faire appel à des réacteurs nucléaires ou à des accélérateurs de particules provoquant, par exemple, des phénomènes de fusion nucléaire. Kosuke Morita a procédé ainsi sans succès en 2004 et 2005. Avec l’accélérateur de particules RIKEN de Wako, près de Tokyo, le 12 août 2012, des ions de zinc voyageant à 10% de la vitesse de la lumière sont entrés en collision avec une fine couche de bismuth. Résultat : pendant un bref instant, l’élément au noyau contenant 113 protons a existé.

30 + 83

Mais comment en être sûr étant donné qu’un tel élément se désintègre instantanément ? Les 113 protons de ce fugace élément proviennent des 30 protons du zinc et des 83 protons du bismuth. Même si le compte de la somme est bon, encore faut-il vérifier qu’un noyau à 113 protons s’est bien créé. Pour cela, les chercheurs analysent les désintégrations qui suivent la collision. Pour homologuer la création de l’élément cherché, il faut observer 6 désintégrations alpha successives. Et ces dernières ont bien été identifiées comme des isotopes de l’élément 113. L’étude a été publiée le 27 septembre 2012 dans le Journal of the Physical Society of Japan.

Prochain défi : le 119

Si cette réussite est confirmée, Kosuke Morita deviendra le premier Japonais, mais également le premier asiatique  à s’inscrire dans le palmarès de la course aux éléments superlourds. Une épreuve qui n’est pas terminée. Sur les 118 éléments du tableau de Mendeleïev, tout a désormais été réalisé même s’il reste des débats entre Américains et Russes au sujet du plus lourd, le 118. Parmi ceux qui n’ont pas encore de nom définitif, on trouve le 117 , observé par les Russes du Flerov Laboratory of Nuclear Reactions en 2010 et le 115 qui résulte d’une collaboration entres Russes et Américains (2004). Qu’à cela ne tienne. Kosuke Morita s’est déjà fixé un nouvel objectif : sortir du tableau de Mendeleïev et créer… le 119.

Michel Alberganti

lire le billet

Environ 23 centrales nucléaires sont sous la menace d’un tsunami

Après la catastrophe nucléaire de Fukushima provoquée par le tsunami qui a dévasté le nord-est du Japon le 11 mars 2011, on pouvait se douter que d’autres centrales couraient le même risque dans le monde. Encore fallait-il les identifier. C’est le travail qu’une équipe dirigée par des chercheurs espagnols a réalisé. Résultat: quelque 23 centrales comprenant 74 réacteurs nucléaires sont implantées dans des zones “potentiellement dangereuses” vis à vis des tsunamis, dans la mesure où ces phénomènes restent difficiles à prévoir.

Dans l’étude publiée dans la revue Natural Hazards, les chercheurs dénombrent 13 centrales en activité abritant 29 réacteurs parmi les 23 centrales à risque. Quatre autres, avec 20 réacteurs, sont en cours d’extension pour disposer de 9 réacteurs supplémentaires. Enfin, 7 centrales, avec 16 réacteurs, sont en cours de construction. (Soit 24 centrales au total et non 23 comme annoncé par les chercheurs…).

Première cartographie mondiale

“Il s’agit de la première vision de la distribution mondiale des réacteurs de centrales nucléaires civiles situées sur une côte et exposées aux tsunamis”, indique José Manuel Rodríguez-Llanes, coauteur de l’étude au Centre de recherche sur l’épidémiologie des désastres (CRED) à l’université catholique de Louvain, en Belgique. Les chercheurs ont utilisé des données historiques, archéologiques et géologiques ainsi que des relevés de mesures pour établir les risques de tsunamis.

Les zones géographiques côtières concernées sont très étendues : l’ouest du continent américain, la côte atlantique de l’Espagne, du Portugal et de l’Afrique du nord, l’est de la Méditerranée, certaines partie de l’Océanie et, surtout, le sud et le sud-est de l’Asie. Ainsi, la Chine se trouve particulièrement visée du fait de sa forte expansion nucléaire actuelle. Pas moins de 27 des 54 réacteurs en cours de contruction dans le monde s’y trouvent.

19 réacteurs en Chine et 19 au Japon

“Le fait le plus important est que 19 réacteurs, dont 2 à Taiwan, sur les 27 en construction en Chine sont dans des zones dangereuses”, notent les auteurs. Au Japon,  les chercheurs ont identifié 19 réacteurs à risque, dont l’un est en cours de construction. La Corée du sud est en train d’étendre deux centrales à risque avec 5 réacteurs. Deux réacteurs en Inde et un au Pakistan pourraient également subir des tsunamis.

Joaquín Rodríguez-Vidal, auteur principal et chercheur au département de paléontologie et de géodynamique de l’université de Huelva, souligne que “les implications des choix d’implantation des centrales nucléaires ne concernent pas uniquement les Etats qui les font mais également ceux qui pourraient être touchés par les fuites radioactives”. Et de remarquer que, depuis le tsunami de 2004, les régions de l’Océan indien n’ont pas pris de décisions politiques dans ce domaine.

La leçon de Fukushima

Le drame de Fukushima s’est produit dans un pays techniquement en pointe et doté d’infrastructures modernes. Il aurait sans doute eu des conséquences encore plus graves s’il s’était produit dans un Etat moins développé. Les chercheurs recommandent donc de réaliser des analyses locales qui prennent en compte le risque sismique et celui d’un tsunami afin de déterminer l’adaptation nécessaire des centrales mentionnées dans leur étude.

Un tel conseil aurait pu paraître saugrenu avant Fukushima, tant l’on pouvait alors être persuadé que toutes les mesures anti-tsunami avaient bien été prises. Surtout dans un pays comme le Japon qui vit sous la menace permanente d’un séisme majeur. Désormais, nous savons que l’une des premières puissances économiques mondiales est capable de ne pas protéger efficacement ses centrales contre un tsunami. D’où l’importance de cette nouvelle étude. Mais sera-t-elle suivie d’effets ?

Michel Alberganti

lire le billet

50% de nucléaire ? A ce rythme, plutôt en 2066 qu’en 2025

En 2011, la France exploitait 58 réacteurs nucléaires répartis dans 19 centrales. Grâce à une puissance installée de 63,1 GW, la production d’électricité d’origine nucléaire a atteint 423,5 milliards de KWh représentant 77,7% de l’électricité consommée l’an dernier. En 2012, la France aura besoin de 9254 tonnes d’uranium pour alimenter ses réacteurs nucléaires.

Fessenheim: 2,3% de l’électricité nucléaire

Lors de sa campagne présidentielle, François Hollande a fixé l’objectif de ramener la part du nucléaire dans le mix électrique de 75% à 50% à l’horizon 2025. Le 14 septembre, il a annoncé sa décision de fermer la centrale de centrale de Fessenheim en 2016. Cette centrale, construite à partir de 1971 a été raccordée au réseau en 1978. La puissance installée de ses deux réacteurs est de 1760 MW. Sa production annuelle moyenne atteint 10 milliards de KWh, soit 2,3% de l’électricité nucléaire française.

Sortie du nucléaire… dans 150 ans

Pour passer de 75% (ce qui est en dessous du chiffre actuel de 77,7% mais admettons…), à 50%, il faut donc réduire de 25% la part du nucléaire dans le mix énergétique. Admettons également que la production française d’électricité reste constante au cours de prochaines décennies (la crise économique nous y aidera un certains temps) à environ 545 milliards de KWh. La part du nucléaire, si elle était bien de 75%, atteindrait 409 milliards de KWh. Pour la faire passer à 50%, il faut la réduire d’un tiers, soit de 136 milliards de KWh. Cela représente la  production de 13,6 centrales de Fessenheim. S’il faut quatre ans pour fermer une telle centrale, nous aurons atteint l’objectif fixé par François Hollande dans 54 ans, soit en 2066. Et non en 2025… Au même rythme, la sortie du nucléaire de la France ne se produirait qu’au bout d’environ 150 ans, c’est à dire aux alentours de 2162, année électorale…

Au delà d’un second mandat

Sauf erreur de calcul que vous ne manquerez pas de relever, et, il est vrai, à d’importantes approximations près, il semble bien que le rythme imprimé par François Hollande à la réduction du nucléaire dans le mix électrique français ne soit pas suffisant pour atteindre son objectif. Il faut noter qu’avec une certaine prudence, l’année 2025 retenue se situe au delà de la fin de son second et dernier mandat, s’il est réélu en 2017.

Fermeture de Fessenheim : pourquoi attendre 4 ans ?

Dans ce contexte, on peut s’étonner de la satisfaction affichée par nombre d’écologistes après les annonces du 14 septembre. A l’exception de Greenpeace qui déclarait, dès le 13 septembre: “La centrale de Fessenheim pourrait être fermée très rapidement. En 2011, elle n’a contribué qu’à 1,3% de la production nette d’électricité nationale”. Et l’organisation de s’inquiéter des déclarations au Sénat de Delphine Batho, ministre de l’écologie, affirmant que les travaux prévus à Fessenheim seraient bien réalisés. “Quel signal le gouvernement peut-il envoyer en investissant des millions d’euros dans une centrale qu’il a promis de fermer dans le quinquennat ?” s’interroge Jean-François Julliard, directeur général de Greenpeace France.

50% en 2066 ? Pas sûr… Que les adeptes du nucléaire se rassurent. La France n’est pas le Japon qui affiche un objectif de sortie du nucléaire en 30 ans.

Michel Alberganti

lire le billet

Energie nucléaire: la France ferme Fessenheim, le Japon ferme tout

Coup dur pour les inconditionnels de l’énergie nucléaire. Dix huit mois après la catastrophe de Fukushima, le gouvernement japonais a annoncé, vendredi 14 septembre 2012, sa nouvelle stratégie énergétique : « réaliser une société qui ne dépend plus de l’énergie nucléaire dans les années 2030 ». A terme, le Japon ne prévoit de conserver que son surgénérateur de Monju en l’utilisant pour le traitement des déchets nucléaires.

Le même jour, quelques heures auparavant, François Hollande avait annoncé, en ouverture de la conférence environnementale des 14 et 15 septembre, que la centrale nucléaire de Fessenheim «sera fermée à la fin de l’année 2016», quelques mois avant l’expiration de son mandat. Ce calendrier semble satisfaire les écologistes, ravis, par ailleurs, de la décision d’enterrer l’exploration et, a fortiori, l’exploitation du gaz de schiste en France.

Pression populaire

Le parallèle avec le Japon est instructif. Dix huit mois après la catastrophe de Fukushima, le gouvernement de Yoshihiko Noda était soumis à une forte pression populaire. Il faut dire que le Japon l’avait échappé belle en mars 2011 lorsque la centrale de Fukushima-Daiichi a été dévastée par le tsunami et que des explosions ont projeté un nuage de particules radioactives dans l’atmosphère. Tokyo, située à 220 km au sud-ouest, n’a été épargnée que grâce à une direction favorable des vents. Depuis, l’exploitant Tepco, largement convaincu d’incompétence, lutte pour contrôler la centrale. Encore aujourd’hui, le réacteur N°4 et sa piscine contenant 264 tonnes de barres de combustible hautement radioactives reste un danger permanent.

Épée de Damoclès

Pour rassurer une population traumatisée par l’épée de Damoclès de Fukushima et, sans doute aussi, par la mémoire des bombes atomiques de la seconde guerre mondiale, le gouvernement a donc fini par prendre une décision courageuse. Pour la première fois, l’une des premières économies mondiales planifie sa sortie du nucléaire. Le Japon se donne moins de 30 ans pour y parvenir. Un délai qui semble raisonnable si l’on considère que le nucléaire fournissait 29% de la production électrique du pays en 2010.

Après le séisme du 11 mars 2011, tous les réacteurs japonais sont progressivement mis à l’arrêt. En mai 2012, plus aucun ne fonctionne et le Japon est alors sorti du nucléaire en… 14 mois. Mais cette situation n’est guère tenable économiquement et, en juin 2012, Yoshihiko Noda annonce la remise en service de deux réacteurs dans la centrale d’Ohi, dans l’ouest du Japon. Mais le mois suivant, en juillet dernier, les manifestations anti-nucléaires rassemblent des dizaines de milliers de Japonais à Tokyo.

600 milliards de dollars

C’est donc bien sous la pression de l’opinion publique japonaise que le gouvernement nippon a décidé de s’engager dans une sortie du nucléaire. Il y a une semaine, les discussions du cabinet du premier ministre Yoshihiko Noda laissaient pourtant entendre que le coût d’une telle stratégie s’élèverait à plus de 600 milliards de dollars. En face de ce coût, le Japon a pesé le risque d’un nouveau tremblement de terre majeur de magnitude 8 au cours des prochaines décennies. D’après les scientifiques, ce risque est évalué à 87% dans la région du Tokai, à 200 km au sud-ouest de Tokyo, pour les 30 prochaines années.

En prenant la décision de sortir définitivement du nucléaire avant 2040, le Japon se met en situation de devoir impérativement développer ses ressources en énergies renouvelables. Sans ces dernières, les importations de pétrole et de gaz pour compenser les 30% de son électricité nucléaire pèseront de façon insupportable sur son économie.

5ème mondial dans le solaire

Avant de se mettre ainsi le couteau sous la gorge, le Japon occupait une place loin d’être ridicule dans l’industrie du solaire. Il se place en 5ème position mondiale en terme de surface de panneaux photovoltaïques installés, avec 5 GW en 2011, contre 2,8 GW en France. Cinq entreprises nippones (contre 400 en Chine…) fabriquent de tels panneaux. En 2009, le gouvernement a fixé comme objectif de parvenir à 28 GW en 2020 et à 53 GW en 2030. Il est très probable que ces chiffres seront revus à la hausse après la décision du 14 septembre. Le solaire devra contribuer à compenser le nucléaire. Avec 54 réacteurs, ce dernier représentait près de 30% de sa production d’électricité et il était prévu que cette part monte à 40%. En 2010, le Japon disposait de 282 GW de puissance électrique installée. Le solaire représentait donc moins de 2%.  Mais l’objectif 2030 l’aurait fait passer à près de 20%, à puissance installée égale.

Pas de difficultés insurmontables pour le Japon

On voit donc que les ordres de grandeur ne présentent pas de difficultés insurmontables. Si l’on ajoute les 2,3 GW d’électricité éolienne nippone en 2010, le Japon dispose d’environ 7,5 GW d’électricité renouvelable. En trente ans, il lui faut multiplier ce chiffre par 4 pour compenser son électricité nucléaire. Cela semble très loin d’être impossible si l’on ajoute à cela l’impact des économies d’énergie. Certaines régions ont réduit de 15% leur consommation après le tsunami de mars 2011. Ainsi, la situation du Japon ne semble pas catastrophique. On connaît les capacités industrielles de ce pays et ses facultés de réaction dans l’adversité. La décision du gouvernement pourrait provoquer un électrochoc salutaire et un élan important vers le développement des énergies renouvelables.

Fessenheim: moins que le solaire

La situation de la France est bien différente. Avec nos 58 réacteurs, nous produisons 74% de notre électricité grâce à nos centrales nucléaires. La fermeture de Fessenheim (1,8 GW) représentera une perte inférieure à 3% des 63 GW nucléaires installés en France. A titre de comparaison, le solaire représentait, fin 2011, 2,8 GW de puissance installée et l’éolien 6,8 GW. Certes, la part de l’ensemble des énergies renouvelables dans la production française d’électricité n’était que de 12% en 2009 ce qui nous classait à la 13ème place européenne… Et le rapport sur l’éolien et le photovoltaïque remis au gouvernement le 13 septembre 2012 risque de ne pas provoquer d’enthousiasme démesuré. Les experts y déclarent: “ces contraintes interdisent d’envisager que les énergies éolienne et photovoltaïque, à elles seules, permettent la diminution de 75 % à 50 % du nucléaire dans le mix électrique français à l’horizon de 2025”. Voilà donc l’objectif affiché par François Hollande lors de la campagne présidentielle habillé pour l’hivers.

Pas de couteau sous la gorge en France

Contrairement au Japon sous la menace permanente de tremblements de terre dévastateurs, la France n’a pas le couteau sous la gorge. Grâce au nucléaire, elle bénéficie même d’un luxe mortel pour les énergies renouvelables. Le phénomène mine depuis 30 ans tout développement important d’une économie verte en France. Les deux décisions que François Hollande vient de prendre le 14 septembre, fermer Fessenheim et interdire le gaz de schiste, va lui permettre de satisfaire les écologistes à peu de frais politique. Coté économique, la France devra se contenter de l’espoir de devenir la spécialiste du démantèlement des centrales nucléaires. Un domaine dans lequel il lui reste toutefois à faire ses preuves. Aucune centrale nucléaire n’a été complètement démantelée sur son territoire à ce jour. Coté énergies renouvelables, nous pourrons continuer à tranquillement caracoler en queue de peloton. Pendant que le Japon se retrousse les manches pour sortir du nucléaire.

Michel Alberganti

lire le billet

Fukushima : Combien de victimes ?

La revue Energy and Environmental Science du 17 juillet 2012 publie la première estimation du nombre de victimes consécutives à la catastrophe nucléaire de Fukushima Daiichi, déclenchée par le tsumani qui a ravagé le nord est du Japon le 11 mars 2011. Selon l’étude réalisée par John Ten Hoeve et Mark Z. Jacobson de l’université de Stanford, les radiations émises par les réacteurs en fusion de la centrale pourraient provoquer de 15 à 1300 morts et de 24 à 2500 cas de cancer, dont la grande majorité au Japon. Si ces fourchettes sont extrêmement larges, elles contrastent avec les déclarations qui ont assuré que les émissions de radiations n’auraient pas d’effets sérieux sur la santé. Ces chiffres s’ajoutent aux 600 morts provoqués par l’évacuation de la zone d’exclusion de 20 km de diamètre autour de la centrale, dans les semaines qui ont suivi le drame, dont 245 seraient liées aux irradiations et les autres à des causes diverses (fatigue, maladies chroniques…).

Pour les chercheurs, plus précisément, il pourrait y avoir 130 morts (15 à 1100) par cancer et 180 morts (24 à 1800) décès par cancer si l’on tient compte des incertitudes sur les modèles d’exposition. Les chercheurs ont tenté de tenir compte de la sensibilité des personnes aux débits d’émission des particules radioactives et à la proportion d’iode 131 ainsi que du rayon de la zone d’exclusion. Ils estiment que ces facteurs pourraient repousser la limite supérieure de leurs estimations à, respectivement, 1300 et 2500 victimes. En ce qui concerne les travailleurs qui sont intervenus sur le site et ont donc été fortement exposés aux radiations, ils projettent une mortalité située entre 2 et 12 personnes.

De telles prévisions contredisent donc les déclarations officielles assurant que le périmètre interdit de plusieurs centaines de km2 autour de la centrale devait protéger la population. En fait, les chercheurs soulignent que l’essentiel du nuage radioactif est parti vers la mer. Seulement 19% des particules rejetées seraient retombées sur le sol japonais. Ce phénomène, dû aux vents dominants, a protégé la population d’une contamination bien supérieure. Le nuage a poursuivi sa route autour de la Terre et de faibles doses ont été détectées en Amérique du Nord et en Europe. Un mois après le désastre, le comité scientifique sur les effets des rayonnement atomique des Nations Unies a cru pouvoir assurer qu’il n’y aurait pas d’effets graves des radiations sur la santé humaine.

Pour vérifier cette affirmation, John Ten Hoeve  et Mark Z. Jacobson ont utilisé un modèle numérique en 3D, développé grâce à 20 ans de recherches, pour prédire le parcours du nuage radioactif. Ils ont également fait appel à un modèle standard sur les effets de l’exposition aux radiations sur la santé humaine. D’après leurs calculs, les effets sanitaires du nuage sont presque exclusivement concentrés sur le Japon. De très faibles effets concerneraient l’Asie et l’Amérique du Nord avec, toutefois, la possibilité de 0 à 12 morts aux Etats-Unis et de 0 à 30 cas de cancer. Les chercheurs soulignent que les méthodes utilisées sont nettement moins précises dès lors que les doses sont très faibles.

Les résultats de cette étude ont été critiqués, le jour même de leur parution dans Energy and Environmental Science par Burton Richter, prix Nobel de physique en 1976 avec Samuel Ting. Cette critique, comme la réponse des auteurs de l’étude, également publiée le 17 juillet, n’est pas accessible librement sur le site de la revue. Nous attendrons donc d’en connaître la teneur pour découvrir l’opinion du physicien sur ce travail…

Michel Alberganti

lire le billet

Energie: la feuille artificielle qui produit de l’hydrogène

Mère Nature est loin d’avoir livré tous ses secrets aux scientifiques. Après l’avoir longtemps ignorée ou méprisée, les chercheurs se tournent désormais de plus en plus souvent vers elle pour la copier (biomimétisme, biorobotique…). Une façon de ne pas réinventer la roue… Il pourrait en être de même avec les cellules solaires. Après avoir développé le photovoltaïque qui transforme directement l’énergie solaire en électricité, certains chercheurs travaillent sur la création de feuilles artificielles. Il s’agit tout simplement de réaliser un processus qui s’inspire de la photosynthèse à l’oeuvre dans les feuilles des plantes. Ces dernières fonctionnent avec deux ressources très abondantes: l’eau et la lumière. Véritables capteurs solaires, les feuilles fournissent l’énergie dont les plantes et les arbres ont besoin pour vivre. Pourquoi un tel système, breveté par la nature, ne pourrait-il pas nous apporter les mêmes services ? C’est la question que s’est posée Daniel Nocera, professeur d’énergétique et de chimie au Massachusetts Institute of Technology, le MIT. Sa réponse : la feuille artificielle.

Hydrogène, le retour

Daniel Nocera, professeur au MIT

Il s’agit pas d’une dénomination légèrement abusive. La feuille de Daniel Nocera ne ressemble que vaguement à l’original. Et son fonctionnement ne lui est fidèle que dans son principe. Contrairement à son homologue naturel, son carburant n’est pas l’air et le CO2 qu’il contient mais l’eau dans laquelle elle est plongée. Éclairée par le soleil, la feuille artificielle produit de l’oxygène et, surtout, de l’hydrogène. Et qui dit hydrogène dit énergie. En effet, les piles à combustibles prennent le relais et transforment l’hydrogène en eau et en électricité. On pourrait alors penser que la feuille artificielle introduit une étape inutile par rapport à la cellule photovoltaïque qui réalise directement la conversion soleil-électricité. En réalité, cette étape se révèle très précieuse. En effet, la production d’hydrogène permet de stocker l’énergie électrique que la même façon que le pétrole. Pour faire de même avec les cellules photovoltaïques, on fait appel à des batteries. Ce qui remet les deux processus à égalité, avec trois étapes chacun. Toutefois, malgré les progrès des batteries au lithium par exemple, l’hydrogène est considéré par certains, comme Jeremy Rifkin,  comme le carburant du futur grâce à sa très importante densité d’énergie (rapport entre la masse et l’énergie emmagasinée) et malgré les risques d’explosion que les spécialistes estiment maîtrisables.

Plongée dans un récipient d’eau et éclairée par de la lumière, la feuille artificielle produit en permanence des bulles de gaz (oxygène et hydrogène). Cela semble un peu miraculeux. Le système résout l’un des problèmes majeurs de l’hydrogène: l’importante quantité d’énergie nécessaire pour l’extraire de l’eau avec les techniques classiques (hydrolyse). Ici, l’énergie est fournie par le soleil. Et le système semble très stable. Il a montré qu’il peut fonctionner pendant plus de 40 heures. Comment réaliser une telle alchimie ? Comment ça marche !?

La feuille artificielle de Daniel Nocera

De la chimie impénétrable

Daniel Nocera explique ses derniers progrès dans un article publié le 4 avril 2012 dans la revue Accounts of Chemical Research. Etant donné qu’il s’agit essentiellement de chimie, le processus est totalement incompréhensible, impénétrable pour le commun des mortels. Les spécialistes apprécieront… Nous nous contenterons de noter que la feuille artificielle est composée d’un sandwich constitué par, d’un coté, du silicium amorphe photovoltaïque qui se charge d’isoler l’hydrogène grâce aux photons fournis par la lumière et, de l’autre coté, par un assemblage de cobalt et de phosphate. Entre les deux, un alliage ternaire (nickel, molybdène, zinc, joue le rôle de catalyseur. Au final, ce morceau de silicium recouvert de deux couches d’alliages métalliques suffit pour séparer l’oxygène et l’hydrogène de l’eau… Et l’on peut, selon Daniel Nocera, produire assez d’énergie pour alimenter une maison avec moins de 4 litres d’eau (un gallon) par jour dans les pays ensoleillés… Soleil, eau, feuille artificielle, hydrogène, pile à combustible, électricité. Le tour est joué…

Tata sur le coup

Avant d’arriver à ce “petit” miracle, juste capable de résoudre le problème de la fourniture d’une énergie verte en quantité illimitée à moindre coût, il faudra résoudre quelques problèmes techniques. Récupérer l’hydrogène, par exemple. Mais gageons les enjeux vont stimuler les techniciens… et les industriels. Justement, l’un d’entre eux, et pas de moindre puisqu’il s’agit du groupe indien Tata (100 sociétés dans 80 pays, 425 000 salariés, 83,3 milliards de dollars de chiffre d’affaires) va construire une petite centrale, de la taille d’un réfrigérateur, d’ici fin 2012, selon Wired UK.

L’énergie personnalisée

En attendant, Daniel Nocera milite. Il ne s’agit pas seulement d’un scientifique potentiellement génial – si la feuille artificielle fonctionne, il devrait avoir le prix Nobel -, c’est aussi un orateur qui plaide pour le développement de “l’énergie personnalisée”. C’est à dire le modèle exactement inverse de celui, très centralisé, que nous utilisons aujourd’hui. Pour lui, demain, chacun produira l’énergie dont il a besoin. Cela paraissait difficile d’y parvenir avec les technologies vertes (solaire, éolien, biomasse, géothermie…). Mais la feuille artificielle pourrait apporter une solution capable, un jour peut-être assez proche, de nous permettre le rompre le cordon ombilical qui nous relie à… EDF.

Michel Alberganti

lire le billet

Fukushima: menace d’un fort séisme

Bâtiment du réacteur N°3 - Photo: Reuter Kyodo

La centrale nucléaire de Fukushima Daiichi 1, largement détruite par les explosions qui ont suivi le tsunami du 11 mars 2011, reste sous la menace d’un nouveau tremblement de terre de forte magnitude. Tel est le résultat d’une étude publiée le 14 février 2012 dans Solid Earth, une revue de la European Geosciences Union (EGU). Les scientifiques ont analysé les répliques du séisme de magnitude 9 sur l’échelle de Richter qui a frappé le Japon le 11 mars 2011 et engendré le tsunami qui a dévasté plusieurs régions côtières, fait plusieurs dizaines de milliers de victimes et inondé la centrale de Fukushima Daiichi 1. L’épicentre de ce séisme se trouvait à 160 km de la centrale. Selon les chercheurs, un nouveau tremblement de terre pourrait se produire “dans un futur proche” à une distance beaucoup plus faible.

La zone étudiées est située à l'intérieur du carré noir. L'étoile mauve indique l'épicentre du séisme du 11 mars 2011. L'étoile rouge, celui du séisme d'Iwaki le 11 avril 2011. Fukushima Daiichi est représenté par un carré rouge. Les triangles noirs marquent les volcans actifs. ,

“Il y a quelques failles actives dans la région de la centrale nucléaire et nos résultats montrent l’existence d’anomalies structurelles similaires sur les sites de Iwaki et de Fukushima Daiichi. Étant donné qu’un fort séisme s’est produit récemment à Iwaki, nous pensons qu’un tremblement de terre aussi puissant peut se produire près de Fukushima”, explique le responsable de l’équipe de chercheurs, Dapeng Zhao, professeur de géophysique à l’université de Tohoku. Le 11 avril 2011, un mois après le drame du 11 mars, le séisme de magnitude 7 survenu à Iwaki a été le plus fort des répliques dont l’épicentre se situait à l’intérieur des terres. Celui du séisme d’Iwaki se trouvait à 60 km au sud-ouest de Fukushima.

Fluides ascentionnels

D’après la publication des scientifiques, le séisme d’Iwaki a été déclenché par des fluides se déplaçant verticalement à partir de la plaque de subduction du Pacifique. Cette dernière s’enfonce sous la région nord-est du Japon ce qui augmente la pression et la température des matériaux qui la compose. C’est ce qui provoque l’expulsion de l’eau contenue dans les roches et engendre la formation de fluides moins denses qui remontent vers la partie supérieure de la croûte terrestre et peuvent altérer les failles qui se produisent après les séismes. Ces fluides agissent comme des lubrifiants “en abaissant le coefficient de friction de certaines parties des failles actives et peuvent déclencher un puissant tremblement de terre. Associé aux variations de tensions engendrées par le séisme du 11 mars, ce phénomène a déclenché le séisme d’Iwaki”, indique Ping Tong, autre coauteur de la publication.

Plusieurs centrales concernées par l’alerte

Les chercheurs étayent leurs conclusions sur les enregistrements et l’analyse tomographique de 6000 séismes réalisés à Iwaki après 11 mars. Au total, pas moins de 24 000 tremblements de terre ont été enregistrés entre le 11 mars et le 11 avril 2011, contre moins de 1300 au cours des 9 années précédentes. S’ils ne peuvent prédire précisément quand se produira un fort séisme près de Fukushima Daiichi, les scientifiques estiment que les mouvements ascensionnels de fluides indiquent qu’il pourrait se produire d’ici peu. Ils alertent ainsi les autorités sur les précautions à prendre pour préparer le site de la centrale nucléaire à un tel événement et réduire les risques d’une nouvelle catastrophe nucléaire. D’autres centrales japonaises sont concernées par cet avertissement: Fukushima Daini, Onagawa et Tokaï.

Michel Alberganti

lire le billet

Il y a 50 ans explosait la plus puissante des bombes atomiques

Dimanche sera “fêté” le demi-siècle de la plus puissante des explosions nucléaires. Le 30 octobre 1961, au petit matin, explosait la bombe que les Soviétiques appelaient “Ivan” ou “Vanya”, et qui fut rebaptisée en “Tsar Bomba” à l’Ouest. L’engin était une bombe H de 26 tonnes, mesurant 8 mètres de long sur plus de 2 mètres de diamètre, tellement imposante qu’on ne put la placer à l’intérieur du Tupolev-95 chargé de la larguer. Au lieu de cela on la fixa sous l’appareil de telle façon que seulement 30 à 40 % du corps de la bombe se trouvait à l’intérieur du bombardier. Tsar Bomba fut larguée à 10,5 km d’altitude au-dessus de l’archipel arctique de la Nouvelle-Zemble, situé au nord de la Sibérie. Pour laisser le temps à l’avion et à son équipage de se mettre à l’abri à plusieurs dizaines de kilomètres avant l’explosion thermonucléaire, la bombe était attachée à un immense parachute. Après un peu plus de 3 minutes de chute, une fois descendu à 4 km d’altitude, l’engin explosa.

Nikita Khrouchtchev, le premier secrétaire du Parti communiste de l’URSS, avait, dès l’origine du projet quelques mois auparavant, voulu une démonstration de force. Nous sommes en pleine guerre froide et à un an de la crise des missiles de Cuba. Alors qu’Andreï Sakharov, père de la bombe H soviétique (et futur Prix Nobel de la paix…) doutait qu’il fût nécessaire de procéder à de nouveaux essais, Khrouchtchev demanda en juillet 1961 à ses ingénieurs et scientifiques spécialisés dans le nucléaire de “montrer aux impérialistes ce que nous pouvons faire”. Quelques mois auparavant, Youri Gagarine a été le premier homme dans l’espace et Khrouchtchev semble vouloir, d’une certaine façon, enfoncer le clou et dire : “Nous avons les plus puissantes bombes du monde et les fusées pour les envoyer.” Il faut battre un record et, symboliquement, la puissance de la bombe est fixée à 100 mégatonnes de TNT. A titre de comparaison, Little Boy, la bombe A qui explosa à Hiroshima le 6 août 1945, avait une puissance d’environ 15 kilotonnes, soit près de 7 000 fois moins… Pour rester dans les références, Castle Bravo, la plus puissante des bombes H américaines jamais testées (en 1954), ne dépassa pas les 15 mégatonnes. Après réflexion, les Soviétiques décidèrent prudemment de se contenter de la moitié de la puissance prévue à l’origine : 50 mégatonnes resteraient, quoi qu’il arrive, un chiffre parlant.

Et donc, ce 30 octobre 1961 à 8h33, “Ivan” explosa (voir vidéo ci-dessous).

 

Le village abandonné de Severny, situé à 55 km de là, fut entièrement détruit, comme le furent toutes les installations existant dans un rayon de 120 km. Alors que la bombe avait explosé dans l’atmosphère à assez haute altitude, l’US Geological Survey enregistra un signal sismique d’une magnitude de 5. Des vitres furent brisées jusqu’à 900 km du lieu de l’explosion. C’est comme si une déflagration survenue à Lille se faisait sentir à Marseille, Nice ou Perpignan… On estime que la lumière générée par l’explosion fut visible à un millier de kilomètres à la ronde. Un caméraman embarqué dans le bombardier pour filmer l’événement fit par la suite ce récit : “Les nuages situés sous l’avion et au loin furent illuminés par le puissant flash. La mer de lumière se propagea sous la carlingue et même les nuages commencèrent à luire et devinrent transparents. A ce moment, notre appareil émergea d’entre deux couches de nuages et en bas, dans l’interstice, émergeait une énorme boule brillante et orange. Cette boule était puissante et arrogante comme Jupiter. Elle grimpait doucement et en silence… Après avoir transpercé l’épaisse couche de nuages, elle continua de grossir. On aurait dit qu’elle allait aspirer la Terre entière. Le spectacle était invraisemblable, irréel, surnaturel.”

Comme le firent remarquer en 1994, après la disparition de l’URSS, Victor Adamsky et Youri Smirnov, deux des scientifiques ayant travaillé à la construction de Tsar Bomba, celle-ci “ne fut jamais une arme”, mais plutôt un cocktail politico-scientifique : mi-démonstration de force mi-preuve que le concept technologique fonctionnait. Un pas vers la superbombe à 100 mégatonnes qui ne fut jamais construite. En réalité, les militaires ont déjà suffisamment de joujoux nucléaires et ils n’ont pas vraiment besoin d’un engin qui détruise tout dans un rayon de 100 kilomètres. Enfin, on l’espère.

Pierre Barthélémy

lire le billet

Les trois plus grandes erreurs d’Einstein

Puisque l’heure médiatique est à la curée envers ce pauvre Albert Einstein, hurlons avec les loups. Il n’est pas un mystère pour les spécialistes de la vulgarisation scientifique que dénoncer les erreurs du savant a longtemps fait – ou fait toujours ? – vendre du papier. Donc, nous qui avons soif d’audience, crions-le en caractères gras :

Bébert s’est gouré !

Il n’a pas su prévoir que les neutrinos pourraient aller plus vite que la lumière. En me faisant l’avocat du diable et avec toute la mauvaise foi qui me caractérise, je dirai tout de même que la théorie de la relativité restreinte date de 1905, que le neutrino a été postulé en 1930 et découvert en 1956, soit un an après la mort d’Einstein. J’ajouterai, toujours fielleux, qu’il faudrait peut-être attendre de vérifier les résultats annoncés vendredi avant de remiser la relativité à la poubelle. D’une part parce que la vérification est un principe cardinal de la science et d’autre part parce que, depuis les années 1960, des théories plus ou moins exotiques (tachyons, dimensions cachées) peuvent permettre d’expliquer un tel phénomène dans le cadre de la relativité restreinte. Enfin, nous savons tous que la science avance en détricotant ce que les prédécesseurs ont patiemment monté, Einstein n’ayant pas fait autre chose avec Newton. D’ailleurs, pour ce que nous en savons, la relativité ne marche quand même pas trop mal puisque grâce à elle, l’homme a converti la matière en énergie (vive E=mc2 !), envoyé des sondes aux confins du système solaire, des Américains sur la Lune, des satellites un peu partout et fait du GPS avec une précision incroyable. Donc, prudence sur ce coup-là. Mettons entre parenthèses, jusqu’à plus ample informé, l’histoire, juteuse médiatiquement, du neutrino (en nous demandant tout de même pourquoi, si leur vitesse est de 0,002 % plus élevée que celle des photons, ceux qui ont été émis lors de la supernova de 1987, située à 168 000 années-lumière, ne sont pas arrivés avec des années d’avance sur la lumière). Mais que cela ne nous empêche pas de tartiner sur les trois vraies plus grandes âneries d’Einstein qui, je le regrette à l’avance, risque de passer pour un crétin à la fin de ce billet.

Médaille de bronze : avoir été un époux et un père déplorable. Einstein s’est marié deux fois, la première avec Mileva Maric en 1903,  après lui avoir fait, en dehors des liens sacrés du mariage, une petite fille née en 1902, Lieserl, dont on n’a jamais connu le sort : abandon ou mort précoce… Cela commence bien. Avec Mileva, Albert a deux autres enfants, Hans Albert et Eduard, dont il s’occupera au bout du compte très peu car le couple divorce en 1919, après cinq années de séparation. Il faut dire que le savant moustachu a, depuis 1912, une relation avec sa cousine Elsa (qu’il épousera en secondes noces) et qu’il traite Mileva d’une manière que décrit bien ce “contrat” qu’il lui impose par écrit en 1914 :

« A. Vous veillerez à ce que : 1) mon linge et mes draps soient tenus en ordre ; 2) il me soit servi trois repas par jour dans mon bureau ; 3) ma chambre et mon bureau soient toujours bien tenus et ma table de travail ne soit touchée par nul autre que moi.

B. Vous renoncerez à toute relation personnelle avec moi, exceptées celles nécessaires à l’apparence sociale. En particulier, vous ne réclamerez pas : 1) que je m’assoie avec vous à la maison ; 2) que je sorte ou voyage en votre compagnie.

C. Vous promettrez explicitement d’observer les points suivants : 1) vous n’attendrez de moi aucune affection ; et vous ne me le reprocherez pas ; 2) vous me répondrez immédiatement lorsque je vous adresserai la parole ; 3) vous quitterez ma chambre ou mon bureau immédiatement et sans protester lorsque je vous le demanderai ; 4) vous promettrez de ne pas me dénigrer aux yeux de mes enfants, ni par des mots, ni par des actes. » Et là je pose une question : que faisaient les Chiennes de garde ? Il ne traitera pas Elsa beaucoup mieux. Pour compléter le tableau, ajoutons que, de 1933 à sa mort en 1955, Einstein ne verra plus jamais son fils Eduard, atteint de schizophrénie.

Médaille d’argent : avoir pesé de tout son poids pour la fabrication de la bombe atomique. Einstein doit, en 1933, se décider à ne plus vivre dans son pays natal, l’Allemagne, après l’arrivée au pouvoir de Hitler. Etant juif et pacifiste, il risque plus que gros. Il émigre aux Etats-Unis et, le 2 août 1939, sous la pression d’amis physiciens, il signe une lettre adressée au président Franklin D. Roosevelt, l’avertissant que Berlin travaille sur la fission de l’uranium et le pressant (très poliment), d’“accélérer le travail expérimental” réalisé sur le sol américain dans ce domaine. Roosevelt entendra le savant et mettra en route le projet Manhattan, qui conduira, six ans plus tard, aux bombardements d’Hiroshima et de Nagasaki. Si je range cette lettre dans la catégorie des erreurs d’Einstein, c’est parce qu’il l’a fait lui-même. En 1954, un an avant sa mort, il confiait à son ami, le chimiste et physicien Linus Pauling, son regret d’avoir tourné casaque, d’être passé, si l’on schématise, de pacifiste à pro-nucléaire : “J’ai commis une grande erreur dans ma vie, quand j’ai signé la lettre au président Roosevelt recommandant la fabrication de bombes atomiques ; mais il y avait des raisons, le risque que les Allemands les fassent…” Après la guerre, Einstein se rangera, sans jamais varier, dans le camp de ceux qui exigeaient la fin des essais nucléaires et le démantèlement des arsenaux atomiques.

Médaille d’or : avoir pensé que l’Univers était statique. Une fois mise la dernière main à sa théorie de la relativité générale, qui n’est rien d’autre qu’une théorie de la gravitation, Einstein s’aperçoit assez vite que l’Univers qui en résulte ne peut être statique. Ce qui est contraire à ce qu’il croit profondément, sans doute par fidélité culturelle au vieux modèle d’Aristote d’un Univers immuable et aussi, plus pragmatiquement, parce qu’aucune observation à l’époque n’autorise à penser vraiment autrement. Or ses équations conduisent à un cosmos instable, qui est soit en expansion, soit en contraction. Pour stabiliser son modèle, il va donc, en 1917, introduire une constante ad hoc, censée cadenasser l’Univers sous une forme statique. Tout cela était aussi vain que d’essayer empêcher des enfants jouant dans un bac à sable de mettre du sable partout à côté et d’en emporter dans leurs chaussettes. Quelques années après l’invention de cette “constante cosmologique”, l’astrophysicien américain Edwin Hubble montre que les galaxies s’écartent les unes des autres et que l’Univers est en expansion. Einstein est obligé de reconnaître que cette constante était une rustine pourrie à sa théorie et “la plus grosse gaffe” de sa carrière. L’ironie de l’histoire, c’est que la constante cosmologique a, depuis quelques années, fait son retour en astrophysique par la grande porte, non pas pour justifier un Univers statique mais pour expliquer pourquoi le cosmos est en expansion accélérée ! Erreur d’hier, vérité de demain, tout est relatif…

Pierre Barthélémy

Post-scriptum : j’aurais pu aussi citer la très grande réticence qu’Einstein a manifestée vis-à-vis de la mécanique quantique mais je trouve que la barque est assez chargée comme ça, pour ce pauvre Albert et pour ce deux centième billet de Globule et télescope…

lire le billet