Passe-moi la bobine de fil de carbone…

L’équipe de chercheurs de l’université Rice retient sa joie… Pourtant, elle vient de réussir un joli coup avec la mise au point d’un nouveau fil réalisé en nanotube de carbone prêt pour l’industrialisation. Demain, ce nouveau matériau deviendra peut-être aussi banal que le fil de pêche en nylon ou le fil de machine à coudre.  Pour des applications sans doute assez différentes. La performance de cette équipe, rapportée dans l’article publié dans la revue Science du 11 janvier 2013, est d’avoir obtenu les propriétés prédites par la théorie des nanotubes et d’avoir mis au point un procédé de production par tréfilage qui pourrait aboutir à une fabrication de masse.

100 fois plus résistants que l’acier, 10 fois plus conducteurs

Coté propriétés, les nanotubes de carbone sont de la taille d’un brin dADN (quelques dizaines de nanomètres de diamètre). Ils font rêver les ingénieurs depuis leur découverte officielle attribuée à Sumio Iijima (NEC) en 1991.  Il faut dire qu’ils sont 100 plus résistants que l’acier avec un sixième de son poids. Quant à leur conductivité électrique et thermique, elle est dix fois supérieure à celle des meilleurs conducteurs métalliques.  Ils sont déjà utilisés, par exemple,  dans les semi-conducteurs, les systèmes délivrance de médicaments et les éponges pour ramasser le pétrole. Restait à fabriquer un fil utilisant ces nanotubes miracles.

Coton noir

C’est ce que les chercheurs de l’université de Rice, associés à l’entreprise Teijin Aramid des Pays-Bas, à l’institut Technion d’Haifa (Israël) et à un laboratoire de l’armée de l’air américaine (AFRL), ont réalisé. Ils ont obtenu une fibre en nanotubes “dont les propriétés n’existent dans aucun autre matériau”, selon les termes de Matteo Pasquali, professeur de chimie et d’ingénierie biomoléculaire à l’université de Rice. “Cela ressemble à des fils de coton noir mais cela se comporte comme des fils de métal ayant la résistance de fibres de carbone”, précise-t-il.

Le diamètre d’une seule fibre du  nouveau fil ne dépasse pas le quart de celui d’un cheveu humain et il contient des dizaines de millions de nanotubes en rangs serrés, côte à côte. Toute la difficulté réside dans la production de tels fils à partir de nanotubes purs. C’est le procédé mis au point à l’université Rice à la fois grâce au travail fondamental des chercheurs et à l’apport de l’expérience industrielle de l’entreprise Teijin Aramid, spécialisée dans la fabrication de fibres d’aramides telles que celles qui composent le fameux Kevlar de Dupont de Neunours.

Les images de la production du fil de nanotubes par tréfilage sont spectaculaires sur la vidéo réalisée par les chercheurs (ci-dessous). Plus impressionnant que l’exemple d’utilisation à l’aide d’une lampe halogène suspendue à deux fils en nanotubes… Certes, cela montre que les fils conduisent l’électricité nécessaire malgré leur composition et leur faible diamètre. Mais, bon, ce n’est guère renversant.

Grâce à une résistance mécanique et une conductivité 10 fois supérieures aux précédentes réalisations de telles fibres, le nouveau fil rivalise avec le cuivre, l’or et l’aluminium. Ces deux propriétés rassemblées pourraient lui donner l’avantage sur le métal pour le transport de données et les applications imposant une faible consommation. Deux domaines plein d’avenir. L’aérospatial, l’automobile, la médecine et les textiles intelligents sont dans le collimateur. Imaginons une veste au tissu ultra-résistant et conduisant l’électricité. Des capteurs solaires intégrés pourraient recharger en permanence un téléphone portable ou une tablette de poche. Sans parler de l’imagination des créateurs de mode pouvant nous tailler des costumes lumineux. Effet garanti…

Michel Alberganti

lire le billet

La machine à vapeur du 21e siècle : énergie solaire et nanoparticules

La machine à vapeur est à l’origine de la révolution industrielle. Elle a commencé par fournir de l’énergie mécanique pour les trains et autres machines et on la retrouve dans les centrales nucléaires où elle entraîne les turbines produisant de l’électricité. La vapeur peut également servir à stériliser, à distiller, à désaliniser. Aujourd’hui, c’est grâce à l’énergie solaire associée à des nanoparticules qu’une nouvelle voie de production de vapeur apparaît. Un dispositif conçu par l’équipe de Naomi Halas, directrice du laboratoire de nanophotonique (LANP) de l’université Rice, affiche des performances remarquables avec ce cocktail inédit qui risque de troubler ceux qui défendent les énergies alternatives tout en vouant les nanotechnologies aux gémonies. Les résultats de l’équipe sont publiés dans un article de la revue ACS Nano du 19 novembre 2012.

Un rendement de 24%

Les chercheurs avancent un rendement global de leur système de… 24%. Nettement plus élevé que celui des panneaux photovoltaïques (environ 15%). L’idée de Naomi Halas dérive de celle des capteurs thermiques classiques. Ces derniers sont constitués d’une boite dont l’une des faces est réalisé est en verre transparent. A l’intérieur, un circuit d’eau collecte la chaleur piégée par l’effet de serre et par la couleur noire du capteur. Les échanges thermiques sont donc réalisés par conduction entre la paroi métallique du capteur et l’eau qui y circule. Le LANP a, d’une certaine façon, réduit ce capteur en nanoparticules qu’il a mises en solution dans l’eau. Bien entendu, il a choisi des nanoparticules qui captent particulièrement bien les longueurs d’ondes de l’ensemble du spectre solaire, y compris celles qui sont en dehors du visible, pour les convertir en chaleur. Ce sont ainsi des milliards de capteurs qui agissent au plus près des molécules d’eau. Le résultat est spectaculaire : en 10 secondes, des bulles de vapeur se forment et remontent à la surface du liquide.

“Avec cette technologie, nous commençons à concevoir l’énergie solaire thermique d’une façon complètement différente”, explique Naomi Halas. “Nous passons du chauffage de l’eau à l’échelle macroscopique à un chauffage à l’échelle nanoscopique. Nos particules sont extrêmement petites, plus petites que la longueur d’onde de la lumière. Cela signifie qu’elles disposent d’une très faible surface pour dissiper la chaleur. L’intense montée en température nous permet de générer de la vapeur localement, juste à la surface des nanoparticules. L’idée de générer de la vapeur localement est contre-intuitive”, ajoute-t-elle. Et pourtant, cela marche !

Pour le démontrer, les chercheurs plongent un  tube rempli d’eau et de nanoparticules dans un sceau plein de glace. Avec une simple lentille de Fresnel, ils concentrent la lumière sur la base du tube en contact avec l’eau glacée. Aussitôt des bulles de vapeur se forment dans le tube. L’eau vient de passer de 0°C à 100°C en quelques secondes. Le LANP a utilisé deux types de nanoparticules, du carbone et des nanocoquilles (nanoshells)  d’or et dioxyde de silicium (SiO2). L’intérêt du procédé, c’est qu’il ne consomme pas de nanoparticules. Celles-ci restent dans le liquide. Il suffit donc d’alimenter le système en eau pour obtenir de la vapeur…

Les applications d’un tel système semblent multiples et pas forcément imaginables aujourd’hui. Si Naomi Halas préfère modérer les perspectives en matière de production d’électricité et insister plutôt sur les utilisations destinées aux pays en développement (sanitaire, stérilisation, distillation, dessalement), c’est peut-être en raison du soutien de la fondation Bill et Melinda Gates… La voie ouverte par la combinaison solaire-nano pourrait faire partie des avancées majeures que la planète attend pour accélérer la transition énergétique et apporter les moyens nécessaires à la lutte contre un réchauffement climatique excessif.

Michel Alberganti

lire le billet

La Banque mondiale envisage un réchauffement de 4°C en 2100

La prise de conscience du réchauffement climatique pourrait franchir une étape importante avec le rapport publié le 18 novembre 2012 par… la Banque mondiale. Si l’économie s’empare du problème, cela démontre peut-être qu’il a changé d’orbite dans le cerveau mondial. Déjà, les sociétés d’assurance avaient tiré la sonnette d’alarme en raison de l’envolée des coûts engendrés par la multiplication des catastrophes météorologiques comme la tempête Sandy qui a touché les Etats-Unis fin octobre.

Turn down the heat

Intitulé sobrement “Turn down the heat” (Baissons la chaleur), ce rapport scientifique a été réalisé par le Potsdam Institute for Climate Impact Research (PIK) et par Climate Analytics pour la Banque mondiale. Il répond à la question: “Que serait le monde s’il était plus chaud de 4°C ?” Ces instituts prennent ainsi le relais du GIEC qui, jusqu’à son dernier rapport de 2007, s’attachait à un objectif de réchauffement de 2°C en 2100.  Plus personne, aujourd’hui, ne parie sérieusement sur un tel résultat. Les réductions d’émissions de gaz à effet de serre (GES) nécessaires pour l’atteindre sont loin d’être réalisées. Les années passent et c’est toujours à une augmentation mondiale de ces émissions de GES que l’on assiste. Le manque de volontarisme des Etats-Unis et le développement de la Chine font partie des principales raisons de cet échec patent.

Désormais, donc, l’heure n’est plus aux imprécations. Nous entrons dans la période de préparation. Et cette perspective de 4°C en 2100, adoptée par le rapport de la Banque mondiale, paraît raisonnable, voire optimiste. Même si le président du groupe de la Banque mondiale, Jim Yong Kim, fait mine de persister dans le rêve antérieur :

« Nous pouvons et nous devons éviter une hausse de 4 degrés. Il faut limiter le réchauffement à 2 degrés. Si nous n’agissons pas suffisamment contre le changement climatique, nous risquons de léguer à nos enfants un monde radicalement différent de celui que nous connaissons aujourd’hui. Le changement climatique est l’un des  principaux obstacles auquel se heurtent les efforts de développement, et nous avons la responsabilité morale d’agir pour le bien des générations futures, et en particulier les plus pauvres. »

Déjà 0,8°C

A l’appui de cette thèse, le rapport tente d’imaginer ce que serait une Terre où régnerait une température supérieure de 4°C par rapport à l’ère préindustrielle, c’est à dire vers le milieu du 19e siècle. En raison de la forte accélération du réchauffement à partir des années 1960, nous en sommes aujourd’hui à +O,8 °C en moyenne sur la planète. Le rapport rappelle que la température des océans a augmenté de 0,09°C depuis les années 1950 ce qui a entraîné une acidification des eaux, que le niveau des mers a augmenté de 20 cm par rapport à l’ère préindustrielle et que cette tendance se poursuit au rythme de 3,2 cm par an. Sans parler de la multiplication des canicules, des sécheresses et ouragans et autres tempêtes dévastatrices. Tout indique donc que nous préparons une température moyenne supérieure d’au moins 4°C à celle de l’ère préindustrielle pour 2100.

Impacts sur le développement

Quelles en seront les implications, en particulier sur le développement, facteur important pour la Banque mondiale ? Le rapport détaille plusieurs conséquences graves :

– inondation des villes côtières
– risques accrus pesant sur la production vivrière
– hausse des taux de sous-alimentation et de malnutrition
– aggravation de la sécheresse dans les zones arides et du niveau d’humidité dans les zones humides
– vagues de chaleur sans précédent dans beaucoup de régions, et particulièrement sous les tropiques
-aggravation sensible des pénuries d’eau dans beaucoup de régions
– intensification des cyclones tropicaux
– perte irréversible de la biodiversité, y compris dans les systèmes de récifs coralliens

John Schellnhuber, directeur du PIK, souligne que “les réactions du système terrestre au changement climatique ne sont pas linéaires”. Un point très important car il peut expliquer pourquoi le dépassement des 2°C peut se révéler délicat. Au delà, en effet, une sorte de point de non retour peut être franchi. Il s’agit donc bien d’une cause qui devrait être mondiale. La seule solution passe par “la croissance verte et solidaire”, des mots qui peuvent prêter à sourire à une époque où la course aux profits immédiats semble l’emporter sur toute autres considérations sur l’avenir. Cet avenir que nous nous préparons en accordant 1000 milliards de dollars de subvention à l’exploitation de combustibles fossiles, comme le note le rapport qui précise certaines conséquences climatiques:

  • Les vagues de chaleur extrême qui, dans un monde sans réchauffement climatique, ne devraient survenir qu’une fois toutes les quelques centaines d’années, séviront presque tous les étés dans beaucoup de régions. Leurs incidences ne seront pas réparties uniformément. Les hausses de température les plus importantes devraient survenir en zones terrestres et varier de 4 à 10 °C. On devrait s’attendre à des hausses de 6 °C ou plus des températures mensuelles estivales moyennes dans la région méditerranéenne, en Afrique du Nord, au Moyen-Orient et dans certaines parties des États-Unis.
  • On observera vraisemblablement une élévation de 0,5 à 1 mètre du niveau moyen des mers d’ici à 2100, et des niveaux plus élevés sont également possibles. Certaines des villes les plus vulnérables à ce phénomène sont situées au Mozambique, à Madagascar, au Mexique, au Venezuela, en Inde, au Bangladesh, en Indonésie, aux Philippines et au Viet Nam.
  • Les régions les plus vulnérables se trouvent en zones tropicales, subtropicales et polaires, où de multiples impacts risquent de s’additionner.
  • L’agriculture, les ressources en eau, la santé humaine, la biodiversité et les services écosystémiques seront vraisemblablement gravement touchés. Ces répercussions pourraient engendrer de vastes déplacements de populations, réduire la sécurité et perturber les systèmes économiques et le commerce.
  • Beaucoup de petits États insulaires risquent de se trouver incapables d’assurer la survie de leurs populations.

Un changement d’ère climatique ?

La nouvelle perspective d’un réchauffement de 4°C nous projette dans un scénario proche de celui d’une changement d’ère climatique. En effet, la dernière période glaciaire se caractérise par une baisse de température de 4,5 à 7°C. On peut donc craindre qu’une augmentation de 4°C de la température moyenne sur Terre n’engendre pas une simple amplification des phénomènes climatiques que nous connaissons aujourd’hui. Nous risquons une véritable rupture avec des dérèglements dont l’ampleur semble difficile à prévoir avec précision. Nul doute qu’ils seront forts désagréables pour une grande partie des habitants de la planète d’ici 2100.

Michel Alberganti

lire le billet

Gaz de schiste: fracturation politique

En matière de gaz de schiste, en France, il faut suivre… Le 14 septembre 2012, tout était interdit. Avec le rapport Gallois, le 5 novembre 2012, la porte de la recherche semblait entrouverte. Mais aussitôt, Jean-Vincent Placé, sénateur EELV, est monté au créneau, invoquant l’accord électoral entre le PS et les Verts (qui ne parle d’ailleurs pas de recherche…). Sans doute dans un souci d’apaisement, Jean-Marc Ayrault a “oublié” le gaz de schiste lors de sa présentation du pacte national. Les services du Premier ministre confirmaient alors que la proposition de Louis Gallois en faveur de la poursuite de la recherche sur le gaz de schiste ne serait pas retenue. (Lire le résumé du chapitre précédent). Placé arrivait alors gagnant…

Mardi 13 novembre 2012 : première conférence de presse de François Hollande. Le Président de la République déclare alors, au sujet de la technique de fracturation hydraulique :

“Tant qu’il n’y aura pas de nouvelles techniques, il n’y aura pas d’exploration et d’exploitation de gaz de schiste en France. Cette technique porte considérablement atteinte à l’environnement. Je le refuse tant que je serai là. La recherche continue. On ne peut pas empêcher la recherche sur d’autres techniques. Aujourd’hui, elle n’a pas abouti. Mais elle n’est pas interdite. Je laisse les chercheurs travailler. Je prendrai mes responsabilités le moment venu.”

Salutaire mise au point

Salutaire mise au point qui remet Jean-Vincent Placé… à sa place. C’est à dire celle d’un sénateur qui, tout Vert soit-il, n’est pas en position de diriger la recherche française. Le silence de Jean-Marc Ayrault, le 6 novembre, avait créé un véritable malaise. Le voilà dissipé par François Hollande. Tant mieux. Désormais, les laboratoire français vont pouvoir démontrer que la France reste un pays d’inventeur !

Cette clarification survient au moment où de multiples signaux conduisent à penser que le dossier du gaz de schiste n’est pas près de se refermer, n’en déplaise à Corinne Lepage qui le rejette en bloc dans les colonnes du Monde.,Le même quotidien reprend les prévisions publiées par l’Agence internationale de l’énergie (AIE) dans son rapport annuel, le World Energy Outlook publié le 12 novembre.

Les Etats-Unis, futurs numéro un mondial du pétrole et du gaz

Les États-Unis deviendront le premier producteur mondial de pétrole, dépassant l’Arabie saoudite, entre 2017 et 2020 et premier producteur de gaz dès 2015 en devançant la Russie. Tout cela grâce aux huiles et gaz de schiste. L’exploitation de ces hydrocarbures non conventionnels est en train de bousculer en profondeur et de façon totalement inattendue l’échiquier énergétique mondial.

Toujours Le Monde, dans un entretien, rapporte l’opinion de Fatih Birol, économiste en chef de l’Agence internationale de l’énergie (AIE) :

“La France réduit la part du nucléaire, interdit le gaz de schiste et vise à limiter plus fortement ses émissions de CO2. Ces trois éléments sont-ils compatibles ? Je n’en suis pas sûr. Je crois qu’il est possible d’exploiter proprement le gaz de schiste à condition de fixer un cadre réglementaire très strict aux industriels qui devront faire des investissements technologiques importants. Mais le jeu en vaut la chandelle, car les bénéfices à tirer de cette ressource peuvent être très élevés.”

1000 ans de consommation en Suède

La Suède, pays qui ne fait parti des pays les plus polluants, a découvert que son sous-sol contient pas moins de 1000 années de sa consommation de gaz… La Suède n’exploite pas ce gaz. Pour l’instant, elle explore, malgré l’opposition des Verts qui partagent le pouvoir. D’ici la fin de l’année, le gouvernement suédois se prononcera sur une éventuelle exploitation commerciale. En toute connaissance de cause. Ce qui n’est pas le cas en France puisque les forages d’exploration sont interdits. En France, comme en Suède d’ailleurs, si les Verts persistent dans leur position, une fracturation politique deviendra inéluctable dans la majorité présidentielle.

Michel Alberganti

lire le billet

Les écologistes interdisent jusqu’à la recherche sur le gaz de schiste

Qui décide de la recherche française ? La ministre en charge, Geneviève Fioraso ? L’Agence nationale de la recherche (ANR) ? Le CNRS ? Les Universités ? Les Agences indépendantes ? Les Comités d’éthique ? Le dernier épisode en date du vaudeville français sur le gaz de schiste plaide pour une autre tutelle : les écologistes, plus précisément Europe Ecologie Les Verts. Plus personnellement, semble-t-il, un homme : Jean-Vincent Placé, sénateur qui, à 44 ans, cumule les responsabilités. La dernière en date : avoir contraint le gouvernement à reculer, une fois de plus, sur le gaz de schiste.

Préambule

Avant même la publication du rapport Gallois, Arnaud Montebourg, ministre du redressement productif, réaffirme l’opposition du gouvernement à la fracturation hydraulique mais dit vouloir “réfléchir” à l’exploitation du gaz de schiste, qui “sera certainement sur la table” à l’occasion de la publication du rapport, comprend-t-on. Arnaud Montebourg est alors rejoint par le ministre délégué aux relations  avec le Parlement, Alain Vidalies, qui assure qu’au sein du gouvernement personne ne pense qu’il faut écarter le gaz de schiste “pour l’éternité”, selon l’AFP.

Acte 1

Lundi 5 novembre 2012, Louis Gallois, ancien président l’EADS, après Airbus, la SNCF, Aerospatiale, Snecma et ex directeur de cabinet de Jean-Pierre Chevènement en 1981 avant de devenir directeur général de l’industrie en 1982, remet son très attendu rapport au Premier ministre intitulé “Pacte pour la compétitivité de l’industrie française“.

Au chapitre sur “la priorité à l’investissement, un choc de confiance”, la cinquième proposition est : “mener les recherches sur les techniques d’exploitation du gaz de schiste”. Louis Gallois s’explique ainsi dans son rapport :

“Nous plaidons pour que la recherche sur les techniques d’exploitation des gaz de schiste soit poursuivie. La France pourrait d’ailleurs prendre l’initiative de proposer avec l’Allemagne à ses partenaires européens un programme sur ce sujet. L’exploitation du gaz de schiste soutient l’amorce de réindustrialisation constatée aux États-Unis (le gaz y est désormais 2 fois et demi moins cher qu’en Europe) et réduit la pression sur sa balance commerciale de manière très significative.”

Acte 2

Jean-Vincent Placé réagit aussitôt en déclarant à l’AFP  :

“Si le Premier ministre reprend ces propositions du rapport Gallois, il y aura une large fracture dans la majorité avec les écologistes. Un revirement du gouvernement serait une violation absolue de l’accord passé (entre) le PS et Europe Écologie-Les Verts”.

Acte 3

Louis Gallois a sans doute l’impression d’avoir été mal compris. Il précise donc sa position, pendant le journal télévisé de France 2 de lundi soir et sur RTL mardi 6 novembre :

“Je n’ai pas dit qu’il fallait poursuivre l’exploration, c’est interdit par la loi. J’ai dit qu’il fallait continuer de travailler sur la technique d’exploration, ça me paraît naturel.”

Acte 4

Mardi 6 novembre, Jean-Marc Ayrault présente le pacte national pour la croissance, la compétitivité et l’emploi qui s’inspire fortement du rapport Gallois mais il ne mentionne même pas le gaz de schiste. Les services du Premier ministre confirment au magazine Le Point que la proposition correspondante de Louis Gallois n’est pas retenue par le gouvernement.

Acte 5

En apparence, le gouvernement se plie aux termes de l’accord pré-électoral entre le PS et EELV. En apparence seulement. Car voici ce que dit le document en question sur ce sujet :

“L’exploration et l’exploitation d’hydrocarbures non conventionnels (gaz et huiles de schiste) seront interdits, les permis en cours seront abrogés et les importations découragées”.

Epilogue

Il apparaît ainsi que l’interdiction de la recherche sur les techniques d’exploitation ne fait pas partie de l’accord PS-EELV.
Le renoncement du gouvernement sur la proposition de Louis Gallois à propos du gaz de schiste peut paraître anecdotique par rapport aux autres points du “pacte national”. En fait, il ne l’est pas. Il s’agit même d’une grave défaillance du fonctionnement de la majorité présidentielle et d’un signal catastrophique donné en direction de la recherche française.

En effet, voici qu’un parti politique crédité de 2,31% des voix à l’élection présidentielle de mai 2012 et 5,4% des voix au premier tour des législatives suivantes grâce à l’accord conclu avec le PS (63 circonscriptions réservées à EELV), se trouve en position de dicter sa loi au gouvernement. Voilà qu’il étend, de lui-même, les termes de l’accord qui lui a permis d’obtenir 18 députés à l’Assemblée nationale.

L’interdiction de l’exploration et de l’exploitation vaut désormais aussi pour la recherche de nouveaux moyens d’exploitation. Rappelons que le gouvernement fonde le moratoire actuel sur le gaz de schiste sur les dangers présentés par la fracturation hydraulique, seule technologie existant à ce jour. Le rapport Gallois préconise d’en trouver d’autres, mois dangereuses pour l’environnement. Mais non, pas question pour les écologistes. Ces derniers, eux, ne sont pas opposés à une technologie particulière mais bien au gaz de schiste lui-même. Facteur de retard, de leur point de vue, dans le développement des énergies renouvelables en France.

Au moment où la situation économique est si tendue que le gouvernement augmente les impôts et les taxes et où la faiblesse de la compétitivité de l’industrie arrive en tête du diagnostic des experts tels que Louis Gallois, la France se prive de la possibilité d’une ressource qui pourrait jouer un rôle important pour l’aider à traverser cette période difficile. En réduisant la facture énergétique, le gaz de schiste français diminuerait aussi les coûts de production.

Une embellie économique serait le meilleur instrument pour stimuler les investissements dans les énergies renouvelables, dans la transition énergétique. La France, en pointe dans l’exploitation pétrolière, dispose de tous les laboratoires nécessaires pour inventer une nouvelle technologie moins dangereuse que la facturation hydraulique. Ou pour perfectionner cette technique afin d’éviter tous risques de pollution ou de maladie.

Eh bien non. Jean-Vincent Placé en a décidé autrement. Un tel dogmatisme, qui piétine jusqu’au principe de précaution, peut apparaître absurde et mortel pour l’avenir de la France. Comme le note Louis Gallois, même l’Allemagne n’adopte pas une telle ligne. Et la nécessité du lancement d’une recherche européenne commune dans ce domaine, qu’il propose, apparaît comme une évidence.

Est-il supportable que ce soit sans la France ?

Michel Alberganti

lire le billet

Bricolage à Flamanville : 20 m3 d’eau radioactive sur le plancher

L’image que l’on se fait d’une centrale nucléaire et de ce qui s’y passe en prend un coup lorsque l’on apprend les circonstances qui ont conduit à une fuite d’environ 20 m3 d’eau radioactive dans le bâtiment d’un réacteur de la centrale de Flamanville.  Mise en service en 1987 dans la Manche, cette dernière comprend deux réacteurs de 1300 MW chacun. Ces dernières années, Flamanville était surtout connue pour les retards dans la construction du controversé réacteur EPR de nouvelle génération.

Intervention de maintenance

Contrairement à l’impression que cela donne, la scène ne se passe pas dans le local à chaudière d’un immeuble quelconque mais bien dans le bâtiment de l’un des deux réacteurs de la centrale. Mercredi 24 octobre, dans la nuit, une intervention de maintenance est décidée dans la centrale de Flamanville sur un circuit d’eau connecté au circuit primaire du réacteur N°1. Ce circuit n’est autre que celui qui relie le réacteur au générateur de la vapeur qui entraîne les turbines qui produisent du courant électrique.

Arrêt à chaud

Le réacteur N°1 est alors en “arrêt à chaud”. Cela signifie qu’après son arrêt à froid du mois de juillet pour les opérations de rechargement de combustible, il a été progressivement remis en activité jusqu’à atteindre cet état dit d’arrêt à chaud qui précède la remise en service effective avec production d’électricité. Mercredi, donc, le circuit primaire se trouvait dans les conditions normales de fonctionnement : 150 bars de pression et 300°C de température pour l’eau du circuit primaire.

Un petit tuyau pour les sondes de température

L’opération de maintenance était motivée par une baisse de débit dans un petit tuyau de 60 mm monté en parallèle (dérivation) sur l’un des quatre gros tuyaux formant les boucles qui relient le coeur du réacteur au générateur de vapeur (circuit en rouge dans le schéma ci-dessus). Ce petit tuyau supporte des sondes de températures. Il capte une petite partie du circuit de refroidissement et il en réduit la pression grâce à un diaphragme, une pièce percée de trous qui obstrue partiellement le passage de l’eau. Les opérateurs de la centrale, ayant noté une baisse anormale du débit d’eau dans ce tuyau à sondes, dépêchent une équipe pour démonter le système.

Copeaux oubliés

Les techniciens se rendent sur place. Ils isolent le tuyau du circuit primaire à l’aide de vannes, démontent l’ensemble et découvrent que le diaphragme est obstrué par, entre autres, des copeaux métalliques. Thierry Charles, de l’IRSN, indique qu’il s’agit probablement de copeaux provenant d’une réparation précédente.  Pour remplacer une sonde thermique, c’est à dire un thermomètre, les techniciens auraient réusiné un pas de vis et… ils auraient laissé tomber les copeaux dans le tuyau… L’équipe effectue le nettoyage oublié par leurs collègues et referme le tout.

Vanne fuyarde et verrine faiblarde

Il leur est alors demandé d’en profiter pour vérifier les 3 autres tuyaux de dérivation se trouvant sur les 3 autres boucles du circuit primaire. C’est alors qu’ils découvrent, sur l’un des trois tuyaux, une vanne fuyarde… Ils parviennent à l’isoler et à la remplacer. Mais lorsqu’ils remettent le circuit en fonctionnement, c’est à dire lorsque l’eau sous pression revient dans le petit tuyau, un hublot en verre permettant d’en voir l’intérieur, une verrine en langage technique, se casse. Aussitôt, c’est la fuite.

Une fuite de 7 m3/h

Pas moins de 7 m3/h d’eau radioactive à 300°C se répandent sur le sol du bâtiment réacteur N°1. L’accident sur produit à 23h15 le 24 octobre, selon le communiqué de l’ASN. Et la fuite ne sera arrêtée qu’à 5 heures au matin du 25 octobre. Soit près de 6 heures de fuite. A 7 m3/h, cela ferait environ 42 m3… L’IRSN avance néanmoins seulement 20 m3, ce qui indique que le débit s’est progressivement réduit. En effet, dès le début de la fuite, les opérateurs de la centrale ont décidé de déclencher la procédure d’arrêt à froid. Cela signifie que le coeur du réacteur est neutralisé par les barres de contrôle qui inhibent la réaction nucléaire. Progressivement, la pression et la température du circuit primaire baissent. A la fin de la procédure, le circuit se trouve à une température de 60°C et une pression d’environ 2 bars.

Pas de blessés… une chance

Par chance, aucun technicien ne se trouvait dans le bâtiment réacteur au moment du déclenchement de la fuite. Il reste néanmoins plusieurs zones d’ombres. D’abord, pour expliquer pourquoi la pression est montée jusqu’à faire exploser ce hublot. Ensuite, pour déterminer les responsabilités de cette erreur de manœuvre qui aurait pu avoir des conséquences graves en cas de présence humaine. L’équipe de maintenance provenait-elle d’EDF ou d’un sous-traitant ?  EDF devra donner des explications. Cela tombe bien, c’est l’une de ses spécialités…

Michel Alberganti

lire le billet

Environ 23 centrales nucléaires sont sous la menace d’un tsunami

Après la catastrophe nucléaire de Fukushima provoquée par le tsunami qui a dévasté le nord-est du Japon le 11 mars 2011, on pouvait se douter que d’autres centrales couraient le même risque dans le monde. Encore fallait-il les identifier. C’est le travail qu’une équipe dirigée par des chercheurs espagnols a réalisé. Résultat: quelque 23 centrales comprenant 74 réacteurs nucléaires sont implantées dans des zones “potentiellement dangereuses” vis à vis des tsunamis, dans la mesure où ces phénomènes restent difficiles à prévoir.

Dans l’étude publiée dans la revue Natural Hazards, les chercheurs dénombrent 13 centrales en activité abritant 29 réacteurs parmi les 23 centrales à risque. Quatre autres, avec 20 réacteurs, sont en cours d’extension pour disposer de 9 réacteurs supplémentaires. Enfin, 7 centrales, avec 16 réacteurs, sont en cours de construction. (Soit 24 centrales au total et non 23 comme annoncé par les chercheurs…).

Première cartographie mondiale

“Il s’agit de la première vision de la distribution mondiale des réacteurs de centrales nucléaires civiles situées sur une côte et exposées aux tsunamis”, indique José Manuel Rodríguez-Llanes, coauteur de l’étude au Centre de recherche sur l’épidémiologie des désastres (CRED) à l’université catholique de Louvain, en Belgique. Les chercheurs ont utilisé des données historiques, archéologiques et géologiques ainsi que des relevés de mesures pour établir les risques de tsunamis.

Les zones géographiques côtières concernées sont très étendues : l’ouest du continent américain, la côte atlantique de l’Espagne, du Portugal et de l’Afrique du nord, l’est de la Méditerranée, certaines partie de l’Océanie et, surtout, le sud et le sud-est de l’Asie. Ainsi, la Chine se trouve particulièrement visée du fait de sa forte expansion nucléaire actuelle. Pas moins de 27 des 54 réacteurs en cours de contruction dans le monde s’y trouvent.

19 réacteurs en Chine et 19 au Japon

“Le fait le plus important est que 19 réacteurs, dont 2 à Taiwan, sur les 27 en construction en Chine sont dans des zones dangereuses”, notent les auteurs. Au Japon,  les chercheurs ont identifié 19 réacteurs à risque, dont l’un est en cours de construction. La Corée du sud est en train d’étendre deux centrales à risque avec 5 réacteurs. Deux réacteurs en Inde et un au Pakistan pourraient également subir des tsunamis.

Joaquín Rodríguez-Vidal, auteur principal et chercheur au département de paléontologie et de géodynamique de l’université de Huelva, souligne que “les implications des choix d’implantation des centrales nucléaires ne concernent pas uniquement les Etats qui les font mais également ceux qui pourraient être touchés par les fuites radioactives”. Et de remarquer que, depuis le tsunami de 2004, les régions de l’Océan indien n’ont pas pris de décisions politiques dans ce domaine.

La leçon de Fukushima

Le drame de Fukushima s’est produit dans un pays techniquement en pointe et doté d’infrastructures modernes. Il aurait sans doute eu des conséquences encore plus graves s’il s’était produit dans un Etat moins développé. Les chercheurs recommandent donc de réaliser des analyses locales qui prennent en compte le risque sismique et celui d’un tsunami afin de déterminer l’adaptation nécessaire des centrales mentionnées dans leur étude.

Un tel conseil aurait pu paraître saugrenu avant Fukushima, tant l’on pouvait alors être persuadé que toutes les mesures anti-tsunami avaient bien été prises. Surtout dans un pays comme le Japon qui vit sous la menace permanente d’un séisme majeur. Désormais, nous savons que l’une des premières puissances économiques mondiales est capable de ne pas protéger efficacement ses centrales contre un tsunami. D’où l’importance de cette nouvelle étude. Mais sera-t-elle suivie d’effets ?

Michel Alberganti

lire le billet

50% de nucléaire ? A ce rythme, plutôt en 2066 qu’en 2025

En 2011, la France exploitait 58 réacteurs nucléaires répartis dans 19 centrales. Grâce à une puissance installée de 63,1 GW, la production d’électricité d’origine nucléaire a atteint 423,5 milliards de KWh représentant 77,7% de l’électricité consommée l’an dernier. En 2012, la France aura besoin de 9254 tonnes d’uranium pour alimenter ses réacteurs nucléaires.

Fessenheim: 2,3% de l’électricité nucléaire

Lors de sa campagne présidentielle, François Hollande a fixé l’objectif de ramener la part du nucléaire dans le mix électrique de 75% à 50% à l’horizon 2025. Le 14 septembre, il a annoncé sa décision de fermer la centrale de centrale de Fessenheim en 2016. Cette centrale, construite à partir de 1971 a été raccordée au réseau en 1978. La puissance installée de ses deux réacteurs est de 1760 MW. Sa production annuelle moyenne atteint 10 milliards de KWh, soit 2,3% de l’électricité nucléaire française.

Sortie du nucléaire… dans 150 ans

Pour passer de 75% (ce qui est en dessous du chiffre actuel de 77,7% mais admettons…), à 50%, il faut donc réduire de 25% la part du nucléaire dans le mix énergétique. Admettons également que la production française d’électricité reste constante au cours de prochaines décennies (la crise économique nous y aidera un certains temps) à environ 545 milliards de KWh. La part du nucléaire, si elle était bien de 75%, atteindrait 409 milliards de KWh. Pour la faire passer à 50%, il faut la réduire d’un tiers, soit de 136 milliards de KWh. Cela représente la  production de 13,6 centrales de Fessenheim. S’il faut quatre ans pour fermer une telle centrale, nous aurons atteint l’objectif fixé par François Hollande dans 54 ans, soit en 2066. Et non en 2025… Au même rythme, la sortie du nucléaire de la France ne se produirait qu’au bout d’environ 150 ans, c’est à dire aux alentours de 2162, année électorale…

Au delà d’un second mandat

Sauf erreur de calcul que vous ne manquerez pas de relever, et, il est vrai, à d’importantes approximations près, il semble bien que le rythme imprimé par François Hollande à la réduction du nucléaire dans le mix électrique français ne soit pas suffisant pour atteindre son objectif. Il faut noter qu’avec une certaine prudence, l’année 2025 retenue se situe au delà de la fin de son second et dernier mandat, s’il est réélu en 2017.

Fermeture de Fessenheim : pourquoi attendre 4 ans ?

Dans ce contexte, on peut s’étonner de la satisfaction affichée par nombre d’écologistes après les annonces du 14 septembre. A l’exception de Greenpeace qui déclarait, dès le 13 septembre: “La centrale de Fessenheim pourrait être fermée très rapidement. En 2011, elle n’a contribué qu’à 1,3% de la production nette d’électricité nationale”. Et l’organisation de s’inquiéter des déclarations au Sénat de Delphine Batho, ministre de l’écologie, affirmant que les travaux prévus à Fessenheim seraient bien réalisés. “Quel signal le gouvernement peut-il envoyer en investissant des millions d’euros dans une centrale qu’il a promis de fermer dans le quinquennat ?” s’interroge Jean-François Julliard, directeur général de Greenpeace France.

50% en 2066 ? Pas sûr… Que les adeptes du nucléaire se rassurent. La France n’est pas le Japon qui affiche un objectif de sortie du nucléaire en 30 ans.

Michel Alberganti

lire le billet

Energie nucléaire: la France ferme Fessenheim, le Japon ferme tout

Coup dur pour les inconditionnels de l’énergie nucléaire. Dix huit mois après la catastrophe de Fukushima, le gouvernement japonais a annoncé, vendredi 14 septembre 2012, sa nouvelle stratégie énergétique : « réaliser une société qui ne dépend plus de l’énergie nucléaire dans les années 2030 ». A terme, le Japon ne prévoit de conserver que son surgénérateur de Monju en l’utilisant pour le traitement des déchets nucléaires.

Le même jour, quelques heures auparavant, François Hollande avait annoncé, en ouverture de la conférence environnementale des 14 et 15 septembre, que la centrale nucléaire de Fessenheim «sera fermée à la fin de l’année 2016», quelques mois avant l’expiration de son mandat. Ce calendrier semble satisfaire les écologistes, ravis, par ailleurs, de la décision d’enterrer l’exploration et, a fortiori, l’exploitation du gaz de schiste en France.

Pression populaire

Le parallèle avec le Japon est instructif. Dix huit mois après la catastrophe de Fukushima, le gouvernement de Yoshihiko Noda était soumis à une forte pression populaire. Il faut dire que le Japon l’avait échappé belle en mars 2011 lorsque la centrale de Fukushima-Daiichi a été dévastée par le tsunami et que des explosions ont projeté un nuage de particules radioactives dans l’atmosphère. Tokyo, située à 220 km au sud-ouest, n’a été épargnée que grâce à une direction favorable des vents. Depuis, l’exploitant Tepco, largement convaincu d’incompétence, lutte pour contrôler la centrale. Encore aujourd’hui, le réacteur N°4 et sa piscine contenant 264 tonnes de barres de combustible hautement radioactives reste un danger permanent.

Épée de Damoclès

Pour rassurer une population traumatisée par l’épée de Damoclès de Fukushima et, sans doute aussi, par la mémoire des bombes atomiques de la seconde guerre mondiale, le gouvernement a donc fini par prendre une décision courageuse. Pour la première fois, l’une des premières économies mondiales planifie sa sortie du nucléaire. Le Japon se donne moins de 30 ans pour y parvenir. Un délai qui semble raisonnable si l’on considère que le nucléaire fournissait 29% de la production électrique du pays en 2010.

Après le séisme du 11 mars 2011, tous les réacteurs japonais sont progressivement mis à l’arrêt. En mai 2012, plus aucun ne fonctionne et le Japon est alors sorti du nucléaire en… 14 mois. Mais cette situation n’est guère tenable économiquement et, en juin 2012, Yoshihiko Noda annonce la remise en service de deux réacteurs dans la centrale d’Ohi, dans l’ouest du Japon. Mais le mois suivant, en juillet dernier, les manifestations anti-nucléaires rassemblent des dizaines de milliers de Japonais à Tokyo.

600 milliards de dollars

C’est donc bien sous la pression de l’opinion publique japonaise que le gouvernement nippon a décidé de s’engager dans une sortie du nucléaire. Il y a une semaine, les discussions du cabinet du premier ministre Yoshihiko Noda laissaient pourtant entendre que le coût d’une telle stratégie s’élèverait à plus de 600 milliards de dollars. En face de ce coût, le Japon a pesé le risque d’un nouveau tremblement de terre majeur de magnitude 8 au cours des prochaines décennies. D’après les scientifiques, ce risque est évalué à 87% dans la région du Tokai, à 200 km au sud-ouest de Tokyo, pour les 30 prochaines années.

En prenant la décision de sortir définitivement du nucléaire avant 2040, le Japon se met en situation de devoir impérativement développer ses ressources en énergies renouvelables. Sans ces dernières, les importations de pétrole et de gaz pour compenser les 30% de son électricité nucléaire pèseront de façon insupportable sur son économie.

5ème mondial dans le solaire

Avant de se mettre ainsi le couteau sous la gorge, le Japon occupait une place loin d’être ridicule dans l’industrie du solaire. Il se place en 5ème position mondiale en terme de surface de panneaux photovoltaïques installés, avec 5 GW en 2011, contre 2,8 GW en France. Cinq entreprises nippones (contre 400 en Chine…) fabriquent de tels panneaux. En 2009, le gouvernement a fixé comme objectif de parvenir à 28 GW en 2020 et à 53 GW en 2030. Il est très probable que ces chiffres seront revus à la hausse après la décision du 14 septembre. Le solaire devra contribuer à compenser le nucléaire. Avec 54 réacteurs, ce dernier représentait près de 30% de sa production d’électricité et il était prévu que cette part monte à 40%. En 2010, le Japon disposait de 282 GW de puissance électrique installée. Le solaire représentait donc moins de 2%.  Mais l’objectif 2030 l’aurait fait passer à près de 20%, à puissance installée égale.

Pas de difficultés insurmontables pour le Japon

On voit donc que les ordres de grandeur ne présentent pas de difficultés insurmontables. Si l’on ajoute les 2,3 GW d’électricité éolienne nippone en 2010, le Japon dispose d’environ 7,5 GW d’électricité renouvelable. En trente ans, il lui faut multiplier ce chiffre par 4 pour compenser son électricité nucléaire. Cela semble très loin d’être impossible si l’on ajoute à cela l’impact des économies d’énergie. Certaines régions ont réduit de 15% leur consommation après le tsunami de mars 2011. Ainsi, la situation du Japon ne semble pas catastrophique. On connaît les capacités industrielles de ce pays et ses facultés de réaction dans l’adversité. La décision du gouvernement pourrait provoquer un électrochoc salutaire et un élan important vers le développement des énergies renouvelables.

Fessenheim: moins que le solaire

La situation de la France est bien différente. Avec nos 58 réacteurs, nous produisons 74% de notre électricité grâce à nos centrales nucléaires. La fermeture de Fessenheim (1,8 GW) représentera une perte inférieure à 3% des 63 GW nucléaires installés en France. A titre de comparaison, le solaire représentait, fin 2011, 2,8 GW de puissance installée et l’éolien 6,8 GW. Certes, la part de l’ensemble des énergies renouvelables dans la production française d’électricité n’était que de 12% en 2009 ce qui nous classait à la 13ème place européenne… Et le rapport sur l’éolien et le photovoltaïque remis au gouvernement le 13 septembre 2012 risque de ne pas provoquer d’enthousiasme démesuré. Les experts y déclarent: “ces contraintes interdisent d’envisager que les énergies éolienne et photovoltaïque, à elles seules, permettent la diminution de 75 % à 50 % du nucléaire dans le mix électrique français à l’horizon de 2025”. Voilà donc l’objectif affiché par François Hollande lors de la campagne présidentielle habillé pour l’hivers.

Pas de couteau sous la gorge en France

Contrairement au Japon sous la menace permanente de tremblements de terre dévastateurs, la France n’a pas le couteau sous la gorge. Grâce au nucléaire, elle bénéficie même d’un luxe mortel pour les énergies renouvelables. Le phénomène mine depuis 30 ans tout développement important d’une économie verte en France. Les deux décisions que François Hollande vient de prendre le 14 septembre, fermer Fessenheim et interdire le gaz de schiste, va lui permettre de satisfaire les écologistes à peu de frais politique. Coté économique, la France devra se contenter de l’espoir de devenir la spécialiste du démantèlement des centrales nucléaires. Un domaine dans lequel il lui reste toutefois à faire ses preuves. Aucune centrale nucléaire n’a été complètement démantelée sur son territoire à ce jour. Coté énergies renouvelables, nous pourrons continuer à tranquillement caracoler en queue de peloton. Pendant que le Japon se retrousse les manches pour sortir du nucléaire.

Michel Alberganti

lire le billet

Gaz de schiste: l’abstention l’emporte sur la précaution

En ouverture de la conférence sur l’environnement, François Hollande a annoncé ses décisions concernant l’exploration et l’exploitation du gaz de schiste en France:

«J’ai demandé à Delphine Batho, ministre de l’Ecologie, du Développement durable et de l’Energie, de prononcer sans attendre le rejet de sept demandes de permis déposées auprès de l’État et qui ont légitimement suscité l’inquiétude dans plusieurs régions (…) S’agissant de l’exploration et de l’exploitation des hydrocarbures non conventionnels, telle sera ma ligne de conduite tout au long de mon quinquennat. (…) Dans l’état actuel de nos connaissances, personne ne peut affirmer que l’exploitation des gaz et huiles de schiste par fracturation hydraulique, seule technique aujourd’hui connue, est exempte de risques lourds pour la santé et l’environnement.»

publicité

Le président de la République a ajouté que«le gaz de schiste soulève bien des questions»,et il a dit «entendre les arguments économiques et les considérations souvent exagérées sur les gisements».

Ainsi, François Hollande cède aux arguments des écologistes. La France rejoint la Bulgarie et la Roumanie, les pays européens qui ont décidé d’un moratoire sur l’exploration et l’exploitation du gaz de schiste.

Lire la suite…

 

lire le billet