Géo-ingénierie : du mythe au Parlement

maniamedia.centerblog.net/

maniamedia.centerblog.net

Un simple mot, publié en septembre dans le « résumé à l’intention des décideurs » du Giec, a suffi pour déclencher une avalanche de réactions dans les sphères d’information écologistes : la géo-ingénierie.

Bien que le rapport ne fasse que constater le manque de connaissances actuelles sur le sujet et la possibilité d’effets secondaires sur le climat, cette mention a suscité de grandes inquiétudes et bon nombre d’articles, notamment sur le site écologiste Basta !, les blogs de Mediapart et Attac France.

Dans les années 2000, la géo-ingénierie était un sujet d’article cher aux complotistes et autres Alex Jones francophones : on y dénonçait les « chemtrails », c’est à dire l’ajout de particules soufrées dans le kérosène des avions de ligne et militaires, dans le but de les pulvériser dans l’atmosphère, arrosant au passage les populations. Loin de considérations passionnées, jetons un œil sur cette nouvelle technique qui, sortant des cercles troubles, s’avance peu à peu sur le terrain politique.

La géo-ingénierie est, selon le Giec, « l’ensemble des techniques visant à stabiliser le système climatique par une gestion directe de l’équilibre énergétique de la Terre, de façon à remédier à l’effet de serre renforcé. » De nombreuses techniques de géo-ingénierie sont à l’étude mais deux techniques attirent particulièrement l’attention des politiciens, des scientifiques… et des militaires.

Des expériences à grande échelle

La première d’entre elles est le déversement de particules de fer dans les océans : le fer ainsi répandu favorise la prolifération du phytoplancton. Or, ces algues consomment du Co2 lors de la photosynthèse et l’emprisonnent au fond des océans lorsqu’elles meurent, transformant ainsi les océans en gigantesques puits de carbone. Le but de cette technique est donc de doper artificiellement ce phénomène naturel de photosynthèse en augmentant la masse de phytoplancton. Plusieurs expérimentations ont eu lieu hors laboratoire depuis 1993 ; la dernière, illégale, a eu lieu dans le Pacifique en octobre 2012. Or, ces expérimentations se sont révélées peu concluantes. Après le déversement de centaines de tonnes de sulfate de fer dans les océans, le phytoplancton s’est effectivement développé durant plusieurs semaines, mais la quantité de Co2 absorbée apparait extrêmement faible du fait de l’artificialité du fer déversé.

La deuxième technique, imaginée en 1991 par le prix Nobel de chimie Paul Josef Crutzen, consiste à pulvériser du soufre dans la stratosphère de manière à renvoyer une partie de la lumière solaire. Une méthode similaire, basée sur la dispersion d’aluminium, permet également de provoquer des précipitations sur un territoire atteint de sécheresse ; méthode efficace utilisée par les Américains durant la guerre du Vietnam pour transformer en bourbier les lignes ennemies.

L'homme d'affaire californier Russ George est le dernier à avoir mené une opération de géo-ingénierie à grande échelle en 2012. http://commonsensecanadian.ca

L’homme d’affaire californier Russ George est le dernier à avoir mené une opération de géo-ingénierie à grande échelle en 2012.
http://commonsensecanadian.ca

 

Un long chemin dans la sphère politique

Aux Etats-Unis, la géo-ingénierie est considérée comme une option depuis plusieurs décennies déjà mais sent le soufre du fait de l’intérêt que lui porte l’armée américaine. En 1996, un rapport détaillé de l’US Air Force intitulé « Weather as a Force Multiplier: Owning the Weather in 2025 » préconise de se doter d’une capacité de géo-ingénierie militaire dès 2025.

En 1997, Edward Teller, père de la bombe H, soutient ouvertement « la mise en place d’un bouclier pour renvoyer les rayons solaires». C’est à cette époque-là que l’Union européenne s’inquiète pour la première fois des effets néfastes de la géo-ingénierie. En 2002, Colin Powell déclare aux Nations-unies : « nous sommes engagés dans un programme de plusieurs milliards de dollars pour développer et déployer des technologies de pointe afin d’atténuer les conséquences des gaz à effet de serre ». En 2009, c’est au tour de John Holdren, nouveau conseiller environnemental d’Obama, de déclarer que l’administration américaine investit dans des recherches de géo-ingénierie, ajoutant : « Nous n’avons pas le luxe d’ignorer quelque approche que ce soit ». Avec le rapport du Giec et une réunion en avril 2013 au Parlement européen, la géo-ingénierie entre aujourd’hui de plain-pied dans la sphère publique.

Un pas vers l’incertain

Mais quid des effets collatéraux ? L’observation du volcan Pinatubo en 1991, celle-là même qui avait inspiré Paul Crutzen, a certes généré une baisse de la température, mais elle a également favorisé une dramatique sécheresse au Sahel. Ce simple exemple montre la méconnaissance des effets collatéraux que pourrait provoquer une utilisation massive de la géo-ingénierie. Des opérations de géo-ingénierie pour favoriser la mousson pourraient créer une sécheresse au Brésil. De même, on est dans l’inconnu quand il s’agit d’évaluer les conséquences des retombées d’aluminium ou de souffre sur la terre et les populations.

Alors ? Devant l’incertain, la tentation pour les gouvernements, appuyés par de nombreux scientifiques et investisseurs tels que David Keith, Bill Gates ou Murray Edwards, est d’expérimenter ces techniques qui sont aujourd’hui réalisables du point de vue technologique. Une juste utilisation du principe de précaution préconiserait néanmoins d’attendre des études d’impact sérieuses et indépendantes. En attendant, il y a urgence pour qu’une politique de transparence soit établie au niveau international concernant les expériences de géo-ingénierie actuellement en cours. L’histoire nous a appris que vouloir jouer les apprentis sorciers peut s’avérer dangereux.

Raphaël B.

lire le billet

Doit-on tirer des leçons du modèle énergétique américain ?

 

 

 

http://www.whitehouse.gov

La production mondiale d’hydrocarbures de plus en plus de mal à suivre la demande et les prix du baril atteignent des niveaux record avec en prime de graves problèmes en termes de politique énergétique qui se posent pour les Etats. La crise de 2009 entre la Russie et l’Ukraine, qui avait mené à une coupure des approvisionnements en gaz en Europe a été un retentissement mondial et un vrai traumatisme pour des Européens qui se sentaient jusque là hors d’atteinte. Ainsi, la sécurisation des approvisionnements en énergie est arrivée au cœur des débats.

A cette problématique, les Etats-Unis ont choisi une réponse claire qui s’organise sur plusieurs fronts. La mesure la plus visible ces derniers temps et la plus fondamentale est l’augmentation de la production nationale d’hydrocarbures. Au-delà des simples revenus tirés de l’exploitation de la ressource, l’enjeu est de réduire les importations et donc la dépendance aux marchés étrangers. En effet, les Etats-Unis ont augmenté leur production de pétrole jusqu’à atteindre le niveau le plus élevé depuis deux décennies à près de 7,5 millions de barils par jours[1]. Grace à cette augmentation, « pour la première fois depuis plus d’une décennie, le pétrole (que les Américains) ont importé représentait moins de la moitié du combustible qu’ils ont consommé. »[2] Si on parle énormément de cette politique, c’est aussi pour le boom gazier qu’elle a produit avec l’explosion de la production de gaz de schiste qui, aussi polémique soit elle, a permis aux Etats-Unis de devenir le premier producteur mondial de gaz naturel devant la Russie. L’augmentation de la production a atteint les 5 millions de m3 en 5 ans pour une extraction annuelle de 30 millions m3 aujourd’hui[3].

Cela dit, les Etats-Unis restent largement dépendants des productions étrangères. C’est pourquoi, pour se prévenir des fluctuations des cours dues à des environnements de production instables, le gouvernement américain a agi sur deux plans. Le premier et le plus impactant est le choix des pays importateurs : les Etats-Unis ont tendance à choisir des pays qui non seulement sont proches, mais qui en plus sont stables. Ainsi, les importations depuis le Venezuela ont chuté depuis l’année 2005[4] tandis que celles en provenance du Canada, politiquement solide, ont nettement augmenté[5]. Le président Obama, dans son discours du 30 mai 2011 à l’université de Georgetown à Washington D.C. a également évoqué le Mexique comme exportateur privilégié, même si cela ne se reflète pas dans les chiffres. Le Brésil est, lui, désigné comme un exportateur en devenir. Le gouvernement américain, au-delà de la réduction de la dépendance à l’étranger, essaie donc de sécuriser ses approvisionnements par la proximité géographique et politique.

La réduction des importations passe également par une augmentation des sources d’énergie alternatives (notamment le biocarburant sur lequel l’armée américaine mise de plus en plus) et un développement de l’efficience énergétique. Cela dit, le gouvernement américain se désengage progressivement de ce secteur et tend à prendre des mesures qui se limitent à l’adaptation des cadres légal et financier pour une meilleure intégration de l’économie verte à l’économie de marché et donc pour une compétitivité accrue comme le note Richard Kauffman, conseiller au Secrétaire de l’énergie. Les mesures d’aide financières, qui ont poussé la recherche et développement, arrivent en fin de vie et ne seront, en grande partie, pas renouvelées.

 

L’administration Obama a-t-elle les moyens de se battre sur tous les fronts ? Cela paraît difficile. Malgré les efforts de communication du Président, de grandes tendances et priorités apparaissent à travers le discours officiel. Et celles-ci ne correspondent qu’à des visions à court terme (qui correspond également au temps politique).

En effet, l’augmentation de la production nationale de pétrole et de gaz naturel apparaît aujourd’hui comme le point qui concentre tous les efforts via la recherche de nouvelles sources d’hydrocarbures (voir par exemple les sables bitumineux), la recherche de nouvelles techniques comme la fracturation hydraulique et la vente de concessions en grand nombre dont le Président Obama se vante très largement. Or, les importations ne diminuent pas proportionnellement. On a donc une augmentation de la consommation d’hydrocarbures aux Etats-Unis[6] après une baisse due à la crise économique, qui va à contre-courant du discours officiel qui veut que le pays se détache des énergies carbonées.

Considérant cela, la disparition des crédits et des aides au développement des sources d’énergie renouvelables – 75% des programmes de soutien fédéraux,  dont 1705 programmes de garanties de prêts et 1603 programmes de subventions, ont expiré ou vont expirer prochainement[7] – rentre dans un cadre plus vaste de dépendance accrue aux hydrocarbures. Loin de prévenir la fin de la ressource avec un peak oil qui approche à grands pas en modifiant le paradigme énergétique tout entier, les Etats-Unis s’enfoncent dans une impasse dont il sera de plus en plus difficile de sortir. Surtout, les investissements massifs qui sont faits dans l’extraction de gaz naturel sont des investissements à très court terme et les Etats-Unis ne pourront maintenir une production élevée sur une longue période. S’ils sont devenus le premier producteur de gaz naturel, ils ne possèdent pas les ressources les plus importantes et vont donc vers une exploitation débridée et irraisonnée de leur capital énergétique.

Cette politique a des retombées également très importantes en termes sociaux et environnementaux. S’enfoncer dans les hydrocarbures est également synonyme de pérennisation d’un régime d’émission de gaz à effet de serre (GES) scandaleux et de création d’un modèle économique qui produit une croissance économique très importante certes, mais virtuelle car basée sur le court terme.

 

En dépit de ce qui a été dit précédemment, certaines retombées positives de la politique énergétique américaine peuvent être isolées. Tout d’abord, dans un contexte économique maussade, le faible coût de l’énergie aux Etats-Unis dû à la diminution des importations d’hydrocarbures a donné un avantage compétitif à l’Amérique ce qui a aidé à faire repartir la croissance alors que l’Europe reste aux abois. Dans une économie globale s’internationalisant et s’uniformisant de plus en plus, cette singularité aide les Etats-Unis à maintenir sa domination autrement que par le développement des emplois cognitifs non-répétitifs pour lesquels la concurrence s’accentue.

Sur le plan de la politique étrangère, comme le souligne d’ailleurs le Président Obama lors de son discours de Georgetown, cette politique a également permis aux Etats-Unis de s’affranchir (relativement) du contexte international ; et cela est déterminant. Alors que Francis Fukuyama, célèbre chercheur en sciences politiques, annonçait la « fin de l’histoire » après la chute du mur Berlin[8], le climat international s’est tendu et les foyers d’instabilité se sont multipliés, touchant très fortement les principaux producteurs d’hydrocarbures. Le Moyen-Orient est plus agité que jamais depuis 2011 et les facteurs crisogènes demeurent. La Russie, qui abrite la première ressource en gaz naturel au monde, craint des déstabilisations sur son flan ouest mais également dans son cœur productif : le Tatarstan. Elle redoute d’ailleurs plus que tout la montée des intégrismes islamistes qui pourraient atteindre la région, qui représente un véritable hub en matière de production et de transport d’hydrocarbures. Le décès d’Hugo Chavez, qui portait à lui seul la sphère politique vénézuélienne, montre que la problématique de la volatilité des marchés due à l’instabilité politique peut se manifester sur le continent américain même. L’indépendance énergétique devient alors un facteur de stabilité politique et de croissance économique en plus d’une arme de plus pour la politique étrangère de Washington.

 

L’Union européenne est très critiquée pour sa politique énergétique, notamment par les syndicats patronaux. Allant de la dénonciation d’un manque d’ambition au constat d’un échec complet, les analyses pleuvent et élèvent en contre-exemple une politique américaine, symbole d’une réussite sur laquelle l’Union européenne semble incapable de prendre exemple.

Or, il semble difficile pour l’Union européenne de tirer des leçons de la politique énergétique américaine dans la mesure où les contextes et donc les possibilités sont différents. L’ère du charbon n’est plus et l’Union européenne est une zone pauvre en sources d’énergies fondamentales[9] : le pétrole et le gaz naturel.

A partir de ce constat, il est clair que l’argument principal de la politique énergétique américaine, à savoir l’indépendance énergétique pour les hydrocarbures, ne concerne pas l’Europe. Même Laurence Parisot reconnaissait lors d’un débat télévisé récent avec Mme. la ministre Delphine Batho sur BFMTV que les ressources en gaz de schiste en France ne pourraient, selon les estimations, que subvenir à 10% voire 20% des besoins nationaux en gaz naturel. Dés lors, ce n’est pas là-dessus que l’Europe peut agir ; d’autant plus que les extractions en mer du Nord diminuent faute de rentabilité.

C’est sur le choix des énergies renouvelables et de l’économie verte que s’est tournée le Vieux continent. L’Allemagne a d’ailleurs enregistré des premiers succès probants. Mais contrairement aux Etats-Unis, cette politique n’est pas sacrifiée au détriment d’une autre beaucoup plus profitable mais qui se limite au court terme[10]. Les coûts de sortie du gaz de schiste, dont les forages perdent très rapidement en rentabilité, est énorme et n’ont jamais été pris en compte. De plus, le marché des énergies vertes représente 550 milliards USD. L’Allemagne est pionnière dans le domaine et la France est 4è mondial du secteur.

Tandis que les Etats-Unis s’enfoncent dans un après-pétrole qui sera extrêmement difficile à gérer, une partie de l’Union européenne a fait le pari d’un changement complet de paradigme énergétique. Si ce pari paraît handicapant aujourd’hui, c’est parce qu’il vise le long terme. Les investissements en énergies vertes en Europe ne cessent de croître et ne subissent pas l’arrivée de sources émergentes comme le gaz de schiste[11] dont le boom a fait diminuer les investissements en énergies renouvelables et en efficience énergétique de 37% aux Etats-Unis selon Mme Batho, ministre de l’Economie, du développement durable et de l’énergie (11% au niveau mondial). Le pari n’est donc pas fait dans la demi-mesure et l’Europe ne se bat pas sur plusieurs fronts, ce qui pourrait lui procurer une énorme avance dans un secteur qui s’annonce très lucratif à l’avenir.

Quant à la question de la sécurisation des approvisionnements, là encore l’Europe est dépendante de sa condition géographique. Entourée de pays producteurs frappés d’instabilité politique, elle diversifie au maximum ses exportateurs dans le but de minimiser l’impact d’une éventuelle crise, mais elle ne peut recourir à des voisins stables comme le font les Etats-Unis. Et n’étant pas, ou très peu, productrice de pétrole, la création d’une réserve comparable au Strategic Petroleum Reserve est inenvisageable et trop coûteux.

Ainsi, l’Union européenne a fait le constat que, selon la norme énergétique mondiale actuelle, elle était en détresse. Alors, au lieu de renforcer sa position dans le système actuel en développant sa production d’hydrocarbures à outrance (ce qu’elle peut difficilement faire au vu de ses ressources), elle a préféré changer de système et se baser sur le long terme, tout en engrangeant les dividendes de la transition énergétique sous la forme d’un soft power énergétique toujours grandissant.

 

Florian Tetu


[6] Si la consommation de pétrole a faiblement diminué ces 5 dernières années, la consommation de gaz a nettement augmenté.

[8]Un des deux pôles de pouvoir dans le monde s’étant effondré, ne devait alors plus rester qu’un pôle américain hégémonique, ce qui préviendrait les conflits.

[9] Ces sources d’énergies, en particulier le pétrole, sont considérées comme fondamentales car elles nourrissent des secteurs dans  les sources alternatives n’interviennent pas, ou très marginalement. Il s’agit surtout du secteur du transport.

[10] Une récente étude estime que les ressources mondiales de gaz de schiste ne pourraient être exploitées que pour 10 ans. Voire http://www.ft.com/cms/s/0/4b831ffc-d1e1-11e2-9336-00144feab7de.html#axzz2VuEQvhY5 , consulté le 11 juin 2013.

[11] De nombreux pays européens ont autorisé le gaz de schiste mais aucun ne connait de ruée vers l’or comme c’est le cas aux Etats-Unis.

lire le billet

L’automobile durable, une utopie ? (1/2)

By Gabrielle de La Forest

Dans un mois, aura lieu la Semaine européenne de la mobilité. La mobilité durable étant un des principaux enjeux des politiques de mobilité et plus largement de notre société, la question de l’automobile durable fera partie des débats.

Si la mobilité automobile a cessé de croître depuis le début des années 2000, il n’en reste pas moins que l’automobile représente encore 80% des transports. A l’heure où la préoccupation environnementale est une sensibilité montante chez les citoyens et une priorité politique pour les collectivités territoriales et les instances gouvernementales, cette hégémonie est contestée car elle est à l’origine d’impacts écologiques importants : pollution atmosphérique, émission de gaz à effet de serre (avec pour corollaire le réchauffement climatique), épuisement des ressources énergétiques ou encore production de déchets liés notamment au traitement des véhicules en fin de vie.

Face aux pressions citoyennes et réglementaires mais aussi parfois dans le cadre d’une démarche volontaire de RSE, les constructeurs automobiles sont amenés à repenser leur produit afin de le rendre plus durable. Cependant, leur réflexion reste le plus souvent cantonnée aux seuls aspects technologiques, de crainte surement de remettre en cause le modèle industriel néofordien qui a fait leur succès (la détermination du chiffre d’affaires se fait par le volume des ventes, qui repose lui-même sur une production et une consommation de masse). En revanche, d’autres acteurs – citoyens, collectivités, entreprises – apportent d’autres réponses plus ambitieuses à cette question, en s’intéressant plus globalement à l’écosystème de la mobilité (urbaine) et en remettant en cause le fonctionnement du modèle industriel. Des propositions qui semblent plus efficaces pour réduire l’impact environnemental de la voiture.

Nous présenterons, dans cet article en deux parties, les différentes voies proposées pour tendre vers un modèle d’automobile durable, leur efficacité mais aussi leurs limites et conditions de mise en œuvre, en se donnant pour objectif de répondre à la question suivante : l’automobile durable, une réalité prochaine ou une utopie désenchantée ?


L’apport de l’analyse économique à la problématique du développement durable

Afin de constituer une grille d’analyse des différentes initiatives de stratégies de développement durable appliquées dans le secteur automobile, nous avons utilisé le concept de « modèles économiques d’entreprise compatibles avec le développement durable ». Christian Du Tertre (professeur de sciences économiques), à qui nous avons emprunté cette notion, distingue quatre modèles que nous pouvons résumer comme suit :

–   Le modèle « industriel propre » à Réflexion sur l’activité productive, afin de réduire les émissions de gaz à effets de serre et la consommation d’énergie, et conception et vente de « produits propres » (produits recyclables, tenant compte de l’épuisement des ressources et dont l’usage est moins polluant).

–   Le modèle de l’ « écologie industrielle » à Conception des produits et de leur production mettant l’accent sur la maitrise des flux et la diminution du gaspillage des matières.

–   Le modèle « serviciel » à Remplacement de la vente d’un bien d’équipement par son droit d’usage dans le cadre d’un service (de location). L’entreprise est garante de la durée de vie des biens proposés, de leur possible recyclage et maintenance et des effets de leurs usages.

–   Le modèle de « l’économie de la fonctionnalité » à Conception et réalisation de solutions répondant à une fonction (un besoin), faisant l’objet initialement de prestations séparées.  La croissance de la valeur ajoutée est découplée du volume produit et donc déconnectée des flux de matières.

 

L’approche technologique privilégiée par les constructeurs automobiles

Les solutions déployées par les constructeurs automobiles visent surtout à modifier la face technique de leur produit par des innovations technologiques. Elles relèvent des modèles économiques « industriel propre » et de « l’écologie industrielle ».

Leur démarche s’articule autour de deux axes : concevoir une « voiture propre », dont les composants sont recyclés et recyclables et dont l’usage est moins polluant.

La réflexion autour du cycle de vie de l’automobile et plus particulièrement sur le recyclage du véhicule en fin de vie (réutilisation, valorisation matière et énergétique), initiée au début des années 90, permet aujourd’hui aux constructeurs français de répondre en grande partie aux normes de la directive européenne du 18 septembre 2000 (un taux de recyclage de 95% et une valorisation énergétique de 85%). Techniquement, cela a été possible par le marquage des matériaux constitutifs des pièces, la réduction des familles des matériaux ou encore l’utilisation de matières recyclées voire naturelles.

La réflexion sur la réduction des effets négatifs de l’usage de l’automobile (consommation d’énergie et émissions de polluants) se caractérise elle-même par deux approches technologiques.

La première, qui s’est amorcée depuis une vingtaine d’années, consiste à améliorer le véhicule « conventionnel » (moteur thermique/carburants traditionnels). Pour cela, les progrès technologiques ont porté sur l’optimisation du rendement des moteurs (par la réduction de la masse du véhicule, l’amélioration du système de combustion ou les systèmes de Stop & start), la mise sur le marché de véhicules performants d’un point de vue énergétique (petites urbaines, véhicules diesel très économes) et l’apport de progrès au post-traitement des émissions  (pot catalytique, filtre à particule). Ces différentes mesures ont permis, en 2009, d’atteindre une moyenne des émissions de CO2 des véhicules neufs vendus dans l’UE de 145,7g de CO2/km, soit une diminution de 5,1% par rapport à l’année 2008 (source : Commission Européenne).

La seconde approche technologique correspond à la recherche de technologies alternatives au système de motorisation conventionnel. On peut recenser quatre nouveaux types de motorisation : le tout électrique, l’hybride, le moteur à hydrogène et les moteurs dédiés aux carburants gazeux ou biocarburants.

 

Les obstacles et limites de ces modèles industriels

Le développement de motorisations alternatives est encore récent et se heurte à toute une série d’obstacles technologiques et économiques.

Parmi ces obstacles, notons tout d’abord la difficulté de passage d’un prototype à une production en petite série puis le développement rapide de celle-ci, du fait des coûts qu’il suppose. Or, c’est la production en grande série qui permettra de réduire les coûts de production et de parvenir à un prix du véhicule qui soit économiquement supportable par le client et compatible avec le marché de masse automobile. Une production de masse d’autant plus nécessaire que l’efficacité des voitures propres dépend certes de la faiblesse de leurs émissions unitaires de CO2 mais surtout du nombre de véhicules introduits dans le parc.

A cet obstacle du coût qui est commun à l’ensemble des technologies, s’ajoutent des maillons faibles propres à chacune d’elle.

Ceux de la voiture électrique concernent principalement la faible autonomie des batteries (même si des progrès sont en cours) et la durée de rechargement (de plusieurs heures). Pour pallier à ce problème, plusieurs solutions sont prévues : des bornes de recharge rapide, des stations de fourniture de batteries pleines prêtes à l’emploi ou encore des logiciels de prévision de la consommation. Au-delà du rechargement rapide, des structures pour le réapprovisionnement doivent être proposées à travers l’implantation d’un réseau d’alimentation dense. Toutefois, les premiers retours d’expérience indiquent que le développement d’infrastructure de recharge publique n’apparait pas indispensable au regard des usages, mais répond surtout à la volonté des entreprises et pouvoirs publics de construire un environnement rassurant levant l’ « angoisse de la panne ». Enfin, la voiture électrique bouleverse l’usage de la voiture, en lui ajoutant les contraintes citées précédemment, mais aussi car le modèle économique qui se prépare repose sur une offre locative de la batterie (souscription d’un abonnement pour l’alimentation électrique incluant l’utilisation de la batterie et la facturation au kilomètre).

Le principal frein à une diffusion rapide du modèle hybride est son prix trop élevé, à cause de la double motorisation. Ce qui le cantonne à un marché de niche.

Les principaux inconvénients du moteur à hydrogène sont le problème du stockage de l’hydrogène à bord du véhicule et la mise en place d’une infrastructure de production, de transport et de distribution d’hydrogène qui suppose des coûts très élevés, ne permettant pas de perspectives de production massive et accessible avant plusieurs décennies.

Enfin, les principaux maillons faibles des motorisations dédiées aux biocarburants sont d’une part, la production limitée de biocarburant qui se heurte rapidement au manque de surfaces cultivables, et d’autre part, la faiblesse du réseau de distribution des biocarburants. En ce qui concerne les carburants gazeux, l’utilisation de GNV se heurte à la difficulté de stockage (caractère gazeux) et à la faiblesse des infrastructures de distribution. Quant au GPL, il n’est plus intéressant en termes de pollution locale à cause des normes Euro.

Quand bien même ces technologies parviendraient à se développer massivement, elles restent limitées pour répondre aux enjeux de développement durable.

En effet, l’électricité, l’hydrogène et les biocarburants peuvent paradoxalement contribuer à augmenter les émissions de CO2  du « puit à la roue ». Quant au modèle hybride, au-dessus de 50 km/h, ses avantages environnementaux sont beaucoup moindres puisque c’est le moteur thermique qui prend le relais.

Par ailleurs, ces alternatives présentent des effets pervers. En effet, en déculpabilisant les automobilistes et constructeurs, ces technologies propres risquent de pérenniser le recours à la voiture individuelle et d’augmenter le nombre de voitures et de déplacements sur les routes et donc les flux de matières et les émissions. De même, Christian du Tertre reprend le concept d’ « effet rebond » (Greening et alii, 2000) pour expliquer le phénomène où « la  réduction de l’usage de la matière rapportée au produit unitaire provoque une baisse du prix relatif qui peut induire une croissance de la demande et de la production conduisant à une croissance du flux global de matière ». On a donc une contradiction avec les enjeux de développement durable qui tient aux structures de causalité qui fondent la dynamique macroéconomique dans un régime d’accumulation industrielle. Chaque constructeur d’automobiles s’efforce de produire davantage de voitures certes « plus propres », mais en agissant ainsi, ils peuvent paradoxalement contribuer à une consommation globale accrue de voitures, de carburants, à une multiplication des déplacements et donc à une augmentation de la pollution et des déchets.

 

Ainsi, les modèles relevant de la logique industrielle ne permettent pas d’envisager une réduction notable des impacts environnementaux de la voiture. Focaliser le discours sur les technologies masque le vrai problème qui est de modifier la façon actuelle de concevoir les déplacements à l’aide de l’automobile. Nous verrons dans la deuxième partie de cet article les expériences relevant des modèles « serviciels » et de l’ « économie de la fonctionnalité » qui semblent plus efficaces mais pas moins difficiles à mettre en œuvre.

 

lire le billet

La micro-algue, une arme importante dans la lutte contre le réchauffement climatique

La micro-algue est un « type d’organisme aquatique unicellulaire possédant des chloroplastes et donc capable de transformer l’énergie lumineuse en énergie chimique pour son développement ». Les micro-algues doivent être distinguées des macro-algues, que nous avons l’habitude de rencontrer sur les plages, qui sont des organismes pluricellulaires.

 

L’exploitation des molécules produites par les micro-algues :

 

Alors que nos ressources en énergie fossile se raréfient, le potentiel énergétique des micro-algues pourrait bien s’avérer salutaire dans les années à venir. La plus ancienne forme de vie présente sur Terre est d’ores-et-déjà exploitée avec succès par le secteur alimentaire. L’une de ses nombreuses variétés – la Spiruline – qui tire son énergie de la photosynthèse, est en effet consommée sous forme de compléments alimentaires dont les qualités nutritionnelles intéressantes pour la santé humaine sont reconnues.

 

Actuellement, le coût de leur culture reste relativement important. Mais certains projets en développement pourraient changer la donne. Ainsi, au début du mois de juillet, l’entreprise Fermentalg a réussi à obtenir une aide importante grâce au soutien d’Oséo, organisme de financement des PME innovantes. Son objectif est de lancer la production industrielle de molécules, issues de certaines souches de micro-algues. Ces molécules seraient alors utilisées dans des secteurs très divers, comme la santé, la nutrition, la cosmétologie, la chimie et l’énergie.

 

Pour réduire ses coûts, Fermentalg s’est livrée à une étude des différents types de micro-algues connus, afin de sélectionner les plus prometteuses, ou plutôt les moins gourmandes. Celles-ci réclament en effet pour leur développement une dose de lumièreplus ou moins importante, qu’il faut dès lors générer. Les heureuses micro-algues élues sont des souches dites « hétérotrophes » et d’autres dites « mixotrophes ». Elles permettront à l’entreprise de gagner en compétitivité, et surtout de ne pas consommer plus d’énergie qu’elle n’en générera.

 

Des micro-organismes en mesure de capter le CO2 :

 

D’autres projets sont à l’étude, parmi lesquels un jumelage des sites de production de micro-algues avec d’autres sites générateurs de chaleur notamment. La chaleur, habituellement perdue, serait alors utilisée pour favoriser le développement des micro-organismes. L’exemple type est celui de l’utilisation de la chaleur dégagée lors de l’incinération de déchets par une usine de cogénération productrice d’énergie. Mais d’autres jumelages sont possibles. En effet, on constate que le CO2 alimente également la photosynthèse naturelle des algues. Elles peuvent dès lors servir à nettoyer les fumées d’usine, qui favoriseront leur croissance. Elles constitueraient ainsi une sorte de filtre naturel, captant les émissions de gaz à effet de serre néfastes pour l’environnement, et contribueraient de fait à la lutte contre le réchauffement climatique.

 

Ces projets font suite à la construction d’une usine pilote révolutionnaire en Espagne, plus précisément à Alicante. Celle-ci, réalisée par la société BFS, convertit le CO2 généré par une cimenterie en bio pétrole ou en électricité. L’entreprise BFS indique ainsi que son « usine pilote est capable […] par an, d’absorber 12.000 tonnes de CO2 et de produire 5.500 barils de pétrole voire, selon l’option retenue, 0.45 Mégawatts d’électricité par heure ».

 

Les micro-algues, sources de bioénergies :

 

Outre cette méthode, bien d’autres permettent aux micro-algues de contribuer à la lutte contre le réchauffement climatique. Elles sont en effet à la base d’une chaine permettant de générer des biocarburants dits de troisième génération, grâce aux sucres qu’elles libèrent, convertibles en éthanol après avoir suivi un processus de fermentation. Alors que les cultures dédiées aux agro carburants sont régulièrement décriéesen raison de leur inconvénient majeur, qui est de monopoliser les terres cultivables et donc de restreindre la part des cultures alimentaires, elles se présentent donc comme l’une des solutions possibles à ces maux. Et comme une bonne nouvelle n’arrive jamais seule, il s’avère que leur rendement serait bien plus important que celui d’autres cultures, comme celle du colza ou du tournesol. Il leur serait même trente fois supérieur. Certains défis restent cependant à relever pour créer une filière de production fiable et durable. Les scientifiques se penchent actuellement sur l’identification des souches d’algues les plus riches en lipides. Lorsque l’on sait qu’il en existe plusieurs millions, il apparait évident que la tâche sera rude. Elle a été confiée en France à des chercheurs issus du CNRS, du CIRAD (Centre de coopération international de recherche agronomique pour le développement), du CEA et de l’IFREMER, sous la direction de l’INRIA (Institut national de recherche en informatique et automatique).

 

C’est actuellement la production de biogaz qui s’avère être la plus développée. Les procédés utilisés datent des années 1940. Ils avaient été développés par le professeur William J. Oswald, au sein de l’Université de Californie, avant d’être abandonnés dans les années 1980 au profit de recherches sur les biocarburants. Prometteurs, ils sont réétudiés depuis la fin des années 1990, et permettent de générer principalement du méthane.

 

Elles sont par ailleurs en mesure de produire de l’hydrogène. Mais cette filière reste pour l’heure très peu développée. Le commissariat à l’énergie atomique, par le biais de son laboratoire de bioénergétique et biotechnologie des bactéries et micro-algues, travaille par exemple en vue de créer des organismes efficaces pour la production de ce gaz, par des mutations génétiques.

 

Concrètement, ces micro-organismes permettent donc de créer de véritables circuits fermés pour de nombreux secteurs industriels. Par exemple, coupler une unité de production de micro-algues à une centrale thermique implique que : les micro-algues séquestrent le CO2 émis par la centrale thermique et utilisent la chaleur qu’elle génère pour favoriser leur croissance ; en parallèle, la centrale thermique est alimentée par le biogaz produit par les micro-algues.

 

Enfin, car ce n’est pas tout, des membres de l’Université de Stanford ont réussi à exploiter directement les courants d’électrons générés par la conversion des photons solaires à l’intérieur même de cellules vivantes de micro-algues, de la variété dite Chlamydomonas. Ceux-ci, bien que très faibles, et ne permettant actuellement que de fournir l’équivalent énergétique d’une pile alcaline, restent dignes d’intérêt pour la recherche dans les années à venir.

lire le billet