Une tablette améliore-t-elle la lutte pour la sauvegarde de l’environnement ?

 

Les NTIC  peuvent-elles incarner l’écologie du XXIe siècle ?

Le débat s’ouvre progressivement, parallèlement à l’émergence à grande échelle des nouvelles technologies de l’information et de la communication (NTIC) depuis les années 1980. La tablette, nouvel outil au service du grand public, permet une inter connectivité de la majorité de la planète ainsi qu’un rapprochement des mondes.
Désormais, l’autre, le barbare de la Grèce antique, est devenu un semblable, certes éloigné géographiquement mais proche, à nos côtés, par la technologie. Il y a donc une proximité certaine. Cette technologie a participé à l’apparition du monde que nous connaissons : la mondialisation.
Par ailleurs, cette mondialisation débouchant sur une concurrence effrénée, a admis par l’innovation (moteur de l’avantage stratégique) l’instauration de nouvelles technologies informatiques à la disposition du grand public, comme l’ordinateur, les smartphones ou les tablettes. La mondialisation n’est pas exclusivement née des NTIC, mais celles-ci en constitue sans aucun doute le symbole le plus puissant.
La tablette, dernière arrivée sur le marché il y a quelques années, est-elle bénéfique pour l’environnement ?

Il apparaît certain que la tablette offre de nombreux avantages.
En effet, le support numérique permet sans aucun doute d’économiser pour le grand public bon nombre de papier. Plus besoin d’imprimer un livre, ou d’acheter un cahier pour écrire. La tablette fait donc l’économie de beaucoup d’arbres, d’espaces verts ou de zones protégées. A l’échelle de la France, cela représente quatre millions de tablettes vendues en 2012 ; autant d’arbres en moins à couper. L’avantage est donc certain.

Néanmoins, ces nouvelles technologies numériques n’empêchent pas pour autant de détériorer l’environnement. L’ensemble de ces outils numériques fonctionnent avec de l’étain, de l’aluminium ou du lithium. Or l’extraction de ces terres rares coûte très cher à l’environnement, avec un fort prix à payer en termes de pollution. L’exemple de l’île de Bangka, en Indonésie, est révélateur. Cette immense mine d’étain fonctionne à plein régime, lié à la forte demande mondiale (plus particulièrement des pays émergents), générant des dégâts sans précédent pour les populations locales. Selon Pie Ginting, directeur de l’ONG les Amis de la Terre en Indonésie, « 65% des forêts et plus de 70 % des récifs coralliens auraient été contaminés […] l’accès à l’eau potable est devenu problématique sur l’île, à cause de la contamination des rivières par les déchets miniers ». Les vertus de la tablette sur l’écosystème doit donc être relativisé, car ces outils miniaturisés exigent l’utilisation de nouveaux matériaux (coltan, étain, lithium) dont l’extraction est particulièrement nocive pour la planète.
De plus, il faut agréger le fait que ces tablettes ont une durée de vie très courte (inférieure à trois ans) et ne sont généralement pas réparés, car les matériaux utilisés pour leur fabrication sont d’une part très coûteux, et d’autre part les réparations sont jugées trop complexes et non rentables.

L’ajustement réside donc à l’échelle de l’entreprise. En 2012, 93% des tablettes produites sont destinées au grand public. Or, l’impact écologique le plus néfaste reste l’activité des entreprises. En ce sens, la numérisation de l’entreprise pourrait générer à grande échelle d’importantes économies. L’autre variable d’ajustement de cette équation réside dans le recyclage de ces appareils.
Le défi est immense, sachant que le marché des tablettes s’est fortement rapproché de celui du PC portable. Il s’est vendu 5,5 tablettes par seconde en 2013.

L’enjeu revient donc à déplacer le problème. Certes, on limite certains impacts liés par exemple à la déforestation, mais on intensifie l’extraction de terres et métaux rares. Autrement dit, on limite l’impact sur le bois pour détériorer le sol.
Les gains, si on peut les nommer comme cela, sont bel et bien minimes.

Une variable pourrait donc aider à solutionner ce problème. La mécanique théorique de l’économie circulaire résous un certain nombre de problèmes liés dans ce cas de figure au recyclage. En effet, le principe d’une économie circulaire est un mécanisme économique s’inscrivant dans le cadre d’une économie durable. On est donc dans un cycle quasi fermé où tout ce qui est utilisé pour la production est conservé afin de ne pas être perdu. Autrement dit, on cherche à optimiser les capacités de productions en annihilant ou pour le moins en limitant les émissions toxiques pour l’environnement.
Citons par exemple en Europe le cas de papetiers comme Arjo Wiggins pour le papier recyclé, ou les fabricants de moquette comme Interface et Desso. Par ailleurs, Israël a développé un système de production agricole qui consomme très peu d’eau, ou le Danemark qui à légiféré pour une politique de développement « zéro déchets ».
Rapporté aux enjeux liés aux nouvelles technologies, il est tout à fait concevable de mettre en place une politique très ambitieuse de limitation des déchets.
Cependant, la concurrence économique actuelle et les sommes en jeu n’incitent pas à voir émerger ce phénomène dans un futur proche ; l’action serait efficace à condition que la politique sur le sujet soit globale.

Le défi écologique sur les tablettes à court et moyen terme est donc immense et les solutions  respectueuses de l’environnement très limitées. Elles ont au moins le mérite d’exister.

Hugo Dubert

lire le billet

Keystone XL : pétrole visqueux, collusion d’intérêts et désobéissance civile

Retour critique sur le processus en cours au Canada et aux Etats-Unis, processus de destruction de la planète sur fond de collusions d’intérêts à haut niveau et d’un mouvement historique pour les droits environnementaux.

Le Keystone XL est le projet de pipeline de la compagnie canadienne TransCanada, destiné à acheminer les sables bitumineux exploités en Alberta jusqu’au Golfe du Mexique, en traversant de nombreux Etats canadiens et américains, avec leurs zones résidentielles, leurs milliers de cours d’eau, leurs réserves naturelles et leurs communautés autochtones.

Fort McMurray

Alberta : bienvenue dans le « Mordor »

Le pétrole de sables bitumineux, exploité dans la région d’Alberta au Canada, est considéré comme le pétrole le plus polluant au monde. James Hansen, climatologue et ancien directeur de la NASA, a déclaré que l’exploitation des sables bitumineux albertains signifiait un « Game over » pour la planète. Comprendre : pas de retour en arrière possible. L’extraction des sables bitumineux génère environ 5 fois plus de gaz à effet de serre que l’exploitation du pétrole conventionnel. La consommation d’eau et d’énergie mobilisée pour extraire le bitume est astronomique et assèche les cours d’eau, privant les communautés autochtones de leurs moyens de subsistance. Autour des zones d’exploitation, des médecins et scientifiques albertains estiment le taux de cancers à 30% au-dessus de la moyenne canadienne. Faites donc un tour sur Google Map au-dessus de Fort McMurray, afin de comprendre pourquoi certaines ONG canadiennes, comme Equiterre, utilisent la métaphore du Mordor : la forêt boréale est rasée sur environ 140.000 km2, laissant apparaître d’énormes bassins d’eau usée. Selon des chercheurs du ministère canadien de l’Environnement, les résidus toxiques présents dans ces bassins d’eau se rependent, contrairement aux dires des compagnies exploitantes, dans les nappes phréatiques et polluent actuellement la rivière Athabasca.

Des oléoducs qui fuient

Vient ensuite la question du transport par oléoduc : que ce soit le pipeline keystone 1 en 2011, le grand déversement de Kalamazoo avec le pipeline 6B d’Enbridge en 2010 ou encore le pipeline Pegasus d’Exxon le 29 mars 2013, tous ces oléoducs ont été à l’origine d’une multitude de déversements, de divers volumes, le long des tracés. Les compagnies n’investissent pas dans les technologies disponibles pour détecter les fuites et utilisent des oléoducs, à peine réhabilités, parfois vieux de 40 ans ou plus. Un déversement de pétrole issu de sables bitumineux répand des particules toxiques dans les airs (issus des mélanges toxiques utilisés pendant l’extraction). A Mayflowers, suite au déversement du 29 mars 2013, un quartier entier d’habitations a dû être évacué en raison des émanations toxiques. Par ailleurs, le pétrole de sables bitumineux, ou « bitume dilué » pénètre profondément les eaux (contrairement au pétrole conventionnel qui flotte), polluant les nappes phréatiques et rendant les opérations de nettoyage tout simplement impossibles.

Spill

Le projet Keystone XL traverse la frontière canadienne, il nécessite donc un permis présidentiel. La décision de ce méga projet reste entre les mains de Barack Obama, après que celle-ci ait été façonnée, à coup de rapports d’impacts environnementaux du Département d’Etat, dont la transparence et l’objectivité sont actuellement mises en cause par les associations écologistes. En effet, il s’est avéré que le sous-traitant du Département d’Etat, en charge de la rédaction du rapport d’impact environnemental, Environmental Resources Management, avait TransCanada dans sa liste de clients, entre autres groupes pétroliers.

Le mouvement pour les droits environnementaux

Pour avoir une idée de ce qu’est la mobilisation anti-Keystone XL, le mieux serait probablement de se rendre sur place… Faute de le pouvoir, laissons parler les chiffres. Lorsque les ONG, en tête desquelles 350.org et son leader charismatique Bill McKibben, organisent une mobilisation à l’échelle nationale,  pour faire pression sur le président Obama, ce sont des dizaines de milliers de personnes qui descendent dans la rue, prêtes à risquer l’arrestation. Lors de la manifestation du 21 septembre 2013 dans le cadre de la campagne Draw the Line, plus de 1200 personnes ont été arrêtées. Plus récemment, la mobilisation étudiante « XL Dissent » qui s’est déroulée le 2 mars dernier à Washington a vu 398 étudiants arrêtés par la police dans le cadre d’une action de désobéissance civile. Jamie Henn, directeur de la communication de 350.org et nécessairement enthousiaste étant donné sa position, a évoqué « le plus grand acte de désobéissance civile de la génération ».

manif

 

Et les compagnies pétrolières ne prennent pas ces mouvements à la légère. Loin de là. On apprenait l’année dernière que, selon des documents obtenus par le groupe Tar Sands Blockade via une requête « Freedom of Information Act », TransCanada, probablement dans un élan de patriotisme, aurait fourni des stages de formation à la police locale du Nebraska mais aussi à des agents fédéraux, pour « éliminer les activistes non violents anti-Keystone XL » en les réprimant grâces aux dispositifs anti-terroristes. Plus récemment, on apprenait également l’existence de collusions entre TransCanada et les services de renseignements canadiens. Les écologistes américains et canadiens se rendent compte peu à peu de qui ils ont affaire. Mais cela ne les ralentit pas, au contraire : à l’heure actuelle, plus de 86.000 personnes ont signé le « Pledge of resistance » (« Engagement à résister ») lancé par l’ONG Credo Action, une pétition par laquelle les citoyens s’engagent à risquer l’arrestation par des actions de désobéissance civile pour « dire non au pipeline Keystone XL ».

Bill McKibben dans le viseur de certains médias marxistes

Bill McKibbenIl est un certain nombre de médias indépendants et progressistes, en tête desquels le média américain counterpunch.org, de sensibilité marxiste, qui opposent au combat du fondateur et président de 350.org, Bill McKibben, une critique sociologique de bon calibre. MacDonald Stainsby de Counterpunch.org formule particulièrement bien ce point de vue. Ce dernier appréhende le Keystone XL comme une non-décision de la part d’Obama, ce qu’elle est en effet : depuis 2011, l’approbation ou non-approbation du pipeline a été reportée à maintes reprises, pour diverses raisons politiques et judiciaires. Ce sont trois ans de débat politique et de mobilisation qui s’animent dans l’attente de la décision présidentielle. L’auteur dénonce un accord tacite entre l’administration Obama, qui a besoin d’être perçue comme une « alliée possible » des écologistes – base électorale d’Obama – alors que le mouvement de Bill McKibben – « grassement financé par de grosses fondations » – peut continuer à « enrôler » des militants issus de la classe moyenne blanche, et protester contre le Keystone XL, sans s’opposer frontalement au pouvoir politique. Pendant ce temps-là, TransCanada peut continuer à piller la terre et à détruire le climat avec divers autres pipelines en construction, en premier lieu desquels la section Sud du Keystone XL, qui échappe au permis présidentiel. L’analyste met donc en cause la focalisation médiatique et militante sur le Keystone XL, laquelle permet au président Obama d’apparaître comme un rempart pour les écologistes, sans pour autant contrarier l’industrie pétrolière, qui avance par ailleurs sur des projets similaires moins médiatisés.

En effet, le projet Keystone XL de TransCanada et la mobilisation qu’il suscite concentrent largement l’intérêt des médias écologistes américains et des grandes associations de défense de l’environnement. De l’autre côté de la frontière, les projets de pipeline d’Enbridge et de TransCanada traversent des processus d’évaluation environnementale et d’approbation politique aussi rapides que ces projets s’annoncent dévastateurs.

La stratégie Keystone XL

Ce tour d’horizon politico-bitumineux s’ouvrira cependant avec l’analyse de l’écologiste Joe Romm, qui tente de réhabiliter la « stratégie Keystone XL ». Selon lui, les détracteurs du mouvement sont aveugles sur un certain nombre de points : parce qu’ils estiment que le mouvement environnemental ne peut faire qu’une seule chose à la fois, que le blocage de l’oléoduc Keystone XL n’a pas de valeur stratégique et surtout, que la construction d’un mouvement n’a pas de valeur intrinsèque. Car oui, les Etats-Unis sont le terrain d’un mouvement populaire d’envergure nationale, qui réhabilite les méthodes et actions de résistance pacifique et de désobéissance civile nées de la lutte pour les droits civiques des années 60-70. Ce mouvement est par ailleurs soutenu par la communauté scientifique, par une partie du personnel médiatique et politique et prône, dans ses valeurs, le respect de l’environnement, des communautés, des générations futures, et revendique une économie orientée sur les énergies renouvelables, avec des créations d’emplois pérennes. Ce mouvement a clairement la science et l’économie avec lui et l’histoire lui donnera aussi probablement raison.

Malgré les ambiguïtés du jeu des grands acteurs politiques et écologistes, qui cherchent à maintenir des positionnements stratégiques, la réalité d’une mobilisation historique parce qu’environnementale existe et est en devenir. La voie du militantisme écologiste moderne ne s’éteindra, ni avec l’approbation du Keystone XL, ni avec la fin de 350.org, ni avec la fin du mandat d’Obama.

En France et en Europe, il manque cette force écologiste capable de faire descendre des citoyens dans la rue dans toutes les grandes villes, pour s’opposer pacifiquement aux perspectives “extractivistes” portées actuellement par Arnaud Montebourg et d’autres, ou encore pour influencer d’une voie claire et propre le débat sur la transition énergétique. De ce point de vue, le mouvement anti-Keystone XL, aussi « mainstream » soit-il, n’est pas dépourvu de sens historique.

David Mawas

lire le billet

Transition énergétique : le rôle clef des territoires

fne1Le gouvernement français a engagé la France dans un débat national sur la transition énergétique, il y a plus d’un an déjà. En effet, entre janvier et février, a été présentée la situation énergétique de la France. Dans une deuxième étape, s’est déroulée une concertation des acteurs du secteur énergétique français et du grand public, avant un travail de synthèse dans un troisième temps. Mais où en est on finalement ? Les territoires, pleinement investis dans le débat, ont un rôle majeur à jouer. Si le gouvernement manque de clarté à ce sujet, certains acteurs du secteur énergétique français ont anticipé cet aspect clef de la transition énergétique dans notre pays.

La loi de programmation sur la transition énergétique prévue avec un an de retard

Le projet de loi sur la transition énergétique devait être voté au Parlement à l’automne 2013. Or la 1ère réunion de la commission spécialisée du Conseil national de la transition énergétique (CNTE) présidée par Laurence Tubiana, n’a eu lieu que le 10 décembre 2013. Cette commission a pour mission de formuler un avis sur le projet de loi.

Ce fameux projet de loi devrait être basé sur « six titres ». D’après le gouvernement, il permettra d’atteindre les objectifs fixés par le président de la République en matière de :

- réduction des émissions de gaz à effet de serre ;

- amélioration de l’efficacité énergétique, avec une réduction de 50% de la consommation d’énergie à l’horizon 2050,

- réduction de 30% de la combustion d’énergie fossile à l’horizon 2030 ;

- diversification du mix électrique avec le développement des énergies renouvelables et la réduction de la part du nucléaire à 50 % à l’horizon 2025.

Il est également précisé que le projet de loi dotera l’Etat des outils de pilotage indispensables à la transition énergétique. Rien de plus précis. Quels sont ces outils de pilotage ? A quel échelon administratif seront-ils déployés ? La question de l’échelon de la mise en œuvre de la transition énergétique reste posée. L’Europe donne des directives. A un niveau plus local, les territoires se positionnent : des plans énergétiques sont déjà en place en Bretagne, en PACA, dans le Nord-Pas-de-Calais.

Les industriels ont anticipé cette territorialisation de la politique énergétique

La politique énergétique est codéfinie à plusieurs niveaux : européen, national, régional, départemental, voire même au niveau des communautés de communes et au niveau municipal, lorsque certaines communes font le choix, de quitter un fournisseur d’électricité pour un autre par exemple. C’est le cas dans certaines communes du Grand Ouest où des communes ont fait le choix de se séparer de leur fournisseur historique d’électricité au profit de fournisseurs alternatifs, proposant une électricité 100% verte par exemple.

Les industriels ont bien compris ce rôle clef des territoires et une gouvernance à cet échelon se déploie. Autre exemple, l’année dernière, la ville de Nice a noué un partenariat avec EDF, conclu entre Christian Estrosi, maire de la commune, et Jean-Pierre Frémont, Directeur EDF Collectivités, en faveur d’un stade à énergie positive : une première ! Le stade en question, qui porte le nom d’Allianz Riviera, est le premier éco-stade au monde au sein d’un écoquartier. Cet éco-stade est une vitrine de la production énergétique locale à l’échelon de l’agglomération Nice-Côte d’Azur. Cette infrastructure contient une centrale photovoltaïque de 6000m2 sur sa toiture ainsi qu’un système de chauffage et de climatisation géothermique pour le bien être de tous, quelle que soit la saison…

Le rôle des territoires dans la transition énergétique s’exprime donc déjà. Quels outils politiques, administratifs, quels budgets leur conférer pour accroître leur responsabilité et leur permettre de mettre en œuvre la transition le plus efficacement possible ? Espérons que le projet de loi soit clair au sujet de la répartition des rôles au sein de notre « mille feuille administratif » quant à la mise en œuvre d’une politique énergétique cohérente, meilleure pour l’environnement et créatrice d’emplois.

Cette loi devrait être présentée au printemps et discutée durant l’été pour une conclusion d’ici fin 2014. Qui vivra verra.

lire le billet

Le zéro déchet arrive en France : Zero Waste France

Après un échec du mouvement dans les années 2000, le réseau Zero Waste France a été lancé officiellement en France samedi le 1er février à l’Hôtel de ville de Bobigny. Pourquoi donc cette appellation si « british » ? Le réseau Zero Waste d’origine californienne est né en 1980. « Zero waste » car en anglais « waste » a une double signification, déchet mais aussi gaspillage.  Le projet Zero Waste France est porté par le Centre national d’information indépendante sur les déchets (Cniid). Même si « zéro déchet» semble un objectif utopique, cette initiative reste un projet porteur pour atteindre un équilibre dans l’impact de la vie humaine sur l’environnement.

Zero Waste France - www.cniid.org

Zero Waste France – www.cniid.org

Le « zéro déchet », un état d’esprit

Nous sommes entourés de trop d’artifices et de choses superflues. Les marques l’ont bien compris et elles en profitent. La société de consommation semble aimer cela, préférant des produits bien (trop) emballés, avec une couche de film en plastique et un bel emballage qui finira ensuite à la poubelle. Nous créons ainsi des déchets qui sont des emballages pas indispensables et nous gaspillons des ressources. Il faut aussi réaliser que jeter un emballage équivaut à jeter une chose pour laquelle nous avons payé. L’emballage est un des produits qui a le plus court cycle de vie s’il n’est pas réutilisé. Le mouvement « zéro déchet » est l’occasion de changer ses habitudes et de simplifier les codes de conduite dans la société.

Le « zéro déchet » n’a rien à voir avec la radinerie. C’est l’évolution d’une société de consommation qui pendant des années ne s’est pas contrôlée et qui doit aujourd’hui prendre ses responsabilités afin de limiter son empreinte sur l’environnement. Le « zéro déchet » peut être une solution à plusieurs problèmes : moins de déchets implique moins de contraintes pour ceux qui ne font pas de tri sélectif qui demeure néanmoins un devoir pour tout citoyen responsable, moins de dépenses pour les consommateurs qui paient que pour les produits consommés, un coût de revient réduit pour les industriels car moins d’emballages, moins de pollution et un impact moindre sur l’environnement.

Les produits en vrac

Quand nous achetons un produit emballé, nous payons aussi pour l’emballage. Il serait plus économique et écologique d’acheter uniquement le produit que l’on compte utiliser. Le secteur des nouvelles technologies pourrait se retrouver fortement sollicité car de nouveaux besoins se créés. Un potentiel pour les  distributeurs de produits en vrac ? (lait, yaourt, parfums, couches bébé, dentifrice, entre autres). Les entreprises expertes du packaging et de l’emballage doivent innover et s’aligner sur des tendances plus écologiques. Il ne suffit plus de dire qu’un emballage est recyclable ou en matière recyclée. La nécessité même des emballages doit être remise en question.

Béa Johnson est française, elle vit aux États-Unis. Son coup de maître : faire tenir l’équivalent d’une année de déchets pour sa famille de 4 personnes dans un bocal de 1 litre. Quand elle fait ses courses, c’est avec des bocaux vides, qu’elle remplit dans chaque rayon. Elle n’achète aucun produit emballé. Aujourd’hui les patrons des plus grosses industries agro-alimentaires la consultent. Tous les médias se l’arrachent : New York Times, CNN, Fox News… « Zéro déchet », son premier livre sorti aux États-Unis en avril dernier, est un best-seller. Retrouvez toutes ses astuces ici.

Pour le moment aucune collectivité n’adhère au réseau Zero Waste France. Les collectivités ne se sont pas encore manifestées pour conduire un projet basé sur ce concept novateur et audacieux. Pour le rejoindre, c’est ici.

Si le « zéro déchet » vous intéresse vous pouvez acheter votre shampooing bio en vrac ici. La lessive, les céréales, les fruits secs entre autres sont disponibles en vrac dans les magasins du réseau biocoop en France et dans certaines grandes surfaces. Un jour peut-être nous irons acheter notre pizza ou notre déjeuner à emporter chez le traiteur avec nos propres récipients.

lire le billet

Gastronomie : des crevettes aux criquets !

Durant les fêtes, certains d’entre nous ont mangé des crustacés, des escargots ou des cuisses de grenouilles. La gastronomie européenne s’adonne à de nouvelles aventures depuis quelques années. Maintenant passons à quelque chose de plus croustillant comme des criquets ou de plus moelleux comme des larves. Après tout, les crevettes dont nous raffolons ne sont-elles pas des « insectes » d’eau salée ? 

Qu’est-ce- que l’entomophagie?

L’entomophagie est la consommation d’insectes par les hommes. Cette pratique est courante dans divers pays du monde dans les régions d’Asie, d’Afrique et d’Amérique latine principalement. 2 milliards de personnes complètent leurs régimes alimentaires en mangeant des insectes sur terre et l’entomophagie fait partie de l’alimentation humaine depuis des milliers d’années. Cependant, cette tendance a reçu l’attention des médias que très récemment.

La sécurité alimentaire

L’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO) en prévoyance d’une crise majeure qui toucherait le marché des produits alimentaires de base et qui pourrait durer pendant des décennies, conseille à la population mondiale de diversifier ses habitudes alimentaires pour adopter des produits différents tels que les insectes et des produits laitiers issus d’autres animaux que la vache.

repartition etres vivants

http://entomophagietpe.blogspot.fr/

Ils existent plus de 1500 espèces d’insectes comestibles sur Terre et ils sont très riches en protéines. Un tiers de la population mondiale consomme déjà des insectes. La population d’insectes sur Terre est actuellement suffisante pour pouvoir nourrir toute l’espèce humaine et sauver ainsi plusieurs pays de la famine. La barrière psychologique reste néanmoins dure à surmonter, surtout dans les pays occidentaux. L’Ined estime que nous serons entre 10 et 11 milliards d’êtres humains d’ici la fin du siècle. 11 milliards de personnes sur Terre, c’est plus de bouches à nourrir.

Les insectes et l’environnement

Avec le réchauffement climatique, les élevages d’animaux pour leur viande principalement sources de protéine, émettent de larges proportions de gaz à effet de serre. Les insectes paraissent donc une meilleure alternative car ils émettent moins de gaz à effet de serre et de déchets. Ils demandent aussi moins d’espace et une alimentation très basique composée de déchets organiques réduisant ainsi la demande en termes de culture agro-alimentaire pour les nourrir (Maïs, céréales etc.). L’entomoculture peut également être une solution pour nourrir d’autres animaux. Autant de raisons qui sont pour l’intégration des insectes dans nos assiettes.

Boom de l’entomoculture 

La Belgique a autorisé en décembre la consommation de dix insectes dont le Grillon domestique, le criquet migrateur africain, le ver de farine géant, le grillon à ailes courtes ou encore la chenille de la fausse teigne. Les insectes se fraient un chemin dans les assiettes des Européens et même si de plus en plus de pays les accueillent dans leurs gastronomies, le sujet provoque des débats sur les bienfaits des insectes sur le corps humain sur le long terme. Nous ne détenons à ce jour aucune étude mettant hors de cause l’entomophagie.

Le règlement européen Novel food, qui s’applique à l’alimentation humaine, prévoit que les nouveaux aliments doivent faire l’objet d’une évaluation par les Etats membres et l’Autorité européenne de sécurité des aliments, avant qu’une autorisation de mise sur le marché (AMM) soit délivrée par la Commission européenne. Sauf à pouvoir justifier d’une consommation significative avant 1997 en Europe, ce qui leur permettrait d’être directement introduits sur le marché. Or, à ce jour, aucune consommation significative d’un insecte en particulier n’a pu être formellement prouvée et aucune demande d’AMM n’a été reçue ni accordée. Aucune espèce n’est donc, logiquement, autorisée.

L’intérêt grandissant des entrepreneurs français pour cette filière est un catalyseur pour l’évolution des législations françaises. Les législateurs doivent donc trancher sur les questions afin que les entrepreneurs et industriels s’étant déjà lancés dans l’industrie des insectes sachent où aller et que le potentiel de cette filière soit exploité efficacement.

« L’insectivorisme » : nouvelle tendance gastronomique

http://entomophagietpe.blogspot.fr/

Certains frétilleront de plaisir face à cette nouvelle aventure gustative. En termes de valeur nutritionnelle, les termites sont riches en fer, les vers de farine remplis d’acides gras insaturés (Oméga 3 et Oméga 6), et la chitine, qui compose les carapaces des insectes ont d’excellentes propriétés antimicrobiennes. Côté papilles, le chef Danois René Redzepi, qui dirige les cuisines du restaurant Noma à Copenhague, primé meilleur restaurant du monde par la revue britannique Restaurant en 2012, n’hésite pas à glisser quelques fourmis dans ses plats pour les assaisonner (un petit goût de citronnelle), le phénomène fait mouche. En France, vu chez quelques grands noms de la gastronomie et de la pâtisserie : grillons sur un chocolat aux éclats d’amandes et de noisettes chez Sylvain Musquar, chocolatier à Nancy, criquet farci à la truffe pour David Faure, chef étoilé de Nice qui propose dans son restaurant Aphrodite un menu “Alternative Food” à 59 euros. Les insectes servis dans les restaurants agréés sont issus d’une culture saine et respectueuse des normes d’hygiène nécessaires pour produire des insectes propres à la consommation. Attention, certains restaurateurs ont des dérogations, d’autres non, soyez donc prudents.

Pour vous convaincre que ce n’est pas qu’un effet de mode, cliquez ici

Grillons sautés, Criquets à la sauce piquante, Toast de larves d’abeille, Tacos de ténébrions, Cricket Pad Thai, Beignets de criquets, Cookies de grillons aux canneberges, Grillons au gingembre confit et chocolat. Vous pouvez commander vos sachets de gourmandises pour vos apéros et retrouvez des recettes ici et ici

lire le billet

La révolution biotechnologique

Une cellule souche. Vue d'artiste conceptuelle. AFP

Une cellule souche. Vue d’artiste conceptuelle. AFP

Créer des cellules de cornée à partir de cellules de cheveux prélevées sur un  patient et ainsi exclure tout rejet immunitaire en pratiquant une autogreffe est devenu réalité. Après dix ans de recherche et de test, les équipes du laboratoire de recherche sur les cellules souches de l’Inserm y sont parvenues. Le traitement médiatique des innovations biotechnologiques dans les sciences du vivant oscille entre fascination face aux progrès techniques et sociaux que ces découvertes représentent et craintes éthiques concernant la manipulation du vivant. Au sein de ces enjeux, la question du processus d’innovation n’y est que rarement abordée, notamment en ce qui concerne son financement et sa mise sur le marché.

Les biotechnologies, un enjeu médical et économique prééminent

La biotechnologie serait « une des révolutions les plus fondamentales que l’être humain ait jamais connu » selon le Dr. Michel Limousin. La révolution des biotechnologies « transforme tout », de « la connaissances des mécanismes intimes de la vie, de la société, de la culture, de l’économie industrielle, de l’éthique et même de la conception de ce qu’est l’Homme lui-même ». Or, pour qu’une innovation biotechnologique puisse devenir une révolution il faut en premier lieu qu’un projet de recherche soit financé sur l’ensemble de son cycle (allant de la recherche fondamentale à la mise sur le marché). Cela nécessite une stabilité sur le moyen terme : en moyenne, il faut dix ans pour qu’une découverte scientifique amène une innovation technique industrialisable, comme l’illustre la découverte de l’Inserm qui, pour l’instant, est encore au stade expérimental.

Le développement de cette filière représente un intérêt stratégique pour la France et l’Europe : sans un soutien en faveur des sciences du vivant et des biotechnologies, la France n’aura d’autres options qu’acheter les innovations des autres à défaut de vendre les siennes. Par ailleurs, les gains en termes de création d’emplois hautement qualifiés et la reconversion du tissu industriel dans des activités à haute valeur ajoutée sont des atouts stratégiques non négligeables.

Le cas d’Innate Pharma : quels leviers pour le développement de la filière ?

Le dernier exemple en date illustrant l’intérêt croissant pour ce secteur a été révélé par le quotidien Le Monde qui, dans un article paru le 4 décembre 2013, explique comment les fonds américains ont investis dans l’une des « pépites de la biotechnologie française », Innate Pharma.

Selon le quotidien, la valeur boursière de l’entreprise marseillaise Innate Pharma aurait progressé de 75% ces dix dernières années grâce aux financements outre-Atlantique. Hervé Brailly, PDG d’Innate Pharma, explique s’être tourné vers les fonds américains pour développer ses innovations immuno-oncologiques en raison de l’accès aux sources de financement et de la compréhension des enjeux techniques et économiques des biotechnologies.

L’entrepreneur constate que « le mariage de la finance et de la science est encore à construire en Europe où les investisseurs […] paraissent frileux face à des sociétés au modèle économique complexe ». En outre, M. Brailly met en avant un autre aspect bénéfique des fonds américains : « les interlocuteurs » qui « au sein de ces fonds sont des médecins et des spécialistes de l’immunologie parfaitement capables d’évaluer notre travail ».

Parmi les freins au développement d’une filière pérenne des biotechnologies françaises et européennes, la difficulté d’accès à des sources de financement sur plusieurs années soutenant le cycle long d’innovation propre au secteur est régulièrement mise en avant par les professionnels. L’Office parlementaire d’évaluation des choix scientifiques et technologique, dans son Rapport n°2046 sur la place des biotechnologies en France et en Europe, corrobore le constat d’Hervé Brailly. Pour l’institution nationale, « le retard le plus accusé [par la France dans le secteur des biotechnologies] par rapport aux États-Unis touche au financement des biotechnologies ». L’organe parlementaire voit dans « la continuité du soutien accordé aux biotechnologies et l’importance des moyens mobilisés » la principale explication du « décalage » et du « retard » français et européen vis-à-vis des Américains. L’étude soutient par la suite que « l’une des caractéristiques du contexte dans lequel les biotechnologies se développent repose sur l’implication du secteur privé et la mobilisation de la recherche publique dans des domaines très ouverts et fortement concurrentiels ».

La constitution d’un modèle français et européen de soutien aux biotechnologies

En France, plusieurs fonds spécialisés dans le financement des sciences du vivant ont vu le jour en une décennie. Cette tendance tend à se consolider et certains de ces fonds sont prolongés d’années en années pour suivre les besoins financiers des entreprises biotechnologiques.

La Banque publique d’investissement (BpiFrance), groupe public de financement et de développement des entreprises, propose et/ou gère des fonds permettant de faciliter l’allocation des besoins en financement en « accompagnant dans la durée » les entreprises. Dans le secteur des biotechnologies, BpiFrance a noué de nombreux partenariats avec des sociétés de financement privées. Parmi ces dernières, le Groupe Edmond de Rothschild a mis sur place un fonds destiné au financement des sciences de la vie.

Dénommé « BioDiscovery », ce fond investit depuis 2000 dans les sociétés nécessitant d’importants besoins financiers et dont les projets représentent des opportunités commerciales.

Depuis sa création en 2000, le fond a collecté plus de 350 millions d’euros sous gestion dédiés au secteur des sciences de la vie. Le fonds BioDiscovery IV accompagne le développement des entreprises sur une période de deux à six ans avant de passer le relai à un industriel pour assurer la mise sur le marché des innovations. Afin de soutenir le secteur français et européen des biotechnologies, BioDiscovery est composé à 90% d’investisseurs français et contribue au financement d’entreprises majoritairement françaises et quasi-exclusivement européennes. Développé par Edmond de Rothschild Investment Partner (EdRIP, filiale du Groupe Edmond de Rothschild), ce fonds stratégique d’investissement a ciblé 15 à 20 entreprises des biotechnologies en besoin de financement et jusqu’à présent quatorze opérations ont déjà été réalisées, notamment auprès d’Oncoethix, Complix, Allecra, etc.

L’une des originalités du fonds est la collaboration avec des structures publiques de recherche, notamment avec l’incubateur créé par l’Institut Pasteur qui propose au fonds, en priorité, des projets d’investissement dans des sociétés porteuses de projets prometteurs.

En treize ans, le fonds a ainsi investi dans près d’une cinquantaine d’entreprises du secteur avec un projet porteur de sens et représentant un potentiel de croissance. Ce fond a notamment permis le financement des recherches ayant amené à la découverte de nouvelles molécules permettant de soigner des glaucomes.

lire le billet

Géo-ingénierie : du mythe au Parlement

maniamedia.centerblog.net/

maniamedia.centerblog.net

Un simple mot, publié en septembre dans le « résumé à l’intention des décideurs » du Giec, a suffi pour déclencher une avalanche de réactions dans les sphères d’information écologistes : la géo-ingénierie.

Bien que le rapport ne fasse que constater le manque de connaissances actuelles sur le sujet et la possibilité d’effets secondaires sur le climat, cette mention a suscité de grandes inquiétudes et bon nombre d’articles, notamment sur le site écologiste Basta !, les blogs de Mediapart et Attac France.

Dans les années 2000, la géo-ingénierie était un sujet d’article cher aux complotistes et autres Alex Jones francophones : on y dénonçait les « chemtrails », c’est à dire l’ajout de particules soufrées dans le kérosène des avions de ligne et militaires, dans le but de les pulvériser dans l’atmosphère, arrosant au passage les populations. Loin de considérations passionnées, jetons un œil sur cette nouvelle technique qui, sortant des cercles troubles, s’avance peu à peu sur le terrain politique.

La géo-ingénierie est, selon le Giec, « l’ensemble des techniques visant à stabiliser le système climatique par une gestion directe de l’équilibre énergétique de la Terre, de façon à remédier à l’effet de serre renforcé. » De nombreuses techniques de géo-ingénierie sont à l’étude mais deux techniques attirent particulièrement l’attention des politiciens, des scientifiques… et des militaires.

Des expériences à grande échelle

La première d’entre elles est le déversement de particules de fer dans les océans : le fer ainsi répandu favorise la prolifération du phytoplancton. Or, ces algues consomment du Co2 lors de la photosynthèse et l’emprisonnent au fond des océans lorsqu’elles meurent, transformant ainsi les océans en gigantesques puits de carbone. Le but de cette technique est donc de doper artificiellement ce phénomène naturel de photosynthèse en augmentant la masse de phytoplancton. Plusieurs expérimentations ont eu lieu hors laboratoire depuis 1993 ; la dernière, illégale, a eu lieu dans le Pacifique en octobre 2012. Or, ces expérimentations se sont révélées peu concluantes. Après le déversement de centaines de tonnes de sulfate de fer dans les océans, le phytoplancton s’est effectivement développé durant plusieurs semaines, mais la quantité de Co2 absorbée apparait extrêmement faible du fait de l’artificialité du fer déversé.

La deuxième technique, imaginée en 1991 par le prix Nobel de chimie Paul Josef Crutzen, consiste à pulvériser du soufre dans la stratosphère de manière à renvoyer une partie de la lumière solaire. Une méthode similaire, basée sur la dispersion d’aluminium, permet également de provoquer des précipitations sur un territoire atteint de sécheresse ; méthode efficace utilisée par les Américains durant la guerre du Vietnam pour transformer en bourbier les lignes ennemies.

L'homme d'affaire californier Russ George est le dernier à avoir mené une opération de géo-ingénierie à grande échelle en 2012. http://commonsensecanadian.ca

L’homme d’affaire californier Russ George est le dernier à avoir mené une opération de géo-ingénierie à grande échelle en 2012.
http://commonsensecanadian.ca

 

Un long chemin dans la sphère politique

Aux Etats-Unis, la géo-ingénierie est considérée comme une option depuis plusieurs décennies déjà mais sent le soufre du fait de l’intérêt que lui porte l’armée américaine. En 1996, un rapport détaillé de l’US Air Force intitulé « Weather as a Force Multiplier: Owning the Weather in 2025 » préconise de se doter d’une capacité de géo-ingénierie militaire dès 2025.

En 1997, Edward Teller, père de la bombe H, soutient ouvertement « la mise en place d’un bouclier pour renvoyer les rayons solaires». C’est à cette époque-là que l’Union européenne s’inquiète pour la première fois des effets néfastes de la géo-ingénierie. En 2002, Colin Powell déclare aux Nations-unies : « nous sommes engagés dans un programme de plusieurs milliards de dollars pour développer et déployer des technologies de pointe afin d’atténuer les conséquences des gaz à effet de serre ». En 2009, c’est au tour de John Holdren, nouveau conseiller environnemental d’Obama, de déclarer que l’administration américaine investit dans des recherches de géo-ingénierie, ajoutant : « Nous n’avons pas le luxe d’ignorer quelque approche que ce soit ». Avec le rapport du Giec et une réunion en avril 2013 au Parlement européen, la géo-ingénierie entre aujourd’hui de plain-pied dans la sphère publique.

Un pas vers l’incertain

Mais quid des effets collatéraux ? L’observation du volcan Pinatubo en 1991, celle-là même qui avait inspiré Paul Crutzen, a certes généré une baisse de la température, mais elle a également favorisé une dramatique sécheresse au Sahel. Ce simple exemple montre la méconnaissance des effets collatéraux que pourrait provoquer une utilisation massive de la géo-ingénierie. Des opérations de géo-ingénierie pour favoriser la mousson pourraient créer une sécheresse au Brésil. De même, on est dans l’inconnu quand il s’agit d’évaluer les conséquences des retombées d’aluminium ou de souffre sur la terre et les populations.

Alors ? Devant l’incertain, la tentation pour les gouvernements, appuyés par de nombreux scientifiques et investisseurs tels que David Keith, Bill Gates ou Murray Edwards, est d’expérimenter ces techniques qui sont aujourd’hui réalisables du point de vue technologique. Une juste utilisation du principe de précaution préconiserait néanmoins d’attendre des études d’impact sérieuses et indépendantes. En attendant, il y a urgence pour qu’une politique de transparence soit établie au niveau international concernant les expériences de géo-ingénierie actuellement en cours. L’histoire nous a appris que vouloir jouer les apprentis sorciers peut s’avérer dangereux.

Raphaël B.

lire le billet

L’Europe en panne d’énergie?

Ghunter Oettinger, Commissaire européen à l'Energie - www.cicero.de

 

La politique énergétique américaine a déjà été comparée à une politique européenne qui se voudrait bien plus responsable et sérieuse. Héritière de la Communauté européenne du charbon et de l’acier, l’Union européenne devrait être en pointe sur le sujet. Pourtant, peut-on vraiment parler de politique énergétique européenne ?

De l’éloge de la politique énergétique a minima

Définir sur quoi se baserait une éventuelle Europe de l’énergie est difficile tant le concept est flou et regroupe plusieurs problématiques. La sécurité énergétique, le développement des interconnexions, la standardisation des mix énergétiques ou encore la libéralisation des marchés de production d’électricité pourraient ainsi en faire partie. Pour savoir de quoi l’Europe de l’énergie relève, il faut alors se baser sur les textes. Tout d’abord, il y a la directive 2006/67/CE adoptée par le Conseil le 24 juillet 2006 « faisant obligation aux États membres de maintenir un niveau minimal de stocks de pétrole brut et/ou de produits pétroliers ». En prévision de problèmes d’approvisionnement, chaque Etat membre doit posséder en permanence l’équivalent de 90 jours de consommation dans ses stocks. Pour autant, cette mesure ne relève pas d’une mutualisation de l’effort pour la sécurité énergétique et établit encore moins une politique commune de l’énergie.

La politique énergétique façon réunion Tupperware©

Alors il faut regarder plus loin. Perdu dans les 355 articles du Traité de formation de l’Union européenne (hors protocoles), l’Article 194 fait office de Bible pour l’Europe de l’énergie. Une Bible de…trois paragraphes dans laquelle la seule base de construction de l’Europe de l’énergie s’établit sur « un esprit de solidarité entre les Etats membres ». A partir de là, tout est dit : en lieu et place d’une réelle stratégie commune qui guiderait les choix des Etats, la politique européenne de l’énergie consistera en une vaste consultation, par essence non contraignante, sur les futurs choix de chaque Etat dans le domaine. D’ailleurs, les décisions européennes « n’affectent pas le droit d’un Etat membre de déterminer les conditions d’exploitation de ses ressources énergétiques, son choix entre différentes sources d’énergie et la structure générale de son approvisionnement énergétique ».

Ce n’est donc pas, non plus, dans la définition d’une stratégie commune pour les choix de mix énergétique que s’oriente l’Europe. Néanmoins, l’héritage de l’Union en la matière est fort avec la Communauté européenne du charbon et de l’acier en 1951 et la Communauté économique européenne en 1957.

Signature du plan Schuman qui fonde la CECA - letemps.ch

L’énergie comme soutien à une politique de défense européenne

De façon surprenante, c’est le volet sécuritaire de l’Union européenne –le plus faible des piliers de l’Union- qui semble aujourd’hui maintenir l’idée qu’il puisse y avoir une politique européenne de l’énergie. L’Evangile selon Lisbonne, Titre XXI, verset 194 demande ainsi à ce que les Etats soient solidaires pour «assurer la sécurité des approvisionnements dans l’Union ». Avec une dépendance énergétique qui prend un petit peu plus d’importance chaque année (simples mathématiques : baisse de la production d’hydrocarbures en mer du Nord + augmentation de la consommation + transition énergétique qui ne suit pas = dépendance aux marchés étrangers) et un climat géopolitique désastreux dans les Etats du Golfe, la sécurité des approvisionnements a pris de plus en plus d’importance. Dans ce cadre, le conflit gazier russo-ukrainien de 2006, qui avait privé de gaz une partie de l’Europe, a marqué les esprits et a enclenché une marche en avant.

Du coup, en 2008, les avocats d’une Europe de la défense au sein du Conseil de l’Europe se sont saisis du dossier pour l’intégrer dans la Stratégie européenne de sécurité (2003) via ce rapport. Le texte est plus que critiquable mais l’important n’est pas là. Cette stratégie, qui rentre dans le cadre de la Politique étrangère et de sécurité commune, est très abstraite et se traduit difficilement en mesures concrètes et applicables sur le plan institutionnel. Si le texte se limite à des recommandations n’ayant aucune portée contraignante, il désigne néanmoins les hydrocarbures comme enjeux vitaux d’une éventuelle Europe de la défense qui reste à construire et renforce les bases d’une vision européenne du secteur de l’énergie, bases que l’on voyait déjà pointer dans l’Article 194. Il y a derrière ce texte le sentiment d’une communauté de destins plus que d’une communauté économique car les conflits mondiaux menacent tous les Etats membres au même niveau, en témoigne l’extrait suivant :

« La diminution de la production en Europe signifie qu’en 2030 jusqu’à 75 % du pétrole et du gaz devront être importés. Ces importations proviendront d’un nombre limité de pays, dont beaucoup sont exposés à des risques d’instabilité. Nous sommes donc confrontés à une série de défis en matière de sécurité, qui mettent en jeu la responsabilité et la solidarité de tous les États membres.”

Rapport sur la mise en œuvre de la stratégie européenne de sécurité

Bruxelles, 11 décembre 2008

 

Au-delà de cela, assurer le fonctionnement du marché, assurer la sécurité des approvisionnements, promouvoir l’efficacité énergétique et les économies d’énergie ainsi que le développement des énergies nouvelles et renouvelables et promouvoir l’interconnexion des réseaux énergétiques, voici les axes de réflexion de la stratégie énergétique européenne. Et ceux-ci montent de plus en plus au niveau décisionnel européen car, avec la réalisation du marché intérieur, les réseaux énergétiques sont complètement connectés et dépendants les uns des autres. L’Europe de l’énergie devient, de fait, une nécessité plus que le produit d’une réelle volonté politique.

De plus, la question de la lutte contre le changement climatique se pose à tous dans les mêmes termes. Et comme dans tous les domaines, on en vient à réaliser que l’action des Etats membres aura bien plus de poids et d’efficacité si elle est concertée. Ceci est d’autant plus vrai que l’Europe se voit devenir une puissance normative dans de nombreux domaines, et « lutter activement contre le changement climatique en promouvant les sources d’énergie renouvelables et l’efficacité énergétique » fait office d’argument de soft power.

Jos Delbeke, responsable de l'Action climatique européenne - www.deredactie.be

La montée en puissance de l’Europe face aux Etats

C’est pourquoi un Livre vert intitulé « Un cadre pour les politiques en matière de climat et d’énergie à l’horizon 2030 » (après « Europe2020 » on voit bien que l’Europe adore se fixer des horizons) a été adopté il y a peu par la Commission européenne.

Cependant, il n’a pas apporté grand chose si ce n’est la reconnaissance d’un état de fait : « l’absence de consensus politique énergétique communautaire limite les possibilités d’intervention ». Ainsi, la France continue de faire valoir son argument nucléaire alors que l’Allemagne comble le vide de l’atome par une utilisation frénétique du charbon. De même, la Pologne glisse tout doucement vers le gaz de schiste tandis que le Portugal développe sa capacité en énergies renouvelables. Dans une dynamique semblable de dissonance généralisée, le manque d’accord sur les grands dossiers internationaux empêche d’aborder les différents partenaires énergétiques (Russie, Conseil de coopération du Golfe, Asie centrale…) au niveau européen et de créer des liens durables avec ces derniers. La question des approvisionnements étant liée à la politique étrangère, la compétence reste au sein des Etats.

Du coup, l’Europe de l’énergie se limite à des vœux pieux : activer la « transition énergétique » en agissant par la demande plutôt que par l’offre (comprendre : inciter les citoyens et industries à consommer moins, ou mieux) en créant des outils fiscaux et en développant les énergies renouvelables. N’ayant pas de réel levier sur les politiques énergétiques nationales, l’UE fait du lobbying pour assurer un consensus autour du concept de la transition. Un moyen pour le continent de renforcer sa sécurité énergétique, mais également de verser dans le soft power vert. L’Europe, première puissance commerciale, peut-elle se contenter de cela pour devenir la première puissance écologique mondiale ?

 

Florian Tetu

lire le billet

Quelle politique européenne de l’énergie ?

L’Europe a été fondée sur l’idée d’une politique énergétique commune. Pour rappel, la première pierre de l’Union telle que tous la connaissent a été posée le 23 juillet 1951 avec la signature du Traité de Paris qui formait la Communauté européenne du charbon et de l’acier. Pourtant, aujourd’hui, elle est en panne. Pour André Merlin, Président de MEDGRID[1],  et Président sortant du Conseil de Surveillance du Réseau de Transport de l’Electricité (RTE) « il y a urgence à redéfinir une politique énergétique européenne ». Lors d’un entretien, il nous livre ses explications.


http://www.earthtimes.org/

Au niveau de l’Union européenne, un premier effort de définition de cette politique a été lancé il y a quelques années et concernait principalement trois secteurs : « la création d’un marché de l’électricité et du gaz à l’échelle européenne », « le développement des énergies renouvelables et la lutte contre le réchauffement climatique » avec l’objectif d’accroître fortement « l’efficacité énergétique ». Le chantier d’un marché intérieur de l’énergie a débuté en 1996 à force de « directives successives qui ont permis d’étendre ce marché, marché « pas achevé mais qui existe et qui fonctionne ». Pour ce qui est de l’efficacité énergétique et des énergies renouvelables, l’Europe s’est fixée des objectifs en 2008 avec ce qu’on appelle le « 3×20 en 2020 » : « 20% de réduction d’émission de CO2 par rapport à ce qu’elles étaient en 1990, 20% d’énergies renouvelables dans le mix énergétique européen en 2020 et 20% d’amélioration de l’efficacité énergétique. »

 

Toutefois depuis 2008, « trois facteurs principaux ont pesé » sur la politique européenne de l’énergie : « la crise économique et financière » qui a « fait que l’énergie devient un élément déterminant de la compétitivité d’un pays », la « révolution » du gaz de schiste aux États-Unis qui a conduit à des prix du gaz 3 fois moins élevés outre-Atlantique qu’en Europe, attirant les industries énergivores, et « l’accident de Fukushima », qui a conduit à l’arrêt du nucléaire en Allemagne et à terme dans quelques autres pays d’Europe et également au renforcement des normes de sûreté des réacteurs nucléaires ».

Pendant ce temps, en Europe, des centrales à cycles combinés gaz, moins polluantes que les centrales à charbon, ferment car les prix du gaz sont trop élevés. « Et par ailleurs, comme on développe fortement les énergies renouvelables, la durée d’utilisation des centrales au gaz, qui sont le complément naturel par rapport au développement des énergies renouvelables du fait de leur intermittence, se réduit ». Du coup, les pouvoirs publics dans certains États membres tentent de développer un « marché de capacité » qui permettra de valoriser ces moyens de production (les centrales à gaz qui permettent de passer la pointe de consommation pour les rendre en quelque sorte rentables). Pour André Merlin, « il ne faut pas un marché de capacité par État membre mais un marché de capacité à l’échelle européenne ».

 

http://www.france3.fr

Le champs d’éoliennes offshore de Middelgrunden, dans l’Øresund, au large du Danemark

 

« Quant aux énergies renouvelables, l’Europe est en pointe sur leur développement par rapport aux autres régions du monde, d’où l’objectif de 20% d’énergies renouvelables dans le mix énergétique européen en 2020. Aujourd’hui on est à 13%, atteindre 20% en 2020 reste un objectif ambitieux. Ce développement se fait à « prix très élevé » dans certains cas. Par exemple, « on produit de l’électricité solaire en Grèce, à partir de panneaux photovoltaïques installés sur les toits des maisons, au prix d’achat de 540€/MWh, soit 10 fois le prix du marché ». Les surcouts qui en résultent sont ensuite répercutés sur la facture d’électricité des consommateurs et tout particulièrement des consommateurs domestiques. Etant donné la crise que traverse l’Europe, ce mode de développement des énergies renouvelables « ne semble pas soutenable ». Comment donc, dans ce contexte continuer à développer ces énergies renouvelables en Europe ?

D’après André Merlin, « il faut le faire à moindres coûts » en prenant pour modèle les États-Unis où « chaque fournisseur d’électricité fait en sorte que dans son offre d’électricité il y ait une part obligatoire d’énergies renouvelables qui peut d’ailleurs augmenter progressivement dans le temps». Adopter ce modèle, c’est rendre « durable » la politique de développement des énergies vertes, car il évite des bulles spéculatives comme on l’a connu dans le photovoltaïque. Parallèlement, « les énergies renouvelables qui ont un caractère intermittent nécessitent un fort développement des réseaux électriques ; non seulement des réseaux de distribution mais également des réseaux de transport ». Or,  en Europe, ces chantiers sont freinés par « la longueur des procédures d’instruction » et le réseau d’interconnexion européen est « extrêmement en retard ». Rattraper ce retard, est la condition sine qua non de l’achèvement du marché intérieur à l’échelle européenne. Cette démarche « s’inscrit tout à fait dans le cadre du traité de Lisbonne qui prévoit une solidarité énergétique entre les États ».

 

http://www.lemoniteur.fr

« Il y a donc urgence à développer les réseaux électriques et tout particulièrement les réseaux d’interconnexion » comme l’indiquait André Merlin dans le journal La Montagne dans son édition du 30 mai 2013. Sinon, « le marché sera fragmenté avec d’importantes différences de prix et des risques de blackout. L’électricité ne se stocke que difficilement, ou bien indirectement au travers de stations de pompage hydraulique, les batteries électrochimiques ayant encore des coûts trop élevés pour l’équilibrage d’un système électrique de grande taille. « Le réseau électrique, tel qu’il est actuellement, c’est le talon d’Achille de la politique énergétique européenne » résume André Merlin. Le marché du gaz souffre à un degré moindre des mêmes maux.

L’ambition européenne de poursuivre la lutte contre le réchauffement climatique s’est traduite par la publication récente d’un “ Livre vert” par la Commission européenne » qui propose « d’aller vers une réduction encore plus forte des émissions de CO2, passer de 20% en 2020 à 40% en 2030 par rapport à 1990, mais aussi d’envisager d’atteindre 30 % d’énergie renouvelable en 2030 dans le mix énergétique européen. » Dans le contexte économique qui est celui de l’Union européenne aujourd’hui la question est par contre d’évaluer l’impact de ces objectifs sur la compétitivité de l’industrie européenne.

 

Sur le sujet très sensible politiquement des gaz et pétrole de schistes « l’attitude de l’Union européenne telle qu’elle a été adoptée au sommet des chefs d’État qui s’est tenu le 22 mai, qui est de dire que les pays qui veulent s’engager dans l’exploitation de ces ressources indigènes peuvent le faire, parait très réaliste. » La Pologne et le Royaume-Uni se sont donc lancés dans cette voie, ce qui n’empêche pas par ailleurs d’engager à l’échelle européenne des actions de recherche et de développement et réaliser quelques démonstrateurs pour mettre au point des technologies qui préservent encore davantage l’environnement».Il est sans doute possible d’« envisager technologies qui utilisent des produits biodégradables plutôt que des produits chimiques » ou des alternatives à la fracturation hydraulique. La deuxième chose à faire, c’est d’ « évaluer de manière plus précise les réserves, un rapport de parlementaires français sur ce sujet vient de sortir», signé par Christian Bataille et Jean Claude Lenoir. Il le préconise. Personnellement, André Merlin « pense qu’il faut y aller prudemment mais qu’il faut y venir parce que la France est dans une situation économique telle  qu’elle ne peut pas se passer à minima de connaitre l’état de ses réserves » ; elles sont aujourd’hui évaluées à environ 80 ans de consommation de gaz en France au niveau actuel. Mais bien évidemment cette évaluation doit être confortée par des forages conventionnels in situ.

 

Quid de l’efficacité énergétique ? Elle doit être un axe majeur de la politique énergétique européenne » et doit rester un objectif contraignant au sein de l’Union. La directive de 2012 va dans le bon sens, mais « l’efficacité énergétique est une œuvre de longue haleine ». Transports et isolation des bâtiments doivent concentrer les principaux efforts et « l’idée, par exemple, de faire, comme l’avait dit le Premier ministre [ndlr. Jean-Marc Ayrault] lorsqu’il avait pris ses fonctions, des moteurs qui consomment moins de 2l aux 100km, est une excellente idée parce que l’industrie automobile européenne en a la capacité technologique ». Néanmoins, l’efficacité énergétique ne doit se faire « à n’importe quel prix parce qu’il y a certaines mesures qui sont effectivement rentables et d’autres qui le sont beaucoup moins». Ainsi, l’isolation de certains bâtiments anciens peut être coûteuse. « Dans les années d’après-guerre, on a construit de véritables passoires thermiques » or le parc immobilier se renouvèle très lentement. La question se pose donc pour ces logements : faut-il les isoler thermiquement et jusqu’où ? Faut-il au contraire accélérer leur renouvellement ?

 

Propos recueillis par Jean Brousse et Aleksandra Fulmanski


[1] Consortium créé pour favoriser le développement des interconnexions électriques entre le Nord, le Sud et l’Est de la Méditerranée.

 

lire le billet

ONG environnementales : associations de malfaiteurs ?

http://www.seashipnews.com

Entreprises et organisations environnementales se retrouvent souvent dans une opposition manichéenne. Le bras armé du marché total contre le courage d’une société civile qui agit par le nombre est une de ces fables qui agitent l’imagination. Pourtant, tout n’est pas si rose dans le monde associatif, et notamment parmi les associations écologistes. La légitimité qu’elles tirent de leur combat désintéressé n’est pas nécessairement fondée.

Le 24 juin 2013, Canal+ diffusait un numéro de Special Investigation intitulé « Charity business : les dérives de l’humanitaire » dénonçant les dérives d’associations humanitaires ayant fait de la solidarité un véritable marché à conquérir, avec les arnaques que cela comporte. Parallèlement, le gouvernement, sur la question de la transition énergétique, est complètement inaudible. La lenteur du débat inquiète alors que, pour la première fois depuis au moins 40 ans, le temps énergétique s’est accéléré avec la révolution des gaz de schiste. Les ONG le savent pourtant, mais ne dénoncent pas l’inaction et ne communiquent que peu sur le sujet. Alors que les associations humanitaires se trouvent durement critiquées, les organisations environnementales, qui se montrent incapables de peser sur le débat politique de manière positive, sont épargnées. D’où la question : les organisations environnementales sont-elles réellement les insoupçonnables porte-paroles de l’écologie ?

Recherche fausse association pour lobby effectif, l’exemple des frères Koch

Il y a tout d’abord la longue histoire des intrusions du secteur privé dans un secteur associatif de façade. Les associations n’ont alors rien d’indépendant, rien de civil, rien d’écologiste (mais agissant dans le spectre de l’associatif environnemental, elles valent le coup d’être mentionnées) et rien de vraiment convaincant à proposer. L’exemple le plus symptomatique concerne les frères Koch, milliardaires souriants et texans qui, au beau milieu de leur ranch, possèdent les fonds de Greenwashing[1] les plus importants et les moins discrets du monde. Le New Yorker exposait il y a trois ans les tromperies et le lobbying, derrière une façade civile, auxquels s’adonne la fratrie. Ainsi, le groupe Americans for Prosperity, qui lance chaque année une « croisade » contre l’Agence de protection environnementale américaine (EPA), est présidé par David Koch, lui même régulièrement poursuivi par l’EPA pour les dégâts que son entreprise inflige à la nature. Il avait notamment écopé d’une amende de 35 millions de dollars pour des rejets illégaux de déchets toxiques directement dans des sources d’eau du Minnesota.

Mais Americans for Progress n’est qu’un amuse-bouche. Voilà plus de 35 ans que les frères Koch multiplient les initiatives du genre : création de l’influent think tank[2] libertaire Cato Institute, création de Citizens for a Sound Economy, association de « citoyens » militant contre la régulation étatique (qui ferait passer les enragés du Tea Party pour des communistes et qui a, à l’occasion, été littéralement loué à d’autres lobbies comme Philip Morris[3]), financement du Mercatus Center à l’université George Mason –qui dispense à plusieurs centaines d’élèves la sagesse économique dérégulatrice des frères Koch-, lancement de Concerned Citizens for the Environment –qui, ironiquement, ne comptait aucun citoyen adhérent dans ses rangs et produisait pourtant foule d’analyses contredisant la réalité des pluies acides[4]-, création de l’American Energy Alliance pour tuer dans l’œuf la taxe sur les énergies fossiles voulue par le Président Clinton, financement du parti républicain lors des élections de 1996, démantèlement médiatique du travail du GIEC par plusieurs instituts qu’ils financent dont le Competitive Entreprise Institute, incursion de spécialistes payés par la fratrie au sommet mondial de l’environnement de Copenhague… La liste est longue, le financement cumulé des frères Koch du lobbying anti-climatique étant supérieur à celui d’ExxonMobil. Peuvent être rajoutés, entre autres, la Heritage Foundation, le Manhattan Institute, la Foundation for Research on Economics and the Environment, le Pacific Research Institute et la Tax Foundation.[5]

Des personnalités extrêmement médiatisées et des sponsorings d’entreprise empêchent de penser qu’il s’agit d’un mal purement américain.

En France, cette dérive est la plus évidente et la moins efficace car trop visible et basée sur un courant libertaire qui y a encore relativement peu d’emprise. Mais ne croyez pas que l’Hexagone soit à l’abri du greenwashing. De nombreux soupçons pèsent sur les superstars franchouillardes de l’environnement que sont Yann Arthus-Bertrand (qui dirige la fondation Good Planet) et Nicolas Hulot (de l’association éponyme), par exemple.

La campagne 10 : 10 de Good Planet a par exemple été vivement critiquée. Il s’agissait d’inviter tous les acteurs du réchauffement climatique –du citoyen à la multinationale- à réduire leurs émissions de 10% durant l’année 2010. De nombreuses entreprises ont rejoint l’action et s’en sont publiquement félicitées, afin de se donner une image « verte ». Sauf que l’initiative n’était absolument pas contraignante, qu’elle ne comportait pas de système d’évaluation et que les mesures prises tournaient parfois au ridicule. L’essentiel était ailleurs : pour les entreprises, il fallait participer à cette « campagne de communication massive ».

Il en va de même pour Nicolas Hulot dont la fondation est financée par de grands groupes : EDF, Ibis hôtel, L’Oréal, TF1 pour ne citer qu’eux. Si certains ne sont pas choqués qu’une entreprise puisse financer une association environnementale à telle hauteur, d’autres feront les gros yeux pour au moins deux raisons. D’une part, il est difficile de concevoir que les associations environnementalistes puissent se permettre d’exercer leur rôle de façon impartiale et de fustiger l’action de leurs mécènes (c’est cracher dans la main qui vous nourrit). L’attitude de la Nature Conservancy, l’une des plus grandes associations écologistes au monde, lors de la fuite de pétrole géante dans le Golfe du Mexique causée par une plateforme BP avait notamment étonné plus d’un militant. Le silence de l’association s’expliquait alors par le fait qu’elle avait reçu plus de 10 millions USD de dons de la part de BP à travers les ans. En cherchant rapidement sur internet, on s’aperçoit d’ailleurs que les intérêts personnels pèsent clairement dans la balance : la rémunération moyenne à la fondation Goodplanet est de 4024€ par mois et celle de la Fondation Nicolas Hulot est à 3931€ par mois, bien au-delà des salaires moyens à Paris qui tournent autour de 2700€ mensuels.

http://images.ted.com - Notez la moustache, apanage de José Bové, servant de caution écologique

Le deuxième problème qui se pose est sans doute plus fondamental puisqu’il tient à la base idéologique même de l’environnementalisme. Cette dernière n’est pas construite autour du « consommer mieux » que représente l’économie verte, promue par bon nombre d’acteurs économiques et qui constitue toujours une croissance continue qui ruinerait la planète. La plupart des idéologies écologistes reposent sur un changement des paradigmes économiques, sociétaux et de consommation. Le monde ne peut alors s’imaginer sans un futur où l’homme a changé son rapport même avec la nature au lieu de la commercialiser. Là où le bas blesse, c’est que les entreprises qui financent les fondations environnementalistes sont les champions du capitalisme que combat l’écologie. Accepter les financements –qui relèvent de tout sauf de l’altruisme-, devient symbole d’acceptation voire de confluence avec un système qui n’est pourtant pas viable pour la planète.

Le mal venu de l’intérieur : Greenpeance ou l’ONG qui s’était auto-corrompue.

Il ne faut néanmoins pas voir la main du big business partout dans le monde associatif. Certaines ONG n’ont rien à se reprocher, d’autres n’ont pas besoin de cela pour basculer dans les dérives. Une étude réalisée par « un anarchiste du CRAN » intitulée « Greenpeace, ou la dépossession des luttes écologistes » jette une lumière intéressante sur l’évolution d’une initiative foncièrement sincère à la base en « appareil associatif » gérant ses intérêts comme le ferait une multinationale.

Greenpeace est née en 1971, imaginez la scène : une bande de hippies sur un Zodiac interviennent sur les côtés canadiennes pour empêcher la réalisation d’essais nucléaires américains. Si l’action échoue, le groupe n’en reste pas là et allie les coups d’éclats militants à des techniques journalistiques avancées qui les font connaître du grand public et font croître leur réputation. Seulement, les années passant, l’ONG s’éloigne du vrai mouvement militant pour rentrer dans une organisation digne d’une multinationale. Avec l’explosion du Rainbow Warrior par les services secrets français, les revenus des dons augmentent et Greenpeace se professionnalise. Quand Mac Taggart, ancien entrepreneur, arrive à la présidence de l’association en 1979, c’est le début de la dérive. Greenpeace adopte des techniques managériales de plus en plus poussées : on investit dans la communication, on embauche des responsables non-militants mais au CV fourni, on vend des produits « écolos » pour faire grimper les recettes… Là encore, certains n’y trouveront rien à redire. Mais les associations militantes s’appuient généralement sur une organisation horizontale tandis que Greenpeace a délaissé ses adhérents au profit d’une organisation en pyramide qui profite à un pouvoir centralisé autour du bureau de Greenpeace International d’Amsterdam, ce dernier brassant des centaines de millions d’euros. Cette organisation a pour effet de « déposséder » les militants des luttes écologistes. La direction de l’association met en avant les groupes locaux via sa communication dans un « rite de valorisation publique de l’engagement bénévole » servant à « maintenir l’image d’une association proche des gens, ancrée sur le territoire et imbriquée dans les luttes sociales »[6].

A propos de luttes sociales, on s’amusera également de l’enrôlement de travailleurs précaires pour la récolte de dons. A ceux qui croyaient naïvement que les gens en k-way colorés qui les agressaient dans la rue, armés d’un sourire bien trop gros pour être vrai et d’un « Bonjouuuuuuuuur, vous connaissez Greenpeace ? », étaient des militants écolos purs et durs, il est impossible de se tromper plus. Ce ne sont ni plus ni moins que des étudiants sans le sous, intérimaires ou débauchés par des cabinets spécialisés dans la récolte de dons (si si, ça existe. Greenpeace n’y a pas recours car elle a internalisé cette fonction, mais le WWF par exemple n’hésite pas), payés au lance-pierre, formés aux techniques commerciales et avec des objectifs de signatures bien établis par leur hiérarchie. Pour un groupe censé contribuer à la définition du développement durable, alliance de politiques sociales et environnementales, c’est un peu limite. Pascal Husting, directeur de l’association de 2005 à 2011, se félicitait même d’avoir licencié des militants qui ne s’étaient pas adaptés à la professionnalisation et que « aucun recours devant le conseil des prud’hommes n’a été gagné ».[7]

En grattant un peu plus le vernis, on s’aperçoit donc que tout n’est pas tout rose, même pour des écologistes qui ne tirent par leurs revenus des entreprises. Dans Qui a tué l’écologie, Fabrice Nicolino délivrait sans doute la charge la plus violente contre les associations environnementales, tirant à vue sur tout ce qui bougeait. Alors que tout le monde ne voyait chez WWF que le gentil petit panda (en réalité affreusement agressif), peu se sont efforcés de remonter aux origines de l’association créée en 1961 « par des nobles britanniques dont la motivation était de pouvoir continuer à chasser le grand gibier sauvage en Afrique ». Son système de financement a été monté par Anton Rupert, multimillionnaire sud-africain membre de la Broederbond, club d’hommes riches et influents qui ont tout tenté pour laisser l’Afrique du Sud dans les méandres de l’apartheid.

Le passé est derrière nous ? Peut-être, à ceci près que « le WWF est si proche des intérêts des transnationales qu’elle a accepté de siéger dans des tables rondes avec les industries les pires de la planète pour créer des labels industriels soutenables, sur le soja, les biocarburants ou encore l’huile de palme ».[8]

De la légitimation économique à la légitimation politique. Le pas, franchi, du grenelle de l’environnement.

Au vu de tout ça, on ne s’étonnera guère de l’instrumentalisation politique des associations écologistes. Il y a bien sûr le badaud Hulot, que les hommes politiques français aiment à trimballer de photographe en photographe ; à tel point que dans la cour de l’Elysée, les gardes républicains ne s’étonneraient guère de voir atterrir un ULM ou une montgolfière made in Ushaïa nature. Mais l’œil avisé ne s’y laisse pas prendre ; alors le gouvernement Sarkozy a réuni toutes les associations « vertes » dans ce grand coup médiatique que fut le grenelle de l’environnement pour achever de convaincre les sceptiques. Les associations devenaient alors un faire-valoir écologique à des mesures pro-business. Agnès Sinaï expliquait dans le Monde diplomatique de novembre 2008 que « entre les propositions initiales et le texte final de la « loi d’accélération de la mutation environnementale » (sic) débattue au parlement, les ONG se sont vu confisquer le processus. Instrumentalisées au service d’un système de décision dans lequel elles n’auront pas le dernier mot, elles sont devenues les témoins passifs d’arbitrages technocratiques pris en réunions interministérielles par des hauts fonctionnaires et des acteurs économiques, pollueurs et bétonneurs d’hier et d’aujourd’hui ». Sauf qu’il est un peu trop facile de désigner les associations comme des victimes et non pas comme des complices avisés.

http://www.econov.eu/

Depuis le Millemium Ecosystem Assesment lancé par le Secrétaire général des Nations unies Kofi Annan en 2001, la sphère écologiste sait que les initiatives gouvernementales ne se structurent qu’autour du « business vert », considéré comme un moteur de croissance. Il est compréhensible que le grenelle de l’environnement aurait pu être, pour elles, un moyen de prêcher autre chose que cette fuite en avant; mais elles auraient dû voir que « ce montage ne sert en réalité qu’à accréditer et préparer des mesures de subventionnement du business ». Surtout que le gouvernement avait invité toutes les associations, sauf celles qui abordaient des thèmes polémiques (OGM, publicité, nucléaire, décroissance, nanotechnologies, toxicité chimique…) et étaient susceptibles de râler, aux côtés de syndicats ouvertement anti-écologie. Le débat était donc clos avant même d’avoir commencé et les marges de négociation des associations étaient nulles. Aucun intérêt de participer donc à une opération de communication délibérée et sans enjeux, si ce n’est gratter quelques subventions.

Comme le montrait le « Charity business : les dérives de l’humanitaire », les associations ne sont pas toutes les avocats altruistes d’une planète victime des déprédations du capitalisme qu’elles annoncent être et beaucoup, si ce n’est presque toutes, ont cédé aux sirènes du gain financier. L’associatif est devenu un business reposant sur les dons des particuliers mais également sur la vente d’une légitimité écologique perdue par les entreprises et les politiques : elles créent des labels verts pour la commercialisation de certains produits, affichent leurs sponsors contre des mécénats juteux, certifient des entreprises et participent à des actions gouvernementales pour décrocher des subventions. Ainsi, France nature environnement fonctionne à 65% sur des financements publics tandis que « Friends of the Earth est généreusement subventionnée par la Fondation Rockefeller (1.427.500 dollars de 1994 à 2001 et plus ensuite) et la Fondation Turner (425.000 dollars de 1996 à 2002) ».[9] Comment, dans ce cas, ne pas douter de l’indépendance et de la vocation purement écologiste de ces associations ?

 

Florian Tetu


[1] Le Greenwashing consiste à donner une image « verte » à quelque chose qui ne l’est pas ou, dans le cas des frères Koch, communiquer sur un déni de réalité écologique et climatique.

[2] Un temps appelés en France « laboratoires d’idées », les think tanks sont des instituts d’analyse qui ont pour but d’offrir des pistes de réflexion alternatives et d’influencer les gouvernants ainsi que les citoyens.

[7] Le Nouvel Economiste, 8 décembre 2010.

lire le billet