La nuit, la lumière dessine une carte inédite de l’humanité sur Terre

Image frappante prise par le satellite Suomi NPP de la NASA et de la NOAA (National Oceanic and Atmospheric Administration). On y distingue l’incroyable différence d’illumination entre la Corée du Sud et la Corée du Nord. Une série de photos et une vidéo ont été publiées le 5 décembre au cours du colloque annuel de l’American Geophysical Union. Leur beauté et les informations qu’elles nous apportent sur la place de l’homme sur Terre, tout comme sur les différences de “développement” entre les pays et les régions, n’ont guère besoin de commentaires.

Michel Alberganti

 

lire le billet

OGM : de l’impossible débat à un embryon de consensus

Même sans illusion, il fallait essayer… Après l’embrasement médiatique provoqué par la publication de l’expérience de Gilles-Eric Séralini, le 19 septembre 2012, les avis donnés par les agences de sécurité sanitaire et les prises de position des académies, comme celles de multiples pétitionnaires, comment ne pas tenter une confrontation ? Rassembler les protagonistes sur un même plateau pour un débat sur France Culture, ce n’était que la suite logique de deux mois d’affrontements indirects.

Le résultat, vendredi 16 novembre entre 14 et 15 heures dans Science Publique, n’a pas dérogé à la règle qui prédomine, en France, depuis la conférence de citoyens sur “l’utilisation des OGM dans l’agriculture et l’alimentation”, précédée par le rapport de Jean-Yves Le Déaut, qui date de… juin 1998. Ni le “débat public sur les OGM” de l’an 2000, ni le débat public sur “les OGM et les essais en champ” de 2002, n’ont changé la donne. Un dialogue dépassionné reste impossible. Pourtant, et l’émission d’aujourd’hui le confirme, une porte de sortie par le haut existe. Mais aucun des deux camps n’est prêt à faire les concessions nécessaires pour la franchir sereinement. Pour cela, il faudrait réunir trois conditions.

1°/ Tirer des leçons positives de l’expérience Séralini

Rationnellement, il est difficile d’admettre que les tumeurs révélées par l’expérience sur des rats pendant 2 ans menée par Gilles-Eric Séralini soient une preuve scientifiquement indiscutable de la dangerosité pour la santé humaine de l’OGM NK603 et du Roundup de Monsanto. Néanmoins, l’opération médiatique réalisée par le biologiste, malgré le regrettable dérapage du Nouvel Observateur titrant “Oui, les OGM sont des poisons”, est une réussite. Incontestable elle. Avec le CRIIGEN et un budget de 3,2 millions d’euros, Gilles-Eric Séralini a atteint ce qui, à l’évidence, était son principal objectif : révéler les failles des procédures actuelles d’évaluation des OGM. Celles-ci sont, au moins, au nombre de trois :
–  Pas d’essais à long terme (2 ans, soit la vie entière des rats)
–  Pas d’indépendance des laboratoires réalisant les essais limités à 90 jours
–  Pas de transparence dans la publication des résultats de ces essais

2°/ Admettre les erreurs du passé

Qu’il s’agisse de la Commission du génie biomoléculaire CGB), créée en 1986, de l’Agence Française de Sécurité Sanitaire des Aliments (AFSSA), créée en 1999, de l’Autorité européenne de sécurité des aliments (EFSA) créée en 2002 ou de l’Agence nationale chargée de la sécurité sanitaire de l’alimentation, de l’environnement du travail (Anses), créée en 2010 par la fusion de l’AFSSA et de l’AFSSET, aucun de ces multiples organismes n’est parvenu à imposer des règles palliant ces trois défauts.

Les acteurs d’aujourd’hui, Gilles-Eric Séralini ou de Gérard Pascal, ancien directeur scientifique de l’INRA, ont contribué aux travaux de ces plusieurs de ces institutions. Des débats houleux s’y sont déroulés. Mais ils n’ont jamais abouti à l’établissement de normes d’essais satisfaisantes. D’un coté, parfois, leurs avis ont été balayés pour des raisons politiques. L’influence des partis écologistes a conduit à des interdictions d’OGM en France contre l’avis de la CGB, par exemple. De l’autre, l’influence des industriels, Monsanto en tête, même si elle est beaucoup moins apparente, n’en est pas moins certaine.

D’où un blocage total qui a conduit à la situation actuelle. Les scientifiques luttent contre le rejet irrationnel des écologistes qui les poussent à avoir tendance à minimiser les risques. Les opposants aux OGM exploitent cette tendance pour démontrer que les experts ne sont pas indépendants et qu’ils agissent pour le compte des industriels. Chacun s’enferme dans une position caricaturale. Les attaques personnelles fusent et bloquent la possibilité d’un débat serein et rationnel. Toute remise en cause des procédures se traduit par une accusation ad hominem.

3°/ Établir de nouvelles procédures d’évaluation des OGM

Dès le 19 septembre, dans la précipitation qui a suivi la publication de l’expérience Séralini, trois ministères (écologie, santé, agriculture) ont fait la déclaration suivante : “ Le Gouvernement demande aux autorités européennes de renforcer dans les meilleurs délais et de façon significative l’évaluation des risques sanitaires et environnementaux”. Si elle a pu sembler bien prématurée ce jour là et si l’avis de l’ANSES a invalidé, ensuite, l’expérience Séralini, cette réaction apparaît aujourd’hui comme, paradoxalement,  judicieuse mais insuffisante.

Judicieuse parce que les différentes conclusions de l’affaire, dans les deux camps, convergent effectivement vers une remise en cause de l’évaluation des OGM. Insuffisante parce que l’amélioration qui apparaît indispensable doit être nettement plus que significative. Radicale serait un terme plus juste. De plus, les autorités européennes ne sont pas seules concernées. La France l’est aussi. Et elle pourrait même jouer un rôle moteur dans cette révision en profondeur de l’évaluation des OGM.

Un consensus apparaît

Ce n’est pas le moindre des résultats de l”affaire Séralini que de faire poindre un consensus entre les deux camps. Qu’il s’agisse de l’Anses dans son avis sur l’expérience, du HCB ou d’une personnalité comme Gérard Pascal, tout le monde admet que l’absence d’études à long terme probante n’est pas acceptable. Les hommes consomment des OGM pendant toute leur vie. Pourquoi les expériences sur les rats se limiteraient à trois mois, soit le huitième de leur durée de vie ?

Si un accord existe sur ce point,  il reste à établir des procédures permettant d’apporter une réponse à la question, tout en garantissant l’indépendance des études. L’Anses semble l’organisme le mieux placé pour prendre en charge ces études. Il dispose des laboratoires nécessaires. Il ne lui manque que le financement. Or, la règle actuelle veut que ce soient les industriels qui financent ces études. Aujourd’hui, ce sont eux qui pilotent les expériences et choisissent soit de les réaliser dans leurs propres laboratoires, soit de les confier à des laboratoires privés. Il suffit donc que les industriels donnent ce même argent à l’Anses… Cela paraît presque trop simple. En fait, une difficulté subsiste.

Combien d’évaluations sont nécessaires ?

L’étude de Gilles-Eric Séralini a coûté 3,2 millions d’euros. Pour qu’elle soit scientifiquement recevable, il aurait fallu multiplier le nombre de rats par 5, voire par 7 ou 8. Cela porterait le coût de l’étude à environ 10 millions d’euros. Le résultat permettrait d’évaluer l’impact d’une variété de mais transgénique, le NK603, et d’un insecticide, le Roundup. Mais il existe des dizaines de variétés de plantes génétiquement modifiées. Faut-il les évaluer toutes de la même façon ? Certaines études sur une variété donnent-elles des informations valables sur les autres ? Comment réduire le coût de ces études à des sommes acceptables ? C’est la question que posent certains scientifiques plutôt pro-OGM. Et ce sont aux scientifiques d’apporter une réponse.

Cette interrogation sur la viabilité économique des études d’évaluation des OGM ne concerne néanmoins pas la société elle-même. Ce n’est un problème que pour ceux qui devront financer les études, c’est à dire les industriels… Si le financement des études déclarées nécessaires par les scientifiques s’avère trop élevé pour que les OGM restent économiquement rentables, cela signifiera simplement que ces produits sont inadaptés à la commercialisation.

Avons-nous vraiment besoin des OGM ?

Dans les coulisses de Science Publique, après l’émission, l’un des invités admettait que l’intérêt des OGM pour la société n’est pas clairement établi. Les perspectives affichées par les semenciers telles que la culture sous des climats difficiles, avec des quantités d’eau réduite ou de mauvaise qualité (saumâtres) sont restées à l’état de… perspectives et de promesses pour le futur. Idem pour le discours sur le fait de pouvoir nourrir 9 milliards d’habitants. Pour l’instant, les OGM rapportent… de l’argent aux industriels. C’est la seule certitude. Les gains sur les rendements et sur l’économie des exploitations agricoles sont largement contestés.

Ainsi, aujourd’hui, la réponse à la question simple : Avons-nous vraiment besoin des OGM ? est clairement : Non, pas vraiment.  Pour les accepter, le moins que l’on puisse attendre est d’obtenir une raisonnable certitude de leur absence d’effets néfastes sur la santé humaine. Si l’établissement de cette preuve revient trop cher, tant pis. Nous nous passerons des OGM. Et le débat sera, enfin, clôt.

Michel Alberganti

(Ré)écoutez l’émission Science Publique que j’ai animée le 16 novembre 2012 sur France Culture :

Faut-il considérer les OGM comme des poisons ?16.11.2012 – Science publique
Faut-il considérer les OGM comme des poisons ?
57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

Après la publication par le Nouvel Observateur d’un titre alarmiste le 19 septembre, l’étude réalisée par Gilles Eric Séralini  sur des rats alimentés avec des OGM et de l’insecticide a fait grand bruit. Finalement, les experts ont invalidé ces résultats. Mais le doute est désormais jeté sur l’ensemble des études réalisées sur les OGM. Comment la science sort de cette manipulation ? …
Invités :
Gérard Pascal
, ancien directeur scientifique à l’INRA et expert en sécurité sanitaire des aliments à l’OMS
Jean-Christophe Pagès
, professeur et praticien hospitalier à la Faculté de médecine de Tours et président du comité scientifique du Haut Conseil des Biotechnologies
Gilles-Eric Séralini
, professeur de Biologie Moléculaire Université de Caen – Laboratoire de Biochimie et Biologie Moléculaire
Joël Spiroux de Vendomois, président du Comité de Recherche et d’Information Indépendant sur le Génie Génétique, le CRIIGEN

 

 

lire le billet

Comment Nate Silver a pu prédire à 92% l’élection de Barak Obama

Six jours avant les élections présidentielles américaines du 6 novembre 2012, les sondages donnaient les deux candidats à égalité. Le jour même de l’élection, ils enregistraient un écart de 0,7% en faveur de Barak Obama sur Mitt Romney. Dans le monde entier, le suspense est alors à son comble. On craint une élection  très serrée, comme en 2004 entre Georges W Bush et John Kerry ou sujr le fil du rasoir, comme en 2000 entre Georges W. Bush et Al Gore.  Pourtant, ce même jour, un “vulgaire” blogueur américain, Nate Silver, 34 ans, donne Barak Obama vainqueur à 92%…

Sur son blog, FiveThirtyEight, il se paye même le luxe d’enregistrer 100% de bonnes prédictions concernant les résultats Etat par Etat, Floride comprise alors que le décompte final n’a été connu qu’aujourd’hui, 10 novembre. Nate Silver, lui, donnait 50,3% de chance de victoire à Barak Obama. Ce dernier l’a finalement emporté avec 50% des voix contre 49,1% à Mitt Romney. Dans tous les Etats, le blogueur a vu juste. Quant au nombre de votes électoraux obtenus par chaque candidat, il avait prédit 313 pour Barak Obama et 225 pour Mitt Romney pour un résultat réel de 332 contre 206. Comment Nate Silver peut-il renvoyer ainsi les analystes politiques et les spécialistes des sondages à la préhistoire ?

Le révérend Thomas Bayes

La solution ne doit rien à la magie. Comme le révèle Christian Robert, professeur au Centre de recherche en mathématiques de la décision de l’université Paris-Dauphine, dans l’émission Science Publique du 9 novembre 2012 que j’ai animée sur France Culture, Nate Silver utilise la démarche logique dénommée “inférence bayésienne“… La dernière technique issue des mathématiques de pointe en matière de probabilités ? Pas vraiment… Cette démarche est fondée sur le théorème de Bayes, que l’on doit du révérend Thomas Bayes et qui date de… 1763.

Nate Silver- Election Obama – Théorème de Bayes – Science Publique 9 novembre 2012 by Michel Alberganti

Il y a 249 ans…

L’histoire de Thomas Bayes (prononcer Beillesse) n’est guère banale. Né aux environ de 1702 à Londres, il devient pasteur de l’Eglise presbytérienne. Considéré comme un mathématicien britannique, il n’a pourtant publié que deux articles de son vivant. Et encore… Le premier concerne la bienveillance divine… Son fameux théorème est publié en 1763, soit deux ans après sa mort, par la vénérable Académie royale de Londres sous le titre: Essai sur la manière de résoudre un problème dans la doctrine des risques. C’est un ami de Thomas Bayes, Richard Price, qui adresse le texte de 20 pages à l’Académie royale le 10 novembre 1763, il y a exactement 249 ans. Un texte bourré de formules mathématiques qui ne peuvent qu’étonner sous la plume d’un pasteur. Certes, les bases des probabilités modernes ont été établies un siècle auparavant par Fermat et Pascal (1654). Mais c’est bien à Thomas Bayes que l’on attribue l’origine du développement des statistiques. De peu, car dès 1774, un Français, le célèbre Pierre-Simon Laplace réinvente le théorème de Bayes. Avait-il eu connaissance de la publication de ce dernier ? Il semble que personne, aujourd’hui, ne puisse trancher la question. Un temps, le théorème a été baptisé Bayes-Laplace mais il semble que les anglophones aient définitivement imposé Bayes tout court.

Il est remarquable qu’une formule aussi simple soit capable de donner des résultats aussi impressionnants, depuis aussi longtemps. Elle reste pourtant largement méconnue du grand public. Dans le cercle des mathématiciens, elle a donné lieu à des débats violents au point de marginaliser, pendant une bonne partie du 20ème siècle, les bayésiens. Cette approche serait pourtant à l’origine du craquage du code de la machine Enigma pendant la seconde guerre mondiale. Aujourd’hui, ses applications sont extrêmement diverses, comme le mentionne le dernier numéro de la revue Science et vie. Au point de se demander pourquoi elle n’est pas ouvertement exploitée par les instituts de sondage. La réponse est peut-être purement économique. Le maintien d’un suspense intense stimule la demande de nouveaux sondages. Avec Bayes, les jeux seraient sans doute fait plus vite. D’où un considérable manque à gagner. Gageons que la célébrité croissante de Nate Silver doit sérieusement inquiéter ces instituts…

Michel Alberganti

(Ré) écoutez l’émission Science Publique du 9 novembre que j’ai animée sur France Culture :

Mathématiques

09.11.2012 – Science publique
Une formule mathématique universelle existe-t-elle ? 57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

Une formule, publiée en 1763, peu après la mort de son auteur, le pasteur Thomas Bayes, est utilisée de plus en plus aujourd’hui dans pratiquement tous les domaines de la science. Pourquoi un tel succès ? Invités: Pierre Bessière, Christian Robert et Dirk Zerwas,avec notre partenaire, Science et Vie.

lire le billet

L’agriculture peut tirer profit de la biodiversité au lieu de la détruire

Rio+20, le dernier sommet de la Terre qui s’est tenu à Rio de Janeiro du 20 au 22 juin 2012 n’a pas dérogé à la règle qui semble être devenue la marque des grands rassemblements de chefs d’Etat et de gouvernement (130 à Rio) autour des questions d’écologie ou de climat : la déception. Cette fois, au moins, les débats n’ont pas traîné en longueur comme lors de la conférence de Durban, en décembre 2011. Le document final avait été rédigé avant même l’arrivée des « décideurs ». Sage stratégie. Maigre résultat. A lire ce texte de 60 pages, on a souvent l’impression qu’il concerne le sommet de Rio de 1992 et non celui de 2012. On peut y lire, par exemple, au sujet de la biodiversité : « Nous sommes conscients de la gravité de la perte de la biodiversité et de la dégradation des écosystèmes qui entravent le développement mondial, compromettant la sécurité alimentaire et la nutrition, l’accès à l’eau et son approvisionnement ainsi que la santé des pauvres des zones rurales et des populations dans le monde, y compris pour les générations présentes et futures ».

20 ans de prise de conscience

On aurait pu penser, sans doute naïvement, que, 20 ans après, les décideurs avaient dépassé le stade de la prise de conscience et se trouvaient en pleine action. A elle seule, cette phrase résume le paradoxe de ce décalage. Elle énumère en effet une série de conséquences de la perte de biodiversité sur la planète qui se révèlent encore plus graves que celles du réchauffement climatique. Pourtant, pas plus que dans ce domaine, l’heure n’est guère aux décisions contraignantes. Plus loin, le texte annonce : Nous « lançons un appel en faveur de mesures urgentes qui réduisent sensiblement le taux de perte de biodiversité, mettent fin à ce processus et permettent de l’inverser ».Face à ce qui est présenté comme une véritable catastrophe, les décideurs, 20 ans après le Sommet de Rio et la Convention sur la biodiversité signée alors, lancent un appel…

Sur le modèle du GIEC pour le climat

Cela signifie-t-il qu’il ne s’est rien passé en deux décennies et que la question de la biodiversité souffre d’un attentisme plus profond encore que celle du réchauffement climatique ? Oui et non. Oui parce que la création d’une structure comparable à celle du GIEC pour le climat ne date que du 21 avril 2012. Elle est malheureusement affublée d’un nom peu ragoutant : IPBES, pour Intergovernmental Platform on Biodiversity and Ecosystem Services, dénomination qui n’a, semble-t-il, pas encore été traduite en français… Lors de sa création, Robert Watson, conseiller scientifique du ministère de l’environnement du Royaume Uni, s’est exclamé : « Aujourd’hui, la biodiversité a gagné ! » Sans forcément céder à cet enthousiasme, il est néanmoins possible de dégager quelques points positifs dans l’évolution de la prise en compte de la biodiversité au cours des 20 dernières années :

1°/ La sensiblerie au placard

Bonne nouvelle pour ceux qui ne pouvaient plus voir en photo l’ours blanc à la dérive sur son bloc de glace. Ou celles du panda suggérant la privation programmée de toutes peluches pour les bambins des futures générations. La corde de la sensiblerie semble définitivement usée et remisée au rayon des accessoires hors sujet. Compter sur la larme à l’œil de la population n’a pas donné les résultats escomptés et, surtout, elle a totalement échoué sur le plan pédagogique. Le problème de la perte de la biodiversité ne se résume pas à la protection de quelques espèces, certes sympathiques, mais dont la disparition ne bouleversera pas le mode vie de l’humanité. Or, même si l’on peut souvent s’en désoler, la grande majorité des êtres humains n’est sensible qu’aux problèmes susceptibles de le toucher directement. C’est-à-dire d’affecter sa santé, son confort, son travail ou l’avenir de ses enfants.

2°/ L’impact négatif sur l’homme

Justement, la perte de biodiversité n’est plus considérée comme une simple douleur pour les amoureux de la nature ou une perte d’outil de travail pour les biologistes. La notion de services fournis par les écosystèmes désigne les apports à l’homme par certains équilibres naturels. Un exemple : la destruction massive des requins par la surpêche engendre une prolifération de certaines espèces qui ont perdu leur prédateur. C’est le cas des raies. Or, ces dernières se nourrissent de coquillages comme les coquilles Saint-Jacques qui constituent l’une des principales ressources économiques pour les populations côtières. Ainsi, un déséquilibre provoqué par l’homme entraîne directement un phénomène nuisible pour l’homme. La leçon est claire : ce sont les requins qui garantissaient la récolte des coquillages. Avant même la disparition d’une espèce, une réduction importante de ses effectifs peut ainsi avoir des conséquences néfastes sur l’industrie humaine. On pense également aux abeilles dont le travail de pollinisation est estimé en dizaines de milliards de dollars. Déjà, leur raréfaction induit des coûts importants de transport et de location des ruches pour pallier l’absence d’abeilles locales. Là encore, avant même leur éventuelle disparition, la forte mortalité des abeilles, désormais attribuée à un cocktail de doses subléthales d’insecticides, coûte très cher aux cultivateurs d’arbres fruitiers.

3°/La possibilité d’une agriculture écologiquement  intensive

Un tel constat de l’impact négatif sur l’activité humaine des déséquilibres écologiques engendrés par cette même activité conduit naturellement à s’interroger. La guerre que mène actuellement l’agriculture contre l’environnement, à coup d’engrais chimiques et de pesticides, est-elle la solution optimale ? Non pas pour préserver la nature mais bien pour en tirer le meilleur profit ? Une telle question prend à contre-pied les militants de la décroissance pour lesquels la protection de la nature passe pas l’abandon de la culture intensive. Or, la démographie galopante des pays émergents rend fortement improbable de parvenir à nourrir la planète sans, au contraire, augmenter la productivité de l’agriculture dont les surfaces cultivables sont passablement réduite par les productions destinées aux biocarburants. Que faire ? Augmenter encore les fameux intrants, engrais et pesticides ? Recourir aux OGM ? Ou bien faire appel au concept qui se développe depuis quelques années : l’agriculture écologiquement intensive. L’idée fait son chemin comme en témoigne, par exemple, la tribune publiée dans Slate Afrique par Bernard Giraud, président de Livelihoods Venture près Rio+20. De quoi s’agit-il ?

Subvenir à des besoins alimentaires croissants

Dès 1999, Kenneth Cassman, professeur d’agronomie à l’université du Nebraska-Lincoln, plaidait pour une « intensification écologique des systèmes de production de céréales », dans un article publié dans les Proceedings of the National Academy of Science (PNAS) des Etats-Unis. Sa thèse n’a rien à voir avec un quelconque retour à la bougie ou au troc du tracteur pour les bœufs. Il s’agit de trouver des solutions agronomiques pour subvenir aux besoins croissants de la population du globe dans un contexte de surfaces cultivables limitées. L’article de Kenneth Cassman concluait :

« La sécurité alimentaire des 30 années à venir dépendra de rapides avancées scientifiques dans la compréhension des bases physiologiques du potentiel de rendement des récoltes, des relations entre la qualité des sols et la productivité des récoltes, de l’écologie des végétaux en relation avec les nombreux facteurs d’interaction avec l’environnement qui détermine les rendements. Atteindre ces objectifs scientifiques est possible, mais les actuels niveaux d’investissement dans ces domaines de recherche, aux Etats-Unis ou ailleurs,  ne sont pas adaptés pour relever ce défi ».

Au-delà de la révolution verte

En d’autres termes, l’ère de l’agriculture intensive issue de la révolution verte ne sera pas capable de subvenir aux besoins alimentaires des prochaines décennies. Les gains de rendement nécessaires ne peuvent passer que par la prise en compte de facteurs écologiques. De fait, les rendements de la culture du blé stagnent depuis 1999, selon les chiffres de la FAO. Le nouveau chantier vise donc à réconcilier l’agriculture avec l’écologie, non pas pour seulement préserver la nature mais, aussi, pour améliorer l’efficacité des cultures. Nous entrerions alors dans une période d’études des mécanismes intimes de la croissance des végétaux.

De quoi donner une tout autre signification à la démarche écologique. Au lieu d’opposer systématiquement l’homme à la nature, il s’agirait d’optimiser les relations entre les deux « camps ». Les bénéfices attendus par l’humanité pourraient bien alors se révéler compatibles avec ceux des équilibres écologiques. La biodiversité ne serait plus uniquement considérée sous l’angle des agressions à combattre mais sous celui des apports mutuels des espèces entre elles. Un rêve ?…

Michel Alberganti

Sur ce thème, vous pouvez (ré)écouter l’émission sur j’ai animée sur France Culture le 22 juin 2012 : Rio+20 : La perte de biodiversité est-elle une perte pour l’homme ?

Regardez egalement cette vidéo très didactique sur les impacts de la biodiversité sur l’homme:

lire le billet

L’obésité pèse lourd sur la biomasse de l’humanité adulte

Sur les plus de 7 milliards d’individus de la population mondiale, le poids des adultes atteindrait 287 millions de tonnes, selon les chercheurs de la London School of Hygiene and Tropical Medicine. Sur ce chiffre, le surpoids représenterait 15 millions de tonnes et l’obésité 3,5 millions de tonnes. L’étude publiée dans le journal BMC Public Health est motivée par le fait que les besoins en nourriture de la population humaine dépendent non seulement du nombre d’individus vivant sur Terre mais également de leur poids. Ainsi, alors que la masse corporelle moyenne est de 62 kg sur le globe, elle atteint 80,7 kg en Amérique du Nord. Cette région, qui compte 6% de la population mondiale représente 34% de la biomasse due à l’obésité. Avec 61% de la population mondiale, l’Asie, elle, ne contribue qu’à 13% de cette biomasse due à l’obésité.

935 millions d’habitants de plus

Si tous les pays avaient le même indice de masse corporelle (IMB) que celui des Etats-Unis, la biomasse humaine mondiale totale augmenterait de 58 millions de tonnes, soit l’équivalent de 935 millions d’habitants ayant une masse corporelle moyenne. “Nos résultats mettent l’accent sur l’importance de considérer la biomasse et non seulement la population mondiale lorsque l’on étudie l’impact écologique d’une espèce, en particulier celle des hommes“, note  Sarah Walpole, l’une des auteures de l’étude. Son collègue Ian Roberts ajoute que “tout le monde reconnaît que la croissance de la population humaine menace l’équilibre écologique mondial et notre étude montre que l’embonpoint est également un problème majeur. A moins de traiter les deux questions, nos chances sont minces”.

L’étude des chercheurs de la London School of Hygiene and Tropical Medicine est basée sur des chiffres des Nations Unies et de la World Health Organization (WHO) datant de 2005. Ce qui introduit une sous-estimation de la masse mondiale du fait de l’augmentation de l’obésité au cours des dernières années. Les Nations Unies indiquent que la population mondiale atteindra 8,9 milliards de personnes en 2050.

Un corps lourd consomme plus d’énergie

Les chercheurs soulignent que l’activité physique brule la moitié de l’énergie fournie par la nourriture ingérée. La croissance de la masse corporelle induit une augmentation des besoins énergétiques car la mise en mouvement d’un corps plus lourd requiert plus d’énergie. Même au repos, un corps plus lourd consomme plus.

Il apparaît ainsi que l’obésité n’est pas seulement un problème de santé publique. Elle a également un impact direct sur les besoin de l’humanité en termes de ressources agricoles, entre autres. Le développement des pays émergents comme la Chine et l’Inde risque fort d’aggraver encore la situation créée en grande partie par les États-Unis. A moins que la raréfaction de la nourriture n’apporte une solution naturelle au phénomène. La question est de savoir si cela fera maigrir la population des pays riches ou mourir de faim celle des pays pauvres.

Michel Alberganti

lire le billet

Un torrent de lait… jeté dans l’évier

“No milk today”, le célèbre tube des Herman’s Hermits de… 1966, outre le plaisir inusable qu’il procure encore aujourd’hui, retrouve une forme d’actualité grâce à l’étude publiée par David Reay, professeur à l’université d’Edimbourg, dans la revue Nature Climate Change du 13 mai 2012. Consacrée aux émissions de dioxyde d’azote (NO2) par l’agriculture, la publication révèle quelques chiffres édifiants.

Les rejets annuels de 20 000 automobiles

D’après David Reay, les Anglais jetteraient dans leurs éviers pas moins de 360 000 tonnes de lait par an. Soit l’équivalent de 100 000 tonnes de CO2 émis dans l’atmosphère au cours des différentes étapes de la production de ce lait gaspillé. Cela équivaut aux rejets annuels de 20 000 automobiles… Pour les auteurs de l’étude, qui comprennent également des chercheurs de l’université d’Aberdeen et des partenaires en Europe et aux Etats-Unis, notre façon de consommer, en particulier lorsqu’il s’agit de nourriture, contribue significativement aux émissions de CO2 responsables du renforcement de l’effet de serre qui fait monter la température du globe. Pour les scientifiques, les consommateurs pourraient agir sur ces émissions en réduisant la quantité de nourriture qu’ils achètent, qu’ils mangent et qu’ils jettent. L’industrie agroalimentaire, de son coté, pourrait jouer également un rôle positif en utilisant les engrais de manière plus efficace.

Diviser par deux la consommation de poulets

Après le lait, le poulet… Les chercheurs estiment que la division par deux du nombre de poulets mangés en Grande-Bretagne et dans les autres pays développés serait équivalente au retrait de la circulation de 10 millions de voitures. Et ce n’est pas inconcevable si l’on considère l’exemple des Japonais. Ces derniers consomment chacun 12 kg de poulet par an. Contre 26 kg par an pour chaque habitant des pays développés. En les mettant ce dernier au régime nippon d’ici 2020, les émissions mondiales dues à l’élevage de la volaille tomberaient en dessous de leur niveau actuel malgré la croissance économique. Au total, les émissions de NO2 chuteraient de 20%.

Manger moins de viande, gaspiller moins de nourriture

En fait, la consommation de viande devrait plutôt augmenter dans les prochaines années du fait de la progression démographique et de l’impact des pays émergents dont les habitants s’y adonnent de plus en plus. Or, l’agriculture est la principale source de NO2. Produire de la viande en émet plus que la simple culture consommée directement du fait des quantités considérables de céréales qui servent à nourrir le bétail. D’où la conclusion de David Reay: “Manger moins de viande et gaspiller moins de nourriture peut jouer un grand rôle dans la maîtrise des émissions de gaz à effet de serre face à la croissance de la population mondiale”. Commençons tout de suite: pas de lait aujourd’hui !

Michel Alberganti

 

lire le billet

Les villes tentaculaires…

Plan d'urbanisme de Shanghai en 2006

Émile Verhaeren s’en émouvait déjà en 1895. Boris Vian s’en moquait 50 ans plus tard. Que diront les poètes du 21ème siècle de ces villes qui ne cessent de devenir plus tentaculaires ? Il y a un siècle, on comptait 20 cités de plus d’un million d’habitants dans le monde. Elles sont aujourd’hui 450…

1 million d’habitants de plus par semaine

Lors de  la conférence “Une planète sous pression” qui se tient à Londres du 26 au 29 mars 2012 et rassemble quelque 3000 participants, les experts en urbanisme estiment que, au rythme actuel, les villes occuperont 1,5 million de km2 de plus qu’aujourd’hui… dans 20 ans seulement. Ainsi, vers 2030, les zones urbaines se seront agrandies d’une surface égale à celle que couvrent la France, l’Allemagne et l’Espagne réunies. D’après les Nations Unies, la population du globe devrait passer des 7 milliards qu’elle vient de franchir à 9 milliards en 2050. Ce qui signifie une progression de 1 million d’habitants par semaine au cours de 38 prochaines années… Et la majeure partie de cette croissance se focalisera sur les centres urbains. Par ailleurs, la migration des campagnes vers les villes se poursuivra et concernera 1 milliard d’individus. La population urbaine pourrait ainsi passer de 3,5 milliards aujourd’hui à 6,3 milliards en 2050, soit 70% des habitants de la planète contre 58% actuellement.

La ville de Los Angeles vue par satellite

Une telle perspective offre des opportunités considérables aux urbanistes. Surtout s’il s’agit de maîtriser cette explosion en lui conférant un caractère “durable”. C’est l’objectif de Shobhakar Dhakal, directeur du Global Carbon Project implanté à Tokyo. “La ré-ingénierie des villes est un besoin urgent pour garantir la durabilité de la planète. Les nouvelles citées ont l’avantage des derniers arrivants en termes de connaissances, de prise en compte de l’écologie et de technologies pour prendre en charge des questions fondamentales comme celles des ordures et du transport”, a-t-il déclaré.

Les villes émettent 70% du CO2

Un meilleur urbanisme doit également viser une réduction des gaz à effet de serre émis par les villes, responsables de 70% des rejets de CO2 dans l’atmosphère. Les zones urbaines ont ainsi produit 15 milliards de tonnes de CO2 en 1990 et 25 en 2010. Elles pourraient en émettre 36,5 milliards de tonnes en 2030. Ce qui n’aidera pas à limiter le réchauffement climatique d’ici la fin du siècle. Loin de prôner la décroissance ou le recours massif au cyclisme, les experts misent sur la technologie moderne pour améliorer l’efficacité énergétique des mégapoles. Ils estiment que les embouteillages coûtent de 1 à 3% du produit intérieur brut.

La high-tech à la rescousse

Au delà de la consommation de pétrole et de la pollution engendrée par les bouchons, le temps perdu est évalué à 4,2 milliards d’heures pour les seuls Etats-Unis en 2005. Les embouteillages coûteraient ainsi pas moins de 4 milliards de dollars par an à la ville de New York. D’où l’extrême rentabilité de tous les systèmes de guidage faisant appel à l’intelligence artificielle, l’Internet des objets (badges RFID), les voitures interconnectés, les systèmes de conduite automatiques… La haute technologie doit également améliorer la santé en ville, la qualité de la vie urbaine, la lutte contre le crime… La ville tentaculaire va donc devoir devenir ultra-sophistiquée pour éviter de ressembler à un enfer d’ici quelques décennies.

Michel Alberganti

lire le billet

3,7 millions d’Américains risquent l’inondation d’ici 2100

Elévation moyenne du niveau des marées hautes en 2100

 

 

 

 

 

 

 

 

 

 

 

 

 

 

L’une des conséquences du réchauffement climatique sera une montée du niveau des mers en raison de la fonte des glaces aux pôles et de la dilatation de l’eau en fonction de la température. On a souvent parlé des zones les plus menacées par ce phénomène, qu’ils s’agissent des îles du pacifiques, d’estuaires de grands fleuves ou de pays comme la Hollande. Mais les auteurs d’une étude publiée le 14 mars dans les Environmental Research Letters se sont penchés sur le cas des Etats-Unis, pays qui compte parmi les plus réticents face aux mesures de limitation des émissions de CO2 dans l’atmosphère. Les chercheurs de l’université d’Arizona ont découvert que pas moins de 3,7 millions d’Américains sont menacés par des inondations à marée haute dans le cas où le niveau de la mer monterait d’un mètre d’ici 2100. Près de 32 000 km2 de terre, soit environ la taille d’un Etat tel que le Maryland, se situent à moins d’un mètre au dessus du niveau le plus haut atteint par les marées actuelles. Ces 3,7 millions d’Américains concernés par les inondations en 2100 représentent 1,2% de la population du pays. Et 89% d’entre eux se trouvent dans 5 Etats: Floride, Louisiane, Californie, New York et New Jersey. Dans 544 municipalités situées dans 32 contés, plus de 10% de la population vit à moins d’un mètre au dessus du  niveau atteint par les grandes marées. Certes, ces populations ne se retrouveront sous l’eau en permanence mais elles risqueront un inondation lors de chaque grande marée d’ici 2100. Une autre carte montre la répartition géographique des populations concernées aux Etats-Unis :

Populations vivant à moins d'un mètre au dessus du niveau maximal atteint aujourd'hui par les marées hautes.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Michel Alberganti

lire le billet

Mort : les alternatives à l’inhumation et à la crémation

Cette veille de Toussaint et avant-veille du jour des Morts est l’occasion ou jamais, pour un blog qui traite de science et d’environnement, d’évoquer l’empreinte écologique des trépassés et les manières de la réduire. Car un disparu ne l’est jamais complètement. Son enveloppe corporelle subsiste et il est en général convenable de s’en occuper. Simplement, les deux techniques les plus usuelles dans le monde pour “évacuer” le corps du défunt, l’inhumation et la crémation, sont, à cause de l’inflation démographique mondiale, de moins en moins “planéto-compatibles”. La première en raison du manque de place dans les cimetières, car les vivants occupent de plus en plus d’espace au détriment des morts. La seconde parce que brûler des cadavres, en ces temps de raréfaction des hydrocarbures et de déforestation, consomme des ressources énergétiques que l’homme utiliserait volontiers à autre chose, sans compter les émissions de gaz à effet de serre induites. Ainsi, en Inde, le rituel de la crémation brûle entre 50 et 60 millions d’arbres chaque année et envoie 8 millions de tonnes de CO2 dans l’atmosphère. Autre problème de l’incinération, le relargage dans l’environnement de produits toxiques, dont le plus commun est le mercure contenu dans les amalgames dentaires.

Pour tenter de réduire l’empreinte écologique des morts, il n’est pas question de revenir à la momification, même si l’expérience vient d’être récemment tentée sur la dépouille d’un chauffeur de taxi britannique, mais plutôt d’utiliser deux technologies qui redonnent du sens à ce très célèbre extrait de la Bible : “Car tu es poussière et tu retourneras à la poussière.” Le premier de ces deux moyens inventés pour rendre les corps à la terre porte le nom d’aquamation mais les chimistes lui préfèreront celui d’hydrolyse alcaline. L’idée consiste à immerger le corps dans une eau très chaude contenant une base forte, ce qui va entraîner la dissolution des chairs en moins de trois heures. Il ne subsistera plus que des restes osseux, qui seront ensuite broyés et rendus aux familles, comme les cendres récupérées après une crémation. Plus efficace que les bains d’acide auxquels la Mafia s’est parfois adonnée pour faire disparaître des amis encombrants. On peut voir le fonctionnement des premières machines à aquamation dans la vidéo ci-dessous (en anglais).

 

L’aquamation nécessite sept à dix fois moins d’énergie qu’une incinération et produit également moins de gaz à effet de serre. Les métaux présents dans le corps (plombages, broches, prothèses, etc.) sont rétrouvés intacts et les fluides récupérés au terme de l’opération, stérilisés, vont directement dans le tout-à-l’égout. Evidemment, l’idée d’expédier cette soupe brune que furent les chairs d’un homme ou d’une femme dans les égouts de la ville en a fait hurler quelques-uns, sous prétexte qu’il s’agissait d’un manque de considération pour les défunts. Il faudra tout de même que ces mêmes personnes nous expliquent en quoi donner un corps à manger aux asticots est plus respectueux. Tout ce qui compte, c’est que d’affreux industriels de l’agro-alimentaire ou de la pharmacie ne mettent pas la main sur ces résidus pour en faire de la nourriture, à l’instar de ce qui se passe dans le film Soleil vert, de Richard Fleischer.

La seconde technique pour transformer les cadavres en poussière fait tout autant appel à la science. Inventée par une biologiste suédoise, elle porte le nom de promession et consiste tout d’abord à passer le corps sous un flux d’azote liquide (-196°C) afin de le solidifier, ce qui le rend aussi fragile que du cristal. Il est ensuite facile, en le soumettant à des vibrations, de le pulvériser. Les restes ainsi obtenus sont ensuite lyophilisés, afin d’en extraire toute l’eau, puis tamisés pour récupérer les métaux et versés dans un “mini-cercueil” biodégradable que la famille peut ensuite inhumer où elle le souhaite. Au bout de quelques mois, tout a disparu dans le sol. La technique est résumée dans la vidéo ci-dessous (en anglais elle aussi).

Il existe un dernier moyen pour ne pas être bien encombrant une fois passé de vie à trépas. Transformer vos cendres en un diamant. Le procédé n’est en revanche pas du tout écologique et il implique une débauche d’énergie. Tout commence par une crémation. Les cendres sont ensuite purifiées à très haute température pour ne conserver que le carbone sous forme de graphite. Pour métamorphoser ce graphite en diamant (qui est une cristal de carbone particulier), il faut enfin le soumettre à une température et à une pression dantesques. On le voit, le processus ne risque pas de s’attirer le moindre éco-label. Mais bon, porter Mamie au petit doigt, c’est d’un chic… Et puis, les diamants sont éternels, eux.

Pierre Barthélémy

lire le billet

Jusqu’où s’étaleront les villes ?

Tout a basculé en 2007. Cette année-là, la proportion de la population mondiale vivant dans des villes a dépassé les 50 %. Depuis, on ne cesse de voir fleurir les palmarès des plus grandes mégalopoles, avec des projections sur le nombre d’habitants qu’elles accueilleront au cours des décennies futures. Mais une ville n’est pas faite que de ses habitants et il est un critère qui n’apparaît pas assez souvent : la superficie de ces agglomérations grandissantes. Car plus une ville absorbe d’hommes, de femmes et d’enfants, plus elle doit bâtir de logements, de bureaux, d’écoles, d’hôpitaux, d’immeubles administratifs, d’infrastructures routières, etc. Des espaces en général conquis sur les terres agricoles ou les forêts, mais à quelle vitesse ?

Car si on sait assez bien, grâce aux recensements, évaluer les populations à l’échelle de pays voire de la planète, il est beaucoup plus compliqué d’obtenir des données à grande échelle sur la superficie qu’occupe le tissu urbain. C’est à cette question délicate que tente de répondre une méta-analyse publiée le mois dernier dans PLoS ONE, qui a compilé 181 études publiées dans la période 1988-2008. Tous ces travaux évaluaient, grâce aux données satellitaires, l’évolution des surfaces urbaines de 292 villes réparties dans 67 pays de tous les continents, à l’exception évidemment de l’Antarctique. Les auteurs de cette analyse ont également mis en relation l’accroissement géographique des villes pendant les décennies 1970,1980 et 1990 avec l’augmentation des populations et du PIB des pays où elles sont localisées. Ce faisant, ils se sont aperçus que la croissance de l’urbanisation n’était pas forcément fonction de la hausse de la population. Si c’est plutôt le cas en Afrique et, dans une moindre mesure, en Inde, dans d’autres régions de la planète, c’est l’augmentation du PIB, l’enrichissement, qui est le principal facteur de croissance des villes, y compris en Chine. Cet effet “argent” est encore plus marqué dans les pays où l’usage de l’automobile est généralisé (Etats-Unis, Europe, Australie). Cela dit, partout dans le monde, la superficie des villes a augmenté plus vite que leur population.

Autre enseignement de ce travail, les villes dont la croissance géographique est la plus importante sont situées en régions côtières, et souvent à une altitude inférieure à 10 mètres au-dessus du niveau de la mer. Les auteurs soulignent qu’étant donné les impacts qu’aura le réchauffement climatique sur le niveau des océans et sur la fréquence des tempêtes, leurs “résultats montrent que l’humanité a sans le savoir augmenté la vulnérabilité de ses populations urbaines” au cours de la période 1970-2000. Par ailleurs, ils ont noté que le voisinage d’une zone naturelle protégée n’a en général absolument pas empêché les villes de s’agrandir. L’urbanisation étant le mode d’occupation du territoire le plus radical, elle s’accompagne de modifications souvent irréversibles de l’habitat naturel des espèces sauvages, réduit quand il n’est pas détruit, ce qui peut conduire certaines d’entre elles à l’extinction. A cela s’ajoutent des perturbations de l’hydrologie et du climat local avec le phénomène de l’îlot de chaleur urbain.

Dans la dernière partie de l’article, les auteurs ont dépassé le constat et ont tenté des projections à l’horizon 2030, en partant de plusieurs bases de données satellitaires et avec quatre scénarios faisant varier la démographie et la croissance économique. Ils obtiennent des résultats allant d’une croissance relativement modérée des zones urbaines dans le monde (+ 430 000 km2 tout de même, soit la superficie d’un pays comme l’Irak) à une explosion des mégapoles, qui se mettent à couvrir des pans entiers de continents (+ 12 568 000 km2 !). Il s’agit là d’un extrême très improbable. Le modèle le plus réaliste prévoit un gain de 1 527 000 km2, soit l’équivalent de la surface de la Mongolie ou, pour donner un ordre de grandeur plus parlant, près de trois fois la superficie de la France métropolitaine.

Selon les Nations unies, près d’un milliard et demi de Terriens supplémentaires vivront dans les villes en 2030. Le scénario qui se dessine est celui de la fusion de villes qui sont actuellement déjà des mégalopoles. Je ne sais pas si le néologisme de “gigapoles” existe déjà, mais il risque de décrire assez bien ces villes sans fin qui se préparent, une multiplication de Los Angeles tentaculaires.

Pierre Barthélémy

lire le billet