La Banque mondiale envisage un réchauffement de 4°C en 2100

La prise de conscience du réchauffement climatique pourrait franchir une étape importante avec le rapport publié le 18 novembre 2012 par… la Banque mondiale. Si l’économie s’empare du problème, cela démontre peut-être qu’il a changé d’orbite dans le cerveau mondial. Déjà, les sociétés d’assurance avaient tiré la sonnette d’alarme en raison de l’envolée des coûts engendrés par la multiplication des catastrophes météorologiques comme la tempête Sandy qui a touché les Etats-Unis fin octobre.

Turn down the heat

Intitulé sobrement “Turn down the heat” (Baissons la chaleur), ce rapport scientifique a été réalisé par le Potsdam Institute for Climate Impact Research (PIK) et par Climate Analytics pour la Banque mondiale. Il répond à la question: “Que serait le monde s’il était plus chaud de 4°C ?” Ces instituts prennent ainsi le relais du GIEC qui, jusqu’à son dernier rapport de 2007, s’attachait à un objectif de réchauffement de 2°C en 2100.  Plus personne, aujourd’hui, ne parie sérieusement sur un tel résultat. Les réductions d’émissions de gaz à effet de serre (GES) nécessaires pour l’atteindre sont loin d’être réalisées. Les années passent et c’est toujours à une augmentation mondiale de ces émissions de GES que l’on assiste. Le manque de volontarisme des Etats-Unis et le développement de la Chine font partie des principales raisons de cet échec patent.

Désormais, donc, l’heure n’est plus aux imprécations. Nous entrons dans la période de préparation. Et cette perspective de 4°C en 2100, adoptée par le rapport de la Banque mondiale, paraît raisonnable, voire optimiste. Même si le président du groupe de la Banque mondiale, Jim Yong Kim, fait mine de persister dans le rêve antérieur :

« Nous pouvons et nous devons éviter une hausse de 4 degrés. Il faut limiter le réchauffement à 2 degrés. Si nous n’agissons pas suffisamment contre le changement climatique, nous risquons de léguer à nos enfants un monde radicalement différent de celui que nous connaissons aujourd’hui. Le changement climatique est l’un des  principaux obstacles auquel se heurtent les efforts de développement, et nous avons la responsabilité morale d’agir pour le bien des générations futures, et en particulier les plus pauvres. »

Déjà 0,8°C

A l’appui de cette thèse, le rapport tente d’imaginer ce que serait une Terre où régnerait une température supérieure de 4°C par rapport à l’ère préindustrielle, c’est à dire vers le milieu du 19e siècle. En raison de la forte accélération du réchauffement à partir des années 1960, nous en sommes aujourd’hui à +O,8 °C en moyenne sur la planète. Le rapport rappelle que la température des océans a augmenté de 0,09°C depuis les années 1950 ce qui a entraîné une acidification des eaux, que le niveau des mers a augmenté de 20 cm par rapport à l’ère préindustrielle et que cette tendance se poursuit au rythme de 3,2 cm par an. Sans parler de la multiplication des canicules, des sécheresses et ouragans et autres tempêtes dévastatrices. Tout indique donc que nous préparons une température moyenne supérieure d’au moins 4°C à celle de l’ère préindustrielle pour 2100.

Impacts sur le développement

Quelles en seront les implications, en particulier sur le développement, facteur important pour la Banque mondiale ? Le rapport détaille plusieurs conséquences graves :

– inondation des villes côtières
– risques accrus pesant sur la production vivrière
– hausse des taux de sous-alimentation et de malnutrition
– aggravation de la sécheresse dans les zones arides et du niveau d’humidité dans les zones humides
– vagues de chaleur sans précédent dans beaucoup de régions, et particulièrement sous les tropiques
-aggravation sensible des pénuries d’eau dans beaucoup de régions
– intensification des cyclones tropicaux
– perte irréversible de la biodiversité, y compris dans les systèmes de récifs coralliens

John Schellnhuber, directeur du PIK, souligne que “les réactions du système terrestre au changement climatique ne sont pas linéaires”. Un point très important car il peut expliquer pourquoi le dépassement des 2°C peut se révéler délicat. Au delà, en effet, une sorte de point de non retour peut être franchi. Il s’agit donc bien d’une cause qui devrait être mondiale. La seule solution passe par “la croissance verte et solidaire”, des mots qui peuvent prêter à sourire à une époque où la course aux profits immédiats semble l’emporter sur toute autres considérations sur l’avenir. Cet avenir que nous nous préparons en accordant 1000 milliards de dollars de subvention à l’exploitation de combustibles fossiles, comme le note le rapport qui précise certaines conséquences climatiques:

  • Les vagues de chaleur extrême qui, dans un monde sans réchauffement climatique, ne devraient survenir qu’une fois toutes les quelques centaines d’années, séviront presque tous les étés dans beaucoup de régions. Leurs incidences ne seront pas réparties uniformément. Les hausses de température les plus importantes devraient survenir en zones terrestres et varier de 4 à 10 °C. On devrait s’attendre à des hausses de 6 °C ou plus des températures mensuelles estivales moyennes dans la région méditerranéenne, en Afrique du Nord, au Moyen-Orient et dans certaines parties des États-Unis.
  • On observera vraisemblablement une élévation de 0,5 à 1 mètre du niveau moyen des mers d’ici à 2100, et des niveaux plus élevés sont également possibles. Certaines des villes les plus vulnérables à ce phénomène sont situées au Mozambique, à Madagascar, au Mexique, au Venezuela, en Inde, au Bangladesh, en Indonésie, aux Philippines et au Viet Nam.
  • Les régions les plus vulnérables se trouvent en zones tropicales, subtropicales et polaires, où de multiples impacts risquent de s’additionner.
  • L’agriculture, les ressources en eau, la santé humaine, la biodiversité et les services écosystémiques seront vraisemblablement gravement touchés. Ces répercussions pourraient engendrer de vastes déplacements de populations, réduire la sécurité et perturber les systèmes économiques et le commerce.
  • Beaucoup de petits États insulaires risquent de se trouver incapables d’assurer la survie de leurs populations.

Un changement d’ère climatique ?

La nouvelle perspective d’un réchauffement de 4°C nous projette dans un scénario proche de celui d’une changement d’ère climatique. En effet, la dernière période glaciaire se caractérise par une baisse de température de 4,5 à 7°C. On peut donc craindre qu’une augmentation de 4°C de la température moyenne sur Terre n’engendre pas une simple amplification des phénomènes climatiques que nous connaissons aujourd’hui. Nous risquons une véritable rupture avec des dérèglements dont l’ampleur semble difficile à prévoir avec précision. Nul doute qu’ils seront forts désagréables pour une grande partie des habitants de la planète d’ici 2100.

Michel Alberganti

lire le billet

Cerveau d’Einstein : pas plus gros mais une organisation particulière

Depuis la mort d’Albert Einstein, le 18 avril 1955 à 76 ans, on sait grâce au journaliste Steven Levy que le cerveau du savant a été extrait par Thomas Harvey. Lors de cette découverte, en 1978, ce médecin déclara n’avoir rien trouvé de particulier dans la structure du cerveau pouvant expliquer les capacités exceptionnelles du savant, comme le note Wikipédia. Déception… Le génie n’affecterait donc pas l’organe de l’intelligence par excellence…

C’est ce que l’on croyait jusqu’à l’étude publiée le 16 novembre 2012 dans la revue Brain par trois chercheurs américains, Sean Falk, Federick Lepore et Adrianne Noe.  Ces derniers ont eu accès à 14 photographies du cerveau d’Einstein récemment découvertes, “la plupart prises sous des angles non conventionnels”, indiquent-ils. Deux des photographies révèlent la forme des sillons sur la surface médiane des hémisphères et une autre l’anatomie du lobe droit. Les chercheurs ont ainsi pu étudier la plupart des sillons présents sur le cerveau d’Einstein afin de les comparer à ceux de 85 cerveaux humains décrits dans la littérature. Ils ont ensuite tenté d’interpréter les différences à la lumière que l’on sait sur l’évolution des processus cognitifs humains.

Un cortex préfrontal exceptionnel

Résultats, le cerveau d’Einstein présente un “extraordinaire cortex préfrontal qui pourrait avoir contribué à ses aptitudes cognitives hors du commun. De même, les cortex somato-sensoriels et moteurs près des régions qui représentent le visage et la langue sont très développées dans l’hémisphère gauche. Les lobes pariétaux d’Einstein sont également inhabituels et pourraient expliquer ses capacités de vison dans l’espace et ses dons en mathématique. Si son cerveau présente les asymétries frontale et occipitale typiques, il montre une extrême asymétrie des lobes pariétaux inférieurs et supérieurs. Enfin, les chercheurs ont constaté que, contrairement à ce que disait la littérature, le cerveau d’Einstein n’est pas sphérique, ne présente pas une absence d’opercule pariétale et dispose de sillons latéral (scissure de Sylvius) et postcentral qui ne se croisent pas.

L’association populaire entre l’intelligence et les “grosses têtes” semble infirmée par le cerveau d’Einstein qui ne présente pas une taille exceptionnelle. En revanche, certaines de ses particularités pourraient donc être associées à ses capacités cognitives exceptionnelles. Ce qui semblerait démontrer que l’évolution de cet organe tend à privilégier certaines parties comme le cortex préfrontal. Reste à déterminer si les caractéristiques de ce cerveau permettent de discerner une évolution qui touchera progressivement tous les cerveaux humains ou bien q’il s’agit là d’une exception due au hasard. Il semblerait que, depuis la mort d’Albert Einstein, l’augmentation du nombre de génies sur Terre ne suive pas celle de la démographie…

Michel Alberganti

lire le billet

Une galaxie presque aussi lointaine… que l’âge de l’univers

Comme souvent avec les objets célestes, le nom que les astronomes ont donné à la galaxie qu’ils viennent de découvrir ne fait pas rêver : MACS0647-JD. En revanche, sa distance, elle, dépasse notre imagination et donne des frissons : 13, 3 milliards d’années lumière… Ce que nous voyons aujourd’hui grâce au télescope spatial Hubble date de seulement 420 millions d’années après le big bang. L’univers n’avait alors que 3% de son âge actuel, soit 13,7 milliards d’années… Comment réaliser que cet objet apparaissant aujourd’hui comme une minuscule tache dans l’immensité de l’univers nous permet de jeter un œil sur… il y a si longtemps ?

Lentille gravitationnelle

La vidéo réalisée par la NASA nous fait remonter, en 30 secondes, ces 13,3 milliards d’années. Formidable et vertigineuse plongée dans le temps et l’espace. Cette durée est, en effet, celle que la lumière émise par la galaxie MACS0647-JD a mis pour parcourir la distance qui la sépare, ou plutôt la séparait à cette époque, des lentilles du télescope Hubble qui l’ont captée aujourd’hui. Pour détecter une aussi microscopique tache dans l’immensité de l’univers, les astronomes ont réalisé un exploit technologique. L’équipe internationale du Cluster Lensing And Supernova Survey with Hubble (CLASH) dirigée par Marc Postman du Space Telescope Science Institute de Baltimore a exploité des télescopes naturels comme relais d’Hubble dans l’espace. Ces intermédiaires involontaires sont des amas de galaxies massifs qui peuvent servir de télescopes cosmiques et grossir la taille des galaxies qui sont situés derrière eux. Il s’agit du phénomène de lentille gravitationnelle. La gravité très forte des amas dévie et accélère les rayons lumineux provenant des objets qu’ils masquent. L’image apparaît alors 8 fois plus grosse et deux fois plus brillante.

Un embryon de galaxie

“L’amas réalise ce qu’aucun télescope construit pas l’homme ne peut faire”, explique Marc Postman. “Sans ce grossissement, il faudrait un effort herculéen pour observer cette galaxie”. MACS0647-JD est si petite que les astronomes en déduise qu’elle doit se trouver à l’un des premiers stades de formation d’une galaxie plus grande. D’après les analyses, sa taille ne dépasserait pas les 600 années lumière. Alors qu’à son âge, elle devrait atteindre les 2000 années lumières. A titre de comparaison, notre propre galaxie, la Voie Lactée mesure 150 000 années lumière.

“Cet objet doit être l’une des briques de construction d’une galaxie”, estime Dan Coe, du Space Telescope Science Institute et principal auteur de l’étude qui doit être publiée le 20 décembre dans The Astrophycical Journal. “Au cours des 13 milliards d’années qui ont suivi, il a pu se produire des douzaines, des centaines ou des milliers de fusion avec d’autres galaxies ou des fragments de galaxies”. Auparavant, l’équipe CLASH avait découvert une galaxie très éloignée aussi mais dont la lumière datait de 490 millions d’années après le big bang, soit 70 millions d’années plus tard que la nouvelle détentrice du record de “distance”.

Michel Alberganti

 

lire le billet

OGM : de l’impossible débat à un embryon de consensus

Même sans illusion, il fallait essayer… Après l’embrasement médiatique provoqué par la publication de l’expérience de Gilles-Eric Séralini, le 19 septembre 2012, les avis donnés par les agences de sécurité sanitaire et les prises de position des académies, comme celles de multiples pétitionnaires, comment ne pas tenter une confrontation ? Rassembler les protagonistes sur un même plateau pour un débat sur France Culture, ce n’était que la suite logique de deux mois d’affrontements indirects.

Le résultat, vendredi 16 novembre entre 14 et 15 heures dans Science Publique, n’a pas dérogé à la règle qui prédomine, en France, depuis la conférence de citoyens sur “l’utilisation des OGM dans l’agriculture et l’alimentation”, précédée par le rapport de Jean-Yves Le Déaut, qui date de… juin 1998. Ni le “débat public sur les OGM” de l’an 2000, ni le débat public sur “les OGM et les essais en champ” de 2002, n’ont changé la donne. Un dialogue dépassionné reste impossible. Pourtant, et l’émission d’aujourd’hui le confirme, une porte de sortie par le haut existe. Mais aucun des deux camps n’est prêt à faire les concessions nécessaires pour la franchir sereinement. Pour cela, il faudrait réunir trois conditions.

1°/ Tirer des leçons positives de l’expérience Séralini

Rationnellement, il est difficile d’admettre que les tumeurs révélées par l’expérience sur des rats pendant 2 ans menée par Gilles-Eric Séralini soient une preuve scientifiquement indiscutable de la dangerosité pour la santé humaine de l’OGM NK603 et du Roundup de Monsanto. Néanmoins, l’opération médiatique réalisée par le biologiste, malgré le regrettable dérapage du Nouvel Observateur titrant “Oui, les OGM sont des poisons”, est une réussite. Incontestable elle. Avec le CRIIGEN et un budget de 3,2 millions d’euros, Gilles-Eric Séralini a atteint ce qui, à l’évidence, était son principal objectif : révéler les failles des procédures actuelles d’évaluation des OGM. Celles-ci sont, au moins, au nombre de trois :
–  Pas d’essais à long terme (2 ans, soit la vie entière des rats)
–  Pas d’indépendance des laboratoires réalisant les essais limités à 90 jours
–  Pas de transparence dans la publication des résultats de ces essais

2°/ Admettre les erreurs du passé

Qu’il s’agisse de la Commission du génie biomoléculaire CGB), créée en 1986, de l’Agence Française de Sécurité Sanitaire des Aliments (AFSSA), créée en 1999, de l’Autorité européenne de sécurité des aliments (EFSA) créée en 2002 ou de l’Agence nationale chargée de la sécurité sanitaire de l’alimentation, de l’environnement du travail (Anses), créée en 2010 par la fusion de l’AFSSA et de l’AFSSET, aucun de ces multiples organismes n’est parvenu à imposer des règles palliant ces trois défauts.

Les acteurs d’aujourd’hui, Gilles-Eric Séralini ou de Gérard Pascal, ancien directeur scientifique de l’INRA, ont contribué aux travaux de ces plusieurs de ces institutions. Des débats houleux s’y sont déroulés. Mais ils n’ont jamais abouti à l’établissement de normes d’essais satisfaisantes. D’un coté, parfois, leurs avis ont été balayés pour des raisons politiques. L’influence des partis écologistes a conduit à des interdictions d’OGM en France contre l’avis de la CGB, par exemple. De l’autre, l’influence des industriels, Monsanto en tête, même si elle est beaucoup moins apparente, n’en est pas moins certaine.

D’où un blocage total qui a conduit à la situation actuelle. Les scientifiques luttent contre le rejet irrationnel des écologistes qui les poussent à avoir tendance à minimiser les risques. Les opposants aux OGM exploitent cette tendance pour démontrer que les experts ne sont pas indépendants et qu’ils agissent pour le compte des industriels. Chacun s’enferme dans une position caricaturale. Les attaques personnelles fusent et bloquent la possibilité d’un débat serein et rationnel. Toute remise en cause des procédures se traduit par une accusation ad hominem.

3°/ Établir de nouvelles procédures d’évaluation des OGM

Dès le 19 septembre, dans la précipitation qui a suivi la publication de l’expérience Séralini, trois ministères (écologie, santé, agriculture) ont fait la déclaration suivante : “ Le Gouvernement demande aux autorités européennes de renforcer dans les meilleurs délais et de façon significative l’évaluation des risques sanitaires et environnementaux”. Si elle a pu sembler bien prématurée ce jour là et si l’avis de l’ANSES a invalidé, ensuite, l’expérience Séralini, cette réaction apparaît aujourd’hui comme, paradoxalement,  judicieuse mais insuffisante.

Judicieuse parce que les différentes conclusions de l’affaire, dans les deux camps, convergent effectivement vers une remise en cause de l’évaluation des OGM. Insuffisante parce que l’amélioration qui apparaît indispensable doit être nettement plus que significative. Radicale serait un terme plus juste. De plus, les autorités européennes ne sont pas seules concernées. La France l’est aussi. Et elle pourrait même jouer un rôle moteur dans cette révision en profondeur de l’évaluation des OGM.

Un consensus apparaît

Ce n’est pas le moindre des résultats de l”affaire Séralini que de faire poindre un consensus entre les deux camps. Qu’il s’agisse de l’Anses dans son avis sur l’expérience, du HCB ou d’une personnalité comme Gérard Pascal, tout le monde admet que l’absence d’études à long terme probante n’est pas acceptable. Les hommes consomment des OGM pendant toute leur vie. Pourquoi les expériences sur les rats se limiteraient à trois mois, soit le huitième de leur durée de vie ?

Si un accord existe sur ce point,  il reste à établir des procédures permettant d’apporter une réponse à la question, tout en garantissant l’indépendance des études. L’Anses semble l’organisme le mieux placé pour prendre en charge ces études. Il dispose des laboratoires nécessaires. Il ne lui manque que le financement. Or, la règle actuelle veut que ce soient les industriels qui financent ces études. Aujourd’hui, ce sont eux qui pilotent les expériences et choisissent soit de les réaliser dans leurs propres laboratoires, soit de les confier à des laboratoires privés. Il suffit donc que les industriels donnent ce même argent à l’Anses… Cela paraît presque trop simple. En fait, une difficulté subsiste.

Combien d’évaluations sont nécessaires ?

L’étude de Gilles-Eric Séralini a coûté 3,2 millions d’euros. Pour qu’elle soit scientifiquement recevable, il aurait fallu multiplier le nombre de rats par 5, voire par 7 ou 8. Cela porterait le coût de l’étude à environ 10 millions d’euros. Le résultat permettrait d’évaluer l’impact d’une variété de mais transgénique, le NK603, et d’un insecticide, le Roundup. Mais il existe des dizaines de variétés de plantes génétiquement modifiées. Faut-il les évaluer toutes de la même façon ? Certaines études sur une variété donnent-elles des informations valables sur les autres ? Comment réduire le coût de ces études à des sommes acceptables ? C’est la question que posent certains scientifiques plutôt pro-OGM. Et ce sont aux scientifiques d’apporter une réponse.

Cette interrogation sur la viabilité économique des études d’évaluation des OGM ne concerne néanmoins pas la société elle-même. Ce n’est un problème que pour ceux qui devront financer les études, c’est à dire les industriels… Si le financement des études déclarées nécessaires par les scientifiques s’avère trop élevé pour que les OGM restent économiquement rentables, cela signifiera simplement que ces produits sont inadaptés à la commercialisation.

Avons-nous vraiment besoin des OGM ?

Dans les coulisses de Science Publique, après l’émission, l’un des invités admettait que l’intérêt des OGM pour la société n’est pas clairement établi. Les perspectives affichées par les semenciers telles que la culture sous des climats difficiles, avec des quantités d’eau réduite ou de mauvaise qualité (saumâtres) sont restées à l’état de… perspectives et de promesses pour le futur. Idem pour le discours sur le fait de pouvoir nourrir 9 milliards d’habitants. Pour l’instant, les OGM rapportent… de l’argent aux industriels. C’est la seule certitude. Les gains sur les rendements et sur l’économie des exploitations agricoles sont largement contestés.

Ainsi, aujourd’hui, la réponse à la question simple : Avons-nous vraiment besoin des OGM ? est clairement : Non, pas vraiment.  Pour les accepter, le moins que l’on puisse attendre est d’obtenir une raisonnable certitude de leur absence d’effets néfastes sur la santé humaine. Si l’établissement de cette preuve revient trop cher, tant pis. Nous nous passerons des OGM. Et le débat sera, enfin, clôt.

Michel Alberganti

(Ré)écoutez l’émission Science Publique que j’ai animée le 16 novembre 2012 sur France Culture :

Faut-il considérer les OGM comme des poisons ?16.11.2012 – Science publique
Faut-il considérer les OGM comme des poisons ?
57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

Après la publication par le Nouvel Observateur d’un titre alarmiste le 19 septembre, l’étude réalisée par Gilles Eric Séralini  sur des rats alimentés avec des OGM et de l’insecticide a fait grand bruit. Finalement, les experts ont invalidé ces résultats. Mais le doute est désormais jeté sur l’ensemble des études réalisées sur les OGM. Comment la science sort de cette manipulation ? …
Invités :
Gérard Pascal
, ancien directeur scientifique à l’INRA et expert en sécurité sanitaire des aliments à l’OMS
Jean-Christophe Pagès
, professeur et praticien hospitalier à la Faculté de médecine de Tours et président du comité scientifique du Haut Conseil des Biotechnologies
Gilles-Eric Séralini
, professeur de Biologie Moléculaire Université de Caen – Laboratoire de Biochimie et Biologie Moléculaire
Joël Spiroux de Vendomois, président du Comité de Recherche et d’Information Indépendant sur le Génie Génétique, le CRIIGEN

 

 

lire le billet

Les billets neufs se dépensent moins

Le consommateur est, décidément, un être bien plus sensible qu’il n’y paraît. Voilà que deux chercheurs des universités canadiennes de Winnipeg et de Guelph nous révèlent qu’il ne se comporte pas de la même façon suivant que ses billets de banque sont neufs ou usagés. D’après l’article que Fabrizio Di Muro et Theodore Noseworthy (sic) vont publier dans le Journal of Consumer Research de mars 2013, “l’apparence physique de l’argent peut altérer le comportement en matière de dépense”. D’après les chercheurs, les billets usagés donnent au consommateur le sentiment qu’ils sont sales et contaminés. A l’inverse, les billets neufs leur donnent une sensation de fierté…

Pas si interchangeable

Une idée reçue s’écroule. Alors que l’argent est censé n’avoir pas d’odeur et de fournir, par définition, des objets interchangeables, voilà que nous sommes sensibles à son apparence physique. Si nous donnons un billet de 20 $ à quelqu’un, le fait qu’il nous rembourse avec un billet de 20 $ ou un autre ne devrait pas avoir d’importance. C’est la raison pour laquelle les diamants, les maisons ou les tableaux ne peuvent prétendre à servir de monnaie d’échange. Leur valeur est, en effet, rarement identique. En réalité, les chercheurs estiment que l’argent lui-même n’est pas aussi interchangeable qu’il n’y paraît.

Dans plusieurs études, on a donné à des consommateurs des billets neufs ou usagés avant de leur demander d’effectuer différentes tâches en liaison avec le shopping. Résultat, ceux qui ont des billets usagers ont tendance à dépenser plus que ceux qui ont des billets neufs. Ils ont également une préférence pour “casser” un gros billet usagé plutôt que de payer la somme exacte avec des billet neufs de moindre valeur.

L’argent serait un produit en soi

Les chercheurs ont également voulu vérifier la croyance qui veut que l’on dépense plus facilement une somme donnée lorsqu’elle est en petite coupure. Par exemple, 4 billets de 5 dollars comparé à un billet de 20 dollars. Eh bien, là encore, l’apparence physique des billets peut renforcer, réduire ou même inverser cette règle. Fabrizio Di Muro et Theodore Noseworthy en concluent que l’argent est un objet aussi bien social qu’économique. “Nous avons tendance à voir la monnaie comme un moyen de consommation et non comme un produit en elle-même. Mais elle est en fait sujette aux mêmes inférences et influences que les produits qu’elle peut acheter”, affirment-ils.

Moralité, pour faire des économies, rien de tel que de s’approvisionner en billets neufs dans un distributeur. Et de bien faire attention avant de “casser” un gros billet. L’argent sale que nous recevrons en échange ne durera pas longtemps.

Michel Alberganti

lire le billet

OGM, la contre-attaque : 140 scientifiques défendent Séralini

Le 22 octobre 2012, le verdict de l’Agence nationale de sécurité alimentaire (Anses), faisant suite à ceux de l’Europe (EFSA) et d’autres autorités nationales (BfR allemand entre autres), a fait l’effet d’un KO scientifique. Au final, l’étude publiée le 19 septembre dans une revue à comité de lecture, n’est pas scientifiquement recevable. Ses conclusions ne peuvent, de ce fait, être acceptées. En matière de toxicité des OGM et du Roundup, tout reste à donc à faire.

Tel est, justement, le raisonnement des 140 scientifiques français signataires d’une lettre ouverte publiée, le 14 novembre, sur lemonde.fr. La voici:

Science & Conscience

Devant l’incroyable levée de boucliers suscitée par la publication de Gilles-Éric Séralini et de son équipe dans le journal Food and Chemical Toxicology, nous, membres de la communauté scientifique, tenons à affirmer les points suivants.

– D’une part, les scientifiques qui se sont exprimés sur ce sujet l’ont fait en leur nom propre et ne peuvent prétendre représenter la communauté scientifique dans son ensemble. Le fait qu’un groupe d’une douzaine de personnes prétendant représenter six académies ait décidé d’un communiqué commun sans débat est contraire au fonctionnement normal de ces institutions et interroge sur la vision de la science et de la technologie (et de leur utilité sociale) ayant présidé à une telle décision (au contraire, par exemple, du débat organisé par l’Académie des Sciences dans le cadre de la polémique sur le changement climatique, à l’issue duquel la responsabilité de l’homme a été avérée). Nous saluons sur ce point la réaction salutaire du seul statisticien de l’Académie des Sciences, Paul Deheuvels.

– D’autre part, le protocole suivi dans cette étude présente des défauts qui font débat au sein de la communauté scientifique. Mais en tout état de cause, disqualifier le protocole suivi dans le cadre de cette étude revient à disqualifier du même coup les données ayant fondé les décisions d’acceptation des OGM par les experts. Il est remarquable de voir ces mêmes experts accepter (même s’ils le critiquent parfois) un protocole expérimental quand il donne des résultats qui vont dans le sens de l’acceptation d’une technique et le démolir aussi ardemment quand les résultats vont dans le sens opposé. Ceci est à notre avis totalement contraire à toute déontologie scientifique. Nous affirmons donc que, si les observations en débat méritent d’être confirmées par des expériences de plus grande ampleur, cela s’applique également aux tests qui ont servi à autoriser toutes les plantes transgéniques actuellement sur le marché. Si toute cette histoire aboutit au moins à ce résultat, elle aura été utile.

Nous sommes profondément choqués de l’image de notre communauté que cette polémique donne aux citoyens. L’expertise des risques pour la santé humaine ou l’environnement est une activité difficile qui doit faire face à de nombreuses incertitudes. Beaucoup des menaces qui pèsent sur notre planète ont été révélées par des scientifiques isolés puis confirmées par des études nombreuses venues de la communauté scientifique. En l’occurrence, il serait bien plus efficace de mettre en oeuvre des recherches sur les risques sanitaires et environnementaux des OGM et des pesticides, d’améliorer les protocoles toxicologiques utilisés pour leur mise sur le marché et de financer une diversité de chercheurs dans ce domaine que de créer des affrontements entre deux camps nourris de préjugés et d’idéologies. Nous pensons que notre communauté doit garder le souvenir d’erreurs passées, concernant l’amiante par exemple.Enfin, nous tenons à assurer à nos concitoyens qu’il existe également, dans la communauté scientifique, un nombre important de chercheurs qui sont convaincus qu’il faut prendre au sérieux les risques associés aux technologies et qui estiment que, si les chercheurs d’une part,et les applications sociales de la science d’autre part, sont par construction liés à des idéologies, des croyances et/ou des intérêts, la démarche scientifique doit, elle, s’efforcer de rester aussi indépendante que possible pour jouer pleinement son rôle dans la société.

Signataires :

Andalo Christophe MC UPS Toulouse
Arnaud-Haond Sophie Chercheuse IFREMER
Atlan Anne CR CNRS
Auclair Daniel DR INRA
Austerlitz Frédéric DR CNRS
Barot Sébastien DR IRD
Bancal Marie-Odile MC AgroParisTech
Becker Nathalie MC MNHN
Bellé Robert Pr UPMC
Bérard Sèverine MC U Montpellier 2
Blondel Jacques DR CNRS
Boëte Christophe CR IRD
Boistard Pierre DR INRA
Bonhomme François DR CNRS
Bonhomme Vincent Institut Français de Pondichéry
Bonnet Timothée Doctorant U Zurich
Bonneuil Christophe CR CNRS
Bonnin Isabelle CR INRA
Bosc Pierre-Marie Chercheur CIRAD
Boudouresque Charles Pr U Aix-Marseille
Bourdineaud Jean-Paul Pr U Bordeaux
Boyen Catherine DR CNRS
Brèthes Daniel DR CNRS
Casas Jérôme Pr U Tours
Cézilly Franck Pr U Bourgogne
Chabert Michèle MC EPHE
Champagnon Jocelyn Post Doc
Charpentier Anne MC U Montpellier 2
Charmantier Anne CR CNRS
Chikhi Lounès DR CNRS
Cochard Hervé DR INRA, Correspondant de l’Académie d’Agriculture
Colas Bruno MC U Paris Diderot
Combes Claude Pr U. Perpignan, Membre de l’Académie des Sciences
Da Lage Jean-Luc DR CNRS
David-Benz Hélène Chercheuse CIRAD
Darlu Pierre DR CNRS
De Decker Sophie Post-Doctorante, NOAA, US
de Foresta Hubert CR IRD
de Reviers Bruno Prof MNHN
Dedeine Franck MC U François Rabelais Tours
Delesalle Bruno MC EPHE
Destombe Christophe Prof UPMC
Devaux Céline MC U. Montpellier2
Djikeussi Eléonore CH Niort
Dorin Bruno Chercheur CIRAD
Dufumier Marc Pr AgroParisTech
Dugue Patrick Chercheur CIRAD
Dulcire Michel Chercheur CIRAD
Dutech Cyril CR INRA
Elias Marianne CR CNRS
Enjalbert Jérôme CR INRA
Fabre Pierre Chercheur CIRAD
Fady Bruno DR INRA
Ferdy Jean-Baptiste Pr U Toulouse 3
Ferrière Régis Pr ENS Ulm
Figuié Muriel Chercheuse CIRAD
Frascaria Nathalie Pr AgroParisTech
Fort Philippe DR CNRS
Gautier Christian Pr U Lyon
Gavotte Laurent MC U Montpellier 2
Gerber Sophie CR INRA
Grandcolas Philippe Prof MNHN
Goldringer Isabelle DR INRA
Gouyon Pierre-Henri Pr MNHN
Hautekeete Nina MC U Lille 1
Heams Thomas MC AgroParisTech
Herbette Stéphane MC U Clermont-Ferrand
Henry Claude Pr Columbia University
Heyer Evelyne Pr MNHN
Hospital Frédéric DR INRA
Huet Sylvie DR INRA
Humbert Jean-François DR INRA
Jeandel Catherine DR CNRS
Jarne Philippe DR CNRS
Joron Mathieu CR CNRS
Juffé Michel Pr PontsParisTech
Kjellberg Finn DR CNRS
Lachièze Rey Marc DR CNRS
Lançon Frédéric Chercheur CIRAD
Laurans Marilyne Chercheuse CIRAD
Laurenti Patrick MC U Diderot
Lavigne Claire DR INRA
Lemeilleur Sylvaine Chercheuse CIRAD
Le Gall Line MC MNHN
Le Moguédec Gilles Chercheur CIRAD
Lévy-Leblond Jean-Marc Pr U Nice
Lipinski Marc DR CNRS
Loeuille Nicolas Pr UPMC
Londe Sylvain Doctorant UPMC
Lorand Isabelle Chirurgienne
Louchart Antoine CR CNRS
Machon Nathalie Pr MNHN
Mallefet Jérôme Pr U Catholique de Louvain
Mariojouls Catherine Pr AgroParistech
Maris Virginie CR CNRS
Mignot Agnès Pr Université Montpellier 2
Millier Claude Pr AgroParisTech
Mirleau Pascal MC U Aix-Marseille
Moulia Catherine Pr U Montpellier 2
Morin Edgar DR CNRS
Nabholz Benoit MC U Montpellier 2
Nicolas Valérie IR INSERM
Nieberding Caroline Pr U Catholique de Louvain
Olivieri Isabelle Pr U Montpellier 2
Paillet Yoan IR IRSTEA
Palka Laurent MC MNHN
Pape Moller Anders DR CNRS
Papy François DR INRA
Pasqualini Vanina Pr U Corse
Petit Éric MC U Rennes 1
Poirier Florence IR U Paris 13
Ponsard Sergine Pr U Toulouse
Potin Philippe DR CNRS
Quilichini Angélique MC détachée CNRS
Raymond Michel DR CNRS
Refrégier Guislaine MC UPS Orsay
Reynaud – Yann Post-Doctorant, NOAA, US
Rognon Xavier MC AgroParisTech
Rousseau Denis-Didier DR CNRS Ulm
Rousset François DR CNRS
Saatkamp Arne MC U Aix-Marseille
Saint-James Emmanuel MC UPMC
Salmona Jordi Doctorant U Lisbonne
Sartor Pierre CR CNRS
Selosse Marc-André Pr U Montpellier 2
Sicard Mathieu MC U Poitiers
Shykoff Jacqui DR CNRS
Testart Jacques DR INSERM
Thomas Mathieu PostDoc INRA
Tully Thomas MC U Paris 4 (CNRS)
Valero Myriam DR CNRS
van Vliet Geert Chercheur CIRAD
Vela Errol MC U Montpellier 2
Velot Christian MC U Psud Orsay
Verlaque Marc CR CNRS
Verrier Etienne Pr AgroParisTech
Volovitch Michel Pr ENS Ulm
Vriz Sophie Pr U Paris Diderot
Warlop François CR GRAB
Weill Mylène DR CNRS

Michel Alberganti

lire le billet

Gaz de schiste: fracturation politique

En matière de gaz de schiste, en France, il faut suivre… Le 14 septembre 2012, tout était interdit. Avec le rapport Gallois, le 5 novembre 2012, la porte de la recherche semblait entrouverte. Mais aussitôt, Jean-Vincent Placé, sénateur EELV, est monté au créneau, invoquant l’accord électoral entre le PS et les Verts (qui ne parle d’ailleurs pas de recherche…). Sans doute dans un souci d’apaisement, Jean-Marc Ayrault a “oublié” le gaz de schiste lors de sa présentation du pacte national. Les services du Premier ministre confirmaient alors que la proposition de Louis Gallois en faveur de la poursuite de la recherche sur le gaz de schiste ne serait pas retenue. (Lire le résumé du chapitre précédent). Placé arrivait alors gagnant…

Mardi 13 novembre 2012 : première conférence de presse de François Hollande. Le Président de la République déclare alors, au sujet de la technique de fracturation hydraulique :

“Tant qu’il n’y aura pas de nouvelles techniques, il n’y aura pas d’exploration et d’exploitation de gaz de schiste en France. Cette technique porte considérablement atteinte à l’environnement. Je le refuse tant que je serai là. La recherche continue. On ne peut pas empêcher la recherche sur d’autres techniques. Aujourd’hui, elle n’a pas abouti. Mais elle n’est pas interdite. Je laisse les chercheurs travailler. Je prendrai mes responsabilités le moment venu.”

Salutaire mise au point

Salutaire mise au point qui remet Jean-Vincent Placé… à sa place. C’est à dire celle d’un sénateur qui, tout Vert soit-il, n’est pas en position de diriger la recherche française. Le silence de Jean-Marc Ayrault, le 6 novembre, avait créé un véritable malaise. Le voilà dissipé par François Hollande. Tant mieux. Désormais, les laboratoire français vont pouvoir démontrer que la France reste un pays d’inventeur !

Cette clarification survient au moment où de multiples signaux conduisent à penser que le dossier du gaz de schiste n’est pas près de se refermer, n’en déplaise à Corinne Lepage qui le rejette en bloc dans les colonnes du Monde.,Le même quotidien reprend les prévisions publiées par l’Agence internationale de l’énergie (AIE) dans son rapport annuel, le World Energy Outlook publié le 12 novembre.

Les Etats-Unis, futurs numéro un mondial du pétrole et du gaz

Les États-Unis deviendront le premier producteur mondial de pétrole, dépassant l’Arabie saoudite, entre 2017 et 2020 et premier producteur de gaz dès 2015 en devançant la Russie. Tout cela grâce aux huiles et gaz de schiste. L’exploitation de ces hydrocarbures non conventionnels est en train de bousculer en profondeur et de façon totalement inattendue l’échiquier énergétique mondial.

Toujours Le Monde, dans un entretien, rapporte l’opinion de Fatih Birol, économiste en chef de l’Agence internationale de l’énergie (AIE) :

“La France réduit la part du nucléaire, interdit le gaz de schiste et vise à limiter plus fortement ses émissions de CO2. Ces trois éléments sont-ils compatibles ? Je n’en suis pas sûr. Je crois qu’il est possible d’exploiter proprement le gaz de schiste à condition de fixer un cadre réglementaire très strict aux industriels qui devront faire des investissements technologiques importants. Mais le jeu en vaut la chandelle, car les bénéfices à tirer de cette ressource peuvent être très élevés.”

1000 ans de consommation en Suède

La Suède, pays qui ne fait parti des pays les plus polluants, a découvert que son sous-sol contient pas moins de 1000 années de sa consommation de gaz… La Suède n’exploite pas ce gaz. Pour l’instant, elle explore, malgré l’opposition des Verts qui partagent le pouvoir. D’ici la fin de l’année, le gouvernement suédois se prononcera sur une éventuelle exploitation commerciale. En toute connaissance de cause. Ce qui n’est pas le cas en France puisque les forages d’exploration sont interdits. En France, comme en Suède d’ailleurs, si les Verts persistent dans leur position, une fracturation politique deviendra inéluctable dans la majorité présidentielle.

Michel Alberganti

lire le billet

La trisomie 21 corrigée sur des cellules humaines en culture

Des chercheurs du département de médecine de l’université de Washington ont réussi à corriger le défaut génétique correspondant à la trisomie 21. Aussitôt, l’équipe dirigée par Li B. Li précise qu’elle ne prétend en aucune manière apporter un espoir thérapeutique aux personnes atteinte de ce syndrome. Leur réussite constitue néanmoins une avancée remarquable dans le domaine de la thérapie génique. Domaine très prometteur mais dont les succès se font attendre depuis l’exploit qui a permis de soigner des bébés bulles (dépourvus de système immunitaire à la naissance).

La trisomie 21, telle que l’ont décrite en 1959 Jérôme Lejeune, Marthe Gautier et Raymond Turpin, se caractérise par un défaut génétique de naissance.  Au lieu d’une 21ème paire de chromosomes,  les cellules des trisomiques disposent de trois chromosomes 21. L’expérience publiée dans la revue Cell Stem Cell du 2 novembre 2012 a consisté à retirer ce chromosome de trop. Un véritable tour de force qui a permis d’obtenir des cellules humaines cultivées en laboratoire débarrassées de leur chromosome 21 surnuméraire.

Les chercheurs de l’université de Washington ont fait appel à un classique adénovirus comme vecteur d’un gène étranger appelé TKNEO. Toute la difficulté, faible mot, est d’introduire le gène au bon endroit. Dans ce cas, il fallait viser le gène appelé APP qui se trouve sur le bras le plus long du chromosome 21. Là, le gène étranger, le transgène, a pour effet de provoquer, chez la cellule réceptrice, une réaction de sélection. Pour survivre, elle se débarrasse du chromosome 21 sur lequel s’est greffé le gène TKNEO. David Russel, chercheur en hématologie et génétique, explique que l’un des avantages majeurs de cette technique est d’éliminer la totalité du chromosome excédentaire. Une fois supprimé, aucun résidu, aucune trace, ne subsiste dans la cellule. C ‘est important pour les chercheurs qui craignent toujours que la thérapie génique n’introduise une toxicité. “Cela signifie, par exemple, que le retrait d’un chromosome ne doit pas briser ou provoquer un réagencement du reste du code génétique“, indique David Russel.

Impossible de mesurer la difficulté de telles manipulations au cœur des cellules. Bien sûr, les échecs permettraient de mieux la percevoir mais ils sont moins médiatisés que les succès. On se souvient toutefois des cancers survenus chez quelques uns des bébés bulles soignés à l’hôpital Necker, à Paris.Nul doute que la recherche se trouve, là, à l’orée d’un nouvel univers. Avec des promesses thérapeutiques aussi immenses et les questions éthiques qu’elles soulèveront.

Traiter la leucémie

Pour l’instant, les résultats restent modestes. Les chercheurs estiment que leur avancée pourrait être utile pour traiter les cas de leucémie qui peuvent survenir chez les trisomiques. Un jour, on pourra peut-être prélever des cellules souches chez ces patients afin d’en supprimer le caractère trisomique en les traitant et en les cultivant en laboratoire. Ensuite, une transplantation de ces mêmes cellules souches chez le donneur lui-même ou bien de cellules sanguines obtenues à partir des cellules souches réparées pourrait être utilisées comme thérapie du cancer du sang.

Mieux comprendre les effets cognitifs

L’intérêt existe aussi pour la recherche. La possibilité de produire des cellules avec ou sans la trisomie à partir des cellules d’une même personne pourrait permettre de mieux comprendre comment se déclenchent certains problèmes associés à la trisomie 21. Les chercheurs pourront ainsi comparer comment deux lignées de cellules souches forment des cellules nerveuses et analyser ainsi les effets de la trisomie 21 sur le développement des neurones. De quoi donner des informations potentiellement précieuses sur les problèmes cognitifs rencontrés par les trisomiques au long de leur vie.

Michel Alberganti

lire le billet

Vidéo : voyage au dessus de la blancheur des glaces polaires

L’opération IceBridge de la NASA étudie l’évolution des glaces aux deux pôles. Outre les mesures de forme, de taille et d’épaisseur qui permettent de suivre les effets du réchauffement climatique sur l’Arctique et l’Antarctique, les missions utilisant des avions rapportent des images d’une remarquable beauté. En ce début d’hiver gris, quelques images de blancheur sculptée par le vent et la mer…

Michel Alberganti

lire le billet

Comment Nate Silver a pu prédire à 92% l’élection de Barak Obama

Six jours avant les élections présidentielles américaines du 6 novembre 2012, les sondages donnaient les deux candidats à égalité. Le jour même de l’élection, ils enregistraient un écart de 0,7% en faveur de Barak Obama sur Mitt Romney. Dans le monde entier, le suspense est alors à son comble. On craint une élection  très serrée, comme en 2004 entre Georges W Bush et John Kerry ou sujr le fil du rasoir, comme en 2000 entre Georges W. Bush et Al Gore.  Pourtant, ce même jour, un “vulgaire” blogueur américain, Nate Silver, 34 ans, donne Barak Obama vainqueur à 92%…

Sur son blog, FiveThirtyEight, il se paye même le luxe d’enregistrer 100% de bonnes prédictions concernant les résultats Etat par Etat, Floride comprise alors que le décompte final n’a été connu qu’aujourd’hui, 10 novembre. Nate Silver, lui, donnait 50,3% de chance de victoire à Barak Obama. Ce dernier l’a finalement emporté avec 50% des voix contre 49,1% à Mitt Romney. Dans tous les Etats, le blogueur a vu juste. Quant au nombre de votes électoraux obtenus par chaque candidat, il avait prédit 313 pour Barak Obama et 225 pour Mitt Romney pour un résultat réel de 332 contre 206. Comment Nate Silver peut-il renvoyer ainsi les analystes politiques et les spécialistes des sondages à la préhistoire ?

Le révérend Thomas Bayes

La solution ne doit rien à la magie. Comme le révèle Christian Robert, professeur au Centre de recherche en mathématiques de la décision de l’université Paris-Dauphine, dans l’émission Science Publique du 9 novembre 2012 que j’ai animée sur France Culture, Nate Silver utilise la démarche logique dénommée “inférence bayésienne“… La dernière technique issue des mathématiques de pointe en matière de probabilités ? Pas vraiment… Cette démarche est fondée sur le théorème de Bayes, que l’on doit du révérend Thomas Bayes et qui date de… 1763.

Nate Silver- Election Obama – Théorème de Bayes – Science Publique 9 novembre 2012 by Michel Alberganti

Il y a 249 ans…

L’histoire de Thomas Bayes (prononcer Beillesse) n’est guère banale. Né aux environ de 1702 à Londres, il devient pasteur de l’Eglise presbytérienne. Considéré comme un mathématicien britannique, il n’a pourtant publié que deux articles de son vivant. Et encore… Le premier concerne la bienveillance divine… Son fameux théorème est publié en 1763, soit deux ans après sa mort, par la vénérable Académie royale de Londres sous le titre: Essai sur la manière de résoudre un problème dans la doctrine des risques. C’est un ami de Thomas Bayes, Richard Price, qui adresse le texte de 20 pages à l’Académie royale le 10 novembre 1763, il y a exactement 249 ans. Un texte bourré de formules mathématiques qui ne peuvent qu’étonner sous la plume d’un pasteur. Certes, les bases des probabilités modernes ont été établies un siècle auparavant par Fermat et Pascal (1654). Mais c’est bien à Thomas Bayes que l’on attribue l’origine du développement des statistiques. De peu, car dès 1774, un Français, le célèbre Pierre-Simon Laplace réinvente le théorème de Bayes. Avait-il eu connaissance de la publication de ce dernier ? Il semble que personne, aujourd’hui, ne puisse trancher la question. Un temps, le théorème a été baptisé Bayes-Laplace mais il semble que les anglophones aient définitivement imposé Bayes tout court.

Il est remarquable qu’une formule aussi simple soit capable de donner des résultats aussi impressionnants, depuis aussi longtemps. Elle reste pourtant largement méconnue du grand public. Dans le cercle des mathématiciens, elle a donné lieu à des débats violents au point de marginaliser, pendant une bonne partie du 20ème siècle, les bayésiens. Cette approche serait pourtant à l’origine du craquage du code de la machine Enigma pendant la seconde guerre mondiale. Aujourd’hui, ses applications sont extrêmement diverses, comme le mentionne le dernier numéro de la revue Science et vie. Au point de se demander pourquoi elle n’est pas ouvertement exploitée par les instituts de sondage. La réponse est peut-être purement économique. Le maintien d’un suspense intense stimule la demande de nouveaux sondages. Avec Bayes, les jeux seraient sans doute fait plus vite. D’où un considérable manque à gagner. Gageons que la célébrité croissante de Nate Silver doit sérieusement inquiéter ces instituts…

Michel Alberganti

(Ré) écoutez l’émission Science Publique du 9 novembre que j’ai animée sur France Culture :

Mathématiques

09.11.2012 – Science publique
Une formule mathématique universelle existe-t-elle ? 57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

Une formule, publiée en 1763, peu après la mort de son auteur, le pasteur Thomas Bayes, est utilisée de plus en plus aujourd’hui dans pratiquement tous les domaines de la science. Pourquoi un tel succès ? Invités: Pierre Bessière, Christian Robert et Dirk Zerwas,avec notre partenaire, Science et Vie.

lire le billet