Google : moteur de recherche de jeunes génies

Louis Braille avait 15 ans lorsqu’il a inventé un alphabet pour les aveugles, en 1824. Ada Lovelace avait 13 ans lorsqu’elle s’est intéressée aux mathématiques qui allaient la conduire à écrire,  à 27 ans, ce qui est considéré comme le premier programme informatique de l’histoire. Alexander Graham Bell avait 19 ans lorsqu’il a commencé ses expériences sur le son qui l’amèneraient à inventer le téléphone. Le talent, la créativité et la valeur n’attendent donc pas le nombre des années. Fort de ce vieil adage, Google s’est lancé, en 2011, dans la recherche de ces jeunes surdoués de la science. Avec la Google Science Fair, depuis, des jeunes de 13 à 18 ans sont récompensés chaque année pour leurs découvertes.

Le sérieux et le niveau étonnants du travail de ces adolescents

Coup de pub pour le géant mondial des moteurs de recherche ? Certes, mais pas seulement si l’on considère, par exemple, les résultats de l’an dernier. Force est de constater que le travail accompli par les lauréats dépasse souvent largement le gadget d’adolescents. Le plus surprenant, peut-être, réside dans le type d’objectif qui a passionné ces jeunes. La détection du cancer du sein, la perception de la musique par les malentendants, l’amélioration du rendement des cultures en Afrique ne sont pas des sujets légers. Malgré leur âge, ces jeunes gens s’attaquent, sans crainte de l’échec, à des problèmes très sérieux. Sans crainte, non plus, que d’autres aient déjà trouvé une solution. En cela, ils se comportent en vrais scientifiques. Face à un problème qu’ils ont identifié dans leur entourage, ils cherchent une solution. Et ils trouvent comme le montrent ces trois vidéos décrivant, dans un style un peu trop publicitaire peut-être, les travaux de lauréats de la Google Science Fair 2012 :

Les prix décernés par le jury de la Google Science Fair comprennent une bourse d’études de 50 000 $ et un voyage aux Galapagos avec les expéditions du magazine National Geographic. Le concours pour 2013 s’est ouvert le 30 janvier et les candidats ont jusqu’au 30 avril pour déposer leur dossier. Les finalistes seront invités sur le campus de Google, à Mountain View en Californie où les gagnants seront annoncés le 23 septembre 2013.

Michel Alberganti

lire le billet

A l’école, mieux vaut être inquiet et consciencieux qu’ouvert et curieux

La personnalité des élèves de 16 ans a-t-elle une influence sur leurs résultats scolaires à 19 ans ? Telle est l’une des questions auxquelles Pia Rosander a répondu, le 25 janvier 2013, lors de la soutenance de sa thèse à l’université de Lund, en Suède. Une question simple mais dont les implications sont multiples en matière de système éducatif. Elles sous-entend en effet que les traits de caractère ne sont pas indifférents en matière de capacité d’adaptation au cadre scolaire. Une porte ouverte ? En apparence… Car comment prendre véritablement en compte ces différences à une époque où l’on parle de plus en plus d’individualisation de l’enseignement ?

200 élèves suédois de 16 ans

Pia Rosender est partie des cinq grands traits (Big Five) définissant les caractéristiques essentielles de la personnalité : ouvert, consciencieux, extraverti, agréable et inquiet. Ces traits, s’ils sont assez grossiers, ont l’avantage de rester stables dans le temps. Pia Rosander a ainsi analysé 200 élèves âgés de 16 ans dans le sud de la Suède. Trois ans plus tard, elle a enregistré leurs résultats scolaires de sortie de l’enseignement secondaire. Elle a alors cherché des corrélations entre la réussite scolaire et certains traits de caractère. Et elle a en trouvé.

Le trait de personnalité le plus clairement associé au succès à l’école n’est guère surprenant. Les élèves consciencieux, qui arrivent à l’heure et font bien leurs devoirs, obtiennent les meilleurs résultats. Plus étonnant, le second trait de caractère qui conduit au diplôme est… l’inquiétude. Contrairement à ce qu’attendait la chercheuse, l’ouverture d’esprit et la curiosité intellectuelle, à l’inverse, ne sont pas des traits de caractère qui favorisent le succès scolaire. Au contraire, semble-t-il…

“Le système scolaire suédois favorise les élèves consciencieux et motivés par la peur”, conclue Pia Rosender. “Ce n’est pas bon pour le bien-être à long terme lorsque la peur agit comme force motrice. Cela bloque également l’approfondissement des apprentissages qui se produit plutôt chez les élèves dont la personnalité est plus ouverte et pour lesquels la curiosité est une forte motivation”, précise-t-elle.

Différences entre filles et garçons

Pia Rosender a également analysé les différences existant entre les garçons et les filles. Son étude montre que le système éducatif suédois favorise les filles qui ont envie de plaire. Les garçons, eux, ont plus tendance à être motivés par l’intérêt et la curiosité, ce qui ne favorise pas leur réussite scolaire. La chercheuse a établi un lien entre un QI élevé chez les filles et un caractère consciencieux. Autre surprise, chez les garçons, la relation est inverse. Un caractère consciencieux est souvent associé à un QI plus faible que celui de ceux qui le sont moins. Pia Rosender en déduit que “le fait d’être plus consciencieux pourrait être un moyen pour les garçons de compenser un QI plus faible”.

Introverti ou extraverti ?

Nouvelle surprise au sujet du caractère introverti ou extraverti. En effet, c’est le premier qui favorise la réussite scolaire. Pia Rosender commente cette découverte en estimant que les élèves extravertis s’intéressent à tant de choses différentes qu’ils ont du mal à consacrer le temps nécessaire au travail scolaire.

Globalement, la chercheuse considère que son étude plaide en faveur d’une plus grande individualisation de l’enseignement dans le secondaire. “Comment pourrions-nous, autrement, aider les élèves talentueux doté de la “mauvaise” personnalité, ceux qui sont en échec scolaire, ceux qui ont des capacités mais sont, par exemple, incapables d’organiser leur travail scolaire ?” Pour Pia Rosender, les enseignants doivent considérer que la personnalité ne peut être modifiée ni par eux-mêmes, ni par les parents, ni par les élèves. Gronder les élèves négligents ou leur demander de se reprendre en main ne les aide pas.  En revanche, il faut sans doute apporter à ces élèves des structures et des techniques différentes de travail.

La richesse de la diversité

Que le système scolaire, qu’il soit suédois ou français, peine à prendre en compte la diversité de personnalités des élèves n’est guère surprenant. L’école d’aujourd’hui est l’héritière de la fameuse période de massification de l’enseignement au 20e siècle. Nul doute que, pour progresser, elle va devoir introduire une forme d’individualisation à l’intérieur de cette massification. Le numérique, les TICE, sont là pour  faciliter cette mutation. Le travail de Pia Rosender apporte de précieuses clés pour passer d’un système de pure sélection à l’aide d’un petit nombre de critères à une école permettant à des personnalités différentes de s’épanouir au lieu d’être exclues mais également d’enrichir la communauté d’une classe.

Michel Alberganti

 

lire le billet

Economie de la publication scientifique et libre accès: un débat relancé par la mort d’Aaron Swartz

Aaron Swartz le 18 janvier 2012 / Daniel J. Sieradski via Wikimedia Commons

Pourquoi Aaron Swartz, 26 ans, s’est-il pendu? Retrouvé mort le vendredi 11 janvier 2013 dans son appartement de Brooklyn, le jeune homme était connu pour sa fragilité. Il luttait depuis longtemps contre la dépression. Un paradoxe pour ce surdoué qui aurait pu vivre confortablement de l’argent gagné lorsqu’il n’avait que 20 ans, (fusion de la société qu’il avait créée, Infogami, avec Reddit en 2006) et de sa notoriété dans la communauté des gourous de l’informatique et d’Internet.

Aaron Swartz avait des idées mais aussi des idéaux. L’un d’entre eux était le libre accès aux publications scientifiques. C’est ce qui aprobablement contribué à le perdre.

Lire la suite…

 

lire le billet

Les changements climatiques ont stimulé l’évolution du genre Homo

Et si les changements climatiques du passé avaient joué un rôle important dans l’évolution de nos ancêtres au cours des deux derniers millions d”années ? Telle est la thèse soutenue par trois chercheurs, Katerine Freeman, professeur de géoscience et Clayton Magill, docteur en géosciences, à l’université de Pennsylvanie et Gail Ashley, professeur de sciences de la Terre à l’université Rutgers. Dans un article publié le 24 décembre 2012 dans la revue PNAS, ils suggèrent qu’une succession de rapides changements environnementaux auraient dirigé l’évolution humaine à cette époque.

Dans les sédiments d’un ancien lac

Les chercheurs ont étudié la matière organique préservée par les sédiments d’un ancien lac dans les gorges d’Olduvai, sur le versant ouest de la vallée du Rift, au nord de la Tanzanie. Ce lieu qui fait l’objet de recherches depuis 1931, est parfois considéré comme le berceau de l’humanité, en raison des nombreux témoignages de la présence de groupes humains préhistoriques dans cette région.

5 ou 6 changements d’environnement en 200 000 ans

“Le paysage dans lesquels les premiers hommes vivaient ont basculé rapidement de la forêt fermée à la prairie ouverte de 5 à 6 fois au cours d’une période de 200 000 ans”, indique Clayton Magill.  “Ces changements se sont produits de façon très brusque avec des transitions ne durant que quelques centaines ou quelques milliers d’années”, précise-t-il. Pour Katherine Freeman, la principale hypothèse suggère que les changements provoqués chez l’homme par l’évolution pendant ces périodes sont liés à cette modification constante de leur environnement et a un important changement climatique. “Alors que certains pensent que l’Afrique a subi un “grand assèchement” progressif et lent pendant 3 millions d”années, les données que nous avons recueillies montrent une absence de progression vers la sécheresse et, au contraire, un environnement extrêmement variable”, déclare-t-elle. Des périodes humides longues auraient alterné avec des périodes plus sèches.

La vie est plus difficile dans les périodes de changement que dans celles de stabilité. Clayton Magill note que de nombreux anthropologues considèrent que ces modifications de l’environnement pourraient avoir déclenché des développements cognitifs. Le bon sens conduit à la même conclusion. Soumis à des situations nouvelles, toutes les espèces vivantes doivent relever le défi : s’adapter ou disparaître. L’homme étant toujours là, il n’est pas incongru de penser… qu’il s’est adapté.

Plusieurs passages de la forêt à la prairie

“Les premiers humains ont dû passer d’une situation où ils ne disposaient que d’arbres à une autre où ils n’avaient plus que de l’herbe en seulement 10 à 100 générations et ils ont donc été conduit à modifier leur régime en conséquence”, indique Clayton Magill. Changement de nourriture disponible, changement de type de nourriture à manger, changement de façon d’obtenir la nourriture, autant de puissants déclencheurs de l’évolution. Seuls les plus malins, comme d’habitude, ont survécu. Sans doute grâce à un cerveau plus gros et, donc, à des capacités cognitives supérieures, ainsi que des modes de locomotion nouveaux et des organisations sociales différentes. “Nos données sont cohérentes avec ces hypothèses. Nous montrons que les variations rapides de l’environnement coïncident avec une période importante de l’évolution humaine lorsque le genre Homo est apparu pour la première fois avec les premières preuves de l’usage d’outils”, explique le chercheur.

Pour parvenir à ces conclusions, l’équipe de scientifiques a analysé la matière organique, les microbes et les autres organismes piégés dans les sédiments depuis 2 millions d’années dans les gorges d’Olduvai. En particulier, ils se sont intéressés à certains biomarqueurs, des molécules fossiles provenant du revêtement en cire des feuilles qui survit particulièrement bien dans les sédiments. Ensuite, la chromatographie gazeuse et la spectrométrie de masse leur ont permis de mesurer l’abondance relative des types de cires liés à différents isotopes du carbone. Ils ont ainsi pu détecter les transitions entre les environnement riches en arbres et ceux où seule l’herbe subsistait.

Sur une période de deux millions d’années, de nombreux facteurs interviennent. Comme l’évolution de l’orbite de la Terre qui influence les régimes de mousson en Afrique ou les durées d’ensoleillement qui agissent sur la circulation atmosphérique et l’apport en eau. Autant que paramètres dont les chercheurs ont dû tenir compte dans leurs modèles mathématiques.

Cela nous rappelle quelque chose…

Un tel travail nous ramène forcément à la situation que nous sommes en train de vivre aujourd’hui même. Nous aussi sommes confrontés à un changement climatique rapide. De nombreuses espèces vivantes en font et en feront les frais, faute de capacités d’adaptation suffisantes. Et l’homme ? Le réchauffement climatique actuel est le premier dont l’humanité a conscience pendant qu’il se produit. Pour la première fois, l’homme a même la sensation de pouvoir agir sur ce phénomène auquel son activité sur Terre contribue. Mais cela changera-t-il quelque chose ? Pourrons-nous prolonger la période climatique stable qui a prévalu sur la planète pendant la révolution industrielle ? Ou bien faut-il nous préparer à évoluer pour nous adapter ?

Michel Alberganti

lire le billet

Chasing Ice : la plus extraordinaire formation d’iceberg jamais filmée

Après l’Antarctique, dont la partie ouest se réchauffe à grande vitesse, voici l’Arctique et le Groenland qui a, lui aussi, fait parlé de lui en 2012, surtout en juillet avec des records de surface de fonte de sa calotte glaciaire. Le 14 décembre 2012, le documentaire Chasing Ice du réalisateur Jeff  Orlowski est sorti sur les écrans… en Angleterre. Auparavant, il avait été diffusé aux États-Unis et avait été sélectionné au festival Pariscience d’octobre 2012 à Paris. Ayant eu l’honneur de faire partie du jury cette année, je l’avais défendu, sans succès. Il vient de remporter le prix du meilleur documentaire aux Satellite Awards de l’International Presse Academy.

Des photos prises pendant des mois sur plusieurs années

Chasing Ice n’a pas que des qualités. Il est trop long, 80 minutes, et trop axé sur un personnage, James Balog, photographe américain qui s’est pris de passion pour le réchauffement climatique et, en particulier, son impact sur le Groenland. Pour démontrer la réalité de ce phénomène, le photographe a consacré plusieurs années à photographier, à l’aide d’appareils installés pendant des mois en différents points du Groenland, l’évolution des glaciers. Il a ainsi pu enregistrer avec précision leur perte de volume au fil du temps comme le montrent ces images prises à trois années d’intervalle :

Le documentaire relate, avec moult détails, les préparatifs des expéditions, la réalisation et l’installation des boitiers de protection contenant les appareils photo ainsi qu’un système spécialement conçu pour ces missions de time-lapse, c’est à dire de prise de vue automatique à intervalle de temps donné. Les difficultés de réalisation n’ont pas manqué dans un environnement aussi hostile. Soumis au froid… polaire, aux vents extrêmes et à de longs mois d’abandon avec les problèmes de durée de vie des batteries, les appareils ont souvent été arrachés par les tempêtes et détruits. A force d’obstination, James Balog a fini par obtenir les images qui montrent la fonte rapide des glaciers.

Comme si l’île de Manhattan s’effondrait

Mais il voulait aussi filmer la fragmentation des icebergs, appelés “vêlage” ou calving en anglais, c’est à dire, littéralement, la mise bas. Mais là, pas question d’abandonner une caméra en fonctionnement pendant des mois. L’équipe du film s’est donc postée, pendant de longues semaines, dans l’attente d’un événement… Au bord du découragement, ils ont finalement été largement récompensés par la plus extraordinaire fragmentation jamais filmée. Pas moins de 7,4 km3 de glace se sont lentement effondrés devant les objectifs pendant 75 minutes. A peu près la taille de l’île de Manhattan s’est ainsi détachée du glacier d’Ilulissat. Un spectacle grandiose et apocalyptique que, espérons le, vous pourrez, un jour, voir sur les grands écrans de cinéma ou de la télévision française. Faute d’une programmation annoncée, en voici l’extrait le plus spectaculaire diffusé sur le site du journal The Guardian à l’occasion de la sortie du film en Angleterre. A recommander aux climatosceptiques qui, souvent dans les commentaires de ce blog, sont persuadés que la température de la Terre n’augmente plus depuis 20 ans…

Michel Alberganti

lire le billet

Le jour d’après : la vidéo du lendemain de la fin du monde

La Nasa vient de publier une vidéo datée… du lendemain de la fin du monde qui, comme tout le monde le sait désormais est programmée pour le 21 décembre 2012. Avec 10 jours d’avance, la NASA tente de désamorcer la panique. “La preuve que le monde ne s’est pas terminé hier”,selon l’agence spatiale américaine.

L’intérêt de cette vidéo réside dans ses motivations et dans la méthode narrative utilisée. Pour en comprendre l’objectif, il faut suivre les informations qui proviennent des Etats-Unis et d’autres pays au sujet des croyances de fin du monde liées aux interprétations apocalyptiques du calendrier maya. Les Américains, en particulier, craignent des réactions incontrôlables de leurs concitoyens, comme des suicides, des vagues de panique, la construction d’abris antiatomiques et autres actes désespérés. C’est pour tenter de désamorcer de tels mouvements que la Nasa a réalisé cette vidéo et mis en place un groupe de chercheurs chargé de répondre aux questions des Américains angoissés. L’exercice de la vidéo se révèle ainsi plein de leçons :

1°/ Le procédé du “jour d’après”

L’idée de proposer, dix jours avant, une vidéo censée se passer le lendemain de la fin du monde semble relever d’une manœuvre désespérée ou insultante. Désespérée parce que cela révèle que les responsables de la Nasa, à cours d’arguments rationnels, acceptent de jouer le jeu des croyances qu’ils dénoncent. Les voilà en train de faire un exercice d’anticipation pour contrecarrer une croyance… anticipatrice. Le mal par le mal, en somme. Légèrement insultante, ou méprisante, vis à vis du public aussi. Si l’on décrypte le message, cela donne : Vous croyez n’importe quoi. Eh bien pourquoi ne croiriez-vous pas aussi à ceci !”

La Nasa, très sérieuse agence spatiale, verse ainsi dans la technique de la projection futuriste à vocation pédagogique inaugurée explicitement par le film : “Le jour d’après”, réalisée par Roland Emmerich en 2004. Il s’agissait alors d’alerter la population mondiale sur les effets du dérèglement climatique. Un autre catastrophe. La pédagogie réside dans le fait de montrer ce qui va se produire grâce à la science fiction. La Nasa, elle, fait de la fiction grâce à la science.

2°/ La pédagogie de l’anticipation

Sur un ton extrêmement sérieux, la voix off souligne le titre du clip: “Le monde ne s’est pas terminé hier”, sur le mode du message à la postérité : “22 décembre 2012. Si vous regardez cette vidéo, cela signifie une chose : le monde ne s’est pas terminé hier”. Vient ensuite la mention de la croyance en la prédiction du calendrier Maya. Et, bien entendu, le démontage scientifique des fondements même de cette croyance. Entrée en scène d’un spécialiste, le docteur John Carlson, directeur du centre pour l’archéoastronomie, qui explique que le calendrier Maya ne prédit pas la fin du monde le 21 décembre 2012 mais seulement la fin d’un cycle. Ainsi, au lieu d’un lendemain de cataclysme, le 22 décembre sera le premier jour d’une nouvelle période de 5125 ans, soit 13 baktunob ou 1 872 000 jours, suivant celle que les mayas ont connu pendant plus de 2500 ans.

3°/ Le rationnel contre la croyance

Après avoir démonté la croyance en une fin du monde fondée sur le calendrier maya, la Nasa semble considérer que cela ne suffit pas. Revenant dans son domaine de prédilection, elle s’attaque à deux des principales causes de fin du monde réellement possibles : la collision avec un astéroïde et l’activité du soleil. Dans le premier cas, la Terre exploserait sous l’impact, dans le second elle se consumerait. Pour démontrer qu’aucune rencontre avec un objet céleste n’est programmée pour le 21 décembre, la Nasa déclare d’abord que les observations des scientifiques ne montrent aucun danger. Et puis, et c’est sans doute le meilleur moment du clip, la voix off, sans changer de ton, indique qu’il n’est d’ailleurs pas nécessaire d’appeler le gouvernement pour s’en convaincre. Il suffit de sortir de chez soi et de regarder le ciel. Si un astéroïde géant devait heurter la Terre le 21 décembre, il serait déjà l’objet le plus gros et brillant visible dans le ciel… Petit demi-tour temporel. Le spectateur auquel s’adresse alors la Nasa n’est plus celui du 22 décembre mais bien celui du 12 décembre…

Michel Alberganti

A retrouver sur Slate.fr: notre dossier «Fin du monde»

» C’est à quelle heure, la fin du monde?

» Ce qui se passera vraiment le 21 décembre selon le calendrier maya

lire le billet

Aspirine : notre pilule quotidienne ?

La magazine Science et Vie du mois de décembre 2012 fait sa couverture avec une formule accrocheuse : “Le médicament qui protège de tout”. Il s’agit de l’aspirine, autrement dit l‘acide acétylsalicylique, le médicament le plus utilisé au monde. Et sans doute l’un des plus vieux. Son nom, Aspirin, a été déposé par Bayer en… 1899 après sa création par le chimiste allemand, Felix Hoffmann (1868 – 1946) en 1897. Aujourd’hui, la consommation mondiale d’aspirine est estimée à 40 000 tonnes par an.

Au cours des dernières années, de nombreuses études scientifiques publiées, par exemple, dans la très réputée revue The Lancet, ont fait état de l’effet bénéfique de la prise quotidienne d’aspirine pendant plusieurs années. Outre l’effet logique d’un médicament agissant sur la fluidité du sang en matière d’accident cardiovasculaires, l’aspirine se révélerait protectrice contre certains cancers (colon, prostate, poumon) et les maladies neurodégénératives.

La perspective d’une pilule miracle dont la prise quotidienne protégerait contre les trois principales maladies mortelles actuelles ne peut qu’être attirante. D’autant que la médecine nous a plutôt habitués, ces derniers temps, à des surprises inverses, comme avec le Mediator et tous les médicaments déremboursés pour cause d’efficacité insuffisante.

Hélas, bien entendu, les choses ne sont pas simples. En février 2012, une étude publiée dans la revue Archives of Internal Medecine par des chercheurs de l’université de Londres-Saint Georges de Londres réduit considérablement les espoirs d’effets décisifs de l’aspirine. Réalisée sur 100 000 patients suivis pendant 6 ans, l’étude montre une réduction de 10% du nombre d’accidents cardiovasculaires non mortels. Mais la prise d’aspirine n’a pas eu d’effets sur le nombre de décès dus à ces mêmes accidents. Ni sur le nombre de victimes de cancers. En revanche, les cas de saignements internes mettant en jeu la vie du patient auraient augmenté de 30%. Avec des ulcères mais aussi des saignements oculaires.

Bénéfices plus modestes que prévu

Pour le principal auteur de l’étude, Rao Sehasai, “l’effet bénéfique de l’aspirine dans la prévention des maladies cardiovasculaires pour des personnes ayant fait des attaques ou des AVC (accidents vasculaires cérébraux) est indiscutable” et il engage ces patients à poursuivre leur traitement. Il s’agit là de ce que l’on appelle le traitement secondaire, c’est à dire concernant des personnes ayant déjà eu des accidents cardiovasculaires ou des AVC. Mais la question du traitement primaire, c’est à dire de la prise d’aspirine de façon quotidienne avec un objectif préventif se trouve, elle, largement mise en cause. “Les bénéfices pour des personnes qui n’ont pas ces problèmes sont beaucoup plus modestes qu’on le croyait, et un traitement à l’aspirine peut entraîner potentiellement des dégâts majeurs consécutifs à des saignements”, indique Rao Sehasai.

Autres candidats : la metformine et les statines

L’espoir d’une pilule miracle ne concerne pas uniquement l’aspirine. Le dossier de Science et Vie analyse également la metformine et les statines. Le premier médicament est un antidiabétique commercialisé en 1953 et prescrit aujourd’hui pour plus de 120 millions de patients dans le monde. Comme l’aspirine, la metformine, parfois qualifiée de “véritable élixir de jouvence”, protégerait contre les maladies cardiovasculaires, les cancers et les maladies neurodégénératives. Les statines, elles, sont des anticholestérols commercialisés dans les années 1980. Et elles protégeraient aussi du cancer, de l’ostéoporose, des accidents cardiovasculaires, les rhumatismes inflammatoires, la sclérose en plaque…

Mode de vie et alimentation

Pour en avoir le coeur net, j’ai invité plusieurs médecins spécialistes et un chercheur à l’émission Science Publique que j’ai animée vendredi 7 décembre 2012 sur France Culture, dans le cadre d’un partenariat avec Science et Vie. La différence entre les traitements primaires et secondaires a été souvent mise en avant. Les invités n’ont pas nié certains effets positifs de l’aspirine et des deux autres médicaments. Mais, au final, le fameux rapport bénéfice-risque ne confirme guère l’intérêt de prendre tous les jours un ou plusieurs médicaments dans l’espoir d’éviter certaines maladies graves. Comme le conseille le simple bon sens, d’autres moyens sont au moins aussi efficaces, en matière de mode de vie et d’alimentation. Le jour où un médicament viendra tout corriger sans que nous n’ayons le moindre effort à faire n’est, semble-t-il, pas arrivé. Et l’on peut se demander s’il est souhaitable qu’il arrive…

Michel Alberganti

(Ré)écoutez l’émission Science Publique du 7 décembre 2012 sur France Culture, en partenariat avec Science et Vie.

Table ronde

Faut-il prendre de l'aspirine tous les jours ?

07.12.2012 – Science publique
Faut-il prendre de l’aspirine tous les jours ? 57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

L’aspirine, la metformine et les statines auraient des vertus protectrices contre les accidents cardio-vasculaires, les cancers et les maladies neuro-dégénératives. Sous réserve d’en prendre tous les jours pendant des années. S’agit-il d’une préconisation sérieuse ? Le diagnostic des invités de Science Publique…

 

 

lire le billet

Climat : tout Doha dans le mur

Moment d’émotion à Doha, au Qatar, lorsque Naderev Saño, négociateur en chef de la délégation des Philippines, a fait le lien entre les négociations de la 18ème conférence internationale sur le changement climatique et le nouveau drame qui a frappé les Philippines cette semaine avec le passage du typhon Bopha qui a fait plus de 500 morts et des centaines de milliers de sans abri. Mais les sanglots dans la voix de Naderev Saño n’y feront rien. Doha va se terminer sur un échec cuisant. Un de plus. Avec une fracture grandissante entre les pays pauvres et les pays riches sur la gestion du réchauffement climatique.

En effet, le temps des objectifs de réductions des émissions de CO2 semble désormais révolu. Les discussions se concentrent sur la gestion  des conséquences d’un réchauffement planétaires qui pourrait atteindre 3 à 5°C en 2100 au lieu des 2°C visés pour limiter les risques d’emballement du système climatique.

La conférence de Doha, qui a rassemblé les représentants de 190 pays du 26 novembre au 6 décembre 2012 au Qatar, le pays dont les habitants sont les plus gros pollueurs de la planète, est en passe de s’achever en farce. D’autant que le pays hôte n’a pas jugé utile de saisir cette occasion pour faire le moindre effort en matière de réduction de ses émissions de gaz à effet de serre (GES).

Le vice-Premier ministre Abdallah al-Attiya qui dirige les débats en séance plénière a même fait preuve de cynisme, voire de mépris, pour les participants. Vendredi 7 décembre, il a ouvert une séance en diffusant le clip d’une “chanson de la société civile” appelant à “se réveiller” sur l’air de Bella Ciao. Face au risque de prolongation des débats dans la nuit, il a déclaré avec élégance: “Je ne suis pas pressé. Ma maison est seulement à 10 minutes en voiture”. Visiblement, le Qatar n’avait pas d’objectif écologique en organisant cette conférence.  On découvre qu’il ne s’agissait pas, non plus, de donner une bonne image du monde arabe. Tout cela tourne donc de plus en plus à la mascarade et justifie de se poser la question de la nécessité de continuer à rassembler, tous les ans à grand frais, des milliers de personnes autour de la question du climat.

Un fiasco de plus

Doha s’inscrira donc dans la longue liste des fiascos. Pas d’accord sur des objectifs contraignant de réduction des émissions de gaz à effets de serre. Pas d’accord sur le programme de soutien financier aux pays victimes des conséquences du réchauffement climatique. “L’UE ne peut pas accepter un texte qui contiendrait un engagement à 60 mds d’argent public en 2015 compte tenu des contraintes budgétaires dans lesquelles nous sommes”, a déclaré le ministre français du Développement, Pascal Canfin, indiquant que les négociateurs tentaient de trouver une “formule” qui “dessinerait un chemin pour arriver aux 100 milliards”, rapporte l’AFP. Comme on le sentait déjà lors des précédents sommets, comme celui de Durban, la crise économique a achevé les timides velléités d’engagement financier des pays riches. Les pays pauvres vont devoir s’y faire. Les riches n’ont plus d’argent à leur donner.

Alors, Doha accouchera sans doute de décisions strictement symboliques. Le protocole de Kyoto, version 2, qui doit débuter le 1er janvier 2013 reste sur la sellette. Il est déjà vidé de sa substance avec le désistement du Japon, de la Russie et du Canada. Les décisions ne concerneront que l’UE et l’Australie qui émettent 15% des GES globaux. Autant dire que leurs efforts n’auront aucun effet significatif sur le réchauffement. Et puis, il sera temps de se donner rendez-vous… pour la prochaine réunion, à Paris en 2015 avec l’espoir de moins en moins ferme d’un accord mondial sur des réductions d’émissions à partir de 2020.

On aurait donc probablement pu se passer de Doha et des railleries de son vice-premier ministre. Les choses en sont arrivées au point de presque donner raison au climato-sceptique Lord Monckton qui a réussi à prendre la parole en se faisant passer pour un représentant de la Birmanie (Myanmar) pour exposer ses vues contestant la réalité du réchauffement et l’absurdité de lutter contre les émissions de GES. Qu’il ait pu, ainsi, s’infiltrer dans la conférence est tout un symbole…

Michel Alberganti

lire le billet

L’Inria (ré)invente le troisième oeil [Vidéo]

Alfred Faucher n’aurait sans pas manqué de sourire s’il avait assisté, ce matin, à la présentation de la dernière innovation de l’Inria,les inventeurs du monde numérique” (sic). Mardi 4 décembre 2012, en effet, l’Institut de recherche en informatique dévoilait “FlyViz, des yeux derrière la tête”. En 1906, il y a donc plus de 100 ans, Alfred Faucher déposait, lui, le brevet N°369 252 relatif au… rétroviseur. Un objet si utile qu’il est devenu obligatoire sur toutes les automobiles dès 1921. Pas sûr que le FlyViz trouve autant d’applications.

Pourtant le dossier de presse n’hésite pas à imaginer jusqu’à l’improbable: “permettre à des soldats, des policiers ou des pompiers d’éviter des dangers potentiels (…). La technologie peut être envisagée dans de nombreuses situations du quotidien pour voir ce dont nous avons toujours rêvé: ce qu’il se passe “dans notre dos”! Surveiller une classe alors que le professeur écrit au tableau ou encore bébé confortablement installé dans son parc de jeu tout en cuisinant sont autant d’exemples d’applications qui pourraient vite rendre FlyViz indispensable !”.

Le visiocasque FlyViz pourrait peut-être servir dès à présent aux chercheurs de l’Inria pour la surveillance de ceux qui écrivent leur dossier de presse… dans leur dos, probablement.

Michel Alberganti

lire le billet

+ 11 mm en 20 ans : la glace polaire fond, le niveau des mers monte

La question jaillit dès que l’on parle de la fonte des glaces polaires, même dans la rédaction de Slate.fr… “Mais alors où va l’eau ?” La réponse est à la fois simple et compliquée. Simple parce que l’eau provenant de la glace fondue va, bien entendu, dans les mers. Compliquée parce que, à la question corollaire : “Est-ce que cela fait monter le niveau des mers ?”, il était, jusqu’à aujourd’hui, difficile d’apporter une réponse précise.

Banquise ou inlandsis ?

Première difficulté : cela dépend du type de glace. S’il s’agit de la glace de mer constituant les banquises, le niveau ne monte pas. Mais lorsqu’il s’agit de la fonte de glace d’eau douce, celle des glaciers qui forment les calottes polaires, ou islandsis,  à la suite de chutes de neige accumulées pendant des millénaires, le niveau monte. De combien ? Là était la question délicate. Jusqu’à la publication, le 29 novembre 2012 dans la revue Science, de trois études produites par 47 chercheurs de 26 laboratoires. Il fallait cette association pour sortir d’une situation dans laquelle les données étaient aussi nombreuses que différentes.

Le Groenland en fonte libre

Désormais, la conclusion est limpide : la fonte des glaces polaires au cours des 20 dernières années a contribué à la montée du niveau des mers pour 11,1 mm +/- 3,8 mm. Soit une fourchette comprise entre 7,3 mm et 14,9 mm. Mais ce bilan ne reflète pas bien la dynamique du phénomène. Ainsi, le Groenland perd aujourd’hui 5 fois plus de glace qu’en 1992. Aujourd’hui, globalement, la fonte des glaces des pôles est, chaque année, trois fois supérieure à celle des années 1990 L’augmentation annuelle du niveau des mers est ainsi passé de 0,27 mm par an dans les années 1990 à 0,95 mm par an actuellement. Les deux tiers de la perte de glace se produit au Groenland contre un tiers en Antarctique.

Ce résultat tranche une question pendante concernant l’Antarctique. Certains pensaient que la quantité de glace y augmentait. Désormais,  les chercheurs affirment que les deux pôles perdent de la glace chaque année. Même si c’est au Groenland que la perte est la plus spectaculaire, comme on a pu le constater cet été. Les scientifiques ont déjà dû revoir profondément leurs prévisions dans ce domaine.

Un cinquième de la montée totale

Le chiffre de 11,1 mm en 20 ans peut paraître modeste. Il faut néanmoins ne pas oublier que la fonte des glace polaire ne contribue que pour environ un cinquième à la montée totale du niveau des mers liée au réchauffement climatique. La dilatation de l’eau joue un rôle très important. Le total atteint donc plus de 50 mm en 20 ans. Le plus inquiétant étant la forte accélération du phénomène au cours des dernières années.

Michel Alberganti

lire le billet