Pour la satiété, la taille (des portions) ne compte pas

La satisfaction, en matière d’alimentation, comme dans d’autres domaines d’ailleurs, est souvent considérée comme proportionnelle à la quantité de nourriture absorbée. Même si la qualité ne nuit pas, on s’imagine mal repu dès la première bouchée. Et pourtant…

Une étude, publiée dans la revue Food Quality and Preference de janvier 2013,  montre qu’il n’est guère nécessaire de dépasser ce stade, pourvu que l’on soit assez patient. Ellen van Kleef, Mitsuru Shimizu et Brian Wansink de l’université de Cornell ont décidé d’en avoir le coeur net. Armés de chocolat, de tartes aux pommes et de chips, ils ont expérimenté la relation entre la quantité avalée et le sentiment de satiété dans une situation de grignotage considérée comme l’une des plus favorables à la prise de poids.

Deux groupes de volontaires ont été formés.

Le premier a reçu les plus grosses portions: 100 g de chocolat, 200 g de tarte aux pommes et 80 g de chips de pommes de terre. Soit légèrement plus que les portions recommandées. Le second groupe, lui, n’a reçu que, respectivement,  10g, 40g et 10g.

Quand le premier groupe a consommé 1.370 calories, le second a dû se contenter de 195 calories. Chacun a disposé du temps nécessaire pour absorber cette nourriture. Chaque participant a ensuite rempli un questionnaire portant sur l’appréciation de la nourriture et sur le degré de faim estimé avant de la consommer ainsi que 15 minutes après l’avoir absorbée.

Les résultats montrent que petites et grosses portions peuvent apporter des sensations de satiété équivalentes. Ceux qui ont reçu les grosses portions ont consommé 77% de nourriture de plus sans ressentir une satisfaction sensiblement supérieure.

Une leçon intéressante pour ceux qui veulent éviter de prendre du poids sans risquer l’insoutenable frustration. Le secret: la demi-portion! Voire moins… si satiété. Ah la modération! Toujours la modération…

Michel Alberganti

lire le billet

Human Brain Project : La Suisse prend la tête de l’Europe

100 milliards de neurones. 1 milliard d’euros… L’un des deux programmes de recherche “vaisseau amiral” (flagship) de la Commission Européenne (Future Emerging Technology (FET) Flagship) est le projet Human Brain Project (HBP) avec, pour leader, l’Ecole Polytechnique Fédérale de Lausanne (EPFL). L’annonce a été faite le 28 janvier 2013 par Neelie Kroes, vice-présidente de la Commission européenne (CE) en charge du programme numérique, lors d’une conférence de presse organisée à Bruxelles. Le second projet vainqueur, le graphène, sera piloté par l’université de Chalmers de Göteborg, en Suède.

Ces annonces ne constituent pas vraiment des surprises car elles avaient été dévoilées par la revue Nature, pourtant très stricte sur ses propres embargos, dès le 23 janvier 2013. Néanmoins, le fait que la Suisse, pays qui ne fait pas partie de l’Union Européenne (UE) et qui, en matière de recherche, a le statut de “membre associé” comme la Turquie, la Norvège ou Israël, soit promue à la tête d’un tel projet va faire grincer pas mal de dents en Allemagne, en France ou en Angleterre. Pas de quoi contribuer, par exemple, à resserrer les liens distendus des Anglais avec l’UE.

“La Suisse est un pays européen”

En Suisse, en revanche, la décision de la CE est fêtée comme un triomphe de la recherche helvétique. La qualité de cette dernière n’est pas contestée grâce à des établissements réputés comme, justement, l’EPFL, mais aussi l’École polytechnique fédérale de Zurich (EPFZ) et, bien entendu, le CERN de Genève. De là à lui confier le pilotage d’un tel projet, il y a un pas. Justement, lors de la conférence de presse, la première question posée par une journaliste de la télévision suisse a porté sur ce choix de la Suisse. Neelie Kroes a simplement répondu : “La Suisse est un pays européen !” Elle a ajouté que l’Europe avait besoin d’unir toutes ses forces… La vice-présidente de la CE a poursuivi les réponses aux questions posées, en particulier sur le financement, sur le même mode. C’est-à-dire en évitant soigneusement… les réponses précises.

Je reviendrai très vite sur le graphène, projet moins controversé. Le débat du jour concerne plus le Human Brain Project à la fois sur la forme et sur le fond.

1°/ Pourquoi la Suisse ?

Malgré l’absence de précisions données par Neelie Kroes, les raisons du choix de la Suisse sont claires. Le Human Brain Project était proposé par l’EPFL qui a recruté, en 2002, un homme, Henry Markram, qui a fait de ce programme celui de sa vie.  De nationalité israélienne, il a fait ses études en Afrique du sud (université de Cape Town) et à l’Institut Weizmann, en  Israël, avant de passer par les National Health Institutes (NIH) américains et le Max Planck Institute  de Heidelberg en Allemagne. A l’EPFL, il a lancé en 2005 le Blue Brain Project que le HBP va prolonger. Pour cela, il a convaincu Patrick Aebischer, le neurologue qui dirige l’EPFL, d’acquérir un supercalculateur Blue Gene d’IBM. Il a ainsi construit les bases du HBP et permis à la Suisse d’être candidate dans la course aux programmes FET Flagship. C’est donc grâce à l’israélien Henry Markram qu’un pays non membre de l’UE a remporté ce concours.

2°/ Pourquoi le Human Brain Project ?

“Un ordinateur qui pense comme nous”. C’est ainsi que Neelie Kroes a décrit l’objectif du HBP et justifié la victoire de ce projet. Pas sûr qu’Henry Markram se retrouve vraiment dans cette formulation, à moins qu’il en soit l’auteur… Pour convaincre les décideurs politiques, il faut savoir leur “vendre” des sujets de recherche souvent complexes. C’est bien le cas du HBP. Son réel objectif est d’intégrer l’ensemble des travaux des chercheurs du monde entier sur le fonctionnement du cerveau dans un seul supercalculateur. A terme, ce dernier pourrait simuler le fonctionnement complet du cerveau humain. Il permettrait alors de mieux comprendre les mécanismes de maladies neurodégénératives et même de tester des médicaments pour les soigner.

Cette approche suscite de nombreuses critiques et pas mal de doutes sur ses chances d’aboutir. La recherche sur le cerveau génère environ 60 000 publications scientifiques par an. La plupart portent sur des mécanismes très précis des neurones, des synapses ou des canaux ioniques. Ces recherches ne permettent pas d’aboutir à une vue d’ensemble du fonctionnement du cerveau. C’est justement l’objectif du HBP. Pour autant, rien n’assure qu’un modèle synthétique émergera de ce rassemblement de travaux épars. Certains pensent qu’une telle démarche risque d’induire une modélisation unique, conçue par…  Henry Markram lui-même.

“Nous avons besoin de diversité en neuroscience”, a déclaré à Nature Rodney Douglas, co-directeur de l’Institut pour la neuroinformatique (INI) qui regroupe l’université de  Zurich et l’Institut fédéral de technologie (ETH) de Zurich. Certains mauvais esprit pourrait expliquer une telle remarque par la concurrence entre Lausanne et Zurich. Gageons que l’intérêt supérieur de l’Europe permettra de surmonter pareilles réactions… Il n’en reste pas moins que les chances de succès du HBP sont très loin d’être garanties.

“Le risque fait partie de la recherche”, comme le rappelle Neelie Kroes. Dans le cas de ce projet, le risque est justifié par l’ambition du projet. Mais cela ne diminue en rien les possibilités d’échec. D’autant que le succès, lui, dépend de la qualité de la collaboration de l’ensemble des 70 institutions provenant de 22 pays européens participant au HBP. Et de la bonne volonté des chercheurs des autres pays. Seront-ils motivés par le succès de la Suisse ? Le cerveau de l’Europe pourra-t-il devenir celui du monde ?

3°/ Comment trouver 1 milliard d’euros ?

La question a été posée plusieurs fois à Neelie Kroes: “Le financement du HBP est-il assuré?” Les journalistes présents ont fait remarquer que seuls 53 M€ étaient alloués pour l’année 2013. La vice-président s’est déclarée confiante dans la participation des Etats membres à ce financement. Pour atteindre 1 milliard d’euros sur 10 ans, il faut trouver 100 M€ par an, en moyenne. La moitié proviendra des fonds de l’UE, l’autre moitié devra être apportée par les Etats membres. Et la Suisse ? Il sera intéressant de mesurer la participation du leader qui, lui, n’est pas contraint par la mécanique économique de Bruxelles. Le choix d’un pays réputé “riche” n’est peut-être pas un hasard. La CE pourrait espérer que les Suisses, motivés par la désignation de leur projet, mettront la main à la poche pour compléter le financement de pays européens encore rongés par la crise.

Michel Alberganti

lire le billet

Passe-moi la bobine de fil de carbone…

L’équipe de chercheurs de l’université Rice retient sa joie… Pourtant, elle vient de réussir un joli coup avec la mise au point d’un nouveau fil réalisé en nanotube de carbone prêt pour l’industrialisation. Demain, ce nouveau matériau deviendra peut-être aussi banal que le fil de pêche en nylon ou le fil de machine à coudre.  Pour des applications sans doute assez différentes. La performance de cette équipe, rapportée dans l’article publié dans la revue Science du 11 janvier 2013, est d’avoir obtenu les propriétés prédites par la théorie des nanotubes et d’avoir mis au point un procédé de production par tréfilage qui pourrait aboutir à une fabrication de masse.

100 fois plus résistants que l’acier, 10 fois plus conducteurs

Coté propriétés, les nanotubes de carbone sont de la taille d’un brin dADN (quelques dizaines de nanomètres de diamètre). Ils font rêver les ingénieurs depuis leur découverte officielle attribuée à Sumio Iijima (NEC) en 1991.  Il faut dire qu’ils sont 100 plus résistants que l’acier avec un sixième de son poids. Quant à leur conductivité électrique et thermique, elle est dix fois supérieure à celle des meilleurs conducteurs métalliques.  Ils sont déjà utilisés, par exemple,  dans les semi-conducteurs, les systèmes délivrance de médicaments et les éponges pour ramasser le pétrole. Restait à fabriquer un fil utilisant ces nanotubes miracles.

Coton noir

C’est ce que les chercheurs de l’université de Rice, associés à l’entreprise Teijin Aramid des Pays-Bas, à l’institut Technion d’Haifa (Israël) et à un laboratoire de l’armée de l’air américaine (AFRL), ont réalisé. Ils ont obtenu une fibre en nanotubes “dont les propriétés n’existent dans aucun autre matériau”, selon les termes de Matteo Pasquali, professeur de chimie et d’ingénierie biomoléculaire à l’université de Rice. “Cela ressemble à des fils de coton noir mais cela se comporte comme des fils de métal ayant la résistance de fibres de carbone”, précise-t-il.

Le diamètre d’une seule fibre du  nouveau fil ne dépasse pas le quart de celui d’un cheveu humain et il contient des dizaines de millions de nanotubes en rangs serrés, côte à côte. Toute la difficulté réside dans la production de tels fils à partir de nanotubes purs. C’est le procédé mis au point à l’université Rice à la fois grâce au travail fondamental des chercheurs et à l’apport de l’expérience industrielle de l’entreprise Teijin Aramid, spécialisée dans la fabrication de fibres d’aramides telles que celles qui composent le fameux Kevlar de Dupont de Neunours.

Les images de la production du fil de nanotubes par tréfilage sont spectaculaires sur la vidéo réalisée par les chercheurs (ci-dessous). Plus impressionnant que l’exemple d’utilisation à l’aide d’une lampe halogène suspendue à deux fils en nanotubes… Certes, cela montre que les fils conduisent l’électricité nécessaire malgré leur composition et leur faible diamètre. Mais, bon, ce n’est guère renversant.

Grâce à une résistance mécanique et une conductivité 10 fois supérieures aux précédentes réalisations de telles fibres, le nouveau fil rivalise avec le cuivre, l’or et l’aluminium. Ces deux propriétés rassemblées pourraient lui donner l’avantage sur le métal pour le transport de données et les applications imposant une faible consommation. Deux domaines plein d’avenir. L’aérospatial, l’automobile, la médecine et les textiles intelligents sont dans le collimateur. Imaginons une veste au tissu ultra-résistant et conduisant l’électricité. Des capteurs solaires intégrés pourraient recharger en permanence un téléphone portable ou une tablette de poche. Sans parler de l’imagination des créateurs de mode pouvant nous tailler des costumes lumineux. Effet garanti…

Michel Alberganti

lire le billet

2012 : les temps forts de la science

L’année 2012 ira à son terme. Plus vraiment de doute désormais. La fin du monde, promise par certains Cassandre, sera pour plus tard… Et les Mayas, involontaires fauteurs du trouble, sont entrés dans une nouvelle ère avant tout le monde, le 21 décembre dernier, après avoir sans doute bien ri de la panique engendrée par la fausse interprétation de leur antique calendrier. Du coté de la vraie science, la cuvée 2012 restera sans doute dans les annales comme particulièrement riche. Aussi bien en succès qu’en couacs. Pour faire bonne mesure, revenons sur trois grands moments dans ces deux catégories et sur leurs principaux acteurs.

Trois succès :

1°/ Peter Higgs, le père du boson

4 juillet 2012. Un jour peut-être, lorsque les manuels de physique auront intégré un minimum d’histoire des sciences (espérons que cela arrive avant la prochaine nouvelle ère du calendrier Maya), la photo de Peter Higgs ornera cette date du 4 juillet. Dans l’amphithéâtre du CERN, Peter Higgs pleurait. Il racontera ensuite que l’ambiance y était celle d’un stade de foot après la victoire de l’équipe locale. Ce jour là, les résultats des deux expériences menées avec le LHC ont montré qu’ils convergeaient vers la valeur de 125 GeV. Soit la masse du boson dont l’existence avait été prédite par Peter Higgs et ses collègues, parmi lesquels  François Englert et Tom Kibble sont toujours vivants, en… 1964. Fantastique succès, donc, pour ces théoriciens qui voient, 48 ans plus tard, leurs calculs vérifiés par l’expérience. Il faudra néanmoins attendre le mois de mars 2013 pour une confirmation définitive des résultats. Et septembre pour un possible (probable ?) prix Nobel de physique pour Peter Higgs. En 2013, notons donc sur nos tablettes:  “Le boson”, saison 2.

2°/ Curiosity, le rover sur Mars

6 août 2012. 7h32 heure française. Le rover Curiosity se pose en douceur sur Mars après un voyage de 567 millions de km qui a duré 8 mois et demi. Comme au CERN un mois plus tôt, c’est l’explosion de joie dans la salle de contrôle du Jet Propulsion Laboratory (JPL) de la Nasa à Pasadena (Californie). C’est la première fois qu’un robot de ce calibre (3 x 2,7 m sur 2,2 m de haut, 899 kg) est expédié sur une planète du système solaire. Près de 7000 personnes ont travaillé sur le projet qui a coûté la bagatelle de 2,5 milliards de dollars. On comprend le soulagement apporté par l’atterrissage réussi. Pour autant, la véritable mission de Curiosity a commencé après cet exploit. Et force est de constater qu’elle n’a pas, pour l’instant, été à la hauteur des espoirs mis en elle. Le comble étant que c’est plutôt son petit prédécesseur, Opportunity, qui fait l’actualité avec ses découvertes géologiques. Curiosity, de son coté, doit découvrir des traces de vie passée sur Mars. Pour lui aussi, la saison 2 pourrait être décisive.

3°/ Serge Haroche, prix Nobel de physique

9 octobre 2012. A Stockolm, la nouvelle prend presque tout le monde par surprise. Alors que l’on attendait le Britannique Peter Higgs, c’est le Français Serge Haroche qui décroche le prix Nobel de physique avec l’Américain et David J. Wineland. Après des années où ce prix allait plutôt à des chercheurs en physique appliquée, c’est le grand retour du fondamental.  Avec Serge Haroche, la mécanique quantique et le chat de Schrödinger sont à l’honneur. Le Français, issu du même laboratoire de l’Ecole Nationale Supérieure (ENS) de la rue d’Ulm, à Paris, que deux précédents Nobel, a réussi à maintenir des particules dans cet état improbable où la matière hésite et se trouve, un bref instant, dans deux situations contradictoires. Comme un chat qui serait à la fois mort et vivant… Seuls les physiciens quantiques peuvent imaginer un tel paradoxe. Serge Haroche a été plus loin et a réussi à maintenir réellement des particules dans cet état assez longtemps pour faire des mesures. La médiatisation de son prix Nobel a révélé l’impact de cette distinction dont la science française avait besoin. Depuis Claude Cohen-Tannoudji en 1997, elle n’avait été primée qu’une fois avec Albert Fert en 2007.

Trois échecs :

1° / Les neutrinos trop rapides

16 mars 2012 : Eh oui ! Einstein a dû en rire dans sa tombe. Les scientifiques du CERN, eux, ont dû rire jaune en devant admettre, en mars 2012, que les neutrinos ne vont pas plus vite que la lumière. Pas moins de 6 mois ont été nécessaires pour débusquer l’erreur de manip. Une vulgaire fibre optique mal branchée. Au CERN de Genève ! Le temple de la physique doté du plus gros instrument, le LHC ! Avec des milliers de scientifiques venus du monde entier… Bien entendu, l’erreur est humaine. Ce qui l’est aussi, sans être aussi défendable, c’est le désir irrépressible de communiquer le résultat d’une expérience avant d’être absolument certain du résultat. Risqué, surtout lorsque ce résultat viole l’une des lois fondamentales de la physique : l’impossibilité de dépasser la vitesse de la lumière établie par Albert Einstein lui-même. Nul doute que la mésaventure laissera des traces et favorisera, à l’avenir, une plus grande prudence.

2°/ Les OGM trop médiatiques

19 septembre 2012. Gilles-Eric Séralini, biologiste de l’université de Caen, avait préparé son coup de longue date. Plus de deux ans pour mener à terme une étude d’impact des OGM et de l’herbicide Roundup sur une vie entière de rats. Et puis, le 19 septembre, coup de tonnerre médiatique. Le Nouvel Obs titre: “Oui, les OGM sont des poisons”. Si les physiciens du CERN ont manqué de prudence, nos confrères de l’hebdomadaire n’ont pas eu la moindre retenue lorsqu’ils ont conçu cette Une. Les ventes ont sans doute suivi. Le ridicule, aussi, lorsqu’il est apparu que l’étude était très contestable. En déduire que les OGM sont des poisons, en laissant entendre “pour les hommes”, est pour le moins regrettable. En revanche, le coup de Gilles-Eric Séralini a mis en lumière les carences des procédures de test des OGM. Sil en reste là, ce sera une terrible défaite, aussi bien pour la science que pour les médias.

3°/ Voir Doha et bouillir…

8 décembre 2012. Si c ‘était encore possible, la 18e conférence internationale sur le réchauffement climatique qui s’est tenue à Doha, capitale du Qatar, du 26 novembre au 6 décembre 2012 avec prolongation jusqu’au 8 décembre, aura battu tous les records de ridicule. On retiendra deux images : la grossièreté du vice-Premier ministre Abdallah al-Attiya et l’émotion de Naderev Saño, négociateur en chef de la délégation des Philippines, parlant du typhon Bopha qui a fait plus de 500 morts dans son pays. Quelle distance entre ces deux personnages. Aucun dialogue n’a pu s’établir dans ce pays qui est le plus pur symbole de la contribution éhontée au réchauffement climatique (numéro un mondial en émission de CO2 par habitant). La conférence s’est soldée par un échec cuisant. Un de plus. Au point de conduire à s’interroger sur l’utilité de tels rassemblements. Forts coûteux en énergie.

Michel Alberganti

Photo: Vue d’artiste. REUTERS/NASA/JPL-Caltech

lire le billet

Y a-t-il un Google dans notre cerveau ?

Les résultats publiés par Alexander Huth, chercheur à l’Institut de neurosciences Helen Wills de l’université de Californie à Berkeley, et ses collègues dans la revue Neuron du 20 décembre 2012 conduisent à se poser la question: “Y a-t-il un Google dans notre cerveau ?” Un sous Google ? Un super Google ? Comment sommes-nous capables de retrouver ou de reconnaître, souvent instantanément, un mot, une image, une notion, une action?  Difficile de ne pas penser à Internet et à la difficulté, pour un moteur de recherche, de faire de même avec le contenu de la Toile.

Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…

1.705 catégories d’objets et d’actions

“Si l’être humain peut voir et nommer des milliers de catégories d’objets et d’actions, il est peu probable qu’une zone distincte du cerveau soit affectée à chacune de ces catégories”, précisent les chercheurs. “Un système plus efficace consiste à représenter les catégories comme des emplacements dans un espace sémantique continu, sur une cartographie couvrant toute la surface corticale.”

Pour explorer un tel espace, Alexander Huth a fait appel à l’IRM fonctionnelle afin de mesurer l’activité du cerveau pendant le visionnage des images d’un film. Il est ensuite passé au traitement informatique des données en utilisant un modèle de voxels, c’est-à-dire des volumes élémentaires (pixels en 3D).

De quoi construire une représentation de la répartition corticale de 1.705 catégories d’objets et d’actions.

Les catégories sémantiques apparaissent alors clairement. Notre cerveau associe les objets similaires par leur composition (des roues pour un vélo et une voiture) ou leur fonction (une voiture et un avion servent à se déplacer). En revanche, une porte et un oiseau ne partagent pas grand-chose et se retrouveront éloignés dans l’espace sémantique.

30.000 voxels

Alexander Huth a soumis les personnes analysées à un film de deux heures dans lequel chaque image et chaque action avaient été repérées par des étiquettes (pour un plongeon, par exemple, une étiquette pour le plongeur, une pour la piscine, une troisième pour les remous de l’eau).

L’IRMf a permis de mesurer l’activité du cerveau dans 30.000 voxels de 2x2x4 mm couvrant l’ensemble du cortex. Il “suffisait” ensuite de corréler les images du film et leurs étiquettes avec les  différents voxels activés lorsqu’elles avaient été visualisées. Le résultat est une cartographie des 30.000 voxels mis en relation avec les 1.705 catégories d’objets et d’actions.

Les techniques de représentations dans l’espace, à gauche, permettent de faire apparaître les distances entre les différentes catégories. Les différentes couleurs et leurs nuances représentent des groupes de catégories similaires: êtres humains en bleu, parties du corps en vert, animaux en jaune, véhicules en mauve…

Cartographie 3D interactive

Plus fort encore que la représentation dans l’espace qui ressemble aux cartographies en 3D des sites Internet, les chercheurs ont achevé leur travail par une projection des voxels et de leurs catégories… sur la surface corticale elle-même.

Le résultat est spectaculaire, en relief et… interactif. Grâce à une technologie de navigation encore expérimentale, WebGL, l’utilisateur peut soit cliquer sur un voxel de la surface du cortex et voir quelles sont les catégories correspondantes, soit faire l’inverse: le choix d’une catégorie montre dans quelles zones du cerveau elle est stockée.

Cette cartographie interactive est disponible ici mais tous les navigateurs ne sont pas capables de la prendre en charge. Les chercheurs conseillent Google Chrome qui, effectivement, fonctionne (version 23).

Ces travaux fondamentaux pourraient avoir des applications dans le diagnostic et le traitement de pathologies cérébrales. Mais il permettront peut-être aussi de créer des interfaces cerveau-machine plus efficaces et d’améliorer les systèmes de reconnaissance d’images encore peu développés, même sur Google…

Michel Alberganti

Photo: «Planting Brain», oeuvre d’art dans un champ indonésien, le 27 décembre 2012 près de Yogyakarta. REUTERS/Dwi Oblo

Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…
lire le billet

Découverte de neurones qui régulent les fonctions cardiovasculaires

Personne ne doute des limites des connaissances actuelles des scientifiques en matière de fonctionnement du cerveau, malgré l’accélération des découvertes engendrées par l’imagerie médicale, telle que l’IRM fonctionnelle. Mais, de là à imaginer qu’un type de cellules nerveuses, de neurones, leur ait échappé… C’est pourtant ce que semble révéler la publication d’un article rédigé par Jens Mittag, responsable d’équipe au département de biologie cellulaire et moléculaire du célèbre Institut Karolinska en Suède, et publié dans le Journal of Clinical Investigation du 21 décembre 2012. Avec des collègues en Allemagne et en Hollande, Jens Mittag a découvert que les hormones thyroïdiennes, bien connues pour agir directement sur les fonctions cardiovasculaires, peuvent également passer par le cerveau pour réguler indirectement ces fonctions, vitales pour l’organisme puisqu’elles comprennent le rythme cardiaque et la pression sanguine.

Régulation de la tension et du rythme cardiaque

Ces travaux ont mis en évidence une population, inconnue jusqu’à présent, de neurones dits “parvalbuminergique” (pv) situés dans la parti antérieure de l’hypothalamus. En réalisant une ablation de ces neurones dans le cerveau de souris, les chercheurs ont constaté une hypertension et une tachycardie dépendante de la température. Ils ont ainsi vérifié le rôle essentiel des nouveaux neurones dans la régulation des fonctions cardiovasculaires. De plus, ce sont les hormones thyroïdiennes qui sont à l’origine du développement de ces neurones dans le cerveau.

Les dangers de l’hypothyroïdie pendant la grossese

Cette découverte démontre, une fois de plus, la complexité du fonctionnement de notre organisme. Ainsi, les hormones produites par la thyroïde n’agissent pas uniquement sur les fonctions cardiaques de manière directe. Pour ce faire, elles passent également par le cerveau grâce à ces nouveaux neurones situés dans l’hypothalamus. De quoi donner de nouvelles pistes de recherche pour le traitement de l’hyper et de l’hypothyroïdie. Pour Jans Mittag, cette découverte est majeure :

“Cela ouvre des voie entièrement nouvelles pour la lutte contre les maladies cardiovasculaires”. Si nous apprenons à contrôler ces neurones, nous serons capables de traiter à travers le cerveau certains problèmes cardiovasculaires comme l’hypertension. Ce n’est pas, néanmoins, pour demain. Dans l’immédiat, cette découverte nous conduit à la certitude qu’il faut traiter l’hypothyroïdie des femmes enceintes. Un faible niveau d’hormones thyroïdiennes peut endommager la production de ces neurones dans le cerveau du fœtus. Ce qui, par la suite, pourrait être à l’origine de problèmes cardiovasculaires”.

Michel Alberganti

lire le billet

11 à 12 ans de vie gagnés en 40 ans mais souvent en mauvaise santé

Selon l’étude Global Burden of Disease Study 2010 publié le 13 décembre 2012 dans la revue The Lancet, l’espérance de vie moyenne des hommes, dans les 187 pays pris en compte, est passée de 56,4 ans à 67,5 ans entre 1970 et 2010. Celle des femmes est passée de 61,2 ans à 73,3 ans. Ainsi, l’espérance de vie à la naissance a augmenté de 3 à 4 ans par décennie depuis 1970, sauf pendant les années 1990 où le gain pour les hommes a été limité à 1,4 an et pour les femmes à 1,6 an. L’article consacré à ce thème détaille les progrès par région du monde. Si ces dernières affichent de grandes disparités, toutes ont un résultat positif. La durée de vie a donc augmenté partout, même dans les pays durement frappés par le sida. L’évolution la plus spectaculaire concerne la réduction des décès avant l’âge de 5 ans avec une chute de près de 60% depuis 1970.

La vie en bonne santé ne suit pas

Un autre article issu de la même étude concerne l’espérance de vie en bonne santé (HALE ou healthy life expectancy). En 2010, la HALE atteint 58,3 ans pour les hommes et 61,8 ans pour les femmes. Il est intéressant que noter que cette espérance de vie en bonne santé augmente moins vite que l’espérance de vie tout court. Au cours des 20 dernières années, chaque fois que l’on gagnait un an d’espérance de vie, le gain de HALE n’était que de 0,8 ans. Là aussi, les disparités sont très fortes entre Haïti où la HALE est de 27,9 ans et le Japon où elle atteint 71,7 ans.

L’écart se creuse

De ces résultats découlent une information claire : l’écart entre la durée de vie et la HALE se creuse donc en permanence. “Le nombre d’années en bonne santé perdues pour cause d’infirmité a augmenté dans la plupart des pays”, notent les auteurs de l’article. Il remarquent aussi que “comparés aux progrès substantiels réalisés dans la réduction de la mortalité au cours des 20 dernières années, des progrès relativement faibles ont été fait dans la réduction des effets des maladies non mortelles et des blessures sur la la santé de la population”. Pour les scientifiques, l’évolution de la HALE doit devenir un indicateur important pour le contrôle de la santé après 2015.

Une médecine focalisée sur le prolongement de la vie…

De fait, on peut s’interroger sur une médecine qui semble plus focalisée sur le prolongement de la vie que sur celui du maintien de la bonne santé. Progressivement, le système médical engendre ainsi un nombre croissant de personnes vivantes mais en mauvaise santé. Une dérive qui ne peut que mettre à mal les systèmes de financement comme les caisses d’assurance maladie. Et qui explique les délicats problèmes de fin de vie rencontrés de plus en plus souvent. Sans parler de l’évident désagrément d’une vieillesse en mauvaise santé.

… engendre-t-elle mécaniquement plus de malades ?

On peut légitimement se demander si les fondements mêmes du système actuel ne sont pas à mettre en cause. Au fond, le corps médical tire ses profits de la maladie et non de la bonne santé. N’est-il pas fatal qu’il produise de plus en plus de personnes vivantes mais en plus ou moins mauvaise santé ? Sans y voir un noir dessin de la part des membres du corps médical, n’est-il pas possible que le système actuel produise mécaniquement, sans volonté consciente, de plus en plus de malades ? Étant donné l’évolution des chiffres, ne paraît-il pas nécessaire de poser une telle question ? Et d’y répondre ?

Michel Alberganti

lire le billet

Aspirine : notre pilule quotidienne ?

La magazine Science et Vie du mois de décembre 2012 fait sa couverture avec une formule accrocheuse : “Le médicament qui protège de tout”. Il s’agit de l’aspirine, autrement dit l‘acide acétylsalicylique, le médicament le plus utilisé au monde. Et sans doute l’un des plus vieux. Son nom, Aspirin, a été déposé par Bayer en… 1899 après sa création par le chimiste allemand, Felix Hoffmann (1868 – 1946) en 1897. Aujourd’hui, la consommation mondiale d’aspirine est estimée à 40 000 tonnes par an.

Au cours des dernières années, de nombreuses études scientifiques publiées, par exemple, dans la très réputée revue The Lancet, ont fait état de l’effet bénéfique de la prise quotidienne d’aspirine pendant plusieurs années. Outre l’effet logique d’un médicament agissant sur la fluidité du sang en matière d’accident cardiovasculaires, l’aspirine se révélerait protectrice contre certains cancers (colon, prostate, poumon) et les maladies neurodégénératives.

La perspective d’une pilule miracle dont la prise quotidienne protégerait contre les trois principales maladies mortelles actuelles ne peut qu’être attirante. D’autant que la médecine nous a plutôt habitués, ces derniers temps, à des surprises inverses, comme avec le Mediator et tous les médicaments déremboursés pour cause d’efficacité insuffisante.

Hélas, bien entendu, les choses ne sont pas simples. En février 2012, une étude publiée dans la revue Archives of Internal Medecine par des chercheurs de l’université de Londres-Saint Georges de Londres réduit considérablement les espoirs d’effets décisifs de l’aspirine. Réalisée sur 100 000 patients suivis pendant 6 ans, l’étude montre une réduction de 10% du nombre d’accidents cardiovasculaires non mortels. Mais la prise d’aspirine n’a pas eu d’effets sur le nombre de décès dus à ces mêmes accidents. Ni sur le nombre de victimes de cancers. En revanche, les cas de saignements internes mettant en jeu la vie du patient auraient augmenté de 30%. Avec des ulcères mais aussi des saignements oculaires.

Bénéfices plus modestes que prévu

Pour le principal auteur de l’étude, Rao Sehasai, “l’effet bénéfique de l’aspirine dans la prévention des maladies cardiovasculaires pour des personnes ayant fait des attaques ou des AVC (accidents vasculaires cérébraux) est indiscutable” et il engage ces patients à poursuivre leur traitement. Il s’agit là de ce que l’on appelle le traitement secondaire, c’est à dire concernant des personnes ayant déjà eu des accidents cardiovasculaires ou des AVC. Mais la question du traitement primaire, c’est à dire de la prise d’aspirine de façon quotidienne avec un objectif préventif se trouve, elle, largement mise en cause. “Les bénéfices pour des personnes qui n’ont pas ces problèmes sont beaucoup plus modestes qu’on le croyait, et un traitement à l’aspirine peut entraîner potentiellement des dégâts majeurs consécutifs à des saignements”, indique Rao Sehasai.

Autres candidats : la metformine et les statines

L’espoir d’une pilule miracle ne concerne pas uniquement l’aspirine. Le dossier de Science et Vie analyse également la metformine et les statines. Le premier médicament est un antidiabétique commercialisé en 1953 et prescrit aujourd’hui pour plus de 120 millions de patients dans le monde. Comme l’aspirine, la metformine, parfois qualifiée de “véritable élixir de jouvence”, protégerait contre les maladies cardiovasculaires, les cancers et les maladies neurodégénératives. Les statines, elles, sont des anticholestérols commercialisés dans les années 1980. Et elles protégeraient aussi du cancer, de l’ostéoporose, des accidents cardiovasculaires, les rhumatismes inflammatoires, la sclérose en plaque…

Mode de vie et alimentation

Pour en avoir le coeur net, j’ai invité plusieurs médecins spécialistes et un chercheur à l’émission Science Publique que j’ai animée vendredi 7 décembre 2012 sur France Culture, dans le cadre d’un partenariat avec Science et Vie. La différence entre les traitements primaires et secondaires a été souvent mise en avant. Les invités n’ont pas nié certains effets positifs de l’aspirine et des deux autres médicaments. Mais, au final, le fameux rapport bénéfice-risque ne confirme guère l’intérêt de prendre tous les jours un ou plusieurs médicaments dans l’espoir d’éviter certaines maladies graves. Comme le conseille le simple bon sens, d’autres moyens sont au moins aussi efficaces, en matière de mode de vie et d’alimentation. Le jour où un médicament viendra tout corriger sans que nous n’ayons le moindre effort à faire n’est, semble-t-il, pas arrivé. Et l’on peut se demander s’il est souhaitable qu’il arrive…

Michel Alberganti

(Ré)écoutez l’émission Science Publique du 7 décembre 2012 sur France Culture, en partenariat avec Science et Vie.

Table ronde

Faut-il prendre de l'aspirine tous les jours ?

07.12.2012 – Science publique
Faut-il prendre de l’aspirine tous les jours ? 57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

L’aspirine, la metformine et les statines auraient des vertus protectrices contre les accidents cardio-vasculaires, les cancers et les maladies neuro-dégénératives. Sous réserve d’en prendre tous les jours pendant des années. S’agit-il d’une préconisation sérieuse ? Le diagnostic des invités de Science Publique…

 

 

lire le billet

Un aveugle lit des mots en braille… grâce à des électrodes sur sa rétine

Peu à peu, la rétine électronique sort des laboratoires. Le système Argus II fabriqué par l’entreprise américaine Second Sight est déjà implanté sur 50 patients. Il fonctionne avec un réseau de 10×6 électrodes, soit 60 électrodes de 200 microns de diamètre, implantées sur la rétine, une mini-caméra intégrée à une paire de lunettes et un ordinateur portable qui traite les images vidéo et génère le courant électrique qui stimule, en temps réel, le nerf optique via les électrodes. Argus II permet aux personnes aveugles de discerner des couleurs, des mouvements et des objets.

Des chercheurs appartenant à Second Sight, à l’université Brigham Young, à l’Institut de la vision et au Centre Hospitalier National d’Ophtalmologie des Quinze-Vingts de Paris, ont publié le 22 novembre 2012 dans la revue Frontiers in neuroprosthetics une étude concernant l’utilisation de ce système pour la lecture directe du braille sans passer par la caméra.

6 électrodes sur 60

Dans ce cas, un réseau de 6 électrodes, sur les 60 de l’Argus II, est utilisé. En court-circuitant la caméra, ces électrodes ont été directement stimulée pour créer une “perception visuelle des lettres en braille”, indiquent les chercheurs. L’expérience a été réalisée avec un seul patient, né en France. Ce dernier a réussi à identifier 80% des mots de deux lettres, 60% des mots de trois lettres et 70% des mots de quatre lettres. Un résultat qui confirme, pour les chercheurs, la possibilité de la lecture du braille par des patients équipés d’une prothèse rétinienne.

0,5 seconde par lettre

Grâce à la stimulation directe des électrodes, la vitesse de lecture est considérablement augmentée. Elle a été réalisée avec une stimulation de 0,5 seconde par lettre à 20 Hz et 1 seconde d’interruption entre chaque stimulation. Si l’on reste loin de la vitesse de lecture tactile du braille, le système accélère nettement la cadence de détection obtenue à l’aide de la vision par caméra utilisée dans la vidéo suivante :

89% de réussite

Les chercheurs ont enregistré un taux de reconnaissance de chacune des lettres de 89%. La perception d’une électrode supplémentaire a été la cause d’une erreur dans 64% des cas de lecture erronée. L’électrode en bas à gauche (F5) a été impliquée également dans 64% des erreurs, dont 6 des 11 perceptions d’une électrode supplémentaire. D’où le constat qu’une amélioration de cette électrode devrait avoir un impact significatif sur l’ensemble de résultats. Sur 10 mots de chaque catégorie, le patient en a identifié 8 de deux lettres, 6 de 3 lettres et 7 de 4 lettres. Les scientifiques estiment que ce résultat pourrait être amélioré grâce à l’entrainement. Le patient est un lecteur expérimenté du braille, c’est à dire qu’il identifie 100% des lettres par le toucher.

Pour les chercheurs, cette expérience établit l’efficacité d’une stimulation directe de la prothèse rétinienne. Bien entendu, on peut se demander quel est l’intérêt d’une telle lecture, plus délicate qu’avec les doigts. Pour certains patients paralysés, elle peut être la seule possibilité de lecture autonome. Cette solution impose néanmoins un système supplémentaire de traduction des lettres en stimulations électriques et elle ne peut concerner que les aveugles connaissant préalablement le braille.

Néanmoins, un tel test montre que l’implant rétinien peut fonctionner par stimulation directe et non uniquement par traitement des images provenant d’une caméra. Ce qui peut se révéler précieux pour le développement de futures prothèses rétiniennes.

Michel Alberganti

 

lire le billet

Dahlia : le secret du rouge et du noir

Il existe pas moins de 40 000 espèces hybrides cultivées de dahlia. Et plus de 20 000 variétés de cette fleur appréciée des Aztèques. Ses couleurs peuvent ainsi couvrir une vaste gamme de nuances du blanc, au jaune et à l’orange ainsi toutes les teintes imaginables de rouge et de violet. Hormis le bleu. Néanmoins, il n’existe qu’un petit nombre d’espèces cultivées baptisées “dahlias noirs” pour leur double teinte noire et rouge. Si cette fleur a inspiré l’écrivain James Ellroy et le cinéaste Brian de Palma, elle fascine aussi une équipe de chercheurs de l’université technique de Vienne (Autriche) dirigée par Heidi Halbwirth. Leur étude a été publiée par la revue BMC Plant Biology le 23 novembre 2012. Bien entendu, tout est question de molécules.

Pour la première fois, les chercheurs estiment avoir percé le secret du dahlia noir. La fleur doit sa couleur double à une accumulation massive de pigments naturels, les anthocyanes. Ensuite, cela se complique car les scientifiques ont réalisé une analyse en profondeur de l’expression des gènes du dahlia. Ils ont découvert une augmentation de l’acheminement des flavonones vers les anthocyanes au détriment des flavones. Ainsi, tout s’explique… En dehors de leurs effets sur les dahlias, les flavones intéressent aussi le monde médical pour leur effets thérapeutiques (athérosclérose, ostéoporose, diabète et certains cancers). Leur présence dans les plantes nous permet d’en consommer de 20 à 50 mg par jour.

Pour ce qui concerne la couleur du dahlia noir, les chercheurs autrichiens semblent avoir buté sur le cas de la variété Black Barbara. Même si cette dernière montre une forte expression des gènes de l’anthocyanine qui pourrait expliquer les quantités importantes d’anthocyanines mais pas la formation élevée de flavones. Nous ne discuterons pas ce point… Les scientifiques appellent à de nouvelles études pour aller encore plus loin. Ils estiment néanmoins que la découverte du mécanisme de suppression de la formation de flavones dans la majorité des Dahlias noirs présente un intérêt pour les spécialistes. En effet, le Dahlia étant une plante octoploïde (8 jeux complets de chromosomes dans chaque cellule) et la présence de plusieurs allèles étant probable, les mécanismes découverts pourraient rendre possible la production de plantes disposant d’une quantité voulue de flavones. Là encore, nous les  croyons sur parole. Et nous ne regarderons plus les dahlias noirs de la même façon désormais…

Michel Alberganti

lire le billet

Copyright © 2015 slate.fr
Articles (RSS) et Commentaires(RSS).