Affetto, le bébé robot qui fait froid dans le dos

Son nom n’a pas été choisi au hasard. Affetto, en italien, signifie quelque chose comme touchant ou affectueusement. En fait, il aurait pu se nommer Gelato, comme transi de froid ou de peur tant ce bébé robot inspire plus de terreur que de tendresse. On pense aux Gremlins de Joe Dante, pour le coté faussement mignon, mais surtout à David, l’enfant de AI Intelligence artificielle de Spielberg (2001) pour le réalisme qui fait vaciller les repères et pointer le spectre de la confusion entre l’humain et le machin (masculin de machine…).

La création du laboratoire Asada d’Osaka, au Japon, a fait l’objet d’une vidéo publiée le 24 juillet 2012 sur YouTube (ci-dessus). Si la première minute relève de l’horreur ordinaire, avec ce corps de métal, avec bavoir en forme de sternum, qui commence à bouger comme un bébé humain, à partir de 57 secondes, on plonge dans l’effroi et la terreur. Dès qu’Affetto revêt son visage humain, il devient soudain… un bébé. On a beau savoir pertinemment qu’il s’agit d’une machine, ses gestes disent le contraire, tant l’humanisation est réussie. Et que dire de son regard ? Il tend pourtant un bras sans main et son visage reste inexpressif. L’on frémit alors en imaginant la version finale, avec main potelée et mimique de bambin… Que ressentirons-nous alors ? En 2011, Affetto n’avait pas encore de tronc mais la mobilité de son visage, posé sur une table, levait le coin du voile sur le résultat final:

Toute la question posée par ce type de travail sur les robots humanoïdes réside dans le malaise qu’ils produisent sur nous. Rien d’anormal à cela, si l’on en croit les chercheurs qui ont travaillé sur la “vallée de l’étrange” (uncanny valley) comme Ayse Pinar Saygin de l’université de Californie à San Diego. Notre cerveau, celui des humains, est programmé pour distinguer très rapidement un homme d’un animal ou d’une machine. Notre perception est si fine que certains scientifiques estiment que nous pouvons même déceler certaines orientations sexuelles au premier coup d’oeil.

Neurones miroirs

En revanche, nos neurones ne savent pas, faute d’expérience, traiter les sujets intermédiaires comme un robot qui bouge comme un être humain ou qui lui ressemble trop. C’est exactement le cas d’Affetto alors même qu’il n’a pas atteint son stade final. L’objectif de Minoru Asada qui dirige le laboratoire depuis 1992 ne semble pas concerner directement la robotique. Pour lui, le robot enfant permet surtout d’explorer de façon différente les relations qui se créent entre un humain et “l’autre”. Mais le choix d’un bébé de 3 kg censé être âgé de 1 à 2 ans n’est certainement pas dû au hasard. La recherche d’un réalisme troublant non plus. Minoru Asada mentionne les neurones miroirs comme l’une des cibles principales pour comprendre les mystères de ce sentiment de différenciation entre soi et les autres. Gageons que le réalisme d’Affetto pourrait ouvrir la voie à d’autres découvertes. Comme, par exemple, le mode d’apprentissage du cerveau pour ajouter de nouvelles catégories au répertoire d’identités qu’il peut reconnaître sans ambiguïté: l’androïde, le gynoïde et aussi, désormais, le pedoïde…

Michel Alberganti

 

lire le billet

Richard Muller : la conversion publique d’un climatosceptique

“Appelez-moi un sceptique converti”. C’est par ces mots que Richard A. Muller, professeur de physique à l’université de Berkeley, commence son point de vue publié dans l’édition du New York Times du 28 juillet 2012. Suit ensuite le récit de cette conversion aussi spectaculaire qu’exemplaire. Il y a trois ans, ce scientifique avait conçu de sérieux doutes sur les études concernant le changement climatique. L’an dernier, il a créé un groupe de travail rassemblant une douzaine de collègues. “J’en ai conclu que le réchauffement de la planète était réel et que les estimations précédentes de l’évolution de ce réchauffement étaient correctes. Je fais maintenant un pas supplémentaire: les hommes en sont presque entièrement la cause”, écrit-il.

L’origine humaine du réchauffement

Pour parvenir à de retournement complet d’opinion et à cet aveu public de sa conversion, Richard Muller a lancé un projet, Berkeley Earth Surface Temperature, avec sa fille Elisabeth. Le résultat qu’il a obtenu montre que la température terrestre a augmenté de 1,4°C au cours des 250 dernières années dont 0,8°C pendant les 50 dernières années. Pour lui, la totalité de ce réchauffement est probablement liée aux émissions humaines de gaz à effet de serre.

Richard Muller estime que ces résultats vont plus loin que les affirmations publiées par le GIEC en 2007. Le dernier rapport de cette institution attribuait la plus grande part du réchauffement des 50 dernières années à l’activité humaine et estimait que l’augmentation de température observée avant 1956 pouvait être liée aux modifications de l’activité solaire et même qu’une part substantielle du réchauffement pouvait être d’origine naturelle.

Le projet Berkeley Earth Surface Temperature a fait appel à des méthodes statistiques sophistiquées développée par Robert Rohde afin d’évaluer la température terrestre lors de périodes plus anciennes. Ainsi, toutes les sources d’erreurs utilisées par les sceptiques pour contester l’origine anthropique du réchauffement ont été prises en compte :  biais dû au chauffage urbain, sélection des données utilisées, faible qualité des informations provenant de certaines stations météo, correction humaine des données. “Nous démontrons qu’aucun de ces effets perturbateurs potentiels ne biaisent nos conclusions”, déclare Richard Muller.

Pas d’empreinte de l’activité solaire

Le physicien règle également son compte à l’activité solaire, principal argument opposé par les climatosceptiques aux conclusions du GIEC. Pour eux, les variations de température terrestre seraient essentiellement liées aux cycles solaires. Ils expliquent ainsi la stabilité de cette température observée depuis quelques années et prédisent même un prochain refroidissement en raison du ralentissement en cours de l’activité solaire. Ainsi, le soleil dédouanerait l’homme de sa responsabilité et l’effet de serre ne jouerait qu’un rôle mineur dans le réchauffement.

Les calculs effectués par l’équipe de Richard Muller invalident cette théorie. “Notre analyse concerne une période assez longue pour nous permettre de chercher l’empreinte de l’activité solaire basée sur l’enregistrement de l’historique des taches solaires. Cette empreinte est absente”, conclue-t-il. Pour lui, l’augmentation de la température terrestre observée depuis 250 ans ne peut donc être attribuée au soleil.

Corrélation et causalité

Quant à l’attribution de ce réchauffement à l’activité humaine, elle est liée à la courbe du CO2 qui apporte une meilleure corrélation que tous les autres facteurs testés. Cela n’induit pas, bien entendu, une causalité, surtout pour un sceptique… Mais Richard Muller note que cela “monte la barre” dans la mesure où c’est le CO2 qui apporte la meilleure explication du phénomène de réchauffement.

“C’est un devoir du scientifique d’être convenablement sceptique”, ajoute le physicien dont la conversion ne va pas jusqu’à adhérer aux scénarios les plus catastrophistes.  Il estime que bon nombre, si ce n’est la plupart, des phénomènes attribués au changement climatique “sont spéculatifs, exagérés ou complètement faux”. Sur ce point, pas de conversion. “L’ouragan Katrina ne peut pas être attribué au réchauffement climatique”, affirme Richard Muller. Il ajoute que, pour lui, les ours blancs ne souffrent pas de la réduction des surfaces de glace pas plus que les glaciers himalayens ne vont disparaître en 2035 (une allusion à une erreur du GIEC).

Honnêteté intellectuelle

“La science est ce domaine étroit de la connaissance qui est, en principe, universellement accepté”, note-t-il. Après avoir étudié des questions qu’il estimait sans réponse, Richard Muller espère avoir apporté sa contribution au débat scientifique sur le réchauffement climatique et ses causes humaines. Il reconnaît qu’il reste la partie la plus difficile: obtenir un accord dans le champ politique et diplomatique sur ce qui peut et doit être fait. Nul doute que la démarche de Richard Muller pourra servir d’exemple à d’autres climatosceptiques qui ne font pas toujours preuve de la même rigueur scientifique et de la même honnêteté intellectuelle. Au droit au doute répond le devoir de reconnaître ses erreurs. En science comme ailleurs.

Michel Alberganti

lire le billet

JO 2012: le cas d’Oscar Pistorius, alias Blade Runner

Parmi les multiples aventures personnelles qui se jouent en ce moment aux Jeux Olympiques de Londres, celle d’Oscar Pistorius revêt un caractère particulier. Cet athlète sud-africain va courir le 400 m et le relais 4×400 m avec les prothèses en fibre de carbone qui lui ont valu le surnom de “Blade Runner”. L’histoire de ce jeune homme, amputé des deux jambes à l’âge de 11 mois à la suite d’une malformation congénitale, est tout à fait remarquable. S’il doit beaucoup à la technologie développée par le firme islandaise Ossur, ses performances résultent d’une volonté hors du commun qui l’a conduit à vouloir se mesurer aux athlètes valides malgré son handicap.

Pour comprendre l’apport de la high-tech en matière de prothèses, vous pouvez écouter l’émission Science Publique que j’ai animée le 20 juillet 2012 sur France Culture. En attendant l’épreuve du 400 m à laquelle participera Oscar Pistorius le 4 août prochain.

France Culture:

20.07.2012 – Science publique
JO : Que peut-on attendre des prothèses high-tech ? 59 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

L’une des vedettes des Jeux Olympiques qui commencent dans une semaine exactement, le 27 juillet à Londres, sera sans doute Oscar Pistorius. Membre de l’équipe sud-africaine sur 400 mètres et relais 4 fois 400 mètres, il participera pour la première fois aux Jeux Olympiques des athlètes valides alors qu’il est privé de ses deux jambes. Né en 1986 sans péronés, il a été amputé dès l’âge de …

Michel Alberganti

lire le billet

Un homme en chute libre peut-il franchir le mur du son ?

Felix Baumgartner rêve de devenir le premier homme à franchir le mur du son. Jusqu’à présent, seuls les pilotes d’avions militaires y sont parvenus, à l’exception de ceux du Concorde dont les vols se sont arrêtés en 2003 et de Andy Green qui a atteint 1227.99 km/h le 15 octobre 1977. Mais tous ces pilotes étaient protégés par des avions ou des engins terrestres. Felix Baumgartner, lui, n’aura qu’une combinaison…
Il faut dire que cet Autrichien de 43 ans, parachutiste depuis l’âge de 16 ans, n’est pas un personnage ordinaire. Il a sauté en parachute depuis le Christ de Rio de Janeiro et, en 2007, depuis le 91ème étage de la plus haute tour du monde à l’époque, la Tapei 1001 de Taiwan. Quand on a sauté 2500 fois d’à peu près n’importe où, que faire de plus ? La réponse de Felix Baumgartner à cette question que peu de gens se posent est simple: franchir le mur du son… Tout seul, sans moteur, sans avion. C’est le défi qu’il s’est lancé avec l’équipe du projet Red Bull Stratos qui veut également  battre le record du monde l’altitude pour un saut en parachute. Un record établi le 16 août 1960 par Joseph Kittinger, un pilote de l’US Air Force, qui s’est élancé depuis une sorte de gondole tractée par des ballons gonflés à l’hélium à une altitude de 31,3 km. Ce record, établi en pleine guerre froide et course à l’espace avec les Russes, n’a jamais été battu depuis.

A 36,5 km du sol

Le 25 juillet 2012, équipé d’une combinaison de cosmonaute,  Felix Baumgartner a sauté depuis une altitude de 29 km au dessus de Roswell, célèbre pour ses OVNI depuis 1947. Au mois d’août, sans doute vers le 16…, il doit tenter un saut à 36,5 km d’altitude. Et battre ainsi le record de Joseph Kittinger qui n’est autre, à 83 ans, que son conseiller. Au delà de ce gain de 5 km d’altitude, c’est le passage du mur du son qui devrait donner sa principale originalité à cet exploit. Mais comme imaginer que Felix Baumgartner y parvienne alors qu’un parachutiste dépasse à peine les 200 km/h en chute libre ? Le mur du son, lui, ne peut être atteint qu’à environ 330 m/s ou 1200 km/h. Impossible, a priori…

Toute l’astuce : exploiter l’altitude

Toute l’astuce du parachutiste réside, justement, dans la prise d’altitude. A 36 km de la Terre, la gravité existe toujours mais les molécules d’air sont devenues beaucoup plus rares qu’au sol tandis que la température voisine les -40°C. La pression est tombée à 1% de sa valeur sur la surface de la Terre (0,9 kPa contre environ 100 kPa au sol, soit une atmosphère). La densité de l’air a également été divisée par 100. De plus, la vitesse du son a changé. Fonction de la pression, de la densité et de la température, elle est passée des 330 à 340 m/s au sol (suivant la température) à 302 m/s à 30 km d’altitude. Soit “seulement” 1087 km/h, un gain de 100 km/h par rapport au sol. C’est justement à cette altitude que Felix Baumgartner estime qu’il atteindra sa vitesse maximale après s’être élancé de 36,5 km. C’est à 30 km, après 6 km de descente, qu’il atteindra l’optimum entre la vitesse acquise et la résistance de l’air. Au delà, cette dernière commencera à le ralentir.

Si le parachutiste atteint ou dépasse cet objectif, 1087 km/ à 30 km d’altitude, il deviendra le premier être humain à franchir le mur du son. Que se passera-t-il alors ? Difficile à dire tant ce phénomène physique est complexe. On se souvient de l’angoisse des pilotes d’avion avant que cette frontière ne soit franchie. Après la seconde guerre mondiale, ils ont commencé à s’en approcher et ont ressenti les premiers effets du phénomène: instabilité, durcissement des commandes. La sensation d’une limite peut-être indépassable est à l’origine de l’expression “mur du son”. Pourtant, le 14 octobre 1947, Chuck Yeager réussit pour la première fois à franchir ce mur. Une aventure relatée remarquablement dans le film de Philip Kaufman “L’étoffe des héros” où Sam Shepard incarne Chuck Yeager.

Le mur du son désigne un moment particulier où la vitesse d’un objet dans l’atmosphère atteint la vitesse du son. Il se produit alors un phénomène de superposition des perturbations (ondes se propageant dans l’air) créées par l’objet qui engendre le fameux bang, ce bruit d’explosion qui accompagne le passage en régime sonique (vitesse égale à celle du son). La puissance de ce front d’ondes dépend de la forme et de la taille de l’objet qui le provoque. On peut se demander quel sera son impact sur la combinaison et sur l’organisme  de Felix Baumgartner. Risque-t-il un déchirement qui serait fatal ? Cela semble peu probable, encore en raison de la faible densité de l’air et de son faible poids. Néanmoins, de trop fortes perturbations pourraient le déstabiliser ce qui aurait également des conséquences graves. Tout dépendra donc de sa résistance physique et de sa technique. De ce coté, il semble difficile d’être plus aguerri que Felix Baumgartner. Il n’est donc pas impossible qu’il accroche ce nouvel exploit à son palmarès de performances toutes aussi spectaculaires qu’inutiles. Selon CBS, le mur du son et le record d’altitude pour un saut en parachute devrait lui coûter quelque 20 millions de dollars. On comprend la forte médiatisation qui accompagne le projet Red Bull Stratos.

Michel Alberganti

lire le billet

97% des glaces du Groenland se sont mises à fondre… en 4 jours

Les satellites, et surtout les scientifiques de la Nasa qui ont analysé leurs images, n’en sont pas revenus. En 30 ans d’observation, jamais le Groenland n’avait fondu à une telle vitesse. En 4 jours, la calotte glaciaire intacte du “pays vert” a perdu 97% de sa surface… Les mesures effectuées par trois satellites montraient, le 8 juillet 2012, que 40% de la calotte glaciaire avait déjà fondu. Mais le 12 juillet, quatre jours plus tard, c’est donc 97% de sa surface qui fondait. Cela paraît d’autant plus extraordinaire que l’épaisseur de la glace, au centre de l’île, atteint les 3 km en hivers, saison où la calotte (inlandsis) couvre 80% de la surface du Groenland. Normalement, en été, seulement 50% de l’inlandsis fond. Et, à haute altitude (le Groenland a des sommets entre 3000 et 4000 m), l’eau regèle sur place. Cette année, la fonte est si importante que les chercheurs se demandent quelle quantité d’eau va réellement s’écouler dans l’océan et quel impact cela pourra avoir sur le niveau des mers sur la planète. Il faut toutefois préciser que la glace n’a pas disparu de la surface du Groenland. Les zones rouges de la carte ci dessus montrent les zones qui fondent. La zone blanche est celle de la zone qui ne fond pas et c’est celle-là qui ne représente plus que 3% de la surface couverte en hivers.

Un couvercle d’air chaud

” C’est si extraordinaire que, pour la première fois, je me suis interrogé sur le résultat des mesures en me demandant s’il ne s’agissait pas d’une erreur”, note Son Nghiem du Jet Propulsion Laboratory (JPL) de la Nasa à Pasadena. Les météorologistes indiquent que cette fonte est liée à un front d’air chaud qui forme une sorte de couvercle sur le Groenland. Cela rappelle la canicule de 2003 en France qui résultait d’un phénomène similaire. Le front d’air chaud actuel n’est pas le premier. Depuis mai 2012, plusieurs se sont formés sur le Groenland. “Chacun d’entre eux s’est révélé plus fort que le précédent”, remarque Thomas Mote, climatologue de l’université de Géorgie. Le dernier en date a commencé à arriver sur le Groenland le 8 juillet et s’est stabilisé sur le calotte glaciaire le 11 juillet avant de se dissiper à partir du 16 juillet.

Un phénomène qui se produit tous les 150 ans…

Même la glace située dans la région de la station Summit, à 3000 mètres d’altitude dans le centre de l’île, a commencé à fondre. Cela ne s’était pas produit depuis 1889, selon les carottes de glace analysées au Darthmouth College de Hanovre. Ces carottes indiquent qu’une fonte comme celle de cette année ne survient que tous les 150 ans en moyenne. Ce phénomène exceptionnel pourrait donc s’inscrire dans le cycle naturel de cette région. Sauf s’il se reproduisait l’année prochaine. Dans ce cas, le mot qui est dans tous les esprits, mais que la Nasa ne cite guère, c’est à dire le réchauffement climatique, pourrait bien se révéler être la cause de cette fonte ultra rapide de l’inlandsis du Groenland. D’ici là, il faudra mesurer l’impact de toute cette eau polaire sur le niveau des mers. La rupture, la semaine dernière, d’une partie du glacier Petermann grande comme la ville de Paris avait déjà donné l’alerte au réchauffement et à la montée des eaux.

 

Michel Alberganti

Note : Quelques informations sur la calotte glaciaire du Groenland à la suite de certains commentaires sur cet article :

– Son épaisseur moyenne est de 2,3 km avec un maximum d’environ 3 km en son centre.
– Ses glaces les plus anciennes dateraient de 110 000 ans.
– Sa surface est d’environ 1,8 million de km2 et son volume est de 2,9 millions de km3.
– Il s’agit du plus grand réservoir d’eau douce de la planète après l’inlandsis de l’Antarctique qui rassemble 70% de l’eau douce présente sur Terre.
– Si toute la glace du Groenland fondait, le niveau des mers s’élèverait de 7,3 mètres.
– Si toute la glace de l’Antarctique fondait, le niveau des mers s’élèverait de 56,6 mètres.

Sources:
http://www.esa.int/esaEO/SEMILF638FE_planet_0.html
http://www.iceandwater.gl/
http://www.mpimet.mpg.de/en/news/press/faq-frequently-asked-questions/how-much-will-the-sea-level-rise.html
Et, bien sûr, Wikipédia…


lire le billet

La nuit sur Terre vue de la station spatiale internationale

Les images de cette vidéos proviennent de photos prises à bord de la station spatiale internationale, l’ISS. Il s’agit d’un exercice classique mais que le photographe Knate Myers réalise avec un talent de metteur en scène de film de science fiction. La musique de John Murphy extraite du film Sunshine contribue à la réussite de la vidéo. On pense souvent à 2001 L’Odyssée de l’espace, bien entendu, pendant les passages en accéléré. Et l’on découvre cette Terre nocturne embrasée par ce qui ressemble à des volcans en éruption crachant des torrents de lave. Les villes et leur éclairage tourné vers les étoiles… Et puis ces jeux de lumière dans l’atmosphère, aurores boréales prenant, vues de l’espace, des allures de sortilèges maléfiques. Enfin, la couche de l’atmosphère, dont la finesse et la fragilité surprend toujours. Un bon moment, donc, à quelque 400 km d’altitude, qu’il faut déguster plein écran et en 720p, après avoir attendu le chargement complet de la vidéo. Une patience récompensée par le spectacle.

Michel Alberganti

lire le billet

La NASA teste son bouclier gonflable en forme de soucoupe volante

Que vous vouliez atterrir sur la Terre, Mars, Vénus, Titan ou même sur les géantes gazeuses comme Jupiter, Saturne, Uranus ou Neptune, voilà ce qu’il vous faut ! Ce bouclier gonflable de 3 mètres de diamètre ralentira et protégera votre vaisseau lors de son entrée dans n’importe quelle atmosphère ! Léger et peu encombrant, c’est la protection idéale ! Telle pourrait être l’argument publicitaire pour l’IRVE-3 (Inflatable Reentry Vehicle Experiment) si… ce nouveau produit pouvait concerner de nombreux acheteurs. Mais ce n’est pas vraiment le cas, surtout en ces temps de restrictions budgétaires pour l’exploration spatiale. Le nouveau bouclier de la Nasa en forme de soucoupe volante pourrait servir plus souvent à revenir sur Terre qu’à accompagner des missions lointaines.

Cela n’a pas empêché l’agence spatiale américaine de tester son nouveau matériel le 23 juillet 2012 avec un vol de 20 minutes dans l’atmosphère terrestre à la vitesse hypersonique de 12 230 km/h. Il aura fallu, tout de même, une fusée à trois étages Black Brant pour réalisé cet essai qui a permis, après 6 minutes de vol, de faire déployer le bouclier de 310 kg à environ 462 km d’altitude au dessus de l’océan Atlantique.

Le système de gonflage a injecté de l’azote dans l’IRVE-3 pour qu’il se déploie tel un champignon. Ensuite, le bouclier est sa charge utile ont plongé vers la Terre et ont traversé la couche d’atmosphère d’environ 120 km d’épaisseur. Les ingénieurs du centre de Wallops ont suivi les opérations grâce à 4 caméras embarquées pour vérifier le bon déploiement du champignon et le maintien de sa forme malgré la pression de l’air et la température élevée provoquée par le frottement de l’air.

L’IRVE-3 est ensuite tombé dans l’océan au large des côtes de la Caroline du Nord où un navire de l’US Navy devait le récupérer. La NASA a consacré trois années aux développement de ce premier bouclier gonflable et prévoit d’en fabriquer d’autres, de plus grande taille. Notons qu’elle indique que les matériaux utilisés se trouvent dans le commerce. Un gage d’économie même si le kevlar est largement mis à contribution. Les boucliers gonflables pourraient être utilisé par les vaisseaux qui font la navette entre la Terre et la station spatiale internationale (ISS), faute, pour l’instant, d’atterrissage sur des planètes plus lointaines. A terme, ils devraient permettre à de plus gros engins spatiaux de traverser l’atmosphère. D’ici là, gageons que leur forme va occuper les chasseurs d’OVNI…

Michel Alberganti

lire le billet

La méduse artificielle qui nage grâce aux muscles du coeur d’un rat

Décidément, la biologie synthétique ne nous laisse pas un jour de répit. Après le premier organisme vivant modélisé, voici la méduse artificielle qui nage grâce aux cellules d’un coeur de rat. Ce nouvel exploit fait l’objet d’un article publié le 22 juillet 2012 dans la revue Nature Biotechnology.

“Morphologiquement, nous avons construit une méduse. Fonctionnellement, nous avons construit une méduse. Génétiquement, cette chose est un rat”, explique Kit Parker, biophysicien de l’université de Harvard qui a dirigé cette étude. Même si les termes choisis sont légèrement emphatiques et peu respectueux pour le “donneur”, ils semblent très bien décrire cette nouvelle création des biologistes qui fait largement appel au biomimétisme.

Coup de tonnerre

C’est en effet en observant la technique utilisée par les méduses pour se propulser dans l’eau que les chercheurs, qui travaillaient sur la création de modèles artificiels des tissus du coeur humain, ont établi le parallèle. Lors d’une visite de l’Aquarium New England de Boston en 2007, Kit Parker a eu une révélation. “J’ai vu une méduse sur un écran et cela m’a frappé comme un coup de tonnerre”, raconte-t-il. “J’ai pensé: je sais que je peux construire ça”.

 

Avec l’aide de John Dabiri, bioingénieur spécialisé dans la propulsion biologique, et Janna Nawroth, diplômée du California Institute of Technology (Caltech) à Pasadena, il s’est mis au travail. D’abord en étudiant les mécanismes permettant aux méduses de nager. L’équipe a découvert que la forme en cloche des Aurelia aurita est constituée d’un couche unique de muscles dont les fibres sont alignées autour d’un anneau central et le long de huit rayons.

Ondes électriques

Pour obtenir la contraction des muscles, la méduse envoie des ondes électriques lentes qui se propagent le long des fibres comme les ondulations provoquées par un caillou jeté dans l’eau. “C’est exactement ce que l’on peut voir dans un coeur”, note Kit Parker qui parie que, pour obtenir une pompe musculaire, l’électricité doit se propager comme un front d’ondes.

Janna Nawroth s’est alors chargée de faire croître une couche unique de cellules de muscle du coeur d’un rat sur une surface plane de polydiméthylsiloxane. Quand un champ électrique est appliqué à la structure souple, le muscle se contracte rapidement ce qui compresse la feuille de polymère et imite le battement de la méduse qui nage dans l’eau.

Rat démonté…

“Nous avons démonté un rat et nous l’avons reconstruit en méduse”, résume Kit Parker avec son art consommé de la formule mesurée. Le biomimétisme est tel que les chercheurs ont reproduit également le courant d’eau que crée la nage des méduses et qui leur permet de se nourrir. Modestement, Kit Parker estime avoir fait monter une marche à la biologie synthétique. Il n’hésite pas à considérer que son avancée n’a rien de commun avec la pratique classique de cette discipline qui consiste à introduire des gènes dans une cellule vivante. “Nous, nous avons construit un animal. Il ne s’agit pas uniquement de gènes mais de morphologie et de fonction”, conclut-il.

Application au coeur humain

Comme quoi l’euphorie de la découverte peut conduire à des déclarations exagérées. Certes, l’équipe de Kit Parker a fidèlement reproduit les mouvements de la méduse à l’aide de cellules musculaires du coeur d’un rat. Mais, à la différence des vraies méduses, la sienne ne peut se mouvoir que dans un liquide soumis à un champ électrique. De là à dire qu’il s’agit d’un animal… Plus raisonnablement, il s’agit d’un modèle expérimental de coeur. Pour aller plus loin vers leur objectif, les chercheurs vont tenter de remplacer les cellules de coeur de rat par des cellules de coeur humain. Il espèrent alors obtenir une plateforme d’essai pour des médicaments visant à renforcer l’activité du coeur. Ce qui semble assez raisonnable.

Mais l’incorrigible Kit Parker rêve déjà d’autres exploits et déclare avoir une commande pour… un poulpe.

Michel Alberganti

lire le billet

Mycoplasma genitalium: premier organisme vivant 100% informatisé

La bactérie Mycoplasma genitalium restera dans l’histoire de la biologie comme le premier organisme vivant pour lequel un modèle informatique complet a été réalisé. La nouvelle a été annoncée le 19 juillet 2012 par l’université de Stanford et publiée le 20 juillet dans le revue Cell. Cette première mondiale résulte d’un effort qualifié de “mammouth” par Stanford… Markus Covert, professeur de bioingénierie dans cette université, a utilisé les données provenant de 900 publications scientifiques pour prendre en compte chaque interaction moléculaire se produisant dans le cycle de vie de cette bactérie, la plus petite connue à ce jour.

in silico

La démarche révèle également un tournant dans la recherche en biologie. Les expériences in vivo ou in vitro ne suffisent plus pour étudier les mécanismes à l’oeuvre dans le vivant et  il faut désormais passer au travail in silico. “Cette réussite démontre la transformation de l’approche visant à répondre aux questions sur les processus biologiques fondamentaux“, confirme James M. Anderson, directeur de la division de la coordination des programmes, du planning et des initiatives stratégiques des National Institutes for Health (NIH). “Des modèles informatiques de cellules entières peuvent faire progresser notre compréhension de la fonction cellulaire et, au final, fournir de nouvelles approches pour le diagnostic et le traitement des maladies“, précise-t-il.

Dépasser le réductionnisme

Les travaux des biologistes, au cours des 20 dernières années, ont permis d’amasser un véritable trésor d’informations sur ce fonctionnement cellulaire. Ce ne sont donc pas les données expérimentales qui manquent. Tout se passe comme si l’on était parvenu à rassembler tous les éléments d’un puzzle très complexe mais sans avoir réussi à percer tous les secrets de l’assemblage et du fonctionnement de l’ensemble. Ce constat marque les limites de l’approche réductionniste qui domine la recherche en biologie depuis que les moyens expérimentaux permettent d’observer et d’analyser les mécanismes du vivant à l’échelle de ses composants élémentaires. Il reste à recomposer l’ensemble. C’est ce à quoi le nouveau modèle informatique doit aider.

Mycoplasma genitalium, l’organisme le plus simple

D’abord avec un organisme très simple comme cette bactérie Mycoplasma genitalium. Un tel choix ne doit, bien entendu, rien au hasard. Cette bactérie, responsable d’urétrites et de maladies sexuellement transmissibles découverte en 1980, possède le plus petit génome connu nécessaire pour constituer une cellule vivante : 521 gènes, dont 482 codent pour une protéine, sur un chromosome circulaire de 582 970 paires de bases. A titre de comparaison, la véritable bête de labo qu’est la bactérie Escherichia coli dispose de près de 4300 gènes.

Un autre atout de Mycoplasma genitalium est d’avoir été également choisie dès 2008, pour les mêmes raisons de simplicité relative de son génome, par l’institut de Craig Venter pour réaliser la synthèse complète de son génome. Si la bactérie est la plus frustre connue à ce jour, la création de son modèle informatique n’a pas été facile pour autant. La quantité d’information introduite dans ce clone numérique est énorme et le résultat intègre pas moins de 1900 paramètres déterminés expérimentalement.

Le programme est subdivisé en 28 modules distincts possédant chacun son propre algorithme et communiquant entre eux pour reproduire aussi fidèlement que possible le fonctionnement réel de la bactérie.

CAO biologique

En fait, la création de ce premier modèle informatique du vivant ouvre une nouvelle ère pour la recherche en biologie. Ce nouvel outil devrait, comme la conception assistée par ordinateur (CAO) l’a fait dans l’industrie, considérablement accélérer le rythme des découvertes. En effet, les chercheurs vont pouvoir utiliser ce modèle pour simuler des mécanismes ce qui va permettre à la fois de vérifier certains résultats expérimentaux mais également d’ouvrir des pistes pour de nouvelles expériences. Ainsi, les biologistes pourront sortir de la phase d’accumulation des données pour tenter d’en découvrir le sens, la mécanique intime qui relie les gènes, l’ADN ou les protéines pour produire la vie. Parallèlement, la biologie synthétique, qui vise la création de nouveaux organismes vivants, pourra certainement tirer profit de ce nouvel instrument. De quoi renforcer les craintes de ceux qui craignent le pire de cette nouvelle génération d’apprentis-sorciers. D’autres mettent en avant la perspective de création de bactéries artificielles capables de fabriquer en masse des médicaments, dans la lignée de l’insuline produite depuis 1978 par une bactérie E. Coli transgénique.

Vers un modèle informatique humain…

Mycoplasma genitalium et son modèle informatique marque donc la première étape d’un long chemin qui n’est pas sans rappeler celui du séquençage du génome humain achevé en 2004. Mais la réalisation d’un modèle informatique de l’organisme humain sera encore plus difficile et prendra sans doute des décennies, voire plus. Ce que les chercheurs qualifient déjà de bio-CAO devrait conduire à des avancées médicales en particulier dans les thérapies personnalisées. Le nouveau modèle informatique ouvre la voie, “potentiellement à un  nouveau “projet génome humain”, déclare Jonathan Karr, coauteur de la publication, qui précise toutefois que “cela demandera un très grand effort de la communauté scientifique pour se rapprocher d’un modèle humain”.

Michel Alberganti

lire le billet

Quand les fenêtres transformeront la lumière du soleil en électricité…

Les plus courants capteurs de lumière solaire existants ne sont autres que… les fenêtres. Elles sont partout, dans les maisons et les immeubles, de la lucarne à la baie vitrée voire à la paroi extérieure elle-même de certaines tours. Leur fonction est de laisser entrer la lumière à l’intérieur des habitations et autres bureaux. Or, cette lumière pourrait fort bien être transformée en électricité grâce au fameux effet photoélectrique déjà exploité par les cellules solaires. Alors peut-on envisager de tirer partie de la gigantesque quantité de lumière qui traverse nos fenêtres pour… produire du courant ? Vous penserez immédiatement que si cela revient à obstruer nos fenêtres avec une sorte de volet photovoltaïque. Une solution guère lumineuse. Mais si les capteurs étaient transparents ? Cela changerait tout. Encore faut-il que cela soit possible, ce que les cellules solaires en silicium laissent mal entrevoir.

Cellules solaires polymères transparentes

Depuis quelques années, se développe une technologie susceptible s’apporter une solution au dilemme lumière ou électricité. Il s’agit des capteurs photovoltaïques en polymères.  Il suffirait que ces derniers soient transparents pour qu’ils s’ouvrent le fabuleux marché de la fenêtre. Pour les seules poses de nouvelles fenêtres et le remplacement d’anciennes, il se fabrique entre 10 et 12 millions de fenêtres par an en France. Une équipe de chercheurs de plusieurs universités américaines dont celle de Californie Los Angeles (UCLA) ont publié en juillet 2012 un article dans la revue ACS Nano sur, justement, des cellules solaires polymères “visiblement transparentes”, selon leur expression.

Un rendement de 4%…

L’idée des chercheurs est de capter le rayonnement infrarouge de la lumière incidente et de laisser passer le plus possible le reste des longueurs d’onde. A priori, aucune perte importante dans le spectre visible traversant puisque le verre ne laisse, de toutes façons, pas passer les infrarouges ce qui permet de l’utiliser dans les capteurs thermiques (effet de serre). Néanmoins, le film de polymère n’est pas, lui-même, absolument transparent à la lumière visible. Il laisse ainsi passer environ 66% du rayonnement solaire ce qui, comme le montre la photo ci-dessus n’obscurcit que faiblement la fenêtre. Et surtout, la fine cellule transforme 4% de l’énergie reçue en électricité. Un rendement bien inférieur à celui des cellules photovoltaïques en silicium qui atteignent aujourd’hui de 15 à 20%.

… mais une rentabilité prometteuse

On pourrait donc penser que la faible efficacité des nouvelles cellules polymères transparentes constitue un handicap rédhibitoire. En réalité, le calcul de la rentabilité en matière d’énergie solaire est assez différent de celui que l’on peut faire pour un moteur de voiture (20 à 30% de rendement). En effet, dans le cas du solaire, l’énergie primaire est gratuite, ce qui fait une grande différence avec la prise en compte du prix de l’essence, ou, même, de l’électricité. La rentabilité d’une cellule solaire est donc essentiellement liée à son prix d’acquisition. Or, les cellules photovoltaïques en silicium sont issues de l’industrie microélectronique et font appel à des technologies coûteuses. En revanche, les cellules polymères viennent de l’industrie pétrochimique. D’où l’espoir de coûts de production très inférieurs.

Nanofils d’argent et dioxyde de titane

Les chercheurs ont mis au point leur film photovoltaïque en utilisant un polymère sensible aux infrarouges proches et une électrode en composite de nanofils d’argent (pas vraiment économiques…) et de dioxyde de titane qui apporte la transparence. On note, au passage, que le dioxyde de titane est déjà utilisé par l’industrie pour fabriquer du verre autonettoyant qui, grâce à ses caractéristiques de photocatalyse et d’hydrophilie, est insensible aux salissures organiques.

On peut donc imaginer des vitres autonettoyantes produisant de l’électricité. Pas que quoi éclairer une pièce, certes. Mais peut-être assez pour recharger les batteries d’appareils électroniques. On peut aussi noter que le bâtiment fait l’objet de multiples études puisque nous avons récemment parlé des LEDs intégrables dans du papier peint. Qui sait ? Peut-être que le courant généré par les vitres pourra-t-il servir à rendre les murs lumineux…

Michel Alberganti

lire le billet