Extraction du “minerai” animal : bon appétit… [Vidéo]

Un mot surprenant a émergé de l’affaire de la viande chevaline égarée dans les plats surgelés : le minerai de boeuf ou de cheval. Ainsi donc, les dépouilles d’animaux sont assimilées à une simple matière première comparable au fer ou à la bauxite. Mais non, pense-t-on aussitôt. C’est une façon de parler. Les usines de la chaîne alimentaire humaine ne sont pas comparables aux mines de l’industrie métallurgique. Même si l’on sait que le travail à la chaîne existe dans les abattoirs et autres ateliers de conditionnement de la viande, cela ne saurait être comparé à une fonderie ou une usine d’assemblage automobile. Ce sont des animaux, tout de même. Des êtres vivants tels que les compagnons de l’homme. Même si nous sommes, entre autres, des carnivores, nous ne saurions traiter le vivant comme l’inerte.

Samsara et la surconsommation humaine

Erreur. Certaines images extraites du film Samsara qui doit sortir en France le 27 mars 2013 laissent pantois. A celui de minerai s’associe un autre mot : barbarie. Le film, tourné dans 25 pays pendant 5 ans, rappelle, bien entendu, le fameux Koyaanisqatsi de Godfrey Reggio sorti en 1983 avec sa musique de Philip Glass. Comme lui, Samsara, mot tibétain signifiant la roue de la vie, semble mêler beauté et dénonciation des excès de la civilisation. L’extrait qui circule sur Internet au sujet de l’industrie alimentaire et de la surconsommation humaine laisse sans voix… et sans grand appétit. Jugez-en :

Michel Alberganti

lire le billet

Y a-t-il un Google dans notre cerveau ?

Les résultats publiés par Alexander Huth, chercheur à l’Institut de neurosciences Helen Wills de l’université de Californie à Berkeley, et ses collègues dans la revue Neuron du 20 décembre 2012 conduisent à se poser la question: “Y a-t-il un Google dans notre cerveau ?” Un sous Google ? Un super Google ? Comment sommes-nous capables de retrouver ou de reconnaître, souvent instantanément, un mot, une image, une notion, une action?  Difficile de ne pas penser à Internet et à la difficulté, pour un moteur de recherche, de faire de même avec le contenu de la Toile.

Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…

1.705 catégories d’objets et d’actions

“Si l’être humain peut voir et nommer des milliers de catégories d’objets et d’actions, il est peu probable qu’une zone distincte du cerveau soit affectée à chacune de ces catégories”, précisent les chercheurs. “Un système plus efficace consiste à représenter les catégories comme des emplacements dans un espace sémantique continu, sur une cartographie couvrant toute la surface corticale.”

Pour explorer un tel espace, Alexander Huth a fait appel à l’IRM fonctionnelle afin de mesurer l’activité du cerveau pendant le visionnage des images d’un film. Il est ensuite passé au traitement informatique des données en utilisant un modèle de voxels, c’est-à-dire des volumes élémentaires (pixels en 3D).

De quoi construire une représentation de la répartition corticale de 1.705 catégories d’objets et d’actions.

Les catégories sémantiques apparaissent alors clairement. Notre cerveau associe les objets similaires par leur composition (des roues pour un vélo et une voiture) ou leur fonction (une voiture et un avion servent à se déplacer). En revanche, une porte et un oiseau ne partagent pas grand-chose et se retrouveront éloignés dans l’espace sémantique.

30.000 voxels

Alexander Huth a soumis les personnes analysées à un film de deux heures dans lequel chaque image et chaque action avaient été repérées par des étiquettes (pour un plongeon, par exemple, une étiquette pour le plongeur, une pour la piscine, une troisième pour les remous de l’eau).

L’IRMf a permis de mesurer l’activité du cerveau dans 30.000 voxels de 2x2x4 mm couvrant l’ensemble du cortex. Il “suffisait” ensuite de corréler les images du film et leurs étiquettes avec les  différents voxels activés lorsqu’elles avaient été visualisées. Le résultat est une cartographie des 30.000 voxels mis en relation avec les 1.705 catégories d’objets et d’actions.

Les techniques de représentations dans l’espace, à gauche, permettent de faire apparaître les distances entre les différentes catégories. Les différentes couleurs et leurs nuances représentent des groupes de catégories similaires: êtres humains en bleu, parties du corps en vert, animaux en jaune, véhicules en mauve…

Cartographie 3D interactive

Plus fort encore que la représentation dans l’espace qui ressemble aux cartographies en 3D des sites Internet, les chercheurs ont achevé leur travail par une projection des voxels et de leurs catégories… sur la surface corticale elle-même.

Le résultat est spectaculaire, en relief et… interactif. Grâce à une technologie de navigation encore expérimentale, WebGL, l’utilisateur peut soit cliquer sur un voxel de la surface du cortex et voir quelles sont les catégories correspondantes, soit faire l’inverse: le choix d’une catégorie montre dans quelles zones du cerveau elle est stockée.

Cette cartographie interactive est disponible ici mais tous les navigateurs ne sont pas capables de la prendre en charge. Les chercheurs conseillent Google Chrome qui, effectivement, fonctionne (version 23).

Ces travaux fondamentaux pourraient avoir des applications dans le diagnostic et le traitement de pathologies cérébrales. Mais il permettront peut-être aussi de créer des interfaces cerveau-machine plus efficaces et d’améliorer les systèmes de reconnaissance d’images encore peu développés, même sur Google…

Michel Alberganti

Photo: «Planting Brain», oeuvre d’art dans un champ indonésien, le 27 décembre 2012 près de Yogyakarta. REUTERS/Dwi Oblo

Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…
lire le billet

La machine à vapeur du 21e siècle : énergie solaire et nanoparticules

La machine à vapeur est à l’origine de la révolution industrielle. Elle a commencé par fournir de l’énergie mécanique pour les trains et autres machines et on la retrouve dans les centrales nucléaires où elle entraîne les turbines produisant de l’électricité. La vapeur peut également servir à stériliser, à distiller, à désaliniser. Aujourd’hui, c’est grâce à l’énergie solaire associée à des nanoparticules qu’une nouvelle voie de production de vapeur apparaît. Un dispositif conçu par l’équipe de Naomi Halas, directrice du laboratoire de nanophotonique (LANP) de l’université Rice, affiche des performances remarquables avec ce cocktail inédit qui risque de troubler ceux qui défendent les énergies alternatives tout en vouant les nanotechnologies aux gémonies. Les résultats de l’équipe sont publiés dans un article de la revue ACS Nano du 19 novembre 2012.

Un rendement de 24%

Les chercheurs avancent un rendement global de leur système de… 24%. Nettement plus élevé que celui des panneaux photovoltaïques (environ 15%). L’idée de Naomi Halas dérive de celle des capteurs thermiques classiques. Ces derniers sont constitués d’une boite dont l’une des faces est réalisé est en verre transparent. A l’intérieur, un circuit d’eau collecte la chaleur piégée par l’effet de serre et par la couleur noire du capteur. Les échanges thermiques sont donc réalisés par conduction entre la paroi métallique du capteur et l’eau qui y circule. Le LANP a, d’une certaine façon, réduit ce capteur en nanoparticules qu’il a mises en solution dans l’eau. Bien entendu, il a choisi des nanoparticules qui captent particulièrement bien les longueurs d’ondes de l’ensemble du spectre solaire, y compris celles qui sont en dehors du visible, pour les convertir en chaleur. Ce sont ainsi des milliards de capteurs qui agissent au plus près des molécules d’eau. Le résultat est spectaculaire : en 10 secondes, des bulles de vapeur se forment et remontent à la surface du liquide.

“Avec cette technologie, nous commençons à concevoir l’énergie solaire thermique d’une façon complètement différente”, explique Naomi Halas. “Nous passons du chauffage de l’eau à l’échelle macroscopique à un chauffage à l’échelle nanoscopique. Nos particules sont extrêmement petites, plus petites que la longueur d’onde de la lumière. Cela signifie qu’elles disposent d’une très faible surface pour dissiper la chaleur. L’intense montée en température nous permet de générer de la vapeur localement, juste à la surface des nanoparticules. L’idée de générer de la vapeur localement est contre-intuitive”, ajoute-t-elle. Et pourtant, cela marche !

Pour le démontrer, les chercheurs plongent un  tube rempli d’eau et de nanoparticules dans un sceau plein de glace. Avec une simple lentille de Fresnel, ils concentrent la lumière sur la base du tube en contact avec l’eau glacée. Aussitôt des bulles de vapeur se forment dans le tube. L’eau vient de passer de 0°C à 100°C en quelques secondes. Le LANP a utilisé deux types de nanoparticules, du carbone et des nanocoquilles (nanoshells)  d’or et dioxyde de silicium (SiO2). L’intérêt du procédé, c’est qu’il ne consomme pas de nanoparticules. Celles-ci restent dans le liquide. Il suffit donc d’alimenter le système en eau pour obtenir de la vapeur…

Les applications d’un tel système semblent multiples et pas forcément imaginables aujourd’hui. Si Naomi Halas préfère modérer les perspectives en matière de production d’électricité et insister plutôt sur les utilisations destinées aux pays en développement (sanitaire, stérilisation, distillation, dessalement), c’est peut-être en raison du soutien de la fondation Bill et Melinda Gates… La voie ouverte par la combinaison solaire-nano pourrait faire partie des avancées majeures que la planète attend pour accélérer la transition énergétique et apporter les moyens nécessaires à la lutte contre un réchauffement climatique excessif.

Michel Alberganti

lire le billet

Bricolage à Flamanville : 20 m3 d’eau radioactive sur le plancher

L’image que l’on se fait d’une centrale nucléaire et de ce qui s’y passe en prend un coup lorsque l’on apprend les circonstances qui ont conduit à une fuite d’environ 20 m3 d’eau radioactive dans le bâtiment d’un réacteur de la centrale de Flamanville.  Mise en service en 1987 dans la Manche, cette dernière comprend deux réacteurs de 1300 MW chacun. Ces dernières années, Flamanville était surtout connue pour les retards dans la construction du controversé réacteur EPR de nouvelle génération.

Intervention de maintenance

Contrairement à l’impression que cela donne, la scène ne se passe pas dans le local à chaudière d’un immeuble quelconque mais bien dans le bâtiment de l’un des deux réacteurs de la centrale. Mercredi 24 octobre, dans la nuit, une intervention de maintenance est décidée dans la centrale de Flamanville sur un circuit d’eau connecté au circuit primaire du réacteur N°1. Ce circuit n’est autre que celui qui relie le réacteur au générateur de la vapeur qui entraîne les turbines qui produisent du courant électrique.

Arrêt à chaud

Le réacteur N°1 est alors en “arrêt à chaud”. Cela signifie qu’après son arrêt à froid du mois de juillet pour les opérations de rechargement de combustible, il a été progressivement remis en activité jusqu’à atteindre cet état dit d’arrêt à chaud qui précède la remise en service effective avec production d’électricité. Mercredi, donc, le circuit primaire se trouvait dans les conditions normales de fonctionnement : 150 bars de pression et 300°C de température pour l’eau du circuit primaire.

Un petit tuyau pour les sondes de température

L’opération de maintenance était motivée par une baisse de débit dans un petit tuyau de 60 mm monté en parallèle (dérivation) sur l’un des quatre gros tuyaux formant les boucles qui relient le coeur du réacteur au générateur de vapeur (circuit en rouge dans le schéma ci-dessus). Ce petit tuyau supporte des sondes de températures. Il capte une petite partie du circuit de refroidissement et il en réduit la pression grâce à un diaphragme, une pièce percée de trous qui obstrue partiellement le passage de l’eau. Les opérateurs de la centrale, ayant noté une baisse anormale du débit d’eau dans ce tuyau à sondes, dépêchent une équipe pour démonter le système.

Copeaux oubliés

Les techniciens se rendent sur place. Ils isolent le tuyau du circuit primaire à l’aide de vannes, démontent l’ensemble et découvrent que le diaphragme est obstrué par, entre autres, des copeaux métalliques. Thierry Charles, de l’IRSN, indique qu’il s’agit probablement de copeaux provenant d’une réparation précédente.  Pour remplacer une sonde thermique, c’est à dire un thermomètre, les techniciens auraient réusiné un pas de vis et… ils auraient laissé tomber les copeaux dans le tuyau… L’équipe effectue le nettoyage oublié par leurs collègues et referme le tout.

Vanne fuyarde et verrine faiblarde

Il leur est alors demandé d’en profiter pour vérifier les 3 autres tuyaux de dérivation se trouvant sur les 3 autres boucles du circuit primaire. C’est alors qu’ils découvrent, sur l’un des trois tuyaux, une vanne fuyarde… Ils parviennent à l’isoler et à la remplacer. Mais lorsqu’ils remettent le circuit en fonctionnement, c’est à dire lorsque l’eau sous pression revient dans le petit tuyau, un hublot en verre permettant d’en voir l’intérieur, une verrine en langage technique, se casse. Aussitôt, c’est la fuite.

Une fuite de 7 m3/h

Pas moins de 7 m3/h d’eau radioactive à 300°C se répandent sur le sol du bâtiment réacteur N°1. L’accident sur produit à 23h15 le 24 octobre, selon le communiqué de l’ASN. Et la fuite ne sera arrêtée qu’à 5 heures au matin du 25 octobre. Soit près de 6 heures de fuite. A 7 m3/h, cela ferait environ 42 m3… L’IRSN avance néanmoins seulement 20 m3, ce qui indique que le débit s’est progressivement réduit. En effet, dès le début de la fuite, les opérateurs de la centrale ont décidé de déclencher la procédure d’arrêt à froid. Cela signifie que le coeur du réacteur est neutralisé par les barres de contrôle qui inhibent la réaction nucléaire. Progressivement, la pression et la température du circuit primaire baissent. A la fin de la procédure, le circuit se trouve à une température de 60°C et une pression d’environ 2 bars.

Pas de blessés… une chance

Par chance, aucun technicien ne se trouvait dans le bâtiment réacteur au moment du déclenchement de la fuite. Il reste néanmoins plusieurs zones d’ombres. D’abord, pour expliquer pourquoi la pression est montée jusqu’à faire exploser ce hublot. Ensuite, pour déterminer les responsabilités de cette erreur de manœuvre qui aurait pu avoir des conséquences graves en cas de présence humaine. L’équipe de maintenance provenait-elle d’EDF ou d’un sous-traitant ?  EDF devra donner des explications. Cela tombe bien, c’est l’une de ses spécialités…

Michel Alberganti

lire le billet

Curiosity peut-il ensemencer Mars ?

Dans quelques millions ou milliards d’années, des martiens dénicheront peut-être un étrange tas de ferraille au fond d’une crevasse. Auront-ils alors les moyens d’investigation leur permettant de comprendre qu’il s’agit là du vaisseau porteur de leurs plus lointains ancêtres ? Nous n’en sommes pas là… Pourtant, le rover Curiosity, car c’est lui dont on il s’agit, est bien soupçonné de constituer un potentiel géniteur de la vie sur Mars. Soit tout le contraire de sa mission qui vise à détecter des traces de vie passée sur la planète rouge.

Plus sérieusement, ce risque pourrait se traduire, d’ici quelques années, par la découverte, lors d’une future mission martienne, d’une vie martienne… issue de la Terre. Outre les considérations éthiques qui prônent d’éviter de polluer l’espace et ses planètes, une contamination de Mars compliquerait la tâche de son exploration. Il faudrait en effet déterminer si les découvertes sont bien d’origine purement martiennes.

L’affaire a été soulevée par un article paru dans le Los Angeles Times du 9 septembre. Le journaliste Louis Sahagun attaque fort en priant pour que Curiosity ne trouve pas d’eau sur Mars, ce qui a peu de chance de se produire dans cette région de la planète. Mais si c’était le cas… “Les outils de forage de Curiosity sont peut-être contaminés par des microbes terrestres. Si c’est le cas et si ces forets touchent de l’eau, les organismes pourraient survivre”, écrit-il. Le journaliste explique ensuite que ces forets, destinés à percer des trous dans la roche martienne afin d’en analyser la composition chimique, devaient être stérilisés et confinés dans une boite étanche ne devant pas être ouverte avant l’arrivée sur Mars. Cette procédure a été modifiée lorsque les ingénieurs de la Nasa ont émis une crainte : un atterrissage brutal pourrait endommager le système de perçage ce qui risquerait de rendre impossible le montage des forets dans leur mandrin. Que faire ?

Les opérations de perçage sont vitales pour la mission de Curiosity de recherche de traces de vie… Les ingénieurs ont donc décidé de monter, sur Terre, l’un des forets dans la perceuse et de l’y laisser. En cas de choc rendant impossible l’introduction d’un foret, il y en aurait au moins un en place et il pourrait réaliser quelques trous. Oui, mais… ce foret n’est donc pas stérile. Outre les débats internes à la Nasa entre les ingénieurs et les spécialistes de la protection des planètes, le risque pris pose une question simple: des organismes terriens pourraient-ils avoir survécu au voyage dans l’espace ?

Selon le Los Angeles Times qui cite des sources officielles, pas moins de 250 000 spores de bactéries pourraient se trouver sur Curiosity après l’atterrissage. Ils devraient tous être détruits par les conditions qui règnent sur le site du cratère Gale (pression, température, rayonnement UV, atmosphère de CO2 presque pur…). Néanmoins, les biologistes ont appris que des organismes vivant sur Terre pouvaient résister à des conditions extrêmes dans l’espace.  Cette année, mentionne le Los Angeles Times, Andrew Schuerger, spécialiste de la survie des micro-organismes terriens dans l’environnement martien, a découvert une espèce de bactérie, Bacillus subtilis, capable de survivre à certaines des conditions qui règnent sur la planète touge.

Pour éviter tout risque de contamination, la Nasa est donc condamnée à éviter à tout prix de trouver de l’eau avec Curiosity. Un comble après avoir si longtemps traqué la présence de cette eau sur Mars. Même si la zone d’exploration semble particulièrement sèche, le risque ne peut être totalement écarté. Pas plus que celui d’une bactérie qui aurait résisté à tout et serait toujours là, blottie au creux du foret avec lequel Curiosity s’apprête à pénétrer dans la roche de Mars…

Michel Alberganti

lire le billet

Eolien : autant en apporte le vent

Publiée le 9 septembre 2012 dans la revue Nature Climate Change, une nouvelle étude affirme que l’éolien pourrait, théoriquement, couvrir l’ensemble des besoins énergétiques de la planète. Selon Kate Marvel du laboratoire national Lawrence Livermore qui a dirigé les travaux de l’équipe, 400 térawatts pourraient être obtenus grâce aux éoliennes sur terre et en mer tandis que l’éolien d’altitude aurait une capacité de 1800 terrawatts. Or, l’humanité consomme aujourd’hui 18 terrawatts. Ainsi, le vent terrestre couvrirait 20 fois ces besoins et le vent d’altitude 100 fois. De quoi faire réfléchir ceux qui considèrent l’énergie éolienne comme tout juste capable d’apporter, comme le solaire, un appoint aux énergies “sérieuses” que sont le pétrole, le charbon et le nucléaire.

Recherche de l’optimum

Il faut néanmoins préciser que ces chiffres représentent le potentiel géophysique de cette source d’énergie renouvelable et propre. Ils ne tiennent pas compte des limitations technologiques ou économiques. Il ne s’agit donc que d’un gisement. Pas de la ressource réellement exploitable. L’étude s’est concentrée sur la recherche de l’optimum d’exploitation possible du vent. En effet, trop d’éoliennes finiraient par ralentir les courants aériens, phénomène de saturation qui conduit à la définition d’un maximum de la ressource.

Peu d’impacts sur le climat

Les chercheurs ont également tenté d’évaluer les effets sur le climat de la Terre d’une exploitation massive de l’énergie éolienne. Selon eux, l’impact de l’extraction d’une quantité d’énergie égale à la consommation de l’humanité serait minime, dans la mesure ou les turbines seraient réparties et non concentrées dans certaines régions. D’après leurs calculs, une telle exploitation ferait varier la température du globe d’environ 0,1°C et affecterait 1% des précipitations. En conclusion, Ken Caldera, co-auteur de l’étude et membre de l’institution Carnegie à Washington, estime que “les facteurs limitant l’exploitation de l’énergie éolienne seront économiques, technologiques et politiques mais non géophysiques”.


Courants-jets

En 2009, Ken Caldera avait déjà publié, avec Cristina Archer dans la revue Energies, un article dédié au potentiel des vents de haute altitude. Les chercheurs s’étaient alors penchés sur les fameux courants-jets, les fameux jet streams, qui circulent dans l’atmosphère à des altitudes comprises en 6 et 15 km. Il en avait déduit de forts potentiels sans donner la méthode pour exploiter ces véritables rivières aériennes. Comment installer une turbine à ces altitudes et récupérer le courant électrique produit ? Mystère… Moins ambitieux mais plus réalistes, de nombreux projets visent l’exploitation du vent à moyenne altitude, c’est à dire à quelques centaines de mètres de la terre. Il s’agit de se dégager de l’effet de ralentissement du vent que provoque sa friction sur le sol afin d’exploiter un flux plus fort et plus régulier. Mais, là encore, comment faire ?

Cerf-volant et yo-yo

Une société italienne, Kite Gen Research fondée en 2007 à Chieri, près de Turin, détient une vingtaine de brevets pour une solution originale: le cerf-volant (kite en anglais). Son idée essentielle réside dans le fait de conserver sur terre toute la partie lourde et encombrante de l’installation, c’est à dire la turbine. Cette dernière tourne grâce au déplacement ascensionnel du cerf-volant qui entraîne un câble. Le problème, c’est qu’il faut faire redescendre le cerf-volant au bout d’un certain temps… Pour cela, le système rompt la portance de l’aile volante de plusieurs dizaines de m2 en exerçant une traction sur l’un des câbles. le cerf-volant se met, en quelque sorte, en torche, ce qui facilite sa descente. Ensuite, il suffit de rétablir la portance pour que l’ascension reprenne. Et ainsi de suite, dans un mouvement qui rappelle celui du yo-yo. De essais du système ont été réalisé au début de 2012. Certains problèmes restent à résoudre, semble-t-il mais Kite Gen mise sur des installations de 3 MW par cerf-volant et envisage de vastes carrousels sur terre et sur mer pour rassembler des dizaines de systèmes sur un même site. Un jour, peut-être, notre courant électrique sera produit par des cerf-volants… Nul doute que l’idée devrait séduire la Chine…

Michel Alberganti

lire le billet

Faudra-t-il considérer les robots comme des personnes ?

DOMIN : Sulla, laissez Mademoiselle Glory vous regarder un peu.
HELENA : (se lève et tend la main) Ravie de vous rencontrer. Ce doit être très dur pour vous, ici, coupée du reste du monde.
SULLA : Je ne connais pas le reste du monde, Mademoiselle Glory. Je vous en prie, asseyez-vous.
HELENA : (s’assoie) D’où venez-vous ?
SULLA : D’ici, l’usine.
HELENA: Oh, vous êtes née ici.
SULLA : Oui, j’ai été fabriquée ici.
HELENA (Surprise) Comment ?
DOMIN : (riant) Sulla n’est pas une personne, Mademoiselle Glory, elle est un robot.
HELENA : Oh, s’il vous plait, excusez-moi.

Cette scène du début de la célèbre pièce de théâtre R.U.R. de Karel Kapek, écrite en tchèque en 1920 et qui a utilisé pour la première fois le mot robot, illustre parfaitement le problème qui finira, tôt ou tard, par se poser vis à vis de ces machines dont l’aspect et les performances se rapprochent de plus en plus de celles de l’être humain. Il est remarquable que cette question soit apparue dès la première utilisation du mot robot, à une époque où ce qu’il désignait n’existait pas encore. Cela prouve à quel point la projection dans l’avenir des machines conduit tout droit à l’interrogation sur le type de relations qu’elles entretiendront avec l’homme le jour où…

Quand l’autre n’est pas humain

Pour David Gunkel, docteur en philosophie, professeur de communication à l’université d’Illinois du Nord, ce problème de science fiction est en train de devenir rapidement un “fait scientifique”. Sa réflexion sur ce sujet fait l’objet d’un livre intitulé The machine question, perspectives critiques sur l’intelligence artificielle, les robots et l’éthique, publié, en anglais pour l’instant, par The MIT Press le 13 juillet 2012. “Beaucoup d’innovations dans la manière de penser au sujet des machines et de leur considération morale ont été apportées par la science fiction et ce livre fait appel à la fiction pour nous montrer comment nous avons à faire face à ce problème”, explique l’auteur. La question de l’éthique se pose dès lors que l’on traite de responsabilité vis à vis d’autrui. Cet autrui est alors supposé être une personne. David Gunkel souligne que cette pierre angulaire de l’éthique moderne a été significativement contestée, en particulier par les militants de la cause des droits des animaux mais également par ceux qui travaillent à la pointe de la technologie.

“Si nous admettons que les animaux méritent une considération morale, nous devons sérieusement nous interroger sur les machines qui constituent la prochaine étape dans le regard porté sur un autre qui soit non-humain”, déclare David Gunkel. Bien entendu, ce questionnement constitue le fondement du film de Steven Spielberg A.I. Artificial Intelligence (2001) dans lequel un enfant robot est vendu à une famille qui veut remplacer un fils défunt. L’attachement de la mère envers cet enfant parfait révèle l’un des aspects les plus troublants des mécanismes de l’affection chez l’être humain. Son objet n’est pas obligatoirement humain. Les liens entretenus avec les animaux mais aussi les objets comme les automobile, par exemple, le montrent.

Qui est responsable des actions des machines ?

Que se passera-t-il lorsque les machines disposeront à la fois d’une apparence et d’une intelligence qui se rapprochera, voire dépassera, celles des hommes ? C’est la question que traite David Gunkel dans son livre. Elle devrait faire couler beaucoup d’encre avant que nous trouvions la clef de cette nouvelle relation. L’auteur souligne le cas des interactions en ligne avec des machines et celui, de plus en plus fréquent, des relations entre elles. “Les machines ont pris le contrôle. C’est arrivé”, estime-t-il.

Les problèmes posés par la place de plus en plus importante et stratégique des machines ne se résument pas aux questions psychologiques. Lorsqu’elles deviennent capables d’innover par elles-mêmes et de devenir plus intelligentes, qui est responsable de leurs actions ? Leur fabricant, leur concepteur ? Mais si des machines fabriquent d’autres machines ? “On pourrait considérer l’informaticien qui a écrit le programme initial comme un parent qui n’est plus responsable des décisions et des innovations de machines qu’il a conçues“, déclare David Gunkel.

Code de robot-éthique

Certains gouvernements commencent à statuer sur ces questions comme la Corée du Sud qui a créé un code éthique afin d’éviter que les humains n’abusent les robots et vice-versa. Le Japon travaille sur un code de comportement des robots destiné, en particulier, à ceux qui sont employés par des personnes âgées.

Pour David Gunkel, il est nécessaire de susciter le débat sur ces questions dans la communauté des ingénieurs qui fabriquent ces machines et qui ne sont pas préparés aux interrogations éthiques. Le but de son livre est de contribuer à l’émergence de telles discussions. “Il s’agit de relier les points des différentes disciplines et d’amener les scientifiques et les ingénieurs à parler aux philosophes qui peuvent apporter 2500 ans de réflexions éthiques pour les aider à traiter les problèmes posés par les nouvelles technologies”. Difficile de refuser cette main tendue…

Et vous ? Qu’en pensez-vous ? Faudra-t-il, un jour, considérer les robots comme une catégorie particulière de personnes ?

Michel Alberganti

lire le billet

Curiosity réussit sa première analyse du sol de Mars avec son laser

Le 19 août 2012, le rover Curiosity a effectué sa première analyse du sol martien à l’aide de son instrument Chemical and Camera (ChemCam), construit en partie par la France à l’Institut de Recherche en Astrophysique et Planétologie (IRAP) sous la direction de Sylvestre Maurice, en lien avec le CNES.

Le ChemCam est digne des films de science fiction avec son rayon laser pouvant porter à près de 10 mètres. Pour le reste, il s’agit d’un instrument très scientifique puisque les tirs de son rayon n’ont d’autre but que de vaporiser un peu de roche martienne afin d’en analyser les constituants.

Treize jours après son atterrissage sur la planète rouge, Curiosity a donc commencé son travail essentiel d’exploration. L’échantillon de roche choisi, le premier d’une planète extraterrestre à être analysé avec cette méthode, a été baptisé Coronation par la Nasa. Le ChemCam l’a bombardé avec 30 pulsations de son laser. L’opération a duré 10 secondes. Chaque pulsation a frappé la surface avec une énergie d’un million de watts pendant 5 milliardièmes de seconde. Cette énergie a transformé les atomes de la surface de la roche en un plasma brillant dont la lumière est riche d’enseignements. En la captant avec ses trois spectromètres, le ChemCam a engrangé toutes les informations nécessaires pour analyser la composition de Coronation.

Ce premier tir avait essentiellement pour but d’étalonner le CheCam sur le sol martien. Mais il pourrait aussi apporter des informations intéressantes. Les chercheurs qui vont analyser les données vérifieront l’évolution de la composition après chaque pulsation. Les changements, s’ils existent, permettront de connaître la composition de la roche en profondeur, sous sa surface.

Curiosity est donc désormais à pied d’oeuvre. Tout semble fonctionner à merveille, en particulier ce ChemCam, composant essentiel pour sa mission. Sur ses 6 roues, le rover va devoir gravir la distance qui le sépare du Mont Aegis, considéré comme un grand livre de l’histoire de Mars que le robot va devoir déchiffrer au cours des prochains mois.

Michel Alberganti

 

lire le billet

Premières images du théâtre d’opération de Curiosity


Après les premières photos assez décevantes prises par le rover Curiosity à la surface de Mars depuis son atterrissage, le 6 août 2012, voici enfin des images permettant de se faire une idée du théâtre des opérations du robot à 6 roues chargé de détecter des traces de vie passée sur la planète rouge. Ci-dessus, la vue en 3D du cratère Gale, reconstituée à partir de 3 images prises par des sondes en orbite autour de Mars (Mars Express, Mars Reconnaissance Orbiter et Viking) , montre l’ensemble du cratère de plus de 155 km de diamètre avec, en son centre le Mont Aeolis, haut de 5500 mètres.  Pour visualiser la position de Curiosity,  le point vert dans l’ellipse bleue de la zone d’atterrissage, il faut agrandir cette image en cliquant sur elle. Le rover se situe dans la partie basse, un peu à droite.


La zone qu’il va étudier pendant au moins  deux ans se trouve entre sa position actuelle et le Mont Aeolis. Grâce aux photos prises à la verticale par le satellite Mars Reconnaissance Orbiter, dont les couleurs ont été accentuées, nous découvrons (à gauche), le terrain que Curiostity va explorer. Cette bande de terre s’étend de la position du robot (partie haute de l’image) jusqu’à une zone située avant le début du Mont Aeolis (en bas) qui est donc invisible. On découvre le champ de dunes que le rover devra traverser et qu’il analysera.

La qualité de ces images (62 cm par pixel) nous plonge dans ce décor qui ressemble fort à celui d’un désert terrien. De quoi conforter ceux qui continuent à penser que l’exploration spatiale n’est autre qu’un film tourné par la Nasa sur notre Terre… Les autres pourront interpréter ces similitudes comme l’un des signes de parenté entre Mars et la Terre. Au fond, ces deux planètes sont telluriques et elles ont pratiquement le même âge (plus petite, Mars se serait formée plus rapidement que la Terre).

Curiosity va partir en quête d’une autre parenté : celle de la vie. Avant de perdre l’eau qui l’a recouverte, Mars a-t-elle été le berceau d’une quelconque forme de vie ? Le robot dispose des moyens d’analyse nécessaires pour faire une telle découverte qui serait l’une des plus importantes réalisées par l’humanité. Mais il lui faudra peut-être de la chance pour que ses outils dénichent cette preuve. Malgré l’absence d’hommes sur Mars, la mission de Curiosity s’annonce donc comme l’une des plus passionnantes de l’exploration spatiale.

Michel Alberganti

lire le billet

Explosion du module d’atterrissage lunaire Morpheus lors d’un test

La scène ressemble à ces essais tragi-comiques des pionniers de l’aviation qui tentaient maladroitement de s’affranchir de l’attraction terrestre. Jeudi 9 août 2012, le module lunaire Morpheus s’est élevé de quelques mètres avant de basculer et de s’écraser au sol en prenant feu instantanément. Trois jours après le formidable succès de l’atterrissage de Curiosity sur Mars, la Nasa subit ainsi un échec cuisant… sur Terre. Preuve que le spatial n’est pas si simple qu’il y paraît lorsque tout se passe bien.

En quelques secondes, en raison d’une défaillance d’un composant électronique, selon la Nasa, le prototype du module d’atterrissage lunaire Morpheus, d’une valeur de 500 000 $, a été totalement détruit lors de son premier teste en vol libre. La Nasa ne semblait guère préparée à une telle éventualité comme le montre la vidéo ci-dessus. Il a fallu attendre plus de 2’30 et plusieurs explosions pour que les lances à incendie entrent en action. Décidément, le retour sur la Lune ne semble pas pour demain. On imagine l’impact médiatique d’un tel accident s’il était survenu avant le succès de Curiosity sur Mars…

Michel Alberganti

 

lire le billet