Pendant que le chauffeur dort dans la cabine de son poids-lourd, un voleur taillade la bâche du camion pour s’y introduire et dérober son changement. Scène classique des parkings d’autoroutes… Demain, au tout premier coup de canif, une alarme réveillera le chauffeur qui pourra ainsi sauver sa cargaison. Comment ? Grâce au tissu intelligent antivol mis au point par l’institut Fraunhofer pour la fiabilité et la microintégration, IZM, à Berlin.
Pour obtenir ce résultat qui apporte, ce qui est assez rare, un nouveau système original d’antivol peu onéreux et efficace, les chercheurs allemands ont collaboré avec l’université technique de Berlin et l’entreprise ETTLIN, un fabricant de textile d’Ettlingen qui a déposé un brevet pour protéger cette innovation. Cette dernière utilise un fin treillis de fils conducteurs intégrés au tissage. La liaison avec le calculateur associé assure une détection du point de rupture de la matrice de fils avec une précision de l’ordre du centimètre. Pour obtenir le même résultat, il fallait jusqu’à présent faire appel à un coûteux réseau de fibres optiques.
Le faible coût du système est important dans la mesure où de grandes surfaces de tissu antivol peuvent être nécessaire. Son prix de revient est limité grâce à l’utilisation de composants standards comme des fils conducteurs revêtu d’argent et un contrôleur électronique robuste. Autre avantage, le fil conducteur peut être incorporé au processus de tissage polyester de l’industrie textile. D’où une production de rames de tissus qui peuvent être retaillées aux dimensions nécessaires, à partir de 1 m2. De plus, le nouveau tissu anti-intrusion résiste à toutes les conditions climatiques, de -40 à + 85°C. Il peut même être lavé à la machine à 40°C.
Erik Simon, le chef du projet chez IZM, envisage une multitude d’applications. Au delà de la bâche de camion, il estime que le tissu est adapté à la protection de grandes surfaces comme les toits où il peut être placé sous les tuiles ou les ardoises. Il pourrait également protéger les salles de musée, les bijouteries ou les salles des coffres de banques. Il s’intègre aussi aux sols, au béton des murs. Pas question, pour autant, d’électrocuter les voleurs. “L’intensité du courant qui circule dans le tissu est si faible qu’elle ne présente pas de danger pour les hommes ou les animaux”, précise Erik Simon.
Michel Alberganti
lire le billet
La scène ressemble à ces essais tragi-comiques des pionniers de l’aviation qui tentaient maladroitement de s’affranchir de l’attraction terrestre. Jeudi 9 août 2012, le module lunaire Morpheus s’est élevé de quelques mètres avant de basculer et de s’écraser au sol en prenant feu instantanément. Trois jours après le formidable succès de l’atterrissage de Curiosity sur Mars, la Nasa subit ainsi un échec cuisant… sur Terre. Preuve que le spatial n’est pas si simple qu’il y paraît lorsque tout se passe bien.
En quelques secondes, en raison d’une défaillance d’un composant électronique, selon la Nasa, le prototype du module d’atterrissage lunaire Morpheus, d’une valeur de 500 000 $, a été totalement détruit lors de son premier teste en vol libre. La Nasa ne semblait guère préparée à une telle éventualité comme le montre la vidéo ci-dessus. Il a fallu attendre plus de 2’30 et plusieurs explosions pour que les lances à incendie entrent en action. Décidément, le retour sur la Lune ne semble pas pour demain. On imagine l’impact médiatique d’un tel accident s’il était survenu avant le succès de Curiosity sur Mars…
Michel Alberganti
lire le billet
Son nom n’a pas été choisi au hasard. Affetto, en italien, signifie quelque chose comme touchant ou affectueusement. En fait, il aurait pu se nommer Gelato, comme transi de froid ou de peur tant ce bébé robot inspire plus de terreur que de tendresse. On pense aux Gremlins de Joe Dante, pour le coté faussement mignon, mais surtout à David, l’enfant de AI Intelligence artificielle de Spielberg (2001) pour le réalisme qui fait vaciller les repères et pointer le spectre de la confusion entre l’humain et le machin (masculin de machine…).
La création du laboratoire Asada d’Osaka, au Japon, a fait l’objet d’une vidéo publiée le 24 juillet 2012 sur YouTube (ci-dessus). Si la première minute relève de l’horreur ordinaire, avec ce corps de métal, avec bavoir en forme de sternum, qui commence à bouger comme un bébé humain, à partir de 57 secondes, on plonge dans l’effroi et la terreur. Dès qu’Affetto revêt son visage humain, il devient soudain… un bébé. On a beau savoir pertinemment qu’il s’agit d’une machine, ses gestes disent le contraire, tant l’humanisation est réussie. Et que dire de son regard ? Il tend pourtant un bras sans main et son visage reste inexpressif. L’on frémit alors en imaginant la version finale, avec main potelée et mimique de bambin… Que ressentirons-nous alors ? En 2011, Affetto n’avait pas encore de tronc mais la mobilité de son visage, posé sur une table, levait le coin du voile sur le résultat final:
Toute la question posée par ce type de travail sur les robots humanoïdes réside dans le malaise qu’ils produisent sur nous. Rien d’anormal à cela, si l’on en croit les chercheurs qui ont travaillé sur la “vallée de l’étrange” (uncanny valley) comme Ayse Pinar Saygin de l’université de Californie à San Diego. Notre cerveau, celui des humains, est programmé pour distinguer très rapidement un homme d’un animal ou d’une machine. Notre perception est si fine que certains scientifiques estiment que nous pouvons même déceler certaines orientations sexuelles au premier coup d’oeil.
En revanche, nos neurones ne savent pas, faute d’expérience, traiter les sujets intermédiaires comme un robot qui bouge comme un être humain ou qui lui ressemble trop. C’est exactement le cas d’Affetto alors même qu’il n’a pas atteint son stade final. L’objectif de Minoru Asada qui dirige le laboratoire depuis 1992 ne semble pas concerner directement la robotique. Pour lui, le robot enfant permet surtout d’explorer de façon différente les relations qui se créent entre un humain et “l’autre”. Mais le choix d’un bébé de 3 kg censé être âgé de 1 à 2 ans n’est certainement pas dû au hasard. La recherche d’un réalisme troublant non plus. Minoru Asada mentionne les neurones miroirs comme l’une des cibles principales pour comprendre les mystères de ce sentiment de différenciation entre soi et les autres. Gageons que le réalisme d’Affetto pourrait ouvrir la voie à d’autres découvertes. Comme, par exemple, le mode d’apprentissage du cerveau pour ajouter de nouvelles catégories au répertoire d’identités qu’il peut reconnaître sans ambiguïté: l’androïde, le gynoïde et aussi, désormais, le pedoïde…
Michel Alberganti
lire le billet
Nous sommes en pleines vacances d’été et des millions d’automobilistes parcourent les routes de France et de Navarre, voire au delà. Les voitures sont pleines d’enfants et de bagages. A tout moment, le conducteur, distrait ou fatigué, peut faire une erreur de conduite. Un mauvais geste, un réflexe tardif et c’est la catastrophe. On peut se demander pourquoi, dans une société tout aussi automatisée que portée sur la sécurité, de tels risques subsistent. On peut aussi noter le coté très low-tech des solutions prônées par les associations militant pour la sécurité routière et souvent suivies par les autorités: ceintures de sécurité, air-bags, limitations de vitesse, contrôles radar, éthylotests… Sans parler des ralentisseurs ou des systèmes de sécurité passive des carrosseries qui se déforment pour absorber une partie de l’énergie du choc lors d’un accident.
La sécurité routière semble ainsi fondée sur un seul principe: limiter les conséquences des accidents. C’est à dire réduire le nombre de morts sur la route. Objectif éminemment louable mais qui est obtenu à grand prix. D’abord celui des contrôles (plus de radars, plus de policiers), ensuite celui du plaisir de conduire. On peut considérer que ce dernier baisse proportionnellement à la réduction du nombre de morts… A l’avenir, les mesures anti-accidents pourraient bien achever le petit reste de ce plaisir avec des systèmes d’automatisation plus ou moins totale de la conduite. Au delà des régulateurs ou limiteurs de vitesse, ce qui guette les conducteurs n’est autre que, par exemple, la conduite en convoi (la voiture “s’accroche” grâce à des capteurs de distance à celle qui la précède).
Cette perspective peu réjouissante pour ceux qui aiment encore tourner un volant et appuyer sur des pédales confère tout leur intérêt aux travaux du groupe de mobilité robotique du Massachusetts Institute of Technology (MIT) de Cambridge. Les chercheurs conçoivent en effet un système dont l’objectif est d’éviter les accidents sans contraindre le conducteur. Pour Sterling Anderson, doctorant du département d’ingénierie mécanique du MIT, il s’agit d’un véritable “copilote” électronique. A l’aide d’une caméra et d’un radar embarqués, le système est capable d’analyser à la fois les fautes de conduite et les risques de collision. Dans les deux cas, il prend le contrôle de la voiture pour éviter l’accident. Le reste du temps, il ne se manifeste pas, laissant au conducteur toute sa liberté. Le rêve, non?
Michel Alberganti
lire le billet“S’il te plait, n’oublie pas d’éteindre la tapisserie avant de dormir…” Etrange aujourd’hui, cette phrase pourrait devenir banale dans quelque années. En effet, des chercheurs travaillent sur l’intégration de diodes électroluminescentes (LED) à du papier. Mieux, cette technique permettrait d’imprimer ces diodes avec des technologies identiques à celles qui permettent aujourd’hui de déposer la couleur sur le papier-peint, par exemple. On peut alors imaginer des magazines avec des pages lumineuses… Ainsi, le papier n’aurait pas dit son dernier mot. Après sa version électronique, que l’on attend encore, voici poindre un autre avenir qui lui permettrait de prendre une certaine revanche sur l’arrogance des écrans de tous poils.
(a) Nanotubes d'oxyde de zinc (b) Nanotubes imprimés (c) LED a nanotubes imprimés sur du plastique et du papier (d) Image de la couche de nanotubes d'oxyde de zinc
Incorporer des LED dans du papier ne serait pas envisageable sans… les nanotechnologies.La technique de fabrication est issue de la thèse d’un doctorant, Gul Amin, du groupe de nanotechnologies et d’électronique physique de l’université de Norrköping, à l’est de la Suède. La méthode a fait l’objet d’une demande de brevet. Gul Amin utilise des nanotubes d’oxyde de zinc et d’oxyde de cuivre déposés sur une fine couche de polymère conducteur. Le papier, lui, est protégé par un revêtement en résine hydrophobe (Cyclotene). “C’est la première fois que que l’on peut créer des composants semi-conducteurs inorganiques directement sur du papier en utilisant des méthodes chimiques”, note le professeur Magnus Willander qui a dirigé la recherche et créé une entreprise, Ecospark, spécialisée dans le développement de produits à base de LED.
Les applications envisagées par Gul Amin vont du papier-peint aux cellules photovoltaïques. C’est dire le potentiel d’une telle invention. Toute la difficulté réside dans les techniques de croissance des nanotubes, de répartition régulière des différents composants sur la surface du papier et d’optimisation des jonctions électriques. Gul Amin reconnaît qu’il reste encore beaucoup à faire, pour réduire la tension d’amorçage nécessaire pour les nano LEDs s’allument, par exemple.
Mais, déjà, son invention fait rêver à des tapisseries qui capteraient l’énergie lumineuse dans la journée et la restitueraient la nuit, créant une douce lueur irradiant des murs…
Michel Alberganti
lire le billet
Faudrait savoir… D’un coté, les Français plébiscitent les systèmes de surveillance. Caméras, fichiers, cybersurveillance, tout semble bon pour rassurer la population qui n’a rien à se reprocher. D’un autre coté, les Français se plaignent de plus en plus à la CNIL de cette même surveillance. Surtout des abus, bien sûr. Mais qui a dit qu’il n’y aurait pas d’abus ? Quel système n’a pas de failles ? Quel pouvoir n’est pas exploité au delà des limites établies ? Il faut savoir ce que l’on veut…
Ainsi, le bilan 2011 de la CNIL, publié le 10 juillet 2012, affiche 5738 plaintes enregistrées en 2011, un chiffre en hausse de 19% par rapport à 2010. La Commission a réalisé 385 contrôles (+ 25% par rapport à 2010). On note que les contrôles représentent 6,7% du nombre de plaintes, ce qui ne paraît pas considérable. Ou bien les plaintes sont sans objet et il n’est pas nécessaire de publier leur nombre. Ou bien la CNIL est totalement dépassée par la vague de ces plaintes. Ceci malgré un accroissement notable de son activité puisqu’elle a adopté 1969 décisions (+ 25,5%) en 2011. Cette montée en puissance ne peut être entièrement attribuée au remplacement d’Alex Türk par Isabelle Falque-Pierrotin à la tête de la CNIL, car il n’a été effectué qu’en septembre 2011. On ne peut néanmoins que se féliciter de ce rajeunissement de la présidence de la CNIL. Alex Türk, sénateur du Nord, a préféré sa réélection en septembre 2011 au Sénat à la poursuite de son mandat de président de la CNIL, position qu’il occupait depuis 2004 et dans laquelle il s’est illustré en prenant parti en faveur de toutes les lois augmentant le contrôle des citoyens (Hadopi en 2009, LOOPSI2 en 2011).
Revenons au bilan 2011 de la CNIL qui donne quelques indications sur l’évolution de la nature des plaintes que la Commission reçoit de plus en plus via Internet. Or, le réseau est également la source de nombreux recours. Ainsi, 1000 plaintes (+42%) sont liées aux manquements en matières de “droit à l’oubli” sur le web (absence de suppression de textes, photographies ou vidéos en ligne). Instructifs aussi, les recours liés à la gestion des ressources humaines dans les entreprises. Ils représentent 12% des plaintes, soit 670 en 2011, dont la moitié concerne directement la surveillance des salariés. Avec une palme à la cybersurveillance considérée comme abusive (plaintes en hausse de 59%) en matière de contrôle de l’utilisation des systèmes informatiques et de la messagerie électronique. Plus étonnante, la sécurité des données des ressources humaines ne semble guère étanche. Les plaintes la concernant augmentent de 27% et mettent en cause la divulgation aux collègues ou sur Internet d’informations sensibles telles que le numéro de sécurité sociale, les revenus ou les coordonnées personnelles des salariés.
La CNIL a également fort à faire avec les dispositifs de vidéosurveillance dans les lieux non-ouverts au public mais également, depuis la loi LOOPSI2 qui étend sa compétence, dans les lieux publics. On apprend incidemment que 950 000 dispositifs sont ainsi concernés en France. Soit plus de 5 dispositifs au km2 dans les aires urbaines de la France métropolitaine… La CNIL en a contrôlé 150 en 2011 et déjà 80 en 2012. Elle déduit de ces actions :
“Ces différents contrôles ont révélé des lacunes ou des manquements :
- une nécessaire clarification du régime juridique ;
- une information des personnes insuffisante ou inexistante ;
- une mauvaise orientation des caméras ;
- des mesures de sécurité insuffisantes.”
Forte de ce constat, la Commission déclare qu’elle “accompagne les professionnels et les particuliers pour que ces dispositifs soient plus respectueux de la vie privée”. Nul doute qu’elle parviendra à des résultats significatifs grâce au contrôle de moins de 1 système sur 6000 chaque année…
La bonne volonté de la CNIL en matière de protection des libertés individuelles ne peut donc pas pallier les limites de ses moyens. Plus le nombre de systèmes de surveillance augmente, plus cette faiblesse rend symbolique l’action de la Commission. Certes, mieux vaut que ce symbole existe. Sauf s’il laisse croire qu’il assure un véritable contrôle de l’application des lois régissant les systèmes de surveillance sur le territoire français. Dans ce cas, il deviendrait ce que certains lui reprochent depuis longtemps: un alibi cautionnant le développement anarchique de la surveillance des citoyens.
Michel Alberganti
lire le billetOn pouvait se douter que la consommation croissante d’appareils électroniques, qu’il s’agisse d’ordinateurs ou de téléphones mobiles devait engendrer une masse considérable de déchets. Mais on pensait que cette industrie de pointe avait mis en place des systèmes de recyclage aussi sophistiqués que ses produits. Quelle naïveté ! Les chiffres des déchets électroniques, baptisés E-waste en anglais, dépassent largement l’imagination.
L’industrie électronique n’utilise pas moins de 320 tonnes d’or et 7500 tonnes d’argent par an. Ce qui revient à ajouter chaque année 21 milliards de dollars à la mine potentielle que représentent les déchets de ces appareils, soit 16 milliards de dollars d’or et 5 milliards de dollars d’argent. Ces 21 milliards de dollars représentent le produit intérieur brut de pays comme le Salvador (7 millions d’habitants), l’Estonie ou le Paraguay. Et la grande majorité de ces métaux précieux est gaspillée puisque seulement 15% sont récupérés, aussi bien dans les pays développés que dans ceux qui sont en développement.
Résultat: l’accumulation de ces richesses éparpillées au fil des années a conduit la valeur des métaux présents dans les “mines urbaines” à représenter 40 à 50 fois celle des minerais extraits du sol… Tel est le diagnostic des experts rassemblés, du 25 au 29 juin 2012 à Acra (Ghana), pour le premier événement baptisé e-Waste Academy, organisé par les Nations Unies et la Global e-Sustainability Initiative (GeSI) pour les représentants de 12 pays.
La mine d’or des déchets high-tech est promise à un bel avenir avec l’essor des tablettes numériques, par exemple. Il devrait s’en vendre 100 millions d’unités cette année et près du double en 2014. Si l’on considère l’or seul, les industries électroniques et électriques consommaient 5,3%, soit 197 tonnes, de la production mondiale d’or en 2001. Cette part est passée à 7,7% (320 tonnes) en 2011. Soit 2,5% des réserves d’or des Etats-Unis dans les fameux coffres de Fort Knox et de la banque de la réserve fédérale de New York. Au cours de cette même décennie (2001 – 2011), alors que la production d’or mondiale a augmenté de 15% (3900 tonnes à 4500 tonnes), le prix de l’once a grimpé de 300$ à 1500$. Il semble que la crise de confiance envers les banques ne soit pas la seule cause de cette flambée du cours de l’or.
Le plus étonnant, c’est que le recyclage des produits électroniques existe bien. Dans les pays développés, il atteint même des taux de 80 à 90%. Néanmoins, dans les pays en voie de développement, environ 50% de l’or est perdu lors des opérations de démontage des appareils (contre 25% dans les pays développés). Et seulement 25% de ce qui est vraiment recyclé, contre 95% dans les pays développés. Mais il semble qu’au final, pays riches et pauvres confondus, seulement 10 à 15% de l’or présent dans les déchets électroniques est réutilisé. Les 85% restants disparaissent, perdus dans les montagnes d’ordures électroniques.
Certains des participants à la e-Waste Academy, comme Alexis Vandendaelen de l’entreprise belge Umicore Precious Metals Refining, estiment qu’il ne faut pas considérer cette situation comme un fardeau mais comme une opportunité. Il recommande de remplacer la notion de “management des déchets” par celle de “management de la ressource”. Nul doute que les chiffres plaident pour ce glissement sémantique. Cela suffira-t-il pour établir une véritable filière de recyclage des métaux précieux contenus dans les déchets électroniques ? Rien n’est moins sûr.
Une fois de plus, la non prise en compte du recyclage dans la conception même des appareils rend délicate et improbable une récupération efficace des métaux précieux a posteriori. En attendant la possibilité de démonter facilement les parties contenant le plus d’or et d’argent, la reprise des appareils par leurs fabricants serait sans doute la solution la plus efficace. Pourquoi pas en échange d’une somme d’argent ? Un peu comme le font les concessionnaires automobiles. Ou bien des tablettes consignées…
Michel Alberganti
lire le billetCeux qui ont vécu la progression des capteurs électroniques utilisés dans les appareils photo numériques (APN) et les caméscopes ne connaissent désormais plus qu’une unité: le mégapixel. Qui se souvient encore du Mavica lancé par Sony, le tout premier APN avec ses 280 000 pixels ? Ou du Xapshot de Canon (1989) ? Ou encore du QuickTake d’Apple (1994) et ses 300 000 pixels ? Il faut attendre 1999 pour que les professionnels puissent acquérir un APN dépassant le million de pixels, le Nikon D1 avec 2,7 mégapixels. Les années 2000 seront celles de la course aux mégapixels avec des résultats mitigés, tant le nombre de pixels ne doit pas faire oublié leur qualité. Or, plus les pixels sont petits, moins ils captent de lumière. Des millions de pixels sur un capteur minuscule donne ainsi des résultats inférieurs à un nombre de pixels inférieur sur un grand capteur. D’où la nouvelle course, engagée depuis quelques années, celle de la taille des capteurs avec, comme objectif, le fameux format 24×36 mm de la bonne vieille pellicule argentique. Se profile aujourd’hui, la perspective de la généralisation d’appareils munis d’un tel capteur, dit “plein format”, dotés de 30 à 40 mégapixels contre moins de 20 aujourd’hui à de rares exceptions comme le récent Nikon D800 avec ses 36,3 mégapixels vendu à près de 3000 euros nu.
Tout cela pour préciser le contexte dans lequel arrive la publication, dans la revue Nature du 20 juin 2012, d’un article publié par des ingénieurs de l’université Duke et de l’université d’Arizona. En synchronisant 98 micro appareils photo, ils sont parvenus à obtenir des images de 50 gigapixels, soit 50 0000 mégapixels… Avec une définition 1000 fois supérieure à celle des meilleurs appareils actuels, les chercheurs multiplient par 5 la résolution des meilleurs yeux humains. Cela sur un champ de vision de 120° (contre 220° pour l”homme).
David Brady, qui dirige l’équipe, explique que “chacune des micro appareils photo capture les informations provenant d’une partie de la scène tandis qu’un ordinateur réalise la fusion de ces images en une seule image de très haute définition. Dans ce nombreux cas, l’appareil peut capter des détails que le photographe ne voit pas à l’œil nu et qu’il découvre ensuite en regardant l’image”. D’après lui, même s’il faudra développer des optiques spéciales, le problème principal viendra de la maîtrise de la consommation électrique et de la miniaturisation des circuits électroniques.
Le logiciel d’assemblage des différentes images a été réalisé par Michael Gehm, professeur assistant d’électricité et d’informatique à l’université d’Arizona. “Notre approche actuelle, au lieu de créer des optiques de plus en plus complexes, est d’utiliser des réseaux d’éléments électroniques massivement parallèles. Un objectif partagé capte la lumière et la répartit sur les micro caméras, exactement comme une réseau informatique gère les données destinées à différentes stations de travail. Chacune de ces dernières ne voit qu’une petite partie du problème à traiter . Pour l’image, nous prévoyons des parties de recouvrement qui permettent de ne pas perdre d’information”, indique-t-il.
L’appareil prototype mesure 50 cm de profondeur dont 3% seulement sont affectés à l’optique. Le reste est occupé par l’électronique qui se charge d’assembler les différentes parties de l’image. David Brady précise que la taille actuelle est liée à celle des cartes électroniques de contrôle et à la nécessité de les refroidir. “Lorsque des composants électroniques plus compacts et plus efficaces seront disponibles, l’ère de la photographie gigapixel s’ouvrira”, affirme-t-il. Les chercheurs estiment ainsi que, d’ici 5 ans, la miniaturisation des composants électroniques permettra de proposer des appareils photos gigapixel au grand public.
Michel Alberganti
lire le billetL’un des derniers freins au développement de l’homme bionique réside, à l’évidence, dans l’épineuse question de l’alimentation électrique des implants électroniques, en particulier lorsqu’ils sont situés dans le cerveau. Rien n’est plus disgracieux que des fils sortant du crâne ou des boitiers sans fil glissés sous le cuir chevelu. Au delà de l’aspect esthétique, qui a son importance lorsqu’on imagine un être humain augmenté, ces solutions requièrent un changement régulier des piles qui gâche un peu le rêve de tout Bioman qui se respecte. D’où l’intérêt des travaux d’une équipe du Massachusetts Institute of Technology (MIT) à Cambridge qui font l’objet d’une publication dans la revue PLoS one le 12 juin 2012.
Rahul Sarpeshkar, informaticien, et ses collègues du MIT et de la Harvard Medical School, annoncent avoir conçu une technologie qui permet de collecter de l’énergie électrique directement dans le cerveau. Il ne s’agit de rien de moins que d’une pile à combustible utilisant comme carburant le glucose du liquide cérébro-spinal. La pile fonctionne en retirant des électrons du glucose, c’est à dire en les oxydant. Cela marche dans une solution saline simulant le liquide cérébro-spinal. Ne nous emballons donc pas… Les scientifiques ignorent, pour l’heure, l’impact de cette puce sur le cerveau lui-même.
Car, en fait, il s’agit bien d’une batterie sur puce. De 1 à 2 millimètres carrés, le composant oxyde le glucose avec son anode en platine et convertit l’oxygène en eau à la surface d’un réseau de nanotubes de carbone intégré à la cathode. Les électrons arrachés au glucose fournissent de l’électricité. L’intérêt du système est qu’il peut fonctionner, en théorie, indéfiniment. Du moins, tant qu’il y a du glucose dans le liquide cérébro-spinal. La première crainte qui vient à l’esprit concerne les effets d’une telle exploitation d’un liquide du cerveau… sur le cerveau lui-même.
D’après leurs calculs, les chercheurs estiment que la pile consommerait entre 2,8% et 28% du glucose qui est réapprovisionné en permanence. En effet, le cerveau produit de 500 à 1200 millilitres de liquide cérébro-spinal par jour. Soit un renouvellement complet des 150 millilitres qu’il contient toutes les 6 heures. Nous voici donc avec une production permanente du carburant de notre pile à combustible. Les scientifiques ont étalement analysé la consommation d’oxygène de la pile et ils estiment qu’elle ne devrait pas déstabiliser les niveaux nécessaires au cerveau. Mais rien ne vaut un essai sur un vrai cerveau…
Pas question, si l’absence d’effets nocifs est confirmée, d’allumer une lampe frontale ou d’alimenter des lunettes de réalité augmentée. Encore moins de se projeter dans un monde virtuel à la Matrix… L’électricité produite ne dépasse pas les micro-watts (3,4 microwatts par centimètre carré en moyenne avec des pointes possibles à 180 microwatts par centimètre carré). Etant donné la taille réduite de la puce, elle ne produira que des fractions de microwatts. Mais cela pourrait être suffisant pour alimenter des implants permettant, par exemple, à des personnes paralysées de commander des systèmes leur permettant de réactiver la mobilité de leurs membres ou des équipements externes. On se souvient des expériences spectaculaires de contrôle d’un bras robotique par la pensée.
Michel Alberganti
lire le billetSon nom ne vous dit peut-être rien. Pourtant, d’ici quelques années, il pourrait devenir aussi célèbre que le plastique ou le silicium. Il s’agit du graphène. On discerne une parenté avec le graphite et on a raison. Il s’agit d’un matériau absolument révolutionnaire, un cristal constitué par une seule couche d’atomes de carbone. Oui, vous avez bien lu. Une seule couche d’atomes, ce qui en fait le matériau le plus fin possible. On exprime aussi cette finesse ultime en parlant de premier matériau en deux dimensions (2D). Cela peut paraître abusif mais, bon, une hauteur d’un seul atome, soit environ 0,14 nanomètre (10-9 m), ce n’est vraiment pas grand chose.
Un sandwich très conducteur
Les caractéristiques du graphène sont extrêmement nombreuses et toutes plus extraordinaires les unes que les autres. Dernière en date à être exploitée, au stade du laboratoire pour l’instant, sa conductivité. Si elle est bonne, deux chercheurs de l’université d’Exeter ont trouvé le moyen de l’améliorer encore. Monica Craciun et Saverio Russo ont mis au point un sandwich composé de deux couches de graphène entre lesquelles ils ont inserré une couche de molécules de chlorure de fer. Le résultat, baptisé GraphExeter est une alternative à l’oxyde d’indium-étain, matériau conducteur très utilisé en électronique mais qui devient fort coûteux à cause de sa raréfaction. Son approvisionnement pourrait de tarir en 2017. En prime, le GraphExeter est… transparent et flexible.
Electronique “portable”
Le GraphExeter pourrait ainsi servir dans une multitude d’application: des panneaux solaires dont ils pourraient augmenter l’efficacité de 30% à l’électronique “portable” (wearable, en anglais) au sens où elle pourrait s’intégrer aux vêtements. Demain, la grande mode sera peut-être le tee-shirt intelligent qui affiche des messages ou l’heure… Ou qui intègre un ordinateur, des écouteurs et des lecteurs MP3. Le portable qui devient vraiment portable et libère les poches… Déjà, les scientifiques de l’université d’Exeter ont mis au point une version du GraphExeter qui peut se pulvériser sur des tissus, des miroirs ou des vitres. Ainsi, le graphène pourrait changer notre vie. Au moins celle des geeks…
Michel Alberganti
lire le billet
Derniers commentaires