Le jour où des hackers pirateront le réseau électrique

La scène se passe en mars 2007 dans l’état américain de l’Idaho. Un hacker malintentionné se fraie un chemin dans le réseau relié à un générateur électrique de taille moyenne qui produit du courant alternatif. Le principe de la machine est simple : plusieurs dizaines de fois par seconde (60 aux Etats-Unis, 50 en France), le flux d’électrons va dans un sens puis dans un autre (d’où le nom d’alternateur). L’alternateur doit être parfaitement synchronisé avec le réseau électrique. En envoyant une rafale de commandes de coupures et de reprises aux disjoncteurs de la machine, le hacker la désynchronise. Le courant produit ne va plus dans la même direction que celui du réseau et cela revient un peu à passer la marche arrière alors que vous roulez sur l’autoroute. Ce qui suit, la bataille perdue de l’alternateur contre le réseau, a été filmé par une caméra. On y voit le générateur de plusieurs tonnes agité de soubresauts. Des morceaux de pièces tombent sur le sol. Puis de la vapeur et des fumées noires s’en échappent. Hors service. La scène a été filmée. La vidéo, d’abord tenue secrète, a été ensuite déclassifiée. La voici :

En réalité, le hacker en question n’était autre qu’un chercheur travaillant dans le cadre, contrôlé, d’un exercice de sécurité, le projet Aurora, réalisé au Idaho National Laboratory. On peut dire que le test a été concluant. On a l’habitude de voir les hackers s’en prendre à des systèmes virtuels. L’actualité nous le rappelle tous les jours : le 12 juin, c’est le site Internet de la police espagnole qui a été pris pour cible, juste après que le FMI eut concédé avoir été victime d’une cyberattaque. Comme l’explique, dans un article paru dans le numéro du  Scientific American publié ce mardi 14 juin, David Nicol, directeur de l’Information Trust Institute à l’université de l’Illinois où il enseigne aussi, les systèmes physiques sont désormais à la portée des pirates de l’informatique, car tous sont commandés à distance par informatique. Après le projet Aurora, le meilleur exemple en a été donné par le ver informatique Stuxnet qui, en 2009-2010, a visé le programme nucléaire iranien. Selon un rapport publié en décembre 2010 par l’Institute for Science and International Security, l’Iran a dû remplacer un millier de centrifugeuses servant à enrichir de l’uranium car Stuxnet les aurait détruites en leur commandant subrepticement de tourner trop vite…

Dans son article, David Nicol dresse la longue liste des faiblesses du système de production et d’approvisionnement en électricité et souligne combien est dépassée l’assurance que le système ne craint rien parce qu’il n’est pas connecté à Internet. De multiples points d’entrée sur le réseau électrique existent et, comme Stuxnet l’a montré, il suffit de brancher une clé USB infectée à un ordinateur pour qu’un logiciel malveillant très bien élaboré aille silencieusement chercher les failles du système tout en lui faisant croire que tout est sous contrôle. Le projet Aurora s’est glissé dans la brèche au niveau de l’alternateur mais on peut aussi s’attaquer aux postes de transformation, aux postes de distribution ou aux stations de contrôle. De quoi reproduire le film d’action Die Hard 4 – Retour en enfer… David Nicol raconte ainsi un autre exercice de simulation réalisé en 2010, au cours duquel la cible était constituée de postes de transformation qui, comme le dit de manière très pédagogique EDF sur son site Internet, “sont des lieux fermés et commandés à distance à partir de postes principaux, appelés Pupitres de Commandes Groupées”… sauf quand quelqu’un d’autre prend les commandes. L’exercice fut une “réussite” en ce sens que tout un état de l’Ouest américain fut virtuellement privé d’électricité pour plusieurs semaines. Bruce Willis n’est pas toujours là…

A travers l’exemple du réseau électrique, c’est la fragilité de tout réseau informatique (qu’il soit ouvert ou fermé) qui est mise en lumière. Leon Panetta ne s’y est d’ailleurs pas trompé. Celui qui est actuellement directeur de la CIA et remplacera prochainement Robert Gates au poste de secrétaire de la défense vient de déclarer devant une commission sénatoriale que “le prochain Pearl Harbour auquel nous seront confrontés pourrait très bien être une cyberattaque” visant les réseaux de sécurité, financiers ou électriques. Jusqu’ici réservée aux scénarios de films-catastrophes ou de science-fiction, la prise de contrôle à distance d’une centrale nucléaire par un groupe terroriste s’approche lentement mais sûrement du domaine du possible. Pour avoir un Fukushima, plus besoin d’un tsunami, une clé USB pourrait suffire.

Mais il y a plus effrayant encore. Un article de recherche publié par feu la Commission internationale sur la non-prolifération et le désarmement nucléaires s’est intéressé à la possibilité de pirater les systèmes de commandes nucléaires. L’auteur, Jason Fritz, reconnaît que les sécurités mises en place sont énormes, redondantes, extrêmement robustes, mais il n’en ajoute pas moins qu’une menace subsiste toujours : “Une cyberattaque réussie nécessite de ne trouver qu’une seule faiblesse tandis qu’une cyberdéfense réussie nécessite de trouver toutes les faiblesses possibles. Alors que des individus plus jeunes et plus doués en informatique sont recrutés parmi les rangs des terroristes, ils pourraient commencer à reconnaître le potentiel de ce type d’attaque.” En clair, au lieu d’essayer de fabriquer une bombe ou d’en acheter une, pourquoi ne pas pousser un Etat nucléaire à en envoyer une ? Il serait évidemment impossible de pirater les codes d’attaque de Barack Obama ou de Nicolas Sarkozy. Mais, écrit Jason Fritz, “malgré les affirmations selon lesquelles les ordres de tir nucléaire ne peuvent venir que des plus hautes autorités, de nombreux exemples montrent la possibilité de contourner la chaîne de commandement et d’insérer ces ordres à des niveaux plus bas. Des cyberterroristes pourraient aussi provoquer un tir nucléaire en imitant les systèmes d’alarme et d’identification ou en endommageant les réseaux de communication.”

Pierre Barthélémy

lire le billet

L’Ecosse veut se chauffer au whisky

La semaine dernière, le Scottish National Party (SNP), le parti indépendantiste écossais, a obtenu la majorité absolue au Parlement d’Edimbourg. Et, dans l’élan de cette victoire, son leader, Alex Salmond, qui est déjà premier ministre d’Ecosse depuis 2007, a promis d’ici cinq ans un référendum sur l’indépendance de ce pays constitutif du Royaume-Uni (avec l’Angleterre, le Pays de Galles et l’Irlande du Nord). Mister Salmond aime beaucoup l’indépendance puisqu’il en vise une autre, énergétique celle-là. En septembre 2010, il s’est fixé un objectif ambitieux : 80% de l’électricité issus d’énergies renouvelables d’ici à 2020. Quelques jours plus tard, il a ajouté que 100% en 2025 étaient possibles.

Cela peut sembler présomptueux mais il faut tout de même dire que l’Ecosse a quelques atouts dans le domaine. Tout d’abord un gros potentiel éolien, que ce soit dans les terres ou offshore. Tellement gros qu’il a fallu, pendant quelques heures au mois d’avril, couper six fermes éoliennes (et dédommager leurs exploitants) parce qu’en raison des forts vents, les “moulins” produisaient trop par rapport à la capacité d’absorption du réseau électrique ! Ensuite,  ce pays maritime souhaite exploiter l’énergie véhiculée par les océans (vagues, courants, marées) avec des hydroliennes. Plusieurs machines ont été et vont être testées au Centre européen des énergies marines, qui est situé… en Ecosse. Enfin, dans la panoplie des énergies renouvelables, il y a la biomasse.

Pour mettre mes gros sabots dans un bon vieux cliché, j’écrirai que penser à l’Ecosse, c’est certes penser à Nessie, mais surtout au whisky. Quel rapport avec l’énergie de la biomasse ? D’aucuns riront en lançant que cette boisson alcoolisée réchauffe et ils ne croiront pas si bien dire. Comme l’a annoncé The Guardian dans un article paru la semaine dernière, le dernier projet d’énergie renouvelable made in Scotland est une petite centrale (7,2 mégawatts) qui fournira chaleur et électricité en brûlant les résidus de la fabrication du whisky mélangés à des copeaux de bois. De quoi alimenter 9 000 foyers. Si tout va bien, cette unité entrera en production en 2013. Elle sera implantée dans le Speyside, où se concentrent plusieurs dizaines des quelque cent distilleries écossaises. Pour que le projet soit intéressant sur le plan du bilan carbone, il faut que le transport de la matière première soit réduit au maximum afin de limiter les émissions de  CO2 : la centrale n’accueillera donc que les déchets provenant de seize distilleries proches, toutes situées dans un rayon de 40 kilomètres.

Puisqu’on parle de camions, le whisky et ses résidus de production intéressent aussi le secteur du transport. Ainsi, en 2010, des chercheurs écossais de l’université Napier à Edimbourg ont déposé un brevet pour un agrocarburant fabriqué à partir des déchets de l’industrie du whisky. L’idée consiste à les transformer en butanol, que l’on mélangerait à l’essence ou au gazole, le butanol présentant l’avantage d’être plus énergétique que l’éthanol, le plus connu des “carburants verts”. Au bout du compte, avec un carburant issu de la fabrication du whisky, l’expression “un dernier verre pour la route” pourrait retrouver une deuxième jeunesse…

Pierre Barthélémy

lire le billet

Comment être sûr qu’il s’agit de ben Laden ?

Ils avaient tué le “Che” et ils l’avaient montré.

Après avoir exécuté Ernesto Guevara le 9 octobre 1967, les militaires boliviens ont convié des photographes, dont Freddy Alborta, lequel a pris ce cliché qui a fait le tour du monde. Mais même si l’image était forte, elle ne prouvait cependant pas tout et les Boliviens le savaient. Ils ont donc fait ensuite trancher les mains du cadavre, les ont mises dans du formol et envoyées en Argentine, le pays natal du révolutionnaire, pour que les empreintes digitales y soient comparées. Il n’y a eu aucune ambiguïté. Epilogue de l’histoire : trente ans après la mort de Guevara, sa dépouille a été retrouvée. Elle a été identifiée par comparaison de ses dents avec un moulage réalisé à Cuba et, bien sûr, par une comparaison de son ADN.

Autant les militaires boliviens ont “bien fait les choses” pour assurer le monde que leur cadavre était bien celui du  “Che”, autant on peut avoir l’impression (et j’insiste sur ce mot : ce n’est qu’une impression), en ces premières heures qui suivent l’annonce de la mort d’Oussama ben Laden, que les Américains ne sont pas sûrs de leur coup. Et ce pour quatre raisons, que je résume en quatre questions.

1/ Où sont les images ? Il est évident qu’elles existent mais elles sont tenues secrètes pour le moment. Même si elle ne provient sûrement pas de l’armée américaine, la première photo diffusée par les médias (voir ci-dessous) est un montage grossier. Autant dire que cela commence mal, que tout le monde se demande où sont les vrais clichés et pourquoi on ne les a pas montrés.

2/ La reconnaissance faciale, c’est fiable ? Une dépêche de Reuters a rapidement annoncé que les Etats-Unis avaient “utilisé des techniques de reconnaissance faciale pour identifier le chef d’Al Qaïda”. Tout comme les empreintes digitales ou la reconnaissance de l’iris, il s’agit d’une technique biométrique. On part du principe que le corps de chacun est unique et que ses caractéristiques le sont également. L’idée est donc d’analyser le visage d’une personne et d’en mesurer les points les plus marquants comme l’écartement des pupilles et la structure osseuse, qui ne varient pas avec le temps et que la pilosité n’altère pas. Tout comme le font les logiciels travaillant sur les empreintes digitales, lesquels dressent la carte des points d’arrêt ou des carrefours des lignes papillaires, les programmes de reconnaissance faciale établissent la topographie du visage et la lisent comme un réseau de points en relation les uns avec les autres. Plus il y a de caractéristiques morphologiques, plus faible est la chance de confondre deux individus… mais plus forte est la probabilité de ne pas identifier celui que l’on cherche. Je me souviens ainsi notamment de la difficulté qu’avait eue la CIA à identifier Saddam Hussein (un personnage dont les photos ne manquaient pourtant pas) lors d’une intervention télévisée, le 20 mars 2003, après les premiers bombardements sur Bagdad. S’agissait-il du dictateur irakien ou d’un de ses prétendus sosies ? Pas si évident que cela à dire car, à l’époque, les logiciels de reconnaissance du visage n’avaient pas des performances optimales si le sujet n’était pas parfaitement face caméra et si l’éclairage était mauvais. En huit ans, la technologie s’est énormément perfectionnée et les taux d’erreurs se sont considérablement réduits. Néanmoins, on n’atteint pas encore les performances des empreintes digitales, surtout si la personne que l’on souhaite identifier a pris une balle dans la tête qui lui a fait éclater les os du crâne… Si jamais l’identification du cadavre du commanditaire des attentats du 11-Septembre ne devait tenir qu’à cela, il y aurait beaucoup de chances que le doute subsiste longtemps.

3/ En attendant l’ADN ? Comme on a pu le dire récemment sur le site de Slate au sujet des corps de la famille Dupont de Ligonnès, la méthode reine pour l’identification de quelqu’un, dans les séries policières et dans la vraie vie, est celle de l’ADN. Comment cela fonctionne-t-il ? Hormis chez les vrais jumeaux qui ont le même matériel génétique, l’ADN de chacun est en quelque sorte sa signature biologique unique. Bien que tous les humains partagent une grande partie de ce matériel (et c’est pourquoi ils font tous partie de la même espèce), certaines séquences sont spécifiques à chacun. Ce sont ces séquences-là que l’on compare. En ayant le corps d’Oussama ben Laden, les Américains ont de quoi faire autant de tests ADN qu’ils le veulent. A condition d’avoir un point de comparaison fiable : d’autres échantillons de ben Laden ou ceux de parents proches. Pour schématiser, il faut prendre quelques cellules de la dépouille ; les placer dans un produit qui en brisera la membrane et permettra d’extraire l’ADN contenu dans le noyau cellulaire ; multiplier les séquences spécifiques de l’ADN grâce à une méthode de biologie moléculaire nommée réaction en chaîne par polymérase ; analyser un nombre suffisant de ces séquences pour que la probabilité statistique de confondre deux personnes tombe aux alentours de zéro. En général, il faut environ 24 heures pour réaliser l’ensemble de ces opérations, dont beaucoup sont automatisées. Il est néanmoins possible d’aller plus vite en cas d’urgence. Mais les Américains sont-ils pressés de confirmer ou veulent-ils tout vérifier deux fois pour être sûrs ? Si la Maison Blanche annonce dans les prochaines heures que l’analyse ADN confirme l’identification d’Oussama ben Laden, cela devrait suffire et il ne devrait pas y avoir de point n°4 à ce billet.

4/ Sauf que. Où est le corps ? “Vae victis”, disait-on jadis. Et, de Vercingétorix à Che Guevara, on a une longue tradition d’escamotage des cadavres des vaincus, souvent pour éviter que leur tombeau ne devienne un lieu de pélerinage et pour limiter leur glorification post-mortem. Mais, dans un monde où les théories du complot se créent plus vite que ne s’enflamme une traînée de poudre, la meilleure preuve de la mort de ben Laden reste son cadavre, et la possibilité pour des experts indépendants de prélever des échantillons et de mener leurs propres analyses ADN. Cependant, comme le raconte le New York Times, la dépouille du chef d’al-Qaida a été immergée en mer. Il n’y avait sans doute pas meilleur moyen pour entretenir le doute sur la réalité du décès de ben Laden.

Quand on sait que certains croient que l’homme n’est pas allé sur la Lune alors que nous détenons des quintaux et des quintaux de cailloux lunaires qui ne sont pas venus à pied, quand on sait que certains pensent qu’aucun avion ne s’est écrasé sur le Pentagone le 11 septembre 2001, alors qu’on a retrouvé l’ADN de la plupart des passagers et membres d’équipage du vol 77 dans les décombres, on voit quel poids peuvent avoir les preuves scientifiques face aux complotistes modernes.

Pierre Barthélémy

lire le billet

Peut-on contrer un tsunami ?

Depuis le séisme japonais du 11 mars dernier, j’ai beaucoup écrit sur le tsunami (ici, et ), en tâchant d’évoquer différents aspects du phénomène. Malgré cela, j’ai omis de mentionner la première remarque que je me suis faite en regardant les images de la catastrophe, quasiment en direct, ce vendredi 11 mars : c’était la première fois que je voyais un tsunami en action, dans ce qui semblait une inexorable marche dans ces champs de la campagne nippone. C’était, vue d’hélicoptère, une vague noire infatigable, déjà jonchée de débris, comme une longue cape de mort qui glissait silencieusement sur les serres et les routes, emportant comme fétus de paille autos, camions, voiliers, cargos, maisons et, malheureusement, les hommes. Lors du grand tsunami du 26 décembre 2004 dans l’océan Indien, qui avait avant tout frappé l’Indonésie, les vidéos qui nous étaient parvenues étaient rares, prises du sol et d’assez mauvaise qualité. Le 11 mars, la télévision nippone avait, elle, les moyens de filmer cet événement exceptionnel. Pour l’histoire et, je suis prêt à le parier, pour la science car chercheurs et ingénieurs se serviront de ces images pour mieux comprendre la mécanique du phénomène sur les côtes et à l’intérieur des terres.

Au début de cette deuxième vidéo, l’hélicoptère survole l’océan et on distingue parfaitement le train d’ondes qui s’avance vers la côte :

Les vidéastes amateurs ont aussi, avec des moyens plus rudimentaires, contribué à la couverture de l’événement. Ici, le tsunami vécu en direct par un automobiliste dans son véhicule. On peut imaginer que si la vidéo est sur Youtube, le (ou les) occupant(s) de la voiture a (ont) pu s’en sortir :

Là, on touche du doigt la petitesse de l’homme et la fragilité de sa technologie. On a en effet tendance à l’oublier mais un seul mètre cube d’eau pèse exactement une tonne, soit plus qu’une voiture moyenne… Quand on sait que ce tsunami s’est répandu sur plus de 400 kilomètres carrés, ce sont probablement des centaines de millions de tonnes d’eau, voire des milliards, qui ont participé à l’inondation. Les petites digues de cette ville sont submergées en un rien de temps :

On n’a sûrement pas fini de compter les morts ni d’évaluer les dégâts et, de la même manière, il faudra encore du temps pour connaître la hauteur exacte des vagues. D’après le quotidien japonais Yomiuri Shimbun, cité par 20minutes.fr, une première étude parle d’une hauteur d’au moins 23 mètres, soit la taille d’un immeuble moderne de 8 étages (rez-de-chaussée compris), ce qui est plus élevé que les immeubles haussmanniens à Paris, dont les plus grandes façades ne devaient pas dépasser les 20 mètres. On comprend que, le 11 mars, des vagues pareilles aient eu raison des digues les plus imposantes, comme celle de Taro, une localité appartenant à la ville de Miyako et qui, déjà frappée par deux tsunamis en 1896 (et pas en 1895 comme indiqué par erreur dans la vidéo qui suit) et 1933, avait cru être protégée en élevant une digue en forme de X de 10 mètres de haut. Cela n’a pas servi à grand chose, comme on peut le voir dans ce reportage :

Dans un article publié le 13 mars, le New York Times rappelait que 40% des côtes nippones étaient protégées par des digues ou des môles, censées les prémunir des grosses vagues, des typhons et, dans le pire des cas, des tsunamis. L’événement du 11 mars montre que, dans le cas d’un tsunami exceptionnel, il s’agit d’une protection illusoire. Autant les constructions ont plutôt bien résisté à un des séismes les plus importants qu’ait connus la planète, grâce aux normes parasismiques en vigueur au pays du Soleil levant, autant rien n’était vraiment dimensionné pour faire face à l’arrivée d’un train de vagues colossales, comme on a pu le voir avec la centrale nucléaire de Fukushima Daiichi. Nul doute que le débat sur l’utilité des digues se tiendra lorsque les Japonais auront pansé leurs plaies.

L’alternative est assez simple : construire des digues encore plus hautes, sans avoir l’assurance que le prochain tsunami ne s’en jouera pas, ou bien faire preuve de modestie, constater son impuissance face à ces cataclysmes naturels extrêmes et consacrer cet argent à des systèmes d’alerte et d’évacuation des populations plus performants. Car avec moins de 15% de plaines sur son territoire, le Japon a concentré plus de 100 millions de ses habitants sur les littoraux et ne les fera pas déménager dans les montagnes. Et l’on peut être sûr que, dans cet archipel à la forte sismicité, il y aura d’autres tsunamis.

Pierre Barthélémy

lire le billet

Un télescope géant pour l’Europe… grâce au Brésil

e-elt-3_2008

L’Observatoire européen austral (ESO, pour European Southern Observatory) a déjà un bijou de technologie avec son Very Large Telescope, perché à 2 635 mètres d’altitude sur le Cerro Paranal, dans le désert d’Atacama au Chili. Mais, dans la course aux découvertes scientifiques et à la technologie de pointe, il faut toujours prévoir la génération suivante. Depuis 2005, l’ESO planche sur un instrument dont les performances dépasseront largement celle des quatre grands télescopes du VLT : l’European Extremely Large Telescope (E-ELT, figuré sur la vue d’artiste ci-dessus). Autrement dit, un mastodonte de l’astronomie, avec un miroir géant de 42 mètres (ceux du VLT ne font “que” 8,2 m de diamètre et ceux du Keck américain 10 m).

Mais les très grands équipements coûtent cher et le budget nécessaire à la construction de l’E-ELT, sur le Cerro Armazones, à une vingtaine de kilomètres du VLT et à plus de 3 000 mètres d’altitude, s’élève à un milliard d’euros. Heureusement, l’ESO a reçu, peu après Noël, un magnifique cadeau : le Brésil a en effet signé, le 29 décembre 2010, son accord d’adhésion à l’ESO, qui fera de lui, s’il est ratifié par son Parlement, le quinzième pays de l’Observatoire et le premier non-européen (les 14 autres membres sont l’Allemagne, l’Autriche, la Belgique, le Danemark, l’Espagne, la Finlande, la France, l’Italie, les Pays-Bas, le Portugal, la République Tchèque, le Royaume-Uni, la Suède et la Suisse). Ce que le communiqué de presse ne dit pas, c’est que Brasilia apporte un chèque de 300 millions d’euros (dont 130 millions d’euros de “ticket d’entrée”). Comme l’explique Nature, si l’on ajoute les 300 millions d’euros que les Européens ont déjà mis sur la table pour l’E-ELT, 60% du financement est déjà trouvé. Le directeur général de l’ESO, l’astronome néerlandais Tim de Zeeuw, a indiqué que, pour les 400 millions d’euros restants, une “contribution exceptionnelle” sera demandée aux Etats membres.

L’E-ELT sera un monstre de technologie, un instrument de quelque 5 000 tonnes et de 60 mètres de haut. Pour composer son immense miroir primaire, il faudra assembler pas moins de 984 miroirs hexagonaux de 1,45 m de diamètre, qui collecteront au total quinze fois plus de lumière que les meilleurs télescopes actuels. L’E-ELT aura une résolution quinze fois supérieure à celle du fameux télescope spatial Hubble. Son design unique compte au total cinq  miroirs. La lumière reçue par le miroir principal de 42 m est renvoyée vers un miroir secondaire de 6 mètres de diamètre qui à son tour la renvoie sur un miroir blotti dans le premier. Ce troisième larron transmet la lumière à un miroir dit adaptatif, capable d’ajuster sa forme un millier de fois par seconde afin de corriger les distorsions d’image dues à la turbulence atmosphérique. Le cinquième et dernier miroir stabilise l’image et envoie la lumière aux caméras et instruments. L’E-ELT s’installera sous un dôme ouvrant de 80 mètres de haut, analogue à ceux de certains stades. Le tout en fera un monument de science, presque comparable en taille aux pyramides égyptiennes, comme le montre la vue d’artiste ci-dessous, qui fait figurer le VLT à côté de l’E-ELT.

e-elt-and-vlt-vs-giza-pyramids

Un géant, donc, mais pour quelle science ? Les astronomes attendent de l’E-ELT un important saut qualitatif lorsqu’il entrera en service en 2018 ou 2019. Travaillant dans les domaines optique et proche infra-rouge, ce télescope remplira des missions très diverses dont voici une liste non exhaustive : détecter des planètes extra-solaires de la taille de la Terre ; photographier les grosses exoplanètes (celle de la taille de Jupiter ou plus grandes) et analyser leur atmosphère ; étudier la formation des planètes en observant les disques proto-planétaires entourant les étoiles très jeunes ; analyser les populations stellaires d’un bon échantillon de galaxies (ce qui est impossible avec les instruments actuels car leur résolution est trop faible) afin de reconstituer leur histoire ; voir les objets les plus lointains et donc les plus anciens du cosmos, pour remonter aux origines des premières galaxies ; mesurer l’accélération de l’expansion de l’Univers et chercher à identifier la nature de la mystérieuse énergie noire qui en est la cause. Un programme aussi alléchant que copieux et on comprend mieux en le lisant à quel point les astronomes européens et, désormais, brésiliens sont impatients de voir le chantier de l’E-ELT commencer au Chili. D’autant que leurs concurrents américains sont moins bien partis qu’eux dans la course au gigantisme.

Comme l’explique l’article de Nature, deux projets ont été présentés outre-Atlantique, avec des collaborations internationales, mais le Thirty Meter Telescope et le Giant Magellan Telescope sont tous les deux plus petits que le “bébé” de l’ESO et seulement l’un d’entre eux recevra des subsides de la National Science Foundation (NSF) américaine. Surtout, la NSF a donné sa priorité à la construction d’un autre télescope, moins grand, le Large Synoptic Survey Telescope, qui aura des objectifs scientifiques bien différents : capable d’observer de larges portions de l’espace, il couvrira tout le ciel visible deux fois par semaine, ce qui permettra de réaliser un film du cosmos, d’observer les changements de luminosité et de position des astres, et par conséquent de détecter les astéroïdes potentiellement dangereux pour la Terre. Si jamais un des deux projets américains devait rester sur le carreau, seuls deux télescopes géants, à la pointe de la technologie, verraient le jour à la fin de la décennie. Autant dire que les places seront encore plus chères qu’aujourd’hui pour les astronomes, dont certains seront inéluctablement rétrogradés dans la deuxième division de la science…

Pierre Barthélémy

lire le billet

L’étonnante machine à grimaces

Il y avait la machine à écrire, la machine à laver, la machine à coudre, la machine à pain, la machine à sous et la machine à perdre. Voici désormais venu le temps de la machine à grimaces. C’est une (ré)invention que l’on doit à Daito Manabe, un Japonais à la fois musicien et programmeur, et avant tout artiste de l’électricité. Vous vous souvenez peut-être avoir fait à l’école cette sympathique expérience qui consiste à faire bouger des cuisses de grenouille séparées du cerveau de la bête en reliant les nerfs du batracien à une pile. Une expérience directement inspirée des travaux de Luigi Galvani (1737–1798).

Dans ses notes de travail, Galvani, professeur d’anatomie à Bologne, écrit ceci : “J’ai disséqué et préparé une grenouille [et] j’ai placé celle-ci sur la table sur laquelle se trouvait une machine électrique, à l’écart du conducteur de la machine et à une assez grande distance de celui-ci. Lorsque l’un de mes aides, par hasard, toucha légèrement avec la pointe de son scalpel, les nerfs cruraux internes de cette grenouille, on vit tous les muscles de ses membres se contracter de telle sorte qu’ils paraissaient pris de très violentes contractions tétaniques. Un autre des assistants qui était présent lors de nos expériences sur l’électricité eut l’impression que ces contractions se produisaient au moment où une étincelle jaillissait du conducteur de la machine. […] Je fus alors pris d’un incroyable désir de refaire l’expérience et d’expliquer le mystère de ce phénomène. J’approchai donc la pointe du scalpel de l’un ou l’autre des nerfs cruraux, tandis que l’un des assistants faisait jaillir une étincelle. Le phénomène se reproduisit de la même manière.”

Daito Manabe a repris l’idée en changeant d’animal… L’information nerveuse voyageant aussi chez l’humain via un courant électrique, l’artiste nippon a connecté les muscles faciaux de quatre de ses amis à des électrodes. Les impulsions que celles-ci transmettaient étaient synchronisées et suivaient le rythme d’une musique électronique. Le spectacle des contractions involontaires provoquées par la machine à grimaces est franchement drôle :

L’artiste japonais a décliné son idée sur d’autres modes. Sur cette autre vidéo, on le voit (au centre) grimacer, le visage muni de capteurs. Les signaux électriques recueillis fabriquent une musique électronique tout en étant renvoyés vers le visage de deux “cobayes”, lesquels reproduisent involontairement les grimaces de Daito Manabe.

Pierre Barthélémy

lire le billet

L’incroyable canon de l’US Navy

Canon

C’est Noël avant l’heure pour la marine américaine. L’Office of Naval Research (ONR), bras scientifique et technologique de l’US Navy, a en effet annoncé, le 10 décembre, un nouveau record pour le canon révolutionnaire sur lequel elle travaille depuis quelques années : un canon électromagnétique, sans poudre, capable de tirer des obus hypersoniques à plusieurs centaines de kilomètres… Une arme qui introduirait de nouvelles règles au grand jeu de bataille navale. Le principe de ce Railgun est simple : l’obus est placé entre deux rails parallèles ; l’électricité produite par le moteur du bateau est momentanément stockée, puis relâchée dans les rails, ce qui crée un champ magnétique très puissant, lequel propulse le projectile à une vitesse de 7,5 fois la vitesse du son.

Pour donner plus de chiffres au sujet de cette arme, je dirai que le prototype utilisé lors du test du 10 décembre a obtenu une énergie de 33 mégajoules (trois fois plus que le record précédent qui datait de 2008). Ce canon a pour le moment le potentiel de toucher une cible située à près de 200 kilomètres ! A titre de comparaison, les canons actuels de la marine américaine ne dépassent pas la trentaine de kilomètres. A terme, le Railgun devrait atteindre les 64 mégajoules et tirer à plus de 350 kilomètres des obus qui parcourraient la distance en seulement 6 minutes. Ils effectueraient une partie de leur vol au-dessus de l’atmosphère et toucheraient leurs cibles à la vitesse de Mach 5 (5 fois la vitesse du son). A cette vitesse-là, le projectile n’a plus besoin d’embarquer de charge car sa seule énergie cinétique a un énorme pouvoir destructeur.

Le navire équipé d’un canon électromagnétique cumulera donc les avantages : puissance, possibilité de tirer sur l’ennemi tout en en restant hors de portée et sécurité accrue (plus d’explosifs à bord des bateaux). Selon Foxnews, le programme a déjà coûté 211 millions de dollars depuis 2005 et il reste à résoudre plusieurs problèmes techniques avant que ce canon du XXIe siècle puisse équiper la flotte américaine (probablement dans une quinzaine d’années) : le canon génère beaucoup de chaleur et d’énergie et risque de s’abîmer lui-même ; le projectile doit pouvoir résister à ces contraintes sans se détruire ni se déformer ; il faut enfin que les navires puissent fournir assez d’électricité pour “charger” les canons de manière répétée et rapprochée. Selon Roger Ellis, le responsable du programme à l’ONR, l’US Navy espère à terme être capable d’envoyer 6 à 12 projectiles à la minute.

Pour voir à quoi ressemble cette grosse Bertha d’un genre nouveau, jetez un œil à la vidéo suivante :

Pour information, la France, en collaboration avec l’Allemagne, a un programme de recherche sur le même genre de canon, qui pourrait aussi servir de rampe de lancement pour de tout petits satellites.

Pierre Barthélémy

lire le billet

Un hôtel chinois de 15 étages construit en 6 jours

La vidéo s’est déjà bien promenée sur le web mais elle vaut vraiment le coup d’œil : on y voit un hôtel de 15 étages se construire en un peu moins de six jours (46 heures pour la structure et 90 heures pour les façades). La scène se passait en juin, dans la ville de Changsan, capitale de la province chinoise du Hunan. On imagine la tête des voisins, partis une semaine en vacances, qui ont retrouvé à leur retour un bâtiment de plusieurs dizaines de mètres de haut devant chez eux…

Evidemment, pour que l’exploit soit possible, il a fallu réunir de nombreuses conditions. Tout d’abord, les fondations étaient prêtes avant la phase de construction proprement dite. Ensuite, tous les éléments de la structure étaient préfabriqués en usine et il ne restait plus qu’à les assembler, comme un immense Lego. Enfin, plusieurs équipes se sont relayées jour et nuit et de nombreux commentateurs, sur les blogs ou les sites sur lesquels cette vidéo a déjà été mise en ligne, ont perfidement souligné que ce dernier élément indispensable à la rapidité de la construction n’aurait pas été possible aux Etats-Unis ou en France en raison de la législation sur le droit du travail…

D’autres ont critiqué la construction elle-même, disant qu’elle leur semblait de mauvaise qualité et qu’ils ne se risqueraient pas à dormir dans cet hôtel. C’est sans doute l’expression d’une certaine jalousie. Préfabriqué ne rime plus avec précarité. Les spécifications de ce bâtiment réalisé par la société chinoise Broad sont même assez étonnantes puisqu’il est censé résister à un tremblement de terre de magnitude 9 sur l’échelle de Richter, soit l’équivalent de séismes extrêmement dévastateurs. A titre de comparaison, rappelons que la magnitude du tremblement de terre du 12 janvier à Haïti n’était “que” de 7. Celle du séisme du Sichuan, le 12 mai 2008, était montée à 7,9. Au cours des dernières années, seul le fameux séisme du 26 décembre 2004, qui a entraîné un tsunami ravageur dans l’océan Indien, a passé la barre des 9. On peut voir sur cette autre vidéo, celle de la construction du pavillon Broad à l’exposition universelle de Shanghaï 2010 (monté, lui, en une journée…), que la structure très légère (6 fois moins lourde qu’une construction normale) résiste avec une certaine souplesse au test sismique. Par ailleurs, l’accent est mis sur l’efficacité énergétique, la purification de l’air intérieur et la minimisation des déchets de construction.

Qui a traversé les banlieues de Pékin ou de Hongkong a constaté que leur démographie a imposé aux Chinois de construire vite et grand. Certes, beaucoup de choses horribles se sont bâties. Mais le BTP chinois a aussi beaucoup appris. En 2010, les deux leaders mondiaux du secteur ne sont plus les français Vinci et Bouygues. Ils ont été rétrogradés aux troisième et quatrième places. Les deux premières sont désormais occupées par des sociétés chinoises…

Pierre Barthélémy

lire le billet

Un trousseau de clés dans votre portable

Sans être un fan des téléphones portables (j’ai acheté mon premier mobile il y a quelques mois, contraint et forcé, après avoir résisté pendant des années) ni un client régulier des grandes chaînes d’hôtels de luxe, j’ai quand même été arrêté par cette information et la vidéo qui va avec : depuis début novembre, l’hôtel Clarion de Stockholm expérimente, pour quatre mois, un nouveau type d’accueil grâce auquel on évite le passage par la réception (et tout contact avec le personnel humain, c’est mieux).

Le principe est simple : comme toute personne civilisée du troisième millénaire, vous disposez d’un téléphone portable. Lorsque vous réservez votre chambre, vous donnez votre numéro. Peu avant votre arrivée, lorsque vous descendez de votre jet privé en provenance des Bahamas, vous recevez un SMS vous demandant de vous enregistrer en appuyant sur l’écran de votre smartphone. Ceci fait, vous savez quelle chambre vous est attribuée. Une fois à l’hôtel, vous y montez directement, en snobant le comptoir où la plèbe fait la queue pour avoir sa clef ou sa carte d’accès. Devant votre chambre, vous approchez votre portable de la serrure, vous dites “Sésame, ouvre-toi”, et la porte s’ouvre toute seule. Comme une petite vidéo (en anglais) vaut mieux qu’un long discours, voici la démonstration par l’exemple :

Evidemment, pour que la miracle s’accomplisse, il faut un téléphone portable d’un genre un peu particulier, acceptant la communication en champ proche, une technologie similaire à celle des passes sans contact Navigo des transports en commun franciliens. Pour son expérimentation, l’hôtel Clarion en a fourni à ses bons clients, évidemment… Ceux-ci n’ont même pas besoin de se rendre au comptoir pour régler la note : en partant, il leur suffit de passer leur portable devant une borne et c’est payé (et il n’y a personne pour leur demander s’ils ont ou non vidé le mini-bar). Le communiqué de presse du Clarion ne dit pas combien de salaires d’employés de l’hôtel on pourra économiser à la fin du test ni quel accueil ces derniers feront aux clients qui auront oublié leur téléphone dans leur chambre. Si le propriétaire du portable le perd ou se le fait voler, il prévient l’hôtel qui désactive le code d’entrée.

De manière plus générale, le téléphone cellulaire a vocation à devenir une extension à tout faire du corps humain, particulièrement dans ce domaine du contrôle d’accès. Pour le dire simplement, au lieu de se trimbaler un trousseau de clés souvent imposant (le mien compte un transpondeur pour l’accès à mon immeuble, la clé de mon appartement, de ma boîte à lettres, de la porte de ma cave, de mes antivols de vélo, du local à vélos de mon immeuble, sans oublier ma clé de voiture…), on pourra peut-être bientôt se contenter de son portable qui, de toute manière, devient aussi précieux que ses clés. Sauf pour moi qui ne sais pas toujours où il se trouve, mais j’imagine que c’est une question d’habitude. Dans cette petite animation-démonstration, Assa Abloy, le leader mondial des systèmes d’ouverture de porte, qui a équipé l’hôtel Clarion, a franchement l’air de penser que le mobile sera le passe-partout de demain (et j’imagine que les Arsène Lupin du futur seront des as de l’informatique) :

Quand j’étais petit, il y avait, au-dessus de mon lit d’enfant, l’icône de mon saint patron. Il portait à sa ceinture le trousseau de clés ouvrant et fermant les portes du Paradis. D’où ma question du jour : Saint Pierre, aujourd’hui, il a un Nokia, un Samsung ou un iPhone ? A vous de répondre…

Pierre Barthélémy

lire le billet

Les robots parlent aux humains

c3po

On n’a pas attendu George Lucas et son sentencieux androïde C-3PO pour savoir que les robots pouvaient parler aux humains. Le vieil Homère l’avait déjà imaginé lorsque, dans l’Iliade, il décrivait les deux curieuses assistantes qui aidaient Héphaïstos à forger une nouvelle armure pour le bouillant Achille : “Elles sont en or mais elles ont l’aspect de vierges vivantes. Dans leur cœur est une raison ; elles ont aussi voix et force ; par la grâce des Immortels, elles savent travailler.” On ignore cependant de quoi causent ces dames de métal lorsqu’elles n’attisent pas le feu de la forge…

De nombreuses machines se sont mises à discuter avec les humains au cours des dernières années, notamment par le biais d’Internet. Il y a beaucoup de charmantes jeunes femmes qui vous aident à faire vos démarches en ligne, que ce soit Léa sur le site de la SNCF, Anna chez Ikea, Clara à la FNAC (qui ne manque pas d’humour puisqu’à la question “Tu veux boire un verre après le boulot ?” elle répond du tac au tac “J’évite de boire, ça me fait rouiller…”), etc. Tous ces “chatbots” (mot-valise anglais que l’on pourrait traduire par “robavards”) ont cependant du mal à soutenir une véritable conversation. Depuis plusieurs lustres des programmes de discussion ont vu le jour et les plus performants d’entre eux tentent de réussir le test de Turing. Dans un célèbre article publié en 1950 dans la revue Mind, le mathématicien britannique Alan Turing, père de l’informatique, proposa un test baptisé “Jeu de l’imitation”, censé déterminer si une machine pouvait être considérée comme “intelligente” (ou “consciente”, sachant que beaucoup de définitions différentes peuvent se cacher derrière ces deux mots).

Le principe du jeu, tel que le décrivit Turing, est le suivant. Un humain et un programme de conversation sont installés dans deux pièces séparés. Un juge, humain, pose des questions par écrit (par téléscripteur à l’époque de Turing, à l’aide d’un programme de “chat” aujourd’hui) aux deux candidats, sans savoir lequel est l’homme et lequel est la machine. Turing postulait que si, dans au moins 50 % des cas, le juge ne se montrait pas capable, au vu des réponses, de distinguer l’homme de l’ordinateur, alors ce dernier pouvait être considéré comme intelligent. Le test a été critiqué, notamment par le philosophe américain John Searle qui expliqua en 1980 que les programmes de conversation, pour astucieux qu’ils fussent, n’en étaient pas moins stupides puisqu’ils ne comprenaient pas ce qu’ils disaient (tout comme on peut dire que les meilleurs programmes d’échecs actuels ont beau être plus forts que n’importe quel humain, ils ignorent qu’ils jouent aux échecs…).

Pour illustrer son argumentation, Searle s’imagina enfermé dans une pièce isolée du monde, ne contenant que des livres de questions et de réponses écrites en chinois, langue qu’il ne connaissait pas. De temps en temps, par une fente pratiquée dans un mur, il recevait une feuille de papier comportant des idéogrammes. Son travail consistait à retrouver ces signes dans les livres de questions et à recopier la réponse correspondante, toujours en chinois. Selon Searle, le monde extérieur pouvait ainsi penser que le « prisonnier » de la chambre parlait cette langue alors que ce n’était pas le cas. De même, les ordinateurs pouvaient donner l’illusion d’une conversation alors qu’ils ne comprenaient pas ce qu’ils disaient. Cet exemple a suscité un immense débat dans le monde de l’intelligence artificielle. Les opposants à cette thèse affirmant que, si l’homme enfermé dans la pièce n’entend pas le chinois, le système dans sa globalité ” pièce + livres + homme” parle effectivement cette langue…

Quoi qu’il en soit, le test de Turing est toujours d’actualité, soixante ans après avoir été imaginé. Depuis 1991, se tient chaque année le prix Loebner qui évalue les meilleurs “robavards”. Il faut bien reconnaître qu’en général, les juges ne se font pas avoir. Mais, cette année, pour la vingtième édition du prix qui a eu lieu le 23 octobre, l’un d’entre eux, au bout de 25 minutes de discussion avec le candidat humain et le robot, s’est laissé abuser et a pris Suzette, le programme de Bruce Wilcox, pour ce qu’elle n’était pas ! Toutefois, duper un seul juge n’est pas suffisant, selon le règlement, pour réussir l’épreuve : il faut en berner au moins deux.

Au vu des productions de Suzette, laquelle élude assez maladroitement les questions qu’elle ne comprend pas et en pose elle-même pour détourner la conversation, on est en droit de se demander comment ce juge a pu se tromper. La réponse réside sans doute dans le fait que les candidats humains, des étudiants facétieux, ont tout fait pour passer, eux, pour des robots ! L’un d’eux y est visiblement parvenu. Comme quoi le test de Turing, censé évaluer l’intelligence des machines, peut aussi servir à mesurer la bêtise des humains !

Pierre Barthélémy

Post-scriptum : Suzette ne parle qu’anglais et elle est un peu submergée de demandes ces jours-ci, ce qui explique qu’il est difficile de lui parler… La rançon de la gloire. Si vous ne parvenez pas à vous connecter avec cette nouvelle star, essayez Jabberwacky, de Rollo Carpenter (vainqueur du prix Loebner en 2005 et 2006), programme dont on peut ajuster le niveau de réaction et d’émotions…

lire le billet