2013 : si les maths, chaque jour, nous étaient contées…

Le problème des maths, finalement, c’est peut-être plus une question de forme que de fond. Imaginez que, tous les jours, en écoutant la radio le matin, en lisant votre journal ou en regardant la télévision le soir, un mathématicien vous raconte une histoire. Pas avec des formules hiéroglyphiques, des mots barbares ou des phrases absconses. Non, juste des histoires qui nous parleraient de la Terre, de la nature, des formes, des couleurs. De notre univers, quoi… Mais alors, quel lien avec les mathématiques ? Eh bien justement, des liens sans fin. Car les maths ne vivent pas uniquement sur les tableaux noirs des profs ou les carnets griffonnés des chercheurs. Les maths existent partout autour de nous. Seulement voilà, souvent, nous l’ignorons.

Prenons la circonférence de la Terre, par exemple. Nous avons tous appris qu’elle mesure 40 000 km. Rares sont ceux, sans doute, qui ont trouvé cette valeur étrangement… ronde. Pas moi, en tous cas… Or, si cette circonférence mesure exactement 40 000 km (à quelques mètres près), cela ne tombe pas du ciel. Dieu, non plus, n’y est pour rien. En fait, ce sont trois mathématiciens qui en ont décidé ainsi : Borda, Condorcet et Lagrange.

Nous sommes alors juste après la Révolution française et les idées foisonnent. Les mathématiciens y contribuent en définissant une unité de mesure. Pour cela, ils décident de prendre une référence incontestable : la Terre. Plus précisément le quart de son périmètre, c’est à dire la distance séparant le pôle nord et l”équateur. Une bien grande distance. Qu’à cela ne tienne : ils la divisent par 10 millions et obtiennent : un mètre. Il s’agit là de la première définition de cette unité de longueur. Si la référence a changé depuis, l’unité persiste.

Voilà une histoire qui donne une autre sonorité au mot “mètre” et un autre rôle aux mathématiciens que celui de gribouiller des formules incompréhensibles. On pourrait imaginer un cours alliant la géographie, l’histoire, la physique et les mathématiques autour d’un tel sujet. Mais, bon, ne rêvons pas… En fait, cette histoire n’est pas issue d’un manuel scolaire, ni même de Wikipédia, mais d’un nouveau site créé à l’occasion de l’année des mathématiques de la planète Terre, décrétée par l’Unesco pour 2013.

Outre de multiples manifestations organisées dans le monde entier, le site français de l’opération publiera, du 1er janvier au 31 décembre 2013, du lundi au vendredi de chaque semaine, une brève, c’est à dire un court article, écrit dans un langage compréhensible par tout le monde. L’histoire du mètre, la première de la série publiée le 1er janvier 2013, est due à la contribution d’Etienne Ghys, directeur de recherche au CNRS et membre de l’Académie des sciences. Elle a été suivie, le lendemain, par une brève de Lionel Roques, de l’Inria, sur la recolonisation par les végétaux après une ère de glaciation. Également passionnante.

Ainsi, l’année 2013 commence bien pour la science. Cette initiative promet de nous tenir en haleine jusqu’à l’arrivée de la comète Ison, bouquet final de l’année. Elle donnera aussi du grain à moudre à tous les professeurs de mathématiques soucieux d’attirer l’attention des leurs élèves en leur montrant que l’abstraction pure n’est pas le seul destin des mathématiques ni leur seul usage dans notre vie de tous les jours.

Michel Alberganti

lire le billet

François Bon, une science du récit

L’écrivain François Bon raconte les histoires de scientifiques qui travaillent sur le plateau de Saclay, provoque le récit des hasards de vie, des passions de jeunesse et des vocations de chercheurs et fait surgir ce qui donne son humanité à la science. Rencontre à l’occasion des Artsciencefactory Days dont Slate est partenaire, jusqu’au 29 novembre 2012, à Palaiseau.

Sur France Culture, dans l’émission Science Publique que j’ai animée le 23 novembre 2012, François Bon a retrouvé Jean-Michel Frodon, coorganisateur des Artsciencefactory Days, ainsi que deux des scientifiques qu’il a rencontrés sur le plateau de Saclay, Valérie Masson Delmotte et Serge Abiteboul :

—————————————————————————————————————————————

La littérature peut-elle raconter la science ?23.11.2012 – Science publique
La littérature peut-elle raconter la science ?
57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobile

Les chercheurs peuvent-ils faire connaître leur travail grâce à un récit littéraire ? Science Publique vous propose cette semaine une escapade sur le plateau de Saclay grâce aux rencontres d’un écrivain, François Bon, avec les scientifiques qui travaillent dans les laboratoires du CEA, de Polytechnique ou de l’université d’Orsay. Les textes que François Bon a écrit après ces rencontres …
—————————————————————————————————————————————

Vous pouvez également toujours (re)lire l’article que Slate.fr a consacré à la résidence d’écrivain de François Bon sur le plateau de Saclay :La chambre à bulles, exposée à Orsay (*). Image François Bon. Licence CC BY-NC-SA. * et pas à Saclay comme indiqué dans  une version précédente de la légende de cette photo.

Il fallait oser… François Bon s’est lancé. Il a franchi cette frontière aussi invisible qu’étanche qui sépare deux univers: la littérature et la science. Cet écrivain tourangeau a frappé à la porte des labos sur le plateau de Saclay. Ceux où l’on travaille sur l’astrophysique, l’astronomie, les particules élémentaires, la volcanologie ou les cellules souches. Derrière chaque porte, un chercheur et une rencontre. Un choc de cultures, bien sûr, mais aussi un choc purement humain. Un rapport au monde singulier découvert à travers un rapport humain. Lire la suite…

Michel Alberganti

lire le billet

Comment Nate Silver a pu prédire à 92% l’élection de Barak Obama

Six jours avant les élections présidentielles américaines du 6 novembre 2012, les sondages donnaient les deux candidats à égalité. Le jour même de l’élection, ils enregistraient un écart de 0,7% en faveur de Barak Obama sur Mitt Romney. Dans le monde entier, le suspense est alors à son comble. On craint une élection  très serrée, comme en 2004 entre Georges W Bush et John Kerry ou sujr le fil du rasoir, comme en 2000 entre Georges W. Bush et Al Gore.  Pourtant, ce même jour, un “vulgaire” blogueur américain, Nate Silver, 34 ans, donne Barak Obama vainqueur à 92%…

Sur son blog, FiveThirtyEight, il se paye même le luxe d’enregistrer 100% de bonnes prédictions concernant les résultats Etat par Etat, Floride comprise alors que le décompte final n’a été connu qu’aujourd’hui, 10 novembre. Nate Silver, lui, donnait 50,3% de chance de victoire à Barak Obama. Ce dernier l’a finalement emporté avec 50% des voix contre 49,1% à Mitt Romney. Dans tous les Etats, le blogueur a vu juste. Quant au nombre de votes électoraux obtenus par chaque candidat, il avait prédit 313 pour Barak Obama et 225 pour Mitt Romney pour un résultat réel de 332 contre 206. Comment Nate Silver peut-il renvoyer ainsi les analystes politiques et les spécialistes des sondages à la préhistoire ?

Le révérend Thomas Bayes

La solution ne doit rien à la magie. Comme le révèle Christian Robert, professeur au Centre de recherche en mathématiques de la décision de l’université Paris-Dauphine, dans l’émission Science Publique du 9 novembre 2012 que j’ai animée sur France Culture, Nate Silver utilise la démarche logique dénommée “inférence bayésienne“… La dernière technique issue des mathématiques de pointe en matière de probabilités ? Pas vraiment… Cette démarche est fondée sur le théorème de Bayes, que l’on doit du révérend Thomas Bayes et qui date de… 1763.

Nate Silver- Election Obama – Théorème de Bayes – Science Publique 9 novembre 2012 by Michel Alberganti

Il y a 249 ans…

L’histoire de Thomas Bayes (prononcer Beillesse) n’est guère banale. Né aux environ de 1702 à Londres, il devient pasteur de l’Eglise presbytérienne. Considéré comme un mathématicien britannique, il n’a pourtant publié que deux articles de son vivant. Et encore… Le premier concerne la bienveillance divine… Son fameux théorème est publié en 1763, soit deux ans après sa mort, par la vénérable Académie royale de Londres sous le titre: Essai sur la manière de résoudre un problème dans la doctrine des risques. C’est un ami de Thomas Bayes, Richard Price, qui adresse le texte de 20 pages à l’Académie royale le 10 novembre 1763, il y a exactement 249 ans. Un texte bourré de formules mathématiques qui ne peuvent qu’étonner sous la plume d’un pasteur. Certes, les bases des probabilités modernes ont été établies un siècle auparavant par Fermat et Pascal (1654). Mais c’est bien à Thomas Bayes que l’on attribue l’origine du développement des statistiques. De peu, car dès 1774, un Français, le célèbre Pierre-Simon Laplace réinvente le théorème de Bayes. Avait-il eu connaissance de la publication de ce dernier ? Il semble que personne, aujourd’hui, ne puisse trancher la question. Un temps, le théorème a été baptisé Bayes-Laplace mais il semble que les anglophones aient définitivement imposé Bayes tout court.

Il est remarquable qu’une formule aussi simple soit capable de donner des résultats aussi impressionnants, depuis aussi longtemps. Elle reste pourtant largement méconnue du grand public. Dans le cercle des mathématiciens, elle a donné lieu à des débats violents au point de marginaliser, pendant une bonne partie du 20ème siècle, les bayésiens. Cette approche serait pourtant à l’origine du craquage du code de la machine Enigma pendant la seconde guerre mondiale. Aujourd’hui, ses applications sont extrêmement diverses, comme le mentionne le dernier numéro de la revue Science et vie. Au point de se demander pourquoi elle n’est pas ouvertement exploitée par les instituts de sondage. La réponse est peut-être purement économique. Le maintien d’un suspense intense stimule la demande de nouveaux sondages. Avec Bayes, les jeux seraient sans doute fait plus vite. D’où un considérable manque à gagner. Gageons que la célébrité croissante de Nate Silver doit sérieusement inquiéter ces instituts…

Michel Alberganti

(Ré) écoutez l’émission Science Publique du 9 novembre que j’ai animée sur France Culture :

Mathématiques

09.11.2012 – Science publique
Une formule mathématique universelle existe-t-elle ? 57 minutes Écouter l'émissionAjouter à ma liste de lectureRecevoir l'émission sur mon mobilevideo

Une formule, publiée en 1763, peu après la mort de son auteur, le pasteur Thomas Bayes, est utilisée de plus en plus aujourd’hui dans pratiquement tous les domaines de la science. Pourquoi un tel succès ? Invités: Pierre Bessière, Christian Robert et Dirk Zerwas,avec notre partenaire, Science et Vie.

lire le billet

Felix Baumgartner, premier homme volant à 1342 km/h

Felix Baumgartner a réussi son pari : franchir le mur du son en chute libre. Avec, pour seule protection, une combinaison d’astronaute. Il a même très largement dépassé son objectif en atteignant, selon Brian Utley, l’expert chargé de certifier la performance pour la Fédération Aéronautique Internationale. Il est en effet parvenu à la vitesse de 1342 km/h, alors que celle du son, à cette altitude, n’est “que” de 1087 km/h. Soit un dépassement de près de 25% de cette vitesse mythique qui faisait tant peur aux pilotes d’avion avant que Chuck Yeager ne la franchisse pour la première fois, le 14 octobre 1947.

65 ans après Chuck Yeager

Le 14 octobre ? C’est justement la date choisie par Félix Baumgartner pour tenter, une nouvelle fois, son exploit après plusieurs reports. Exactement 65 ans plus tard, il franchit, lui aussi, cette limite, mais grâce au seul poids de son corps et à l’attraction de la Terre.
La performance a duré 2 heures 21 pour la montée et à peine plus de 9 minutes pour la descente. La partie en chute libre, elle, n’a pas dépassé 4 minutes et 20 secondes, soit 16 secondes de moins que le record établi en 1960 par Joseph Kittinger, aujourd’hui ancien colonel de l’Air Force de 84 ans présent aux cotés de Felix Baumgartner pendant tout le projet et, bien entendu, lors de l’exploit auquel ont également assisté plus de 8 millions de personnes en direct sur Internet et certaines chaînes de télévision.

Trois records, un échec

L’autrichien de 43 ans, parachutiste professionnel, ancien militaire et spécialiste des sauts acrobatiques (tours, ponts, Christ de Rio de Janeiro…), a, finalement battu trois records du monde : le saut le plus haut (39 km d’altitude),  la plus longue chute libre (36,5 km) et, bien entendu, la vitesse la plus élevée atteinte par un homme sans l’aide d’une machine, 1342 km/h. Finalement, c’est sans doute à cause de sa vitesse que Felix Baumgartner a raté le quatrième record, celui de la durée de la chute libre.

300 personnes et des millions de dollars

Il reste que le parachutiste a atteint ses objectifs principaux. Après cinq ans d’attente. Son exploit a mobilisé une équipe de 300 personnes à Roswell, dont 70 ingénieurs, scientifiques et physiciens. Le tout financé par la marque de boisson Red Bull à coup de millions de dollars. Un ballon d’hélium coûte 200 000 dollars. La combinaison spéciale utilisée par Felix Baumgartner est revenue à 250 000 dollars. Le coût de la capsule n’est pas connu. L’ensemble était équipé de 15 appareils de capture d’images (vidéo et photo). Un documentaire produit par la BBC et National Geographic sera diffusé dans quelques semaines.

La nostalgie des astronautes

Le spectacle de Felix Baumgartner dans sa petite capsule nous a rappelé les images des années 1960, lorsque l’homme faisait ses premiers pas dans l’espace. Le minuscule vaisseau de Youri Gagarine. Les capsules Apollo… Jamais, les séjours des occupants de la Station spatiale internationale (ISS) n’ont engendré pareilles émotions. Les sondes spatiales et les robots martiens, quels que soient leurs exploits, ne provoqueront jamais, non plus, ce frisson particulier que l’on ressent lorsqu’un homme prend le risque de se lancer dans l’inconnu. Lorsqu’il saute dans le vide…

Tout le monde n’est pas Neil Armstrong

En ce 14 octobre 2012, Felix Baumgartner nous a offert un ersatz de cette émotion. Lorsqu’il a signalé, pouce levé, que tout était paré de son coté. Lorsqu’il a ouvert l’écoutille de sa nacelle et que sa cabine a été inondée de lumière. Lorsqu’il s’est péniblement levé de son siège pour, avec les gestes engourdis par sa combinaison compensant la très faible pression atmosphérique, faire les deux pas qui le séparaient de la petite marche au dessus du vide. 39 km de vide… Lorsqu’il se tenait là, agrippé à deux rampes, et qu’il tentait de dire, avec son fort accent allemand, quelques mots historiques… “Parfois, il faut monter vraiment haut pour savoir à quel point vous êtes petits”, a-t-il prononcé péniblement. Tout le monde n’est pas Neil Armstrong… Lorsqu’il s’est laissé tomber, enfin, et qu’il a aussitôt été comme aspiré par la Terre. Lorsqu’il s’est mis à tournoyer comme un corps abandonné, privé d’air pour planer. Lorsque l’on entendait son souffle pendant sa chute. Lorsqu’il s’est rétabli en atteignant les couches plus denses de l’atmosphère et a commencé une descente impeccable. Lorsque son parachute s’est ouvert et qu’il a atterri sur ses jambes, comme à l’entrainement. Une émotion, certes, mais pas vraiment de frisson.

Mur du son et combinaison

Il reste de Felix Baumgarnter a démontré l’absence d’impact du passage du mur du son sur un corps humain. Ce qui n’avait jamais été expérimenté. Avant son saut, on pouvait craindre des effets désagréables, voire graves, dus aux vibrations engendrées par le front d’ondes. Il semble que, sur la masse réduite d’un corps humain, cette barrière n’ait pas de conséquences néfastes. Il va de soi que la combinaison du parachutiste a joué un rôle essentiel de protection vis à vis des conditions extérieures, en particulier la faible pression atmosphérique, l’absence d’oxygène et la température très basse pendant la chute libre. C’est même la véritable justification scientifique de l’expérience. Grâce à Felix Baumgartner, l’équipement utilisé est validé pour une hauteur de chute de 39 km. Cela pourrait sauver la vie d’astronautes en perdition lors d’une rentrée en catastrophe dans l’atmosphère. Avant que leur vaisseau n’atteigne les couches les plus denses, ils pourraient être éjectés à cette altitude et retomber en parachute. Mais l’opération sera beaucoup plus délicate avec une capsule se déplaçant à grande vitesse qu’avec une nacelle de ballon presque immobile au moment du saut.

Michel Alberganti

Note: Le texte a été modifié en remplaçant “l’apesanteur” par “sa combinaison compensant la très faible pression atmosphérique extérieure” grâce aux commentaires de JeanBob et Jacques Ghémard.

Le dernier paragraphe a également été ajouté.

lire le billet

D’ici 5 ans, des photos gigapixels

Ceux qui ont vécu la progression des capteurs électroniques utilisés dans les appareils photo numériques (APN) et les caméscopes ne connaissent désormais plus qu’une unité: le mégapixel. Qui se souvient encore du Mavica lancé par Sony, le tout premier APN avec ses 280 000 pixels ? Ou du Xapshot de Canon (1989) ? Ou encore du QuickTake d’Apple (1994) et ses 300 000 pixels ? Il faut attendre 1999 pour que les professionnels puissent acquérir un APN dépassant le million de pixels, le Nikon D1 avec 2,7 mégapixels. Les années 2000 seront celles de la course aux mégapixels avec des résultats mitigés, tant le nombre de pixels ne doit pas faire oublié leur qualité. Or, plus les pixels sont petits, moins ils captent de lumière. Des millions de pixels sur un capteur minuscule donne ainsi des résultats inférieurs à un nombre de pixels inférieur sur un grand capteur. D’où la nouvelle course, engagée depuis quelques années, celle de la taille des capteurs avec, comme objectif, le fameux format 24×36 mm de la bonne vieille pellicule argentique. Se profile aujourd’hui, la perspective de la généralisation d’appareils munis d’un tel capteur, dit “plein format”, dotés de 30 à 40 mégapixels contre moins de 20 aujourd’hui à de rares exceptions comme le récent Nikon D800 avec ses 36,3 mégapixels vendu à près de 3000 euros nu.

Tout cela pour préciser le contexte dans lequel arrive la publication, dans la revue Nature du 20 juin 2012, d’un article publié par des ingénieurs de l’université Duke et de l’université d’Arizona. En synchronisant 98 micro appareils photo, ils sont parvenus à obtenir des images de 50 gigapixels, soit 50 0000 mégapixels… Avec une définition 1000 fois supérieure à celle des meilleurs appareils actuels, les chercheurs multiplient par 5 la résolution des meilleurs yeux humains. Cela sur un champ de vision de 120° (contre 220° pour l”homme).

David Brady, qui dirige l’équipe, explique que “chacune des micro appareils photo capture les informations provenant d’une partie de la scène tandis qu’un ordinateur réalise la fusion de ces images en une seule image de très haute définition. Dans ce nombreux cas, l’appareil peut capter des détails que le photographe ne voit pas à l’œil nu et qu’il découvre ensuite en regardant l’image”. D’après lui, même s’il faudra développer des optiques spéciales, le problème principal viendra de la maîtrise de la consommation électrique et de la miniaturisation des circuits électroniques.

Le logiciel d’assemblage des différentes images a été réalisé par Michael Gehm, professeur assistant d’électricité et d’informatique à l’université d’Arizona. “Notre approche actuelle, au lieu de créer des optiques de plus en plus complexes, est d’utiliser des réseaux d’éléments électroniques massivement parallèles. Un objectif partagé capte la lumière et la répartit sur les micro caméras, exactement comme une réseau informatique gère les données destinées à différentes stations de travail. Chacune de ces dernières ne voit qu’une petite partie du problème à traiter . Pour l’image, nous prévoyons des parties de recouvrement qui permettent de ne pas perdre d’information”, indique-t-il.

L’appareil prototype mesure 50 cm de profondeur dont 3% seulement sont affectés à l’optique. Le reste est occupé par l’électronique qui se charge d’assembler les différentes parties de l’image. David Brady précise que la taille actuelle est liée à celle des cartes électroniques de contrôle et à la nécessité de les refroidir. “Lorsque des composants électroniques plus compacts et plus efficaces seront disponibles, l’ère de la photographie gigapixel s’ouvrira”, affirme-t-il. Les chercheurs estiment ainsi que, d’ici 5 ans, la miniaturisation des composants électroniques permettra de proposer des appareils photos gigapixel  au grand public.

Michel Alberganti

lire le billet

Comment vulgariser la nanoseconde dans un talk show américain?

Courte Focale

Dans cette rubrique du blog Globule et télescope, nous vous proposons régulièrement des images ou des vidéos traitant de sujets scientifiques ou techniques.

Nous commençons par ce petit joyau trouvé sur Youtube à l’occasion du dixième vingtième anniversaire de la mort de Grace Hopper, une figure de l’informatique aux Etats-Unis, auteur du premier compilateur en 1951 et du langage Cobol en 1959. En octobre 1986, invitée au Late Show de David Letterman, l’un des plus fameux talk shows américains sur la chaîne CBS, elle affiche une personnalité hors pair d’amiral de la Navy et de pionnière de l’informatique depuis son engagement dans l’armée, en 1944. A 80 ans, cette dame, décédée en 1992, ne se laisse impressionner ni par la télévision, ni pas son interviewer. Il faut dire qu’elle a bien préparé cet entretien avec une explication de la nanoseconde qui laisse  David Letterman assez pantois… Une leçon de vulgarisation! En anglais…

Michel Alberganti

lire le billet

La sélection du Globule #72

– Le GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) a rendu un rapport spécial sur les événements météorologiques dits extrêmes : il confirme que les vagues de chaleur, pluies torrentielles, épisodes de sécheresse, etc, vont se banaliser d’ici à la fin du siècle. Une conséquence directe, selon les chercheurs, du réchauffement climatique.

L’expérience Opera, au CERN, vient d’effectuer un nouveau test confirmant que, pour elle, les neutrinos vont plus vite que la lumière. Reste à avoir une validation indépendante.

Toujours dans le domaine de la physique fondamentale, le moment de vérité approche pour le boson de Higgs, cette particule théorique censée donner sa masse à la matière : le LHC (le Grand Collisionneur de hadrons du CERN) devrait, d’ici quelques mois, soit le découvrir, soit l’envoyer aux oubliettes de la science, ce qui forcerait les physiciens à élaborer une nouvelle théorie.

Une équipe française vient de mettre au point un matériau plastique que l’on peut fondre, mouler, utiliser et refondre à l’envi, comme le verre. Nombreuses applications industrielles en vue.

On cite souvent en exemple la Chine et l’Inde, comme pays où sont pratiqués des avortements sélectifs en fonction du sexe du fœtus, décelé à l’échographie. D’où des sex ratios très favorables aux garçons. La pratique existe aussi en Europe comme le montre ce reportage de l’AFP en Albanie où nombre de futures petites filles ne voient jamais le jour.

Les animaux d’élevage reçoivent trop d’antibiotiques et la France veut réduire d’un quart la prise, souvent inutile, de ces médicaments afin de préserver l’efficacité de l’arsenal thérapeutique.

Pour ceux que l’histoire des sciences intéresse, le CNRS vient de lancer un dossier sur Antoine Lavoisier (1743-1794), l’un des pères de la chimie moderne.

Pour finir, dans ma chronique hebdomadaire du Monde sur l'”improbablologie”, je m’attaque à l’une des questions les plus cruciales que se posent les automobilistes : dans un bouchon, pourquoi cela avance-t-il plus vite toujours dans l’autre file ?

Pierre Barthélémy

lire le billet

Une comète a-t-elle failli percuter la Terre en 1883 ?

C’est avec une régularité et un catastrophisme non feints que les médias s’emparent de la question des géocroiseurs, ces astres, astéroïdes ou comètes, qui présentent la particularité de passer non loin de notre Terre. Comme je l’ai déjà fait remarquer dans un précédent billet de ce blog, la course à l’apocalypse et au ciel qui va nous tomber sur la tête est un sport international, tant chez certains astronomes qui aiment bien faire parler d’eux que chez certains de mes confrères en mal de sensationnalisme. Pour une fois, cherchons les sensations fortes de fin du monde non pas dans un futur toujours hypothétique, mais dans un passe forcément révolu. En effet, il se pourrait bien que nous l’ayons échappé belle, au mois d’août 1883.

Août 1883, dans l’histoire de la science, c’est avant tout, les 26 et 27 de ce mois-là, l’éruption du volcan indonésien Krakatoa, probablement une des plus violentes que l’homme moderne ait jamais connues. Des dizaines de milliers de morts, des dégâts immenses et un panache de cendres qui ne le fut pas moins, au point que l’injection de ces particules dans l’atmosphère terrestre provoqua un abaissement de la température mondiale. Pourtant, ce cataclysme ne fut, passez-moi l’expression, que du pipi de chat, de la gnognotte, à côté de ce qui aurait pu arriver exactement deux semaines plus tôt, du moins si l’on en croit une étude mexicaine soumise pour publication à la revue Earth and Planetary Astrophysics.

Tout part d’un petit mystère de l’histoire de l’astronomie. Les 12 août 1883, José Bonilla, le directeur du tout nouvel observatoire mexicain de Zacatecas, était en train, comme tous les jours, de noter les détails de la surface du Soleil, qu’il projetait sur une feuille de papier. Comme il le rapporta plus de deux ans après dans un article publié par la revue française L’Astronomie, “à 8 heures du matin, je commençais à dessiner les taches solaires, lorsque j’aperçus tout à coup un petit corps lumineux qui pénétrait dans le champ de la lunette, se dessinait sur le papier me servant à reproduire les taches et parcourait le disque du Soleil en se projetant comme une ombre presque circulaire. Je n’étais pas revenu de ma surprise que le même phénomène se reproduisit de nouveau et cela avec une telle fréquence que, dans l’espace de deux heures, je pus compter jusqu’à 283 corps traversant le disque du Soleil.”

Pendant qu’un assistant tient le décompte des objets passant rapidement (en une seconde maximum, mais souvent moins) devant notre étoile, José Bonilla prend des photographies du phénomène, que certains ufologues assimilent aujourd’hui comme les premiers clichés de vaisseaux extraterrestres… L’astronome mexicain fait les remarques suivantes : ” Bien que, dans la projection et à simple vue, tous les corps parussent ronds ou sphériques, on remarque dans les diverses photographies que les corps ne sont pas sphériques, mais pour la plupart de formes irrégulières. J’ai dit que, dans la projection du champ de la lunette, ces corps paraissaient lumineux et dégageaient comme des traînées brillantes ; mais qu’en traversant le disque solaire, ils paraissaient opaques. En observant avec attention la photographie et le négatif, on note un corps entouré d’une nébulosité et de traînées obscures qui, dans le champ de la lunette et en dehors du disque, paraissaient brillantes.” Le lendemain, rebelote : pendant les trois quarts d’heure durant lesquels les nuages ne l’empêchent pas de voir le Soleil, l’astronome mexicain continue de repérer le passage rapide de petits objets. La veille, après ses premières observations, José Bonilla a eu la présence d’esprit de télégraphier à ses collègues de Mexico et de Puebla, villes situées à plusieurs centaines de kilomètres, mais ceux-ci n’ont rien remarqué.

Dans son article, l’astronome ne formule pas d’hypothèse quant à la nature de ces corps. Ses successeurs de 2011, eux, ont été surpris par la description qu’il a faite du phénomène. Ces “nébulosités” et ces “traînées” évoquent, selon eux, une comète qui se serait brisée en de multiples fragments, comme cela arrive parfois. En partant de cette idée et avec les éléments fournis par Bonilla dans son compte-rendu, les trois auteurs de l’étude soumise à Earth and Planetary Astrophysics ont calculé les différents paramètres de cette hypothétique comète. Si celle-ci a été vue à Zacatecas mais pas à Mexico ni à Puebla, c’est qu’elle est passée très près de la Terre. Mais à quelle distance exactement ? En s’appuyant sur le fait que les objets traversaient le disque solaire en une seconde maximum et en connaissant les vitesses “normales” des comètes, ils ont calculé une fourchette allant de 538 à 8 062 kilomètres d’altitude, ce qui, dans les deux cas, est vraiment très peu. S’il s’agit bien des fragments d’une comète, ils nous ont frôlés de près.

Ensuite, grâce aux photographies, ces chercheurs ont pu mesurer la taille apparente de ces morceaux. S’ils étaient à 538 km, ils faisaient 46 mètres de large sur 68 et s’ils passaient à 8 062 km, leurs dimensions étaient forcément plus imposantes : 682 sur 1 022 mètres. Si l’on considère que cette comète était essentiellement faite de glace, on aboutit à des masses de 558 000 tonnes par morceau dans l’hypothèse basse et à 2,5 milliards de tonnes dans l’hypothèse haute. Toujours grâce au récit de Bonilla, il a été possible d’estimer le nombre total de fragments, sur les deux jours, à un peu plus de 3 000. Si l’on multiplie ce nombre avec la masse estimée de chaque fragment, on arrive à reconstituer la masse de la comète avant sa dislocation : celle-ci aurait été comprise entre 1,8 et 8 200 milliards de tonnes, une fourchette cohérente pour une comète. Evidemment, si un tel corps avait percuté la Terre, il s’en serait suivi un cataclysme comparable à celui qui a conduit les dinosaures à leur fin, il y a 65 millions d’années.

On peut se demander pourquoi José Bonilla fut le seul astronome à voir le phénomène au cours de ces deux jours. Si l’hypothèse de la comète rasant la Terre est juste, seuls les observatoires situés à la même latitude que celui de Zacatecas avaient une chance de capturer l’astre errant. Or, il faut bien reconnaître, en regardant une carte, que cette latitude n’est pas le paradis des observatoires : les océans Atlantique et Pacifique l’occupent en grande partie, ainsi que les déserts du Sahara et d’Arabie. Restent l’Inde et une partie de l’Asie du Sud-Est, qui n’étaient pas forcément passionnés d’astronomie à l’époque… Mais il existe peut-être une autre explication à cette observation unique, avancée par la rédaction de la revue L’Astronomie en réponse à l’article de José Bonilla : “Nous serions portés à croire qu’il s’agit là d’oiseaux, d’insectes, ou de poussières supérieures, en tout cas de corpuscules appartenant à notre atmosphère.” Ce ne serait pas la première fois que l’on prendrait des oiseaux pour des étoiles filantes ou des ovnis… C’est à ce genre d’histoire que l’expression “tirer des plans sur la comète” prend une nouvelle saveur.

Pierre Barthélémy

lire le billet

La médaille d’or disparue de deux Prix Nobel

 

Je ne saurais laisser passer la fin de la semaine des prix Nobel, qui s’achève ce lundi 10 octobre avec l’annonce du Nobel d’économie, sans évoquer la belle histoire de deux des médailles d’or attribuées avec le prix, qui disparurent pendant la Seconde Guerre mondiale et renaquirent ensuite. C’est une histoire de chercheurs, d’ingéniosité, d’or et de nazis, qui aurait pu se trouver au détour d’un épisode d’Indiana Jones. Elle commence à Copenhague en avril 1940, alors que les Allemands envahissent le Danemark. L’un des plus grands scientifiques de l’époque, Niels Bohr, Prix Nobel de physique 1922 et directeur de l’Institut de physique théorique de Copenhague qui porte aujourd’hui son nom, est plus que soucieux. Celui qui est également un des pères de la mécanique quantique a de l’or qui lui brûle les doigts. En tout bien tout honneur cependant : cet or est celui des deux médailles Nobel que lui ont confiées deux chercheurs allemands opposés aux nazis, Max von Laue, Prix Nobel de physique 1914, et James Franck, qui reçut la même distinction en 1925.

A cette époque, les médailles Nobel sont faites d’or quasiment pur (23 carats, contre de l’or 18 carats aujourd’hui), pèsent 200 grammes, pour un diamètre de 66 millimètres et, surtout, sont gravées du nom du lauréat. Comme c’est un crime de faire sortir de l’or d’Allemagne, Bohr veut donc faire disparaître au plus vite les deux médailles, à la fois pour ne pas qu’elles tombent entre les mains de l’armée hitlérienne et pour éviter d’attirer des ennuis à leurs légitimes propriétaires. Se doutant bien que les Allemands vont passer son Institut au peigne fin, il juge trop risqué d’essayer de les dissimuler. Le Hongrois George de Hevesy, qui travaille alors à l’Institut racontera ainsi plus tard : “J’ai suggéré que nous enterrions les médailles, mais Bohr n’aima pas cette idée car elles risquaient d’être déterrées.” Futur Prix Nobel de chimie en 1943, Hevesy a alors une idée plus en rapport avec ses compétences. Si on ne peut pas cacher les médailles, pourquoi ne pas… les dissoudre ?

Tout le problème, c’est que l’or n’est pas un élément qui se laisse faire aussi aisément, et c’est en partie ce qui lui confère sa valeur. Le métal jaune est d’une stabilité quasiment à toute épreuve et ne réagit pour ainsi dire avec rien. Aucun acide pris seul ne peut en venir à bout. En revanche, l’eau régale le peut. Connue depuis le Moyen-Age, cette “eau royale” (nommée ainsi parce qu’elle peut dissoudre les métaux nobles que sont l’or et le platine) est en réalité un mélange d’acide nitrique et d’acide chlorhydrique. Le premier parvient à arracher des électrons à l’or, ce qui permet aux ions chlorures du second de s’y attacher. La réaction est longue et prendra la journée mais quand les Allemands débarquent à l’Institut de physique de théorique et le fouillent de fond en comble, ils ne font pas attention à ce grand récipient plein d’une solution orangée, posé sur une étagère.

L’histoire ne s’arrête pas à cette première victoire de la science sur les nazis. Hevesy, qui est juif, doit en 1943 quitter Copenhague pour la Suède, plus sûre. Lorsqu’il revient à l’Institut après la fin de la guerre, le récipient est là où il l’a laissé, avec l’or des deux médailles Nobel dissous à l’intérieur. “Rien ne se perd, rien ne se crée, tout se transforme”, disait Lavoisier, père de la chimie moderne. Il n’y a donc qu’à inverser la réaction, séparer l’or des ions chlorures et le récupérer. Le précieux métal est renvoyé à la Fondation Nobel qui fera ensuite frapper de nouveau les médailles et les remettra à Max von Laue et James Franck. Un magnifique tour de passe-passe chimique.

Pierre Barthélémy

lire le billet

Les trois plus grandes erreurs d’Einstein

Puisque l’heure médiatique est à la curée envers ce pauvre Albert Einstein, hurlons avec les loups. Il n’est pas un mystère pour les spécialistes de la vulgarisation scientifique que dénoncer les erreurs du savant a longtemps fait – ou fait toujours ? – vendre du papier. Donc, nous qui avons soif d’audience, crions-le en caractères gras :

Bébert s’est gouré !

Il n’a pas su prévoir que les neutrinos pourraient aller plus vite que la lumière. En me faisant l’avocat du diable et avec toute la mauvaise foi qui me caractérise, je dirai tout de même que la théorie de la relativité restreinte date de 1905, que le neutrino a été postulé en 1930 et découvert en 1956, soit un an après la mort d’Einstein. J’ajouterai, toujours fielleux, qu’il faudrait peut-être attendre de vérifier les résultats annoncés vendredi avant de remiser la relativité à la poubelle. D’une part parce que la vérification est un principe cardinal de la science et d’autre part parce que, depuis les années 1960, des théories plus ou moins exotiques (tachyons, dimensions cachées) peuvent permettre d’expliquer un tel phénomène dans le cadre de la relativité restreinte. Enfin, nous savons tous que la science avance en détricotant ce que les prédécesseurs ont patiemment monté, Einstein n’ayant pas fait autre chose avec Newton. D’ailleurs, pour ce que nous en savons, la relativité ne marche quand même pas trop mal puisque grâce à elle, l’homme a converti la matière en énergie (vive E=mc2 !), envoyé des sondes aux confins du système solaire, des Américains sur la Lune, des satellites un peu partout et fait du GPS avec une précision incroyable. Donc, prudence sur ce coup-là. Mettons entre parenthèses, jusqu’à plus ample informé, l’histoire, juteuse médiatiquement, du neutrino (en nous demandant tout de même pourquoi, si leur vitesse est de 0,002 % plus élevée que celle des photons, ceux qui ont été émis lors de la supernova de 1987, située à 168 000 années-lumière, ne sont pas arrivés avec des années d’avance sur la lumière). Mais que cela ne nous empêche pas de tartiner sur les trois vraies plus grandes âneries d’Einstein qui, je le regrette à l’avance, risque de passer pour un crétin à la fin de ce billet.

Médaille de bronze : avoir été un époux et un père déplorable. Einstein s’est marié deux fois, la première avec Mileva Maric en 1903,  après lui avoir fait, en dehors des liens sacrés du mariage, une petite fille née en 1902, Lieserl, dont on n’a jamais connu le sort : abandon ou mort précoce… Cela commence bien. Avec Mileva, Albert a deux autres enfants, Hans Albert et Eduard, dont il s’occupera au bout du compte très peu car le couple divorce en 1919, après cinq années de séparation. Il faut dire que le savant moustachu a, depuis 1912, une relation avec sa cousine Elsa (qu’il épousera en secondes noces) et qu’il traite Mileva d’une manière que décrit bien ce “contrat” qu’il lui impose par écrit en 1914 :

« A. Vous veillerez à ce que : 1) mon linge et mes draps soient tenus en ordre ; 2) il me soit servi trois repas par jour dans mon bureau ; 3) ma chambre et mon bureau soient toujours bien tenus et ma table de travail ne soit touchée par nul autre que moi.

B. Vous renoncerez à toute relation personnelle avec moi, exceptées celles nécessaires à l’apparence sociale. En particulier, vous ne réclamerez pas : 1) que je m’assoie avec vous à la maison ; 2) que je sorte ou voyage en votre compagnie.

C. Vous promettrez explicitement d’observer les points suivants : 1) vous n’attendrez de moi aucune affection ; et vous ne me le reprocherez pas ; 2) vous me répondrez immédiatement lorsque je vous adresserai la parole ; 3) vous quitterez ma chambre ou mon bureau immédiatement et sans protester lorsque je vous le demanderai ; 4) vous promettrez de ne pas me dénigrer aux yeux de mes enfants, ni par des mots, ni par des actes. » Et là je pose une question : que faisaient les Chiennes de garde ? Il ne traitera pas Elsa beaucoup mieux. Pour compléter le tableau, ajoutons que, de 1933 à sa mort en 1955, Einstein ne verra plus jamais son fils Eduard, atteint de schizophrénie.

Médaille d’argent : avoir pesé de tout son poids pour la fabrication de la bombe atomique. Einstein doit, en 1933, se décider à ne plus vivre dans son pays natal, l’Allemagne, après l’arrivée au pouvoir de Hitler. Etant juif et pacifiste, il risque plus que gros. Il émigre aux Etats-Unis et, le 2 août 1939, sous la pression d’amis physiciens, il signe une lettre adressée au président Franklin D. Roosevelt, l’avertissant que Berlin travaille sur la fission de l’uranium et le pressant (très poliment), d’“accélérer le travail expérimental” réalisé sur le sol américain dans ce domaine. Roosevelt entendra le savant et mettra en route le projet Manhattan, qui conduira, six ans plus tard, aux bombardements d’Hiroshima et de Nagasaki. Si je range cette lettre dans la catégorie des erreurs d’Einstein, c’est parce qu’il l’a fait lui-même. En 1954, un an avant sa mort, il confiait à son ami, le chimiste et physicien Linus Pauling, son regret d’avoir tourné casaque, d’être passé, si l’on schématise, de pacifiste à pro-nucléaire : “J’ai commis une grande erreur dans ma vie, quand j’ai signé la lettre au président Roosevelt recommandant la fabrication de bombes atomiques ; mais il y avait des raisons, le risque que les Allemands les fassent…” Après la guerre, Einstein se rangera, sans jamais varier, dans le camp de ceux qui exigeaient la fin des essais nucléaires et le démantèlement des arsenaux atomiques.

Médaille d’or : avoir pensé que l’Univers était statique. Une fois mise la dernière main à sa théorie de la relativité générale, qui n’est rien d’autre qu’une théorie de la gravitation, Einstein s’aperçoit assez vite que l’Univers qui en résulte ne peut être statique. Ce qui est contraire à ce qu’il croit profondément, sans doute par fidélité culturelle au vieux modèle d’Aristote d’un Univers immuable et aussi, plus pragmatiquement, parce qu’aucune observation à l’époque n’autorise à penser vraiment autrement. Or ses équations conduisent à un cosmos instable, qui est soit en expansion, soit en contraction. Pour stabiliser son modèle, il va donc, en 1917, introduire une constante ad hoc, censée cadenasser l’Univers sous une forme statique. Tout cela était aussi vain que d’essayer empêcher des enfants jouant dans un bac à sable de mettre du sable partout à côté et d’en emporter dans leurs chaussettes. Quelques années après l’invention de cette “constante cosmologique”, l’astrophysicien américain Edwin Hubble montre que les galaxies s’écartent les unes des autres et que l’Univers est en expansion. Einstein est obligé de reconnaître que cette constante était une rustine pourrie à sa théorie et “la plus grosse gaffe” de sa carrière. L’ironie de l’histoire, c’est que la constante cosmologique a, depuis quelques années, fait son retour en astrophysique par la grande porte, non pas pour justifier un Univers statique mais pour expliquer pourquoi le cosmos est en expansion accélérée ! Erreur d’hier, vérité de demain, tout est relatif…

Pierre Barthélémy

Post-scriptum : j’aurais pu aussi citer la très grande réticence qu’Einstein a manifestée vis-à-vis de la mécanique quantique mais je trouve que la barque est assez chargée comme ça, pour ce pauvre Albert et pour ce deux centième billet de Globule et télescope…

lire le billet