“Selon une source proche de l’expérience”, les neutrinos qui semblaient avoir battu la lumière en septembre 2011 auraient simplement bénéficié d’une mauvaise connexion entre un GPS et un ordinateur. Incroyable, impensable. Une erreur aussi grossière serait donc à l’origine de l’un des résultats les plus tonitruants de la recherche en physique depuis plusieurs décennies. Il y a 5 mois, donc, les scientifiques de l’expérience Opera nous ont joué le grand air de la remise en cause de l’un des piliers de la physique moderne, établi par Einstein il y a plus d’un siècle: le caractère indépassable de la vitesse de la lumière, théorie qu’aucune expérience n’avait, jusqu’alors, remise en question. Or, les neutrinos, particules mystérieuses qui, aux dernières nouvelles, ont une masse, auraient dépassé cette vitesse (300 000 km/s) sur les 731 km de leur trajet entre le CERN de Genève et le laboratoire de Gran Sasso en Italie. On savait que rien n’arrête les neutrinos. Mais de là à dépasser la vitesse de la lumière en se déplaçant, de surcroit, dans la croute terrestre… Nombre de physiciens ont alors failli avaler leur chapeau ou en perdre leur latin. Et des centaines d’entre eux se sont mis à cogiter pour trouver une explication. Cette prise de tête a donné lieu à une multitude de publications scientifiques. Et consommé une quantité considérable d’énergie et de temps.
Connexion défectueuse d’une fibre optique entre un GPS et un ordinateur
Un peu inquiets, les chercheurs du CERN ont refait l’expérience en novembre 2011: même résultat ! Les neutrinos battent la lumière de 60 nanosecondes. Connaissant le sérieux des physiciens travaillant dans ce temple de la recherche en physique, lieu où ils chassent, par ailleurs, le boson de Higgs à l’intérieur du LHC, l’affaire semblait entendue. Et voilà que le journal Science annonce, le 22 février 2012: “Les 60 nanosecondes de différence semblent provenir d’une mauvaise connexion entre un câble à fibre optique reliant un récepteur GPS utilisé pour corriger la durée du trajet des neutrinos et la carte électronique d’un ordinateur”. Après réparation, la mesure de la vitesse de transmission des données entre les deux appareils fait apparaître une différence de… 60 nanosecondes ! Diable ! Cela revient à ajouter 60 nanosecondes au chrono des neutrinos. Tout rentre alors dans l’ordre. La vitesse de la lumière n’est pas violée. Albert Einstein n’a plus a se retourner dans sa tombe…
Encore faudrait-il, tout de même, refaire l’expérience, avec une bonne connexion cette fois. Histoire d’être vraiment sûr que l’on peut consigner cette anecdote dans la liste des plus grosses bourdes expérimentales de l’histoire de la physique. Le CERN peut difficilement éviter de faire rejouer le match.
Les Américains savourent…
Prudence, donc… Chat échaudé… La nouvelle, comme par hasard, émane du journal américain Science. Outre-Atlantique, on ne serait sans doute pas trop mécontent de voir les collègues européens se couvrir de ridicule. La démarche de Science est en effet assez surprenante: voici l’un des deux journaux scientifiques les plus renommés de la planète (l’autre étant Nature) qui sort un scoop à partir d’une source non citée. Pratique peu courante dans l’univers de la recherche. On peut espérer que Science utilisera aussi les fuites provenant de la NASA ou d’autres centres de recherche américains pour en faire profiter la communauté scientifique avec la même célérité.
De son coté, Nature n’a pas tardé à réagir sur son blog en reprenant l’information révélée par Science et en ajoutant une autre rumeur concernant une deuxième source d’erreur possible : un défaut de calcul (interpolation) dans la synchronisation des horloges atomiques utilisées pour mesurer le temps entre les lieux de départ et d’arrivée de la course. Pas de communiqué sur le site du CERN mais une confirmation de l’information diffusée par Science à l’agence Reuters par James Gilliers, son porte-parole “C’est une explication possible. Mais nous n’en saurons pas plus avant d’avoir effectué de nouveaux tests”.
Michel Alberganti
lire le billetEn cette période pré-électorale en France et dans le contexte actuel de crise économique mondiale persistante, faire de la prospective devient de plus en plus nécessaire. En effet, c’est bien dans les moments de doute et d’incertitude que nous avons, encore plus que d’habitude, besoin d’une perspective, voire d’un espoir… Dire que les hommes politiques actuels, voire nos intellectuels, ne nous aident guère dans ce domaine relève de la litote. Mais après tout, avons-nous vraiment besoin d’eux pour nous projeter dans le futur ? Ne sommes-nous pas capables d’imaginer, à partir de la situation actuelle, qu’il s’agisse des sciences, de la technologie, de la médecine, de la société ou de la politique, ce qui pourrait advenir d’ici 100 ans, en 2112 ?
Il y a un peu plus d’un siècle, un illustre inconnu, John Elfreth Watkins, n’a pas hésité à publier 29 prophéties dans la revue The Ladies’ Home Journal. Slate rend compte de quelques prédictions qui se sont rélèvées étonnamment justes dans cet article.
Devant cette preuve manifeste que la prédiction n’est pas vouée à l’échec, Slate et Globule et Télescope vous lancent le défi :
Prédire ce que sera le monde et notre vie quotidienne en 2112 !
Voici quelques pistes pour participer à cet exercice, non de divination, mais bien de prospective. Il ne s’agit pas de donner le nom du président de la République française à cette époque, mais plutôt d’imaginer si nous serons toujours en république ou sous un autre régime… Ainsi, vous pourriez répondre à certaines des 10 questions suivantes et à d’autres, bien entendu. L’utopie est même autorisée… En 2112 :
1 – Grâce à la médecine, quelle sera la durée moyenne de la vie humaine ?
2 – Pourrons-nous changer d’organes à volonté ?
3 – Garderons-nous toute notre vie notre visage de 20 ans ?
4 – Roulerons-nous toujours en automobile ou bien en aéromobile ?
5 – La côte d’azur sera-t-elle devenue un désert ?
6 – Communiquerons-nous toujours par téléphone ou bien par télépathie ?
7 – L’homme aura-t-il colonisé une autre planète (la Lune, Mars…) ?
8 – Faute de ressources fossiles, quelle énergie utiliserons-nous ?
9 – Aurons-nous un gouvernement démocratique mondial ?
10 – Combien serons-nous sur Terre et avec quel niveau de vie moyen ?
Bien entendu, il ne s’agit là que d’exemples… Vous pouvez nous livrer d’autres prédictions. Nous publierons ensuite, d’ici quelques semaines, une synthèse de ces visions du futur sur le site de Slate.
Ainsi, dans 100 ans, nos descendants pourront-ils se livrer à l’exercice émouvant consistant à comparer ce que vous avez imaginé avec ce qui s’est réellement produit. Le même examen que celui que nous avons fait passer à John Elfreth Watkins. Peut-être auront-ils alors aussi quelques surprises…
A vous de jouer !
Michel Alberganti
lire le billetOn en entend parler à chaque bulletin météo par ces jours de grand froid. Au chiffre de la température en degrés Celsius s’ajoute une autre valeur appelée «température ressentie», encore appelée refroidissement éolien ou facteur vent. Cette dernière est plus basse que la température enregistrée par les thermomètres lorsque le vent souffle, comme cette bise sibérienne qui balaye actuellement la France.
Mais de quoi s’agit-il? Comment la calcule-t-on?
En fait, ce n’est pas très simple. L’objectif de la «température ressentie» (Windchill en anglais) est de tenir compte de l’impact du vent sur la peau humaine directement exposée au froid extérieur. Tout le monde a fait l’expérience de cette sensation glaciale qui accompagne le vent d’hivers. Au contraire, par grand froid dans un air calme, le corps humain souffre nettement moins.
La différence tient aux échanges thermiques entre la peau et l’air ambiant. Lorsque ce dernier est immobile, il se crée un gradient entre les 37°C de l’intérieur du corps humain et la température extérieure. La température varie progressivement. Le visage se trouve ainsi recouvert par une sorte d’isolation thermique constituée par la fine couche d’air qu’il a lui-même chauffée. L’air étant un excellent isolant, la protection est efficace. Au moins pendant un temps. Le refroidissement du corps se poursuit mais lentement.
Lorsque le vent souffle, ce phénomène n’est plus possible car la fine couche d’air chaud est sans cesse balayée. D’où une sensation de froid accentuée. mais comment la calculer? Les chercheurs se sont penchés pendant des années sur ce problème qui n’est pas sans rappeler celui de la pondération des décibels pour rendre compte de la perception du bruit par l’être humain (dB(A)).
Une formule complexe et contestée
La première formule et tables de températures ressenties ont établies pendant la Seconde Guerre mondiale dans l’Antarctique (Paul Allman Siple and Charles Passel) et utilisée dans les années 1970. En 2001, les Etats-Unis et le Canada ont adopté une nouvelle formule développée par des scientifiques et des médecins des deux pays. Ces derniers ont mesuré le transfert de chaleur qui se produit sur un visage exposé au vent lorsque la personne se déplace à une vitesse de 1,4 mètre par seconde. Ils ont abouti à la formule suivante:
Twc est la température ressentie, Ta est la température de l’air en degrés C et V est la vitesse du vent en km/h mesurée à 10 mètres.
On note tout de suite que le calcul n’est pas simple et que son résultat ne donne pas vraiment des degrés Celsius, les valeurs utilisées dans la formule ayant des unités incompatibles (une valeur sans unité à laquelle on ajoute des °C dont on soustrait des km/h avant de leur ajouter des °C multipliés par des km/h…). Par ailleurs, certains experts contestent la validité des hypothèses de base qui ne prennent en compte, par exemple, que le visage et négligent l’effet thermique de l’ensemble du corps ainsi que l’impact des vêtements chauds. La formule n’est donnée valable que pour des températures ambiantes inférieures à 10°C et des vitesses de vent supérieures à 4,8 km/h. Enfin, elle ne tient pas compte de l’humidité de l’air contrairement à la formule différente adoptée par l’Australie.
Malgré ces limitations, qui sont peut-être à l’origine de l’absence de mention, semble-t-il, de la température ressentie sur le site de Météo France, on trouve des sites, comme celui-ci, permettant de calculer cet indice dans la mesure où l’on connaît à la fois la température ambiante et la vitesse du vent… On peut aussi se référer à des tables comme celle-ci:
Michel Alberganti
Photo: Cold Man Freezing in Miserable Winter Snow Storm / Pink Sherbet via FlickrCC License by
Ce n’est pas bien de copier. Et c’est encore plus mal de coller… Voilà ces principes sacrés de l’enseignement scolaire allègrement bafoués par les élèves et les étudiants qui piochent à qui mieux mieux sur la Toile d’Internet pour faire leurs devoirs plus rapidement. Incroyable ! Inadmissible ! Après le journal télévisé de TF1 le 2 janvier 2012, c’est celui du 30 janvier de France 2 qui reprend le terrible constat: le plagiat mine l’école. Ainsi, ces jeunes qui piratent la musique et la vidéo sans vergogne, Megaupload ou pas, font de même pour leur travail scolaire. Heureusement, la technologie vient réparer les dégâts de la technologie. Les deux chaines de télévision familiale ont, étrangement, toutes les deux non seulement couvert le même sujet de façon très similaire mais aussi découvert le même logiciel miracle : Compilatio. Présenté comme la dernière nouveauté, il semble exister au moins depuis 2007…
Le virage d’Internet
Cette émotion, qui n’est pas sans rappeler les cris d’orfraie des maisons de disques devant la baisse de leurs ventes de CD, révèle à quel point l’enseignement se montre incapable de prendre le virage d’Internet. L’éducation nationale devrait sans doute plutôt se pencher sur le cas des élèves qui ne pratiquent pas le copier-coller pour faire leurs devoirs. Ceux là sont certainement plus en danger que leurs camarades pirates de tous poils. Il se trouve en effet que cette pratique est à la base de l’utilisation du web. Et elle ne fait d’ailleurs que transposer la méthode reine de l’université qui consiste, pour écrire une thèse, à s’appuyer, souvent à 99%, sur ce qui a déjà été écrit. D’où l’infime progrès souvent apporté à la connaissance humaine par chacune de ces œuvres. Mais à l’université, le pillage du passé est institutionnalisé. Références à répétition, notes en bas de page, bibliographie… Le piratage des idées, si ce n’est des textes eux-mêmes, sert de fondation à l’exercice de la thèse. Privilège des études supérieures. Auparavant, il faut en baver… Pas question de copier, pas plus sur le voisin que sur Wikipédia.
Apprendre à apprendre
Seulement voilà… Cela ne marche plus. Les élèves trouvent sur Internet les réponses aux questions que leur pose leur professeur. Et cela ne fera qu’empirer à la vitesse de l’enrichissement du web. Alors, après les caméras de surveillance, les badges et autres systèmes d’identification, il suffit de traquer les copier/coller à l’aide de Compilatio. Ainsi, l’on pourra continuer à enseigner au 21ème siècle comme au 20ème, voire au 19ème…
Dommage. L’aisance des élèves à la navigation sur le web et à la recherche d’information pourrait, au contraire, servir de socle à une nouvelle approche de l’enseignement. On pourrait enfin rêver de mettre en œuvre une vieille utopie : apprendre à apprendre au lieu de bourrer les cranes de notions mal comprises et tout juste exploitées le temps d’un bachotage. On pourrait tenter de remplacer cette illusion de savoir par le développement d’une véritable aptitude à l’acquérir.
Avec Internet, cela semble possible. Le copier-coller n’est problématique que lorsque le travail demandé ne dépasse pas ce que l’on peut trouver directement sur le web. N’est-il pas possible d’imaginer des devoirs impossibles à exécuter par copier-coller ? Ou bien des travaux fondés sur une pratique honnête du copier/coller grâce à l’apprentissage de la citation ? Quelle voie sera la plus utile à des élèves dont on sait bien qu’il devront probablement changer plusieurs fois de métier au cours de leur vie professionnelle ? Avoir appris à apprendre n’est-il pas le meilleur garant du développement de leurs facultés d’adaptation ?
Mais, bien sûr, on peut aussi continuer à enseigner sans rien changer. Surtout lorsqu’on obtient d’aussi bons résultats que la France dans les comparaisons internationales de niveaux des élèves.
Michel Alberganti
Photo: Copy-Paste / avatar-1 via Flickr CC License by
JT de TF1 du 2 janvier 2012
lire le billet“Pas besoin de paniquer au sujet du réchauffement planétaire”. Un titre éloquent qui semble tout droit tiré d’un blog de climato-sceptiques. En fait, il s’agit de celui d’un point de vue publié dans la rubrique “Opinion” du Wall Street Journal, dans son édition du 27 janvier 2012. Le texte est signé par pas moins de 16 scientifiques au pedigree respectable, bien que souvent à la retraite, dont l’un au moins n’est pas inconnu des Français… Claude Allègre, ordre alphabétique oblige, se retrouve même en tête de la liste…
Comme son titre l’indique clairement, il s’agit d’un plaidoyer climato-sceptique destiné aux candidats aux élections américaines. Le message est simple et bien connu: pas la peine de dépenser beaucoup d’argent pour lutter contre le réchauffement climatique en réduisant les émissions de CO2 par l’industrie et le transport. Pourquoi ? D’abord parce que l’augmentation de température s’est ralentie au cours des 10 dernières années, dixit les signataires. Et surtout parce que le lien entre ce réchauffement et l’accroissement du taux de CO2 dans l’atmosphère serait loin d’être établi, toujours selon les climato-sceptiques. Rien de nouveau sous le soleil, donc… Ou plutôt si: son absence dans le raisonnement des anti-consensus. Alors que le réchauffement est présenté, par les contestataires comme le géophysicien Vincent Courtillot en France, comme dû à l’augmentation de l’activité solaire au cours des dernières décennies, cet argument n’est plus repris par le texte publié dans le Wall Street Journal. Il faut dire que, toujours selon cette thèse, le soleil entrant dans une phase de moindre activité, le réchauffement doit se ralentir, comme le montrerait le plateau du réchauffement observé au cours des 10 dernières années.
Impact du CO2
Evolution de la concentration en CO2 dans l'atmosphère mesurée au Mauna Loa Observatory, Hawaii. Courbe en rouge: valeurs mensuelles moyennes. Courbe en noir: valeurs corrigées par les variations saisonnières. Source: NOAA
Le point de vue des climato-sceptiques américains se focalise sur le rôle du CO2 dont l’impact sur l’économie est direct. Les signataires le martèlent: pour eux, l’impact de l’accroissement de la concentration en gaz carbonique dans l’atmosphère sur le réchauffement de la planète n’est pas démontré. Mais le débat sur ce point serait tabou, interdit par la majorité des scientifiques défendant la thèse inverse et réclamant des mesures drastiques pour limiter les rejets de gaz à effet de serre, dont le CO2, dans l’atmosphère. Ce diktat du consensus aurait conduit, selon le texte, Ivar Giaever, prix Nobel de physique en 1973 pour ses découvertes sur l’effet tunnel dans les semi-conducteurs, supporter du président Obama et climato-sceptique connu, à ne pas renouveler son adhésion à l’American Physical Society. Cette dernière a en effet affirmé que ” la preuve du réchauffement climatique est irréfutable” [incontrovertible]. Un mot qui n’est pas passé et sur lequel les signataires du texte du Wall Street Journal s’appuient pour dénoncer une chasse aux sorciers du climat, tels Chris de Freitas, éditeur du journal Climate Research. Ils vont jusqu’à invoquer, à nouveau, l’affaire Lysenko en se comparant aux scientifiques dissidents russes envoyés au goulag parce qu’ils croyaient à la génétique. Voici donc les climato-sceptiques auto-érigés en hérétiques pourchassés par l’inquisition du réchauffement…
Manque de réchauffement
Le plus étonnant, dans l’argumentaire des signataires, concerne leur affirmation que l’on observerait un “manque de réchauffement depuis plus de 10 ans” et que l’augmentation de la température du globe sur les 22 dernières années serait inférieure aux prévisions du GIEC. L’argumentaire se radicalise ainsi en s’attaquant désormais, non seulement au rôle du CO2, mais également à la réalité de la poursuite du réchauffement.
Sur ce dernier point au moins, il semble bien difficile de les suivre, tant ils s’opposent à de nombreux signes de l’augmentation de la température du globe depuis le début du 21ème siècle.
La courbe ci-dessus montre à la fois l’évolution des anomalies de température (plus faciles à mesurer que les température moyennes absolues sur la planète) entre 1880 et 2010. La courbe en bleu compare ces anomalies annuelles avec la moyenne du 20ème siècle (1901-2000). On constate que cette dernière atteint une sorte de plateau à partir de 2005. En effet, les années comprises entre 2006, 2007, 2008 et 2009 ont connu des anomalies de température plus faibles. Cela n’a pas été le cas de 2010 qui se situe à un niveau record, égalant le pic de 2005 et dépassant celui de 1998.
Records de chaleur en 2005 et 2010
En 2010, selon l’agence fédérale américaine National Oceanic and Atmospheric Administration (NOAA), tous les records de température ont été battus avec une augmentation de 0,62°C par rapport à la moyenne du 20ème siècle (13,9°C). En 2011, rebelote. L’année égale le niveau de 1997 et se classe en 11ème position dans les années records depuis 1880. La température moyenne du globe se situe 0,51°C au dessus de la moyenne du 20ème siècle. La NOOA note que 2011 est la 35ème année consécutive avec une température supérieure à la moyenne du 21ème siècle. Certes, avec un résultat similaire à 2004, 2011 va conduire à un prolongement du plateau de la courbe bleue du schéma ci-dessus. Une représentation quelque peu trompeuse car elle lisse le phénomène. Néanmoins, il est clair qu’elle affiche une croissance depuis l’an 2000, contrairement à la position des climato-sceptiques qui déclarent, dans le texte du Wall Street Journal, que ” le fait le plus gênant est le manque de réchauffement global pendant bien plus de 10 ans maintenant”.
Affirmation sans source
Une affirmation qui contredit donc la NOAA. Il eut été indispensable de citer une source pour étayer la crédibilité d’une telle assertion. De la même façon, le texte conteste les modèles informatiques qui servent aux climatologues à établir le lien entre réchauffement et concentration en CO2 dans l’atmosphère. Pour les signataires “le manque de réchauffement au cours de la dernière décennie – en fait le réchauffement le plus inférieur aux prévisions sur les 22 dernières années pendant lesquelles le GIEC a publié des prévisions – suggère que les modèles informatiques ont grandement exagéré le réchauffement que peut engendrer une augmentation du CO2”. Fondée sur une affirmation non démontrée, la contestation se révèle un peu courte.
Perception délicate
La perception du changement climatique à travers la météo est délicate et les climato-sceptiques exploitent largement cette difficulté. Ainsi, alors que l’année 2010 a battu tous les records au niveau mondial, elle est révélée particulrement “fraiche” en France. En revanche, 2011, année tiède dans le classement planétaire, a été la plus chaude en France depuis 1900, selon le bilan de Météo France. Elle surpasse même 2003, année de la fameuse canicule meurtrière.
La délicate relation entre météorologie et climatologie devrait conduire le GIEC à un effort pédagogique. Or, ce dernier se contente de publier ses rapports tous les… 7 ans. Après celui de 2007, il faudra attendre 2014 pour un nouvel état des lieux du réchauffement climatique. Les rares documents intermédiaires manquent souvent de conclusions claires. Ainsi, le dernier en date concernant la relation entre les événements climatiques extrêmes et l’augmentation de la température de la Terre liée aux activité humaine brille surtout par son luxe de précautions.
Manque de pédagogie
Lorsque l’on cherche des données sur les mesures annuelles montrant l’évolution de la température su globe, M. Google ne nous aide guère. Il faut fouiller pour dénicher les valeurs publiées par la NOAA… Et le site du GIEC n’est guère utile dans ce domaine. Or, face à des climato-sceptiques qui n’hésitent pas à lancer des affirmations sans sources, il serait hautement souhaitable de disposer d’informations faciles d’accès et présentées de façon pédagogique. Quel site va enfin se décider à publier l’évolution de la température de la planète ? Au risque d’afficher des baisses de cette température pour certaines années. Si les climatologues veulent combattre le climato-scepticisme, ils ne peuvent que gagner à fournir de telles données aux citoyens qui cherchent à étayer leur opinion. D’ailleurs le temps presse. En particuliers aux Etats-Unis où la vogue du scepticisme est telle que la question de la climatologie a rejoint celle du néo-créationnisme (l’intelligent design) en matière d’enseignement dans les écoles.
Dans ce contexte, on ne peut que saluer l’effort de la NASA pour illustrer le réchauffement climatique au cours du temps :
Michel Alberganti
lire le billetLa référence d’un centre de recherche japonais, sigle à l’appui, une mise en scène soignée montrant des chercheurs gantés manipulant des modèles réduit de voiture de course. le remplissage des réservoirs avec de l’azote liquide, la démonstration spectaculaire d’une course de bolide fumants en sustentation au dessus de la piste d’un circuit de course automobile… A première vue, la vidéo semble préfigurer un jeu de l’avenir exploitant les développements d’une technologie dont le centenaire a été fêté en 2011: la supraconductivité et l’une de ses applications, la lévitation d’objets. Voici le résultat:
lire le billetHarry Potter a déjà légué à la science une partie de ses pouvoirs magiques. Sa cape (cloak) d’invisibilité fait désormais partie du vocabulaire des chercheurs et pas un seul article sur les travaux scientifique dans ce domaine n’omet de le citer. Voilà, c’est fait…
Imaginez-vous au volant d’une voiture, perdu dans vos pensées sur vos relations amoureuses, vos problèmes au travail ou le cours de bourse de vos actions… Survient un feu qui, inopinément, passe au rouge juste avant que vous ne le franchissiez… Si la police vous arrête, ne rêveriez-vous pas d’un bouton sur le tableau de bord marqué : « Effacement temporel » ? Il suffirait, en effet, de supprimer quelques fractions de secondes pour que l’infraction disparaisse !
Si une telle option n’est pas pour demain, les scientifiques ont peut-être franchi le premier pas dans cette direction. Alexander Gaeta, professeur de physique appliquée à l’université de Cornell de l’Etat de New-York, vient en effet de publier dans la revue Nature du 5 janvier 2012 une étude menée par le post-doctorant Moti Fridman avec les chercheurs Alessandro Farsi et Yoshitomo Okawachi. Pour la première fois, cette équipe est parvenue à créer un « trou temporel » (time hole). Il ne s’agit de rien d’autre que de « cacher l’existence d’un événement à un observateur ».
L’expérience de trou temporel fait appel à une très longue fibre optique (bobine sur l’image). De gauche à droite, l’équipe de l’université de Cornell : Moti Fridman, Yoshi Okawachi, Alessandro Farsi et Alexander Gaeta.
Le lièvre et la tortue
L’expérience se déroule à l’intérieur d’une fibre optique que parcourt un faisceau laser vert. Ce dernier passe d’abord à travers une « lentille de séparation temporelle » qui sépare le faisceau en deux longueurs d’onde, l’une grande (rouge) et l’autre petite (bleu). Commence alors une sorte de course de vitesse entre ces deux faisceaux. La compétition se déroule dans une bobine de fibre optique d’un kilomètre de long. Là, expliquent les chercheurs, le faisceau bleu prend de l’avance sur celui le rouge, « comme le lièvre distance la tortue ». Ce décalage engendre un trou entre les deux concurrents. Dans cet intervalle, les scientifiques introduisent un bref éclair de lumière à une longueur d’onde encore plus élevée. Cet événement devrait normalement engendrer un défaut perceptible dans le rayon laser sortant. Ensuite, les deux faisceaux rouge et bleu changent de terrain. Ils entrent dans une seconde portion de fibre optique dont la composition est différente. Cette nouvelle piste favorise la tortue (faisceau rouge) par rapport au lièvre (faisceau bleu). « C’est comme si le lièvre avançait péniblement dans de la boue et que la tortue, à l’aise sur ce type de terrain, parvenait à le rattraper», expliquent les chercheurs. Peu à peu les deux faisceaux se retrouvent à la même hauteur. Le trou, entre eux, disparaît. Sur la ligne d’arrivée, ils rencontrent une lentille temporelle qui reconstitue un faisceau vert identique à celui qui avait pris le départ… Et aucune preuve ne subsiste alors du signal parasite introduit au milieu de la course.
lire le billetCourte Focale
Dans cette rubrique du blog Globule et télescope, nous vous proposons régulièrement des images ou des vidéos traitant de sujets scientifiques ou techniques.
Nous commençons par ce petit joyau trouvé sur Youtube à l’occasion du dixième vingtième anniversaire de la mort de Grace Hopper, une figure de l’informatique aux Etats-Unis, auteur du premier compilateur en 1951 et du langage Cobol en 1959. En octobre 1986, invitée au Late Show de David Letterman, l’un des plus fameux talk shows américains sur la chaîne CBS, elle affiche une personnalité hors pair d’amiral de la Navy et de pionnière de l’informatique depuis son engagement dans l’armée, en 1944. A 80 ans, cette dame, décédée en 1992, ne se laisse impressionner ni par la télévision, ni pas son interviewer. Il faut dire qu’elle a bien préparé cet entretien avec une explication de la nanoseconde qui laisse David Letterman assez pantois… Une leçon de vulgarisation! En anglais…
Michel Alberganti
lire le billet– Ce samedi, le robot à roulettes américain Curiosity a quitté la Terre en direction de la planète Mars sur laquelle il se posera en août 2012, avant d’en explorer une petite partie à l’aide de ses dix instruments (dont deux français pour tout ou partie). L’objectif : découvrir si, dans le passé, Mars a pu offrir des conditions propices à l’apparition de la vie.
– Selon une étude publiée dans Science, le climat n’est peut-être pas aussi sensible à l’augmentation du taux de gaz carbonique que ce que l’on croyait. Mais il ne faut pas se réjouir trop vite : malgré cette correction, les chercheurs prévoient tout de même une hausse des températures de plus de 2° C à la fin du siècle.
– Le rapport annuel d’Onusida montre cette année des résultats encourageants, avec notamment une baisse des nouvelles infections et une augmentation du nombre de personnes sous traitement. Néanmoins, en 2010, 2,7 millions de personne dans le monde ont été contaminées par le VIH.
– Le premier bilan exhaustif de l’état des sols en France a été rendu public. Même s’il est meilleur que dans certains pays comme le Royaume-Uni, les sols ne sont pas gérés de manière durable et subissent les assauts du béton, de la pollution et de l’érosion.
– Il y a 42 000 ans, l’homme pêchait déjà du thon, comme vient de le montrer une équipe d’archéologues travaillant au Timor oriental. Des hameçons taillés dans des os ont ainsi été mis au jour, ainsi que des restes de poissons. Cette découverte fait remonter de plusieurs dizaines de milliers d’années la pratique de la pêche (en haute mer qui plus est) par nos ancêtres.
– Chaque année depuis des décennies, la Nikon Small World Competition récompense les meilleures photographies prises au microscope. Ces images de science ont toujours de grandes qualités esthétiques. Le palmarès 2011 est ici.
– Nephila antipodiana est une araignée qui, pour se défendre des fourmis, imprègne les fils de sa toile d’un produit insecticide.
– Pour finir : ma chronique “Improbablologie” dans Le Monde évoque ces messieurs zoophiles qui risquent le cancer du pénis dans leurs amours de basse-cour…
Pierre Barthélémy
– Le GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) a rendu un rapport spécial sur les événements météorologiques dits extrêmes : il confirme que les vagues de chaleur, pluies torrentielles, épisodes de sécheresse, etc, vont se banaliser d’ici à la fin du siècle. Une conséquence directe, selon les chercheurs, du réchauffement climatique.
– L’expérience Opera, au CERN, vient d’effectuer un nouveau test confirmant que, pour elle, les neutrinos vont plus vite que la lumière. Reste à avoir une validation indépendante.
– Toujours dans le domaine de la physique fondamentale, le moment de vérité approche pour le boson de Higgs, cette particule théorique censée donner sa masse à la matière : le LHC (le Grand Collisionneur de hadrons du CERN) devrait, d’ici quelques mois, soit le découvrir, soit l’envoyer aux oubliettes de la science, ce qui forcerait les physiciens à élaborer une nouvelle théorie.
– Une équipe française vient de mettre au point un matériau plastique que l’on peut fondre, mouler, utiliser et refondre à l’envi, comme le verre. Nombreuses applications industrielles en vue.
– On cite souvent en exemple la Chine et l’Inde, comme pays où sont pratiqués des avortements sélectifs en fonction du sexe du fœtus, décelé à l’échographie. D’où des sex ratios très favorables aux garçons. La pratique existe aussi en Europe comme le montre ce reportage de l’AFP en Albanie où nombre de futures petites filles ne voient jamais le jour.
– Les animaux d’élevage reçoivent trop d’antibiotiques et la France veut réduire d’un quart la prise, souvent inutile, de ces médicaments afin de préserver l’efficacité de l’arsenal thérapeutique.
– Pour ceux que l’histoire des sciences intéresse, le CNRS vient de lancer un dossier sur Antoine Lavoisier (1743-1794), l’un des pères de la chimie moderne.
– Pour finir, dans ma chronique hebdomadaire du Monde sur l'”improbablologie”, je m’attaque à l’une des questions les plus cruciales que se posent les automobilistes : dans un bouchon, pourquoi cela avance-t-il plus vite toujours dans l’autre file ?
Pierre Barthélémy
lire le billet
Derniers commentaires