Les résultats publiés par Alexander Huth, chercheur à l’Institut de neurosciences Helen Wills de l’université de Californie à Berkeley, et ses collègues dans la revue Neuron du 20 décembre 2012 conduisent à se poser la question: “Y a-t-il un Google dans notre cerveau ?” Un sous Google ? Un super Google ? Comment sommes-nous capables de retrouver ou de reconnaître, souvent instantanément, un mot, une image, une notion, une action? Difficile de ne pas penser à Internet et à la difficulté, pour un moteur de recherche, de faire de même avec le contenu de la Toile.
Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…
“Si l’être humain peut voir et nommer des milliers de catégories d’objets et d’actions, il est peu probable qu’une zone distincte du cerveau soit affectée à chacune de ces catégories”, précisent les chercheurs. “Un système plus efficace consiste à représenter les catégories comme des emplacements dans un espace sémantique continu, sur une cartographie couvrant toute la surface corticale.”
Pour explorer un tel espace, Alexander Huth a fait appel à l’IRM fonctionnelle afin de mesurer l’activité du cerveau pendant le visionnage des images d’un film. Il est ensuite passé au traitement informatique des données en utilisant un modèle de voxels, c’est-à-dire des volumes élémentaires (pixels en 3D).
De quoi construire une représentation de la répartition corticale de 1.705 catégories d’objets et d’actions.
Les catégories sémantiques apparaissent alors clairement. Notre cerveau associe les objets similaires par leur composition (des roues pour un vélo et une voiture) ou leur fonction (une voiture et un avion servent à se déplacer). En revanche, une porte et un oiseau ne partagent pas grand-chose et se retrouveront éloignés dans l’espace sémantique.
Alexander Huth a soumis les personnes analysées à un film de deux heures dans lequel chaque image et chaque action avaient été repérées par des étiquettes (pour un plongeon, par exemple, une étiquette pour le plongeur, une pour la piscine, une troisième pour les remous de l’eau).
L’IRMf a permis de mesurer l’activité du cerveau dans 30.000 voxels de 2x2x4 mm couvrant l’ensemble du cortex. Il “suffisait” ensuite de corréler les images du film et leurs étiquettes avec les différents voxels activés lorsqu’elles avaient été visualisées. Le résultat est une cartographie des 30.000 voxels mis en relation avec les 1.705 catégories d’objets et d’actions.
Les techniques de représentations dans l’espace, à gauche, permettent de faire apparaître les distances entre les différentes catégories. Les différentes couleurs et leurs nuances représentent des groupes de catégories similaires: êtres humains en bleu, parties du corps en vert, animaux en jaune, véhicules en mauve…
Plus fort encore que la représentation dans l’espace qui ressemble aux cartographies en 3D des sites Internet, les chercheurs ont achevé leur travail par une projection des voxels et de leurs catégories… sur la surface corticale elle-même.
Le résultat est spectaculaire, en relief et… interactif. Grâce à une technologie de navigation encore expérimentale, WebGL, l’utilisateur peut soit cliquer sur un voxel de la surface du cortex et voir quelles sont les catégories correspondantes, soit faire l’inverse: le choix d’une catégorie montre dans quelles zones du cerveau elle est stockée.
Cette cartographie interactive est disponible ici mais tous les navigateurs ne sont pas capables de la prendre en charge. Les chercheurs conseillent Google Chrome qui, effectivement, fonctionne (version 23).
Ces travaux fondamentaux pourraient avoir des applications dans le diagnostic et le traitement de pathologies cérébrales. Mais il permettront peut-être aussi de créer des interfaces cerveau-machine plus efficaces et d’améliorer les systèmes de reconnaissance d’images encore peu développés, même sur Google…
Michel Alberganti
Photo: «Planting Brain», oeuvre d’art dans un champ indonésien, le 27 décembre 2012 près de Yogyakarta. REUTERS/Dwi Oblo
Il ne leur manque que la parole…, dit-on. Faute de cette possibilité de communication avec l’animal qui est devenu le compagnon de l’homme depuis des temps immémoriaux, 10 000 ou peut-être 30 000 ans, comme savoir ce que les chiens pensent ? La question s’est posée brusquement à Gregory Berns, directeur du Emory Center for Neuropolicy, lorsqu’il a vu les images de l’intervention des forces spéciales de l’équipe Seal dans la cachette de Ben Laden. Un chien de l’US Navy y participait. “J’ai été impressionné lorsque j’ai vu ce que les chiens des miliaires peuvent faire. J’ai alors réalisé que si des chiens peuvent sauter d’un hélicoptère ou d’un avion, nous pourrions certainement les entraîner à entrer dans un scanner d’IRM fonctionnelle (IRMf) afin de découvrir ce à quoi ils pensent”, explique Gregory Berns.
On sait que l’imagerie par résonance magnétique fonctionnelle permet de corréler certains signaux (sons, images, activité cérébrale…) avec les zones du cerveau qu’ils activent. On peut alors en déduire des informations sur le type de pensée qu’ils engendrent. Mais avec un chien, toute la difficulté réside dans le dressage permettant de convaincre l’animal de rester allongé dans le tube d’un scanner, immobile malgré le vacarme émis par l’appareil. C’est le défi relevé par Gregory Berns et son équipe.
Callie, une petite chienne de chasse de race Feist de deux ans et McKenzie, un chien de berger Border Collie de trois ans ont été mis à contribution. Tous deux ont été entrainé pendant plusieurs mois à entrer dans un scanner et à rester parfaitement immobile pendant que les chercheurs mesuraient leur activité cérébrale. Un casque les ont protégé du bruit de l’appareil. Callie semble être devenue si impatiente de faire avancer la science qu’elle entre d’elle-même dans le scanner même lorsque ce n’est pas son tour…
C’est ainsi que les scientifiques d’Emory sont parvenus à obtenir les toutes premières IRM du cerveau d’un chien. Ils ont alors cherché à déterminer si nos fidèles compagnons ressentent de l’empathie, s’ils savent que leur “maître” est heureux ou malheureux et s’ils comprennent une nombre important de mots de notre langage.
Dans une première expérience, les chiens ont été stimulés à l’aide mouvements de la main. L’un des gestes signifiait que le chien allait recevoir de la nourriture, l’autre qu’il n’allait rien recevoir. La région du cerveau associée à la récompense dans le cerveau humain s’est également activée dans le cerveau des chiens à la suite du premier geste et est restée inerte face au second geste. D’où la mise en évidence d’un lien direct entre les actions de l’homme et la stimulation de cette zone dans le cerveau des chiens. Ils comprennent donc parfaitement leur maître dans ces circonstances. Tout propriétaire de chien en était convaincu sans avoir eu recours à un scanner…
L’expérience de Gregory Berns vaut donc surtout par la démonstration de la possibilité de placer un chien dans une IRMf sans la moindre atteinte au bien être de l’animal. Ce dernier n’est pas attaché ni endormi. Et il a été entraîné à supporter le casque qui le protège du bruit. Dans ces conditions, les chercheurs ont obtenu que les chiens restent parfaitement immobiles pendant 24 secondes, ce qui leur laisse assez de temps pour réaliser de multiples mesures.
Il leur faut désormais aller plus loin pour sonder les profondeurs du cerveau canin. “Le cerveau des chiens apporte un témoignage de la façon dont l’homme et l’animal ont pu vivre ensemble pendant très longtemps. Il est même possible que les chiens aient pu affecter l’évolution humaine”, estime Gregory Berns. Au delà de la découverte des pensées secrètes de nos compagnons, le cerveau des chiens pourrait nous apprendre quelque chose sur nous-mêmes. Voilà qui justifie encore plus les recherches dans ce domaine…
Michel Alberganti
lire le billet
Derniers commentaires