Ceux qui ont vécu la progression des capteurs électroniques utilisés dans les appareils photo numériques (APN) et les caméscopes ne connaissent désormais plus qu’une unité: le mégapixel. Qui se souvient encore du Mavica lancé par Sony, le tout premier APN avec ses 280 000 pixels ? Ou du Xapshot de Canon (1989) ? Ou encore du QuickTake d’Apple (1994) et ses 300 000 pixels ? Il faut attendre 1999 pour que les professionnels puissent acquérir un APN dépassant le million de pixels, le Nikon D1 avec 2,7 mégapixels. Les années 2000 seront celles de la course aux mégapixels avec des résultats mitigés, tant le nombre de pixels ne doit pas faire oublié leur qualité. Or, plus les pixels sont petits, moins ils captent de lumière. Des millions de pixels sur un capteur minuscule donne ainsi des résultats inférieurs à un nombre de pixels inférieur sur un grand capteur. D’où la nouvelle course, engagée depuis quelques années, celle de la taille des capteurs avec, comme objectif, le fameux format 24×36 mm de la bonne vieille pellicule argentique. Se profile aujourd’hui, la perspective de la généralisation d’appareils munis d’un tel capteur, dit “plein format”, dotés de 30 à 40 mégapixels contre moins de 20 aujourd’hui à de rares exceptions comme le récent Nikon D800 avec ses 36,3 mégapixels vendu à près de 3000 euros nu.
Tout cela pour préciser le contexte dans lequel arrive la publication, dans la revue Nature du 20 juin 2012, d’un article publié par des ingénieurs de l’université Duke et de l’université d’Arizona. En synchronisant 98 micro appareils photo, ils sont parvenus à obtenir des images de 50 gigapixels, soit 50 0000 mégapixels… Avec une définition 1000 fois supérieure à celle des meilleurs appareils actuels, les chercheurs multiplient par 5 la résolution des meilleurs yeux humains. Cela sur un champ de vision de 120° (contre 220° pour l”homme).
David Brady, qui dirige l’équipe, explique que “chacune des micro appareils photo capture les informations provenant d’une partie de la scène tandis qu’un ordinateur réalise la fusion de ces images en une seule image de très haute définition. Dans ce nombreux cas, l’appareil peut capter des détails que le photographe ne voit pas à l’œil nu et qu’il découvre ensuite en regardant l’image”. D’après lui, même s’il faudra développer des optiques spéciales, le problème principal viendra de la maîtrise de la consommation électrique et de la miniaturisation des circuits électroniques.
Le logiciel d’assemblage des différentes images a été réalisé par Michael Gehm, professeur assistant d’électricité et d’informatique à l’université d’Arizona. “Notre approche actuelle, au lieu de créer des optiques de plus en plus complexes, est d’utiliser des réseaux d’éléments électroniques massivement parallèles. Un objectif partagé capte la lumière et la répartit sur les micro caméras, exactement comme une réseau informatique gère les données destinées à différentes stations de travail. Chacune de ces dernières ne voit qu’une petite partie du problème à traiter . Pour l’image, nous prévoyons des parties de recouvrement qui permettent de ne pas perdre d’information”, indique-t-il.
L’appareil prototype mesure 50 cm de profondeur dont 3% seulement sont affectés à l’optique. Le reste est occupé par l’électronique qui se charge d’assembler les différentes parties de l’image. David Brady précise que la taille actuelle est liée à celle des cartes électroniques de contrôle et à la nécessité de les refroidir. “Lorsque des composants électroniques plus compacts et plus efficaces seront disponibles, l’ère de la photographie gigapixel s’ouvrira”, affirme-t-il. Les chercheurs estiment ainsi que, d’ici 5 ans, la miniaturisation des composants électroniques permettra de proposer des appareils photos gigapixel au grand public.
Michel Alberganti
lire le billet“A small step for computers, a giant leap for users”. Telle pourrait être le slogan de l’entreprise Leap Motion, s’inspirant des mots de Neil Armstrong posant le pied sur la Lune. Le nouvel interface d’ordinateur Leap présenté par cette start-up de San Francisco et débusquée, entre autres, par Louis Naugès dans son blog Entreprise 2.0, promet de faire indéniablement partie de ces innovations, extrêmement rares, qui laissent bouche bée. Cette vidéo suffit pour s’en convaincre :
Bien entendu, cela ne peut manquer de rappeler fortement l’émotion qui a saisi les spectateurs de Minority Report, le film de Steven Spielberg sorti en 2002, il y a tout juste 10 ans. Pourtant, en regardant bien, vous noterez une petite différence :
La différence, c’est que notre Tom Cruise a l’air passablement ridicule avec ses gants à trois doigts agrémentés de petites loupiotes. Leap Motion fait tout aussi bien, et même mieux semble-t-il, à main nue. Et c’est bien là l’exploit. La manette de la Wii de Nintendo est sortie en 2006 et Kinect de Microsoft en 2010 ont déjà révolutionné ce qu’il est convenu d’appeler l’interface utilisateur (IU). Mais le premier impose d’utiliser une manette et la précision du second n’est compatible qu’avec des jeux. Leapmotion propose un véritable bond en avant. Pour au moins trois raisons :
Leap Motion annonce une sensibilité 200 fois supérieure à celle de tous les systèmes existants, dont les souris, quelque soit leur prix. Le Leap distingue les mouvements de tous les doigts dont le pouce, ou d’un crayon, et peut distinguer un déplacement jusqu’à un centième de mm….
D’après ce que montre la vidéo, il n’existe pas de délai de latence entre les mouvements de l’utilisateur et la réaction sur l’écran. Ce n’est pas tout à fait le cas avec la Wii ou Kinect. La simultanéité parfaite est indispensable pour donner la sensation de manipuler avec ses propres mains ce qui se passe à l’écran. Le volume dans lequel doivent se situer les mouvements de la main est un cube de 60 cm de coté (merci à Sylvain qui a fait le calcul dans son commentaire…). Ce qui est très confortable.
Leap Motion annonce un prix de vente de 70 $ ce qui n’est pas le moindre exploit de l’entreprise. Certes une souris vaut moins de 20 €, moins de 10 € même pour les premiers modèles, mais offrir une telle avancée pour seulement 3 ou même 10 fois plus cher est tout bonnement incroyable. De plus, le Leap semble très facile à installer (il suffit de brancher le minuscule boitier sur un port USB) et à utiliser après une brève séquence de calibration. Pas de manuel ni d’apprentissage…
Comment une start-up, une fois de plus américaine, peut-elle réaliser, sous réserve de juger les produits réels lorsqu’ils seront sur le marché, un tel exploit ? La recette est simple: un ou deux génies, du travail, du temps et de l’argent. Pour Leap Motion, le génie se nomme David Holtz, directeur technique, docteur en mathématiques appliquées et ancien employé de la Nasa et du Max Planck Institute, associé à Michael Buckwald, PDG, ancien PDG de Stratics Media et de Zazuba pour créer Leap Motion en 2010 à San Francisco. Du travail, c’est 200 à 300 000 lignes de code informatique pour mettre loin derrière l’objet qu’ils admiraient: Kinect de Microsoft. Du temps, c’est quatre années de travail avant de pouvoir lancer un produit sur le marché. Le Leap est attendu fin 2012, début 2013. De l’argent, c’est 14,5 millions de dollars levés à ce jour.
Le résultat sera peut-être l’un de ces bonds en avant qui marquent l’histoire de l’informatique: le microprocesseur, l’interface graphique, la souris, le web… Tous, à l’exception du web né au CERN de Genève, ont été réalisés aux Etats-Unis. Sans parler d’Amazon, eBay, Skype, Google (qui est en train de racheter Motorola) Facebook, Tweeter… De quoi faire réfléchir un pays qui produisait des génies à la pelle il y a un siècle et qui, aujourd’hui, se retrouve en pleine désindustrialisation, non ?
Allez, pour le plaisir, la version longue de la présentation du Leap, qu’il faudra encore attendre pendant de longs mois…
Michel Alberganti
lire le billet
En matière d’interface cerveau-machine, les quinze dernières années ont été très fructueuses. Mais la dernière expérience réussie dans ce domaine franchit une étape décisive. En effet, pour la première fois, la personne paralysée équipée d’électrodes implantées dans son cerveau parvient à une maîtrise très fine du mouvement dans l’espace qu’elle imprime au bras robotisée. Elle le guide pour qu’il saisisse un thermos de café, la déplace pour l’approcher de sa bouche jusqu’à ce qu’elle puisse boire le café avec une paille et, ensuite, repose le thermos à sa place. Tout cela par la seule concentration de sa pensée.
Les chercheurs sont parvenus à obtenir le déplacement d’un bras robotique par un singe dès l’an 2000 (Miguel Nicolelis de la Duke University à Durham, en Caroline du Nord). L’équipe de John Donoghue, neurologiste à l’université Brown à Providence (Rhode Island), a obtenu un résultat identique en 2004. En 2006, elle a équipé des personnes paralysées avec des électrodes leur permettant de déplacer un curseur sur un écran d’ordinateur. La nouvelle expérience, réalisée par la même équipe de John Donoghue et publiée dans la revue Nature du 16 mai 2012, est encore plus spectaculaire car elle ouvre le champ des applications permettant aux handicapés moteurs, au delà de la faculté de s’exprimer, de pouvoir être assistés dans leur vie quotidienne par des machines qu’ils contrôlent par la pensée. La vidéo brute de l’expérience, reprise par le magazine Wired, est impressionnante et émouvante :
Cette version muette de la vidéo présente l’avantage de montrer l’intégralité du geste effectué par le bras robotisé actionné par le cerveau de Cathy Hutchinson, une patiente de 58 ans victime d’une attaque cérébrale il y a 15 ans et privée, depuis, de l’usage de tous ses membres et de la parole. Pour elle, ce simple geste est le premier qu’elle peut contrôler depuis cet accident. On note parfois une tension perceptible sur son visage et quelques petits mouvements de ses bras. Le geste du robot piloté par la pensée laisse pantois. Malgré quelques hésitations, il est d’une remarquable précision. On note que Cathy Hutchinson est gênée par la paille après avoir bu. Mais elle pense alors à faire pivoter le poignet du robot et le conduit ensuite sans problème jusqu’à ce qu’il repose le thermos. Son sourire final exprime bien ce qu’elle doit ressentir à cet instant.
Un autre patient, un homme de 66 ans également victime d’une attaque cérébrale, en 2006, ne peut bouger que sa tête et ses yeux. Voici l’exercice effectué en utilisant sa seule pensée :
Là encore, on peut mesurer la difficulté de l’exercice grâce aux multiples échecs dans la saisie de ces balles en mousse de 6 cm de diamètre fixées à l’extrémité de tiges souples. Les deux patients, Cathy Hutchinson et l’homme, anonyme et désigné par le nom T2 dans l’étude publiée, ont travaillé sur ce test. Sur 200 essais, ils ont réussi à atteindre et à toucher les balles dans 49% à 95% des cas. Dans les deux tiers des atteintes, la main est parvenue à serrer les balles entre ses doigts.
Pour réaliser ces tâches, les deux patients ont reçu un implant dans leur cerveau. Il s’agit d’une petite pastille carrée, baptisée BrainGate, couverte par 96 électrodes fixées sur le cortex moteur des deux personnes. Ces électrodes captent les signaux directement émis par le cerveau et qui sont ensuite traités par un ordinateur qui les transforme en commandes pour les mouvements du bras robotisé dans l’espace. Cela signifie que les informations issues du cerveau doivent correspondre aux mouvement de chaque articulation du bras robotisé, soit l’épaule, le coude, le poignet et les doigts. C’est dire la complexité à la fois de l’effort mental des patients et du traitement informatique réalisé en temps réel.
D’après les chercheurs, il semble qu’aucun entraînement spécifique n’ait été nécessaire aux patients. Sans doute parce que les électrodes sont implantées dans une région dédiée au contrôle des mouvements du corps. Néanmoins, Cathy Hutchinson a reçu cet implant il y a 5 ans, ce qui laisse supposer qu’elle a eu le temps de s’y accoutumer. Les chercheurs ne nient pas le manque de précision qui subsiste dans les gestes commandés par le cerveau. Néanmoins, cette expérience montre que des mouvements utiles dans la vie quotidienne peuvent être effectués par le seul contrôle de la pensée.
Bien entendu, ces progrès rappellent l’objectif ultime des chercheurs dans ce domaine. Lorsqu’il devient possible de capter de tels signaux dans le cerveau, il est envisageable d’imaginer le remplacement du bras robotisé… par les membres des patients eux-mêmes. Cela reviendrait à court-circuiter les parties du système nerveux qui ne fonctionnent plus. Et d’établir une nouvelle liaison entre le cerveau et les membres. Les chercheurs progressent indéniablement dans cette direction. Mais le chemin sera encore long.
Michel Alberganti
lire le billet
Image originale |
Filtre XPro |
![]() |
![]() |
Filtre Toaster |
Filtre Kelvin |
![]() |
![]() |
Tout a été dit sur le rachat d’Instagram par Facebook pour un milliard de dollars. Tout sauf que cette application fait partie de ces coups de génie qui jalonnent l’histoire récente d’Internet et celle, encore plus récente, des nouvelles fonctions des téléphones mobiles. Que ce petit programme (13 mégaoctets tout de même, ce qui en fait un poids lourd dans l’univers des logiciels pour mobile) justifie un tel investissement de la part de Facebook, l’avenir le dira. Le montant de l’achat doit néanmoins être jugé sur ce qu’il représente réellement pour une entreprise qui vaut aujourd’hui en 75 et 100 milliards de dollars, deux fois plus qu’il y a un an, et qui a réalisé 1 milliard de dollars de bénéfices sur son dernier exercice, après seulement 8 ans d’existence. Instagram lui a donc coûté une année de profits. Si cet investissement est donc loin de représenter un sacrifice dangereux pour Facebook. Il reste qu’il n’est pas négligeable, au moins en valeur absolue.
Le service
Pour comprendre ce qui a séduit à ce point l’entreprise créée en 2004 par Mark Zuckerberg, il suffit d’utiliser Instagram. L’installation sur un mobile prend quelques minutes à peine. Dès la première utilisation, plusieurs caractéristiques sautent aux yeux :
Bon… Et alors ? Pas de quoi grimper au rideau ni jeter son Nikon dernier cri par la fenêtre. Oui et non. Oui parce que la limite d’Instagram réside, justement, dans ses limites. Celles de son minimalisme qui ne cherche pas, loin de là, à tuer les appareils photos ni les logiciels de retouche, de classement et de partage en ligne comme Picasa, racheté par Google en 2004. Non, parce que, justement, ce sont ces limites qui lui donnent sa simplicité et son efficacité. Et sa parfaite adaptation à sa cible : la photo mobile.
Mettre Photoshop dans un mobile
On pourrait imaginer ceux qui ont lancé Instagram à San Francisco en octobre 2010, Kevin Systrom and Mike Krieger, devant leur écran d’ordinateur en train de traiter des photos avec Photoshop. Soudain, une idée vient à l’un d’entre eux : Et si l’on pouvait photoshoper les images prises par un téléphone mobile ? La proposition aurait pu paraître stupide. Elle aurait dû, en toute logique et pour rester raisonnable. Mais c’est sans doute ainsi que naissent les idées de génie. En ne cédant pas à la raison, ni à la logique. C’est tout le pari d’Instagram : faire entrer l’un des plus gros et des plus coûteux logiciels existant aujourd’hui dans le monde des professionnels de l’image et des amateurs avertis… dans un téléphone mobile.
Pour réaliser un tel exploit, il fallait extraire de Photoshop sa quintessence, sa moelle, son principe actif. Kevin Systrom and Mike Krieger ont identifié cet extrait essentiel : les filtres. De quoi s’agit-il ? Dans la plupart des logiciels de retouche d’images, en particulier sur Photoshop, l’une des fonctions les plus spectaculaires est sans conteste la transformation profonde d’une photo en une seule opération. De nombreux filtres, en particulier les plus simples, ne sont en fait qu’un assemblage de réglages agissant sur la luminosité, le contraste et la couleur. Les filtres plus sophistiqués, souvent qualifiés d’esthétiques, proposent des transformations plus complexes permettant, par exemple, de donner à une photo l’apparence d’un tableau réalisé au couteau ou à l’aquarelle. Mais avec les seules trois actions de base, une même image peut prendre une infinité d’aspects différents.
Une photo personnalisée
Les exemples en haut de page donnent une idée des modifications de l’image offertes par Instagram. La photo originale banale et plate prend un tout autre caractère. L’utilisateur peut ainsi créer une ambiance particulière qui reflète le climat dans lequel il souhaite inscrire son image. Il personnalise sa photo tout en améliorant sensiblement le rendu grâce au contracte et à la saturation des couleurs.
Le miracle du succès d’Instagram est là. En quelques pressions sur l’écran du téléphone mobile, une photo ordinaire se transforme en une image originale avant d’être partagée, tout aussi simplement, sur un réseau social ou par mail. Nombre d’observateurs considèrent que la valeur un tel service est extrêmement faible quand il ne le juge pas totalement inutile. Trop simple, trop limité, trop gratuit…
Bien entendu, l’explosion du nombre d’utilisateurs d’Instagram, qui se comptent désormais en dizaines de millions, suffit à invalider une telle appréciation. Mais il est possible de considérer également que cette critique révèle une approche profondément erronée des phénomènes à l’œuvre sur Internet et la téléphonie mobile. Aucun des grands succès récents n’a été prévu par les spécialistes et les grandes entreprises du marché. Ni les sms, ni Google, ni Facebook, ni Tweeter. Ni même Amazon et eBay à leurs débuts. Dans chacun de ces cas de success stories plus ou moins foudroyantes, ce sont de nouveaux arrivants, un ou deux jeunes, ou les utilisateurs eux-mêmes comme pour les sms, qui ont, seuls et souvent contre tous, imposé leur idée.
Les raisons du succès
Un tel phénomène peut trouver un début d’explication avec ces trois points communs :
La valeur d’Instagram doit sans doute s’évaluer à l’aune de ses qualités. Le service répond précisément aux trois critères ci-dessus. Un milliard de dollar ? Pourquoi pas. Facebook semble très bien placé pour mesurer le potentiel d’une application validée par le public et qui lui permet d’entrer dans l’univers du téléphone qui n’est pas son écosystème initial. Demain, nous instagramerons peut-être nos photos mobiles aussi instinctivement que nous twittons. Ou pas, si une idée simple, gratuite, ergonomique et, peut-être, plus performante vient détrôner Instagram. Mais gageons que Facebook fera tout pour l’éviter.
Michel Alberganti
lire le billet
Tandis que la 3D a déjà envahi les jeux vidéo et qu’elle tente laborieusement de s’imposer sur les écrans de cinéma et de télévision, elle reste singulièrement absente de la toile d’Internet. La raison en est simple: le langage de programmation des sites du web, le html, ne contient pas de fonctions de création d’images en trois dimensions. Cela pourrait rapidement changer si l’on en juge par les présentations qui sont annoncées pour le prochain Cebit, monstrueuse exposition de l’industrie numérique qui se tient en Allemagne, à Hanovre, du 6 au 12 mars 2012.
La troisième dimension de la Toile sera présente sur le stand de l’Intel Visual Computing Institute, un organisme créé par le fabricant de microprocesseurs Intel (12 millions de dollars d’investissement), l’université de Saarland, le Centre de recherche en intelligence artificielle d’Allemagne (DFKI) et l’Institut Max Planck en mai 2009. Les chercheurs ont développé un ensemble d’outils de programmation baptisé XML3D qui pourrait transfigurer Internet au cours des prochaines années. Il s’agit en effet d’exploiter la puissance des cartes graphiques qui dorment au fond de nos ordinateurs pendant que nous naviguons sur la toile. Dimensionnés pour faire fonctionner les jeux vidéo les plus élaborés en matière de définition d’image et d’ immersion des joueurs, ces composants électroniques très puissants qui agissent comme de véritable turbo graphiques, sont en effet inutilisés sur Internet faute d’images en trois dimensions à traiter. Avec le XML3D, tout devrait changer, comme l’explique Philipp Slusallek, directeur de l’Intel VCI :
Le gros intérêt de l’intégration de la 3D dans la boite à outil des concepteurs de sites web, au delà de l’attrait visuel, est celui de la navigation interactive dans ces images. En effet, au lieu de simples photos d’un hôtel sur un site d’organisation de voyage, nous pourrons visualiser à la fois la chambre en vision panoramique mais également découvrir la vue offerte par la fenêtre ou le balcon. Tout ceci au sein d’une seule illustration. Idem pour la découverte d’un objet sur un site de vente en ligne, le choix d’une voiture ou celui d’une place de théâtre. En réalité, toutes ces fonctions existent déjà mais elles font appel à des logiciels additionnels (plugins) qui doivent être installés sur le navigateur. Ce système n’est pas sans défaut (compatibilité, mises à jour) et fonctionne moyennement (ralentissements). L’intégration dans le langage du web lui-même ainsi que dans les navigateurs des fonctions 3D va probablement donner un véritable coup d’accélérateur à l’exploitation des images interactives en trois dimensions sur Internet. A moins que cela ne donne mal au coeur aux internautes…
Michel Alberganti
lire le billet
Une bénédiction pour les coeurs solitaires… Alors qu’il est de bon ton de penser que les rencontres en ligne ne sont que des attrape-nigauds, une étude américaine montre que ce mode de mise en relation a dépassé toutes les autres, hormis la bonne vieille rencontre par l’intermédiaire d’amis. La publication destinée à la revue Psychological Science et rendue publique le 6 février 2012 constate que “chaque année, des millions de personnes à la recherche de relations utilisent ces sites [de rencontre en ligne], souvent en payant des sommes substantielles pour cela”.
Pour l’un des auteurs de l’étude, Harry Reis, professeur de psychologie à l’université de Rochester, “la rencontre en ligne est définitivement un nouveau et très utile virage dans les relations”. Un site à l’appellation particulièrement romantique comme PlentyOfFish annonce donner accès à “145 millions de visiteurs par mois”. Pas question de le concurrencer avec les boites de nuit ou les bals de toutes sortes. Les 64 pages de la publication synthétisent plus de 400 études psychologiques et d’intérêt public. Selon l’industrie de la rencontre virtuelle, cette pratique aurait rassemblé 25 millions d’utilisateurs uniques dans le monde pendant le seul mois d’avril 2011. L’étude conclue avec philosophie: “Les relations romantiques peuvent commencer n’importe où”.
Plus de 23% des Américains
Sur la toile, semble-t-il, on ne fait plus tapisserie. Les chercheurs publient une courbe montrant une spectaculaire croissance de la proportion d’Américains déclarant avoir rencontré leur partenaire en ligne. Le pourcentage passe de moins de 1% au début des années 1990, à environ 5% pour la période 1994-1998 et à plus de 23% pour les années 2007-2009, période pendant laquelle le virtuel à dépassé tous les autres entremetteurs à l’exclusion des amis. Ce dernier chiffre concerne les couples hétérosexuels qui se font formés à partir d’un premier contact virtuel. Il passe à 61% pour les couples homosexuels. Des pourcentages qui doivent avoir encore augmenté aujourd’hui, selon les auteurs. Avec des différences significatives de pratiques entre les hommes et les femmes. Selon une étude de 2010 sur 6485 utilisateurs, les premiers auraient vu 3 fois plus de profils que les secondes. Et les hommes seraient plus enclins à amorcer un contact avec une femme après avoir vu un profil féminin (12,5 contre 9 %).
Sélection opaque
Un mythe tombe, et pas le sens escompté par les sceptiques du virtuel. Les rencontres en ligne ne restent pas éternellement virtuelles. Elles ne concernent donc pas uniquement des personnes mal dans leur peau et incapables de passer de l’écran à la réalité. Pour autant, tout n’est pas rose dans l’univers du “online dating”. En particuliers, les promesses de rencontre de l’âme soeur grâce aux logiciels de sélection des profils sont encore loin d’être tenues. Ainsi les chercheurs n’ont pas trouvé trace de publications dans des revues scientifiques qui expliquent en détail les critères utilisés pour rapprocher les utilisateurs en fonction de leurs affinités. “En fait, les méthodes racoleuses affichées par les sites ont été élaborées en interne avec des techniques de traitement des données considérées comme des secrets de fabrication et, de ce fait, non vérifiables par des tiers”, notent les auteurs.
Productivité imbattable
Malgré cette inconnue de taille qui, probablement, ne recouvre pas une véritable optimisation de la sélection des profils, il semble donc que la rencontre en ligne fonctionne déjà avec une efficacité reconnue par les utilisateurs eux-mêmes. Le témoignage de l’un d’entre eux est sans équivoque: ” Où peut-on aller, en dehors des sites de rencontre en ligne, pour voir, en 20 minutes, les profils de 200 femmes célibataires qui cherchent des rencontres? “ Il est clair qu’en terme de productivité, le virtuel est imbattable…
Michel Alberganti
Photo: Don Hankins – Flickr – Licence CC
lire le billet
Derniers commentaires