Faudra-t-il considérer les robots comme des personnes ?

DOMIN : Sulla, laissez Mademoiselle Glory vous regarder un peu.
HELENA : (se lève et tend la main) Ravie de vous rencontrer. Ce doit être très dur pour vous, ici, coupée du reste du monde.
SULLA : Je ne connais pas le reste du monde, Mademoiselle Glory. Je vous en prie, asseyez-vous.
HELENA : (s’assoie) D’où venez-vous ?
SULLA : D’ici, l’usine.
HELENA: Oh, vous êtes née ici.
SULLA : Oui, j’ai été fabriquée ici.
HELENA (Surprise) Comment ?
DOMIN : (riant) Sulla n’est pas une personne, Mademoiselle Glory, elle est un robot.
HELENA : Oh, s’il vous plait, excusez-moi.

Cette scène du début de la célèbre pièce de théâtre R.U.R. de Karel Kapek, écrite en tchèque en 1920 et qui a utilisé pour la première fois le mot robot, illustre parfaitement le problème qui finira, tôt ou tard, par se poser vis à vis de ces machines dont l’aspect et les performances se rapprochent de plus en plus de celles de l’être humain. Il est remarquable que cette question soit apparue dès la première utilisation du mot robot, à une époque où ce qu’il désignait n’existait pas encore. Cela prouve à quel point la projection dans l’avenir des machines conduit tout droit à l’interrogation sur le type de relations qu’elles entretiendront avec l’homme le jour où…

Quand l’autre n’est pas humain

Pour David Gunkel, docteur en philosophie, professeur de communication à l’université d’Illinois du Nord, ce problème de science fiction est en train de devenir rapidement un “fait scientifique”. Sa réflexion sur ce sujet fait l’objet d’un livre intitulé The machine question, perspectives critiques sur l’intelligence artificielle, les robots et l’éthique, publié, en anglais pour l’instant, par The MIT Press le 13 juillet 2012. “Beaucoup d’innovations dans la manière de penser au sujet des machines et de leur considération morale ont été apportées par la science fiction et ce livre fait appel à la fiction pour nous montrer comment nous avons à faire face à ce problème”, explique l’auteur. La question de l’éthique se pose dès lors que l’on traite de responsabilité vis à vis d’autrui. Cet autrui est alors supposé être une personne. David Gunkel souligne que cette pierre angulaire de l’éthique moderne a été significativement contestée, en particulier par les militants de la cause des droits des animaux mais également par ceux qui travaillent à la pointe de la technologie.

“Si nous admettons que les animaux méritent une considération morale, nous devons sérieusement nous interroger sur les machines qui constituent la prochaine étape dans le regard porté sur un autre qui soit non-humain”, déclare David Gunkel. Bien entendu, ce questionnement constitue le fondement du film de Steven Spielberg A.I. Artificial Intelligence (2001) dans lequel un enfant robot est vendu à une famille qui veut remplacer un fils défunt. L’attachement de la mère envers cet enfant parfait révèle l’un des aspects les plus troublants des mécanismes de l’affection chez l’être humain. Son objet n’est pas obligatoirement humain. Les liens entretenus avec les animaux mais aussi les objets comme les automobile, par exemple, le montrent.

Qui est responsable des actions des machines ?

Que se passera-t-il lorsque les machines disposeront à la fois d’une apparence et d’une intelligence qui se rapprochera, voire dépassera, celles des hommes ? C’est la question que traite David Gunkel dans son livre. Elle devrait faire couler beaucoup d’encre avant que nous trouvions la clef de cette nouvelle relation. L’auteur souligne le cas des interactions en ligne avec des machines et celui, de plus en plus fréquent, des relations entre elles. “Les machines ont pris le contrôle. C’est arrivé”, estime-t-il.

Les problèmes posés par la place de plus en plus importante et stratégique des machines ne se résument pas aux questions psychologiques. Lorsqu’elles deviennent capables d’innover par elles-mêmes et de devenir plus intelligentes, qui est responsable de leurs actions ? Leur fabricant, leur concepteur ? Mais si des machines fabriquent d’autres machines ? “On pourrait considérer l’informaticien qui a écrit le programme initial comme un parent qui n’est plus responsable des décisions et des innovations de machines qu’il a conçues“, déclare David Gunkel.

Code de robot-éthique

Certains gouvernements commencent à statuer sur ces questions comme la Corée du Sud qui a créé un code éthique afin d’éviter que les humains n’abusent les robots et vice-versa. Le Japon travaille sur un code de comportement des robots destiné, en particulier, à ceux qui sont employés par des personnes âgées.

Pour David Gunkel, il est nécessaire de susciter le débat sur ces questions dans la communauté des ingénieurs qui fabriquent ces machines et qui ne sont pas préparés aux interrogations éthiques. Le but de son livre est de contribuer à l’émergence de telles discussions. “Il s’agit de relier les points des différentes disciplines et d’amener les scientifiques et les ingénieurs à parler aux philosophes qui peuvent apporter 2500 ans de réflexions éthiques pour les aider à traiter les problèmes posés par les nouvelles technologies”. Difficile de refuser cette main tendue…

Et vous ? Qu’en pensez-vous ? Faudra-t-il, un jour, considérer les robots comme une catégorie particulière de personnes ?

Michel Alberganti

lire le billet

Batteries lithium-air : 1000 km d’autonomie en voiture électrique ?

L’autonomie reste le talon d’Achille des voitures électriques. Même si les derniers modèles ont atteint ou dépassé les 100 km, rares sont ceux qui vont au delà de 300 km, en dehors de la Tesla Model S (plus de 400 km quand il ne fait pas trop froid) qui coûte près de 50 000 €. La bataille du stockage de l’électricité continue donc à faire rage. Au point de pousser certains à rêver de routes capables d’alimenter les voitures en énergie comme les rails ou les caténaires des chemins de fer… Solution improbable étant donné l’investissement dans l’infrastructure. Ce dont la voiture électrique a besoin, c’est donc bien de batteries qui permettent de sortir des villes, de partir en week end ou en vacances sans avoir l’oeil rivé sur la jauge.

Un facteur 10

Tout semble se jouer sur la découverte du couple miracle qui permettra de stocker assez d’énergie électrique pour que l’autonomie verte rattrape celle de l’essence ou du diesel. Pour ce faire, il faut sans doute se rapprocher des 1000 km, le seuil du véritable confort. Soit un facteur 5 à 10 par rapport aux performances moyennes actuelles. Eh bien,  c’est justement ce que promet le nouveau couple à la mode, le lithium-air, qui prétend détrôner le lithium-ion. Dix fois plus d’énergie stockée, c’est assez pour atteindre et dépasser les 1000 km d’autonomie.

Néanmoins, ces batteries avaient, jusqu’à présent, le désagréable défaut de ne pas supporter la succession des cycles de charge et décharge qui est pourtant le destin de toute batterie qui se respecte. La lithium-air, elle, ne restait pas stable et se dégradait rapidement. Pendant la décharge, les électrons de l’anode en lithium sont arrachés et flottent dans l’électrolyte, une solution conductrice, vers la cathode en carbone. Là, ils s’associent aux atomes de la cathode et à ceux de l’oxygène de l’air pour produire de l’oxyde de lithium. Lorsque la batterie est branchée sur une prise de courant, l’électricité reçue engendre la réaction inverse. Pour que tout cela fonctionne, chacun des acteurs, électrodes et électrolyte, doivent rester stables. Or, ce n’était pas le cas jusqu’à présent en raison de réactions chimiques indésirables qui perturbaient le cycle et dégradaient rapidement les composants de la batterie.

Nanoparticules d’or

En Angleterre, à l’université de St Andrews, l’équipe de Peter Bruce semble avoir trouver une parade. Elle a remplacé le carbone de la cathode par des nanoparticules inertes d’or. L’électrolyte en composés de polycarbonates ou de polyester a également été troqué pour une solution de solvant conducteur (DMSO pour les spécialistes). Et la nouvelle distribution des rôles semble fonctionner, selon l’étude publiée par Peter Bruce dans la revue Science du 19 juillet 2012.

Au bout de 100 cycles de charge et décharge, la nouvelle lithium-air ne perd que 5% de sa puissance. Ce résultat prouve que ce type de batterie peut fonctionner correctement. A un détail près: la recours à l’or est, bien entendu, beaucoup trop onéreux pour permettre une commercialisation. De même, il semble que le DMSO pose quelques problèmes de réactions avec le lithium de l’anode… Au delà de la démonstration de faisabilité de Peter Bruce, il reste donc pas mal de pain sur la planche.

IBM dans la course

La véritable percée viendra peut-être d’IBM dont le projet Battery 500 lancé en 2009 vise justement à réaliser une batterie automobile lithium-air capable d’atteindre les 500 miles d’autonomie, soit environ 800 km. Les chercheurs visent une commercialisation entre 2020 et 2030… Encore un peu de patience, donc, pour que l’autonomie de la voiture électrique puisse vraiment rivaliser avec celle de l’automobile thermique.

Michel Alberganti

lire le billet

La voiture qui évite les accidents


Nous sommes en pleines vacances d’été et des millions d’automobilistes parcourent les routes de France et de Navarre, voire au delà. Les voitures sont pleines d’enfants et de bagages. A tout moment, le conducteur, distrait ou fatigué, peut faire une erreur de conduite. Un mauvais geste, un réflexe tardif et c’est la catastrophe. On peut se demander pourquoi, dans une société tout aussi automatisée que portée sur la sécurité, de tels risques subsistent. On peut aussi noter le coté très low-tech des solutions prônées par les associations militant pour la sécurité routière et souvent suivies par les autorités: ceintures de sécurité, air-bags, limitations de vitesse, contrôles radar, éthylotests… Sans parler des ralentisseurs ou des systèmes de sécurité passive des carrosseries qui se déforment pour absorber une partie de l’énergie du choc lors d’un accident.

Vers la fin du plaisir de conduire ?

La sécurité routière semble ainsi fondée sur un seul principe: limiter les conséquences des accidents. C’est à dire réduire le nombre de morts sur la route. Objectif éminemment louable mais qui est obtenu à grand prix. D’abord celui des contrôles (plus de radars, plus de policiers), ensuite celui du plaisir de conduire. On peut considérer que ce dernier baisse proportionnellement à la réduction du nombre de morts… A l’avenir, les mesures anti-accidents pourraient bien achever le petit reste de ce plaisir avec des systèmes d’automatisation plus ou moins totale de la conduite. Au delà des régulateurs ou limiteurs de vitesse, ce qui guette les conducteurs n’est autre que, par exemple, la conduite en convoi (la voiture “s’accroche” grâce à des capteurs de distance à celle qui la précède).

Copilote électronique

Cette perspective peu réjouissante pour ceux qui aiment encore tourner un volant et appuyer sur des pédales confère tout leur intérêt aux travaux du groupe de mobilité robotique du Massachusetts Institute of Technology (MIT) de Cambridge. Les chercheurs conçoivent en effet un système dont l’objectif est d’éviter les accidents sans contraindre le conducteur. Pour Sterling Anderson, doctorant du département d’ingénierie mécanique du MIT, il s’agit d’un véritable “copilote” électronique. A l’aide d’une caméra et d’un radar embarqués, le système est capable d’analyser à la fois les fautes de conduite et les risques de collision. Dans les deux cas, il prend le contrôle de la voiture pour éviter l’accident. Le reste du temps, il ne se manifeste pas, laissant au conducteur toute sa liberté. Le rêve, non?

Michel Alberganti

lire le billet

Surveillance: record de plaintes à la CNIL

Faudrait savoir… D’un coté, les Français plébiscitent les systèmes de surveillance. Caméras, fichiers, cybersurveillance, tout semble bon pour rassurer la population qui n’a rien à se reprocher. D’un autre coté, les Français se plaignent de plus en plus à la CNIL de cette même surveillance. Surtout des abus, bien sûr. Mais qui a dit qu’il n’y aurait pas d’abus ? Quel système n’a pas de failles ? Quel pouvoir n’est pas exploité au delà des limites établies ? Il faut savoir ce que l’on veut…

5738 plaintes en 2011 (+19%)

Ainsi, le bilan 2011 de la CNIL, publié le 10 juillet 2012, affiche 5738 plaintes enregistrées en 2011, un chiffre en hausse de 19% par rapport à 2010. La Commission a réalisé 385 contrôles (+ 25% par rapport à 2010). On note que les contrôles représentent 6,7% du nombre de plaintes, ce qui ne paraît pas considérable. Ou bien les plaintes sont sans objet et il n’est pas nécessaire de publier leur nombre. Ou bien la CNIL est totalement dépassée par la vague de ces plaintes. Ceci malgré un accroissement notable de son activité puisqu’elle a adopté 1969 décisions (+ 25,5%) en 2011. Cette montée en puissance ne peut être entièrement attribuée au remplacement d’Alex Türk par Isabelle Falque-Pierrotin à la tête de la CNIL, car il n’a été effectué qu’en septembre 2011. On ne peut néanmoins que se féliciter de ce rajeunissement de la présidence de la CNIL. Alex Türk, sénateur du Nord, a préféré sa réélection en septembre 2011 au Sénat à la poursuite de son mandat de président de la CNIL, position qu’il occupait depuis 2004 et dans laquelle il s’est illustré en prenant parti en faveur de toutes les lois augmentant le contrôle des citoyens (Hadopi en 2009, LOOPSI2 en 2011).

Les fuites des ressources humaines

Revenons au bilan 2011 de la CNIL qui donne quelques indications sur l’évolution de la nature des plaintes que la Commission reçoit de plus en plus via Internet. Or, le réseau est également la source de nombreux recours. Ainsi, 1000 plaintes (+42%) sont liées aux manquements en matières de “droit à l’oubli” sur le web (absence de suppression de textes, photographies ou vidéos en ligne). Instructifs aussi, les recours liés à la gestion des ressources humaines dans les entreprises. Ils représentent 12% des plaintes, soit 670 en 2011, dont la moitié concerne directement la surveillance des salariés. Avec une palme à la cybersurveillance considérée comme abusive (plaintes en hausse de 59%) en matière de contrôle de l’utilisation des systèmes informatiques et de la messagerie électronique. Plus étonnante, la sécurité des données des ressources humaines ne semble guère étanche. Les plaintes la concernant augmentent de 27% et mettent en cause la divulgation aux collègues ou sur Internet d’informations sensibles telles que le numéro de sécurité sociale, les revenus ou les coordonnées personnelles des salariés.

Les lacunes de la vidéosurveillance

La CNIL a également fort à faire avec les dispositifs de vidéosurveillance dans les lieux non-ouverts au public mais également, depuis la loi LOOPSI2 qui étend sa compétence, dans les lieux publics. On apprend incidemment que 950 000 dispositifs sont ainsi concernés en France. Soit plus de 5 dispositifs au km2 dans les aires urbaines de la France métropolitaine… La CNIL en a contrôlé 150 en 2011 et déjà 80 en 2012. Elle déduit de ces actions :

“Ces différents contrôles ont révélé des lacunes ou des manquements :

  • une nécessaire clarification du régime juridique ;
  • une information des personnes insuffisante ou inexistante ;
  • une mauvaise orientation des caméras ;
  • des mesures de sécurité insuffisantes.”

Forte de ce constat, la Commission déclare qu’elle “accompagne  les professionnels et les particuliers pour que ces dispositifs soient plus respectueux de la vie privée”. Nul doute qu’elle parviendra à des résultats significatifs grâce au contrôle de moins de 1 système sur 6000 chaque année…

Un symbole, au risque de la caution…

La bonne volonté de la CNIL en  matière de protection des libertés individuelles ne peut donc pas pallier les limites de ses moyens. Plus le nombre de systèmes de surveillance augmente, plus cette faiblesse rend symbolique l’action de la Commission. Certes, mieux vaut que ce symbole existe. Sauf s’il laisse croire qu’il assure  un véritable contrôle de l’application des lois régissant les systèmes de surveillance sur le territoire français. Dans ce cas, il deviendrait ce que certains lui reprochent depuis longtemps: un alibi cautionnant le développement anarchique de la surveillance des citoyens.

Michel Alberganti

lire le billet

D’ici 5 ans, des photos gigapixels

Ceux qui ont vécu la progression des capteurs électroniques utilisés dans les appareils photo numériques (APN) et les caméscopes ne connaissent désormais plus qu’une unité: le mégapixel. Qui se souvient encore du Mavica lancé par Sony, le tout premier APN avec ses 280 000 pixels ? Ou du Xapshot de Canon (1989) ? Ou encore du QuickTake d’Apple (1994) et ses 300 000 pixels ? Il faut attendre 1999 pour que les professionnels puissent acquérir un APN dépassant le million de pixels, le Nikon D1 avec 2,7 mégapixels. Les années 2000 seront celles de la course aux mégapixels avec des résultats mitigés, tant le nombre de pixels ne doit pas faire oublié leur qualité. Or, plus les pixels sont petits, moins ils captent de lumière. Des millions de pixels sur un capteur minuscule donne ainsi des résultats inférieurs à un nombre de pixels inférieur sur un grand capteur. D’où la nouvelle course, engagée depuis quelques années, celle de la taille des capteurs avec, comme objectif, le fameux format 24×36 mm de la bonne vieille pellicule argentique. Se profile aujourd’hui, la perspective de la généralisation d’appareils munis d’un tel capteur, dit “plein format”, dotés de 30 à 40 mégapixels contre moins de 20 aujourd’hui à de rares exceptions comme le récent Nikon D800 avec ses 36,3 mégapixels vendu à près de 3000 euros nu.

Tout cela pour préciser le contexte dans lequel arrive la publication, dans la revue Nature du 20 juin 2012, d’un article publié par des ingénieurs de l’université Duke et de l’université d’Arizona. En synchronisant 98 micro appareils photo, ils sont parvenus à obtenir des images de 50 gigapixels, soit 50 0000 mégapixels… Avec une définition 1000 fois supérieure à celle des meilleurs appareils actuels, les chercheurs multiplient par 5 la résolution des meilleurs yeux humains. Cela sur un champ de vision de 120° (contre 220° pour l”homme).

David Brady, qui dirige l’équipe, explique que “chacune des micro appareils photo capture les informations provenant d’une partie de la scène tandis qu’un ordinateur réalise la fusion de ces images en une seule image de très haute définition. Dans ce nombreux cas, l’appareil peut capter des détails que le photographe ne voit pas à l’œil nu et qu’il découvre ensuite en regardant l’image”. D’après lui, même s’il faudra développer des optiques spéciales, le problème principal viendra de la maîtrise de la consommation électrique et de la miniaturisation des circuits électroniques.

Le logiciel d’assemblage des différentes images a été réalisé par Michael Gehm, professeur assistant d’électricité et d’informatique à l’université d’Arizona. “Notre approche actuelle, au lieu de créer des optiques de plus en plus complexes, est d’utiliser des réseaux d’éléments électroniques massivement parallèles. Un objectif partagé capte la lumière et la répartit sur les micro caméras, exactement comme une réseau informatique gère les données destinées à différentes stations de travail. Chacune de ces dernières ne voit qu’une petite partie du problème à traiter . Pour l’image, nous prévoyons des parties de recouvrement qui permettent de ne pas perdre d’information”, indique-t-il.

L’appareil prototype mesure 50 cm de profondeur dont 3% seulement sont affectés à l’optique. Le reste est occupé par l’électronique qui se charge d’assembler les différentes parties de l’image. David Brady précise que la taille actuelle est liée à celle des cartes électroniques de contrôle et à la nécessité de les refroidir. “Lorsque des composants électroniques plus compacts et plus efficaces seront disponibles, l’ère de la photographie gigapixel s’ouvrira”, affirme-t-il. Les chercheurs estiment ainsi que, d’ici 5 ans, la miniaturisation des composants électroniques permettra de proposer des appareils photos gigapixel  au grand public.

Michel Alberganti

lire le billet

Tee-shirts intelligents en graphène ?

Une représentation du graphène

Son nom ne vous dit peut-être rien. Pourtant, d’ici quelques années, il pourrait devenir aussi célèbre que le plastique ou le silicium. Il s’agit du graphène. On discerne une parenté avec le graphite et on a raison. Il s’agit d’un matériau absolument révolutionnaire, un cristal constitué par une seule couche d’atomes de carbone. Oui, vous avez bien lu. Une seule couche d’atomes, ce qui en fait le matériau le plus fin possible. On exprime aussi cette finesse ultime en parlant de premier matériau en deux dimensions (2D). Cela peut paraître abusif mais, bon, une hauteur d’un seul atome, soit environ 0,14 nanomètre (10-9 m), ce n’est vraiment pas grand chose.

Un sandwich très conducteur

Les caractéristiques du graphène sont extrêmement nombreuses et toutes plus extraordinaires les unes que les autres. Dernière en date à être exploitée, au stade du laboratoire pour l’instant, sa conductivité. Si elle est bonne, deux chercheurs de l’université d’Exeter ont trouvé le moyen de l’améliorer encore. Monica Craciun et Saverio Russo ont mis au point un sandwich composé de deux couches de graphène entre lesquelles ils ont inserré une couche de molécules de chlorure de fer. Le résultat, baptisé GraphExeter est une alternative à l’oxyde d’indium-étain, matériau conducteur très utilisé en électronique mais qui devient fort coûteux à cause de sa raréfaction. Son approvisionnement pourrait de tarir en 2017. En prime, le GraphExeter est… transparent et flexible.

Electronique “portable”

Le GraphExeter pourrait ainsi servir dans une multitude d’application: des panneaux solaires dont ils pourraient augmenter l’efficacité de 30% à l’électronique “portable” (wearable, en anglais) au sens où elle pourrait s’intégrer aux vêtements. Demain, la grande mode sera peut-être le tee-shirt intelligent qui affiche des messages ou l’heure… Ou qui intègre un ordinateur, des écouteurs et des lecteurs MP3. Le portable qui devient vraiment portable et libère les poches… Déjà, les scientifiques de l’université d’Exeter ont mis au point une version du GraphExeter qui peut se pulvériser sur des tissus, des miroirs ou des vitres. Ainsi, le graphène pourrait changer notre vie. Au moins celle des geeks…

Michel Alberganti

lire le billet

Pourquoi Instagram le vaut bien

 

Image originale

Filtre XPro

Filtre Toaster

Filtre Kelvin

Tout a été dit sur le rachat d’Instagram par Facebook pour un milliard de dollars. Tout sauf que cette application fait partie de ces coups de génie qui jalonnent l’histoire récente d’Internet et celle, encore plus récente, des nouvelles fonctions des téléphones mobiles. Que ce petit programme (13 mégaoctets tout de même, ce qui en fait un poids lourd dans l’univers des logiciels pour mobile) justifie un tel investissement de la part de Facebook, l’avenir le dira. Le montant de l’achat doit néanmoins être jugé sur ce qu’il représente réellement pour une entreprise qui vaut aujourd’hui en 75 et 100 milliards de dollars, deux fois plus qu’il y a un an, et qui a réalisé 1 milliard de dollars de bénéfices sur son dernier exercice, après seulement 8 ans d’existence. Instagram lui a donc coûté une année de profits. Si cet investissement est donc loin de représenter un sacrifice dangereux pour Facebook. Il reste qu’il n’est pas négligeable, au moins en valeur absolue.

Le service

Pour comprendre ce qui a séduit à ce point l’entreprise créée en 2004 par Mark Zuckerberg, il suffit d’utiliser Instagram. L’installation sur un mobile prend quelques minutes à peine. Dès la première utilisation, plusieurs caractéristiques sautent aux yeux :

  1. La simplicité
    Une idée, une application minimaliste. Elle s’installe toute seule et fonctionne aussitôt avec une remarquable économie de moyens et de fioritures. Les créateurs d’Instagram sont restés concentrés sur leur unique objectif : améliorer les photos prises par un téléphone mobile avant de les partager.
  2. L’efficacité
    La photo prise sur l’instant ou sélectionnée dans la galerie d’images de l’appareil est recadrée sous la forme d’un carré que l’on peut déplacer et ajusté, l’exposition peut être corrigée à l’ide d’un unique réglage et, surtout, on peut lui appliquer 17 filtres différents qui donnent à une photo banale un aspect nettement plus professionnel.
  3. Le partage
    Aussitôt traitée, l’image peut être envoyée sur le compte Twitter, Facebook, Foursquare ou Tumblr de l’utilisateur. Ou expédiée par mail depuis le téléphone. L’un des 5 onglets de l’application donne accès aux photos les plus populaires du moment que l’on peut commenter et liker. Tout cela fonctionne tout seul. Sans besoin d’explications.

Bon… Et alors ? Pas de quoi grimper au rideau ni jeter son Nikon dernier cri par la fenêtre. Oui et non. Oui parce que la limite d’Instagram réside, justement, dans ses limites. Celles de son minimalisme qui ne cherche pas, loin de là, à tuer les appareils photos ni les logiciels de retouche, de classement et de partage en ligne comme Picasa, racheté par Google en 2004. Non, parce que, justement, ce sont ces limites qui lui donnent sa simplicité et son efficacité. Et sa parfaite adaptation à sa cible : la photo mobile.

Mettre Photoshop dans un mobile

On pourrait imaginer ceux qui ont lancé Instagram à San Francisco en octobre 2010, Kevin Systrom and Mike Krieger, devant leur écran d’ordinateur en train de traiter des photos avec Photoshop. Soudain, une idée vient à l’un d’entre eux : Et si l’on pouvait photoshoper les images prises par un téléphone mobile ? La proposition aurait pu paraître stupide. Elle aurait dû, en toute logique et pour rester raisonnable. Mais c’est sans doute ainsi que naissent les idées de génie. En ne cédant pas à la raison, ni à la logique. C’est tout le pari d’Instagram : faire entrer l’un des plus gros et des plus coûteux logiciels existant aujourd’hui dans le monde des professionnels de l’image et des amateurs avertis… dans un téléphone mobile.

Pour réaliser un tel exploit, il fallait extraire de Photoshop sa quintessence, sa moelle, son principe actif.  Kevin Systrom and Mike Krieger ont identifié cet extrait essentiel : les filtres. De quoi s’agit-il ? Dans la plupart des logiciels de retouche d’images, en particulier sur Photoshop, l’une des fonctions les plus spectaculaires est sans conteste la transformation profonde d’une photo en une seule opération. De nombreux filtres, en particulier les plus simples, ne sont en fait qu’un assemblage de réglages agissant sur la luminosité, le contraste et la couleur. Les filtres plus sophistiqués, souvent qualifiés d’esthétiques, proposent des transformations plus complexes permettant, par exemple, de donner à une photo l’apparence d’un tableau réalisé au couteau ou à l’aquarelle. Mais avec les seules trois actions de base, une même image peut prendre une infinité d’aspects différents.

Une photo personnalisée

Les exemples en haut de page donnent une idée des modifications de l’image offertes par Instagram. La photo originale banale et plate prend un tout autre caractère. L’utilisateur peut ainsi créer une ambiance particulière qui reflète le climat dans lequel il souhaite inscrire son image. Il personnalise sa photo tout en améliorant sensiblement le rendu grâce au contracte et à la saturation des couleurs.

Le miracle du succès d’Instagram est là. En quelques pressions sur l’écran du téléphone mobile, une photo ordinaire se transforme en une image originale avant d’être partagée, tout aussi simplement, sur un réseau social ou par mail. Nombre d’observateurs considèrent que la valeur un tel service est extrêmement faible quand il ne le juge pas totalement inutile. Trop simple, trop limité, trop gratuit…

Bien entendu, l’explosion du nombre d’utilisateurs d’Instagram, qui se comptent désormais en dizaines de millions, suffit à invalider une telle appréciation. Mais il est possible de considérer également que cette critique révèle une approche profondément erronée des phénomènes à l’œuvre sur Internet et la téléphonie mobile. Aucun des grands succès récents n’a été prévu par les spécialistes et les grandes entreprises du marché. Ni les sms, ni Google, ni Facebook, ni Tweeter. Ni même Amazon et eBay à leurs débuts. Dans chacun de ces cas de success stories plus ou moins foudroyantes,  ce sont de nouveaux arrivants, un ou deux jeunes, ou les utilisateurs eux-mêmes comme pour les sms, qui ont, seuls et souvent contre tous, imposé leur idée.

Les raisons du succès

Un tel phénomène peut trouver un début d’explication avec ces trois points communs :

  1. La simplicité de l’idée
    Encore une fois, cette caractéristique arrive première. Chacun des services qui ont explosé peut de décrire en quelques mots : échanger de courts messages écrits par téléphone (sms, Twitter) ; rendre pertinente la recherche sur Internet, acheter des livres en ligne, vendre des objets sur la Toile, communiquer avec des amis et en découvrir d’autres, améliorer les photos prises avec un téléphone mobile et les partager. Pas d’usines à gaz. Pas de concepts obscurs et complexes. L’idée se comprend en même temps qu’elle s’exprime.
  2. La gratuité du service
    Eh oui, tous ces services sont gratuits ou le sont devenus (sms). Et pourtant, l’unité de compte des entreprises qui les ont lancés est aujourd’hui le milliard de dollars (valeur, chiffre d’affaires, bénéfice…). Même sans chiffre d’affaires d’ailleurs, comme dans le cas d’Instagram. C’est dire si les modèles classiques sont bouleversés. L’économie de ces services est souvent reportée dans le temps et indirecte. Ce ne sont plus les utilisateurs qui payent, ou qui ont la sensation de payer. D’où leur nombre, qui se compte en dizaines ou en centaines de millions et qui fonde la valeur de l’entreprise.
  3. L’ergonomie du système
    Non seulement simple et gratuit, le service doit pousser l’ergonomie à ses limites. Pas de mode d’emploi. Des codes d’utilisation intuitifs. Un fonctionnement efficace, rapide, sans faille. Peu de mots pour décrire des propriétés que nombre de services complexes ne sont pas en mesure de fournir. L’ergonomie n’est pas une qualité secondaire ni accessoire. Elle est première, essentielle, vitale.

La valeur d’Instagram doit sans doute s’évaluer à l’aune de ses qualités. Le service répond précisément aux trois critères ci-dessus. Un milliard de dollar ? Pourquoi pas. Facebook semble très bien placé pour mesurer le potentiel d’une application validée par le public et qui lui permet d’entrer dans l’univers du téléphone qui n’est pas son écosystème initial. Demain, nous instagramerons peut-être nos photos mobiles aussi instinctivement que nous twittons. Ou pas, si une idée simple, gratuite, ergonomique et, peut-être, plus performante vient détrôner Instagram. Mais gageons que Facebook fera tout pour l’éviter.

Michel Alberganti

 

lire le billet

US Army: Robots wanted !

Les robots imaginés par la Darpa au travail

Après avoir abandonné son fameux projet de Guerre des étoiles, avec ses satellites destructeurs de missiles par laser, l’armée américaine semble miser sur les robots humanoïdes. Pas pour faire la guerre comme dans le film Star Wars avec ses armées de droïdes séparatistes. Le concours lancé le 10 avril 2012 par la Darpa affiche un objectif plus pacifique :

“Développer les capacités de la robotique terrestre pour exécuter des tâches complexes dans des environnements conçus par l’homme, dangereux et dégradés”.

La Darpa n’est autre que l’agence américaine qui développe les nouvelles technologies destinées à l’armée. La signification de l’acronyme est d’ailleurs très explicite: Defense Advanced Research Projects Agency. Avec ses 240 personnes, l’agence dispose d’un budget de plus de 3 milliards de dollars. Elle s’est illustrée dans le passé, lorsqu’elle s’appelait encore Arpa, avec le développement de l’ancêtre d’Internet, le réseau Arpanet. Sous la tutelle du ministère de la défense (DOD) américain depuis 1972, elle est devenue l’un des principaux pourvoyeurs de fonds de la recherche américaine, des travaux liés à la guerre bactériologique jusqu’aux techniques d’enseignement assisté par ordinateur en passant par les drones, le contrôle des machines par le cerveau et la robotique. Dans ce domaine, elle a lancé en 2004 un Grand Challenge doté de 2 millions de dollars pour stimuler la recherche en matière de véhicules sans conducteur tout terrain afin que l’armée américaine dispose d’un tel engin d’ici 2015.

2 millions de dollars

Le nouveau Robotics Challenge de la Darpa s’inscrit donc dans ce type particulier d’appel à contribution ouvert à tous. L’agence offre pas moins de 2 millions de dollars à “quiconque pourra aider à faire avancer l’état de l’art de la robotique au delà de ses capacités actuelles en matière de support à la mission de secours du DOD en cas de désastre”, précise-t-elle. L’originalité du concours réside en grande partie dans son ouverture à des candidatures extérieure au monde des spécialistes. La Darpa insiste lorsque précise sa position dans ce domaine: “Réaliser de véritables innovations en robotique, et donc remporter de challenge, imposera la contribution de communautés qui dépassent celle des développeurs traditionnels de robots”. La Darpa subventionne déjà les entreprises spécialisées. Sans rencontrer le succès escompté, semble-t-il. D’où ce recours à “tout le monde” qui peut permettre de débusquer un petit génie installé dans une université ou dans son garage. Il faudra bien cela pour respecter le cahier des charges très précis imposé par la Darpa.

8 tâches à accomplir

Ce cahier des charges ne va pas jusqu’aux trois lois de la robotique d’Asimov, mais il ne définit pas moins de 8 aptitudes imposées :

  1. Conduire un véhicule utilitaire sur le site
  2. Marcher à pied dans les décombres
  3. Déplacer les débris obstruant une entrée
  4. Ouvrir une porte et entrer dans un immeuble
  5. Grimper à une échelle industrielle et franchir une passerelle
  6. Utiliser un outil pour détruire un pan de béton (image de droite ci-dessus)
  7. Localiser et fermer une vanne près d’une fuite sur un tuyau (image du haut)
  8. Remplacer un composant tel qu’une pompe de refroidissement

Centrales nucléaires

Rien de vraiment militaire dans un tel programme. On pense plutôt à l’intervention dans une centrale nucléaire détruite. Justement, la Darpa cite nommément le drame de Fukushima lors duquel elle estime que “les robots ont joué un rôle de support pour minimiser les émissions radioactives”.  En fait, les Japonais ne disposaient pas de robots adaptés, justement, à l’intervention dans un bâtiment encombré de gravats et dans un environnement très fortement radioactif qui impose une électronique spécifique. Et c’est une entreprise américaine, iRobot, fabriquant également de l’aspirateur autonome Rumba, qui est venue à la rescousse.

Au delà des capacités actuelles

“Le travail réalisé par la communauté robotique mondiale, qui a amené les robots au point d’être capables de sauver des vies et d’améliorer l’efficacité des interventions, nous a conduit en envisager d’autres aptitudes”, explique Gill Pratt, le directeur de ce programme à la Darpa. Le Robotics Challenge va permettre de tester des avancées en matière d’autonomie supervisée en perception et en prise de décision, de capacité de déplacement à pied ou en véhicule, de dextérité, de force et d’endurance dans un environnement détruit par une catastrophe auquel le robot devra pouvoir s’adapter quel que soit le type de désastre, par essence imprévisible. On comprend ainsi le choix de la Darpa visiblement en faveur de robots humanoïdes. Les nouveaux ouvriers robotiques n’interviendront pas, comme leurs homologues industriels, dans une usine conçus pour eux. Ils devront se substituer le plus possible aux hommes qui seront, eux-aussi, à l’oeuvre. Pour cela, il leur faudra utiliser les mêmes outils et les mêmes véhicules. Cette robotique de substitution se révèle relativement nouvelle. Jusqu’à présent, les robots d’intervention tenaient plutôt de R2-D2. Il va leur falloir se rapprocher de C-3PO

C’est la voie dans laquelle s’est déjà engagée la firme Boston Dynamics, issue du MIT, avec son robot Petman. Le voir évoluer, même sans tête, commence à donner ce petit frisson caractéristique des humanoïdes lorsqu’ils se meuvent d’une façon proche de la notre.

Michel Alberganti

 

lire le billet

Pour nous pister, le jeux gratuits épuisent nos téléphones mobiles

Le jeu gratuit Angry Birds

La gratuité se présente souvent masquée. En ce qui concerne les jeux sur téléphones mobiles téléchargés par millions par les utilisateurs de smartphones, elle peut dissimuler un espionnage qui consomme à lui seul jusqu’à 75% de la charge de la batterie dédiée à ces applications. En effet, ces dernières communiquent en permanence des informations sur l’utilisateur à des annonceurs, en particulier sa géolocalisation fort coûteuse en  énergie. Tel est le résultat de l’étude effectuée par un professeur en électricité et en informatique de l’université de Purdue, Charlie Hu. “Il apparaît que ces applications gratuites ne le sont pas vraiment car elle induisent un coût caché: la réduction de l’autonomie de la batterie”, affirme-t-il. “Nous avons réalisé une analyse en profondeur, la première du genre, sur 6 applications populaires sur les smartphones comprenant le jeu Angry Birds, Facebook et le navigateur sous Android”, précise Abhinav Pathak, un doctorant travaillant avec Charlie Hu. Résultat: de 65% à 75% de l’énergie utilisée par ces applications n’est pas exploitée pour les faire fonctionner mais pour assurer des services publicitaires. Le “module commercial” d’Angry Birds absorbe ainsi 75% de l’énergie consommée par le jeu. Les 25% restants servent au jeu lui-même. “Nous pensons qu’il s’agit essentiellement de fournir aux annonceurs des informations sur la localisation géographique des utilisateurs afin que les publicités qui lui sont adressées soient précisément adaptées au lieu où ils se trouvent”, indique Charlie Hu. Autrement dit, si vous jouez à Angry Birds à proximité d’un centre commercial, d’un magasin ou d’un restaurant, vous recevrez de la publicité pour les commerçants les plus proches de vous. Le principe de l’affichage adapté au téléphone mobile.

Profilage de la consommation

Pour parvenir à ce résultat, les chercheurs ont mis au point un outil de profilage de la consommation d’énergie des applications de téléphones mobiles baptisé Eprof. “Il existe environ un million d’applications pour smartphone depuis leur apparition, il y a 5 ans environ mais il n’existait pas d’outils pour que les développeurs mesurent la consommation d’énergie de leurs logiciels”, note Abhinav Pathak qui espère que Eprof va permettre d’économiser de l’énergie. La publication des chercheurs montre que cette consommation peut être réduite de 20% à 65%.

 

Pistage mobile

L’équipe des scientifiques, qui comprend également Ming Zhang, chercheur chez Microsoft Research, s’est focalisée sur la question de la consommation d’énergie qui réduit l’autonomie des batteries de téléphones mobiles. La question de la protection de la vie privée, mise à mal par cet espionnage masqué, ne faisait pas partie de leurs préoccupations. Pourtant, leur découverte révèle une tendance lourde. Tandis que la navigation sur Internet fait déjà l’objet d’une pistage méticuleux par des acteurs devenus incontournables comme Google ou Facebook, c’est au tour des téléphones mobiles de devenir des auxiliaires indiscrets des services de marketing.

Michel Alberganti

lire le billet

L’insecte qui vous espionnera…

Micro-robot insecte - Harvard University

Pendant que la crainte des nanotechnologies monte dans l’opinion publique, ce sont les microtechnologies qui semblent bien les plus immédiatement “prometteuses”. Pour la surveillance, entre autres applications. Qui n’a pas rêvé d’être une mouche capable de s’introduire discrètement dans un bâtiment pour se poser sur une vitre afin d’assister à une réunion confidentielle ?

Bientôt, ce fantasme d’espions de science-fiction pourrait devenir une réalité et l’équipement des soldats et autres agents de sécurité ou des services secrets devra alors s’enrichir… d’une tapette ! On sait que la tapette est l’arme la plus écologique pour se débarrasser des mouches trop familières… Si elle n’est pas encore homologuée pour cet usage, elle a ses chances face à ce que préparent plusieurs laboratoires dans le monde, en particulier aux Japon et aux Etats-Unis.

Recon Scout XT Robot - ReconRobotics

1100 robots rampants pour l’armée

Déjà utilisés sur le terrain, les mini et micro-robots sont des produits commerciaux. L’armée américaine a ainsi passé, le 16 février 2012, une commande de 13,9 millions de dollars à la firme Recon Robotics pour l’acquisition de 1100 robots télécommandés Scout XT. L’entreprise déclare en avoir vendu, auparavant, des centaines à des agences de la police et à des sociétés de surveillance de bâtiments. Chaque robot pèse un peu plus de 500 grammes et possède une résistance remarquable aux chocs. Il peut ainsi être projeté à une distance de 30 mètres et supporter des chutes répétées d’une hauteur de près de 10 mètres sur un sol en béton. Bien entendu, ces gros insectes qui ne ressemblent pas à grand chose de vivant sont équipés de caméras permettant à leurs utilisateurs de voir à l’intérieur des locaux, même la nuit, dans lesquels ils sont jetés, un peu comme des grenades. Dans ce cas, la tapette risque fort d’être insuffisante… De même que l’eau, car le Recon Scout est étanche. Pour s’en débarrasser, le recours au talon reste à tester. Mais ce n’est pas gagné… (Voir la vidéo de démonstration)

Poids plume

Le Mobee avant et après son montage par dépliage - Harvard University

Ces premiers robots insectes rampants d’espionnage feront sans doute d’ici peu figure d’ancêtres mal dégrossis. Les modèles à ailes battantes semblent en mesure de leur voler la vedette. D’autant qu’il ne s’agit déjà plus de mettre au point un prototype en laboratoire mais bien d’industrialiser leur fabrication. De fait, plus la taille des micro-robots diminue, plus l’assemblage des pièces qui les constituent pose problème. D’où l’intérêt du travail du laboratoire de micro-robotique de Harvard, à Cambridge (Massachusetts), qui a révélé, le 15 février 2012, une nouvelle technique de production en série de robots abeilles, baptisés Monolithic Bee ou Mobee, dont la plus grande dimension ne dépasse guère les 25 mm pour un poids plume de 90 milligrammes.

Comme dans les livres animés pour enfants

Pour monter de tels robots capables de battre des ailes comme une libellule, il faut résoudre le problème de la manipulation des pièces microscopiques qui les composent. La solution mise au point par les ingénieurs de Harvard est aussi astucieuse que spectaculaire. Elle suprime la manipulation des pièces en les conservant solidaires les unes des autres. Le robot est fabriqué à plat et il se déplie comme les illustrations en trois dimensions utilisées dans les livres animés pour enfants. La conception fait appel à un matériau multicouches composé de fibre de carbone, film plastique (Kapton), titane, laiton et céramique. Au total, 18 couches sont ainsi laminées ensemble pour former une sorte de mille-feuilles extrêmement fin qui est ensuite découpé au laser. Des charnières sont incorporées à cette feuille pour que le montage du robot soit réalisé d’un coup et qu’il atteigne sa taille finale: 2,5 mm de haut… Le processus complet est détaillé dans cette vidéo :

Point faible : l’énergie

Le résultat, une fois le Mobee débarrasser de sa chrysalide, est spectaculaire. Ce mode d’assemblage automatique pourrait conduire à une production de masse ressemblant à celle des microprocesseurs. Des robots ou des machines automatiques pourront les fabriquer à la chaîne. De quoi faire renaître les terreurs vis à vis des “machines” susceptibles d’échapper au contrôle des humains…

Détail du Mobee - Harvard University

On imagine des milliers de ces abeilles robotisées partant à l’assaut des champs de bataille ou des villes à surveiller. Là encore, les bonnes vieilles caméras de surveillance fixes pourraient devenir rapidement obsolètes. Par chance pour elles, et peut-être pour nous, les robots insectes volants n’ont pas que des problèmes d’assemblages à résoudre avant d’envahir la planète. Leur point faible, par rapport à leur modèles vivants, réside essentiellement dans la source d’énergie. Les batteries de quelques milligrammes ne pourront pas leur assurer une bien grande autonomie. Cette difficulté fait passer celle que rencontrent les voitures électriques pour un jeu d’enfant. D’où les recherches dans la direction d’une forme d’alimentation chimique des robots insectes…
Mais, dans ce domaine, on passe encore sans doute, pour l’instant en tous cas, la frontière de la science fiction…

Michel Alberganti

 

lire le billet