Après avoir annoncé au détour d’une interview qu’il comptait ne plus faire référencer ses sites par Google, Rupert Murdoch en serait au stade des négociations avec Microsoft pour être exclusivement référencé par Bing. (Financial Times)
Techcrunch Europe s’énerve de ne pas avoir été cité par le Financial Times alors que le site avait sorti cette info dix jours plus tôt, et voit dans cette attitude le futur de Bing: un moteur de recherche pour «slow news».
La semaine dernière, Murdoch lui-même n’était pas certain que Bing pouvait se permettre de payer les sites d’information.
Cinq mois après son lancement, Bing possède 10% des parts du marché des moteurs de recherche aux Etats-Unis. (Techcrunch U.S)
Google a plus besoin des sites de contenus que les sites de contenus ont besoin de Google, et Murdoch pourrait réussir a faire payer le moteur de recherche. (Silicon Valley insider)
Murdoch ne comprend rien a la logique de liens qui sous-tend Internet. (Jeff Jarvis)
Conseillez-moi des articles ou des sites dans les commentaires, sur Twitter (@sayseal), ou par mail à cecile.dehesdin (@) slate.fr.
lire le billetA la suite de mon article sur les sites d’information hyperlocale qui se lancent actuellement aux Etats-Unis, PEG me reprochait de ne pas avoir parlé de startups comme Outside.in. J’avais laissé de côté ce site — et Everyblock — parce que ce sont des aggrégateurs d’infos hyperlocales, sans rédaction interne, mais les remontrances de PEG ont été entendues: le président d’Outside.in était l’invité de la cinquième leçon d’entrepreunariat des médias menée par Ken Lerer, co-fondateur du Huffington Post.
Steven Johnson a écrit cinq livres dont quatre se concentrent sur la façon dont les nouvelles technologies changent notre cerveau et nos pratiques sociales, a créé FEED et Plastic.com, et fait la une de Time magazine en juin dernier avec un article sur Twitter (il y prédisait que Twitter bouleverserait Google et la recherche en général en y ajoutant le web en temps réel).
En 2005, alors qu’il travaille de chez lui sur un livre, Johnson se rend compte qu’il obtient «beaucoup plus d’informations sur Brooklyn grâce à The Brownstoner que grâce au New York Times», explique-t-il.
Pour satisfaire son appétit, il se met à suivre dix blogs locaux, en sentant que de plus en plus de blogs naissaient, et qu’il allait devenir difficile de tous les lire. Les blogs étaient organisés chronologiquement, du plus récent billet au plus daté, «mais moi je ne voulais pas nécessairement l’article le plus récent, je voulais savoir ce qui se passait le plus près de chez moi».
Au même moment, Google publie l’API des Google Maps, permettant au grand public de créer des mashups, c’est-à-dire à utiliser Google Maps et des données extérieures pour créer de nouveaux objets (que ça soit «Les meilleures bagels de Brooklyn», «Les vols à main armée dans le Bronx», etc).
«Quelqu’un peut désormais organiser tous ces posts de blogs autour d’une application géographique» se dit-il alors. Steven Johnson, qui à l’époque aimait bien sa vie d’écrivain, ne se voyait pas lancer une boîte. Mais alors qu’il mentionne l’idée à un ami, celui-ci s’exclame: «Super! Je te donne 50 000 dollars, fonce.» (Et c’est là qu’on aimerait bien avoir les mêmes amis que Steven Johnson).
Le prototype d’Outside.in a été construit en trois mois pour 25.000 dollars. «Si on avait voulu le faire quatre ou cinq ans plus tôt, ça nous aurait coûté 50 millions de dollars à cause de toute cette application géographique à développer».
La géolocalisation
«Si vous réfléchissez au type de recherches qu’on fait constamment (où est le pressing le plus proche? Que penser des écoles du quartier? etc), on filtre notre environnement géographiquement». Il s’agissait donc de faire d’Outside.in un aggrégateur géographique intelligent.
Outside.in a commencé à l’ancienne: «une armée de hipsters» — jeunes gens branchés aux goûts vestimentaires contestables — assignait manuellement des emplacements aux billets de blogs locaux. Au bout d’un an, l’armée avait compilé une bonne base de données qui reliait des morceaux de textes à des emplacements géographiques.
La start-up s’est ensuite servie d’algorithmes de détection d’emplacements pour que les ordinateurs utilisent ces données récoltées et puissent, de là, faire le reste automatiquement. Le système est en permanence peaufiné pour éliminer les erreurs qui naissent de cet automatisme.
Quelle différence avec les alertes google, a demandé un élève?
lire le billetJeudi soir, Columbia accueillait son forum annuel sur l’évolution des médias, avec un panel impressionnant, modéré par Dean Sree Sreenivasan (mon prof de Twitter): la social media editor du New York Times Jennifer Preston, le PDG de Betaworks John Borthwick, la journaliste techno du Wall Street Journal Julia Angwin, le fondateur de BlogTalkRadio Alan Levy, et l’auteur de Be The Media David Mathison. Vous pouvez suivre la conversation ci-dessous grâce à Cover It Live, et regarder la vidéo grâce à Livestream.
(Photo: Jehangir Irani)
lire le billetAu début de la semaine, les blogueurs américains se sont beaucoup moqués de Rupert Murdoch lorsqu’il a annoncé dans une interview à Sky News qu’il comptait ne plus faire référencer ses sites par Google. Mais un blogueur soutient au contraire que Murdoch a tout compris: il affirme que Twitter dépasse Google dans les endroits où trouver des infos qui viennent de sortir, que Twitter, avec ses 140 caractères, ne représente aucune menace pour les sites d’information, et permet en plus à ces sites de faire parvenir les news directement à ses lecteurs. «Devoir chercher et trouver ses news via des moteurs de recherches, c’est tellement 2008».
Cet épisode était l’introduction parfaite à la quatrième leçon d’entrepreunariat de Ken Lerer du Huffington Post, sur la «social distribution in real time». Il a invité John Borthwick, le PDG de Betaworks, une entreprise qui investit dans des start up de médias sociaux (Twitter, Bit.ly, Tweetdeck, Outside.in, Tumblr), à venir nous parler du «Web en temps réel» et des médias sociaux.
«Nous sommes dans une étape similaire à 1995», affirme John Borthwick, «nous sommes en train de repenser le web». Après les portails puis les moteurs de recherches, il estime que les médias sociaux en temps réel sont les prochains outils dominants du web. «Je ne dis pas que la recherche va disparaître, mais que les médias sociaux viennent s’y ajouter».
Rien de révolutionnaire dans le fait de souligner l’importance de Twitter et Facebook? Pour Borthwick, la page web telle qu’on la connaît est en train de disparaître. «Elle est atomisée et l’info va être représentée à la place par des flots de données». Rappelant les nombreuses métaphores qui peuplent notre utilisation du web («page», «marque-page», «architecture», «navigation»), il estime que «la métaphore de la page nous a amené jusqu’à un certain stade, et maintenant elle se dissout», pour laisser place aux flots.
La lenteur de Google
«Google parcourt les plus gros sites d’infos toutes les trente secondes, les blogs tous les deux ou trois jours, le web toute les trois semaines. Donc vous pouvez trouver un lien super sur Twitter qui vous pointe vers une page quelconque. Si vous faites une recherche, la page n’est pas encore en haut des résultats Google parce que Google ne promet pas l’immédiat mais le long terme, la croissance organique», explique John Borthwick.
Avec l’arrivée de Facebook et surtout de Twitter, qui permettent de répandre l’information immédiatement, la donne change. «On pensait qu’on pouvait tout trouver avec Google, mais depuis que les gens veulent trouver “là, tout de suite”, on se rend compte que ce n’est pas le cas».
Même si John Borthwick ne voit pas les moteurs de recherche disparaître, il croit résolument que les médias sociaux qui distribuent l’info en temps réel vont prendre de plus en plus d’importance.
Et les médias dans tout ça?
lire le billetAlors qu’en France se lancent timidement des sites ou des blogs d’informations locales, aux Etats-Unis, «hyperlocal» est devenu le mot le plus tendance parmi les journalistes web. Là où le blog Gothamist, qui couvre tout New York (Manhattan, Brooklyn, Queens, etc), est local, ces nouveaux venus se concentrent par exemple uniquement sur Manhattan, voire sur un quartier de Manhattan. A terme, la plupart de ces médias espèrent devenir des exemples du «Think Global, Act Hyperlocal»: ce n’est pas un site qui fera leur succès, mais le développement d’une armée de sites hyperlocaux déclinables aux Etats-Unis ou, pourquoi pas, dans le monde. Ces derniers mois, j’ai pu rencontré à Columbia trois responsables de sites hyperlocaux très différents. On a parlé business models, journalisme citoyen et web.
Patch, de Google à AOL
Le directeur de la rédaction Brian Farnham est venu recruter à l’école avec deux de ses rédacteurs locaux. Patch a été créé en février dernier par Tim Armstrong, alors en charge des Ventes Amérique pour Google. «Il vivait dans le Connecticut et cherchait à faire du bénévolat avec ses enfants», explique Brian Farnham. «Il n’a rien trouvé en ligne qui se passait dans son coin.» De là est née l’idée de Patch.com, une série de sites locaux censés remplir un rôle abandonné par les journaux, «tellement ralentis par leur édition papier qu’ils n’avaient pas les ressources pour utiliser tout le potentiel du web».
Tim Armstrong a lancé Patch avec son fonds d’investissement, en réunissant une équipe de dix personnes à New York, et en construisant un modèle de plateforme reproductible. L’idée, c’est que la maquette de chaque site se ressemble et qu’ils se différencient par le contenu. En mars 2009, Tim Armstrong est devenu PDG d’AOL, en juin 2009 AOL achetait Patch (et Armstrong expliquait qu’il ne retirerait aucun profit de ce rachat). En moins d’un an, Patch a créé 15 sites hyperlocaux.
«On a les fonds pour réaliser ce dont on rêvait au début», dit Brian Farnham.
Les sites Patch couvrent des villes de 20.000 habitants avec un journaliste/rédac chef et quelques pigistes (des résidents locaux, type mère au foyer, retraité, étudiant), un rédac chef régional pour 10 sites et un webmaster pour 4. Avec un rythme de quatre à cinq articles par jour (écrits par les pigistes ou le rédac chef), «le rédacteur en chef local doit être passionné par son boulot», a prévenu Brian Farnham: c’est un one man show et c’est difficile de vraiment s’échapper».
Lindsay Wilkes-Edrington, en charge de Patch Scotch Plains-Fanwood, qui couvre deux petites villes du New Jersey, raconte avoir raté un incendie parce qu’elle était à New York. «Je me suis dépêchée de rentrer et les journalistes papiers du coin m’avaient déjà devancée. Mais ils n’ont rien publié avant une semaine et demie, alors que j’avais trois articles le lendemain. Le maire a googlé “incendie” et il a été abasourdi de voir tant d’infos sur ce qui s’était passé en bas de la rue».
Farnham a refusé de parler argent, et évoqué rapidement le business model de Patch: la pub. «On a lancé ce site en se disant “créons un bon produit, les gens viendront sur notre site et la publicité suivra. On doit éduquer les publicitaires locaux pour qu’ils comprennent comment fonctionne la publicité en ligne et qu’ils achètent des espaces sur nos sites. C’est tout un processus». En plus des bannières classiques, Patch offre la possibilité de se créer une pub sur mesure (15 dollars pour une pub vue 1000 fois): après l’avoir mise en page grâce à un outil du site, chaque publicitaire décide du montant qu’il est prêt à payer. La pub est en place jusqu’à ce que le montant soit atteint, puis retirée.
The Local, le blog hyperlocal du New York Times
lire le billet