Notifications en cascade sur les réseaux sociaux, alertes push envoyées sur mobile, bandeaux clignotants sur les chaînes d’informations en continu, “lives” à tous les étages, détecteur de rumeurs et de “fakes” en temps réel, contenus d’actualités qui n’auront peut-être que 24 heures de durée de vie avant de disparaître sur l’application de messages éphémères Snapchat….
L’information n’est pas un long fleuve tranquille mais un rapide à proximité des chutes du Niagara. Quant à l’urgence, elle est désormais brandie en étendard.
Tout cela est “toxique, comme le sucre”, peste cet article du Guardian, pour qui les lecteurs sont certes capables de repérer “ce qui est nouveau dans l’actualité, beaucoup moins ce qui est pertinent”. De toute façon, à quoi cela sert aux lecteurs de se noyer dans ce rapide si leur rétine n’imprime plus du tout ce qu’elle voit?
C’est aussi le diagnostic de Laurent Mauriac, ex-Libération et ex-Rue89, qui lance en France Brief.me, un email quotidien qui “explique ce qui est compliqué, résume ce qui est long, analyse ce qui est important”.
Objectif : offrir “une approche reposante de l’actualité”, pile poil dans la mouvance du Slow Web. “Nous voulons prendre le contre pied de cette logique de flux où, notamment sur les sites d’informations, tout est mis sur le même plan”, me confie-t-il. “Nous visons des gens qui ne sont pas comme nous, qui ne sur-consomment pas les médias, qui ne sont pas forcément très à l’aise avec les réseaux sociaux et ont peu de temps pour s’informer après leur journée de travail”.
Une proposition éditoriale en français, actuellement en version bêta et garantie sans algorithme, à mi chemin entre la newsletter Time to sign off (il est en temps de conclure, en VF), qui, tous les soirs, “vous dit ce que vous avez raté aujourd’hui, ce que vous ne devez pas rater demain et quoi faire si vous n’avez pas envie de dormir” avec un vrai talent dans l’écriture, et les applications permettant de digérer l’actualité comme News Digest, développé par le petit génie Nick d’Aloisio.
Les maîtres du temps
Tous ces projets éditoriaux sont des tentatives pour maîtriser le temps – et non le ralentir. Et pour cause, le Web a jusque-là vu émerger des outils permettant de maîtriser l’espace via la géolocalisation. Quant au temps, il reste pour l’instant un élément indomptable, donnant l’impression, au choix, de courir comme un hamster dans une roue lancée à tout berzingue, ou de vivre dans le film “Un jour sans fin”.
“Un contenu devient viral et est immédiatement partagé par un très grand nombre. Tout aussi immédiatement, il disparaît, remplacé par un autre contenu”, décrit Kyra Maya Phillips, la co-fondatrice de Snail Mail, une newsletter envoyée chaque premier jeudi de chaque mois sélectionnant des contenus qui “restent” après la vague virale et sont parfois vieux de plusieurs mois voire années.
Le plus grave, selon elle? “Nous sommes moins mués par l’envie d’acquérir des connaissances que par la validation sociale des contenus que l’on partage – faire savoir aux gens que oui, nous savons ce qu’il se passe”. Or c’est vrai que les algorithmes sont paramétrés pour donner la priorité au nouveau au détriment du vieux – le fameux #old tant décrié dans les rédactions. Le nouveau l’emporte sur l’essentiel, dit encore le philosophe et écrivain Luc Ferry sur le plateau de Médias Le Mag.
ça va trop viiiiiiite…
Sonner le glas du temps réel de l’information arrangerait beaucoup de journalistes. Ce serait oublier que la demande de nouveau, de frais, de neuf, provient de l’audience qui, des centaines de milliers de fois par jour, réactualise ses applications et ses pages en espérant y découvrir des nouvelles plus récentes (nouveaux emails non lus dans la messagerie, nouveaux tweets, nouvelles actualités sur Facebook). Il y a une vraie tendance à ce que cet article du Figaro appelle le “présentisme”, cette attention portée à l’instant.
Mais il ne faut pas s’y tromper. Le vrai défi des rédactions n’est pas de se détourner du temps réel ni de le ralentir mais d’apprendre à le maîtriser. Mieux, de jongler entre des temporalités différentes, entre le temps réel et le long format. “Entre le chaud et le froid, entre le flux et le stock”, continue Ludovic Blécher, le directeur général du Fonds Google pour l’innovation numérique de la presse. “La demande de l’audience”, me glisse-t-il, c’est “cher journaliste, fais moi vivre ce que je lis sur Twitter, et vérifie-le pour moi. Si tu mets 2 heures à m’en parler, je ne vais plus avoir confiance en toi.”
“Nous voulons enrayer la défiance des lecteurs en faisant une sorte de promesse d’apaisement par rapport à l’information, la garantie qu’ils vont arrêter de stresser sur l’actualité”, reprend Laurent Mauriac qui, pendant quelques semaines, a choisi de tout tester (le prix, les contenus, l’heure d’envoi de la newsletter) sur Brief.me auprès d’une communauté de bêta-testeurs – 550 personnes y participent déjà -, pour vérifier chacune de ses intuitions.
Une chose est sûre : temps calme ou non, Laurent Mauriac compte sur l’addiction de ses futurs abonnés. “Après quinze jours d’essai, il faut qu’ils soient devenus accros à Brief.me”.
Merci de partager cet article sur les réseaux sociaux, Twitter et Facebook – et contribuer ainsi au flux.
Alice Antheaume
lire le billetA quoi bon “batônner” les dépêches d’agence? Disponibles partout en même temps, elles ne sont pas toujours bien référencées et ne susciteraient que peu de partage sur les réseaux sociaux (MISE A JOUR: parmi les dix contenus les plus partagés du Monde.fr ce jeudi matin, figurent quatre contenus réalisés à partir de dépêches d’agence, AFP ou Reuters).
Pourtant, les publications ont du mal à y renoncer, craignant de se mettre sur la touche si elles ne donnent pas l’essentiel de l’actualité au moment où l’internaute se connecte et de passer à côté de l’audience générée par les moteurs de recherche.
Comment résoudre l’équation? La première solution consiste à ne pas proposer le flux des dépêches (Slate.fr, Rue89, Médiapart, etc.) et assumer éditorialement cette position. Une autre réponse est expérimentée par la rédaction de RTL. “C’est l’AFP qui bâtonne elle-même ses dépêches pour les publier sur RTL.fr”, me raconte Antoine Daccord, le rédacteur en chef. Un service opéré par l’AFP services, une filiale de l’AFP, qui propose ce service depuis le printemps 2013. Cela n’a rien à voir avec le journal de l’AFP, que les rédactions connaissent bien, et qui est le même flux pour tout le monde. Ici, c’est une sorte de service à la demande, une façon d’enrichir – ou bâtonner – les dépêches selon les exigences du client. De la titraille à l’iconographie en passant par les liens, tout est réécrit “à la demande”.
Libérés des contraintes du temps réel de l’info
Les journalistes de l’AFP services – qui ne sont pas des agenciers de la maison mère – sont donc “mis à disposition” de RTL.fr, accèdent à son CMS et s’occupent de l’enrichissement (changer les titres, insérer des photos et des liens pertinents) des dépêches écrites par leurs confrères ainsi que de l’agrégation d’informations publiées sur d’autres médias. Et ce, sept jours sur sept, 21h/24 – ce système devrait s’élargir à 24h/24. En tout, près de 90 dépêches sont traitées en moyenne par jour, et entre 5 à 10 contenus agrégés.
C’est une nouvelle activité pour l’AFP qui, alors que le modèle des agences de presse est en pleine redéfinition, tente de trouver là une autre offre à proposer à ses clients, et donc, à terme, une nouvelle source de revenus. C’est aussi une façon intelligente de faire du service après-vente sur sa production maison via une filiale qui, autrefois, ne se chargeait que des clients “corporate” et institutionnels comme la Commission européenne.
Retour à l’envoyeur
Si le système est nouveau et encore expérimental, il n’est bien sûr pas gratuit. Tarif du service: sur devis. Tout dépend du nombre de contenus désirés et de journalistes employés, et de l’amplitude horaire. En ce qui concerne le contrat avec RTL, tout au plus apprend-t-on que la tarification revient sans doute plus chère que le nombre de personnes devant être employées, en interne, pour le faire. Soit près de cinq postes de journalistes à temps plein.“Nous n’avons pas choisi de le faire par économie, mais pour une amélioration du service (rapidité et couverture horaire)”, reprend Antoine Daccord.
Pour lui, l’essai est concluant et s’apparente à “une extension de notre rédaction à l’AFP”. De fait, cette expérience libère la rédaction du traitement des dépêches, un travail à la fois chronophage et ingrat, comme l’a rappelé le consultant Benoît Raphaël. Celle-ci, qui compte une dizaine de personnes pour la partie numérique, peut ainsi davantage se concentrer sur la production de contenus originaux. Conséquence ou non, RTL.fr a vu son audience monter, passant à 3 millions de visiteurs uniques en septembre, selon Médiamétrie.
Alice Antheaume
lire le billetLe payant paie-t-il? Jusqu’où aller dans la couverture des “breaking news”? Comment combiner instantanéité et temporalité plus longue? Faut-il permettre les publicités déguisées en contenus journalistiques? Ces questions, pas vraiment nouvelles, animent toujours les rédactions en cette deuxième moitié de l’année 2013, en France et à l’étranger.
C’est l’obsession d’un nombre grandissant de rédactions françaises. Influencées par l’expérience du New York Times (dont le paywall génère certes des revenus, mais qui ne compensent pas encore la perte des revenus publicitaires), elles veulent “faire payer les lecteurs” en ligne.
“Comment faire en sorte que ce qui est payant sur le papier soit aussi payant sur le Web?”, demande à plusieurs reprises Jean-Michel Salvator, le directeur délégué des rédactions du Figaro, lors d’une master class donnée à l’Ecole de journalisme de Sciences Po jeudi 19 septembre. Face à à un étudiant en journalisme aguant que, même s’il gagnait un salaire, il ne lui viendrait pas à l’esprit de payer pour de l’information généraliste en ligne, Jean-Michel Salvator concède que “l’idée de la gratuité de l’information est tellement ancrée dans les usages des internautes que cela va être compliqué”. Le Figaro espère atteindre d’ici la fin de 2013 15.000 abonnés payants – sur 4 millions de membres – en misant sur son “produit d’appel”, la mise en ligne dès 22h du journal du lendemain.
Lemonde.fr, lui, possède 110.000 abonnés dont 50.000 sont des “purs Web” (qui n’ont pas souscrit à l’offre imprimée, donc). Objectif visé: 200.000 abonnés à l’offre purement numérique d’ici dans deux ans.
Même idée fixe du côté du Point.fr qui compte passer à un modèle mixant gratuit et payant début 2014. Sous la pression conjointe des actionnaires et de la direction de la rédaction, Lexpress.fr va aussi installer, à partir du printemps 2014, un “metered paywall” (mur payant dosé). En quoi cela consiste-t-il? Le lecteur a accès à un certain nombre de contenus gratuits. Un clic de plus et il doit payer pour poursuivre ses lectures. “Le principe est acté, mais nous n’avons pas encore décidé des modalités”, m’informe Eric Mettout, le directeur adjoint de la rédaction. A partir de combien d’articles consultés devra-t-on payer? La partie “Styles” fera-t-elle partie du dispositif ou restera-t-elle en accès gratuit? “On affinera au fur et à mesure”, reprend Eric Mettout, qui veut voir là un test sans résultat garanti. Au moins, cela “va nous aider à obtenir une base qualifiée d’internautes enregistrés sur lexpress.fr et nous obliger à monter en qualité sur le site”.
Pour l’instant, la stratégie du paywall n’a pas vraiment fait ses preuves. Pour l’expérimenter, deux conditions sont nécessaires, selon Frédéric Filloux, auteur de la Monday Note: 1. avoir des contenus à haute valeur ajoutée qui justifient qu’ils soient payants (voilà pourquoi l’information économique et financière a plus de chance d’être monnayée que de l’information généraliste) et 2. disposer d’un spécialiste des données et statistiques qui traque les itinéraires des utilisateurs, pour comprendre pourquoi, quand ils se heurtent au paywall, ils font machine arrière ou, à l’inverse, décident de s’abonner.
Aux Etats-Unis, après la fusillade survenue à Washington DC lundi 16 septembre, les rédactions s’émeuvent des erreurs commises. “Les premières informations faisaient état de trois tireurs. Puis deux. Puis un. Puis, à nouveau, trois. Que quatre personnes avaient été tuées. Mais qu’il y en avait peut-être six en fait”, décrit le Washington Post, pour qui cette cacophonie (il y a eu en fait treize morts, dont le tireur, seul, un dénommé Aaron Alexis) est devenue “presque systématique à l’âge des réseaux sociaux”.
Sur Gawker, le diagnostic est encore plus sévère: “les gens à la TV, tout particulièrement, n’ont aucune idée, vraiment aucune, de ce qu’il se passe. Les blogueurs non plus, mais au moins ils ne sont pas coincés sur un plateau à devoir remplir le vide à l’antenne, face à une audience qui veut connaître les faits que l’on n’a pas, là tout de suite”. Et de conclure que l’information en temps réel est une vaste blague: “personne ne sait rien, ignorez-nous!”.
Pourtant, les journalistes n’ont pas attendu les réseaux sociaux pour commettre des erreurs au moment des breaking news. Le 22 novembre 1963, jour de l’assassinat du président J.F. Kennedy à Dallas, alors que n’existaient ni Internet ni les réseaux sociaux, il est annoncé à la radio américaine que le vice-président Lyndon Jonhson a lui aussi été tué, et que plusieurs tireurs sont à l’origine de la tuerie. Rien de nouveau, donc, dans le chaos qui accompagne la couverture d’un événement inopiné, si ce n’est que ce chaos est désormais visible par tous, exposé via de multiples témoignages, vrais et faux, en ligne. Les discerner fait partie des compétences requises pour les journalistes d’aujourd’hui, lesquels doivent savoir à la fois joindre des sources officielles (policières, gouvernementales, etc.) le plus vite possible – ce pour quoi les médias traditionnels sont les mieux armés – et vérifier les témoignages glanés en ligne en pratiquant le crowdsourcing – une pratique que maîtrisent les utilisateurs de Reddit.
Si les rédactions en ligne se sont beaucoup concentrées sur les breaking news, les “lives” et les billets de blogs très anglés, elles cherchent désormais à juxtaposer au temps réel une autre temporalité, celle des longs formats. “Comment j’ai fini Grand Theft Auto en 38h”, sur Buzzfeed, Snowfall, le reportage interactif du New York Times, ou l’enquête en cinq volets de Reuters sur le “child exchange”, ces contenus nécessitent parfois jusqu’à 15 minutes de lecture. Une tendance encouragée par l’essor du mobile. Depuis un canapé, le lit, le métro – où le réseau défaillant ne permet pas toujours de changer de page -, la salle d’attente du médecin, on consomme de plus en plus de longs formats sur smartphones ou tablettes.
Fini le temps où l’on pensait le Web dédié au picorage d’informations vite préparées et vite avalées. Fini aussi de croire que la lecture sur écran empêcherait la consommation de longs formats. Slate.com a redessiné son interface pour les mettre en majesté. Buzzfeed a une section intitulée “Buzzreads” qui comporte des longs formats, faits maison ou agrégés, distribués chaque dimanche, jour où la frénésie est moindre. C’est un “Buzzfeed pour ceux qui ont peur de Buzzfeed”, a souri Steve Kandell, qui coordonne cette partie.
Le pure-player Politico, qui publie des infos plus vite que son ombre et commence aux aurores, a embauché des journalistes provenant de la presse magazine, capables d’utiliser des ressorts narratifs et des figures de style dans l’écriture, pour “embrasser un nouveau défi, faire renaître les longs formats journalistiques, alors que les lecteurs cherchent des contenus originaux qui ne peuvent être ni cannibalisés” ni copiés facilement.
En France, Lemonde.fr a doté son application d’une section “morceaux choisis” et permet en outre à ses abonnés d’opter pour le “mode zen”, une fonctionnalité qui fait le vide autour de l’article choisi pour faciliter le confort de lecture. Et bénéficier d’une durée de consultation allongée. La même “lecture zen” est disponible sur liberation.fr.
Attention néanmoins, rappelle le journaliste Rem Rieder sur USA Today, à ne pas confondre long format et mise en ligne de papiers de 30.000 signes édités pour l’imprimé. “L’erreur serait de simplement balancer ces articles en ligne sans prendre en compte la nature du réseau”, écrit-il. “Une narration palpitante doit aller de pair avec une construction qui mélange vidéos, sons, graphiques interactifs pour une expérience à couper le souffle en ligne”.
Avant, c’était simple, il y avait, sur les applications et les sites d’informations, bannières et pavés publicitaires aux couleurs criardes d’un côté et contenus journalistiques édités sur fond blanc de l’autre. Désormais, on voit fleurir ce que les Anglo-saxons appellent l’advertorial (advertising + editorial), ou “native advertising”, c’est-à-dire des publicités qui singent le journalisme. Leur ton, leur format et même leur angle ressemblent à s’y méprendre à ceux utilisés par des journalistes. Et pour cause, les annonceurs ont parfois accès au système de publication pour insérer, dans les gabarits éditoriaux utilisés par les journalistes, leurs publicités. Il n’y a pas pour autant tromperie sur la marchandise pour qui sait lire: sur les sites qui s’y adonnent, du New Yorker à The Atlantic en passant par Quartz.com, le nom de la marque est indiqué dans la signature et l’intitulé “contenu sponsorisé” écrit en toutes lettres.
Choquant? A ce stade, on ignore quelle en est la réception des lecteurs. Nombre de journalistes ont, eux, du mal à avaler la pilule. Pourtant, ils savent la tentation grande alors que le marché publicitaire est moribond pour les médias? Quant aux marques, elles n’attendent que ça: explorer des nouveaux formats pour communiquer. Dans un message adressé aux plus de 300 employés de Buzzfeed, Jonah Peretti, le fondateur, dévoile les grandes directions stratégiques à venir, publicité comprise. “Nous devons être un “must buy” pour les annonceurs. Nous devons leur donner l’accès total à notre système, à nos données, notre équipe de créatifs, et notre technologie.” Mieux, une Université Buzzfeed va être lancée “pour former marques et agences à la façon de faire de Buzzfeed”. La rançon du succès, continue Jonah Peretti: “nous avons commencé il y a quatre ans avec zéro revenu et nous sommes désormais une entreprise profitable”.
Il n’y a qu’une façon de répondre à ces questions: tester des réponses, voir comment l’audience réagit et en tirer des enseignements. A contrario, rappelle le journaliste Mathew Ingram, la posture qui consiste à ruminer que Google “nous vole des contenus” et à ressasser en boucle le bon vieux passé est stérile.
Merci de partager ce contenu sur Twitter et sur Facebook!
Alice Antheaume
lire le billetL’immobilier, les régimes, la franc-maçonnerie font partie des marronniers les plus connus de la presse magazine. En ligne, un autre serpent de mer revient de façon cyclique: les blogs, et plus exactement, l’annonce de leur mort. Ces espaces d’expression personnels, popularisés dès 1999 avec Blogger, seraient condamnés aux oubliettes par la grande faucheuse du Net. Pourtant, on dénombre, en France, plus de 15 millions de blogs, et, aux Etats-Unis, près de 329 millions de personnes qui en consultent un au moins une fois par mois. Sans compter toutes les formes dérivées du blog, dont Twitter et Tumblr, qui font florès… Alors que Yahoo! s’appête à racheter Tumblr, une plate-forme à mi-chemin entre le blog et le réseau social, leur disparition n’est pas à l’ordre du jour. Mais, dans un futur proche, quel sort leur est-il réservé? Quel format et quels contenus va-t-on y voir? Quelle utilité les médias qui les hébergent y trouvent-ils encore?
Il y aura à l’avenir deux catégories de lecteurs de blogs, présume Mars Dorian, un consultant américain. D’une part, les lecteurs d’extraits, qui aiment les contenus minimalistes, écrits aussi vite qu’on en parle, pour une consommation de type fast-food dont la richesse nutritionnelle n’est pas avérée, et d’autre part, les lecteurs de dissertations, friands de contenus à haute valeur ajoutée et atemporels, de quasi e-books, qui pourraient devenir des contenus payants, proposés entre 99 centimes et 2 dollars la pièce.
Et pour explorer des nouveaux territoires, le blog devrait être le laboratoire de nouvelles expériences d’écriture, comme celle-ci. Le comédien et écrivain Baratunde Thurston, également collaborateur du site parodique The Onion, a écrit des chapitres de son livre «How to be black» en se prêtant à ce qu’il appelle du «live-writing». En ligne, il a partagé son écran (via l’outil join.me) avec ses lecteurs et a écrit sous leurs yeux, ratures comprises. Un rendez-vous inédit qui a le mérite de repousser les limites du «live» – mais qui nécessite une bonne dose de confiance en soi de la part de l’auteur. Baratunde Thurston a précisé qu’il ne cherchait pas à interagir avec l’audience sur ce qu’il devait écrire ou non, mais plutôt à créer une nouvelle expérience qui le forcerait à terminer son ouvrage.
Le blog «Media Decoder», alimenté par des journalistes du New York Times, a officiellement fermé ses portes le 26 avril 2013. Les contenus qu’on pouvait y lire sont désormais disponibles dans la section médias du nytimes.com.
Pourquoi ce rapatriement? 1. Une raison technique d’abord: le New York Times a un nouveau CMS, baptisé «scoop», dont la promesse est d’être aussi souple et simple que l’interface d’un blog 2. Une raison éditoriale ensuite: parfois, la même information a été traitée à la fois sur le blog et sur le site du média hébergeur, ce qui provoque des doublons et nuit au référencement des contenus en ligne. Selon Bruce Headlam, l’éditeur de la rubrique médias du New York Times, le problème est la «découvrabilité» des contenus sur le nytimes.com, un site immense sur lequel «trouver du matériel peut être ardu», surtout lorsqu’il y a «parfois deux versions de la même histoire, ce qui est source de confusion pour nos lecteurs (et pour les moteurs de recherche)».
Intégrer un blog au coeur du site qui l’héberge est possible lorsque le blogueur est un journaliste de la maison – car on ne donne pas accès au système de publication à des collaborateurs extérieurs -, lorsque le système de publication en question est refait de fond en comble pour proposer les mêmes fonctionnalités qu’un blog ou un micro-blog, et lorsque le blog couvre des sujets liés à l’actualité.
Sur lemonde.fr, les blogs les plus suivis sont Big Browser, un lieu de veille du Web géré de façon tournante par les membres de la rédaction, le blog du dessinateur Martin Vidberg, celui de l’éditorialiste Françoise Fressoz, et Passeur de sciences, écrit par un journaliste scientifique, Pierre Barthélémy. Volontiers en dehors de l’actualité, Passeur de sciences traite ici de la capture d’un astéroïde, là de la médecine regénératrice. Ce dernier permet au Monde.fr d’élargir son offre éditoriale à une thématique s’inscrivant dans une temporalité plus longue.
Même constat du côté de France TV Info: «avoir des blogs invités sert à donner la parole à des experts et à traiter des sujets au “long cours”», détaille Thibaud Vuitton, rédacteur en chef adjoint. «C’est particulièrement efficace quand le blog fédère une communauté et ce n’est pas un hasard si les cartons d’audiences sont les blogs de L’instit ou Mauvaise mère, des espaces identifiés, où de vraies communautés ont été fidélisées».
Enfin, l’utilité cachée des blogs dans une rédaction, c’est de faire prendre le virage du numérique aux journalistes traditionnels. «Quand ils tiennent un blog, ils font ainsi l’apprentissage du Web et de ses réflexes de manière très concrète. Ils voient leurs statistiques, comprennent qui clique sur quoi et quand, et observent les commentaires qu’ils récoltent», m’explique Nabil Wakim, rédacteur en chef du Monde.fr. Cette interaction, vécue in vivo, est plus efficace qu’un long discours.
Twitter permet de faire du micro-blogging, Tumblr de mettre en scène images et GIFS animés, WordPress des plus longs formats. Chaque plate-forme peut donc servir une ligne éditoriale. Bloguer sur WordPress sert à développer une idée en plus de 140 signes, estime Matt Mullenweg, de WordPress, où un post compte en moyenne 280 mots.
Avant, sur un blog hébergé par un média, on écrivait un billet, on le publiait, on envoyait le lien pour relecture à la rédaction, et on attendait que celle-ci le «remonte» sur sa page d’accueil pour obtenir des commentaires de l’audience. Désormais, la remontée d’un blog sur la page d’accueil du média hébergeur n’est plus une condition pour que l’audience y accède. Ce qui compte, c’est le référencement du blog dans les moteurs de recherche et sa recommandation sur les réseaux sociaux. «L’essentiel du trafic de mon blog provient de Facebook», m’informe Emmanuelle Defaud, journaliste et auteure de Mauvaise mère. Quant à ce blog, WIP, il obtient plus de 20% de son trafic via les réseaux sociaux et 50% via le référencement dans Google.
Pour Simone Smith, directrice du marketing de HubPages, c’est la preuve de la faiblesse du format blog, ringard parce que supplanté par les réseaux sociaux, plus puissants, plus actuels, et mieux référencés. Lors d’un discours de quinze minutes au festival South by South West 2013, cette dernière a tenté de prouver que le blog n’est rien sans béquille. «Qui blogue dans cette salle?», a-t-elle demandé. Les trois quarts des personnes présentes ont levé le doigt. «Qui ne publie que sur son blog et pas sur des réseaux sociaux?». Aucun doigt ne s’est levé.
Loin des carcans de leur média, les journalistes trouvent sur les blogs une liberté éditoriale plus grande. Leur écriture y est souvent emplie de verve, d’humeur, voire d’humour; le ton est plus éditorialisant sinon partial; les formats utilisés plus variés, et les angles aussi. «Il y a un plaisir à raconter des histoires, à communiquer avec des personnes qui ont les mêmes centres d’intérêt, à donner son avis quand personne ne me le demande et à exister, au-delà de ma famille et de mon travail», me confie Emmanuelle Defaud, du blog Mauvaise Mère. Bloguer ou micro-bloguer permet un «regard personnel», note encore Thibaud Vuitton, de France TV Info, et «une écriture différente de l’écriture journalistique»…
Etes-vous consommateur de blogs? Aimeriez-vous y voir des expériences de live-writing?
Alice Antheaume
lire le billetEt si, en 2013, on se sortait la tête du guidon? C’est la tendance prônée par un mouvement américain intitulé “Slow Web”. Son ambition? Etre l’antithèse du temps réel en ligne, des moteurs de recherche et autres services Web qui répondent aux requêtes de façon instantanée. “En fin de compte, la philosophie derrière ce mouvement, c’est que chaque personne devrait avoir une vie” et “ne pas être esclave” du temps réel, résume le manifeste du Slow Web.
Jusqu’à présent, il n’y avait que deux possibilités:
1. je suis déconnecté, et donc en dehors du réseau.
2. je suis connecté et mon attention est mobilisée par le flux d’informations en temps réel.
La troisième voie serait donc:
3. je ne suis pas connecté tout le temps mais suis quand même au courant de ce qu’il se passe sur le réseau.
En ligne, quelques initiatives éditoriales surfent sur cette troisième option et montrent que le “live” n’est pas la seule Bible du journalisme numérique. Se développent ainsi des services qui donnent à voir le meilleur de l’actu, la “curation de la curation”, se développent, et ne référencent que les contenus les plus cités sur les réseaux sociaux. C’est le cas de News.me et de l’application Undrip, qui calme avec humour les ardeurs de ses utilisateurs (“bridez vos élans”, “gardez votre pull”) le temps que la sélection s’opère. Quant à The Atlantic, il a regroupé ses meilleurs articles de l’année 2012 dans un ebook, à lire au calme. Plus radicale, cette application gratuite pour Mac, Self Control, bloque l’accès à une liste de sites Web de son choix (mails, Facebook, Dailymotion, etc.), pendant une période limitée, de 15 minutes à 24h.
Calmez le jeu
En France, Slate (sur lequel ce blog est hébergé) veut réfléchir avant de faire de l’actualité chaude mais à J+1 ou plus. Le Huffington Post a lancé une newsletter appelée “on refait l’actu du week-end” pour ceux qui se seraient déconnecté en fin de semaine et auraient besoin d’un rattrapage. Rue89 proposait la même chose, jusqu’en juillet 2012: il s’agissait d’un long papier publié le samedi qui récapitulait les temps forts de l’actualité survenus dans la semaine, entre le lundi et vendredi. Etait-ce le jour de publication? Le format? Toujours est-il que cela ne marchait pas tant que cela, regrette Pascal Riché, rédacteur en chef de Rue89, qui pointe les chiffres: un peu plus de 6.000 clics par “rattrapage de l’actu” quand les autres contenus du site peuvent obtenir 50.000 clics.
Pourtant, la lecture en différé est une réalité pour les consommateurs d’informations, qui mettent de côté des contenus pour les lire plus tard grâce à des outils comme Pocket. “Il n’y a pas de problème à lire demain les informations d’hier”, tranche le journaliste américain Peter Laufer, cité sur Slow News Movement, un site lancé par la journaliste française Marie-Catherine Beuth, qui réfléchit à l’Université de Stanford sur la question suivante: comment “adapter les informations au temps que l’utilisateur a, ou n’a pas”?
Lecteurs et journalistes branchés sur du 5.000 volts
Mais pour la plupart des sites d’informations généralistes, retirer les doigts de la prise s’avère compliqué. Le tempo de l’information n’a jamais cessé de accélérer, et cela s’est encore amplifié à la naissance des réseaux sociaux, réduisant à un clignement d’oeil le laps de temps entre l’arrivée d’un événement et son écho en ligne. Or ce règne de l’information en temps réel n’est pas une création ex-nihilo des journalistes, c’est une demande de l’audience, habituée à prendre son téléphone en main, en moyenne, entre quarante et quatre vingt fois par jour, pour savoir ce qu’il y a de nouveau.
“Donner l’info quand elle arrive, cela fait partie de notre ADN”, rappelle Aurélien Viers, directeur ajoint de la rédaction du Nouvel Obs. Ce mardi 15 janvier, “les 7.500 postes supprimés de Renault, on ne peut pas en faire l’impasse. La mort du cinéaste Nagisa Oshima non plus.” C’est même un contrat tacite entre l’éditeur et l’audience: offrir les dernières informations disponibles au lecteur, au moment où celui-ci se connecte.
Mosaïque de temporalités
Or s’il y a une prime au premier sur l’info, il y a aussi une prime à l’originalité en ligne. En témoigne le salut unanime du projet du New York Times, Snow Fall, qui raconte l’aventure de seize skieurs pris dans une avalanche. Un contenu à la narration efficace, qui a obtenu en quelques jours 3.5 millions de pages vues, avec des lecteurs scotchés sur cette histoire pendant 12 minutes en moyenne. Une durée considérable.
De plus en plus, les rédactions s’organisent pour que le temps de la réactivité cohabite avec d’autres temps, plus lents. “On a deux jambes, une jambe droite, l’actualité chaude, et une jambe gauche, qui concerne des sujets plus magazines”, reprend Aurélien Viers. “On doit être suffisamment forts pour trouver l’équilibre entre couvrir une information urgente, rebondir sur l’information et l’expliquer. Bref, il y a en fait trois temps: le temps de la réactivité, le temps de l’explication de l’information qui vient de tomber, et enfin, le décalé”.
Piquer un sprint et courir un marathon à la fois
Il ne s’agit donc pas d’arrêter le temps réel mais de naviguer entre l’un et l’autre, et produire des types de contenus adaptés à des habitudes variées – et des connaissances de l’actualité différentes selon qu’on est très connecté, moyennement connecté, ou pas du tout.
En termes d’organisation rédactionnelle, cela signifie bénéficier d’une équipe assez grande pour qu’elle comporte à la fois des sprinteurs, des marathoniens, et des coureurs de relais. “Quand on essaie de décélérer, d’enquêter pendant une semaine sur les pilules de troisième ou quatrième génération, il ne faut pas se laisser déborder par les urgents”, dit encore Aurélien Viers. Or les urgents, et l’actualité en général, on ne la contrôle pas.
Autre problème, paradoxal: les journalistes, habitués à faire de la veille en ligne et à réagir au quart de tour, se sentent parfois démunis lorsqu’ils ont soudain la possibilité de passer deux jours sur un format plus long. “Au final, on reçoit assez peu de propositions de sujets qui nécessiteraient une semaine de travail en dehors du flux alors qu’on essaie d’encourager nos journalistes à le faire”, soupire un responsable.
Avez-vous pris la résolution de tempérer votre addiction au temps réel? Dites-le dans les commentaires ci-dessous, sur Facebook et sur Twitter, merci!
Alice Antheaume
lire le billetUn jour comme un autre dans une rédaction en ligne. Un journaliste envoie à ses collègues, par messagerie instantanée, le lien vers une information qu’il juge intéressante. A la réception de son lien, ses collègues lui assènent: «old!». Old comme… vieux.
Façon de disqualifier cette information qui «tourne depuis au moins 2 heures sur les réseaux sociaux», justifient les intéressés. Et qui, en somme, serait donc (déjà) trop datée pour être publiée sur un site d’infos en temps réel.
Sous ses airs de jeu potache, l’emploi du véto «old» dans les rédactions dénote une exigence de tempo et de vérification qui s’exacerbe.
«C’est pénible de voir sur Twitter des informations qui ont plus de 48h, lues déjà des dizaines de fois», lâchent ces producteurs de contenus numériques. Inutile, selon eux, de publier des redites de l’actualité sans plus value.
Avec l’accélération du temps réel de l’information, accru par les «lives», ils prônent le «tempo» de l’information. Le tempo, c’est publier LA bonne information au bon moment. Le cœur de la guerre sur le terrain du journalisme numérique.
«Il y a une question d’adéquation entre le moment où tu donnes l’information et la qualité de l’information», explique Emmanuelle Defaud, chef des informations à France TV Info. «Dans le temps T, tu peux donner une information qui vient de sortir, en restant sur des faits bruts. 24h ou 48h plus tard, il te faut un angle sur cette même information: tu ne peux pas donner juste le fait, tu dois le décrypter.»
Le temps du factuel précède le temps des explications, du décryptage, de l’analyse. Ce n’est pas spécifique au numérique mais, à l’ère du temps réel sur le Web, tout retard à l’allumage sur le premier temps, celui de l’information factuelle, risque de paraître anachronique.
Pardon si c’est «old»
Désormais, des utilisateurs de Twitter en viennent à (presque) s’excuser de mentionner une information dont ils pressentent qu’elle a déjà été relayée, en ajoutant le terme «old» à leurs tweets, ou en précisant «j’avais raté cela»… Tant et si bien que le mot «old», qui devrait figurer dans la novlangue des journalistes en ligne, est devenu un hashtag sur Twitter et n’est pas utilisé que par des journalistes.
«Old» est donc le nouveau tacle entre journalistes et utilisateurs connectés. L’apparition du mot «old» dans les rédactions montre que le journalisme, tel qu’il se pratique en ligne, s’inscrit dans une culture du partage. Les journalistes partagent des informations, s’envoient des photos, des liens vers vidéos, des gifs animés, commentent des messages repérés sur les réseaux sociaux, publient des liens, en guise de statut, depuis leur messagerie instantanée. Bref, ils vivent, comme leurs lecteurs, dans une omniprésence de liens.
Premier
Dans cette culture du partage, un bon journaliste est le premier à donner un lien. Sa mission consiste à découvrir la «bonne histoire» avant les autres, qu’il s’agisse d’une histoire produite ailleurs (sur un site concurrent ou sur les réseaux sociaux) et dont le journaliste se ferait le «détecteur», ou d’une histoire dont il serait témoin sur le terrain – un usage que veut maintenant récompenser le prix Pulitzer avec sa catégorie breaking news, dont les critères ont été modifiés afin de rendre compte «aussi vite que possible, des événements qui se passent en temps réel et au fur et à mesure».
L’enjeu, c’est donc d’être à l’origine de la chaîne.
MISE A JOUR (15h25): Signalé par des commentateurs de WIP (merci à eux), l’existence d’un outil intitulé Is it old? (est-ce que c’est vieux?) qui permet de savoir si le lien que l’on s’apprête à envoyer à ses collègues a déjà été twitté ou pas.
Remonter l’histoire d’un lien
Pas de miracle, mieux vaut être accro au réseau. Outre la connaissance des faits, la capacité à enquêter et à raconter une histoire, le journaliste en ligne doit savoir établir l’historique d’un lien. Où a-t-il été publié pour la première fois? Par qui? Quand? Qui est la première source? La réponse à ces questions suppose de savoir remonter le temps, à la minute près, sur le Web et les réseaux sociaux, à la recherche de la première source.
Une compétence fondamentale dans l’univers numérique, et dont s’enorgueillissent volontiers les journalistes en ligne, habitués à traquer les dates, les heures, les minutes, de publication et/ou de mise à jour et à retrouver la trace de personnes réelles derrière des pseudonymes.
Journalistes fact-checkés
Vigilance obligatoire. Car il n’y a pas que les politiques qui soient soumis au fact checking. Les journalistes en ligne aussi, et ce, le plus souvent par leurs pairs. Ces «old» qui ponctuent la vie des rédactions, c’est une forme de vérification de la pertinence du sujet. Et voir son sujet taxé de «old» n’arrive pas qu’aux autres.
«On peut se faire happer par quelque chose qui est viral, mais vieux, donc il faut faire attention à bien connaître l’histoire dont on parle», reprend Emmanuelle Defaud, en citant l’exemple d’une photo ayant beaucoup circulé sur Facebook au mois d’octobre 2011. Celle-ci, signée Reuters, montrait des araignées, chassées par les eaux, venues tisser leurs toiles sur un arbre. «Vue et partagée au moment des inondations en Inde, on a d’abord cru qu’il s’agissait d’une très forte photo de cette actualité avant de…. comprendre que cette photo datait en fait de 2010 lors des inondations au Pakistan».
S’écrier «old», c’est donc faire rempart (collectif) contre la tentation de la viralité. Histoire de ne pas «être suiviste, mais informé».
Si vous aimez cet article (et que vous ne le trouvez pas déjà «old»), merci de le partager sur Twitter et Facebook.
Alice Antheaume
lire le billetAu rayon journalistico-numérique, les paris sont ouverts sur les mutations qui vont marquer l’année à venir. Sur quoi miser?
>> Read this article in english >>
En France, le nombre de pure players – ces sites qui existent sans support imprimé – par habitant est plus élevé qu’ailleurs. C’est même une «exception française» dans le paysage médiatique européen. Depuis le début de l’année 2011 sont en effet apparus Atlantico, Le Plus, Newsring, Quoi.info, et bientôt, le Huffington Post français… Un rythme soutenu d’initiatives en ligne que précipite l’orée de la campagne présidentielle – mieux vaut se lancer dans une période d’actualité intense.
«Ce dynamisme français se voit sur trois niveaux», m’explique Nicola Bruno, journaliste qui co-rédige actuellement un travail de recherche sur les pure-players en France, Allemagne et Italie qui sera publié l’année prochaine par le Reuters Institute for the Study of Journalism. «Par 1. le nombre de pure-players en activité en France (j’en ai compté plus de 12 issus d’initiatives indépendantes), 2. leur maturité (la France est le pays où sont nés les premiers pure-players en Europe avec Agoravox dès 2005, puis Rue89, Médiapart et Slate.fr) 3. leur diversité, tant dans les choix éditoriaux (journalisme de données, journalisme d’investigation, marché de niche, site communautaire, etc.) que leurs modèles économiques (abonnements, gratuit, etc.)».
Trop d’acteurs sur un trop petit marché? Pour Julien Jacob, président de Newsring, «il va y avoir des morts». Selon Nicola Bruno, «il n’y a pas de réponse définitive à cette question. Actuellement, aucun pure-player en Europe ne semble en mesure d’atteindre un seuil de profitabilité, comme c’est le cas aux Etats-Unis avec le Huffington Post et Politico. Et ce, pour une raison simple: ni la France ni aucun autre pays européen n’a une audience aussi grande que les Etats-Unis. Pas plus qu’un marché publicitaire mature capable de soutenir des projets uniquement sur le Web.»
Peine perdue, alors? Pas tout à fait, reprend Nicola Bruno, «l’histoire a montré qu’être profitable n’est pas toujours le but de ces projets journalistiques». L’histoire a aussi montré que les petits se font parfois racheter par des plus gros, comme le Huffington Post par AOL, le Daily Beast par Newsweek, et… Rue 89 par Le Nouvel Observateur.
Quel contenu lit-on tout de suite? Lequel poste-t-on sur Twitter? Lequel partage-t-on sur Facebook? Lequel glisse-t-on dans ses favoris? Et lequel sauvegarde-t-on pour le lire plus tard via des outils comme Instapaper ou Read It Later? Les utilisateurs, devenus des algorithmes humains, passent leur temps à trier les contenus et les ranger dans des cases. Selon quels critères? Difficile à dire.
Lit-on «plus tard» des contenus longs, comme le suppose cette présentation? Pas forcément. Selon le classement établi par Read It Later et mentionné dans la Monday Note de Frédéric Filloux, la majorité des articles sauvegardés – éditos ou des contenus liés aux nouvelles technologies avant tout – font moins de 500 mots (environ 2.700 signes). «Preuve est faite que les gens trouvent ces outils utiles indépendamment de la longueur de l’article», reprend le Nieman Lab. Un usage qui peut changer la façon dont les journalistes produisent des informations, dans la mesure où un même article peut avoir deux vies. La première pour «consommer tout de suite», en temps réel. Et la seconde pour «déguster plus tard», lorsque le lecteur le peut.
«Vous pouvez parler A votre téléphone plutôt que de parler DANS votre téléphone», a lancé Nikesh Arora, de Google, au Monaco Media Forum. Et pour Pete Cashmore, de Mashable, le contrôle des contenus par la voix devrait devenir incontournable en 2012.
C’est déjà le cas avec l’application Dragon Dictation, qui permet de dicter des SMS à votre portable, ou de prononcer un mot-clé dont votre téléphone comprend qu’il faut en tirer une requête sur Google. Siri, sur l’iPhone 4S, c’est aussi une sorte d’assistant qui obéit à vos ordres passés à l’oral. La suite? La voix humaine devrait bientôt servir de télécommande, sur la télévision d’Apple notamment.
Les téléphones portables sont la nouvelle malbouffe des ados, a titré le New York Times sur son blog consacré aux technologies. Aux Etats-Unis, ceux-ci passent de moins en moins de temps à parler au téléphone (en moyenne 572 minutes de voix par mois contre 685 minutes l’année précédente), et de plus en plus à envoyer des messages, SMS et MMS (les Américains de 13-17 ans reçoivent et envoient chaque mois 3.417 messages, environ 7 messages par heure en journée).
Même tendance en France, selon une étude du Pew Research, qui donne à voir les usages des utilisateurs de téléphone pays par pays. Vu la situation – encombrée sur le Web, et très prometteuse sur les téléphones – pour les éditeurs d’information, autant calibrer les contenus pour une consommation sur mobile.
Le volume de données digitales dans le monde devrait atteindre, en 2012, 2.7 zettabits. Pour ceux qui ne s’y repèrent pas entre les bits, les terabits, et les zettabits donc, c’est beaucoup, à en voir les ordres de grandeur ici.
La France n’est pas en reste dans la production de cette masse de données, avec le lancement par le gouvernement, début décembre 2011, du site de données publiques data.gouv.fr. Y figurent des tonnes d’informations chiffrées dont la lecture est indigeste, pour ne pas dire incompréhensible, pour le commun des mortels. Or le travail du journaliste de données, c’est de donner du sens à ces chiffres en les sortant de leur fichier Excel pour que «l’information vous saute aux yeux», comme écrit dans un précédent WIP. Tous les sujets journalistiques ne se racontent pas en chiffres, mais pour, par exemple, le budget de l’Etat en 2012 et la répartition des ressources en fonction des postes budgétaires, c’est efficace. La preuve, voici la «tête» du fichier téléchargé depuis data.gouv.fr.
Et voilà la visualisation de ce budget réalisée par Elsa Fayner, sur son blog intitulé «Et voilà le travail».
Mort de Mouammar Kadhafi, G20 à Cannes, matchs de foot, débats politiques… Le «live», ce format éditorial qui permet de raconter en temps réel un événement en mixant textes, photos, vidéos, contenus issus des réseaux sociaux et interactions avec l’audience, est un appât à lecteurs. La preuve par (au moins) deux: 1. selon les estimations, il récolte minimum 30% du trafic général d’un site d’infos généralistes 2. Le «live» est un facteur d’engagement de l’audience, les internautes restant plus longtemps, beaucoup plus longtemps, sur ce type de format.
>> Lire ou relire ce WIP sur le live >>
Election présidentielle oblige, la plupart des rédactions françaises se mettent en ordre de bataille pour faire du «fact checking» en quasi temps réel, cette technique journalistique anglo-saxonne qui permet de jauger la crédibilité de la parole politique. L’un des modèles du genre, le site américain Politifact.com, qui a mis en place un outil appelé «truth-o-meter» (le véritomètre), et a été récompensé dès 2009 par le prix Pulitzer, le graal journalistique.
>> Lire ou relire ce WIP sur le fact checking >>
C’est le site journalism.co.uk qui le prédit dans sa liste des 10 choses qu’un journaliste devrait savoir en 2012: après la fermeture de News of the World et le scandale des écoutes illégales en Angleterre, l’heure serait à l’honnêteté intellectuelle. «Les journalistes doivent être certains que la fin justifie les moyens (légaux)», peut-on lire. «Ils doivent être plus transparents sur les sources, à condition que celles-ci ne soient pas compromises. Si un article naît d’un communiqué de presse, il faut le dire».
>> Lire ou relire ce WIP sur l’utilisation de sources anonymes >>
Et aussi:
Et vous, sur quoi misez-vous pour 2012? En attendant, bonnes fêtes à tous!
Alice Antheaume
lire le billetInnovation, audience, gestion des contenus créés par des utilisateurs, vérification en temps réel, télévision connectée aux réseaux sociaux… Tels ont été les sujets abordés lors de la conférence sur les nouvelles pratiques du journalisme organisée le vendredi 2 décembre par l’École de journalisme de Sciences Po, où je travaille, en partenariat avec la Graduate School of Journalism de Columbia. Résumé des interventions.
>> Revivre le live réalisé lors de cette journée marathon (merci à tous les étudiants de l’Ecole de journalisme de Sciences Po qui ont produit vidéos, photos, textes et tweets. Cet article a été rédigé en s’appuyant notamment sur leur live!) >>
Emily Bell, directrice du centre de journalisme numérique à Columbia, ex-The Guardian
«L’audience n’est plus l’apanage du service marketing, elle est dans les mains des journalistes. En cours, à la Columbia, je pose la question à mes étudiants: “pour qui écrivez-vous?”. C’est une question nouvelle – avant, on ne le leur demandait pas car il y a encore ce syndrome, très ancré dans la culture journalistique traditionnelle, selon lequel il ne faudrait pas trop faire attention à ce que dit le public, car cela risquerait de contaminer la pensée des journalistes, et de leur faire croire que le public préfère lire des sujets sur Britney Spears plutôt que sur la crise de la Grèce.
Il faut donc connaître son public: qui est-il? D’où vient-il? Comment interagit-il avec les articles? On ne peut pas ignorer ce que dit l’audience, ni ce qu’elle pense, sinon on met en péril son activité journalistique. Il faut utiliser la connaissance et la mesure de l’audience pour faire du bon journalisme.»
>> Lire Et si les journalistes n’écrivaient que ce que les lecteurs lisent? sur WIP >>
Dawn Williamson, de Chart Beat
«Le journalisme d’aujourd’hui ressemble à l’industrie sidérurgique d’il y a 50 ans. Avant les années 60, la sidérurgie était exploitée dans d’immenses et coûteuses usines. Jusqu’à ce qu’apparaissent d’autres exploitations, plus rapides, plus petites et moins coûteuses. Au début, les grosses usines d’acierie refusaient de travailler avec ces nouvelles petites usines, de peur qu’elles produisent de la moins bonne qualité. On peut dire qu’aujourd’hui, des sites comme le Huffington Post sont comme les mini-aciéries des années 60. Ils produisent du contenu journalistique pour moins cher que les rédactions comme le New York Times.
Au départ, pour se lancer, le Huffington Post (mais aussi Gawker et Business Insider) ne s’est pas intéressé à la qualité mais à sa plate-forme. Le Huffington Post s’est d’abord créé une place, en révolutionnant le marché, puis est monté dans la chaîne de valeur, au point d’embaucher parfois des journalistes du… New York Times.
Pour prendre des décisions éditoriales, ces nouveaux sites donnent accès, pour leurs journalistes, aux données de mesure de l’audience. Et ce, via des outils, dans le backoffice, comme ChartBeat, et NewsBeat, afin qu’ils puissent voir, en temps réel, ce qui intéresse l’audience. Exemple aux Etats-Unis, concernant la députée américaine démocrate Gabrielle Giffords, qui a reçu une balle dans la tête lors d’un meeting, en janvier 2011. Fox News a pu voir, via l’analyse des termes de recherche liés à cette fusillade sur ChartBeat, que le public cherchait à en savoir plus sur le mari de Gabrielle Giffords. Surveiller les intérêts de l’audience, ce n’est pas une course vers le bas de gamme, ni un fichier Excel à lire, c’est un environnement dans lequel les journalistes doivent vivre.»
>> Lire Accro aux statistiques sur WIP >>
Gabriel Dance, éditeur interactif pour The Guardian US, ex-directeur artistique pour The Daily, l’application iPad de Rupert Murdoch, et ex-producteur multimédia au New York Times
«Les clés pour innover? D’abord être “fan” de quelqu’un qui vous inspire, un génie que vous ne perdrez jamais de vue. Le génie que je suis de près? Adrian Holovaty, fondateur du site EveryBlock. Ensuite il s’agit de surveiller ce que font les autres rédactions. Il ne suffit pas de copier les innovations des autres, car votre audience le saura et aura l’impression d’être trompée, il faut améliorer la copie en allant plus loin, en essayent d’imaginer ce que pourrait être l’étape suivante. Etre dans la compétition, ce n’est pas négatif, ce n’est pas mettre quelqu’un à terre, c’est faire monter son propre niveau.
Pour trouver l’inspiration, il faut regarder ce qu’il se passe en dehors du journalisme, comprendre ce qui excitent les gens et pourquoi. L’interface des jeux vidéos peut être une bonne source d’inspiration. Qu’est-ce qui fait que cela marche? Et comment pourrais-je adapter cette interface pour raconter une histoire journalistique? Telles sont les questions auxquelles il faut répondre pour réussir à inventer d’autres formats.
Autre clé pour innover: connaître ses limites (taille de l’équipe, temps, technologie, concurrence). Car oui, des contraintes peuvent sortir de la créativité. Et puis, l’innovation ne vient pas en une fois. Pour ma part, je fais des dizaines et des dizaines de brouillons avant de publier quoique ce soit.»
Mike Proulx, co-auteur du livre Social TV
«Nombreux sont ceux qui ont prédit la mort de la télévision, mais en fait, on ne l’a jamais autant regardée. Aux Etats-Unis, on la regarde en moyenne moyenne 35h par semaine, selon Nielsen. En outre, la convergence entre Web et télévision a une très grande influence sur la façon dont on regarde la télévision. C’est ce que j’appelle la télévision sociale, c’est-à-dire la convergence entre réseaux sociaux, comme Facebook et Twitter, et télévision. On regarde un même programme sur deux écrans, le premier (l’écran télé) pour voir le programme, le deuxième (ordinateur, tablette, mobile) pour commenter et réagir au programme.
C’est la force de Twitter. Au moment où Beyoncé a montré son ventre rond lors des MTV Video Music Awards à Los Angeles en août, il y a eu un pic sur Twitter avec 8.868 tweets par seconde, tweets liés à l’annonce de sa grossesse. Un record. Twitter, qui compte 100 millions de comptes actifs, a de l’impact sur la production des informations. Et ce, sur quatre tableaux:
1. Les “breaking news” de toute sorte arrivent d’abord – et de plus en plus – sur Twitter, de l’amerrissage en catastrophe de l’avion sur l’Hudson, au tremblement de terre au Japon, en passant par la mort de Ben Laden – au point que Twitter en a fait sa publicité avec ce slogan, “Twitter plus rapide que les tremblements de terre”.
2. Pour trouver des sources. Twitter est un outil très utile pour les journalistes qui cherchent à contacter des gens qui pourraient leur raconter des histoires, comme l’a fait Jake Tapper d’ABC.
3. Pour rester connecté en permanence, et faire du journalisme tout le temps.
4. Pour intégrer des tweets à l’intérieur des programmes télévisuels, comme l’a fait l’émission 106 & Park, dans laquelle les questions venant de Twitter sont posées aux invitées pendant le show. Twitter peut vraiment être considéré comme une réponse directe de l’audience à ce que s’il se passe à la télévision. Exemple avec le débat du candidat républicain Rick Perry qui a eu un trou de mémoire au moment de citer le nom de l’agence gouvernementale que son programme prévoit de supprimer. C’est “l’effet Oups”, aussitôt répercuté sur Twitter. Jusqu’à présent, on était habitués à regarder la télévision avec votre famille et vos amis, désormais, on la regarde avec le monde entier.»
>> Lire le mariage royal de la télévision et de Twitter sur WIP >>
Samuel Laurent, journaliste politique au Monde.fr, ex-lefigaro.fr
«Le fact checking doit se faire de plus en plus rapidement, c’est une réponse à la communication politique. Le fact checking publié une semaine après n’aura pas le même impact que s’il est réalisé très vite. Au Monde.fr, notamment via le blog Les Décodeurs, nous faisons du fact checking participatif. Non seulement les lecteurs peuvent nous poser des questions, mais nous faisons aussi appel à eux pour leur demander de nous aider à trouver des chiffres, ou au moins, des pistes.
Autre moyen de faire du fact checking en temps réel: le live. Pour Fukushima ou pour des débats politiques, comme lors de la primaire socialiste. Le but est de vérifier la véracité de ce que disent les politiques sur le plateau télé. Par exemple, au deuxième débat de la primaire socialiste, 65.000 personnes étaient connectées à notre live. A la rédaction, nous étions quatre journalistes à animer ce live, dont deux uniquement sur le fact checking. Il faut vraiment se préparer en amont, avoir des fiches, des bons liens sur les sujets qui vont être abordés, et se nourrir de sites avec des chiffres comme vie-publique.fr par exemple. Le fact checking en temps réel est un vrai plus, et le sera encore davantage lorsque la télévision connectée sera installée dans les foyers.
Après, dire que l’on fait du fact checking en live, tout le temps, serait prétentieux. Parfois, cela nécessite un travail de fond que l’on ne peut pas réaliser en 3 minutes. Faire un vrai décryptage c’est ne pas se contenter de la parole politique. Mais en vrai, c’est un exercice sans filet, où le fact checking est parfois sujet à interprétation. Ce ne sont pas des maths, il y a parfois des zones grises (cf les “plutôt vrais”, “plutôt faux” du blog Les Décodeurs). Néanmoins, Nicolas Sarkozy a pu dire pendant deux ans qu’un bouclier fiscal existait en Allemagne avant que l’on vérifie et qu’on écrive que ce n’était pas le cas».
>> Lire le fact checking politique sur WIP >>
Nicola Bruno, journaliste, auteur pour le Reuters Institute Study of Journalism d’un travail de recherche intitulé “tweet first, verify later”
«Maximilian Schäfer, du journal allemand Spiegel, l’a dit: le fact checking ne concerne pas la vérification des faits, mais la fiabilité des sources. Or il est de plus en plus difficile de s’assurer de la fiabilité de ses sources, parce que l’on a moins de temps pour cela, parce que les sources sont multiples et disséminées sur les réseaux sociaux, et aussi, parce que, sur Internet, personne ne sait que vous êtes un chien. Enfin, si, selon Paul Bradshaw, du Guardian, qui assure qu’on laisse tant de traces sur le Net que, même si l’on ne connaît pas la source, on peut déterminer son sérieux en fonction de son empreinte numérique.
Et dans les rédactions comme la BBC, le Guardian ou CNN, les approches sont différentes. Au Guardian, ils privilégient la vitesse, donc ils publient d’abord, ils vérifient après. A CNN, qui s’appuie sur iReport, une partie du site où des amateurs peuvent partager leurs infos (environ 10.000 iReports/mois), le contenu n’est pas vérifié tant qu’il n’a pas été sélectionné par la rédaction. Côté BBC, qui reçoit environ 10.000 contributions par jour de la part des utilisateurs, la vérification des contenus venus des réseaux sociaux est beaucoup plus stricte. Une équipe surveille les réseaux sociaux 24h/24, cherche et appelle des sources éventuelles. Leur principe? Vérifier d’abord, publier après. Twitter s’est révélé une très bonne source pour la couverture du tremblement de terre à Haïti. Ça, on peut le dire aujourd’hui, mais à l’instant T, comment en être sûr?
Concernant les outils, pour vérifier les contenus générés par les utilisateurs, il y a TinEye pour les images, et Exif pour savoir avec quel appareil celles-ci ont pu être prises, mais aussi Google Maps et Street View pour les lieux. Et pour savoir si une photo a été retouchée? Le site Errorlevelanalysis.com. Il n’y a pas de secret, on utilise toujours les mêmes principes de vérification, issus du journalisme traditionnel, le tout boosté par les nouveaux outils et les réseaux sociaux.»
>> Lire la présentation sur Storify de Nicola Bruno >>
>> Lire Information venue du Web, check! sur WIP >>
Julien Pain, journaliste à France 24, responsable du site et de l’émission les Observateurs
«Notre force, à France 24, c’est d’avoir une base de données de 20.000 personnes dans le monde, dont 3.000 sont labelisées “observateurs” parce qu’on les a jugées fiables. Tous les contenus des utilisateurs sont vérifiés avant publication, mais le plus difficile à vérifier pour nous, depuis Paris, ce sont les vidéos. Dès qu’il se passe quelque chose dans l’actualité, la rédaction à Paris passe en revue les observateurs présents dans la région concernée et les appelle.
Que peut-on demander à des amateurs? Nous “alerter” sur des choses qui se passent, “capter” des bribes d’actu et “vérifier” des éléments. Que ne peut-on pas leur demander? Fournir des papiers clés en main avec le titre le chapeau et l’information présentée de façon concise, ou de se déplacer sur commande (et gratuitement). Mon travail est d’autant plus intéressant lorsqu’il concerne des pays où il n’y a pas de journalistes, surtout lorsque les amateurs nous montrent des images que les autorités ne veulent pas que l’on voit. Le problème, c’est que les bons contenus n’arrivent pas tout seuls sur le site de France 24, il faut aller les chercher.
Quant à la vérification, elle n’est seulement le fait des journalistes. Les amateurs peuvent nous aider à vérifier des images, et leur connaissance culturelle du pays est inestimable dans cette tâche. Les contenus amateurs explosent dans les lives, et s’entremêlent aux contenus professionnels. On l’a vu à France 24, et même à Reuters qui le fait dans ses lives. L’avenir? L’image amateur diffusée en live… Et le risque de commettre des boulettes.»
>> Lire Le type du Web répond au grand reporter, la tribune de Julien Pain sur WIP >>
>> Lire Information venue du Web, check! sur WIP >>
NB: Cette conférence a aussi été l’occasion de remettre le prix de l’innovation en journalisme Google/Sciences Po et des bourses de mérite aux étudiants. Félicitations aux lauréats!
Alice Antheaume
lire le billet
«Télévision», «deuxième écran» et «utilisateurs» ont été parmi les mots les plus prononcés au Monaco Media Forum, cette conférence annuelle sur l’économie des médias, dont l’édition 2011 s’est tenue les 9, 10 et 11 novembre. Citations à retenir.
Prédiction
Michael Wolff, Wired
«Twitter a changé le monde et va jouer sur la façon dont on pense et reçoit les informations à l’occasion des prochaines élections présidentielles américaines. Twitter va élire le prochain président des Etats-Unis.»
Nikesh Arora, Google
«Vous pouvez parler A votre téléphone plutôt que de parler DANS votre téléphone. On l’avait prédit il y a quelques temps, c’est désormais devenu une réalité.»
Le partage
Dick Costolo, Twitter
«Nous voulons que Twitter soit le monde dans votre poche. C’est-à-dire que Twitter permette, en instantané, de savoir ce qu’il se passe dans LE monde et dans VOTRE monde. Twitter réduit la distance entre les gens. Je ne parle pas de distance géographique, je veux dire que cela réduit les barrières artificielles entre les gens, les barrières liées au statut entre citoyens et politiques, people et anonymes. Cela aplanit le paysage, et met tout le monde au même niveau. Les gens peuvent “se voir” avec Twitter, cela a des implications sociales importantes.»
«Alors que le flux d’informations circule en continu chaque jour, chaque personne peut faire entendre sa voix. Une simple photo est une contribution à ce qui se passe dans l’actualité du jour, à l’histoire plus globale. Chacun participe à l’histoire du jour.»
Nikesh Arora, Google
«Nous vivons tous dans le “cloud”. Si vous proposez à vos enfants un ordinateur non relié à Internet, ils n’en voudront pas. A quoi ça sert, pour eux, un ordinateur sans connexion? Ils ne peuvent pas partager.»
Christian Hernandez, Facebook
«Si on partage des contenus sur Facebook, c’est qu’il y a une raison. C’est pour avoir une réponse…»
Deuxième écran
Rich Riley, Yahoo!
«Lorsque nous regardons un écran de télévision, nous faisons souvent autre chose en même temps, en utilisant parfois sur un autre support. C’est une seconde expérience sur écran. Certaines expériences sur ordinateur seront intéressantes à vivre sur l’écran télévisuel. Nous avons 700 millions d’utilisateurs de Yahoo! par mois, et notre objectif, c’est d’offrir à nos utilisateurs une expérience entièrement personnalisée.»
Gilles Wilson, Ericsson TV
«L’interactivité peut avoir lieu en dehors de l’écran de télévision, sur un téléphone ou une tablette. Un mobile vous identifie de façon très personnelle, c’est vraiment l’outil parfait pour dire ce que vous pensez de ce que vous voyez.»
David Rowan, Wired
«On suppose qu’il y aura un deuxième écran. Est-ce que la conversation en temps réel sera sur ce deuxième écran?»
Le contrôle
Nikesh Arora, Google
«Que cherchent les utilisateurs? C’est simple: ils veulent du contrôle. C’est le sens de la première télécommande: pouvoir décider des programmes tout en restant assis. Netflix, YouTube, Apple… On décide de ce que l’on veut voir, quand et où. Ceci va continuer à transformer l’industrie.»
Vidéos
Lucas Waston, Google
«La vidéo, c’est le moyen le plus facile pour émouvoir les gens et les toucher. Chaque mois, 800 millions de personnes viennent sur YouTube. Sur cette plate-forme, 3,5 millions de vidéos sont vues chaque jour, et 4 ans de vidéos sont uploadées chaque minute.»
Jim Louderback, Revision3
«Dans une vidéo, l’audio est plus important que la qualité visuelle de l’image. Si le son est mauvais, les gens vont zapper tout de suite. Donc on peut faire du “low cost”, mais pas sur le son. Pour que les gens cliquent, et restent sur une vidéo, c’est comme lorsque vous voulez séduire, vous mettez du maquillage. Après, une fois que vous êtes aimé, plus besoin de maquillage, vous êtes aimé de toutes façons, pour ce que vous êtes.»
Télévision
Maurice Lévy, Publicis
«Les journaux auront disparu avant que l’on voit la télévision s’éroder. La révolution n’est pas qu’une question de technologie, cela touche aussi à l’humain. Le plus important, ce sont les gens. Les téléspectateurs continuent à regarder les mêmes programmes de façon passive, leurs habitudes sont incrustées et perdurent. Ils n’ont pas tous envie d’interagir avec le programme, sur un autre support ou pas. On ne peut pas les “rebrancher”, on peut juste les aider à changer.»
Emma Barnett, The Telegraph
«La télévision va changer, dans les cinq années à venir, la production locale: à mesure que le marché augmente, il y a plus d’argent pour financer des productions locales professionnelles. Les Libyens ont vu la photo de Kadhafi mourant sur la télé satellite, pas sur Twitter ni sur Facebook. La télé est accessible, elle ne vaut pas cher, alors que les réseaux sociaux et l’Internet, je ne suis pas sûre que tout le monde, au Moyen Orient, y est accès.»
AA
lire le billetMort de Mouammar Kadhafi, G20 à Cannes, matchs de foot, débats politiques… Le «live», ce format éditorial qui permet de raconter en temps réel un événement en mixant textes, photos, vidéos, contenus issus des réseaux sociaux et interactions avec l’audience, est un appât à lecteurs. La preuve par (au moins) deux: 1. selon les estimations, il récolte minimum 30% du trafic général d’un site d’infos généralistes – un pourcentage qui peut augmenter très vite en fonction de paramètres décrits ci-dessous. 2. Le «live» est un facteur d’engagement de l’audience, les internautes restant plus longtemps, beaucoup plus longtemps, sur ce type de format.
>> Lire cet article en anglais >>
MISE A JOUR: Ce lundi 14 novembre, France Télévisions lance sa plate-forme d’informations en continu, disponible sur le Web et sur mobile (1). Le projet pousse la logique du «live» à son paroxysme. En effet, il repose sur un «live perpétuel» qui relate, de 6h du matin à minuit, l’ensemble des actualités du jour (la grève annoncée à Pôle Emploi, la nomination de Mario Monti, les derniers propos sur DSK, les otages libérés au Yémen, etc.) via vidéos, photos, textes… Le tout est réalisé par des «liveurs», c’est-à-dire des journalistes devenus des spécialistes du «live» numérique, qui répondent aux questions et réactions de l’audience sur l’actualité en temps réel.
Côté hiérarchie de l’info, la logique de ce «live permanent» est la suivante: si c’est une information secondaire, trois lignes suffisent, alors qu’une information essentielle fera l’objet de plusieurs entrées, voire plusieurs développements, dans et en dehors du «live» du jour.
Pour Nico Pitney, éditeur exécutif du the Huffington Post interrogé par le Nieman Lab, le «live» intéresse deux personnes sur trois. «Imaginons trois types de lecteurs», détaille-t-il. «Les premiers veulent les éléments-clés sur une information, une solide vue d’ensemble qui correspond à la lecture d’un article traditionnel. Cette catégorie n’est pas intéressée par le développement minute par minute ni par la couverture en “live”. La deuxième catégorie connaît déjà le résumé des informations mais veut aussi les éléments-clés et la couverture en “live”. Le troisième type de lecteurs – et nous considérons que c’est la majorité de nos utilisateurs – veut d’abord un aperçu de l’actu, mais une fois qu’ils ont vu le “live”, cela les plonge en profondeur dans l’histoire»…
Sous entendu, ils restent scotchés, pris dans les filets du «live», et de la promesse de ce format de leur délivrer les dernières informations disponibles sur l’événement «livé», au fur et à mesure que celui-ci se déroule.
Le live est la nouvelle télé
Pourquoi le «live» fascine-t-il tant, pour reprendre l’intitulé de l’un des ateliers organisés ce mardi aux Assises du journalisme à Poitiers (2)? En partie parce que ce dispositif permet aux utilisateurs de jouer un nouveau rôle, estiment la plupart des intervenants de cette conférence.
«Les internautes ont l’impression de faire l’info», explique l’une d’entre eux, Karine Broyer, rédactrice en chef Internet et nouveaux médias de France 24. «Lors des événements en Egypte, certains posaient dans le live une question pour notre envoyé spécial qui se trouvait alors Place Tahir au Caire, en l’interpellant par son prénom, Karim (Hakiki, ndlr)». Et, si la question était pertinente, Karim Hakiki leur répondait, donnant peut-être l’impression aux lecteurs d’avoir enfin leur mot à dire dans la construction de l’information…
«Lorsque ont eu lieu les débats télévisés des primaires socialistes, nous avons choisi de ne pas ouvrir de live sur le site – trop franco-français pour un média international comme France 24. Nous avons peut-être eu tort, je ne sais pas. Toujours est-il que nos utilisateurs nous ont hélés sur Twitter sur le mode “vous dormez ou quoi? Il faut vous mettre en live…”»
Typologie de réactions en live
«Les internautes sont acteurs», reprend Jonathan Parienté, journaliste de la cellule présidentielle du Monde.fr. Il note trois formes de commentaires lors des «lives»:
Alors que, par défaut sur lemonde.fr, aucun commentaire n’est publié dans un «live» avant validation par la rédaction, les règles du genre sont simples: le type de commentaire 1 est retenu si l’internaute développe un peu son jugement mais, pour être honnête, cela n’a pas d’intérêt journalistique. Le genre 2 constitue l’essentiel des réactions publiées dans les «lives» et sont utiles pour articuler le dispositif éditorial, en donnant une sensation visuelle de dialogue entre internautes et rédactions, lesquelles restent en position de magistère. Le genre 3, très rare, est très utile d’un point de vue journalistique, nécessite certes vérification avant publication mais renverse la vapeur (l’apport vient cette fois de l’extérieur de la rédaction).
Les ingrédients d’un «live» réussi? Cela tient avant tout à «l’intérêt de l’actualité», assure Karine Broyer. «98% des lives que nous lançons sont issus de breaking news», autrement dit traitant d’actualités non anticipées.
Les accélérateurs de «live»
Outre la force d’une actualité, il y a des facilitateurs de réussite:
Sur un outil comme Cover It Live, utilisé par la majorité des sites d’informations en France (La Nouvelle République, Le Monde, Libération, France 24, etc.), le live n’a qu’une URL unique. Des outils développés en interne, comme celui du Huffington Post, attribue une URL par «post» et augmente le taux de partage sur les réseaux sociaux, chaque utilisateur pouvant citer l’un des contenus du live, une photo, un décryptage, une citation, plutôt que de pointer sur un titre très général du type «vivez en direct tel événement».
A l’Ecole de journalisme de Sciences Po, la construction de «live» sur le Web fait partie de la formation des étudiants depuis septembre 2010, au même titre que l’apprentissage d’un reportage télévisuel, ou d’un flash radio. Car raconter en instantané ce qu’il se passe, en apportant du contexte aux informations, en les mettant en perspective, en répondant aux questions de l’audience sur le sujet, et en pratiquant le fact checking, cela demande de la rigueur. Et de l’endurance. Surtout lorsque le «live» dure des jours voire des semaines – celui de Reuters sur Fukushima, entre le 11 et le 26 mars, a duré 15 jours et comporte 298 pages.
Trop de lives tuent-ils le live?
Et après? Si tous les médias «livent» aux mêmes moments les mêmes informations, quel intérêt? «Je ne vais pas m’arrêter de faire du “live” parce que tout le monde le fait», tranche Karine Broyer. D’autant que, selon la matière dont on dispose, les sources, les liens qu’on y met, le ton et le tempo, aucun live ne ressemble à un autre, complète Jonathan Parienté. Pas d’inquiétude, donc, il y a de la place pour tous sur ce format encore expérimental: «la pluralité des lives est la même que la pluralité des médias», conclut Florence Panoussian, responsable des rédactions Web et mobiles de l’AFP.
(1) Bruno Patino, le directeur de la stratégie numérique de France Télévisions, est également directeur de l’Ecole de journalisme de Sciences Po, où je travaille.
(2) Atelier auquel j’ai participé en tant qu’animatrice. Merci à Bérénice Dubuc, Jean-Christophe Solon, Karine Broyer, Jonathan Parienté, et Florence Panoussian, pour ces échanges.
Alice Antheaume
lire le billet