Deux ans après le rachat de Rue89 par Le Nouvel Observateur pour 7,5 millions d’euros, le torchon brûle entre le groupe et l’ancien pure-player. Lundi matin, vers 10h, la rédaction de Rue89 vote la grève pour 24 heures renouvelables, espérant obtenir des garanties sur son avenir. Conséquence: le site est gelé. L’équipe gréviste, qui a créé un compte Twitter pour l’occasion, @Rêve_89, a indiqué ses revendications dans un billet: «maintien de l’identité» de Rue89 et préservation de l’équipe pour les deux prochaines années.
Ce lundi après-midi, Claude Perdriel, président du directoire du groupe Nouvel Observateur, et Nathalie Collin, directrice générale, reçoivent des représentants de Rue89 pour entamer des discussions. Lundi soir, Claude Perdriel signe une mise au point dans laquelle il juge la réaction des journalistes de Rue89 «incompréhensible» car «assumer (notre partenariat, ndlr) ne menace en rien l’indépendance éditoriale de Rue89, au contraire». MISE A JOUR 10 décembre 2013, 11h: mardi matin, la grève à Rue89 est reconduite. MISE A JOUR 11 décembre 2013, 11h: la grève est stoppée et Rue89 reprend le travail, indiquant dans cet article avoir obtenu les garanties demandées.
Cherche nouvel actionnaire
Le moral est en berne des deux côtés. A Rue89, pour qui c’est la première grève depuis sa création en 2007. Et à l’Observateur, où, depuis septembre, les salariés proches de la retraite sont incités à partir, et leurs départs ne seront pas remplacés. L’actionnaire de toujours Claude Perdriel songe à passer la main et semble faire les yeux doux à Xavier Niel, le patron de Free et actionnaire du Monde, pour lui succéder. Dans les couloirs, on considère que les investissements réalisés sur le numérique ont saboté le vaisseau amiral. Le groupe a perdu environ 7 millions d’euros en 2013 dont 800.000 euros seraient imputables à Rue89. Claude Perdriel, ingénieur de formation, sait depuis longtemps comment fonctionne une rotative et a mis un point d’honneur à saisir aussi le fonctionnement du Web. Il ne regrette pas d’«avoir racheté Rue89 mais, financièrement, il est évident (qu’il n’a) pas fait une bonne affaire».
«Nous ne sommes pas les mauvais élèves du groupe»
A ces accusations, les grévistes de Rue89 répondent qu’ils ne sont pas «les mauvais élèves du groupe». «Nous faisons un quart de l’audience (2,4 millions de visiteurs uniques par mois, ndlr) de tout le groupe, alors que nous sommes une toute petite rédaction», m’expliquent-ils. «Nous ne sommes pas en train de négocier notre xième semaine de congés par an, nous demandons à ce que le site et son développement soient pérennisés.» Cela passerait sans doute par, entre autres, une meilleure monétisation des contenus. «Cela fait deux ans que personne ne s’occupe de la publicité sur Rue89, personne ne vend Rue89!», proteste l’équipe, pointant du doigt le dédain de la régie publicitaire, en charge de la commercialisation des espaces. Dans ces conditions, «il n’est pas étonnant qu’on ne gagne pas d’argent…».
Affichage en une
La grenade a été dégoupillée lorsque, jeudi dernier, la façade de Rue89 a changé. Sur les pages du site cohabitent désormais les logos du Nouvel Observateur, en haut, et de Rue89, précédé du mot «partenaire». En outre, l’URL de la page d’accueil – mais pas celle des pages articles – a été modifiée: à la place de Rue89.com, on trouve rue89.nouvelobs.com. Des changements qui, pour l’équipe, «rétrograd(e)nt Rue89 au rang “d’apporteur de contenus” et sacrifi(e)nt l’identité de notre Rue».
Ces modifications ne sont pas un caprice de l’Observateur. Elles correspondent au souci de se mettre en conformité avec les nouvelles directives de Médiamétrie, l’institut de mesure plébiscité par les annonceurs. Avec ce changement, c’en est fini du co-branding et des doubles marques comme par exemple Le Huffington Post et Lemonde.fr.
Les règles de Médiamétrie expliquées
Quelles sont ces nouvelles règles en vigueur? Pour qu’un Nouvel Observateur puisse agglomérer l’audience de Rue89 avec celle de son titre, il faut soit faire passer Rue89 pour une déclinaison de la marque principale, soit considérer que Rue89 est un fournisseur de contenus.
Dans le premier cas, la nouvelle règlementation de Médiamétrie impose une imbrication des deux logos avec une visibilité plus grande accordée à celui de la maison mère. Il faut aussi que les deux marques appartiennent au même groupe et que la marque principale soit l’actionnaire principale de la marque déclinée.
Dans le second cas, Rue89 est «encapsulé» comme une rubrique dans l’environnement du Nouvel Observateur. Ici, non seulement le contenu fourni doit porter l’URL de la marque mais le logo du fournisseur (Rue89) doit être en-dessous du logo de la marque principale (Le Nouvel Observateur).
MISE A JOUR 10 décembre 2013, 12h10: Si la première option, la déclinaison d’une marque (par exemple Le Figaro et Madame Le Figaro ou ELLE et ELLE Déco), nécessite le vote de la Commission d’auto-régulation de Médiamétrie, qui se tient tous les mois, la deuxième option est acceptée automatiquement lorsque les règles sont respectées. C’est ce second cas de figure, la fourniture de contenus, qui concerne Rue89.
Sans la refonte, Rue89 verrait son audience de décembre comptabilisée à part de celle du Nouvel Observateur en ligne. Les deux perdraient plusieurs places.
Or si Claude Perdriel a racheté Rue89 en décembre 2011, c’était avant tout pour grimper sur les marches du podium et espérer dépasser Lemonde.fr et Lefigaro.fr, devant NouvelObs.com dans le classement Médiamétrie que consulte les publicitaires, pour qui plus on est gros, plus on est beau. Aucune chance, vu l’intention initiale qui a présidé à l’achat de Rue89, que le directoire accepte que le trafic de Rue89 soit comptabilisé d’un côté et celui de NouvelObs.com de l’autre. L’objectif, c’est d’intégrer l’un à l’autre pour cumuler les audiences.
Le Huffington Post et Le Monde ne changent rien
Le dilemme concerne aussi le Huffington Post et lemonde.fr. Aucun changement n’est prévu (ni en termes de logo ni en termes d’URL), même si cela devrait faire perdre, selon les estimations, environ 15% de l’audience du Monde.fr en décembre. Quand bien même le souhait aurait été d’intégrer l’un à l’autre, il n’est pas certain que cela serait possible car Le Monde ne détient que 34% du Huffington Post.
En revanche, Le Lab, lui, sera toujours compté dans l’audience d’Europe1.fr en tant que déclinaison de marque car, pour se conformer aux nouvelles règles de Médiamétrie, il a installé le changement de logos (avec Europe 1 plus gros que Le Lab) depuis novembre en ligne. Même si cela n’est pas requis pour faire valoir son site comme déclinaison d’une marque, son URL, lelab.europe1.fr, comporte, depuis sa naissance en décembre 2011, le nom de la maison mère, Europe 1. «C’est la spécificité du pure-player interne qui grandit… plutôt que le pure-player (externe) mal digéré lors de son rachat», proclame Antoine Bayet, rédacteur en chef de Le Lab.
Les atouts d’un pure-player
Outre gagner des places dans les mesures d’audience, l’autre raison qui peut pousser un groupe à acheter un pure-player, c’est que la rédaction de celle-ci est plus agile avec les nouvelles pratiques journalistiques et que l’innovation y est plus facile. Imaginez, au Nouvel Observateur, la lourdeur du processus industriel pour imprimer le journal chaque semaine et la difficulté de convertir les journalistes traditionnels au travail sur plusieurs supports, l’imprimé, le site Web, le mobile, la tablette. Rue89, une structure plus légère qui ne connaît pas ces contraintes, peut tenter des nouveaux formats éditoriaux. Autrement dit, la vie d’un pure-player, c’est d’abord de se lancer, démontrer qu’il y a un potentiel en expérimentant des formats et des rythmes différents, et parfois être racheté par un plus gros qui va financer le développement de ce potentiel. A condition d’avoir les reins solides…
Alice Antheaume
lire le billet>> Lire cet article en Anglais >>
Les algorithmes, ces robots intelligents qui trient des tonnes d’informations pour les classer selon la demande des utilisateurs, sont – déjà – les collègues des journalistes. La cohabitation automatique/manuel a déjà lieu lorsque les journalistes tentent de rendre un contenu “facebookable” (visible sur le fil d’actualités de Facebook) ou “Google friendly” (visible sur Google) en utilisant les paramètres des algorithmes. Ou lorsque les éditeurs sous-traitent une partie de la page d’accueil de leurs sites d’infos – de fait, les boîtes avec les articles les plus envoyés, les plus commentés, les plus populaires sont gérées par des robots, non par la main humaine.
Quelle est la prochaine étape? Ces robots vont-ils pouvoir produire du contenu de façon autonome, façon forçats de l’information en ligne? Telle est la question posée par cet article, “les ordinateurs sont les nouveaux journalistes pas chers?“, publié sur The Week. Derrière ces interrogations, un logiciel inventé par Narrative Science, une start-up basée à Chicago, aux Etats-Unis, capable de rédiger des articles en faisant des phrases… compréhensibles.
Comment ça marche? L’algorithme compile des données pour les transformer en articles. Jusqu’à présent, cette technologie n’était opérante que pour le sport. Désormais, Narrative Science assure que le travail peut être fait pour l’économie (en scannant des comptes financiers d’entreprises) et la politique (à l’aide des résultats de sondages, et d’élections). Tremblez, journalistes, “d’ici 5 ans, un programme informatique gagnera le prix Pultizer”, croit Kris Hammond, chercheur en intelligence artificielle, cité par le New York Times.
“Pour certaines informations très brèves, très simples, une rédaction robotisée peut fonctionner”, estime Frédéric Filloux, auteur de la Monday Note et professeur à l’Ecole de journalisme de Sciences Po. “Mais pour le reste? C’est la théorie du saut en hauteur. Sauter 1,80 m, tout le monde peut y arriver (à condition de s’entraîner, ndlr). Mais 2,30 m, qui peut le faire? Voilà toute la différence entre du très bon et de l’excellent.”
Pas d’humain, pas d’âme journalistique
Même avis du côté d’Alexandre Malsch, 26 ans, ingénieur et directeur général de Melty Network. “Un robot ne saura jamais faire un jeu de mots, à moins peut-être de renseigner tous les jeux de mots de la Terre dans une base de données… Dans tous les cas, un robot ne saura pas écrire un article en y mettant une âme”.
Pourtant, les robots, Alexandre Malsch connaît. Une trentaine d’algorithmes scannent en permanence son site aux 4 millions de visiteurs uniques, destiné aux ados (Alexandre Malsch préfère le terme “jeunes”), Melty.fr. Objectif: “aider” les rédacteurs à produire du contenu au bon format, sur le bon sujet, au bon moment – en clair, pas la peine de mettre en ligne un contenu sur Lady Gaga si le public cible de la chanteuse est à l’école au moment où l’article est publié.
Vers le tout automatique?
Afin, donc, d’être le plus visible possible sur les moteurs de recherche, le jeune développeur a imaginé, dès 2008, un outil de publication (CMS, content management system) qui offre du “presque tout automatique” pour les journalistes. Quelle longueur doit faire le titre de l’article pour arriver en premier dans les résultats de Google? “Aucun rédacteur ne peut en calculer la longueur optimale”, reprend Alexandre Malsch, “seul un robot en est capable”. En effet, dans le CMS, le robot met le titre que tape le rédacteur en “vert” quand il fait la bonne longueur, et en rouge quand il est trop long ou trop court. Idem pour les mots-clés utilisés dans un titre. Le rédacteur peut en proposer trois différents pour chaque contenu produit, le robot donne pour chacun un pourcentage de réussite, le rédacteur n’ayant plus qu’à opter pour le titre ayant obtenu 90% ou 95%.
Autre paramètre sous-traité aux robots dans le CMS de Melty: le nombre de liens que doit contenir tel ou tel article. Et, plus poussé encore, l’heure de la mise en ligne de l’article. A quel moment l’article sera-t-il le plus visible sur Google? Le robot peut le savoir, en analysant de multiples données en un instant, pas le journaliste.
Cette machine à booster le référencement est un exemple de robotisation du système de publication. Le texte, pas touche – à part les liens qu’il contient et le titre. “C’est juste un nouveau Word, un outil pour aider les journalistes, mais cela ne remplace en rien leur travail, leurs interviews, leurs analyses.”
Remettre de l’humain dans les machines
Impressionnant? Aucun doute. Inquiétant? Peut-être. Mais le tout automatique n’est pas encore au programme. “Quand on voit la difficulté qu’ont les outils de traduction à donner des résultats pertinents en temps réel, on comprend que ce n’est pas tout à fait pour demain”, dit encore Frédéric Filloux. D’autant que, rappelle-t-il, avant d’écrire un article, un journaliste doit recueillir une matière première beaucoup plus importante que ce dont il se sert au final… Il faut un volume initial au moins 5 à 10 fois supérieur à la publication.”
Résultat – et c’est paradoxal: Alexandre Malsch et ses développeurs remettent du manuel dans leur machine, par exemple dans l’édition et la sélection des contenus, et dans le fait de pouvoir “forcer” la publication d’un contenu en temps réel, plutôt que d’attendre que le robot le pousse. “Plus le monde avance, plus la sélection humaine a l’importance”, conclut-il. “Le fait à la main redevient une valeur.”
NB: Cet article a été écrit par une humaine.
>> Lire cet article en Anglais >>
Alice Antheaume
Deux semaines en «mission» aux Etats-Unis, une quinzaine de visites dans des rédactions dont le Washington Post, NPR, Fox News, CNN, Politico, Bay Citizen, et des rendez-vous auprès des entreprises de nouvelles technologies, dont Google et Twitter. Quel bilan? Quelles tendances relever? Quels sujets préoccupent les journalistes américains? Quels sont les nouveaux usages qui émergent? Résumé.
En décembre dernier, le New York Times a supprimé ce poste créé un an et demi plus tôt, occupé par Jennifer Preston, qui est désormais retournée au pôle reportages. Pour Preston, interrogée par le site Poynter, la création d’un poste de «social media editor» est une étape dans la vie d’une rédaction, mais une étape temporaire. «Les réseaux sociaux ne peuvent pas appartenir à une seule personne. Cela doit faire partie du travail de tous les journalistes et faire partie du processus éditorial et de la production existante.»
Cindy Boren, social media editor dédiée aux sports pour le Washington Post, sait bien que cette phase n’est pas éternelle. «La suppression du poste de social media editor au New York Times signifie qu’il faut que tous les journalistes se mettent aux réseaux sociaux, pas seulement les “social media editors”. Car les réseaux sociaux, c’est de l’actu pour tous les reporters.» Et elle le prouve: «L’histoire des 400 spectateurs du Super Bowl qui n’ont pas eu de places assises a commencé sur Twitter. Et c’est devenu une polémique énorme, que l’on a racontée et qui a fait partie de nos “top stories”».
Crédit: AA
Il y a un an, les rédactions anglo-saxonnes complétaient voire rééditaient leur charte déontologique pour statuer sur la posture journalistique à tenir sur les réseaux sociaux. Le New York Times interdit alors aux rédacteurs du pôle «news» d’écrire des messages trop «éditorialisants» sur les réseaux sociaux, afin de ne pas empiéter sur le territoire du pôle «opinions». Reuters préconise que ses journalistes se créent deux comptes distincts sur Twitter. L’un à usage professionnel, «pour agréger de l’information et construire un réseau», l’autre à usage personnel, où les journalistes doivent indiquer qu’ils travaillent à Reuters, mais que leurs messages ne reflètent pas l’avis de leur employeur et où ils n’écrivent rien qui puisse être dommageable à leur employeur.
Désormais, l’unanimité est de mise dans toutes les rédactions américaines, qui appellent leurs journalistes au bon sens. Et répètent cette maxime: «Ne dites par sur les réseaux sociaux ce que vous ne diriez pas à l’antenne/à l’écrit.» Même chez Twitter, qui ne fait pourtant pas partie des éditeurs, on réfléchit avant de tweeter. En témoigne un tableau, accroché dans le hall du réseau social, situé à San Francisco, qui martèle «google before you tweet, think before you speak» (faites une recherche sur Google avant de tweeter, réfléchissez avant de parler).
Crédit: DR
Dites Twitter et tous les journalistes s’enthousiasment. Dites Facebook et les mêmes regardent leurs chaussures. Pourquoi? Parce qu’ils négligent le second au profit du premier. «Il faut que je m’y remette», confient-ils le plus souvent. D’autant qu’ils voient bien qu’il y a beaucoup plus d’interactions possibles avec le grand public sur Facebook que sur Twitter. En effet, selon une récente étude d’eMarketer, un internaute américain sur deux est sur Facebook, soit 132,5 millions de personnes (42% de la population américaine), contre 20 millions d’Américains sur Twitter (7% de la population des Etats-Unis).
Andy Carvin, responsable des réseaux sociaux pour NPR, remarqué pour sa couverture des révolutions arabes sur Twitter, a cette formule: «Nous, journalistes, ne sommes nous-mêmes que des visiteurs sur Facebook. Nous n’avons pas de règles très précises, les commentaires affluent, nous ne les modérons pas.»
Le Nieman Lab, le laboratoire d’Harvard qui décrypte l’impact de la révolution numérique sur le journalisme, l’écrit: et si les réseaux sociaux devenaient le nouveau SEO (search engine optimization, en VF)? Comprendre: après que les moteurs de recherche comme Google ont été les plus gros fournisseurs de trafic des sites d’informations, les réseaux sociaux se font leur place en tant que pourvoyeurs d’audience. Sur Politico, les réseaux sociaux apportent entre 10 et 15% du trafic général du site chaque jour. Sur NPR.org, le site de la plus grosse radio des Etats-Unis, 7% de l’audience est fournie par Facebook. Des chiffres qui devraient croître encore – d’ici 2013, il pourrait y avoir 62% de la population américaine sur le réseau fondé par Mark Zuckerberg.
«Je pense que nous serons bientôt arrivés au point où les réseaux sociaux fourniront plus de trafic aux médias que le “search”», écrit Joshua Benton, le directeur du Nieman Lab. Et cela pourrait modifier la façon de produire des informations. «Les journalistes vont changer, de façon subtile, le type de contenus qu’ils réalisent afin d’encourager le partage de ceux-ci». Comment? En s’appuyant sans doute sur des éléments qui poussent les internautes à recommander sur Facebook des articles, ou à les poster sur Twitter. D’après les premières observations, les informations provocantes, émouvantes, et «positives» ont plus de chance de circuler sur les réseaux sociaux que des contenus jugés neutres.
Si la consultation des statistiques en temps réel est souvent considérée comme une pratique taboue dans les rédactions américaines, en revanche, savoir quelles sont les heures pendant lesquelles les sites d’infos génèrent le plus de trafic s’avère très répandu. Et est considéré comme fondamental.
Aux Etats-Unis comme en France, le trafic d’un site d’infos est calqué sur une journée de travail. Enorme audience en début de matinée et lente érosion jusqu’à la chute de 18h, heure à laquelle nombreux sont ceux qui quittent leur travail. «Sur le site du Washington Post, notre “prime time”, c’est 7h-17h, reprend Cindy Boren. Sauf pour le sport, qui marche bien les soirs, le dimanche et le vendredi, pile quand l’audience du reste du site plonge.»
Ainsi, «le temps de travail devient aussi le temps de s’informer», explique Pablo Bockowski (1), chercheur à l’Université de Northwestern et auteur de News at Work, cité par le blog AFP Médiawatch. Pour lui, il y a un lien entre la consommation d’informations en ligne et utilisation des ordinateurs de bureau. Quant aux infos consultées via mobiles, elles seraient surtout consultées avant et après les journées de travail, c’est-à-dire plus tôt le matin et plus tard le soir.
Puisque la consommation d’infos en ligne culmine le matin, l’obsession des rédacteurs en chef, c’est de ne surtout pas prendre de retard pour couvrir l’actualité, car un démarrage en retard ne se rattrape pas, et «plombe» la journée entière. Bill Nichols, le directeur de la rédaction de Politico, le sait: «Si nous avons la main sur une information dès le matin, nous la garderons toute la journée», avec les développements successifs publiés à l’heure (et l’audience qui va avec).
Faire payer des contenus produits par des journalistes, pourquoi pas? Dans les rédactions américaines, les journalistes n’y semblent a priori pas opposés. Sauf dans un cas: lorsque les contenus en question ont d’abord été en accès libre, avant de, «pour une raison ou une autre», devenir payants. «C’est ridicule de changer de stratégie en cours de route. Une fois que tu as relâché le génie de sa bouteille, tu ne peux plus l’enfermer à nouveau», résume l’éditeur Martin G. Reynolds, du groupe Bay Area News.
Sur le site de NPR, ses applications iPhone, iPad et Android, toute la production est en open source, outils, systèmes et contenus. «Tout le monde peut se servir de ce que l’on produit», insiste Andy Carvin, de NPR. La rédaction dit être fière de faire «l’exact opposé» de ce que font Rupert Murdoch et le New York Times, lesquels installent des murs payants.
D’ordinaire, dans les rédactions traditionnelles, les équipes techniques et éditoriales vivent dans des mondes opposés, ne parlent pas le même langage, et ne sont parfois même pas dans les mêmes locaux. Ce qui ne facilite pas la communication et l’avancement des projets. Désormais, les nouvelles organisations ont compris qu’en ligne, il ne pouvait plus y avoir de barrière. Développeurs et journalistes doivent avancer de concert sur les projets, pour une alchimie innovante entre technologie et contenus.
Une formule que l’équipe de Bay Citizen, un site lancé l’année dernière, a fait sienne. Autour de la table, dans leurs bureaux de San Francisco, des éditeurs d’infos et de vidéo, des responsables de communauté, un rédacteur en chef et des développeurs. «Tout le monde ici est journaliste, lance l’un des membres de l’équipe. Les développeurs ne font pas que taper du code, ils jouent un rôle crucial dans l’éditorial. Il est capital pour nous que les liens soient très forts entre l’équipe technique et l’équipe éditoriale. Hors de question d’avoir un prestataire de services extérieur (à la rédaction, ndlr) qui ne comprendrait pas les contenus sur lesquels nous travaillons.»
Pour suivre l’actualité dans les pays arabes, les sites d’infos généralistes, en Europe et aux Etats-Unis, ont mis en place une couverture médiatique inédite, réactualisée en permanence via une nouvelle narration. Une narration qui agrège du texte, des photos, des vidéos, des messages sur les réseaux sociaux. Une narration interactive. Une narration qui évolue en temps réel. Les professionnels du numérique appellent cela des «lives», ces formats éditoriaux qui permettent de suivre, minute par minute, les derniers développements sur les soulèvements ou toute autre actualité à l’instant T.
C’est un changement de paradigme, pour les éditeurs et aussi pour les réseaux sociaux. Othman Laraki, le directeur de la géolocalisation et de la recherche sur Twitter, le constate aussi: «partout où notre croissance a pu débuter, c’est parce qu’il s’est passé, dans l’actualité, de l’instantané» qui se raconte en… «live».
Une nouvelle narration qui semble dicter la (nouvelle) donne au géant Google. Le modèle «un lien = une histoire est vieux voire dépassé. Maintenant, il faut comprendre qu’un lien = plusieurs histoires», décrit un responsable de Google News. Rude tâche pour le robot de Google, appelé «Crawler», chargé de scanner les pages Web pour savoir de quoi elles parlent et ensuite pouvoir les référencer. Le problème du Crawler, c’est de pouvoir photographier un format «live» alors que celui-ci, par définition, n’est pas statique, et évolue d’une minute à l’autre. «Nous essayons d’accélérer la vitesse du Crawler», assure-t-on chez Google, qui rappelle qu’à ses débuts, en 2006, l’algorithme de Google News n’était «rafraîchi que toutes les heures, quand maintenant, il l’est toutes les minutes, et qui sait? Demain, il le sera peut-être toutes les secondes.»
Alice Antheaume
(1) Pablo Bockowski donnera une master class ouverte au public à l’Ecole de journalisme de Sciences Po, jeudi 17 mars.
lire le billetQue retenir de la journée spéciale dédiée aux nouvelles pratiques du journalisme, organisée par l’Ecole de journalisme de Sciences Po et la Graduate school of Journalism de Columbia, le 10 décembre?
Voici les points clés de chaque intervention, d’Ariane Bernard, du nytimes.com, à Antoine Nazaret, de Dailymotion, en passant par Masha Rigin, du Dailybeast.com, Sarah Hinman Ryan, de Times Union, Nicolas Enault, du Monde.fr, Nicolas Kayser-Brill, d’Owni.fr, Michael Shapiro et David Klatell, de la Columbia, et Jean-François Fogel et Bruno Patino, de l’Ecole de journalisme de Sciences Po…
Cliquez ici pour la lire synthèse de la journée en français
Cliquez ici pour lire la synthèse de la journée en anglais
[Merci à tous les éditeurs de l’Ecole de journalisme de Sciences Po qui ont produit vidéos, photos, textes, live stream et tweets pendant cette journée marathon. Cet article a été rédigé d’après leurs notes et le “live”]
Ariane Bernard, home page producer, nytimes.com
Crédit photo: DR/Hugo Passarello Luna
Masha Rigin, spécialiste du référencement (SEO), thedailybeast.com
Crédit photo: DR/Hugo Passarello Luna
Nicolas Enault, coordinateur de l’audience, lemonde.fr
Michael Shapiro, professeur de journalisme, cours de «city newsroom», Graduate School of journalism, Columbia
Crédit vidéo: Daphnée Denis
David Klatell, professeur de journalisme, responsable de l’international, Graduate School of journalism, Columbia
Crédit photo: DR/Hugo Passarello Luna
Sarah J. Hinman Ryan, directrice du pôle investigations et recherche d’informations, Times Union
Madhav Chinnappa, directeur stratégique des partenariats, Google News, ex BBC News
Nicolas Kayser Brill, journaliste de données, statisticien, Owni.fr
Crédit photo: DR/Hannah Olivennes
Crédit vidéo: Diane Jeantet
Antoine Nazaret, éditeur des contenus vidéos «news», Dailymotion
Jean-François Fogel, professeur associé à l’Ecole de journalisme de Sciences Po
Bruno Patino, directeur de l’Ecole de journalisme de Sciences Po
AA
lire le billetEntendu dans une rédaction Web:
«Ton titre sur les retraites, il n’est pas très Google friendly»
«Tu n’as qu’à y ajouter “Sarkozy”, “Domenech”, “météo” et “Facebook” et tu l’auras, ton titre Google friendly!»
Ce dialogue n’est pas fictif. Il désigne l’impact de la titraille, comme on dit dans le jargon, sur le référencement d’un contenu journalistique dans Google – et l’agacement que, parfois, le phénomène suscite chez certains rédacteurs pour qui l’art de trouver un bon titre se situait plus du côté du jeu de mot intellectuel que de l’indexation robotique de contenus via mots-clés. Ce phénomène, en bon anglais, s’appelle le SEO, «search engine optimization». Lequel ne concerne pas que les titres, mais aussi le contenu des articles, la façon dont ils sont écrits, et comment ils sont édités.
Crédit: Flickr/CC/BrunoDelzant
Si les mots «Sarkozy», «Facebook», «Domenech» et «météo» sont cités comme des appâts, c’est parce que ces termes font partie des recherches les plus fréquentes en France, sur Google, depuis le début de 2010. Et que, donc, les articles qui mentionnent ces mots ont plus de chances d’être remontés lorsqu’un internaute les cherche sur un moteur de recherche.
Comprendre, d’abord, et s’adapter, ensuite
Dans certaines rédactions est apparu petit à petit un nouveau métier: le spécialiste du référencement. Il n’est pas journaliste mais «sait parler aux moteurs» et peut faire en sorte que le site pour lequel il travaille soit bien – ou mieux – repéré par les Google, Yahoo! et Bing. Comprendre: que les articles «remontent» plus haut parmi les milliards de pages Web scannées chaque jour. Et si possible dans les premiers résultats de recherche.
«Je sais peut-être parler aux moteurs, mais je ne les commande pas», reprend Olivier Lecompte, responsable de l’architecture et du référencement d’un groupe de presse. Car la façon dont Google indexe les pages, c’est le secret le mieux gardé au monde. Même si Google a documenté dans un guide pour débutants les «meilleures pratiques» en la matière. «Si quelqu’un vous dit qu’il connaît le fonctionnement des algorithmes de Google, cette personne vous ment, annonce à ses étudiants Sandeep Junnarkar, professeur de journalisme interactif à l’Ecole de journalisme de CUNY, à New York. D’autant que ceux-ci changent sans cesse».
Reste à expérimenter, à comprendre, et à savoir s’adapter. Exemple avec un article dans lequel le titre fait mention de «l’Hexagone». «Cela ne va pas, car Google ne peut pas savoir si “l’Hexagone” désigne la France ou bien une forme géométrique», commente Olivier Lecompte, qui parle de Google comme d’une personne. «Google part du principe que chaque titre détermine ce qu’il y aura dans la page. Donc il faut que celui-ci soit signifiant sinon les rédacteurs se tirent une balle dans le pied.» Ce qui est le cas avec ce titre, «Scandale à l’école», mal pensé pour le SEO. «Quel scandale?, demande Olivier Lecompte. De quelle école? D’où? De quoi? Google ne sait pas, donc il ne saura pas quel article il y aura derrière.»
En avant les contenus!
Alors oui, le SEO change la façon d’écrire en ligne, mais sur certains champs seulement: le titre d’un contenu s’avère primordial pour le référencement et le thème de l’article doit être répété plusieurs fois dans la page. Par exemple, si l’article porte comme ici sur le SEO, ce terme doit figurer à plusieurs endroits du texte, tout comme le champ lexical qui y est associé – à moi, donc, de saupoudrer les mots référencement, indexation, mots-clés, contenu au fil du texte (et hop, c’est fait). En revanche, la chute de l’article, qui donne souvent du fil à retordre aux journalistes, n’importe guère.
Les photos ont intérêt à être bien taguées, avec des mots-clés adéquats, car «la recherche de photos sur les moteurs de recherche est au moins aussi importante que celle de textes», insiste Masha Rigin, du Daily Beast.
Quant aux liens hypertextes disposés dans l’article, ils doivent, en plus d’apporter une plus-value journalistique, être placés au bon endroit. «Mettre un lien sur “dit-elle” ou “lire la suite” ou “plus d’infos à venir” ne sert à rien, reprend la SEO du Daily Beast. Il faut que l’internaute comprenne, rien qu’en lisant la portion de mots sur laquelle porte le lien, sur quelle page il va aboutir s’il clique». Et Olivier Lecompte confirme: «si un rédacteur évoque un rapport sur la discrimination au travail, et qu’il met un lien sur le mot “rapport” sans englober les termes “sur la discrimination au travail”, c’est inefficace, car il y a des milliers de rapports sur la toile.»
Enfin, sans entrer trop dans les détails, les adresses URL doivent également être travaillées. Et pas que par les développeurs et les spécialistes du SEO. Dans certains outils de publication, les rédacteurs peuvent éditer, en plus du titre, des url. Au même titre que des légendes de photos ou des chapeaux. «Vos visiteurs peuvent être intimidés par une longue adresse URL dont le sens est crypté (par exemple une url contenant «content/view/959/130/», ndlr)», détaille Google dans son guide SEO. On préfèrera donc des URL avec des mots compréhensibles par tous, comme celle qui contient «societe/article/2010/10/16/liliane-bettencourt-va-porter-plainte-contre-sa-fille».
Prendre des gants
D’aucuns s’émeuvent de ce que l’écriture puisse avoir de l’impact sur le référencement. Pourtant, pour la plupart des sites d’information, le trafic se fait entre 50 à 70% en provenance des moteurs. «Par réflexe corporatiste, on a du mal à voir débouler (les référenceurs, ndlr) avec leur volonté de nous expliquer comment il faut écrire et de chambouler nos priorités éditoriales, ce qui est le cœur de notre métier, explique Christophe Carron, de Prisma, interviewé par le site Café Référencement. A l’expression «content is king, SEO is emperor», qui «sonne un peu comme une provocation, une déclaration de guerre», le journaliste préfère ajouter «content is king, SEO is emperor, reader is God».
«Ce sont aux journalistes de choisir, tranche Michael Shapiro, professeur de journalisme à l’école de la Columbia. Veulent-ils être lus par 10 personnes? Ou 5.000 personnes? Il ne suffit pas de mettre les papiers sur Facebook et sur Twitter. Pour mieux comprendre l’audience qui les lit, d’où elle vient, ce sur quoi elle clique, combien de temps elle reste sur une page, il existe des outils comme Google Analytics. Ils doivent s’en servir.»
Répondre aux questions des internautes
«Avant d’écrire, tous les journalistes devraient se demander ce que cherchent les internautes sur le Net, arguent nombre de rédacteurs en chef. Cela les aiderait à produire des sujets qui répondent aux questions de leurs lecteurs.» Ceci explique en partie le succès des titres commençant par «comment», «pourquoi»… Dans un précédent W.I.P., j’avais déjà tenté de répondre à cette question: et si les journalistes n’écrivaient que ce que les lecteurs lisent?
Jeremy Peters, du New York Times, ne veut pas que l’audience lui impose ses choix éditoriaux. Sur le site de France 24, du Washington Post, sur 20minutes.fr, sur Gawker, les données sur les visites et les clics des internautes sont affichées aux yeux de toute la rédaction. Pas au New York Times. «On ne laisse pas les chiffres nous dicter notre mission journalistique, répond Bill Keller, le rédacteur en chef. Nos lecteurs viennent pour lire nos points de vue, pas ceux de la foule. Nous ne sommes pas American Idol.»
Une position obsolète? Sans doute, car le SEO n’est pas contraire aux valeurs du journalisme. La meilleure enquête du monde ne sert à rien si personne ne la trouve. Et ne peut la lire. Inversement, peu importe que le SEO soit bon si le contenu ne l’est pas, dit en substance le Nieman Lab. Il est insupportable de faire une requête sur Google et de trouver, parmi les résultats, des pages qui ne répondent pas à la recherche.
Un scoop? Comment Google peut-il le savoir?
Dans la cohabitation entre contenus et SEO, il y a un point qui risque d’énerver encore longtemps les journalistes: publier une information exclusive et que celle-ci ne remonte pas dans Google News en premier. A priori, aucune raison que cela change. «Le journaliste est dégouté, mais Google ne réfléchit pas comme cela, dit encore Olivier Lecompte. Comment peut-il savoir qui a sorti l’information en premier? Il voit une suite de mots, il ne lit pas entre les lignes.»
La seule solution, c’est que les sites qui reprennent cette info citent correctement la source originelle, en faisant un lien vers elle. «Google va analyser la source des infos, et s’il voit que beaucoup de monde, à l’extérieur de ton site, parle de toi, il va considérer que tu es important et te faire remonter, reprend Olivier Lecompte. Mais Google ne va pas taper sur les doigts de ceux qui ont oublié de te citer comme source». Faire valoir ses infos, y compris face à la concurrence, cela reste à la charge des journalistes.
Prenez-vous en compte les techniques SEO pour écrire des contenus en ligne? Qu’avez-vous expérimenté? Partagez vos trouvailles dans les commentaires ci-dessous…
Alice Antheaume
Les articles qui ont des chiffres dans leur titre sont plus partagés sur Facebook que ceux qui n’ont pas de chiffre dans leur titre (DanZarrella)
Gros médias ou gros squatteurs de référencement dans les moteurs de recherche? (Gigaom)
Le journalisme de données les doigts dans le nez (Media Trend)
lire le billetLe payant, le rêve éveillé des sites de presse et des pure-players (Médiapart)
Quatre leçons à tirer des erreurs de référencement de Google (Hubspot)
En Italie, on passe par Facebook pour défendre la “dignité des journalistes et le respect des citoyens” (editor’s weblog)
lire le billet