Journalistes au pays des robots

Crédit: Flickr/CC/Brett Jordan

>> Lire cet article en Anglais >>

Les algorithmes, ces robots intelligents qui trient des tonnes d’informations pour les classer selon la demande des utilisateurs, sont – déjà – les collègues des journalistes. La cohabitation automatique/manuel a déjà lieu lorsque les journalistes tentent de rendre un contenu “facebookable” (visible sur le fil d’actualités de Facebook) ou “Google friendly” (visible sur Google) en utilisant les paramètres des algorithmes. Ou lorsque les éditeurs sous-traitent une partie de la page d’accueil de leurs sites d’infos – de fait, les boîtes avec les articles les plus envoyés, les plus commentés, les plus populaires sont gérées par des robots, non par la main humaine.

Quelle est la prochaine étape? Ces robots vont-ils pouvoir produire du contenu de façon autonome, façon forçats de l’information en ligne? Telle est la question posée par cet article, “les ordinateurs sont les nouveaux journalistes pas chers?“, publié sur The Week. Derrière ces interrogations, un logiciel inventé par Narrative Science, une start-up basée à Chicago, aux Etats-Unis, capable de rédiger des articles en faisant des phrases… compréhensibles.

Comment ça marche? L’algorithme compile des données pour les transformer en articles. Jusqu’à présent, cette technologie n’était opérante que pour le sport. Désormais, Narrative Science assure que le travail peut être fait pour l’économie (en scannant des comptes financiers d’entreprises) et la politique (à l’aide des résultats de sondages, et d’élections). Tremblez, journalistes, “d’ici 5 ans, un programme informatique gagnera le prix Pultizer”, croit Kris Hammond, chercheur en intelligence artificielle, cité par le New York Times.

“Pour certaines informations très brèves, très simples, une rédaction robotisée peut fonctionner”, estime Frédéric Filloux, auteur de la Monday Note et professeur à l’Ecole de journalisme de Sciences Po. “Mais pour le reste? C’est la théorie du saut en hauteur. Sauter 1,80 m, tout le monde peut y arriver (à condition de s’entraîner, ndlr). Mais 2,30 m, qui peut le faire? Voilà toute la différence entre du très bon et de l’excellent.”

Pas d’humain, pas d’âme journalistique

Même avis du côté d’Alexandre Malsch, 26 ans, ingénieur et directeur général de Melty Network. “Un robot ne saura jamais faire un jeu de mots, à moins peut-être de renseigner tous les jeux de mots de la Terre dans une base de données… Dans tous les cas, un robot ne saura pas écrire un article en y mettant une âme”.

Pourtant, les robots, Alexandre Malsch connaît. Une trentaine d’algorithmes scannent en permanence son site aux 4 millions de visiteurs uniques, destiné aux ados (Alexandre Malsch préfère le terme “jeunes”), Melty.fr. Objectif: “aider” les rédacteurs à produire du contenu au bon format, sur le bon sujet, au bon moment – en clair, pas la peine de mettre en ligne un contenu sur Lady Gaga si le public cible de la chanteuse est à l’école au moment où l’article est publié.

Vers le tout automatique?

Afin, donc, d’être le plus visible possible sur les moteurs de recherche, le jeune développeur a imaginé, dès 2008, un outil de publication (CMS, content management system) qui offre du “presque tout automatique” pour les journalistes. Quelle longueur doit faire le titre de l’article pour arriver en premier dans les résultats de Google? “Aucun rédacteur ne peut en calculer la longueur optimale”, reprend Alexandre Malsch, “seul un robot en est capable”. En effet, dans le CMS, le robot met le titre que tape le rédacteur en “vert” quand il fait la bonne longueur, et en rouge quand il est trop long ou trop court. Idem pour les mots-clés utilisés dans un titre. Le rédacteur peut en proposer trois différents pour chaque contenu produit, le robot donne pour chacun un pourcentage de réussite, le rédacteur n’ayant plus qu’à opter pour le titre ayant obtenu 90% ou 95%.

Autre paramètre sous-traité aux robots dans le CMS de Melty: le nombre de liens que doit contenir tel ou tel article. Et, plus poussé encore, l’heure de la mise en ligne de l’article. A quel moment l’article sera-t-il le plus visible sur Google? Le robot peut le savoir, en analysant de multiples données en un instant, pas le journaliste.

Cette machine à booster le référencement est un exemple de robotisation du système de publication. Le texte, pas touche – à part les liens qu’il contient et le titre. “C’est juste un nouveau Word, un outil pour aider les journalistes, mais cela ne remplace en rien leur travail, leurs interviews, leurs analyses.”

Remettre de l’humain dans les machines

Impressionnant? Aucun doute. Inquiétant? Peut-être. Mais le tout automatique n’est pas encore au programme. “Quand on voit la difficulté qu’ont les outils de traduction à donner des résultats pertinents en temps réel, on comprend que ce n’est pas tout à fait pour demain”, dit encore Frédéric Filloux. D’autant que, rappelle-t-il, avant d’écrire un article, un journaliste doit recueillir une matière première beaucoup plus importante que ce dont il se sert au final… Il faut un volume initial au moins 5 à 10 fois supérieur à la publication.”

Résultat – et c’est paradoxal: Alexandre Malsch et ses développeurs remettent du manuel dans leur machine, par exemple dans l’édition et la sélection des contenus, et dans le fait de pouvoir “forcer” la publication d’un contenu en temps réel, plutôt que d’attendre que le robot le pousse. “Plus le monde avance, plus la sélection humaine a l’importance”, conclut-il. “Le fait à la main redevient une valeur.”

NB: Cet article a été écrit par une humaine.

>> Lire cet article en Anglais >>

Alice Antheaume

lire le billet

Journalisme et réseaux sociaux: 8 tendances venues des Etats-Unis

Deux semaines en «mission» aux Etats-Unis, une quinzaine de visites dans des rédactions dont le Washington Post, NPR, Fox News, CNN, Politico, Bay Citizen, et des rendez-vous auprès des entreprises de nouvelles technologies, dont Google et Twitter. Quel bilan? Quelles tendances relever? Quels sujets préoccupent les journalistes américains? Quels sont les nouveaux usages qui émergent? Résumé.

  • Le rôle de «social media editor», c’est fini?

En décembre dernier, le New York Times a supprimé ce poste créé un an et demi plus tôt, occupé par Jennifer Preston, qui est désormais retournée au pôle reportages. Pour Preston, interrogée par le site Poynter, la création d’un poste de «social media editor» est une étape dans la vie d’une rédaction, mais une étape temporaire. «Les réseaux sociaux ne peuvent pas appartenir à une seule personne. Cela doit faire partie du travail de tous les journalistes et faire partie du processus éditorial et de la production existante.»

Cindy Boren, social media editor dédiée aux sports pour le Washington Post, sait bien que cette phase n’est pas éternelle. «La suppression du poste de social media editor au New York Times signifie qu’il faut que tous les journalistes se mettent aux réseaux sociaux, pas seulement les “social media editors”. Car les réseaux sociaux, c’est de l’actu pour tous les reporters.» Et elle le prouve: «L’histoire des 400 spectateurs du Super Bowl qui n’ont pas eu de places assises a commencé sur Twitter. Et c’est devenu une polémique énorme, que l’on a racontée et qui a fait partie de nos “top stories”».

Crédit: AA

Crédit: AA

  • N’écris pas sur Twitter ce que tu ne dirais pas à l’antenne

Il y a un an, les rédactions anglo-saxonnes complétaient voire rééditaient leur charte déontologique pour statuer sur la posture journalistique à tenir sur les réseaux sociaux. Le New York Times interdit alors aux rédacteurs du pôle «news» d’écrire des messages trop «éditorialisants» sur les réseaux sociaux, afin de ne pas empiéter sur le territoire du pôle «opinions». Reuters préconise que ses journalistes se créent deux comptes distincts sur Twitter. L’un à usage professionnel, «pour agréger de l’information et construire un réseau», l’autre à usage personnel, où les journalistes doivent indiquer qu’ils travaillent à Reuters, mais que leurs messages ne reflètent pas l’avis de leur employeur et où ils n’écrivent rien qui puisse être dommageable à leur employeur.

Désormais, l’unanimité est de mise dans toutes les rédactions américaines, qui appellent leurs journalistes au bon sens. Et répètent cette maxime: «Ne dites par sur les réseaux sociaux ce que vous ne diriez pas à l’antenne/à l’écrit.» Même chez Twitter, qui ne fait pourtant pas partie des éditeurs, on réfléchit avant de tweeter. En témoigne un tableau, accroché dans le hall du réseau social, situé à San Francisco, qui martèle «google before you tweet, think before you speak» (faites une recherche sur Google avant de tweeter, réfléchissez avant de parler).

Crédit: DR

Crédit: DR

  • Facebook le mal aimé des journalistes

Dites Twitter et tous les journalistes s’enthousiasment. Dites Facebook et les mêmes regardent leurs chaussures. Pourquoi? Parce qu’ils négligent le second au profit du premier. «Il faut que je m’y remette», confient-ils le plus souvent. D’autant qu’ils voient bien qu’il y a beaucoup plus d’interactions possibles avec le grand public sur Facebook que sur Twitter. En effet, selon une récente étude d’eMarketer, un internaute américain sur deux est sur Facebook, soit 132,5 millions de personnes (42% de la population américaine), contre 20 millions d’Américains sur Twitter (7% de la population des Etats-Unis).

Andy Carvin, responsable des réseaux sociaux pour NPR, remarqué pour sa couverture des révolutions arabes sur Twitter, a cette formule: «Nous, journalistes, ne sommes nous-mêmes que des visiteurs sur Facebook. Nous n’avons pas de règles très précises, les commentaires affluent, nous ne les modérons pas.»

  • Les réseaux sociaux, les nouveaux référenceurs d’audience

Le Nieman Lab, le laboratoire d’Harvard qui décrypte l’impact de la révolution numérique sur le journalisme, l’écrit: et si les réseaux sociaux devenaient le nouveau SEO (search engine optimization, en VF)? Comprendre: après que les moteurs de recherche comme Google ont été les plus gros fournisseurs de trafic des sites d’informations, les réseaux sociaux se font leur place en tant que pourvoyeurs d’audience. Sur Politico, les réseaux sociaux apportent entre 10 et 15% du trafic général du site chaque jour. Sur NPR.org, le site de la plus grosse radio des Etats-Unis, 7% de l’audience est fournie par Facebook. Des chiffres qui devraient croître encore – d’ici 2013, il pourrait y avoir 62% de la population américaine sur le réseau fondé par Mark Zuckerberg.

«Je pense que nous serons bientôt arrivés au point où les réseaux sociaux fourniront plus de trafic aux médias que le “search”», écrit Joshua Benton, le directeur du Nieman Lab. Et cela pourrait modifier la façon de produire des informations. «Les journalistes vont changer, de façon subtile, le type de contenus qu’ils réalisent afin d’encourager le partage de ceux-ci». Comment? En s’appuyant sans doute sur des éléments qui poussent les internautes à recommander sur Facebook des articles, ou à les poster sur Twitter. D’après les premières observations, les informations provocantes, émouvantes, et «positives» ont plus de chance de circuler sur les réseaux sociaux que des contenus jugés neutres.

  • Infos en ligne = infos au bureau

Si la consultation des statistiques en temps réel est souvent considérée comme une pratique taboue dans les rédactions américaines, en revanche, savoir quelles sont les heures pendant lesquelles les sites d’infos génèrent le plus de trafic s’avère très répandu. Et est considéré comme fondamental.

Aux Etats-Unis comme en France, le trafic d’un site d’infos est calqué sur une journée de travail. Enorme audience en début de matinée et lente érosion jusqu’à la chute de 18h, heure à laquelle nombreux sont ceux qui quittent leur travail. «Sur le site du Washington Post, notre “prime time”, c’est 7h-17h, reprend Cindy Boren. Sauf pour le sport, qui marche bien les soirs, le dimanche et le vendredi, pile quand l’audience du reste du site plonge.»

Ainsi, «le temps de travail devient aussi le temps de s’informer», explique Pablo Bockowski (1), chercheur à l’Université de Northwestern et auteur de News at Work, cité par le blog AFP Médiawatch. Pour lui, il y a un lien entre la consommation d’informations en ligne et utilisation des ordinateurs de bureau. Quant aux infos consultées via mobiles, elles seraient surtout consultées avant et après les journées de travail, c’est-à-dire plus tôt le matin et plus tard le soir.

Puisque la consommation d’infos en ligne culmine le matin, l’obsession des rédacteurs en chef, c’est de ne surtout pas prendre de retard pour couvrir l’actualité, car un démarrage en retard ne se rattrape pas, et «plombe» la journée entière. Bill Nichols, le directeur de la rédaction de Politico, le sait: «Si nous avons la main sur une information dès le matin, nous la garderons toute la journée», avec les développements successifs publiés à l’heure (et l’audience qui va avec).

  • Non aux contenus gratuits devenus payants

Faire payer des contenus produits par des journalistes, pourquoi pas? Dans les rédactions américaines, les journalistes n’y semblent a priori pas opposés. Sauf dans un cas: lorsque les contenus en question ont d’abord été en accès libre, avant de, «pour une raison ou une autre», devenir payants. «C’est ridicule de changer de stratégie en cours de route. Une fois que tu as relâché le génie de sa bouteille, tu ne peux plus l’enfermer à nouveau», résume l’éditeur Martin G. Reynolds, du groupe Bay Area News.

Sur le site de NPR, ses applications iPhone, iPad et Android, toute la production est en open source, outils, systèmes et contenus. «Tout le monde peut se servir de ce que l’on produit», insiste Andy Carvin, de NPR. La rédaction dit être fière de faire «l’exact opposé» de ce que font Rupert Murdoch et le New York Times, lesquels installent des murs payants.

  • L’alliance développeurs/journalistes

D’ordinaire, dans les rédactions traditionnelles, les équipes techniques et éditoriales vivent dans des mondes opposés, ne parlent pas le même langage, et ne sont parfois même pas dans les mêmes locaux. Ce qui ne facilite pas la communication et l’avancement des projets. Désormais, les nouvelles organisations ont compris qu’en ligne, il ne pouvait plus y avoir de barrière. Développeurs et journalistes doivent avancer de concert sur les projets, pour une alchimie innovante entre technologie et contenus.

Une formule que l’équipe de Bay Citizen, un site lancé l’année dernière, a fait sienne. Autour de la table, dans leurs bureaux de San Francisco, des éditeurs d’infos et de vidéo, des responsables de communauté, un rédacteur en chef et des développeurs. «Tout le monde ici est journaliste, lance l’un des membres de l’équipe. Les développeurs ne font pas que taper du code, ils jouent un rôle crucial dans l’éditorial. Il est capital pour nous que les liens soient très forts entre l’équipe technique et l’équipe éditoriale. Hors de question d’avoir un prestataire de services extérieur (à la rédaction, ndlr) qui ne comprendrait pas les contenus sur lesquels nous travaillons.»

  • Le «live», le roi du Web

Pour suivre l’actualité dans les pays arabes, les sites d’infos généralistes, en Europe et aux Etats-Unis, ont mis en place une couverture médiatique inédite, réactualisée en permanence via une nouvelle narration. Une narration qui agrège du texte, des photos, des vidéos, des messages sur les réseaux sociaux. Une narration interactive. Une narration qui évolue en temps réel. Les professionnels du numérique appellent cela des «lives», ces formats éditoriaux qui permettent de suivre, minute par minute, les derniers développements sur les soulèvements ou toute autre actualité à l’instant T.

C’est un changement de paradigme, pour les éditeurs et aussi pour les réseaux sociaux. Othman Laraki, le directeur de la géolocalisation et de la recherche sur Twitter, le constate aussi: «partout où notre croissance a pu débuter, c’est parce qu’il s’est passé, dans l’actualité, de l’instantané» qui se raconte en… «live».

Une nouvelle narration qui semble dicter la (nouvelle) donne au géant Google. Le modèle «un lien = une histoire est vieux voire dépassé. Maintenant, il faut comprendre qu’un lien = plusieurs histoires», décrit un responsable de Google News. Rude tâche pour le robot de Google, appelé «Crawler», chargé de scanner les pages Web pour savoir de quoi elles parlent et ensuite pouvoir les référencer. Le problème du Crawler, c’est de pouvoir photographier un format «live» alors que celui-ci, par définition, n’est pas statique, et évolue d’une minute à l’autre. «Nous essayons d’accélérer la vitesse du Crawler», assure-t-on chez Google, qui rappelle qu’à ses débuts, en 2006, l’algorithme de Google News n’était «rafraîchi que toutes les heures, quand maintenant, il l’est toutes les minutes, et qui sait? Demain, il le sera peut-être toutes les secondes.»

Alice Antheaume

(1) Pablo Bockowski donnera une master class ouverte au public à l’Ecole de journalisme de Sciences Po, jeudi 17 mars.

lire le billet

Quel impact a le SEO sur l’écriture journalistique?

Entendu dans une rédaction Web:

«Ton titre sur les retraites, il n’est pas très Google friendly»

«Tu n’as qu’à y ajouter “Sarkozy”, “Domenech”, “météo” et “Facebook” et tu l’auras, ton titre Google friendly!»

Ce dialogue n’est pas fictif. Il désigne l’impact de la titraille, comme on dit dans le jargon, sur le référencement d’un contenu journalistique dans Google – et l’agacement que, parfois, le phénomène suscite chez certains rédacteurs pour qui l’art de trouver un bon titre se situait plus du côté du jeu de mot intellectuel que de l’indexation robotique de contenus via mots-clés. Ce phénomène, en bon anglais, s’appelle le SEO, «search engine optimization». Lequel ne concerne pas que les titres, mais aussi le contenu des articles, la façon dont ils sont écrits, et comment ils sont édités.

Crédit: Flickr/CC/BrunoDelzant

Crédit: Flickr/CC/BrunoDelzant

Si les mots «Sarkozy», «Facebook», «Domenech» et «météo» sont cités comme des appâts, c’est parce que ces termes font partie des recherches les plus fréquentes en France, sur Google, depuis le début de 2010. Et que, donc, les articles qui mentionnent ces mots ont plus de chances d’être remontés lorsqu’un internaute les cherche sur un moteur de recherche.

Comprendre, d’abord, et s’adapter, ensuite

Dans certaines rédactions est apparu petit à petit un nouveau métier: le spécialiste du référencement. Il n’est pas journaliste mais «sait parler aux moteurs» et peut faire en sorte que le site pour lequel il travaille soit bien – ou mieux – repéré par les Google, Yahoo! et Bing. Comprendre: que les articles «remontent» plus haut parmi les milliards de pages Web scannées chaque jour. Et si possible dans les premiers résultats de recherche.

«Je sais peut-être parler aux moteurs, mais je ne les commande pas», reprend Olivier Lecompte, responsable de l’architecture et du référencement d’un groupe de presse. Car la façon dont Google indexe les pages, c’est le secret le mieux gardé au monde. Même si Google a documenté dans un guide pour débutants les «meilleures pratiques» en la matière. «Si quelqu’un vous dit qu’il connaît le fonctionnement des algorithmes de Google, cette personne vous ment, annonce à ses étudiants Sandeep Junnarkar, professeur de journalisme interactif à l’Ecole de journalisme de CUNY, à New York. D’autant que ceux-ci changent sans cesse».

Reste à expérimenter, à comprendre, et à savoir s’adapter. Exemple avec un article dans lequel le titre fait mention de «l’Hexagone». «Cela ne va pas, car Google ne peut pas savoir si “l’Hexagone” désigne la France ou bien une forme géométrique», commente Olivier Lecompte, qui parle de Google comme d’une personne. «Google part du principe que chaque titre détermine ce qu’il y aura dans la page. Donc il faut que celui-ci soit signifiant sinon les rédacteurs se tirent une balle dans le pied.» Ce qui est le cas avec ce titre, «Scandale à l’école», mal pensé pour le SEO. «Quel scandale?, demande Olivier Lecompte. De quelle école? D’où? De quoi? Google ne sait pas, donc il ne saura pas quel article il y aura derrière.»

En avant les contenus!

Alors oui, le SEO change la façon d’écrire en ligne, mais sur certains champs seulement: le titre d’un contenu s’avère primordial pour le référencement et le thème de l’article doit être répété plusieurs fois dans la page. Par exemple, si l’article porte comme ici sur le SEO, ce terme doit figurer à plusieurs endroits du texte, tout comme le champ lexical qui y est associé – à moi, donc, de saupoudrer les mots référencement, indexation, mots-clés, contenu au fil du texte (et hop, c’est fait). En revanche, la chute de l’article, qui donne souvent du fil à retordre aux journalistes, n’importe guère.

Les photos ont intérêt à être bien taguées, avec des mots-clés adéquats, car «la recherche de photos sur les moteurs de recherche est au moins aussi importante que celle de textes», insiste Masha Rigin, du Daily Beast.

Quant aux liens hypertextes disposés dans l’article, ils doivent, en plus d’apporter une plus-value journalistique, être placés au bon endroit. «Mettre un lien sur “dit-elle” ou “lire la suite” ou “plus d’infos à venir” ne sert à rien, reprend la SEO du Daily Beast. Il faut que l’internaute comprenne, rien qu’en lisant la portion de mots sur laquelle porte le lien, sur quelle page il va aboutir s’il clique». Et Olivier Lecompte confirme: «si un rédacteur évoque un rapport sur la discrimination au travail, et qu’il met un lien sur le mot “rapport” sans englober les termes “sur la discrimination au travail”, c’est inefficace, car il y a des milliers de rapports sur la toile.»

Enfin, sans entrer trop dans les détails, les adresses URL doivent également être travaillées. Et pas que par les développeurs et les spécialistes du SEO. Dans certains outils de publication, les rédacteurs peuvent éditer, en plus du titre, des url. Au même titre que des légendes de photos ou des chapeaux. «Vos visiteurs peuvent être intimidés par une longue adresse URL dont le sens est crypté (par exemple une url contenant «content/view/959/130/», ndlr)», détaille Google dans son guide SEO. On préfèrera donc des URL avec des mots compréhensibles par tous, comme celle qui contient «societe/article/2010/10/16/liliane-bettencourt-va-porter-plainte-contre-sa-fille».

Prendre des gants

D’aucuns s’émeuvent de ce que l’écriture puisse avoir de l’impact sur le référencement. Pourtant, pour la plupart des sites d’information, le trafic se fait entre 50 à 70% en provenance des moteurs. «Par réflexe corporatiste, on a du mal à voir débouler (les référenceurs, ndlr) avec leur volonté de nous expliquer comment il faut écrire et de chambouler nos priorités éditoriales, ce qui est le cœur de notre métier, explique Christophe Carron, de Prisma, interviewé par le site Café Référencement. A l’expression «content is king, SEO is emperor», qui «sonne un peu comme une provocation, une déclaration de guerre», le journaliste préfère ajouter «content is king, SEO is emperor, reader is God».

«Ce sont aux journalistes de choisir, tranche Michael Shapiro, professeur de journalisme à l’école de la Columbia. Veulent-ils être lus par 10 personnes? Ou 5.000 personnes? Il ne suffit pas de mettre les papiers sur Facebook et sur Twitter. Pour mieux comprendre l’audience qui les lit, d’où elle vient, ce sur quoi elle clique, combien de temps elle reste sur une page, il existe des outils comme Google Analytics. Ils doivent s’en servir.»

Répondre aux questions des internautes

«Avant d’écrire, tous les journalistes devraient se demander ce que cherchent les internautes sur le Net, arguent nombre de rédacteurs en chef. Cela les aiderait à produire des sujets qui répondent aux questions de leurs lecteurs.» Ceci explique en partie le succès des titres commençant par «comment», «pourquoi»… Dans un précédent W.I.P., j’avais déjà tenté de répondre à cette question: et si les journalistes n’écrivaient que ce que les lecteurs lisent?

Jeremy Peters, du New York Times, ne veut pas que l’audience lui impose ses choix éditoriaux. Sur le site de France 24, du Washington Post, sur 20minutes.fr, sur Gawker, les données sur les visites et les clics des internautes sont affichées aux yeux de toute la rédaction. Pas au New York Times. «On ne laisse pas les chiffres nous dicter notre mission journalistique, répond Bill Keller, le rédacteur en chef. Nos lecteurs viennent pour lire nos points de vue, pas ceux de la foule. Nous ne sommes pas American Idol

Une position obsolète? Sans doute, car le SEO n’est pas contraire aux valeurs du journalisme. La meilleure enquête du monde ne sert à rien si personne ne la trouve. Et ne peut la lire. Inversement, peu importe que le SEO soit bon si le contenu ne l’est pas, dit en substance le Nieman Lab. Il est insupportable de faire une requête sur Google et de trouver, parmi les résultats, des pages qui ne répondent pas à la recherche.

Un scoop? Comment Google peut-il le savoir?

Dans la cohabitation entre contenus et SEO, il y a un point qui risque d’énerver encore longtemps les journalistes: publier une information exclusive et que celle-ci ne remonte pas dans Google News en premier. A priori, aucune raison que cela change. «Le journaliste est dégouté, mais Google ne réfléchit pas comme cela, dit encore Olivier Lecompte. Comment peut-il savoir qui a sorti l’information en premier? Il voit une suite de mots, il ne lit pas entre les lignes.»

La seule solution, c’est que les sites qui reprennent cette info citent correctement la source originelle, en faisant un lien vers elle. «Google va analyser la source des infos, et s’il voit que beaucoup de monde, à l’extérieur de ton site, parle de toi, il va considérer que tu es important et te faire remonter, reprend Olivier Lecompte. Mais Google ne va pas taper sur les doigts de ceux qui ont oublié de te citer comme source». Faire valoir ses infos, y compris face à la concurrence, cela reste à la charge des journalistes.

Prenez-vous en compte les techniques SEO pour écrire des contenus en ligne? Qu’avez-vous expérimenté? Partagez vos trouvailles dans les commentaires ci-dessous…

Alice Antheaume

lire le billet

Liens du jour #21

Le payant, le rêve éveillé des sites de presse et des pure-players (Médiapart)

Quatre leçons à tirer des erreurs de référencement de Google (Hubspot)

En Italie, on passe par Facebook pour défendre la “dignité des journalistes et le respect des citoyens” (editor’s weblog)

lire le billet