OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Les sites d’info et Facebook: it’s complicated http://owni.fr/2011/07/13/les-sites-infos-facebook-its-complicated/ http://owni.fr/2011/07/13/les-sites-infos-facebook-its-complicated/#comments Wed, 13 Jul 2011 06:34:47 +0000 Marc Mentré http://owni.fr/?p=73538 Le 28 juin, Facebook tenait son premier MeetUp pour les journalistes à Paris. Media Trend était présent grâce à Sophie Lemoine. Disons d’emblée, qu’en écoutant son compte-rendu et en lisant ses notes, j’ai été déçu. Rien de particulièrement nouveau n’a été annoncé lors de cette réunion qui ne soit déjà connu, comme la création de « pages professionnelles » pour les journalistes, le fait de pouvoir lier les commentaires publiés sur le site avec ceux qui le sont sur la page Facebook, l’implémentation des boutons « Like » ou « Recommend » en lieu et place du bouton « Share » , etc.

Je vais revenir en détails sur ces points, mais surtout, il nous est apparu, à Sophie et à moi, qu’il s’agissait d’une classique « évangélisation » de la part d’une entreprise qui cherche à devenir un des points de passage obligé pour accéder au contenu des sites d’information.

Mais avant d’aller plus loin, deux repères:

  • L’ensemble des internautes n’est pas inscrit sur Facebook, loin s’en faut. En France, seule la moitié d’entre eux a ouvert un compte Facebook. Il faut ajouter un second bémol: sur la vingtaine de millions de comptes en France, on ignore combien sont réellement actifs. Donc aujourd’hui, Facebook est sans nul doute un outil puissant de publication et de diffusion des contenus, mais une « page » ne saurait se substituer à un site, pour cette seule raison.
  • Travailler sur Facebook, que l’on soit un individu ou une entreprise, implique l’acceptation du « règlement Facebook » [lire la Facebook Platform Policy]. Celui-ci n’est pas toujours « raccord » avec les impératifs de l’information, comme l’illustre le point 5 de ce règlement qui interdit tout « contenu haineux, menaçant, diffamatoire ou pornographique; qui incite à la violence; ou contient de la nudité ou des scènes de violence » [encadré bleu, dans la capture d'écran ci-dessous].

Plus inquiétant pour un éditeur, l’instabilité dans laquelle le plonge Facebook. Il est prévu au chapitre V de ce règlement:

Nous pouvons prendre des mesures coercitives contre vous et tout ou partie de vos applications, si nous jugeons, selon notre seul jugement que vous ou votre application viole les termes et la politique de la plateforme Facebook. Les mesures d’exécution sont à la fois automatiques et manuelles, et peuvent inclure la désactivation de votre application, en limitant votre accès ou celui de votre application aux fonctionnalités de la plateforme [Facebook], la fin de nos accords avec vous, ou toute autre action que nous jugeront appropriés et ce à notre seule discrétion [souligné par moi].

Et pour que l’incertitude soit totale, le règlement ajoute au chapitre suivant :

Nous pouvons changer la politique de la plateforme à tout moment sans préavis [souligné par moi] lorsque nous le jugerons nécessaire. Votre utilisation continue de la plateforme constitue une acceptation de ces changements.

Bref publier sur Facebook signifie se trouver dans un environnement particulier, relativement instable [lire par exemple cet article du site espagnol Techno Magazine, qui explique que des milliers d'applications ont été désactivées par Facebook, sans préavis], et restrictif par rapport au cadre législatif et réglementaire habituel. ((Lire à ce sujet, la mésaventure survenue au critique britannique Roger Ebert, qui a vu sa page disparaître, racontée sur Gigaom))

Qualité de conversation

Mais au-delà de ces prudences qu’apporte Facebook et comment faut-il l’utiliser ? L’apport de Facebook pour un média se concrétise de plusieurs manières qui vont de la création d’une — ou de plusieurs — page(s), à différentes manières de lier le contenu et les commentaires du site avec Facebook.

Un éditeur a passé le pas et a décidé « à titre expérimental » de basculer entièrement sur Facebook en mars 2011. L’une des principales raisons avancée par Cindy Cotte Griffiths et Brad Rourke, les responsables de Rockville Central, tient au fait que Facebook serait plus « civilisé » que le web de par son caractère « fermé » [par opposition au web "ouvert"]. Le réseau social offrirait donc une meilleure qualité de conversation, notamment parce que les inscrits sur le site le sont sous leur identité propre. Cela limiterait fortement les risques de dérives dans les commentaires.

En revanche, ce choix implique un sacrifice financier, puisqu’un éditeur ne peut pas placer de publicité sur sa page Facebook, comme l’indique les « conditions applicables aux pages » : « Les publicités pour des tiers sont interdites sur les Pages ». Les deux responsables de Rockville Central envisagent donc un financement par des produits dérivés comme, par exemple, la création d’événements locaux [Pour plus de détails sur cette expérimentation lire ici et ].

Le Boston Globe pour sa part a opté pour une autre solution, à savoir la création d’une application Facebook, baptisé Your Boston. Pour cela, le groupe s’est appuyé sur une solution en open source développée par un petite startup, NewsCloud, dans le cadre d’un programme financé à hauteur de 250.000 $ par la Knight Foundation et qui est destiné à soutenir le lancement de sites communautaires interactifs par douze groupes de presse.

Générer de la publicité avec une application

Si l’on voulait une démonstration du caractère expérimental de cette application, on ne saurait mieux l’illustrer par le jeu de piste qu’il faut suivre pour tomber sur Your Boston. Sur la home du site du Boston Globe, on ne trouve que le social plugin Facebook; il renvoie sur la page Facebook, Boston Globe; il faut alors cliquer sur Boston.com, dans la colonne de gauche [les "intérêts" des pages Fan] et c’est sur cette page que l’on trouve Your Boston [ci-dessous]. Il faut ensuite entrer dans l’application. Un chemin compliqué, qui désole Jeff Reifman de NewsCloud:

Une application communautaire Facebook est sans intérêt, si personne ne connaît son existence et son utilité.

L’intéressant avec une application est de pouvoir générer de la publicité, et donc ouvre la possibilité de monétiser son investissement, ce qui n’est pas possible lorsque l’on crée une page « fan » classique.  Toutefois, il faut ajouter qu’installer de la publicité dans une application sur Facebook se fait dans conditions restrictives [lire "Les règles publicitaires sur Facebook"] et qu’il est impératif de passer par l’une des entreprises agréées par la plateforme [lire la liste des entreprises agréées].

À l’usage, pour un développeur d’applications, Facebook s’avère relativement malaisé, en raison de son « instabilité » [Jeff Reifman dit : "the ever-changing Facebook application platform"]. Par exemple, explique-t-il, Facebook a désactivé unilatéralement le système de notifications qui avait été mis en place pour l’application. Il signalait aux internautes que quelqu’un avait commenté ou « aimé » leur statut/article ou leur commentaire. Conséquence, Newscloud a dû construire son propre système d’alerte, mais celui-ci ne fonctionne que si l’internaute « se rend régulièrement sur l’application ou choisit de recevoir les notifications par email ».

Autre problème soulevé par Jeff Reifman: un certain nombre d’internautes qui ne sont pas sur Facebook, parce qu’ils ne souhaitent pas partager leurs données personnelles, hésitent à s’enregistrer sur une application… qui est sur Facebook.

Mais, les difficultés viennent aussi des éditeurs. En effet, créer une application interactive implique une approche nouvelle de leur part, comme l’analyse Jeff Reifman: les éditeurs de sites ont tendance à dupliquer leur site, afin que leur site (ou application) communautaire ressemble le plus possible au site d’origine. C’est une erreur, dit-il, car « un site communautaire est différent d’un site d’information : il devrait afficher et mettre en valeur le meilleur du contenu généré par les internautes. D’autre part, si le site communautaire est une ‘copie carbone’ du site d’information, les lecteurs ne comprendront pas l’intérêt du site communautaire et comment ils peuvent participer. »

Créativité et commentaire

Pourtant en dépit de ces défauts, Facebook reste une plateforme très intéressante et pratiquement tous les sites ont créé leur page sur le réseau social. Ce dernier a d’ailleurs publié un classement international [le détail de ce classement ici] dans lequel on trouve en quatrième position Le Monde [189.600 fans] avec, note Facebook, « des sections quiz intéressantes sur différents sujets actuels comme celui sur l’information Actu Quiz, qui offre aux likers l’occasion de gagner des prix », et en cinquième position L’Équipe [205.000 fans], « qui offre une page enrichie avec des quiz, des jeux et des pages thématiques additionnelles comme: Sport & Style, la radio RTL de L’Équipe, L’Équipe Mag, qui permettent d’attirer les likers. »

La création de pages par les sites sur Facebook offre un grand nombre d’avantages, en particulier:

  • l’élargissement de la « cible » du média concerné, les membres de Facebook étant en moyenne plus jeunes et plus féminins que les internautes « classiques »,
  • une grande « viralité » [diffusion virale] aux contenus mis sur la page grâce aux outils de partage,
  • une « interactivité naturelle, car il est possible facilement à tout un chacun de commenter, de « liker » les articles et commentaires, etc.

Ces pages offrent aussi une formidable opportunité aux services marketing des médias, car elles leur permettent d’étudier sur une base autrement plus fine et « vraie » que celle du site, les utilisateurs Facebook ((lire par exemple cet article de Mashable sur l’utilisation des données personnelles par les services de marketing)).

Mais… la création d’une page ne saurait être la simple réplique du site, ne serait-ce que parce qu’une page Facebook [un défaut que n'a pas l'application Your Boston décrite plus haut] se présente comme un blog, avec toutes les caractéristiques de ce type de publication, en particulier un empilement des articles, le dernier publié étant en tête. C’est un flux, sans hiérarchie. Surtout, il n’est pas possible de publier autant d’articles sur la page que sur le site sous peine d’être contreproductif, car alors on sature le mur des personnes qui « aiment » la page ((Je ne développe pas; on peut trouver des principes de publications pour une page par exemple ici)).

Pour ces raisons, Julien Osofsky, directeur de la division médias et Julien Codorniou, directeur des partenariats, ont expliqué le 28 juin, que le but des publications sur une page Facebook n’était pas de délivrer de l’information, mais d’abord de créer de l’interactivité et de générer du commentaire.

Alors que les publics sont différents, que leurs comportements sont dissemblables, que les contenus ne se recouvrent pas strictement, lors du MeetUp du 28 juin, les responsables de Facebook, ont insisté sur la possibilité qui était offerte de « synchroniser la conversation [c'est-à-dire les commentaires] sur le site et la page ». En France Le Journal du Net a implémenté cette solution, mais problème, il semble qu’elle ne fonctionne pas très bien. Les commentaires du site restant sur le site et n’apparaissant pas sur la page, et inversement, comme le montre les deux captures d’écran ci-dessous prises pour un même article, Bientôt une enquête antitrust contre Google aux États-Unis ? Précision: “j’aime” le Journal du Net.


Dernier point, Facebook permet de générer du trafic sur un site, et cela peut-être considérable, comme le montre l’infographie ci-dessous reprenant les principaux sites de presse français. Elle montre le pourcentage de trafic via Facebook entrant sur les sites [ce graphique a été réalisée avec les données collectées par Alexa].

Cette possibilité de générer du trafic sur Facebook fut une des principales questions abordées lors du MeetUp du 28 juin, et c’est l’objet des social plugins que propose le réseau social. Ce dernier offre toute une palette de boutons et de box. Jusque il y a peu, le bouton « Share« , était le plus implémenté sur les sites. Son développement est aujourd’hui abandonné et les responables de Facebook considèrent aujourd’hui que les sites doivent passer à une autre étape et privilégier les boutons « Like » ou « Recommend ».

Ce changement de dénomination suppose, un engagement plus fort de l’internaute vis-à-vis du contenu qu’il partage avec ses amis. Le fait de cliquer sur ces boutons permet aussi de créer un lien vers le site et d’améliorer la visibilité du contenu « liké » dans les moteurs de recherche..


Billet intialement publié sur Mediatrend sous le titre “Facebook un environnement instable pour les sites
Crédits Photo FlickR CC by-nc kerryj.com

]]>
http://owni.fr/2011/07/13/les-sites-infos-facebook-its-complicated/feed/ 2
Journalistes: hackez pour survivre! http://owni.fr/2011/06/07/journalistes-hackez-pour-survivre/ http://owni.fr/2011/06/07/journalistes-hackez-pour-survivre/#comments Tue, 07 Jun 2011 11:00:22 +0000 Marc Mentré http://owni.fr/?p=66488 Hackear el periodismo, de l’argentin Pablo Mancini, est un livre essentiel, car il aborde de front —et sans ménagement— les questions auxquelles sont confrontées les médias et les journalistes aujourd’hui : comment créer de la valeur? Qu’est ce que le journalisme de qualité ? Quels doivent être les modes d’organisation des rédactions? Etc. Son analyse et les propositions de ce Manuel de laboratoire (le sous-titre du livre), souvent non-orthodoxes, encouragent à sortir des sentiers battus.

Pablo Mancini est journaliste jusqu’au bout des ongles. Passionné par l’évolution de son métier, il en est un acteur, aux postes de responsabilité qu’il a occupés dans le groupe de presse péruvien El commercio, ou aujourd’hui au sein du géant argentin Clarin. Hackear el periodismo [Hacker le journalisme], qu’il vient de publier, n’est donc pas l’ouvrage d’un utopiste, mais celui du responsable numérique d’importants sites d’information, profondément impliqué dans leur développement. Cela donne une résonance particulièrement forte à ses propos.

Mais d’abord une définition. Que sont ces hackers, dont il sera question tout au long de ce livre ? Quelle est leur philosophie ? Pablo Mancini reprend les propositions du finlandais Pekka Himanen, auteur de L’Éthique Hacker et l’Esprit de l’ère de l’information :

Passion, liberté, conscience sociale, vérité, lutte contre la corruption, lutte contre l’aliénation de l’homme, égalité sociale, accès gratuit à l’information (liberté de savoir), valeur sociale (reconnaissance entre pairs), accessibilité, activité, soucis de responsabilité, curiosité, créativité.

Autant de valeurs dont les journalistes sont très proches, et dans lesquelles ils peuvent se reconnaître, et qui devraient donc permettre l’intégration des hackers au sein des rédactions, à moins que ce ne soient les journalistes eux-mêmes qui se transforment en hackers. En tout cas, soit l’esprit du hacking, proche de celui du logiciel libre, avec tout ce que cela sous-entend en termes de liberté, d’esprit d’innovation et d’initiatives ou encore de modèle économique différent, pénètre les rédactions, soit ce sont les rédactions elles-mêmes qui devront se convertir à la culture du hacking. Quelle que soit la voie choisie, la mutation est obligatoire. Il en va de la survie du journalisme, car prévient Pablo Mancini, si “le public a besoin d’informations fiables“, il n’est nul part écrit que “les médias traditionnels et les journalistes soient nécessaires“.

La proposition centrale du livre est articulée autour de quatre concepts clés —temps, audience, valeur, organisation—, liés entre eux. Ce sont autant de questions que doivent affronter les rédactions et les groupes de presse dans cette période “ou l’ancien et le nouveau, ainsi que le changement coexistent“.

Le temps pulvérisé

Auparavant, les médias étaient maître du temps. Ils fixaient la temporalité, prime time pour la télévision, moment de la parution pour un quotidien du matin. Ce dernier fixait « l’agenda » des informations pour la journée, d’autant qu’il était lu avant l’arrivée au travail. À l’ère du zapping et d’Internet, cet ensemble d’habitudes et de coutumes —qui concernaient les journalistes comme leur public— s’est évaporé. Le temps, cette notion clé pour les médias, est pulvérisé.

En dépit de cela, rien n’a fondamentalement changé: “Notre production éditoriale est toujours conçue (…) pour des paramètres constants et non pour des flux sociaux discontinus.” Il voit dans cette juxtaposition entre des supports appartenant au futur (le mobile, les tablettes, etc.) et des formes narratives relevant du passé, un cocktail explosif.

Cette question du temps renvoie à celle de la qualité de l’information. Passe-t-elle par le temps —long— de l’enquête? Par la longueur de l’article ? Pablo Mancini est loin d’en être certain :

Le moindre journaliste qui édite un site online sait que les articles les plus longs sont les moins lus et les moins commentés. Ce sont aussi les moins partagées par mail ou sur les réseaux sociaux. La longueur n’est pas synonyme de profondeur et de valeur. Une réflexion approfondie n’est plus nécessairement synonyme de contenu de qualité. La concision est le paradigme de la valeur perçue par le public

Et d’asséner : “Un article de 3.500 signes du New York Times a moins de valeur que son résumé. On a la même information, mais on l’obtient plus rapidement“.

Le public détient le pouvoir

Sur ce point, tout tient en une affirmation : “C’est le public [la audiencia] qui détient le pouvoir“. Pablo Mancini détaille: “Le phénomène le plus important en ce qui concerne le public tient à l’amateurisation massive de la production de contenu et à la circulation potentiellement illimitée [que le public permet]” ; en ce sens, “le public est le nouveau circuit de distribution.”

À ce propos, Pablo Mancini raconte une anecdote qui le marqua. Participant en 2010 au Mexique, à un séminaire de journalistes online, il fut frappé par une affirmation de l’un des animateurs de la session, Jean-François Fogel:

L’algorithme est une résonance du public.

Cela signifie d’une part que “pour tous —journalistes, médias et public— la médiation passe par un logiciel [P. Mancini utilise toujours le terme software]“ , et d’autre part que “nous sommes devenus consanguins avec les algorithmes”. Une telle intrication a de lourdes conséquences:

  • Il faut cesser, online, de reproduire le rubricage classique des médias  —politique, économie, société, etc…— ces repères étant inopérant pour des internautes qui, pour 20 à 50% d’entre eux, arrivent sur un site via un moteur de recherche ou via les réseaux sociaux. Ils sont donc “déconnectés” du site, qu’ils ne cherchent pas particulièrement. Ils sont en quête d’une information. “Dans ce sens, explique-t-il, Facebook et Twitter sont les pédagogues du nouveau journalisme. Dans la version online des médias traditionnels, le public ne peut que regarder ce qu’écrivent les journalistes et le commenter publiquement, mais ce que les journalistes écrivent est toujours modéré par l’élite.”
  • La fin annoncée de l’Agenda setting[en] construit par les journalistes et les médias. En effet, “le public veut interargir avec le public et non avec un groupe de journalistes-notables”;
  • Il faut savoir construire sa différence, car “sans différence il n’y a pas de visibilité [sur le web] et sans visibilité, il est impossible d’avoir un public”.

Ce qui ne peut pas être manipulé n’a pas de valeur

L’équation est connue: en raison de sa surabondance, l’information n’a plus de valeur. Les médias se trouvent aujourd’hui, explique Pablo Mancini, un peu dans la même situation que les compagnies aériennes, si d’un coup, la télétransportation se généralisait. Les billets d’avion ne trouveraient plus preneurs!

Autant dire que recréer de la valeur tient de la gageure, et ce d’autant plus que “dans de nombreux cas, l’offre [des sites] est tellement insipide que le public ne s’y intéresse pas et prend connaissance des événements sur Facebook et d’autres moyens de consommation des médias” :

Dans ce secteur [les médias], la crise ne conduit pas au changement. Au contraire,elle est une bonne raison de devenir  plus conservateur et de jouer « la sécurité », alors qu’il n’y a plus de sécurité.

Le processus de rénovation passe, explique-t-il, par la création de laboratoires de recherche et développement au sein des rédactions comme l’ont déjà fait le Los Angeles Times, la BBC et le New York Times qui ont ouvert leurs API au public, le Guardian [avec en particulier les journées SXSW, qu'il organise], les sud-africains Mail&Guardian Online et News24.com [avec son 20foursLabs spécialisé dans le développement d'applications mobiles, mais qui a perdu en 2010 son créateur et animateur Matthew Buckland] et News Australia. Mais cela ne suffit pas, insiste-t-il, c’est un changement culturel qui est nécessaire, car aujourd’hui :

Sans hackers, il n’y a pas de journalisme.

Il faut également changer de perspective, en particulier pour ce qui concerne la qualité. En premier lieu, parce qu’une “bonne partie de l’offre actuelle des sites d’information pourrait être produite par des algorithmes.” Par exemple, si l’on regarde les cent derniers articles indexés par Google Actualités, la grande majorité a été fournie par des agences, et n’ont pas été (ou l’ont été marginalement) rédigés par la rédaction du site

Pour ceux qui estime que le salut peut venir d’un journalisme de qualité (enquêtes solides, articles bien écrits, etc.), Pablo Mancini n’est guère plus rassurant, car la notion de qualité ne saurait être restreinte au seul “article” ou “contenu“. Elle déborde et englobe aujourd’hui ce que l’on pourrait appeler “l’expérience consommateur“:

La question sur le contenu de qualité passe inévitablement par une discussion sur sa réplication, sa valeur d’usage, la valeur d’échange de l’information ainsi que sur la position des médias vis-à-vis des nouvelles formes de consommation, d’expérience et de recyclage [des contenus]. (…) La qualité n’est pas nécessairement basée sur la production originale et n’est pas empêchée par la gratuité et la copie. Dans une économie basée sur la diffusion et la transformation, ce qui ne peut pas être manipulé n’a pas de valeur. »

Tont cela conduit à ce que Pablo Mancini appelle le “journalisme Starbucks“, inspiré par les principes qui ont fait le succès de la célèbre chaîne de distribution de café: l’attention aux détails même les plus minuscules, le souci de faire du client le cœur du système, l’importance de surprendre “qui permet de sortir de la routine quotidienne“, la capacité de “résister“, c’est-à-dire de savoir répondre à des demandes contradictoires sans énervement ou cynisme, et enfin le souci de “laisser son empreinte“, de faire en sorte que l’on se souvienne de vous.

L’organisation : la cathédrale et le bazar

Ici encore, il faut tout bouleverser, car explique Pablo Mancini, l’organisation des médias (journaux, radios, télévisions) pratiquement similaire à celle des années 1950 est “lente, inefficace, immature, marécageuse, rigide, bureaucratique et démotivante“. Pour mieux décrire ce qu’il faut faire, il oppose deux images:

  • Les « vieux médias » qui sont des cathédrales, certes prestigieuses, mais qui ne font que répéter et qui sont imperméables au contexte historique.
  • Les nouveaux médias, comme Wikipedia, la blogosphère, l’industrie du logiciel libre, construits sur le modèle souple du bazar, qui ne se cesse de se remodeler, de changer de mode opératoire.

Pour lui, très clairement, les médias doivent abandonner l’idée qu’ils sont producteurs de contenu (“C’est une erreur”, écrit-il) et basculer dans l’univers du logiciel :

Tout, absolument tout ce que nous produisons passe par un logiciel. Tout ce que produit un journaliste et distribue un média passe par un logiciel. Tout ce que le public consomme, distribue et produit passe par un logiciel. Sans logiciel, il n’y a ni journalisme, ni média, ni public, ni qualité. Il n’y a pas non plus de commerce ni de publicité. Sans logiciel, il n’y a pas de relation avec le marché.

Il est d’autant plus important de basculer vers de nouvelles formes d’organisation, qu’il est impossible de construire de nouveaux produits avec des moyens de fabrication obsolètes.

Pour sortir de l’ornière, Pablo Mancini, propose de regarder quelques médias emblématiques de nouvelles forme d’organisations possibles comme Wikipedia, qualifié de “Napster du journalisme“, cet “éditeur mutant” qu’est le Huffington Post ou encore Newser.com, qui bénéficie tout à la fois de “coûts d’exploitation bas“, d’une “interface peu commune, simple et synthétique”, qui a aussi élaboré un algorithme efficace, etc.

Il avance aussi quelques pistes qui peuvent sembler iconoclastes:

  • Pour les rédactions, il propose de réfléchir à la culture qui s’est développée autour des jeux vidéos. Ceux-ci sont affaire de passion, ils obligent à se fixer des objectifs, permettent de collaborer avec des gens qui souvent sont des inconnus, et offrent un feedback permanent.
  • Pour les journalistes en mal d’innovation et de créativité, il propose comme modèle… Méliès, qui fut tout à la fois un homme-orchestre « peignant ses propres décors, développant ses effets spéciaux, tout à la fois réalisateur, acteur et scénariste », et un expérimentateur, puisqu’il inventa le trucage.
  • La formation des jeunes journalistes devrait se rapprocher de celles des DJs. Dans une  ”société en réseaux” où tout se brasse, où le consommateur devient producteur, où la lecture est aussi de l’écriture, etc., le “journalisme sampling” a sans doute sa place, tout comme la curation.

Notes

  • Pablo Mancini tient aussi un blog Amphibia, complément indispensable à ce livre, et on peut le suivre sur Twitter sur @mancini

Article initialement publié sur Media Trend sous le titre “Lecture : Hackear el periodismo, de Pablo Mancini

Photos Flickr CC PaternitéPas d'utilisation commerciale par QuasimondoPaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par Itkovian, et PaternitéPartage selon les Conditions Initiales par Alexandre Dulaunoy.

]]>
http://owni.fr/2011/06/07/journalistes-hackez-pour-survivre/feed/ 29
Le classement des 60 premiers sites d’information français http://owni.fr/2011/04/22/classement-des-sites-dinfo-francais/ http://owni.fr/2011/04/22/classement-des-sites-dinfo-francais/#comments Fri, 22 Apr 2011 08:20:22 +0000 Marc Mentré http://owni.fr/?p=58430 Les classements de sites se multiplient. L’américain ComScore a récemment publié un classement des principaux sites d’information mondiaux [voir sur le site du Guardian les dix premiers], qui montrait que le New York Times avec presque 62 millions de « visites » avait creusé l’écart sur ses principaux concurrents, en particulier le HuffingtonPost, censé pourtant lui tailler des croupières. Ce dernier n’arrivait selon cette étude qu’en 3e position [avec plus de 38 millions de « visites »] et, mieux, était doublé par un site britannique, celui du Daily Mail, qui atteignait 39,6 millions de « visites ».

En fait, j’ai trouvé cette étude un peu floue. En effet, le tableau publié par le Guardian [sur le site de ComScore, les résultats —et surtout le détail— ne sont pas, à ma connaissance, publiés] ne détaille pas suffisamment les résultats. Par exemple, le site du New York Times est certes leader, mais il s’agit de « New York Times brand » , sans que l’on sache précisément ce que recouvre cette appellation. De même, l’échantillon m’a semblé étrangement composé, puisqu’il se limitait —en théorie— aux sites de journaux ["newspapers"], mais on y trouvait aussi le site d’un pure player, [le HuffingtonPost] et d’une agence de presse [la chinoise Xinhua]. Dans ce cas, pourquoi ne pas avoir entré aussi dans cette statistique des sites, dont on sait qu’ils drainent un fort trafic comme celui de la BBC et de CNN.

Intrigué, je me suis tourné vers le site de ranking Alexa, pour regarder ce que cela pourrait donner si l’on intégrait les trois premiers sites du classement ComScore avec ceux de la BBC et de CNN. Le résultat est dans le tableau ci-dessous :

Le graphique montre très clairement, que le site de la BBC a fait la course en tête ces six derniers mois [le trait bleu, en haut], talonné par celui de CNN [trait noir], et que le New York Times [trait rouge] se situe en-dessous de ces deux leaders ; enfin, le Huffington Post [trait vert] est devant le Daily Mail [trait bronze] . Je ne publie que le résultat de ranking, mais la hiérarchie est la même quelque soit la statistique proposée par Alexa.

De là, m’est venue l’idée de réaliser un « classement » des sites français, regroupant l’ensemble de ceux-ci. En effet, souvent on ne dispose que de données fragmentaires. Par exemple, le classement de l’OJD [voir Sites d'information régionale : un bilan en demi-teinte] sur les sites de quotidiens régionaux ne contient pas les résultats de l’ensemble des titres. Certains, importants, comme celui de La Dépêche du Midi en sont absents.

Voici donc le classement des 60 premiers sites d’informations français, classés selon leur ranking en France [l'ensemble des résultats est publié sur ce Google docs]. Cette valeur à l’avantage de placer les sites d’information dans l’environnement réel du web, où se côtoient une multiplicité de types de site: recherche, services, etc. Donc, d’autres sites « non info » s’intercalent entre les sites d’information. J’ai délibérément mêlé les sites produits par les « vieux médias » [télévisions, radios, quotidiens et magazines], avec ceux-ci des pure players, puisque sur le web, il y a une forme d’égalité. L’antériorité de la « marque » peut être un atout, encore faut-il savoir le valoriser. Dernier point, ce classement a été établi un jour précis, le 19 avril 2011 et bien sûr, il sera intéressant de regarder l’évolution de ce classement dans le temps, en particulier de voir l’impact des nouvelles formules sur la fréquentation des sites concernés et de voir si cela améliore leur ranking.

Le tableau recèle un certain nombre de surprises :

  1. les titres des grands groupes de presse magazine [Lagardère, Mondadori, Prisma Presse] lorsqu’ils sont présents [parismatch.com, jdd.fr, capital.fr, jdd.fr, geo.fr] se retrouvent tous en « deuxième division », loin des leaders.
  2. les sites de la presse quotidienne régionale (PQR) ont du mal à s’affirmer, à l’exception du site du Parisien [mais celui-ci est-il vraiment "régional"] puisque le premier, Ouest France, n’est qu’en 16e position. Surprise, le site d’ »info-service » local Maville.com draine peu de trafic vers les sites « d’information » auxquels il est lié. À titre d’exemple 1,9% du trafic du site d’Ouest France provient de Maville.com, contre… 2% venant de letelegramme.com.
  3. les cartes des médias sont largement rebattues, puisque les sites de télévision —à la seule exception de TF1— sont assez loin dans le classement. À tout le moins, on ne retrouve pas dans le classement la hiérarchie des mass media traditionnels, où la télévision demeure le « média roi ». En revanche, les médias « papiers », en particulier ceux des quotidiens nationaux ont su tirer leur épingle du jeu, et ce sont eux qui donnent le ton. Très clairement aussi, les sites de télévision publique sont loin d’avoir le rayonnement de la BBC, et se sont laissés largement distancés, sans parler du site de Radio France [les résultats agrègent ceux de France Inter, France Info, etc.] installé à une très médiocre 27e place.
  4. deux pure players, Le Post et Rue89 [ils se tiennent dans un mouchoir de poche] peuvent être désormais considérés comme de « grands » sites d’information, preuve s’il en était qu’il n’y a pas de hiérarchie intangible sur le web.
  5. OWNI, un pure player, est  totalement atypique, par l’origine de son trafic. C’est le seul dont la part de trafic venant des réseaux sociaux, en l’occurrence Facebook [20% de trafic entrant] et Twitter [15% du trafic entrant] est supérieure à celle venant des moteurs de recherche.
  6. Twitter, à la seule exception d’OWNI, et dans une moindre mesure le site des Inrocks, celui de L’Express, les autres pure players [Slate.fr, Rue89, etc.] et ceux de certains quotidiens régionaux [sudouest.fr, lamontagne.fr] draine peu de trafic vers les sites. Mais signe intéressant, même si le filet est pour l’instant mince [entre 1 et 2% du trafic entrant], Twitter apporte du trafic aux sites économiques comme lesechos.fr, capital.fr, etc.
  7. En revanche, Facebook, représentent désormais un part importante de l’apport de trafic vers un site. Cet apport est très inégal. C’est un certain type de sites qui en bénéficie :
  • les sites de quotidiens régionaux. Par exemple, Facebook représente 15,5% du trafic « entrant » de sudouest.fr, 12,9% de celui de lanouvellerepublique.fr, 12,5% de celuide nicematin.fr, 12,4% de celui de lamontagne.fr, 12,2% de celui de ledauphine.fr, etc
  • les sites « culturels », comme lesinrocks.com [15,5% de trafic entrant] ou telerama.fr [10,5]. C’est le cas aussi pour c’est autre site de « niche » qu’est lequipe.fr : 10,5 du trafic entrant provient de Facebook.
  • un site de télévision, celui de TF1, avec 15,2% de trafic en provenance de Facebook.

Les 60 premiers sites d’information en France

Les sites d’information en France classés de 30 à 60

Le classement des sites pure players en France

Il m’a semblé intéressant d’établir un classement à part pour les sites de pure players en France. Ce classement est sans nul doute appelé à bouger : OWNI est en plein décollage, atlantico.fr vient tout juste d’être lancé. Mais il faut remarquer qu’en dépit de son « mur payant », Mediapart tient bien son rang. [précision, des posts de ce blog sont repris en cross publication par OWNI [ndrl : en effet]

Le classement des sites régionaux d’information

Un peloton de tête de quatre sites [ouestfrance.fr, ladepeche.fr, letelegramme.fr, sudouest.fr], un petit groupe de suiveurs emmenés par lavoixdunord.fr [avec le midilibre.fr, laprovence.com et leprogres.fr] a su distancer les autres sites. Il sera intéressant de voir sur la distance si ce « trou » se comble, ou s’il s’accentue, et si les sites du groupe EBRA sauront « remonter la pente ».

Le classement monde

Les classements précédents portaient sur le « ranking » des sites en France, mais le web ne connait pas de frontières, et il m’a semblé important de savoir si la hiérarchie « à l’extérieur » des frontières était la même que celle « à l’intérieur ».

Une précision d’abord. Les sites français dans le classement mondial sont « largués ». Je ne parle même pas de site comme celui de la BBC qui est classé 39e site mondial, par Alexa, ou de celui du New York Times, 84e, mais de sites qui semblent plus proche de notre échelle comme celui du Spiegel. Il pourrait être handicapé, comme nous le sommes, par la langue. Pourtant, il n’en est rien car il est classé 118e. À titre de comparaison, le premier site d’information français, celui du Monde [qui double pour l'occasion L'Équipe], n’est qu’à la 612e place.

La hiérarchie n’est pas bouleversée, mais il faut noter l’arrivée à la 10e place du site de France24, et la remontée spectaculaire de deux sites d’information naturellement tournés à l’international, ceux de RFI et de TV5.

Les 30 premiers sites français d’information dans le monde

Les 30 suivants


Article initialement sur Media Trend sous le titre “Le ranking des sites d’information français”
Crédits Photo FlickR by-nc-nd Peter Gerdes

]]>
http://owni.fr/2011/04/22/classement-des-sites-dinfo-francais/feed/ 0
Le reporter imaginaire http://owni.fr/2011/03/16/le-reporter-imaginaire/ http://owni.fr/2011/03/16/le-reporter-imaginaire/#comments Wed, 16 Mar 2011 07:30:06 +0000 Marc Mentré http://owni.fr/?p=51529 Le Journal du Dimanche du 6 mars 2011 a publié sous la rubrique grand reportage, un article signé Bernard-Henri Lévy titré Dans la Libye libérée. Ce texte fait partie d’un ensemble de 6 pages consacré aux événements qui se déroulent en Libye. Il comprend deux pages et demi d’une interview « exclusive » de Muammar Kadhafi, recueillie par un des envoyés spéciaux du journal, Laurent Valdiguié. Ce dossier comprend aussi deux articles de synthèse, l’un sur la situation dans le pays (Massacre à Zawiya, ville martyre) et l’autre sur les réactions diplomatiques (Attentisme à la Maison-Blanche et à l’Onu). Un traitement donc assez complet.

Dans le Parisien Dimanche de la semaine suivante (daté du dimanche 13 mars 2011), Bernard-Henri Lévy, interviewé par Frédéric Gerschel, revient sur son travail:

Je suis quelqu’un qui ne fait pas les choses à moitié. Je vais sur le terrain. Je rapporte un reportage sur les horreurs d’une guerre où on envoie des populations désarmées.

Et effectivement, il va sur le terrain. Mais pourquoi y va-t-il et que rapporte en terme d’informations ce « reporter de guerre » ?

Personnification de l’image

La double page, du grand reportage de Bernard-Henri Lévy, telle qu’elle est publiée dans le JDD, est atypique, d’abord par sa mise en page :

Le Journal du Dimanche du 6 mars 2001

Sur la page de gauche, une photo de Bernard-Henri Lévy souriant serrant la main d’un rebelle enveloppé dans le drapeau « révolutionnaire » libyen.

Dans ce dispositif scénique, Bernard-Henri Lévy est au premier plan, surplombant légèrement son interlocuteur. L’absence de légendage renforce encore cet effet. Le lecteur ignore qui est l’interlocuteur de BHL, le lieu et la date à laquelle a été prise la photo. En raison de ce flou, il est le seul personnage clairement identifiable, ce qui renforce la personnalisation de l’image.

Cette « photo » est détourée pour s’imbriquer dans le texte, si cela n’avait pas été le cas, elle occuperait les deux-tiers de la surface de la page, sans doute pour respecter un principe de maquette : la règle des deux-tiers / un tiers.

Sur la page de droite, le JDD publie deux autres photos, l’une montre [d'après la légende] « les ruines d’un dépôt de munitions situé à Benghazi » et l’autre Bernard-Henri Lévy, posant hiératique, costume de ville sombre, au milieu de personnages, dont certains —lesquels?— seraient [en se fiant à la légende] des « mercenaires de Kadhafi en fuite, mêlés à des réfugiés ».

Le sens de cette iconographie est donc limpide: le sujet n’est pas la Libye, mais Bernard-Henri Lévy.

BHL protagoniste

Maintenant, le texte. Il est rédigé selon un procédé narratif classique —avec l’emploi du « Je »— qui est foncièrement subjectif. L’écriture est donc « raccord » avec l’iconographie. Il l’est d’autant plus que Bernard-Henri Lévy se fait le personnage —et acteur— principal de son reportage.

« Reportage », il faut immédiatement mettre des guillemets, car dès la première phrase, il nous précise ce qu’il est venu chercher la réponse à une seule question : « Que pouvons-nous faire pour la jeune révolution libyenne ? » Il s’agit donc d’une quête et non d’un reportage, ce travail de terrain où le journaliste est un « témoin direct », où il « se laissera impressionner comme une plaque photographique. (…) Le reporter, c’est un œil, un nez, une oreille branchés sur un stylo », comme l’explique Jean-Luc Martin-Lagardette dans son Guide de l’écriture journalistique.

Il ne s’agit pas non plus avec l’emploi de ce « Je », de pratiquer cette forme d’échanges, que décrit Myriam Boucharenc à propos des écrivains-reporters des années 1930:

Voir, c’est aussi être vu par l’autre. Segalen avait admirablement mis en valeur le décentrement du regard qui permet de se « voir vu », en quoi consiste selon lui la véritable expérience exotique. « Je le regardai avec effarement », note Albert Londres à propos d’un bagnard et aussitôt il ajoute : « Il me regarda avec commisération et lui se demanda d’où je sortais ». L’auteur s’emploie à restituer, en même temps que sa vision des lieux visités, la manière dont les indigènes le voient, lui ou le pays d’où il vient. En faisant ainsi se croiser les points de vue, l’enquête introduit à la relativité des vérités et des jugements, dans la tradition du conte philosophique ».

À l’évidence, Bernard-Henri Lévy n’est pas, sur ce point là non plus, l’héritier des Blaise Cendrars, Pierre Mac Orlan et autres Andrée Viollis. Il fonctionne à sens unique.

Formules vagues

Peu de choses vues dans le texte : une poignée de dessins dans une école, une scène de bataille « reconstituée » par « deux paysans », une rencontre avec des membres du Conseil national de transition, quelques témoignages… et au final, bien peu d’informations.

L’auteur au lieu de s’attacher à vérifier, compléter et préciser ses informations, se contente de lancer quelques formules vagues, comme celle concernant une tentative de bombardement des « terminaux de Braygah, à 100 kilomètres de Benghazi ». Elle eut lieu « pendant notre séjour », écrit-il. Quand précisément ? Combien d’avions concernés ? Quels dégâts éventuels ? Le lecteur n’en saura rien. Pas plus qu’il n’aura d’informations précises sur « le mitraillage en piqué de foules de civils manifestants pacifiquement dans les rues de Tripoli ou d’ailleurs ». Quant a eu lieu ce mitraillage ? Où se situe cet « ailleurs » ? [il récidive dans la même imprécision dans son interview au Parisien Dimanche où il parle de nouveau de "ces horreurs d'une guerre où on envoie des avions mitrailler des populations désarmées"].

Il ne s’agit pas de faire de la « critique facile », mais de rappeler que le journalisme est aussi un travail ingrat, difficile [et très dangereux dans le cas de la Libye] de collecte et de recoupement des informations. Un travail nécessaire pour que le lecteur comprenne ce qui se passe sur ce fameux « terrain ».

Mieux. Lorsqu’une information est de notoriété publique, comme la présence de Daniel Rondeau, ambassadeur de France à Malte, aux côtés d’Henri Guaino, pendant les vacances de Noël de ce dernier dans le Tripoli de Kadhafi, BHL annonce dans les colonnes du JDD qu’il n’a pas pu l’identifier. Il est vrai que Daniel Rondeau et Bernard-Henri Lévy ont un très vieux compagnonnage intellectuel et politique (notamment à propos de la Bosnie). Une omission révélatrice.

Autre épisode où le manque de précision (voire d’information tout court) est gênant. Il écrit qu’il a rencontré des membres du Conseil national de transition. Mais comment est organisé ce Conseil, qui représente-t-il, qui y siège, etc. ? Autant de questions qui n’auront pas de réponse, car l’important pour BHL est ailleurs. Il tient dans le fait que les membres de ce Conseil « m’ont fait l’honneur d’assister à l’un de leurs conseils et d’y prendre la parole ». Que s’est-il dit ? Quel(s) a(ont) été le(s) sujet(s) abordé(s) ? Là encore, le lecteur du JDD n’en saura rien. Il apprendra par la suite — s’il lit le Parisien Dimanche de la semaine suivante — que BHL a appelé Nicolas Sarkozy, à ce sujet.

Des commentaires, tous les commentaires, que des commentaires

Mais l’un des problèmes soulevés par cet article tient au parti-pris de l’auteur. Ce n’est pas tant l’engagement qu’il s’agit de remettre en cause que le traitement qu’il fait subir aux maigres informations qu’il recueille. Faut-il au nom d’une cause que l’on croit juste écrire ceci :

Ali Fadil, vieux professeur de physique-chimie qui expose dans son école désaffectée, des dessins de jeunes gens où l’on voit Kadhafi affublé de moustaches grotesques; Kadhafi grimé en Sa majesté des rats; Kadhafi en femme fardée et botoxée; Kadhafi nu, les mains cachant son sexe, en train de fuir une foule insolente et joyeuse; la tête de Kadhafi en train de se noyer dans une mer de sang, etc. Merveille d’imagination drolatique et d’invention populaire; la révolution donne du talent… [souligné par moi]

Au moment d’écrire ce  passage, il aurait dû se souvenir du conseil que reçoit tout journaliste débutant : « Contente-toi de raconter les faits, soit précis. N’en rajoute pas. Ne fait pas de commentaires, ils  affaiblissent ton propos ».

Il est vrai que ce texte a un rapport très lointain avec le journalisme et que son objet est tout autre. Le problème ne vient de son contenu, il aurait tout à fait sa place dans des pages « opinions » ou « débats », mais du statut que Le Journal du Dimanche lui a donné en le propulsant dans la rubrique « grand reportage ». Il offre ainsi un label de « bon journalisme » à cet article qu’il est très loin de mériter et montre que la loi de Gresham, « la mauvaise monnaie chasse la bonne », ne s’applique pas qu’à l’économie, mais aussi à l’information.

>> Article initialement publié le 13 mars 2011 sur le blog de Marc Mentré Media Trend sous le titre : “BHL ceci n’est pas du reportage”.

>> Crédits Photo FlickR CC : researchgirl / Jilligan86

]]>
http://owni.fr/2011/03/16/le-reporter-imaginaire/feed/ 18
Sites d’information régionale: ||un bilan en demi-teinte http://owni.fr/2011/03/03/sites-d%e2%80%99information-regionale-un-bilan-en-demi-teinte/ http://owni.fr/2011/03/03/sites-d%e2%80%99information-regionale-un-bilan-en-demi-teinte/#comments Thu, 03 Mar 2011 08:20:19 +0000 Marc Mentré http://owni.fr/?p=49421

Sur son blog, Cross Media Consulting, Erwann Gaucher publie régulièrement le Top 50 des sites d’information régionale, basé sur le classement réalisé par l’OJD. Plus exactement, il publie les 23 premiers de ce classement. Les résultats [il s'agit des chiffres de janvier 2011] sont déjà riches d’enseignements. Mais, il m’a semblé nécessaire de détailler ce bilan et d’en creuser certains aspects pour essayer de comprendre ce qui fait le succès (tout relatif) ou non de ces sites.

Le Parisien domine de la tête et des épaules ce classement, mais il faut relativiser, en terme de comparaison, sa bonne performance. Certes, il s’agit d’un site d’information régionale mais il est aussi perçu comme un site d’information nationale, en raison du couplage Le Parisien/Aujourd’hui. Il serait alors plus juste de le comparer aux sites des quotidiens d’information générale, comme lemonde.fr (51,3 millions de visites), lefigaro.fr (35,7 millions de visites) ou encore liberation.fr (18,5 millions de visites).

Si l’on s’en tient aux site régionaux « pur sucre », Ouest France est de loin en tête tant par le nombre de visites (8,7 millions) que par le nombre de pages vues (37,8 millions), puisqu’il compte le double de visites que ses deux suivants immédiats, Sud Ouest (4,4) et Le Télégramme (4,3). Mais ce bon résultat, si on le compare aux chiffres de la diffusion du journal papier, est relatif : la fréquentation du site d’Ouest France est le double de celle du Télégramme, alors que la diffusion du journal papier est le triple de celle de son concurrent breton.

Mais, un autre indicateur me semble intéressant en dépit de sa rusticité, il s’agit du ratio « pages vues/visites ». Il permet de voir —en première approche— si les internautes apprécient un site, reviennent, s’intéressent à plusieurs sujets… Bref, c’est un autre moyen de mesurer leur attractivité, en tout cas de la mesurer en terme comparatif. Ici, la hiérarchie est toute autre. Le site de La Nouvelle République est le champion, suivi de celui de La Montagne et du Dauphiné Libéré. Le site d’Ouest France n’est plus que dans une honnête moyenne, quant à celui du Télégramme, sa performance est très médiocre.

Sources CMC/Media Trend - * source OJD, 2010

Des stratégies pour les blogs extrêmement différenciées

Depuis quelques années, sur les sites, on assiste à une floraison de blogs. L’ensemble de ces blogs permettent en théorie de drainer une plus grande audience, et sans doute les centaines de blogs hébergés par les sites de La Voix du Nord et celui du Midi Libre participent au succès de ces sites. Concernant la presse régionale, j’en ai identifié quatre types :

1> les blogs de la rédaction [j'ai inclus dans cette catégorie les blogs des médiateurs], qui permettent à un journaliste —parfois plusieurs— de couvrir de manière très approfondie un champ précis de l’information : politique, cinéma, jardinage, cuisine, etc.
2> les blogs des « invités », lorsqu’ils sont identifiés comme tels ; ce sont en général des « experts » dans leur domaine. Par leur blog, ils enrichissent le contenu du site.
3> les blogs des correspondants, dont certains sites se sont faits une spécialité et qui constituent une stratégie pour mieux couvrir l’information locale, voire hyperlocale.
4> les blogs des internautes, sachant que certains sites sont devenus des plateformes de blog, et que l’on en compte plusieurs centaines [j'ai renoncé dans ce cas à en faire le décompte précis]. L’intérêt ici, est de permettre à tout un chacun —individu, comme association, syndicat, voire entreprise— de créer un espace d’information spécialisée, dès lors « qu’il a quelque chose à dire ». Il bénéficie ainsi du label du site hébergeur.

À l’analyse, on constate que la pratique des « blogs de site » est loin d’être généralisée, puisque la moitié des sites de ce panel (12 sur 23) n’abrite aucun blog. Pour les 11 sites qui utilisent les blogs, les stratégies différent fortement :

  • Le Parisien, Ouest France, les DNA et La République du Centre ont décidé de conserver les « clés », puisque les blogs sont tenus exclusivement par des membres de la rédaction. Ces sites demeurent dans une conception journalistique « traditionnelle », dans laquelle seuls les journalistes sont habilités à traiter l’information. Les blogs ne sont alors qu’un « habillage technique », mais il n’y a pas de modification du rapport avec les internautes, qui ne peuvent pas faire partager leur information.
  • Sud Ouest, L’Indépendant de Perpignan et La Charente Libre, ont choisi —politique de groupe cohérente oblige— de jouer  la carte de l’information hyperlocale, en développant les blogs de correspondant. Le résultat, à la lecture est spectaculaire, lorsque ceux-ci jouent le jeu, et le contenu d’ensemble du site est considérablement enrichi.
  • Le Télégramme, La Provence, mais surtout L’Yonne Républicaine, La Voix du Nord, Midi Libre, et à sa manière Nice Matin, ont choisi le foisonnement, en ouvrant leur plateforme à qui veut. Il y a certes à boire et à manger dans ces blogs d’une variété infinie, mais ce choix permet à chacun de pouvoir s’exprimer sur le site, qui (re)devient le lieu du débat et de la discussion.

* pas de blogs, mais une forte communauté, les "Azuronautes" - CC Media Trend

Avec les réseaux sociaux, « ce n’est pas gagné »

Les réseaux sociaux sont considérés comme des médias à part entière sur lesquels les sites d’information doivent [devraient ?] assurer leur présence. Ils permettent entre autres d’agréger des communautés autour du site, de rajeunir et de féminiser l’audience avec Facebook, d’assurer la présence du site [de la marque] dans le média d’information immédiate que constitue Twitter, etc. Les réseaux sociaux, s’ils sont bien utilisés, permettent aussi d’augmenter l’audience du « site mère ».

En première analyse, disons que « ce n’est pas gagné ».

1. Côté Facebook

La Manche Libre n’a  pas encore créé de page Facebook. En 2011 ! D’autres visiblement n’y investissent pas, comme Le Télégramme (400 amis/fans), Le Progrès (600 amis/fans), La République du Centre (200 amis/fans), ou encore Le Journal du Centre (700 amis/fans). La barre des 10.000 amis/fans n’est franchie que par 3 sites : Sud-Ouest (17.400), La Voix du Nord (25.600) et Le Parisien (69.600).

Le succès de La Voix du Nord s’explique pour une faible part par la multiplication des pages selon une logique thématique (emploi, sports, féminin, etc.) et locale (page Arras, Cambrai, etc.). Une faible part, car l’essentiel du succès de La Voix du Nord sur Facebook est assuré par la page du site qui compte à elle seule près de 19.000 amis/fans sur un total de 25.600. Cette stratégie de la « dispersion » sur Facebook, choisie aussi avec moins de succès par Ouest France, sera peut-être efficace sur le long terme, mais pour l’instant, il faut admettre que ces pages Facebook locales ou thématiques n’agrègent que de minuscules communautés.

2. Côté Twitter

Nous sommes au bord de la Bérézina : 7 sites [MÀJ du 18/02/2011] n’ont pas de compte Twitter (sur 23) en tout cas je ne les ai pas identifiés. La plupart ont un nombre de followers ridiculement faible, 1.200 pour Midi Libre, 1.800 pour les DNA, ou insatisfaisant : 5.800 pour Ouest France et Sud Ouest, c’est peu. Deux raisons expliquent cette mauvaise performance et en premier lieu la relativement faible pénétration de Twitter dans les régions. Mais la raison principale tient sans doute au fait que les fils Twitter de ces régionaux n’ont que peu d’intérêt, puisqu’ils ne font que reprendre les titres des articles au fur et à mesure de leur publication sur le site. Ce ne sont en fait que des flux RSS déguisés.

Tableau mis à jour le 18 février 2011 - *Les journalistes de La Nouvelle République ont des comptes personnels - CC Media Trend

Les rédactions n’accordent pas assez d’attention à la gestion des commentaires

Pour terminer, un mot sur les commentaires en fin d’articles. Cela mériterait un post à lui seul. Nous en sommes encore au Moyen Age. Certains sites comme celui d’Ouest France n’acceptent pas les commentaires, d’autres comme celui de La Montagne les ont ouverts mais sans succès, car les commentaires y sont aussi rares qu’un cheveu sur le crâne d’un chauve. D’autres ont plus de réussite, comme Le Parisien, Sud Ouest, La Provence… mais la rédaction se garde bien d’intervenir dans les discussions des internautes. Résultat l’article et les commentaires qui le suivent ne sont pas « liés », les réponses s’enchaînent sans autre logique que la réaction au(x) commentaire(s) qui précède(nt), etc. C’est d’autant plus dommage que la qualité d’un site tient autant aux informations qu’il produit qu’à la discussion qu’elles suscitent, et qu’une bonne qualité de « discussion » ne peut qu’améliorer la fréquentation d’un site. En n’accordant pas assez d’attention à la gestion des commentaires, les rédactions se tirent une balle dans le pied.

Billet initialement publié Media Trend

Image CC Flickr PaternitéPas d'utilisation commerciale Darwin Bell

]]>
http://owni.fr/2011/03/03/sites-d%e2%80%99information-regionale-un-bilan-en-demi-teinte/feed/ 13
L’information « papier » est hors de prix http://owni.fr/2011/02/21/l%e2%80%99information-%c2%ab-papier-%c2%bb-est-hors-de-prix/ http://owni.fr/2011/02/21/l%e2%80%99information-%c2%ab-papier-%c2%bb-est-hors-de-prix/#comments Mon, 21 Feb 2011 09:00:39 +0000 Marc Mentré http://owni.fr/?p=42229 Rendre de nouveau l’information payante sur le web, c’est le rêve de tous les éditeurs. Mais des études récentes, et le résultat d’expérimentations comme celle du Times montrent qu’il y a loin de ce rêve à la réalité. La France, est aussi un terrain d’expérimentation dans ce domaine. L’occasion d’examiner les offres payantes existantes en France — quelles soient papier, papier et web et web seul — et leur attractivité, en adoptant le point de vue d’un simple consommateur d’information. Donc, un post en deux temps : d’abord un état des lieux et ensuite un comparatif des offres payantes existantes en France [pour des raisons pratiques, je me suis limité aux quotidiens nationaux], c’est-à-dire pratiquement tous les sites des quotidiens d’information.

L’idée de ce post m’est venue à la lecture de plusieurs informations distinctes : le constat que de plus en plus de sites français proposait des offres payantes ; les résultats d’un sondage du Pew Research, un institut de recherche américain, qui montre que 65% des internautes américains ont déjà payé pour du contenu online ; la publication des résultats du Media and Entertainment Barometer britannique qui montre que seul 2% des internautes seraient prêts à payer pour de l’information, les résultats controversés de l’instauration d’un mur payant « étanche » par le Times de Ruport Murdoch (et aussi celui de News of the World du même Murdoch) et en France la création prochaine d’un « kiosque numérique » auquel participeront les principaux quotidiens nationaux, à l’exception du Monde, et de trois news magazine (L’Express, Le Point et le Nouvel Observateur). Il faut ajouter à cela les résultats décevants de téléchargement d’applications sur l’iPad relevés en fin d’année 2010, et la longue grève des ouvriers du Livre, liée à la restructuration de SPPS, une filiale de Presstalis, qui a fait vaciller un peu plus le réseau de distribution de la presse écrite en France.

Toutes ont un rapport entre elles : l’affaiblissement de la presse papier minée en France notamment par un réseau de distribution de plus en plus mité, le fait que l’iPad (et les tablettes) qui était vue comme l’une des bouées de secours de la presse notamment magazine, l’érection de murs payants pour faire payer les contenus et faire oublier ce « péché originel » que fut l’instauration de la gratuité des sites de presse.

1. Le payant sur le web, un chemin semé d’embûches

Mais détaillons un peu :

L’enquête du Pew Research Center [pdf, en] montre effectivement que 65% des internautes américains ont déjà acheté du contenu payant sur Internet que ce soit pour avoir accès à un site payant ou à sa partie payante [Premium], télécharger ou contenu, ou encore utiliser la fonction de streaming. Ce pourcentage correspond grosso modo au nombre d’internautes de ce pays ayant accès à l’ADSL. Concernant l’information, le niveau de consommation est faible, puisque seuls 18% des internautes américains disent avoir payé. Le rapport ne distingue d’ailleurs pas entre l’information « news », « magazine » et l’accès aux sites payants. Les diplômés [college graduates] et ceux disposant d’un revenu supérieur à 75.000$ par an [56.000€], sont les plus importants consommateurs d’information payante.

Le niveau des dépenses engagées est aussi très faible : en moyenne 10$ par mois (7,5 €). Ici, le rapport ne distingue pas selon les types de contenu, mais il est à noter que près de la moitié des internautes (43%) paient de 1 à 10$, 25% de 10 à 30$ et une frange de 7% 100$ et plus.

En fait, il semblerait (mais c’est à confirmer) que la stratégie de contenus Premium soit… payante, à condition remarque Amy Gahran [en] de l’Online Journalism Review qu’elle soit « précisément ciblée —ce qui est une bonne nouvelle pour l’information de niche, les ‘special package‘ ou les services d’information spécialisés. »

La lecture du Media and Entertainment Barometer, publié sous l’égide de la société de conseil britannique KPMG, n’est guère plus revigorante. D’abord, il constate que 13% seulement des internautes britanniques ont déjà payé pour du contenu en ligne et qu’ils ne sont que 9% « à envisager de le faire dans l’avenir ». Mais surtout, il indique que seul 2% des internautes sont prêts à payer « pour un accès illimité [unrestricted access] à un site qu’ils utilisent actuellement régulièrement si un ‘mur payant’ était introduit, tandis que pratiquement 80% rechercheront du contenu gratuit ailleurs. »

Le vrai espoir viendrait des « apps. » pour mobiles et tablettes. Un quart des consommateurs britanniques en a déjà téléchargées des payantes sur leur mobile, un chiffre qui atteint 44% pour la tranche d’âge « stratégique » 18-34 ans.

Ces deux études récentes corroborent les résultats d’une autre plus ancienne (2009) de Gfk Custom Research, menée sur 16 pays européens et les États-Unis. Il en ressortait que seulement 13% des internautes acceptaient de payer pour des contenus. Les Français estimant, pour 89% d’entre eux que « les contenus et les informations devaient être gratuits sur Internet ».

Le mur payant « étanche » n’est pas la solution miracle…

Il paraît donc nécessaire de distinguer sites et applications pour mobiles et tablettes.

Concernant les sites, le « mur payant étanche » ne semble pas être une solution miracle, tant il suscite de réticences et s’adresse à un bassin d’internautes réduit. Plusieurs sites viennent d’ailleurs de l’abandonner comme l’américain  Editor & Publisher [en] : « Le seul nom de ‘mur payant’ a une connotation péjorative, reconnaissait son PDG Duncan McIntosh le 210 décembre 2010 (…) nous l’avons retiré pour attirer plus de trafic et faire en sorte qu’une plus grande part de notre contenu soit disponible pour nos visiteurs. »

C’est le cas aussi d’un site généraliste d’information locale, émanation d’un journal paraissant deux fois par semaine en Californie, le Sonoma Index-Tribune [en] qui après 3 mois d’expérimentation a cessé de demander à ses visiteurs de payer 5$ par mois en raison de l’apparition d’un site d’information gratuit —Patch d’AOL— sur le secteur [en]. Ce renoncement illustre le fait qu’un site payant n’est pas concurrentiel face à un site qui propose le même type de contenu gratuitement.

À une toute échelle, qu’advient-il des sites britanniques du Times et de News of the World rendus payant par Rupert Murdoch ? Pour le second, le retour d’expérience est encore faible [il n'est payant que depuis le 14 octobre 2010], mais ce que l’on peut constater, selon ComScore [en] est que l’on est passé d’un chiffre d’1,5 million de visiteurs uniques en septembre 2010 à 634.000 en novembre, et que le « temps passé sur le site et par page vue est une forte décroissance, signifiant que les visiteurs ne font que s’arrêter sur la page d’accueil payante pour ensuite chercher ailleurs pour du contenu gratuit. »

Même cause, même effet pour le site du Times de Londres. Selon une étude [en] d’Experian Hitwise, commandité par le Guardian, le site aurait 54.000 souscripteurs (en novembre) auquel il faut ajouter 100.000 abonnés au « papier » qui aurait activé leur abonnement couplé « papier+web ». Tout aussi significatif, le fait que les trois quart de ces souscripteurs (41.000 sur 54.000) seraient basés en Grande-Bretagne. Une formidable régression, car les sites d’information britannique, du type Guardian, Daily Mail ou Daily Telegraph, ont grosso modo, un public divisé en trois parties sensiblement égales: un tiers britannique, un tiers américain et un autre tiers « reste du monde ». Bref, la question se pose réellement de savoir si ce modèle de mur payant étanche est viable sur le long terme.

[Lire la critique au vitriol [en] que fait de ce modèle Clay Shirky, ou celle d’Eric Hippeau, le patron du Huffington Post, un site qui a trouvé son modèle économique, en restant gratuit, puisqu’il est à l’équilibre cette année tout comme l’est celui de The Atlantic [en] qui est aussi resté gratuit — attention, il faut être inscrit pour accéder au site du NYT].

À l’évidence, passer au payant, signifie trouver des systèmes plus fins —pour les sites d’informations générales—. C’est ce sur quoi travaille le New York Times, qui compte s’appuyer sur le « cœur » de son lectorat, c’est-à-dire les 15% de visiteurs qui consulte chaque mois plus de 20 pages du site [lire l'article [en] de PaidContent sur ce sujet], mais n’entend pas pour entend construire un mur « étanche ».

… ni l’iPad

Reste donc les applications téléchargées sur mobile et sur les tablettes (pour l’instant essentiellement sur l’iPad). Il ne faut pas trop se bercer d’illusions comme le remarque Esther Vargas, de Perù.21, dans Reflexiones sobre Periodismo, un petit ouvrage collectif publié sous l’égide la FNPI [es] (Fondación Nuevo Periodico Iberoamericano) :

L’iPad ne fournira pas assez d’essence pour réinventer le journalisme tel qu’il doit et devrait être.

En dépit d’avertissement de prudence de ce type, tous les grands éditeurs se sont engouffrés sur ce support, car avec l’iPad, ce serait le retour du payant. Cela correspond aussi à un changement de mode de consommation de l’information qui se fait « en mobilité » et non plus sur un ordinateur fixe. Sans surprise, Rupert Murdoch est en pointe. Son groupe News Corp. va lancer en ce début d’année 2011 le Daily [en], un quotidien spécialement conçu pour les tablettes. Il est suivi par Richard Branson, qui prépare Project [en], un magazine destiné à l’iPad et aux tablettes.

La mobilité un coin de ciel rose? Sans doute, mais le retour au réel est brutal. Les statistiques de novembre du nombre d’apps de magazine vendues sur iPad aux États-Unis ont sonné comme un rappel à l’ordre. Wired est le cas le plus spectaculaire. Le journal consacré à la high tech américain avait vendu près de 100.00 apps en juin 2010 lors de son lancement pour ne plus en vendre qu’un peu plus de 20.000 en novembre. Faible, lorsque l’on sait qu’il s’agit pratiquement d’un achat « au numéro »

Bref, l’effet de nouveauté ne dure pas et ensuite, comme le remarque Mashable [en] les ventes d’apps suivent la même courbe que celle des ventes en kiosque. Surtout, il semble que les utilisateurs soient déçus. Susan Currie Sivek de Mediashift [en] remarque :

Aujourd’hui, les apps de magazine ont tendance à être ternes, à être des répliques maladroites des pages des magazines imprimés et ne laissent pas les lecteurs partager le contenu via les réseaux sociaux, voire par e-mail [cette impossibilité de partager est sévèrement critiquée sur son blog [en] par Bradford Cross]

Le kiosque numérique, une solution à la française ?

C’est dans ce contexte que des éditeurs français, réunit dans un GIE, baptisé e-Presse Premium, veulent lancer un kiosque numérique. Il y a du village gaulois d’Asterix dans ce projet. Les éditeurs de quotidiens —L’Équipe et Le Parisien, Le Figaro, Les Échos— et de news magazines —L’Express, Le Point et le Nouvel Observateur— ont décidé de s’unir pour, dixit Le Figaro, « renverser le rapport de force créé par Google, Apple et Facebook ».

Le projet repose sur deux idées fortes :

  1. sortir du rapport de force financier imposé, par exemple, par Apple qui prélève 30% du prix final du contenu vendu et revenir à des marges de distribution inférieur à 20% ;
  2. permettre à chaque éditeur de rester pouvoir continuer à fixer le prix de ses propres abonnements ainsi que le prix de ses contenus (articles) vendus à la pièce.

Nul doute, que les résultats de ce GIE, qui est piloté par Frédéric Filloux seront scrutés à la loupe car ce projet pour séduisant qu’il paraisse sur le papier semble, malgré tout, comme l’écrit Guillaume Champeau dans Numerama

apporter une mauvaise réponse à un problème qui est mal posé. La question est d’abord moins de savoir comment faciliter le paiement des différents journaux que de savoir si les journaux dans leur forme actuelle peuvent encore donner l’envie d’être achetés.

Car l’information à un prix. Soit gratuite et dans ce cas, c’est la publicité, et/ou l’impôt via la redevance qui paie la fabrication du contenu, soit payante et dans le cas le consommateur paie tout ou partie du contenu [lire "Personne ne pense un seul instant qu'il devrait payer pour son journal"].

2. Le journal vendu en kiosque n’est plus concurrentiel

Avec en tête donc, le fait qu’un faible pourcentage d’internautes étant prêt à payer pour obtenir de l’information sur le web, je me suis livré à une étude comparative sur les différentes offres disponibles sur le marché français, concernant les quotidiens nationaux français. J’ai regroupé ces offres [je n'ai pas inclus dans cette étude les quotidiens dont le site est gratuit, c'est-à-dire L'Équipe, L'Humanité et France Soir] proposées par les différents quotidiens nationaux dans un GoogleDocs [ce doc est amendable et peut être complété].

Je m’en suis tenu à la seule approche par les prix sans m’interroger sur la qualité de l’information produite par tel ou tel titre ou marque. Il est donc possible d’obtenir un information (ou un article) selon 5 formules différentes :

  1. l’achat du journal papier au numéro (en kiosque),
  2. l’abonnement papier (qui peut-être délivré soit par La Poste soit par portage),
  3. l’abonnement mixte papier + web, qui inclut selon les formules le seul accès au site, ou l’accès au site —à sa partie payante— et aux applications smartphone et tablette. Etrangement, la presse quotidienne française semble avoir un très fort tropisme pour les produits Apple, iPhone et iPad.
  4. l’abonnement web, qui inclut souvent les applications smartphone et tablette.
  5. les applications smartphone et tablette.

À ce petit jeu comparatif, il existe un grand perdant : la vente en kiosque. Comparée à toutes les autres formules, et quel que soit le quotidien, l’information papier vendue en kiosque est hors de prix, ou en tout cas n’est plus concurrentiel. Acheter un quotidien coûte (sur 5 jours) de 10 euros (France Soir) à 30 euros (Le Monde, Les Échos) mensuellement. Ce coût mensuel est encore plus élevé si l’on achète son journal sur 6 (Libération, Le Monde, Le Figaro) voire 7 jours (Le Parisien, L’Équipe) car, dans ce cas s’ajoute le prix de suppléments « obligatoires » comme les mensuels Next pour Libération, Enjeux pour Les Échos, ou hebdomadaires comme Le Monde Magazine, L’Équipe Magazine, Le Figaro Magazine et Madame pour (dans ce dernier cas existe toujours la possibilité d’acheter L’Aurore, qui est Le Figaro du samedi vendu sans ses magazines).

Si l’on calcule le coût annuel de l’achat en kiosque d’un quotidien, l’addiction à l’information coûte de 336 euros pour Le Parisien, à 484 euros pour Le Monde, quasiment le prix d’un iPad !

D’un strict point de vue de consommateur, le jeu en vaut-il la chandelle ? Qu’apporte réellement de plus le journal papier ?  Il est — pour des raisons inhérentes à son processus de fabrication— en retard sur l’information produite sur le web, par les radios et les chaînes télévisées d’information en continu. Il faudrait donc pour que l’achat en kiosque perdure, que les journaux apporte une très forte valeur ajoutée en terme d’analyse, de réflexion et de profondeur. Est-ce le cas ? Le fléchissement continu des ventes, montre que le lectorat n’en est pas vraiment convaincu. C’est sans doute l’un des principaux défis que doivent relever les éditeurs et les rédactions.

L’acheteur en kiosque n’a pas accès aux infos payantes du site

À cela s’ajoute un deuxième handicap : acheter un journal implique trouver un kiosque en particulier pour les éditions du dimanche. C’est cette difficulté qui, entre autres, à conduit Amaury a construire son propre réseau de distribution distinct de Presstalis, pour Le Parisien, afin de densifier le nombre de points d’accès.

Et puis, il y a aussi le fait que l’acheteur d’un quotidien en kiosque est pénalisé par rapport aux abonnés, puisqu’il n’a pas accès aux sites payants (ou à la partie payante des sites), alors même qu’il paie plus cher ! Pire, sur certains sites comme celui de Libération, celui qui achète le journal en kiosque se voit interdire la consultation des mêmes articles sur le site, la plupart d’entre eux étant en zone payante pendant les 24 heures de vente du quotidien. Il existe pourtant des solutions techniques très simples, comme les codes QR, qui permettraient à ces consommateurs d’avoir accès au site pendant, par exemple, une journée. Visiblement, l’imagination n’est pas vraiment au pouvoir dans les services marketing.

Côté abonnement, désormais pratiquement tous, à l’exception du Figaro et du Parisien, qui maintient un abonnement pure print, incluent l’accès au site et à sa partie payante. Certains comme La Tribune, ajoute des bonus, comme une édition numérique du quotidien le samedi, qui n’est accessible que pour les abonnés.

L’abonnement couplé, papier+web, fait-il baisser le coût de l’information ?

On pourrait penser que cette formule d’abonnement couplé aurait l’avantage d’abaisser le coût d’accès à l’information. Ce n’est pas toujours le cas: aux Échos, par exemple, si l’on adopte le Pack Premium, il en coûte 168 euros de plus sur une année que le seul achat du quotidien au numéro. Il est vrai que l’offre est particulièrement complète avec l’accès au site et à ses archives et des solutions de mobilité pour les smartphones et l’iPad. Par le jeu des réactualisation (pour l’iPad) et des alertes (smartphone), c’est une forme d’information en continu qui est ainsi proposée. Mais, question: cela vaut-il 168 euros. Il faut si l’on pratique ce genre de formule que l’information produite sur le web apporte une réelle valeur ajoutée par rapport au seul papier.

C’est le cas aussi pour Le Figaro qui fait payer légèrement plus cher son offre bundle, baptisée Global Club, par rapport au seul abonnement papier : 366 euros par an, contre 319. Une offre « cassée » (la différence est de  47 euros) en ce qui concerne le web, puisque l’abonnement « pure web » équivalent, Digital, coûte 180 euros. Elle a le mérite de la logique, on fait payer un peu plus cher l’abonné papier pour les services offerts sur le web, archives, etc., et en mobilité (smartphone et iPad compris).

Mais donc en règle générale, l’abonnement couplé est moins cher que le seul achat du journal en kiosque, c’est le cas pour Libération avec son Offre intégrale, qui comprend l’accès aux archives, au PDF du quotidien et les apps pour mobile et iPad, le tout pour 228 euros. On peut considérer que si l’on adopte cette offre, le prix du journal papier à l’unité est ramené à environ 28 centimes ! Explications: il existe l’offre Première qui est un abonnement pure web à 144 euros par an. La différence entre l’Offre intégrale à 228 euros et Première à 144 euros est donc de 84 euros. En comptant quelques 300 numéros par an, on obtient un prix par numéro papier de… 28 centimes. Une telle proposition ne peut signifier autre chose que : le papier ne vaut rien. Les partisans du papier pourront soutenir que c’est la partie web qui ne vaut pas grand chose.

Plus on paie, plus on a de services

Les abonnements pure web offrent une grande variété, et leur logique semble plus évidente : plus vous payez plus vous avez accès à un grand nombre de services. Mais, il existe de très fortes disparités de prix : le plus coûteux est l’abonnement aux Échos, 360 euros, mais il offre ce service d’information en continu dont je parlais plus haut. Ensuite, pour pour rester dans le registre strictement comparatif, on remarque que La Tribune casse les prix avec son abonnement à 120 euros, suivi par Libération à 144 euros, les autres proposant des abonnements de 180 euros.

La différenciation —outre la qualité d’information proposée par le site— peut se jouer sur les services et par exemple sur les archives, dont l’accès pour certains sites est limité —90 articles pour Le Figaro (pourtant Le Figaro parle d’accès à l’intégralité des contenus !), 25 pour Le Monde, par exemple— et pour d’autres comme Le Parisien, La Croix ou La Tribune, illimité. Un facteur qui pourrait être pris en compte au moment de choisir son abonnement à un site d’information.

Ces offres, pour certaines d’entre elles, comme celle Figaro Digital, comprennent un grand nombre de services [j'en ai compté 20] qui vont de l’abonnement à des newletters spécialisées à des services de conciergerie, et l’inscription dans la communauté du journal, grâce à des cercles de discussion, la possibilité de créer son propre réseau, etc. Pour Le Parisien ce sera des conseils juridiques, des offres promotionnelles sur d’autres produits, etc.

Le problème est que ces avantages supplémentaires ne sont guère valorisés sur les sites (Le Figaro fait un effort avec une vidéo de présentation) où ils se présentent souvent sous forme de listing sans que l’on sache précisément ce que recouvre chacun de ces services potentiels et quelle est leur réalité. Ainsi, si l’on rejoint la communauté du Figaro, ou celle de Libération, il semblerait intéressant de savoir combien de membres en font partie, par exemple, pour savoir ainsi si l’on peut bénéficier d’un effet de réseau ou si l’on se risque de se retrouver dans un désert. Bref, ces offres donnent souvent l’impression qu’il faut d’abord payer pour savoir.

Reste la question des apps. Elles sont pour la plupart gratuites pour l’iPhone, à l’exception de celle du Monde qui est payante (0,79 euros) et celle de Libération, (0,79 euros également et elle offre l’accès à 6 numéros pour 3,99 euros). Pour l’instant, le journal Les Échos est allé le plus loin dans la logique du « payant mobilité » en proposant deux offres : l’une étant un abonnement « mobile » et l’autre un abonnement au seul iPad.

Après ce rapide tour d’horizon, quelques remarques :

- le prix de l’information est lié au support, le moins coûteux étant le mobile et le plus onéreux le journal papier vendu en kiosque. De telles distorsions sont-elles soutenables à moyen et long terme ?

- l’information est beaucoup moins chère sur le web que sur le papier et ce quel que soit le titre. L’écart est grosso modo de 1 à 2. Cet écart peut se justifier par des différences de coût de production et de distribution. Cela rend encore plus intenable sur le long terme l’information papier.

- l’achat d’information « à l’article » est difficile voire impossible. En tout cas, l’offre n’est guère apparente, à l’exception des archives. Le kiosque numérique e-Presse Premium devrait résoudre ce problème. Mais la situation est pour le moins étrange : pour s’informer sur un sujet précis il est nécessaire d’acheter soit la totalité de l’information du jour (quotidien papier) soit de s’abonner pour au minimum un mois. Il y a longtemps que l’on est plus obligé en musique (merci iTunes) d’acheter un album complet si l’on ne souhaite écouter qu’un seul morceau.

- l’information brute, la hot news est désormais gratuite. Elle est considérée par la totalité des éditeurs comme une commodity, comme disent les Anglo-saxons, c’est-à-dire qu’elle n’a pas de valeur, ou en tout cas une valeur très faible. Mais cela pose une question, pour les sites web : pourquoi une information bascule-t-elle du côté du payant ? Ce choix qui n’est pas réellement un choix éditorial mériterait d’être plus expliqué. Là encore sur aucun des sites, je n’ai trouvé d’explication, si ce n’est le fait qu’une « vieille information » basculait dans le payant dès lors qu’elle devenait archive. Un peu court pour un consommateur d’information.

Article initialement publié sur Media Trend

Crédits Photos Flickr : Just Luc / Franck Munari / DubyDub2009 / Yago1.com /

]]>
http://owni.fr/2011/02/21/l%e2%80%99information-%c2%ab-papier-%c2%bb-est-hors-de-prix/feed/ 10
Petite expérience de laboratoire sur l’information d’aujourd’hui http://owni.fr/2011/02/08/petite-experience-de-laboratoire-sur-l-information/ http://owni.fr/2011/02/08/petite-experience-de-laboratoire-sur-l-information/#comments Tue, 08 Feb 2011 17:00:49 +0000 Marc Mentré http://owni.fr/?p=45535 Prenez une bonne centaine de blogueurs, de spécialistes des médias et des réseaux sociaux, enfermez-les une grosse heure avec un spécialiste des médiaux sociaux, en l’occurrence Clay Shirky, laissez-les twitter pendant la séance, attendez qu’ils interviewent, puis bloguent leurs compte-rendus, commentaires et réflexions… Vous obtenez au bout du compte une parfaite expérience en laboratoire de ce qu’est l’information aujourd’hui, comment elle se construit et se diffuse.

Ce mardi 1er février 2011, vers 10 heures du matin, j’ai longuement hésité avant de cliquer sur le bouton bleu pour « publier » mon post rendant compte de la conférence de Clay Shirky, qui s’était tenue la veille chez Microsoft. Mon interrogation était la suivante: était-il nécessaire de publier ce compte-rendu alors que déjà plusieurs autres avaient déjà été publiés, et que la veille le débat avait été largement tweeté? Bref, la sensation très désagréable d’arriver « comme les carabiniers ». Du coup, il m’a semblé nécessaire de réfléchir à ce qu’est l’information à l’ère de l’instantanéité de sa production et de sa diffusion. Il m’est apparu que la conférence de Clay Shirky était un moment « chimiquement pur », une expérience de laboratoire, qui permettait cette réflexiion

Tout d’abord, le champ et le lieu de l’expérience. Nous sommes entre 100 et 150 personnes [un public en large majorité masculin] réunies ce 31 janvier à 8h30 du matin, dans la salle de conférence d’un immeuble neuf, à Issy-les-Moulineaux, en banlieue parisienne. Nous sommes chez Microsoft. L’invitation a circulé sur Facebook. On lit ici l’importance prise par les réseaux sociaux, en particulier Facebook, pour l’organisation de ce type de manifestation, en particulier si l’on souhaite élargir le public que l’on veut toucher. Mais ici j’enfonce une porte ouverte.

Pour un journaliste, oublier son smartphone est désormais une faute professionnelle

Plus intéressant, le public, ou plus précisément les participants qui ont twitté pendant la conférence. J’en ai recensé 69, dont seulement 16 journalistes [apologie: j'ai fait baisser la moyenne "journaliste", n'ayant pas mon smartphone sur moi; je considère d'ailleurs avoir commis de ce fait une faute professionnelle]. L’éventail des métiers représentés est très large, puisqu’on trouve pêle-même, des designers, des spécialistes du SEO, des « trend trackers », des community managers, des web marketing managers, des analystes en médiaux sociaux, des chefs d’entreprise…

L’information produite pendant la conférence —appelons-là « information instantanée », ou « information brute »— l’a donc été essentiellement par des non journalistes. Pourtant, tous les tweets que j’ai lu —et relu— en les confrontant à mes notes, me paraissent de bonne qualité. Les phrases de Clay Shirky, ses expressions ont toujours été relevées et citées de manière précise et les commentaires toujours appropriés. La coproduction de l’information selon un mode Pro-Am [comprendre journalistes professionnels et non journalistes] s’est avérée dans ce cas précis fructueuse et efficace. Sans doute, pourra-t-on dire qu’il est difficile de généraliser le constat dressé à cette occasion: le public venant assister à une conférence de Clay Shirky en anglais est un public averti.

Il n’empêche, dans la production d’information brute, les journalistes ont perdu leur monopole. Ils sont concurrencés en qualité et en rapidité. Peut-être est-ce là encore enfoncer une porte ouverte, mais je ne suis pas certain que tous les journalistes aient intégré cette réalité.

69 personnes totalisent 190.000 followers

Le plus spectaculaire tient sans doute à la diffusion massive de cette information. Les 69 personnes qui ont twitté pendant cette conférence rassemblent quelque 190.000 followers! Un chiffre énorme. Il l’est d’autant plus qu’il faudrait aussi prendre en compte dans un deuxième temps, les retweets, et recenser aussi les followers des personnes qui retweetent. Bref, analyser les « ondes d’informations » qui se propagent ainsi, de retweet en retweet, sur l’Internet, et qui se diffusent dans des réseaux distincts [même s'ils se chevauchent en partie]: marketing, spécialistes du SEO, publicitaires, community managers, journalistes, etc.

Bien sûr, il faut relativiser. Les 190.000 followers n’avaient pas tous le nez collé sur l’écran de leur smartphone ou de leur ordinateur (ou de leur tablette) pendant toute la durée de la conférence. Mais qu’importe, cela illustre à quel point Twitter est devenu un outil majeur de diffusion de l’information. À quel point aussi une poignée de personnes en raison du nombre de leurs followers sont devenues des « médias à elles seules ». C’est le cas de MissPress avec ses 50.000 followers, d’Alice Antheaume qui en compte près de 44.000 et de Versac qui « plafonne » à 32.000. Les 66 autres twitternautes que j’ai recensé ne comptaient « que » 63.000 followers. Un chiffre qui masque de grandes disparités: 16 comptent moins de 100 followers et 5 plus de 4.000 followers.

Les blogueurs entrent en piste

Lorsque s’achève la conférence de Clay Shirky, l’information est donc déjà produite et largement diffusée [et je ne parle pas des "live vidéos", qui permettent aussi de diffuser l'information en direct]. Il s’agit certes d’une information brute, qui mérite d’être complétée et mise en perspective, mais le temps n’est plus à l’information instantanée; les blogueurs entrent en piste.

Il se trouve que tous ceux que j’ai recensé [Alice Antheaume, Gilles Bruno, Francis Pisani, Eric Scherer et Vincent Truffy] sont journalistes, mais les compte-rendus seront tous publiés sur des blogs et non sur des sites, à l’exception de celui de 20 Minutes. L’explication en est simple: les notions et concepts abordés par Clay Shirky, en dépit de ses talents de pédagogue, sont relativement complexes et difficilement transmissibles au grand public.

En fait, un compte-rendu de cette conférence, trouvait plus facilement [je serais tenté de dire "plus naturellement"] sa place sur un « blog expert » que sur un site, y compris dans la rubrique médias. Mais cet « aiguillage » n’est pas neutre: elle traduit de la part des sites d’information soit un renoncement à s’emparer d’une information complexe pour la porter à la connaissance du grand public [ce à quoi n'a pas renoncé 20minutes.fr], soit plus prosaïquement la décision de ne pas traiter une information jugée mineure face une actualité débordante [ce jour-là le trône de Moubarak chancelait].

La difficulté —sur un site— tient en effet à trouver « un angle » qui permette de traiter cette information complexe et jugée « mineure » [la question de la hiérarchie de l'information mérite un post et un débat], mais intéressante, avec l’actualité. C’est à cette difficulté que s’est confronté 20minutes.fr, qui après avoir « ouvert » l’entretien vidéo avec Clay Shirky par une question sur les lolcats, a ensuite enchaîné par des questions sur les libertés sur Internet et sur l’impact du web sur la politique et la manière de gouverner, avec en illustration les événements d’Égypte, et la décision du gouvernement de ce pays de « couper l’Internet ».

Il n’est plus question de fidélité. Seule compte la rapidité

Sur un blog, il en va différemment, puisque le blogueur est seul maître de ses choix et surtout s’adresse à un public a priori intéressé par les sujets abordés, et qui souvent a une expertise proche ou équivalente de la sienne (si ce n’est supérieure).

C’est ici qu’entre en jeu un autre élément du système d’information tel qu’il fonctionne à l’heure actuelle.

Imaginons un internaute lambda, intéressé par la question des médias. Il suit donc un certain nombre de blogs spécialisés. Il sera abonné à leurs flux RSS et suivra sur Twitter les blogueurs spécialisés. Dès le matin du 31 janvier, il aura donc été informé de l’essentiel des propos de Clay Shirky. Il va attendre un compte-rendu, et peu importe qui le produise. En situation de concurrence parfaite [ce qui est le cas à propos du compte-rendu de la conférence de Clay Shirky] il lira celui qui sera mis en ligne le premier.

Ceci n’est pas une question de fidélité à tel ou tel blog ou tel tel auteur en particulier, mais au fait que l’information est désormais automatiquement diffusée sur les réseaux sociaux [Twitter et Facebook notamment] qui jouent une rôle d’alerte. Par le jeu des flux RSS, des tweets et des retweets, notre internaute saura donc quasi instantanément qu’un compte-rendu de la conférence a été publié, et il lui suffira de cliquer sur un lien, pour obtenir l’information [dans ce cas un compte rendu].

Il faut donc se représenter qu’aujourd’hui, dans un un système d’information partagée, lorsque l’on est le cinquième à publier un article sur le même sujet on est pas ou peu et mal lu. L’effet de fraîcheur est perdu. L’internaute aura inévitablement un sentiment de redite. C’est pour cette raison que ce mardi 1er février au matin, j’ai longuement hésité à publier mon post sur la conférence de Clay Shirky.

-
Publié initialement sur le blog de Marc Mentré, The Media Trend, sous le titre “La conférence de Clay Shirky, une expérience de laboratoire sur l’information aujourd’hui”
-
Crédits photos via Flickr: Clay Shirky par Joi Ito, cc-by ; Clay Shirky à la conférence d’Issy-les-Moulineaux par Samuel Huron, cc-by-nc-nd ; Twitter by Tsevis, cc-by-nc-nd

]]>
http://owni.fr/2011/02/08/petite-experience-de-laboratoire-sur-l-information/feed/ 4
Assises du Journalisme: l’AFP en chantier http://owni.fr/2010/11/18/assises-journalisme-2010-afp-chantier/ http://owni.fr/2010/11/18/assises-journalisme-2010-afp-chantier/#comments Thu, 18 Nov 2010 11:51:43 +0000 Marc Mentré http://owni.fr/?p=36084

Ah ! Le charme de la langue moderne. À l’AFP dans un an et demi, « nous serons capable de donner en push et pull un package d’infos en texte, photo, infographie, vidéo », dixit Philippe Massonnet, le directeur de l’information de l’agence. Ce changement de langage est-il signe d’une nouvelle approche de l’information ? Peut-être, mais dans le même temps, le même Philippe Massonnet s’empresse d’ajouter que cette vision multimédia de l’offre de l’AFP ne signifie pas pour autant la disparition du fil classique, c’est-à-dire de la bonne vieille dépêche.

Visiblement, l’AFP oscille entre le maintien d’une forme de tradition tout en cherchant à rénover son modèle et à s’ouvrir de nouveaux marchés.

Tradition, lorsque Emmanuel Hoog raconte l’épisode au cours duquel le journaliste de l’AFP en poste à Singapour a attendu une heure avant d’envoyer une dépêche à propos de l’atterrissage en urgence de l’A 380 de Quantas, « alors qu’Associated Press et Reuters avaient toutes deux déjà annoncé le crash de l’avion avec plusieurs morts. La pression sur lui [ce journaliste] était énorme. » La dépêche de l’AFP dira que l’avion s’était posé avec un problème à deux moteurs.

Une anecdote, mais visiblement importante à ses yeux, car révélatrice du fait que l’AFP tient un cap ancien, qui lui permet de se distinguer de la production courante. Pour lui, la qualité pour une agence comme l’AFP se mesure sur la longue durée [ 50 ans] et sur l’ensemble [sur le volume] de la production.

Tradition aussi dans le fait de vouloir « accompagner nos clients historiques [comprendre : les journaux français]» , même si ceux-ci représentent aujourd’hui moins de dix pour cent du chiffre d’affaires de l’agence.

Tradition enfin, dans l’affirmation que « ce qui fait la force de l’agence, c’est le fait que sur un fil [d'agence], à un endroit donné, vous recevez toute l’information du monde ».

Le changement de statut est inéluctable

Tradition encore pour les journalistes eux-mêmes qui ne devraient pas se transformer en journalistes multitâches. C’est donc le refus du “journalisme shiva” (ndrl : à 8 bras). L’AFP, explique Philippe Massonnet, refuse de s’engager dans ce modèle et de prendre ainsi « le risque d’une perte de qualité ». Seule innovation, la création d’un nouveau poste, celui de « coordinateur des réseaux sociaux ».

Mais au-delà de cette petite musique, c’est bien un profonde rénovation dont il a été question, et en premier lieu sur la question du statut.

Emmanuel Hoog est sur cette question d’une prudence de chat : « Je ne suis ni député ni sénateur et changer le statut de l’agence implique une intervention du législateur », pose-t-il en préambule. Mais à l’évidence, il souhaite un changement de statut rapide, lorsqu’il souligne que:

  • « l’agence à un dispositif de gouvernance faible », une structure qui, à l’inverse de ce qu’il a connu précédemment à l’INA, permet difficilement d’inscrire son action dans la durée,
  • le fait que le Conseil d’Administration soit majoritairement composé de ses clients constitue une source permanente de conflits d’intérêts et que cela empêche de construire une stratégie d’entreprise. En effet, « les clients demandent le meilleur service le moins cher possible », ce qui peut être antinomique avec les intérêts bien compris de l’agence.
  • les autorités européennes risquent de regarder avec attention le problème des subventions d’Etat. « Le problème se poserait différemment si nous n’étions présent que sur le marché français, mais nous sommes sur l’ensemble des marchés européens et mondiaux ». Dit autrement, ces subventions risquent de poser un problème de distorsion de concurrence dont pourrait s’emparer les concurrents de l’agence.

La rénovation de l’agence ne se limite pas à ce seul problème de gouvernance, mais aussi à l’émergence de nouveaux concurrents, comme l’agence chinoise Xinhua qui, en Afrique, offre des fils français « pas chers », comme le précise Philippe Massonnet.

Face à cela, l’AFP s’intéresse à des marchés émergents, comme le Brésil où l’Inde, où elle propose de nouveaux produits. Déjà « première agence pour le cricket », elle va proposer « une application pour téléphone mobile sur le cricket en Inde ».

… tout comme est inéluctable la création d’une offre grand public

Dans le monde arabe, l’AFP est déjà en bonne position, car 55% des journaux sont abonnés au fil AFP en langue arabe. L’idée serait de transformer ce fil, qui représente en volume environ 300 dépêches par jour [3.500/jour en français] et qui est actuellement constitué de dépêches traduites du français et de l’anglais. Il s’agirait de faire en sorte que le contenu soit produit directement dans les pays de la zone elle-même : Irak, Egypte, etc.

Dernière évolution probable, celle de la création d’une offre grand public. Emmanuel Hoog l’estime inéluctable, observant ce que font ses concurrents qui sont présents avec des sites publics d’information dans leur propre langue et qui en même temps peuvent travailler sous leur propre marque avec leurs clients. Pour lui, l’ouverture d’un site grand public n’est donc qu’une « question de temps, mais on ne peut pas dire : ‘l’AFP sur Internet, jamais‘. »

Article initialement publié sur Mediatrend

Crédit image CC Flickr Stéfan et luca.sartoni (une)

]]>
http://owni.fr/2010/11/18/assises-journalisme-2010-afp-chantier/feed/ 1
Le «journalisme artificiel» est en ligne http://owni.fr/2010/11/14/le-%c2%abjournalisme-artificiel%c2%bb-est-en-ligne/ http://owni.fr/2010/11/14/le-%c2%abjournalisme-artificiel%c2%bb-est-en-ligne/#comments Sun, 14 Nov 2010 11:32:21 +0000 Marc Mentré http://owni.fr/?p=35642 C’était annoncé, c’est désormais chose faite. Les premiers articles entièrement rédigés par des « robots » sont en ligne sur le site de StatSheet. Pour l’instant, ces « journalistes artificiels » ne couvrent que le sport, mais Robbie Allen, le fondateur de cette startup américaine estime que cette technologie pourrait être utilisée à l’avenir dans d’autres domaines.

Dans un article publié par Le Monde en mars 2009, Yves Eudes décrivait Stats Monkey, un programme d’intelligence artificielle développé par un laboratoire d’intelligence artificielle (infolab), rattaché à l’université de Northwestern, à Chicago:

Il [Stats Monkey] travaille automatiquement de A à Z. Il commence par télécharger les tableaux chiffrés publiés par les sites Web des ligues de base-ball, et collecte les données brutes : score minute par minute, actions individuelles, stratégies collectives, incidents… Puis il classe cette masse d’informations et reconstruit le déroulé du match en langage informatique. Ensuite, il va puiser son vocabulaire dans une base de données contenant une liste de phrases, d’expressions toutes faites, de figures de style et de mots-clés revenant fréquemment dans la presse sportive. Il va alors rédiger un article, sans fautes de grammaire ni d’orthographe.Il peut fournir plusieurs versions, rédigées dans un style plus ou moins imagé.

À l’époque, l’article avait suscité une certaine émotion. Pourtant, depuis déjà longtemps, dans l’information financière notamment, les premiers jalons de ce type de synthèse sont posés. C’est le cas à Bloomberg, comme l’expliquait déjà 1999 son fondateur Michael Bloomberg:

Pour certains sujets, nous ne faisons appel ni à des journalistes, ni à des rédacteurs humains. Quand nous décrivons la valeur d’un marché à un moment donné (et non les raisons qui l’ont amené à cette situation), les deux seules choses qui comptent sont la vitesse et la précision — or ce ne sont pas les qualités essentielles de la plupart des gens. (…) Nous avons donc programmé nos ordinateurs pour qu’ils « écrivent » périodiquement une série d’articles informant nos lecteurs de l’état actuel du marché. Par exemple, la machine prend le début de la phrase « L’indice industriel Dow Jones est » et y ajoute « en hause » ou « en baisse » en fonction du résultats de calculs portant sur les mouvements de 30 valeurs entre la veille et la micro seconde où le texte s’écrit. Elle y ajoute ensuite le chiffre adéquat, par exemple de 1 point, 2 points, 3 points, etc. Puis elle imprime: « les titres les plus actifs sont » et à partir du suivi en continu du volume des échanges, elle traduit automatiquement les symboles des téléscripteurs en noms d’entreprises (Procter & Gamble, General Electric, Walt Disney, etc.) et les ajoute à la phrase.

[in Bloomberg par Bloomberg, Village Mondial, 1999, pages 87-88]

Le bot-style

Avec StatSheet, en tout cas, le pas est franchi [le site semble encore instable]. Le « journalisme artificiel » sort du laboratoire et les premiers articles rédigés par des algorithmes sont en ligne, depuis août.

Schématiquement, le procédé est le suivant, explique Allan Maurer de TechJournal South: StatSheet a stocké quelque 500 millions de statistiques, 10.000 données significatives et 4.000 phrases clé. « Les articles [de vingt types différents] sont entièrement auto-générés, explique Robbie Allen, son fondateur. la seule implication humaine est la création de l’algorithme qui permet de générer les articles ». [cité par TechChrunch]

Le résultat est surprenant. Le style est rugueux, direct et les articles bourrés de chiffres et de statistiques. « 70% du contenu sportif est basé sur des statistiques, explique Allen. Notre technologie passe par les stats, permet de faire une tonne d’analyses, et de les injecter dans des articles que l’on peut publier [Allen dit "split" - "cracher"] rapidement ». Voici un exemple:

Michigan State basket ouvrira la saison 2010-2011 contre Eastern Michigan le 12 novembre à East Lansing. Les attentes sont élevées pour les Spartans qui ont réalisé une excellente performance la saison dernière. Ils ont conservé 72% de leurs joueurs de la saison dernière. Ils ont complété [leurs effectifs] avec 3 recrues parmi les 100 meilleures et un étudiant de première année… [lire la version originale ici]

Le site ne se réduit pas à cette seule innovation technologique. Il offre un contenu que ne peut pas couvrir un média traditionnel, puisqu’il s’agit en fait d’un portail qui assure la couverture de l’actualité de 345 équipes de basketball américaines, de 1ère division ou universitaires. Chacune d’elle bénéficie aussi d’un compte Twitter, d’une page Facebook et d’une application mobile, offrant aux supporters une couverture complète [au moins en matière de statistiques] de leur équipe favorite.

Il est probable que le « journalisme artificiel », dont on voit bien avec l’exemple de StatSheet les limites, ne se substitue pas au « journalisme traditionnel », mais qu’il le complète, en le libérant des tâches mécaniques comme la compilation de statistiques, et l’enrichisse. Sur ce point, on ne peut que reprendre l’affirmation de Michael Bloomberg : « Dès le début, nos journalistes ont été trop précieux pour se voir confier des tâches mécaniques ».

Crédit photos cc FlickR : Don Solo, Gastev.

Article initialement publié sur Media Trend.

]]>
http://owni.fr/2010/11/14/le-%c2%abjournalisme-artificiel%c2%bb-est-en-ligne/feed/ 4
Écrire pour le web: “c’est la structure, imbécile!” http://owni.fr/2010/10/27/ecrire-pour-le-web-cest-la-structure-imbecile/ http://owni.fr/2010/10/27/ecrire-pour-le-web-cest-la-structure-imbecile/#comments Wed, 27 Oct 2010 17:41:26 +0000 Marc Mentré http://owni.fr/?p=33737 Comment faut-il écrire pour le web ? Souvent l’enseignement se résume à des techniques d’écriture et d’édition, et à l’usage que l’on peut faire des différents médias: texte, son, vidéo, infographie, etc. Cet enseignement ignore deux points clé: l’importance des liens hypertexte qui permettent de réunir dans un même ensemble des éléments d’apparence disparates et le fait qu’il soit possible de développer des récits non-linéaires, offrant la possibilité à chaque internaute la possibilité de se construire son propre parcours de lecture. Pour ces raisons, l’écriture sur le web est d’abord une question de structure. Cette question a suscité de nombreux travaux depuis une quinzaine d’années. Voici une brève recension, non exhaustive.

Pour écrire ce post, mon point de départ a été les travaux de Maria Laura Martinez, professeur et chercheur à l’École de Communications et d’Arts de l’Université de São Paulo, au Brésil [lire, The Black Wheel: a technique to develop hypermedia narratives (pdf)] et de João Canavilhas, enseignant au Département Media et Arts de l’Université de Beira Interior, au Portugal [lire, Web Journalism: from the inverted pyramid to the tumbled pyramid (pdf)].

« Écrire pour le web » se résume souvent à quelques conseils rustiques:

  • Style. Privilégier le mode actif, écrire des phrases concises et privilégier les formes grammaticales simples [comprendre "sujet, verbes, complément] pour construire ses phrases.
  • Construction des textes selon le modèle canonique de la pyramide inversée: commencer par l’information importante et d’organiser la suite en paragraphes selon un ordre décroissant de pertinence.
  • Longueur des textes. Faire court, deux feuillets [3000 signes ou 500 mots] étant la limite acceptable
  • Liens. Saupoudrer le texte de quelques liens.

Caricatural? À peine. Dans un billet —très intéressant par ailleurs—, Non, Google n’est pas responsable de la standardisation journalistique, publié sur son blog Mediaculture, Cyrille Franck évoque les principes d’écriture qu’implique un bon référencement. Il explique:

Écrire pour Google, c’est écrire d’abord pour le lecteur : faire concis et précis (titre et accroches efficaces) riche (liens externes, popularité, régularité), et accessible sur la forme (gras, paragraphes etc.). Ce sont tous ces critères qui sont récompensés dans l’algorithme de classification de Google et le moteur ne fait qu’appliquer les bonnes pratiques journalistiques classiques, adaptées au support qu’est l’écran (la lecture est en moyenne 25% plus lente et difficile sur un écran que sur du papier selon l’expert reconnu du sujet Jakob Nielsen). Écrire pour le web, c’est bien écrire tout court.

Les principes ainsi définis, l’ont été par Jakob Nielsen en… 1997, dans un article célèbre: Concise, SCANNABLE, and objective: How to Write for the Web. Plusieurs raisons expliquent que ces principes soient encore dominants, quelque 15 ans après:

1 – la construction « en pyramide inversée » est bien adaptée aux médias de flux que sont les sites de presse;
2 – le référencement
se joue pour partie sur la présence de « mots clé » dans le texte, en particulier dans son début. Cela ne peut que mécaniquement renforcer l’écriture en pyramide inversée
3 – l’accueil de l’internaute
. Il doit trouver lorsqu’il arrive sur une page la « réponse » à la requête qu’il a formulé sur un moteur de recherche, ce qui incite les rédacteurs à privilégier l’écriture en pyramide inversée, puisque l’information importante se trouve alors en tête du texte.

Mais, aujourd’hui cette situation évolue sous l’influence de plusieurs facteurs:

1 – le contenu des sites se différencie, se diversifie et se complexifie. Il est rare qu’un site ne traite que des informations en flux
2 – le référencement  évolue et se sophistique.
Il ne se joue pas seulement sur les dix premières lignes du texte. [lire à ce propos, sur Owni, Forget the Readers, are journalists writing for Google?, de Adam Westbrook]
3 – les internautes ne viennent plus sur un site
uniquement par un moteur de recherche mais aussi via les réseaux sociaux, donc par un système de recommandation, ce qui permet d’être moins mécanique dans l’écriture.

Mais surtout, il faut bien constater, comme l’explique João Canavilhas, de l’Université portugaise de Beira Interior, que « La pyramide inversée est associée à un support physique: le papier. Utiliser la pyramide inversée online revient à priver le web journalisme de l’un de ses plus importants potentiels: la mise en œuvre d’une construction ouverte pour l’écriture de l’information permettant de naviguer en ligne sans aucune restriction. » .

Comment conserver la cohérence d’un texte et éviter « qu’il ne parte dans toutes les directions » ? L’universitaire allemande Angelika Storrer apporte un premier élément de réponse théorique, en expliquant que la cohérence d’un texte « hypertexte » peut-être :

  • locale, en ce sens qu’une relation directe existe entre la partie du texte que le lecteur est en train de  parcourir et le paragraphe ou le « nœud hypertexte » qui précède immédiatement
  • globale, ou la relation entre les paragraphes est assurée soit par le sujet soit par son caractère global [in Coherence in Text and Hypertext - Pdf]

On l’aura compris sur le web la structure d’un « contenu » [il m'est difficile d'écrire "texte", puisque par nature sur le web l'information est multimédia et hypertexte, pour cette raison j'utilise le terme de "contenu", mais je suis preneur d'une meilleure expression] est « globale » et si l’on veut proposer un contenu intéressant, il faut sortir des formes de construction “classiques”. Traduit en terme d’écriture cela signifie que le journaliste web doit se polariser sur la structure, pour pouvoir construire une information cohérente dans cet espace quasi illimité qu’est le web, en tenant compte de trois éléments qui n’existent pas sur le “papier”:

  • les liens hypertexte. Ils ajoutent une dimension à l’écriture et conduisent à proposer à l’internaute plusieurs parcours de lecture [en fait, le nombre de combinaisons est pratiquement infini]
  • le caractère dialogique des médias online ou les internautes sont à la fois émetteurs et récepteurs de l’information
  • le temps, un contenu n’étant —en théorie— jamais figé sur web.

Comment gérer tous ses éléments et la complexité des « parcours », qui sont ainsi générés ? Maria Laura Marinez, professeur et chercheur à l’Université de São Paulo au Brésil, distingue deux éléments:

  • l’architecture de l’information, qui permet de concevoir dans un ensemble la structure des liens du site, et les « nœuds », et incluant entre autres le récit, les informations institutionnelles, les services, les contacts et informations sur le(s) auteur(s)
  • l’écriture web [webwriting]  met l’accent sur le contenu narratif (texte ou multimédia) du système d’information: le développement de l’articulation du récit et de sa structure non linéaire. (…) cela fait partie de l’architecture de l’information

Comment ces principes théoriques peuvent-ils être appliquées dans la pratique ? Il existe plusieurs approches.

Des pyramides flottant dans le cyberspace

Dès 1996, Jakob Nielsen insistait sur le fait que le journalisme sur le web était différent du journalisme « papier ». Certes, expliquait-il alors, l’emploi de la pyramide inversée se justifie par le fait que les internautes n’aiment pas scroller et qu’en conséquence, ils doivent trouver l’information importante en tête de l’article. Mais il remarquait que les articles étaient appelés à rester très longtemps en ligne sur les sites de presse, et que cela constituait une opportunité. Lors de la rédaction d’un nouvel article sur un sujet donné, il suffisait de faire des liens avec les anciens articles au lieu de rédiger un ou deux paragraphes rappelant le contexte et l’historique du sujet.

En effet expliquait-il alors:

Le Web est un medium de liens, et nous savons de part la théorie de l’hypertexte qu’écrire pour des espaces d’information liés [entre eux] se fait de manière différente que lorsqu’il s’agit d’écrire un flux linéaire de texte. Par conséquent, on pourrait s’attendre à ce que les auteurs sur le Web réduisent leurs articles en morceaux [pieces] plus petits et cohérents pour éviter les pages qui nécessitent de longs scrollings. Chaque page devrait être structurée comme une pyramide inversée, mais l’ensemble devrait plutôt apparaître non comme un article mais comme un ensemble de pyramides flottants dans le cyberespace. [lire ici, l'article de Jakob Nielsen de 1996]

Le schéma de Carole Rich

Dès 1998, Carole Rich, aujourd’hui  enseignante en journalisme à l’université d’Alaska Anchorage, proposait un schéma d’organisation hypertextuelle de l’information [cf. dans Sources et documentation les ouvrages de Carole Rich]. Il avait l’avantage de montrer les possibilités offertes par l’hypertexte et notamment la possibilité de répartir l’information sur trois niveaux: le premier étant réservé au cœur de la narration tandis que les éléments contextuels (informations contextuelles, sources, documentation…) étaient dissociés et installés sur deux niveaux inférieurs. Les « autres » médias —sons, vidéos, infographies— étaient également placés en périphérie.

Ce schéma est aujourd’hui dépassé. En effet, il correspondait aux conditions techniques de l’époque (faible bande passante notamment) qui interdisait de mixer les médias et s’il montrait l’importance de l’interactivité avec les internautes, il plaçait celle-ci à la périphérie. Il ne proposait par de réelle interaction entre l’internaute et l’information. Bref, il restait trop top to down.

(c) Carole Rich (trad Marc Mentré)

L’effet champagne de Mario Garcia

L’idée a été proposée dès 2002 par Mario Garcia, un célèbre graphiste qui a conçu plusieurs centaines de maquettes de journaux et de sites dans le monde [l'une de ses dernières réalisations est en France, la refonte de Paris Match en 2009]. Il décrit ainsi l’effet champagne dans son livre Pure Design [page 34]:

Les sites web ne sont pas des quotidiens, des magazines ou la télévision. En fait, ils ressemblent plus au livre qu’à n’importe autre medium. Nous achetons un livre parce que nous intéressons à un sujet particulier. L’approche des internautes se fait de la même manière. Un livre requiert une concentration totale tout comme un site. Plus important, dans les livres le texte et les photos sont couramment séparés; c’est aussi quelque chose qui devrait exister sur les sites.

En terme d’écriture, les livres captent notre attention par le récit. Les sites web devraient essayer de faire la même chose. Je crois que l’emploi de la technique d’écriture journalistique classique —la pyramide inversée— n’est pas la meilleure manière de présenter l’information sur les sites web. De fait, sachant que l’écran standard d’un ordinateur affiche 21 lignes de texte avant que l’internaute scroll, nous devrions abandonner la pyramide inversée pour une structure en forme de verre de champagne, où toutes les vingt et une lignes environ l’auteur ferait un effort pour que nous restions intéressé. Ceux qui aiment le champagne savent qu’à chaque fois que le verre est vide, c’est très agréable de le remplir de nouveau, et de regarder de nouvelles bulles monter vers la surface. »

Depuis 2002, les écrans se sont largement améliorés, mais l’idée de relancer l’intérêt du lecteur, dans un texte, à intervalles relativement rapprochés demeure intéressante. La construction d’un texte « champagne » est potentiellement plus riche que de se contenter de la sèche pyramide inversée.

Les modèles de Ramón Salaverria

Ramón Salaverria, professeur et chercheur en journalisme à l’université de Navarre (Espagne), a proposé plusieurs pistes de réflexion dans son Manual de Redacción Periodística (avec Jose Diaz Noci, Ariel Publication , Madrid, 2005), autour de cinq modèles —avec de nombreuses variantes— de narration: linéaire, parallèle, arborescente, réticulaire et mixte. L’interactivité est à la base de ses réflexions.

(c) Ramon Salaverria in Manual de Redaccion Periodistica

Chacune de ces « structures hypertexte » propose une navigabilité différente, explique João Canavilhas:

Dans le cas de la plus simple des structures linéaires, les blocs de texte sont liés [linked] par un ou plusieurs axes. Le niveau de navigabilité est réduit, le lecteur ne pouvant passer d’un axe à un autre. (…) Comme son nom l’indique une structure « réticulaire (en réseau) ne possède pas d’axe prédéfini. Il consiste plutôt en un réseau de textes navigables librement, ouvrant plusieurs possibilités de chemin de lecture ».

Le journalisme de troisième génération de Luciana Mielniczuk

Luciana Melniczuk, enseignante à l’université de Bahia (Brésil), distingue pour sa part [in Journalismo na Web] le hardcopy [les articles d'information brute] du softcopy [les informations élaborées, magazine]. Ce dernier serait par définition un format hypertexte qui ne se réduirait pas à  utiliser les liens pour organiser les différents éléments disponibles, mais bien destiné à organiser le récit des faits journalistiques. Pour elle, le journalisme doit emprunter à d’autres domaines comme l’art ou la sémiotique, pour réinventer de nouvelles formes de narration:

Peut-être nous dirigeons-nous vers une rupture. La ‘cellule d’information’ au lieu d’être ou un texte ou une image sera un texte hybride [mélangeant texte et image].
Et d’ajouter :
Nous soutenons l’idée que le journalisme web de troisième génération doit offrir suffisamment de ruptures pour que le journal web soit vraiment conçu comme un produit nouveau, qui rompt avec les normes anciennes et offre des possibilités inédites.

La pyramide couchée

La lecture d’un « hypertexte » peut conduire [et souvent conduit] le lecteur à se disperser, lorsqu’il suit les liens pour aller d’un contenu à un autre, et à abandonner la lecture.  Pour répondre à cette difficulté Robert Darnton avait proposé, dans un article publié par New York Review of Books qu’un contenu hypertexte soit construit autour de six niveaux d’information « disposés comme une pyramide » [décidément!]. Pour l’époque —nous sommes en 1999— sa proposition était très avancée.

1 - La couche supérieure pourrait être un sommaire succinct de l’objet [ou son argument, ou encore son sommaire].
2 - La deuxième couche contiendrait des développements de différents aspects de l’argument; ils ne seraient pas disposés de manière séquentielle comme dans un récit, mais plutôt comme des unités autonomes.
3 - La troisième couche serait consacré à la documentation.
4 - La quatrième couche serait théorique ou historiographique.
5 - La cinquième couche serait pédagogique.
6 - La sixième couche contiendrait des rapports de lecture, les échanges entre l’auteur et l’éditeur et des lettres de lecteurs, et les commentaires de différents groupes de lecteurs.

Mais comme l’explique João Canavilhas [la référence en lien dans Sources et documentation] , il s’agissait d’un construction théorique. Pouvait-elle fonctionner concrètement? Pour cela une expérimentation a été menée à l’université de Beira Interior (Brésil) avec 39 étudiants. Un article a été découpé en 4 niveaux selon le schéma suivant:

(c) João Canavilhas (trad Marc Mentré)

L’étude menée avec les étudiants portait sur deux points essentiels: était-il pertinent de proposer une construction de l’information selon ce type d’arborescence ? Quels chemins allaient-ils suivre pour parcourir l’histoire qui leur était proposé ?

À la première question, la réponse sera positive. Les étudiants se sont appropriés une histoire dont le découpage proposait en cascade des combinaisons de plus en plus complexes au fur et à mesure que le lecteur descendait dans les niveaux d’information. Au troisième niveau, par exemple, ils pouvaient suivre 55 chemins différents!

La deuxième réponse est peut-être plus intéressante:

  • 23% des lecteurs ont suivi la routine d’une lecture par niveau: ils ont cliqué sur le premier lien du texte de tête,  pour ensuite retourner [après lecture] sur le texte initial;
  • 77% ont suivi un cheminent personnel.

Pour João Canavilhas l’enseignement à tirer de cette expérimentation est limpide:

Ces comportements suggèrent que l’écriture de l’information sur le web nécessite un changement de paradigme complet par rapport aux techniques utilisées dans la presse imprimée. Alors que dans le print, le journaliste organise l’information [du plus important] vers ce qu’il considère comme étant le moins important, online ce sont les lecteurs qui définissent leurs propres chemins de lecture. La technique de la pyramide inversée, bien qu’appropriée pour les breakings news, devient moins efficace dès lors qu’il est s’agit de traiter des informations plus élaborées.

Il en tire la conséquence suivante: il faut sortir de l’information organisée selon un axe vertical, où la « tête » est plus large que la base. Pour cela il propose de « coucher la pyramide » et de faire en sorte que l’on parte d’une information pour s’enfoncer par strates successives dans une information de plus en plus détaillée, selon le schéma ci-dessous:

(cc) Marc Mentré

Il détaille ainsi le contenu des 4 niveaux:

1 – Unité de base (équivalent du « lead »). On y répond aux quatre questions de base (Qui? Quand? Quoi? Où?). Ce peut-être une breaking news développée par la suite;
2 – Niveau explicatif. On y répond aux questions Pourquoi? et Comment?
3 – Niveau de contextualisation. Il contient des informations plus détaillées sur chacune des questions précédentes [les 5 W + H] et celles-ci sont indifféremment en texte, en vidéo, en son ou en infographie animée.
4 – Niveau d’exploration. Les informations sont liées aux archives du site ou à des ressources externes.

The Black’s Wheel

Roger Black, célèbre graphiste américain, fut l’auteur en 1997 d’un ouvrage marquant à l’époque, Web Sites that Work. Son équipe, explique Maria Laura Martinez employait une technique de narration particulière:

les éléments narratifs étaient dans un format semblable à une roue, de manière à ce que chaque élément narratif soit indépendant des autres tout en étant inséré dans le contexte narratif et le complétant. Idéalement, l’utilisateur n’a pas besoin de passer par les autres éléments ni de traverser le centre de la roue pour comprendre le récit. Il doit être possible de commencer et de finir [son parcours de lecture] par n’importe quel élément sans qu’il soit nécessaire de passer par tous. Le wheel hub (l’axe ou le centre de la roue) peut être perçu comme le serait une couverture de magazine où se trouve le sommaire de l’histoire [story] et des appels pour chacun des récits.

Laura Martinez cite John Miller, qui écrivait dans Web sites that Work:

La narration traditionnelle est linéaire. La pyramide inversée est enseignée aux journalistes [papier] pour une raison: le lecteur veut comprendre l’histoire immédiatement et ensuite creuser —tourner la page— s’il veut en savoir plus. Mais les magazines utilisent de nombreux éléments pour attirer l’attention du lecteur, estimant (à juste raison) qu’un bon chapeau [lead] ne suffit pas. Un article magazine est parsemé de photos, de citations [accroches] et de lettrines, qui sont tous conçus pour capter l’attention du lecteur sur l’ensemble du sujet. Ce sont des éléments de spectacle regroupés autour de l’élément principal. Le travail de l’éditeur est alors l’équivalent de celui de l’ “aboyeur” et du Monsieur Loyal [d'un cirque], et un sujet bien édité doit attirer votre attention sur tous les éléments qui l’entourent tout en vous permettant de ne pas perdre de vue l’essentiel.

Ces principes théoriques ont été mis en application sous la forme de la Black’s Wheel, à l’université de Sao Paulo.

Formellement cela a pris la forme d’un diagramme [voir ci-dessous] dans lequel chacun des cercle représente un élément de narration. Le nombre d’éléments peut varier en fonction des informations disponibles, du nombre d’éléments narratifs et du niveau de détails que l’on souhaite atteindre. En fonction des besoins, cette structure peut être répliquée, comme montré ci-dessous.

(cc) Laura Martinez / Marc Mentré

Les liens hypertextes qui autorisent le récit non linéaire compliquent le schéma originel [voir ci-dessous]. En effet, explique Maria Laura Martinez :

cette structure de liens doit permettre à l’internaute de piloter sa propre expérience [de navigation] dans les contenus de manière satisfaisante et efficace; elle doit être conçue très soigneusement.

(cc) Laura Martinez / Marc Mentré

Les principes définit dans ces diagrammes ne servent qu’à guider le travail des étudiants. Il faut derrière que ceux-ci travaillent la navigation —réelle— entre ces différents éléments. Par exemple, le schéma d’interaction décrit dans le schéma ci-dessus n’est qu’une possibilité parmi des dizaines d’autres. Il faut aussi intégrer ce récit multimédia dans l’architecture [information architecture] propre du site, qui peut proposer des sevices et d’autres informations. Cela a conduit les responsables de l’université à proposer d’organiser le schéma d’élaboration d’un élément narratif non-linéaire autour de huit grandes lignes directrices:

1 – les besoins de l’internaute. Il s’agit de réfléchir à ses besoins, à la manière dont le sujet peut l’intéresser ou le concerner, comment il peut interagir, comment il peut se souvenir de l’histoire (ou d’éléments de l’histoire).
2 – les éléments d’identification. Il s’agit de définir chacun des éléments indépendants qui constitueront la roue. L’histoire doit être comprise sans qu’il soit nécessaire de passer par le centre ou par tout autre élément. Chaque élément peut être un point de départ ou d’arrivée pour l’internaute.
3 – l’interactivité. Un élément clé sur le web. Il s’agit d’examiner toutes les formes d’interaction possible.
4 – le multimédia. Ce sont tous les contenus multimédias (son, vidéo, infographie, etc.) qui peuvent ajouter de la valeur au sujet. Il est nécessaire de veiller à ce que ces contenus multimédias apporte réellement un plus !
5 – la personnalisation. La fragmentation est l’une des caractéristiques du web. Il faut donc personnaliser au maximum le contenu.
6 – la navigation. Il s’agit de créer une structure de liens hypertexte cohérente. C’est cette structure qui modèle la « roue », son centre ainsi que ses axes. Cette structure est construite en fonction de l’internaute.
7 – le taggage. Il faut penser à tagger chaque élément narratif.
8 – la documentation. Chaque élément de la « roue » doit être soigneusement documenté, afin de vérifier que le sujet sera le plus complet possible.

Là encore, il s’agit de principes, mais ceux-ci ont été mis en œuvre par les étudiants de l’université de Sao Paulo qui ont construit plusieurs histoires interactives et non-linéaires. Comme l’explique Maria Laura Martinez « cette technique en est encore au stade du développement. Mais elle a été éprouvée et les résultats obtenus prouve qu’elle est efficace »

Photo cc FlickR kozumel, ShironekoEuro[busy], Johan Larsson.


Sources et documentation

  • Creating Online Media, A Guide to Research, Writing and Design on the Internet, par Carole Rich, MacGrawHill, New York, 1998.
  • Web Sites that Work, par Roger Black et Sean Elder, Adobe Press, 1997
  • Writing and Reporting News, A Coaching Method, (6e édition) par Carole Rich, Wadsworth Series in Mass Communication and Journalism, New York, 2009
  • Une série de posts de Steen Steensen, professeur à l’Oslo University College (Norvège) sur son blog New journalism/New media qui reprend l’ensemble des études faites sur les transformations qui ont touché le journalisme sur le web (interactivité, multimédia, etc.)

Article initialement publié sur TheMediaTrend.

]]>
http://owni.fr/2010/10/27/ecrire-pour-le-web-cest-la-structure-imbecile/feed/ 38