Journalisme, quels métiers !

Le monde change décidément vite, très vite. Les médias d’information s’installent à peine dans la nouvelle ère numérique. Menée à marche forcée, la mutation de la presse sur le Web a conduit à plus de bouleversements en une dizaine d’années à peine que le secteur n’en a jamais connus au long des deux siècles passés. Avec pour conséquence, et non des moindres, la naissance d’une nouvelle écriture journalistique, adulée parfois au point d’être désignée « nouveau journalisme », à l’instar de la littérature donnant naissance au « nouveau roman ».

Les nouvelles frontières

Depuis que la presse écrite a innové sur Internet avec des sites dits compagnons, complémentaires de l’édition papier, sont nés les pure players, la cyberpresse constituée de sites d’information lancés avec le Web qui ont su capter leur public en renouvelant les recettes journalistiques, notamment grâce aux nouveaux outils numériques, ébranlant ainsi dangereusement les positions acquises par les titres de la presse traditionnelle, nationale et régionale. Les colonnes numériques des journaux se sont ensuite ouvertes à des contributions d’un genre nouveau, les blogs, cahiers de bord personnels tenus par des experts, des citoyens ou par les journalistes eux-mêmes. Cette pratique désormais courante a contribué à renouveler l’écriture journalistique par un traitement subjectif de l’actualité pour « faire sortir la rédaction de sa routine » et rajeunir ainsi le lectorat comme l’indique Jan-Eric Peters, rédacteur en chef du quotidien tabloïd allemand Welt Kompakt, du groupe Springer, qui a confié pour un jour, en 2010, la rédaction de son édition papier à une vingtaine de blogueurs. Certains blogs sont devenus des supports de presse à part entière, faisant pâlir d’envie les quotidiens traditionnels qui voient leur audience numérique largement dépassée par ces journaux au ton nouveau.

Le très influent Huffington Post

Lancé en 2005 par l’éditorialiste américaine Arianna Huffington, ce site d’information généraliste attire plus de 25 millions de visiteurs uniques par mois, une audience supérieure à celle des grands quotidiens américains tels que Washington Post (16,2) et Wall Street Journal (12,2), à l’exception du New York Times (33,2). Face à ses confrères de la presse papier, victimes de la crise publicitaire et contraints de réduire leurs effectifs, Huffington Post embauche et deviendrait rentable. Le blog, né de la publication des billets de quelques amis politiques, est devenu en peu de temps un site d’information majeur avec une rédaction composée d’une centaine de journalistes, plus de 10 000 blogueurs, 600 articles publiés par jour, quatre déclinaisons locales (New York, Los Angeles, Chicago et Denver) et une équipe de 25 modérateurs pour 3,5 millions de commentaires postés tous les mois, avec un financement reposant exclusivement sur la publicité de grands annonceurs. Son chiffre d’affaires, passé de 7 millions de dollars en 2008 à 30 millions en 2010, pourrait doubler en 2011, très loin, certes, derrière le milliard de dollars de revenus du New York Times et sa rédaction dotée de 1 100 journalistes, mais dont les recettes web sont de 150 millions de dollars. Avec son édition sur Twitter et ses applications pour terminaux mobiles qui devraient réaliser plus de 15 % de l’audience en 2011, le Huffington Post préfigure-t-il, du moins aux yeux de ses principaux concurrents de la presse traditionnelle, le modèle à suivre ? En 2010, Huffington Post a créé une fondation dont le but est de financer le journalisme d’investigation. En février 2011, le portail internet AOL s’est offert le « HuffPo » moyennant 315 millions de dollars.

Aujourd’hui, les journalistes communiquent presque autant qu’ils informent. Tous les sites d’information proposent des outils de partage, accolant à leurs articles le tag de Twitter ou le « J’aime » de Facebook. Ainsi, les lecteurs-internautes sont invités à contribuer eux-mêmes de plus en plus à la propagation des informations avec les commentaires, posts, tags, tweets… Comme ils ont su adopter la technique des 140 signes sur Twitter ou le post sur un mur Facebook afin d’assurer la notoriété de leurs reportages, les journalistes se transforment également en animateurs de communautés d’internautes (voir le n°12 de La revue européenne des médias, automne 2009) ou en modérateurs afin d’être au plus près des préoccupations des lecteurs. Les journalistes sont encouragés à utiliser ces techniques de communication afin de drainer de l’audience, et faire vivre ainsi la « marque » média pour laquelle ils travaillent. Les réseaux sociaux, plébiscités tant par les internautes que par les annonceurs, sont devenus des vecteurs importants, voire indispensables, poussant les titres à innover, à créer de nouvelles niches rédactionnelles et publicitaires. Il en est ainsi du très sérieux quotidien économique américain Wall Street Journal qui a signé un partenariat avec Foursquare, le réseau social basé sur la géolocalisation, afin de développer l’information locale. Pour les internautes qui s’informent à partir des réseaux sociaux, l’application Flipboard, lancée en juillet 2010 sur l’iPad, offre même la possibilité d’agréger automatiquement les articles ou photos recommandés par un lien http://bit… en les affichant selon une mise en page de magazine à feuilleter.

Facebook valorise l’information

– Selon une étude réalisée début 2010 par le Pew Research Center auprès de 2 259 Américains de 18 ans et plus, 75 % des consommateurs d’information en ligne déclarent obtenir des informations par courriel ou via les réseaux sociaux, et 52 % partagent des liens avec les autres par ces mêmes moyens. La moitié des consommateurs d’information comptent dans une certaine mesure sur leur entourage pour leur indiquer ce qu’ils doivent retenir de l’actualité.

– La chaîne d’information continue américaine CNN a financé en 2010 une étude, reposant sur une enquête en ligne auprès de 2 300 individus résidant dans 11 pays d’Europe, d’Asie et aux Etats-Unis et sur des techniques d’analyse sémiologique et neuro-marketing, portant sur le pouvoir de l’information et de la recommandation sur le Web intitulée POWNAR (Power of News And Recommandation). A visée publicitaire, l’étude n’en délivre pas moins des indications intéressantes sur la façon dont les informations circulent. Sur le site de CNN, plus de 10 % du trafic est généré par des liens partagés à l’initiative d’un petit nombre d’individus. L’étude indique qu’un utilisateur (défini comme celui qui partage au moins 6 contenus par semaine) partage 13 liens en moyenne par semaine, en reçoit 26 par l’intermédiaire des réseaux sociaux ou par courriel et en lit 14. Les contenus les plus échangés appartiennent aux rubriques « business », « international » et « technologie ». C’est sur les réseaux sociaux que circulent le plus d’informations partagées (43 %), suivis de la messagerie électronique (30 %), des SMS (15 %) et de la messagerie instantanée (12 %). Une minorité d’utilisateurs (27 %), particulièrement influente, est responsable de la quasi-totalité des informations partagées (87 %) vers les grands sites d’actualité.
– En France, l’impact de l’usage de Facebook sur les sites web d’information augmente rapidement. La part de trafic vers les sites d’actualité français générée par le réseau social a doublé en quelques mois, passant de 0,7 % en mars à 1,3 % en septembre 2010, selon une étude de l’institut AT Internet portant sur douze grands sites web d’information.

Un journalisme de flux et multimédia

Parmi les incontestables apports du Web à la presse traditionnelle, figure le rich media grâce auquel l’écrit est enrichi d’images, de sons, de vidéos et de graphiques. Les journalistes sont désormais « multisupports » et « multitâches ». Au service d’un groupe média, d’une « marque », ils se doivent de manier le micro, l’appareil photo ou la mini-caméra pour effectuer leur reportage avec la même dextérité que leur ordinateur ou leur stylo et cela afin d’alimenter le flux d’information qui nourrit en continu un quotidien, une radio, un site web ou une application pour smartphone ou tablette.

Le journalisme est un métier de moins en moins solitaire et de plus en plus polyvalent. Les frontières entre les différents services de l’entreprise de presse s’estompent et les journalistes de presse écrite pratiquent le son et l’image comme les journalistes audiovisuels sont conduits à rédiger des articles pour les sites web de leur station de radio ou de leur chaîne de télévision. Les journalistes, les développeurs et les commerciaux travaillent ensemble afin de trouver des sources de revenus complémentaires pour le journal, par la création de niches éditoriales sur des thèmes aussi variés que la politique, la finance, la mode ou les voyages. Ces nouvelles pratiques en vigueur dans la plupart des journaux anglo-saxons se généralisent peu à peu. Au sein des grands journaux, la salle de rédaction (newsroom), commune aux journalistes de l’édition papier et à ceux du site web, devient le lieu central de décision avec pour objectif de rationalisation de l’organisation de l’entreprise. Dès 2005, le New York Times fut le premier quotidien à avoir fusionné ses deux rédactions papier et web. Depuis son rachat en 2007 par le groupe News Corp. dirigé par Rupert Murdoch, le Wall Street Journal a totalement réorganisé sa rédaction et ses méthodes de travail autour d’un nouveau centre névralgique de l’entreprise, le hub, « the brain of the organization », composé d’une vingtaine de postes de travail cernés par une galerie d’écrans diffusant en permanence les flux d’information produits par l’entreprise ou les concurrents. Au sein du hub, se succèdent tout au long de la journée les différentes équipes du journal, celle du .com, celle du The News Hub, journal vidéo diffusé deux fois par jour sur le Web ou sur iPad et celle de l’édition papier. S’y déroulent également les conférences de rédaction réunissant les chefs de service, les équipes de l’édition électronique, les maquettistes, les infographistes et les iconographes. Le hub alimente ainsi quasiment en continu l’édition papier américaine, les éditions Asie et Europe, le site web et les multiples applications mobiles, dont la version iPad. Selon Robert Thomson, rédacteur en chef du Wall Street Journal, la règle d’or est « l’intégration », chaque journaliste doit contribuer à n’importe quelle activité de l’entreprise « selon ses disponibilités, ses capacités et ses appétences ».

En Europe, le britannique Daily Telegraph a franchi le pas en 2006 en rassemblant tous les services dans une ancienne salle de marché, suivi par le Guardian en 2008. En France, le quotidien Les Echos fut le premier à organiser une fusion de ses rédactions papier et web en 2009, en équipant l’ensemble de la rédaction d’un outil éditorial multimédia. Car dans le même temps, la vidéo est devenue le contenu indispensable des sites d’information. Depuis 2007, l’équipe web du Parisien est chargée de reportages vidéo quotidiens. En 2008, une émission politique quotidienne et en direct, Le Talk Orange Le Figaro, a été conçue exclusivement pour Internet et les mobiles. En 2010, le journal Libération a mis à la disposition de ses équipes de journalistes un studio d’enregistrement, le Libé Lab, afin d’alimenter son site web de productions « maison ». La rédaction du quotidien Le Télégramme, édité dans le Finistère, dispose d’ores et déjà de 30 mini-caméras haute définition et d’une centaine de téléphones portables équipés de caméra afin que les journalistes puissent enrichir leurs papiers de contenus multimédias.

Les grossistes en information se sont adaptés à ce surcroît de demandes d’images. Comme ses concurrents Reuters et Associated Press, l’AFP a développé son service vidéo, AFP Vidéo, avec plus de 80 points de production dans le monde qui fournissent environ 1 000 nouvelles vidéos chaque mois en sept langues. Les chaînes de télévision ne sont plus ses seules clientes, et les sites web des journaux imprimés sont de plus en plus consommateurs d’images. Le taux de croissance annuel moyen du service vidéo de l’AFP a été de 58 % entre 2006 et 2010. Présente sur les réseaux sociaux, l’AFP est notamment partenaire du Dailymorning, lettre d’information matinale envoyée dans la boîte aux lettres électronique des internautes par Dailymotion, constituée d’une sélection de vidéos d’actualité, de vidéos sportives, de clips musicaux ou de vidéos insolites.

Story-centric et temps réel

Les nouvelles pratiques au sein des rédactions ont-elles fait naître une nouvelle écriture journalistique ? Très certainement, si l’on envisage les évolutions de la profession sous l’angle de la temporalité et de la hiérarchisation des informations : priorité au story-centric et au temps réel. La journée de travail étant désormais rythmée par la mise à jour permanente des éditions numériques, au sein de certains journaux comme le britannique Daily Telegraph, les secrétaires de rédaction ont cédé la place aux « journalistes de production », chargés de la veille de l’actualité et de la répartition des contenus, dépêches d’agence et reportages maison, à partir de leur écran d’ordinateur vers les différents supports imprimés ou numériques. En avril 2010, les 250 journalistes salariés du groupe de presse suisse Ringier ont inauguré leur nouvelle salle de rédaction commune et son mur couvert d’écrans vidéo affichant en temps réel les performances en ligne du tabloïd maison Blick et celles des concurrents 20 Minutes et Bild, ces résultats influant sur les choix éditoriaux. Dans le groupe Ringier, l’ensemble des services sont appelés à travailler pour plusieurs supports à la fois, le Blick, l’édition payante du matin ; Blick am Abend, l’édition gratuite du soir ; Sonntags Blick, l’hebdomadaire ; le site web et l’application pour téléphone mobile.

Les nouveaux modes de consommation de l’information bousculent l’agenda avec des outils de diffusion et de partage qui défient le temps. Sont réservées aux supports payants les exclusivités, tandis que sur une tablette, l’édition papier ne connaît plus de version définitive. Si l’heure butoir du bouclage subsiste pour l’impression papier, la priorité est donnée aux « tuyaux » qui doivent être alimentés en permanence. C’en est fini de la pagination limitée. Le flux perpétuel des mises à jour remplace l’unique livraison en temps et en heure. Cette réactualisation en continu influe sur la hiérarchisation des événements. L’organisation de la rédaction est définie comme « story-centric », selon l’expression du rédacteur en chef du Washington Post, Raju Narisetti : la nature de l’information détermine son canal de diffusion, les scoops et les exclusivités sont servis en priorité aux abonnés payants du site web ou des applications mobiles. Le moteur du changement des conditions de travail et de l’environnement journalistiques réside dans cette nouvelle temporalité. Les technologies ont imposé le temps réel, c’est-à-dire la prise directe et continue d’une multitude de flux d’information. « Le temps réel est devenu l’étalon or, l’unité de mesure autour de laquelle tout ou presque s’organise » explique François Bourboulon, journaliste au Monde. Le fil de l’actualité se décline désormais par support, et la rédaction du journal s’organise autour des divers modes de consommation de l’information. Le temps est venu du « journal permanent », avec cinq éditions quotidiennes pour Les Echos sur iPad, par une mise à jour des rubriques dans la maquette numérique du journal, comme le permet également l’application Now du Wall Street Journal. La frénésie qui précède le bouclage de l’édition papier, certes, n’a pas encore disparu mais elle s’accompagne désormais des multiples éditions numériques quotidiennes, réminiscence de la fin des années 1950, époque où les quotidiens parisiens possédaient plusieurs éditions : France Soir en éditait alors six par jour. A l’ère du numérique, la consommation de l’information ne s’arrête jamais.

En révolutionnant les modes de diffusion de l’information grâce à une diversité de nouveaux supports en complément de l’édition papier, ordinateur, téléphone portable, tablette, le numérique a contraint sans préavis à une redéfinition du processus de fabrication de l’information. Si l’organisation des rédactions s’en est trouvée changée, la maîtrise des outils informatiques qui s’est imposée aux journalistes a modifié considérablement les conditions d’exercice de leur travail de collecte, d’expertise et de rédaction des nouvelles. Symbole des changements en cours, le mot « article » s’efface au profit de celui de « contenu » recouvrant plus largement l’écrit comme la production multimédia. De même peut-on encore appeler « journal », le produit d’une entreprise à l’activité protéiforme, insérant des émissions de radio et de télévision dans ses « pages ». Demain, la possibilité sera offerte aux journalistes de travailler entièrement en mobilité, selon Bertrand Pecquerie, de l’Association mondiale des journaux et des éditeurs de presse (WAN-IFRA), grâce à un bureau virtuel sur ordinateur ou téléphone portable à partir duquel il pourra éditer et distribuer ses reportages à distance.

Nouveau journalisme ?

Davantage encore : les journalistes de demain ajouteront d’autres cordes à leur arc. Deviendront-ils en l’occurrence infographistes, statisticiens et programmateurs ? Peut-être, si l’on se réfère à cette nouvelle désignation du métier apparue tout récemment : le data-journalisme ou journalisme de données. Ce nouvel exercice journalistique consiste à collecter d’importantes masses de données, à les traiter afin d’en extraire une analyse pertinente. Selon Caroline Goulard, cofondatrice du site Actuvisu.fr consacré à la visualisation de l’actualité et de la start-up de visualisations interactives de données, Dataveyes, « une image vaut mille mots ». Le data- journalisme proposerait une information plus objective aux lecteurs grâce à sa mise en forme visuelle, les graphiques, schémas ou cartes remplaçant les mots. Il permettrait un traitement plus précis, plus clair d’un sujet en facilitant sa compréhension.

Le journalisme de données se pratique déjà aux Etats-Unis et en Grande-Bretagne, peu en France, en phase peut-être avec la conception anglo-saxonne du métier séparant les faits des commentaires. Au printemps 2010, il a servi à la révélation du scandale des dépenses excessives des parlementaires britanniques par le quotidien Daily Telegraph, à partir de l’analyse de plus de 500 000 pages de documents. Plus récemment, The Guardian a dressé la carte du monde des 250 000 câbles diplomatiques américains livrés par WikiLeaks (voir supra) indiquant leur lieu et date d’émission et en les classant par mots clés. La rédaction du Washington Post a mis en ligne l’agenda du président Obama sous la forme d’une application interactive, POTUS (President Of The United States) Tracker, montrant l’importance respective de chacun des thèmes traités (économie, politique étrangère, défense, éducation, santé…) lors de ses différentes activités présidentielles (conférences de presse, déplacements à l’étranger, conversations téléphoniques officielles, rendez-vous protocolaires…).

Le journalisme de données peut servir l’investigation en s’appuyant notamment sur la participation des citoyens à l’enrichissement des données statistiques, le crowdsourcing (voir le n°8 de La revue européenne des médias, automne 2008). En 2009, le blog LePost.fr hébergé sur le site du quotidien Le Monde, a dressé la carte de France des villes équipées de systèmes de vidéosurveillance en faisant appel aux internautes. Il a ainsi pu observer une différence de 50 % avec les chiffres donnés par l’administration. Indéniablement, la représentation graphique de l’actualité peut se révéler très efficace : la carte de France de la crise sociale localisant la totalité des plans sociaux appliqués dans l’Hexagone depuis septembre 2008, mise à jour sur le site d’information Mediapart avec la participation des internautes, n’appelle aucun commentaire. Cette nouvelle forme d’écriture visuelle des événements nécessite le travail d’une équipe rassemblant des journalistes, des statisticiens, des développeurs et des infographistes pour exploiter des données brutes, les analyser et leur donner un sens. C’est là que réside la spécificité du journalisme de données qui va plus loin que la belle infographie à laquelle voudraient le comparer ses détracteurs.

Le journalisme de données sera certainement encouragé à l’avenir par le développement de l’OpenData (voir le n°16 de La revue européenne des médias, automne 2010), volonté des Etats consistant à mettre à la disposition des citoyens des bases de données publiques comme il en existe déjà aux Etats-Unis (data.gov) et en Grande-Bretagne (data.gov.uk). En France, certaines villes commencent à rendre accessibles leurs statistiques locales, notamment en matière de transports. Pionnière, la ville de Rennes a lancé data.rennes.metropole.fr en octobre 2010. De même, trois start-up, Araok, Nexedi et Talend, ont obtenu le soutien financier de l’Etat en 2010 pour créer Data Publica, un site open source sur lequel les collectivités locales, les centres de recherche et les organismes publics peuvent publier leurs données : des initiatives susceptibles d’intéresser les « journalistes de données ». Outre-Atlantique, les formations au journalisme ont déjà intégré cette évolution et forment des journalistes-développeurs. Le quotidien britannique The Guardian a, quant à lui, créé une bourse pour financer la formation de ses journalistes au développement d’applications informatiques. Alors que certains journalistes implorent leurs confrères « d’arrêter de romancer » et de privilégier davantage l’information brute, d’autres défendent l’excellence du récit et de l’analyse. Si, dans bien des cas, les chiffres parlent d’eux-mêmes, il n’est pourtant pas certain que la représentation visuelle de données statistiques garantisse une plus grande objectivité, une plus grande transparence. Mots ou chiffres, tout est affaire d’interprétation.

C’est la situation économique de la presse quotidienne qui a ouvert la voie à ce nouveau mode de financement de l’information grâce aux dons des lecteurs : le crowdfunding. La formule est originaire des Etats-Unis avec le lancement en 2008, du site Spot.us consacré à l’information locale et communautaire. Des sujets d’enquêtes ainsi que le budget nécessaire à leur réalisation sont soumis au choix des internautes qui, le cas échéant, apportent leur contribution. Des financements complémentaires émanent plus rarement de la vente de ces sujets aux journaux ou aux sites web. Une fois la somme rassemblée, l’enquête est menée et publiée sur le site. Le coût moyen de la centaine d’articles publiés à ce jour sur Spot.us est de 900 dollars. Certaines enquêtes ont coûté dix fois plus cher, comme celle des déchets flottants dans le Pacifique Nord, reprise par le New York Times en 2009. Pour se lancer Spot.us a bénéficié d’un don de la Knight Foundation de 340 000 dollars. En 2009, le site a totalisé 90 000 dollars de contributions ; seuls 15 % des sujets n’ont pas trouvé preneur. Toutefois aucun journaliste ne peut être rémunéré à temps plein. Aussi David Cohn, son fondateur, compte-t-il faire de plus en plus souvent appel au parrainage pour faire vivre sa société, à l’aide notamment d’entre- prises ouvrant un crédit sur Spot.us aux internautes qui acceptent de participer à des sondages. En France, le financement participatif a été adopté par deux sites lancés fin 2010. Développé par le site d’information en ligne Rue89, jaimelinfo est une plate-forme de contributions volontaires ouverte à tous les sites de presse ou blogs d’information en quête de financements. Le site, dont la gestion sera confiée à terme à une association, a bénéficié d’une subvention de l’Etat de 130 000 euros, les dons des internautes étant déductibles à hauteur de 66 %. Comme l’américain Spot.us, le site Glifpix, lancé par la société high tech Faber Novel, permet à des journalistes professionnels de proposer leur projet d’article et d’en fixer le prix de revient.

Autre mini-révolution : ce nouveau mode de financement direct subordonne le travail du journaliste à la curiosité des lecteurs. Le journaliste nouvelle génération devra, en amont de son travail d’enquête, apprendre à promouvoir son sujet, notamment par l’intermédiaire des réseaux sociaux. Responsable, non plus devant un rédacteur en chef, mais devant une multitude de donateurs-lecteurs, il doit convaincre de l’intérêt de ses projets avant de pouvoir les réaliser. L’idée de soumettre le travail des journalistes professionnels aux dons des internautes était encore inimaginable il y a quelques années. Mais ce micro-mécénat sera-t-il vraiment suffisant pour redonner un peu de souffle à la profession ? L’exceptionnel succès du site américain de journalisme d’investigation ProPublica démontre que, à l’instar de la recherche et de la culture, l’information a besoin de généreux donateurs. Le groupe Google, qui entretient des relations plus ou moins difficiles avec les éditeurs de presse qui l’accusent de ne pas partager les recettes publicitaires générées par leurs propres contenus, s’est engagé à soutenir l’innovation dans le journalisme en ligne. Il a offert 5 millions de dollars versés à des associations à but non lucratif en octobre 2010, dont 3 millions en faveur d’organismes établis hors des Etats-Unis. Comme l’avouait son ex-PDG Eric Schmidt, le groupe a « désespérément besoin que les journaux, magazines et sociétés de presse réussissent, car il nous faut leur contenu ».

ProPublica, parangon du mécénat d’information

Créé par les mécènes Herbert et Marion Sandler en 2008, ProPublica est spécialisé dans le journalisme d’investigation se déclarant non partisan et d’intérêt public, comme l’indique la manchette de son site web « Journalism in the public interest ». Révélant des scandales ou des injustices d’envergure, la petite rédaction qui comprend 32 personnes dont 19 reporters à plein temps de ProPublica se targue de faire ce que les médias classiques n’ont plus les moyens de réaliser. L’investigation étant laborieuse et coûteuse, les journalistes de ProPublica travaillent des mois, parfois plus d’un an, sur leur sujet et leur niveau de rémunération est comparable à celui des grands quotidiens américains. La rédaction mène 10 à 12 enquêtes par an, dont certaines nécessitent quelques centaines de milliers de dollars. Les résultats sont publiés sur le site en accès gratuit et proposés pour diffusion à d’autres médias choisis. Anciens banquiers, les fondateurs mécènes ont apporté 4 millions de dollars en 2008, 6 millions en 2009 et 9 millions en 2010 auxquels sont venues s’ajouter, la même année, les contributions des fondations Knight, MacArthur et Hewlett pour 3,5 millions de dollars. Présidé par Paul Steiger, ancien journaliste du Wall Street Journal et rédacteur en chef, le site d’information accumule les récompenses. Il a reçu, en 2010, l’une des plus prestigieuses d’entre elles, le prix Pulitzer, pour la révélation d’un scandale dans un hôpital de La Nouvelle-Orléans dévastée par l’ouragan Katrina.

Plumitifs numériques

Si un nouveau journalisme est né, il se cache dans les formes les plus automatisées de la collecte et de la diffusion d’informations sur Internet. Pour informer plus ou mieux en dépensant moins, les médias s’appuient sur les performances informatiques : l’hypertexte, les algorithmes et bientôt les robots sont devenus les instruments de travail d’un journalisme low cost (à bas coût).
Le modèle de l’agrégation de contenus est né avec Internet, assurant le succès d’audience des portails des fournisseurs d’accès comme celui des moteurs de recherche. Les médias traditionnels ont repris l’idée de la compilation d’éléments les plus divers afin d’offrir toujours plus d’informations à leur public. Une nouvelle manière d’informer s’est très vite répandue sur la Toile, le journalisme de liens. La pratique consiste à sélectionner des liens hypertextes vers des pages web affichant des informations jugées pertinentes sur un sujet donné. La technique est devenue rigoureusement indispensable pour enrichir ses propres productions transformant tout journaliste à son tour en agrégateur d’informations

Drudge Report

L’exemple le plus célèbre sur le Web du journalisme de liens est le site d’information réalisé par l’Américain Matt Drudge. Lancé en 1997, il séduit par sa simplicité près de 12 millions de visiteurs uniques chaque mois. Engagé politiquement, Drudge Report dresse des listes thématiques de liens et ne produit aucun contenu.

Les études d’audience étaient auparavant les instruments les plus fiables pour connaître les aspirations des lecteurs et pour convaincre les annonceurs. Sur Internet, la publicité se ferre grâce aux mots clés que les internautes inscrivent dans leur moteur de recherche. Des producteurs de contenus d’un genre nouveau sondent les requêtes des internautes afin de déterminer les sujets ou les thèmes les plus en vogue sur le Net et d’y associer des messages publicitaires. Ainsi, des milliers de contenus, articles, billets ou vidéos, sont produits « à la demande », c’est-à-dire en fonction de l’analyse mathématique de millions de mots clés faisant émerger les plus populaires d’entre eux. La démarche de ces référenceurs est purement marketing. Elle s’appuie sur la prédominance des moteurs de recherche par l’intermédiaire desquels transitent plus de 60 % des informations consultées par les internautes et répond avant tout à l’un de leurs principaux critères de pertinence, à savoir la quantité d’informations proposées par un site.

Nées aux Etats-Unis, ces nouvelles plates-formes de contenus à la demande, également appelées fermes de contenus, emploient des rédacteurs indépendants, parmi lesquels des journalistes professionnels, pour rédiger des articles faisant figurer, au moins dans le titre si ce n’est pas dans le corps du texte, un mot clé plébiscité. Leur mode de rémunération se fait à l’article et varie selon les sites. Généralement composé d’une partie fixe et d’un intéressement aux recettes publicitaires générées, la rémunération est parfois calculée exclusivement sur le nombre de clics effectués par les internautes sur les liens publicitaires. Les gains sont toutefois modestes, en moyenne de 5 à 15 euros par article. Ces fermes de contenus fournissent essentiellement des informations d’ordre général sous la forme de fiches ou d’articles conseils. La plupart des dirigeants de ces « usines à infos » se défendent de traiter l’actualité et revendiquent leur place sur le marché de l’information pratique : finance, voyage, cuisine, bricolage, médecine… En fin d’année 2010, les sujets dominants concernaient les fêtes de Noël, les cadeaux et la météo. En s’appuyant sur les données statistiques des sujets déjà largement traités sur le Net, les fermes de contenus cherchent davantage à attirer les annonceurs en quête d’une large audience qu’à renouveler le genre des informations proposées aux internautes.

Néanmoins, des sites d’information générale et politique pourraient être attirés par cette formule en privilégiant les sujets favoris des internautes afin d’augmenter leurs revenus publicitaires. Le blog Upshot consacré à l’actualité est le premier du genre. Lancé aux Etats-Unis par le portail Yahoo! en juillet 2010, le site emploie huit journalistes professionnels pour rédiger des articles sur des thèmes en partie déterminés par leur occurrence sur le Web. Il ne s’agit plus alors pour ce nouveau journalisme algorithmique de rechercher l’inédit, l’exclusif ou l’original, mais de privilégier les sujets qui font de l’audience pour drainer davantage de publicité ciblée. Cette pratique, si elle se répandait, ne serait pas sans risque au regard de la crédibilité des médias d’information générale et politique.

La production de contenus à la demande est une activité en pleine croissance. Même si le modèle n’est pas encore rentable, le phénomène est en train de prendre de l’importance sur Internet, et pas seulement pour les consommateurs américains. Les fermes de contenus nouent des partenariats avec des grands médias. Aux Etats-Unis, Demand Media fournit des articles pour la rubrique Voyage du site web de USA Today, quotidien le plus diffusé dans le pays, avec près de 2 millions d’exemplaires. En France, la plate-forme Wikio Experts compte se développer en diffusant notamment sa production de contenus à la demande sur les nombreux sites web appartenant à TFI, son actionnaire majoritaire (40 %), comme tf1.fr, excessif.com consacré au cinéma, automoto.fr et plurielles.fr, un portail destiné aux femmes. En Allemagne, le groupe de presse Burda a racheté en 2006 les parts des fondateurs de la fabrique canadienne de contenus à la demande Suite 101.

Fermes de contenus

– Pionnière sur le marché américain, la société Associated Content née en 2005, a été rachetée en mai 2010 par le portail Internet Yahoo! pour 100 millions de dollars. Elle compte 380 000 contributeurs et 50 000 contenus produits chaque mois, soit plus de 2 millions d’articles mis en ligne depuis sa création. Avec une audience de 16 millions de visiteurs uniques, la société a réalisé un chiffre d’affaires de 4 millions de dollars en 2009. Associated Content devrait enrichir les différents services Yahoo! Sports, Yahoo! Finance, Yahoo! Entertainment, ainsi que le service de questions réponses Yahoo! Answers. La formule sera déclinée prochainement en Europe.
– Fondée en 2006 et leader du secteur, la société californienne Demand Media atteint une audience mondiale de 94 millions de visiteurs uniques. Elle fournit grâce à ses 13 000 collaborateurs près de 50 000 articles par mois. Près de 2 millions d’articles ont déjà été mis en ligne, ainsi que 200 000 vidéos, Demand Media étant le premier contributeur sur YouTube. Avec 200 millions de dollars de chiffre d’affaires en 2009, la plus importante des fermes de contenus prépare son introduction en Bourse avec une valorisation supérieure à un milliard de dollars.
– Seed, la plate-forme de contenus à la demande lancée par le portail AOL en 2010 compte sur la participation de plus de 5 000 rédacteurs.
– La société canadienne Suite101 a ouvert depuis deux ans des bureaux en Europe afin de lancer une version allemande de son site en 2008 et deux autres, l’une espagnole et l’autre française en 2009. Elle emploie 1 500 auteurs, revendique 30 millions de visiteurs par mois et a publié 400 000 articles originaux en 2010.
– Lancé en 2004 en Italie, Populis (anciennement GoAdv) édite quelque 500 sites en Europe (Excite, Better Deals…) auxquels participent plus de 1 000 rédacteurs. Grâce à sa base de données gérant 16 millions de mots clés, près de 20 000 contenus sont produits chaque mois en six langues (français, anglais, allemand, espagnol, italien et néerlandais), et l’objectif est d’en fournir 100 000 d’ici à deux ans. Son chiffre d’affaires pour l’année 2009 était de 55 millions de dollars pour une audience de près de 20 millions de visiteurs uniques.
-En décembre 2010, le français Wikio (le portail participatif Wikio.fr, la première plate-forme française de blogs OverBlog et la régie publicitaire Ebuzzing) fédérant 27 millions de visiteurs uniques par mois en Europe, a créé Wikio Experts. Les contributions sollicitées auprès de 1,5 million de blogueurs et auprès de spécialistes portent sur 160 domaines d’informations pratiques. A terme, le site de contenus à la demande sera décliné en Italie, en Allemagne, en Espagne et au Royaume-Uni, afin de devenir leader sur le marché européen.
– De nombreuses plates-formes spécialisées ont également été lancées comme SB Nation pour le sport, Examiner.com pour l’information locale.

Signé The Machine, un scénario de science-fiction pas si loin de la réalité. Les ordinateurs écriront-ils un jour à la place des journalistes ? Le laboratoire d’information intelligente Infolab de l’université du Northwestern (Evanston, Illinois) abrite Stats Monkey, programme informatique qui génère automatiquement des articles ou des journaux télé- visés. Inventé par deux professeurs spécialistes de l’intelligence artificielle, Larry Birnbaum et Kris Hammond, et mis au point par John Templon, diplômé de journalisme, et Nick Allen, informaticien, Stats Monkey a donné naissance au robot-journalisme. Comme sur les grandes chaînes de montage industrielles où les robots ont peu à peu remplacé les ouvriers, les journalistes pourraient un jour déléguer les tâches les plus répétitives de leur métier aux machines. Il ne faut pas plus de deux secondes à Stats Monkey pour rédiger le compte rendu d’un match de base-ball sans fautes d’orthographe ou de grammaire après téléchargement des informations utiles, statistiques et commentaires sportifs disponibles sur les sites web des ligues sportives ainsi que du vocabulaire approprié d’une base de données comportant les expressions typiques de la presse spécialisée. Le programme est même capable d’illustrer son article de photos et d’en proposer différentes versions tenant compte du point de vue de chacune des équipes. Grâce à l’enrichissement de la base de données linguistiques par l’apport de nombreux articles écrits par des journalistes, Stats Monkey saura même, dans un avenir proche, emprunter le style d’écriture de tel ou tel journaliste sportif de renom.

Le programme dépassera bientôt le monde de l’information sportive. Seront concernées d’autres rubriques journalistiques, habituellement construites grâce à un volume important de statistiques et un vocabulaire par nature répétitif, comme la Bourse et
la finance, à l’image de ce que font déjà les ordinateurs de l’agence Bloomberg, afin de rendre compte de l’évolution des indices boursiers. Infolab envisage déjà de vendre son système aux journaux locaux et aux sites web n’ayant pas les moyens de couvrir eux-mêmes la totalité des compétitions sportives.

Et Infolab développe de nombreux projets. Le système News at Seven fabrique automatiquement un court journal télévisé en allant rechercher des articles sur des sites d’information dont il convertit ensuite le résumé en un fichier audio qui sera lu à l’écran par deux personnages en dessin animé. Pour sa rubrique « nouveau film », News at Seven est capable de distinguer les bonnes critiques des mauvaises. Enrichir un article sur un sujet donné à partir d’informations pertinentes piochées dans d’autres productions journalistiques, après les avoir insérées au bon endroit dans le texte, sans que le lecteur puisse se rendre compte d’une quelconque rupture de style, est une autre réalisation d’Infolab baptisée Tell Me More.

Journalistes et informaticiens collaborent lors d’échanges de points de vue entre le quotidien local Chicago Tribune et Infolab afin de concevoir ensemble l’avenir du journalisme. Co-inventeur de Stats Monkey, Larry Birnbaum en est convaincu : « Nous sommes en train de créer un paysage médiatique que nous ne comprenons pas encore, mais nous savons déjà que l’organisation économique des médias devra s’y adapter. Le défi sera d’intégrer les valeurs classiques du journalisme dans ces nouveaux outils. » En 2009, Infolab et l’école de journalisme Medill de la même université ont créé le Centre d’innovation en technologie, médias et journalisme afin que collaborent journalistes et informaticiens de demain.

En novembre 2010, la fiction est devenue réalité avec le lancement de StatSheet Network, réseau de sites web couvrant de façon totalement automatisée l’actualité de 345 équipes de basketball américaines. A partir de 500 millions de statistiques, 10 000 données significatives et 4 000 phrases clés, cette plate-forme technologique génère des articles en temps réel, selon vingt modèles différents, comportant des informations et des analyses sur chaque équipe, chaque joueur, chaque match de basketball, ce qu’aucun média traditionnel n’est en mesure de faire. L’unique implication humaine est la création de l’algorithme du système, comme l’explique son fondateur Robbie Allen qui ambitionne d’ouvrir StatSheet à d’autres sports.

Après les blogueurs, les agrégateurs, les référenceurs, les journaux ouvriront-ils un jour leurs colonnes aux ordinateurs ? La promesse de mariage entre l’informatique et la sémantique permettra-t-il aux machines, demain, de trouver sans fautes les cinq clés de la profession Qui ? Quoi ? Où ? Quand ? Comment ? sur n’importe quel sujet. L’avenir est prometteur.

Le journalisme n’existe pas sans Internet

Face au déclin du nombre de titres de presse d’information traditionnelle et à la baisse continue du lectorat, le numérique offre des perspectives inédites. Les approches nouvelles qu’emprunte désormais la profession, résumées dans l’expression générique « nouveau journalisme », enrichissent considérablement la narration des événements. Néanmoins, les compétences numériques des journalistes ne se substituent pas au professionnalisme requis par la presse traditionnelle pour exercer ce métier. Les outils numériques sont au service du journaliste et non l’inverse. Ils ne peuvent échapper aux professionnels de l’information, au profit des entreprises d’Internet et des publicitaires.

Placés en état de dépendance aiguë, sans jamais avoir eu le temps de s’y préparer, vis-à-vis des géants d’Internet comme le moteur de recherche Google ou l’iPad d’Apple, les éditeurs de presse ont été rattrapés par les nouvelles technologies et les subissent plus qu’ils n’en tirent aujourd’hui profit. L’information se plie aux supports numériques dans la douleur.

Barder de mots clés ou de liens hypertextes les titres, les chapôs, les premiers paragraphes d’un article et les images afin d’optimiser leur référencement par les moteurs de recherche répond aux exigences de l’économie de la recherche sur Internet. En quête d’audience, donc de trafic sur Internet, les entre- prises de presse comme les blogs mènent leur stratégie d’optimisation pour les moteurs de recherche, SEO pour Search Engine Optimization. Le recours généralisé aux kickers, mots clés qui précèdent le titre d’un article sur une page web, peut se révéler néfaste en transformant la première page de résultats des moteurs de recherche en une liste de phrases identiques, comme l’explique Murray Dick, conférencier sur le journalisme multiplateforme à l’université britannique de Brunel.

L’information de qualité coûte cher et la qualité ne constitue pas forcément le premier critère de pertinence de la recherche sur Internet. « Aussi attirante que soit l’optimisation des recherches, les journalistes doivent veiller à ne jamais négliger le lecteur pour satisfaire les robots », résume Adam Westbrook sur le site owni.fr. Comme l’expliquait l’éditeur David Plotz au Nieman Lab de l’université d’Harvard à propos du web magazine Slate : « Notre boulot n’est pas nécessairement de faire de Slate un magazine avec 100 millions de lecteurs… C’est d’être sûr d’avoir 2 millions ou 5 millions ou 8 millions de « bons  » lecteurs – les plus intelligents, les plus engagés, les plus influents, les plus habitués aux médias. C’est plus attractif pour les annonceurs ».

Alors l’information de qualité sera-t-elle livrée en priorité à une élite d’abonnés payants, réservant les exclusivités aux applications pour terminaux mobiles et les articles de fond aux sites web spécialisés, tandis qu’une information low cost sera diffusée gratuitement au plus grand nombre selon la logique des algorithmes censés refléter les attentes de la population en matière d’information ? Pour le journaliste Bruno Crozat, pigiste pour des médias traditionnels mais aussi pour un référenceur, « on tend vers deux modèles : un journalisme  » premium  » avec des enquêtes et de l’info, qui va demeurer sur divers supports, et un journalisme pas cher, de grande consommation, obéissant à la logique du référencement ». En inventant une écriture nouvelle de l’information, en favorisant la diffusion des connaissances des spécialistes comme celles des amateurs, Internet n’a rien changé, du moins sur un point : un journaliste web ou iPad est un journaliste comme les autres.

Sources :

  • « La carte de la crise sociale », Mathieu Magnaudeix, mediapart.fr, 14 novembre 2008.
  • « L’ère des robots-journalistes », Yves Eudes, Le Monde, 10 mars 2010.
  • « Datajournalism : le Washington Post « piste » Barak Obama », Alain Joannes, 26 mars 2010, journalistiques.fr.
  • « Understanding the participatory news consumer », Project for Excellence in Journalism, Pew Research Center, pewinternet.org, March 1, 2010.
  • « Le Huffington Post fête ses 5 ans », Henry Blodget, owni.fr, 20 mai 2010.
  • « Internet pigistes en batterie », Emmanuel Paquette, L’Express, 16 juin 2010.
  • « Le quotidien allemand Welt Kompakt a confié sa rédaction à des blogueurs », Nathalie Versieux, Libération, 1er juillet 2010.
  • « Journaliste de données : data as storytelling », Hubert Guillaud, internetactu.net, 9 juillet 2010.
  • « Quand les internautes dictent l’actualité », Cécile Ducourtieux et Xavier Ternisien, Le Monde, 14 juillet 2010.
  • « Les sites d’information américains se mettent à la personnalisation de contenus », Marie-Catherine Beuth, Le Figaro, 19 juillet 2010.
  • « Les « fermes de contenus » : des articles low-cost pour attirer la publicité en ligne », Michaël Calais, La Tribune, 3 août 2010.
  • « Les « fermes de contenus » cherchent encore leur modèle », Nicolas Rauline, Les Echos, 12 août 2010.
  • « Dans la « news room  » du « Wall Street Journal » », François Bourboulon, Les Echos, 16 août 2010.
  • « Cinq éditions par jour sur iPad », Frédérique Roussel, Libération, 9 septembre 2010.
  • « Les « fermes de contenus » ou le nouveau journalisme à la chaîne », Béatrice Catanese, lesinrocks.com, 13 septembre 2010.
  • « AFP : cap sur la vidéo », Rémi Jacob et Serge Siritzky, Ecran total, n°818, 15 septembre 2010.
  • « Les journalistes écrivent-ils pour Google ? », Adam Westbrook, owni.fr, 16 septembre 2010.
  • « Facebook génère de plus en plus de trafic vers les sites d’actualité, selon l’institut AT Internet », La Correspondance de la Presse, 24 septembre 2010.
  • « Google donne 5 millions de dollars pour l’innovation dans le journalisme en ligne », AFP, tv5.org, 26 octobre 2010.
  • « Avec l’ »open data », Rennes livre ses secrets à l’internaute-citoyen », Antoine Mairé, telerama.fr, 14 octobre 2010.
  • « Le journalisme financé par des dons sur le Net débarque en France avec Jaimelinfo et Glifpix », Anne Feitz, Les Echos, 22-23 octobre 2010.
  • « Data-journalisme : l’information sous un nouvel angle », Julie Reynié, mediavenir.fr, 29 octobre 2010.
  • « Arianna Huffington, diva des médias », Annick Cojean, Le Monde Magazine, 30 octobre 2010.
  • « Le Huffington Post confiant dans la pérennité de son modèle », Nicolas Rauline, Les Echos, 12-13 novembre 2010.
  • « Le « journalisme artificiel » est en ligne », Marc Mentré, themediatrend.com, 13 novembre 2010.
  • « L’impact des réseaux sociaux sur l’info », O.Z., supplément Télévisions, Le Monde, 14-15 novembre 2010.
  • « ProPublica, un site d’investigation financé par la philanthropie », Anne Feitz, Les Echos, 16 novembre 2010.
  • « Internet : des articles à clés pour ferrer le public et la pub », AFP, tv5.org, 25 novembre 2010.
  • « « Shared news matters more », say results from CNN’s first international study into Social Media recommendation, cnninternational.presslift.com, November 17, 2010.
  • « Les coulisses du journalisme de données », Pablo RenéWorms, Tech&Net, lepoint.fr, 1er décembre 2010.
  • « Le groupe Wikio lance « Wikio Experts », une plate-forme d’achat de contenus éditoriaux », La Correspondance de la Presse, 7 décembre 2010.
  • « Les « fermes de contenus » à la demande se lancent à la conquête du marché français », Nicolas Rauline, Les Echos, 21 décembre 2010.
  • « Pourquoi les journaux veulent-ils réinventer les salles de rédaction », Contre-enquête Médias, Xavier Ternisien, Le Monde, 31 décembre 2010.

1 COMMENTAIRE

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici