Archives mensuelles : Mai 2008

L’équation du jour

Alain Weill

+

Murdoch

=

Tom Glocer.

(voir aussi nous)

(merci à Iannis et Sam)

Vidéo de la semaine : les « Backflips » de Levi’s

3.5 millions de vues sur Youtube : la vidéo « Guys backflip into jeans » est un des gros buzz du mois de mai (7ème au classement Viral Video Chart sur les 30 derniers jours).

Surprise hier, je découvre en lisant Narvic (si Narvic se met à parler de buzz, où s’arrêtera-t-il ?) que des blogueurs auraient révélé que cette vidéo était l’oeuvre d’une marque.

Quelques clics plus tard, confirmation. La marque en question est Levi Strauss et a confirmé : « nous voulions que les gens le découvrent d’eux-mêmes« . Le temps de réaction a même été très bref : la vidéo a été postée le 7 mai, la confirmation a été publiée le 9.

Une vidéo virale faite par une marque… sans la marque ? Il y aurait de quoi discuter des heures, mais on ne peut que souligner que beaucoup de marques n’auraient pas osé faire ce que Levi’s a fait et auraient signé le film, pour se le « réattribuer ».

Levi’s est-il idiot ou génial ? A quoi cela sert-il d’être vu 3.5 millions de fois si on ne sait pas que c’est Levi’s ?

D’abord il y a la présence du produit, le jean’s, mis en scène et omniprésent. Personnellement je ne m’étais pas posé la question de la marque et ça ne m’a pas donné envie de mettre des jean’s trop grands et pas davantage de sauter dedans, mais le produit est là et bien là, ominprésent sans être lourdement valorisé.

Ensuite il y a l’effet « reveal » : « oui c’était nous, c’était Levi’s ». D’une certaine manière il s’agit d’une stratégie RP : faire parler de ce reveal, créer un 2ème buzz attribué à Levis. Pourtant, ce 2ème buzz n’a certainement pas le potentiel de la vidéo « backflip » elle-même et n’a aucune chance de toucher viralement autant d’internautes..

Levi’s aurait-il gagné à apposer sa marque dans le film ? Et bien je n’en suis pas sûr, car une autre question se pose : et si la présence explicite de la marque était un frein à la viralité de la vidéo ?

Le choix de Levi’s semble montrer que leur réponse est « oui ». Les vidéos amateur cartonnent plus facilement que les vidéos de marque. La même vidéo sans la marque tourne plus qu’avec la marque. Et voilà encore un problème pour les stratégies de marketing viral, dont Levi’s prend acte.

Finalement, que vaut-il mieux pour Levi’s ? Une vidéo signée qui tourne un peu, voire pas mal ? Ou une vidéo non signée, qui montre le produit, cartonne, et fait parler les internautes une fois que l’on sait que Levi’s en est l’auteur ?

Pour moi la réponse est assez claire.

Sarkozy et les connards de journalistes ou l’avénement de l’OTM (Off Techniquement Modifié)

Ici, comme sur d’autres blogs – à tel point que c’est devenu une tarte à la crème 2.0 – on aime parler de la « fin du off« .

Jusqu’au web 2.0, le off se dégustait à l’apéritif dans un entrefilet, ce confidentiel écrit petit mais chuchoté tout haut et permettait à un journal folklorique satirique comme le Canard Enchaîné de vivre. Et puis le web 2.0 est arrivé, on a vu George Allen traiter un militant adverse de macaque, Ségolène Royal à propos des profs, Alain Duhamel déclarer sa préférence pour Bayrou, Rachida Dati sur… pas mal de choses, Nicolas Sarkozy demander aux pauvres cons de se casser, etc.

Mais le off a connu une nouvelle mutation cette semaine (enfin, n’étant pas omniscient sur la toile, il y a sûrement des précédents me direz-vous).

Vous avez peut-être suivi la controverse (vite réglée) entre la rubrique Téléphone rouge du Nouvel Observateur et le blog Coulisses de Bruxelles de Jean Quatremer, journaliste à Libération : à lire chez Qautremer, épisode 1 et épisode 2.

En gros, Le Nouvel Obs publie dans sa rubrique un off qui rend compte d’une réunion entre Sarko et les journalistes où le président aurait lâché un nom d’oiseau à l’égard de la profession (« connards »). Problème, parmi les journalistes présents un d’eux, Jean Quatremer donc, tient un blog. Il a donc la possibilité technique de réagir rapidement et personnellement.

Le journaliste de Libération publie alors un long billet détaillé qui brise le off de circonstance pour prouver que l’information du Nouvel Hoax Obs était mensongère. L’administration de la preuve est fouillée : verbatims, photos de la réunion et fines description de la journée. Tout ce qui doit faire la différence entre un bruit de couloir et une information.

Bref : on voit à travers cet exemple que le off sécrète son propre anticorps… et devient le « Off Techniquement Modifié » (OTM).

Et là réside la morale de l’histoire. Techniquement modifié, le off change de statut.

Je m’explique : relayé dans la presse papier, il relève de de l’irréfutable : pour des raisons professionnelles (solidarité pro., filtre de la rédaction par exemple), techniques (attendre la prochaine parution, etc.), le off est difficilement réfutable et rarement réfuté dans l’espace public. Le off à la papa emprunte plus à la rumeur qu’au journalisme. Dans ces rubriques, on peut dire tout et son contraire, la vérité est toute relative. Pour pousser la caricature, ces rubriques sont des sortes de no man’s land de l’information. Vrai ou faux, on ne discute pas de la véracité du propos. C’est un espace entre parenthèses.

Le off techniquement modifié a lui au moins le mérite de permettre la confrontation des témoignages et le recoupement des informations décrédibilisant ainsi la mauvaise herbe du ragot.

Voilà une raison pour laquelle, même pour les journalistes, Internet a aujourd’hui du bon…

Les technophiles font mal au web

Je rebondis sur le billet de Samuel – Authueil « L’arrogance du geek » avec cette interrogation : et si les technophiles (pour définir une population peut-être plus large que les geeks) faisaient mal au web ?

« Les geeks seraient-ils les seuls à comprendre le web ? J’en doute ! », écrit Samuel. Les geeks étant majoritairement tournés vers les outils, ils perdent souvent de vue l’essentiel : les usages (qui, comme le fait remarquer Narvic, ne sont pas toujours ceux pour lesquels les outils sont conçus. Quand on veut faire chic on appelle ça la sérendipité).

Donc il y a une première chose : les technophiles n’ont pas le monopole de la réflexion sur Internet.

Mais cela ne va-t-il pas plus loin ? En tenant un discours sur les outils et la technique, les geeks ne contribuent-ils pas à donner une image biaisée d’Internet et du web 2.0 en particulier, et à tenir à l’écart les technophobes ?

Pour moi le propre du web 2.0 est justement de permettre au non-technicien de s’exprimer sur la toile. Bloguer, c’est -techniquement – aussi facile que d’envoyer des mails. Poster une vidéo, un commentaire, c’est très accessible. Modifier Wikipedia, c’est fait en deux clics. Mon père a 65 ans et passe ses journées à bloguer en tapant avec deux doigts (coucou papa, oui je vais appeler maman dimanche et j’enverrai même une Dromacarte 😉 ). Personnellement, je ne suis absolument pas technophile au sens où je ne me suis jamais intéressé à la technique et aux gadgets, et pourtant je passe une bonne partie de mes journées à réfléchir à des questions qui touchent au web.

C’est justement parce que la question technique est très largement abolie que le web me passionne. Mais, j’en fais souvent l’expérience, parce que je suis « le mec d’Internet », on a souvent tendance à me confondre avec « le mec de l’informatique ». Ceux qui font cette confusion se rendent très vite compte de leur erreur 😉

Et pourquoi est-ce qu’il arrive qu’on me prenne pour un technicien ? Parce que l’image du web reste, aux yeux de beaucoup, une image de truc technique, compliqué, un truc de spécialistes. « Il faut s’y connaître ».

Il est certain que pour comprendre et expliquer ce qui se passe sur le web, et il se passe des choses tous les jours, il faut baigner dedans. Allez expliquer en 5 mn à un novice total que sur Internet, par exemple, on ne connaît pas les audiences, enfin si, enfin ça dépend, enfin il y a Médiamétrie ou OJD mais c’est partiel, ou Alexa ou Statbrain mais c’est pas fiable, ou des données d’abonnement, mais que l’abonnement n’est qu’une part du trafic car il y a le search, les clics et les accès directs, mais qu’on peut effectuer des comparaisons d’influence, enfin on ne sait pas très bien si c’est l’influence ou autre chose, mais il y a le PageRank, l’autorité Technorati ou le classement Wikio, et c’est basé sur les liens entrants, mais c’est quoi les liens entrants, et pourquoi les liens entrants, etc. : vous passez pour un gros geek aux yeux du technophobe.

Tout l’enjeu est de faire comprendre que le web 2.0 n’est pas qu’un truc de spécialistes, et que ce n’est pas parce que certains peuvent écrire ou dire des trucs comme « j’ai ajouté le Doodle à ma page Friendfeed que je monitore via Twitter » (grand 😉 à un de mes lecteurs, blogueur et confrère très appécié qui se reconnaîtra), que le web est inaccessible.

Il y a une double responsabilité dans ce problème :

– Les technophobes, et ils sont nombreux, trouvent dans le discours geek / technophile / expert une bonne excuse de dire « ce n’est pas pour moi ». Et voilà le syndrome Alain Duhamel étendu aux non-journalistes.

– Les technophiles, avec un discours inaccessible au commun des mortels, contribuent à une image biaisée du web 2.0 et à tenir à l’écart une part de la population en leur fournissant des alibis

Mais l’expertise et la pédagogie du web ne peuvent pas, ne doivent pas, être le fait des seuls technophiles. Il faut des « médiateurs » (au sens premier) qui ont un pied dans chaque univers pour réconcilier les deux, qui vont récupérer le discours des technophiles pour le traduire et poser la question des usages. et de l’impact : « tout ça c’est très bien mais ça sert à quoi et ça change quoi ? ». C’est ce que nous nous efforçons de faire sur Internet et Opinion(s), à notre modeste échelle (à ce propos, je signale aux lecteurs qui m’envoient de mails inquiets qu’Emmanuel Bruant n’est pas mort, il prépare un mois de juin très actif sur le blog). Donc si vous voyez que nous glissons vers la technophilie inintelligible, soyez vigilants, dites-le-nous 😉

L’expérience, la pratique et la compréhension du web 2.0, c’est une question de curiosité avant d’être une question d’expertise.

PS / edit : j’ai oublié de préciser que cette réflexion technophilie / technophobie est aussi issue de notre entretien avec Alain Joannès.

Les sujets sur lesquels je n’ai pas le temps d’écrire

[enfin, on ne devrait jamais dire « je n’ai pas le temps », mais « j’ai d’autres priorités »]

L’Encyclopédie collaborative de Larousse. L’avenir est-il aux formats hybrides, où des experts encadrent de l’UGC ? Là où Rue89 a mis du journalisme dans le blog, Larousse met de l’expertise dans le wiki. Une initiative qui ne souhaite pas concurrencer Wikipédia… Non, d’autant plus qu’elle ne risque pas de le faire, vu l’énorme erreur choix de SEO relevé(e) par Palpitt.

Des journalistes qui se fâchent contre des blogueurs (ici et ). C’est la forme (pétage de plombs) qui retient l’attention (un email, ça se copie-colle et ça se publie…), mais sur le fond… il faut dire qu’il y a parfois de quoi s’énerver.

Narvic, toujours aussi prolifique, apporte la preuve que l’on peut réconcilier quantité et qualité, et rend compte de l’agora du Syntec RP sur « la dilution des propagateurs« . Où il a beaucoup été question de l’avenir des médias (l’occasion pour moi de vous renvoyer sur notre contribution au sujet au cas où vous l’auriez manquée). Ce qui m’a le plus marqué dans cette conférence (intéressante mais sans scoop pour ceux qui suivent le sujet de près) : la franchise de Valérie Decamp, DG de La Tribune, qui dit tout haut ce que beaucoup pensent moyennement fort : « a-t-on besoin de 400 journalistes pour faire un journal comme Le Monde ? ». Et Eric Scherer de l’AFP, qui dit : « seuls les médias de niche peuvent vivre ». (Eric Scherer dont il faut lire l’article sur la révolution permanente dans l’économie de l’attention).

L’Express n’arrête plus de prendre des initiatives d’ouverture : le blog de la nouvelle formule (après d’autres épisodes que vous avez peut-être suivi). Challenges de son côté organise un concours de blogs qui manque de choix (on a un peu de mal à croire que « Depuis plusieurs semaines, avec l’aide de notre partenaire Wikio, un jury composé de membres de la rédaction de Challenges et de plusieurs personnalités extérieures sillonnent l’Internet à la recherche des meilleures créations » pour en arriver à cette sélection). Au moins Challenges joue-t-il le jeu puisqu’il y a dans la sélection un blog de… L’Express.

Enfin découvrez Après La Télé, le blog presque tout frais d’Aurélien Viers, qui remplit me semble-t-il un vide : l’analyse (francophone) des questions de vidéo en ligne.

« L’audience relative » des blogs et des médias en ligne : une expérience statistique

Une réflexion sur les notions d’audience et d’influence, totalement expérimentale, que je vous livre.

La notion d’audience dans la presse écrite est relative : quand on dit que le journal Le Monde, par exemple, a une diffusion de 360 000 exemplaires, ou une audience de 2 millions, cela ne signifie pas que 360 000 personnes, ou 2 millions, lisent tous les articles tous les jours.

Les lecteurs font leur shopping, et le principe est que plus il y a de choses à lire, plus il y a de chances pour que la quantité d’information que l’on consomme par rapport à la quantité d’information proposée soit faible.

On peut donc imaginer un indice « d’audience relative » : un indicateur d’audience (diffusion, audience) ramené à la quantité éditoriale produite. Si le Monde produit 100 articles par édition, on a une audience de 2 millions pour 100 articles, soit un indice d’audience relative de de 20 000.

En soi, cela ne veut évidemment pas dire que chaque article du Monde est lu 20 000 fois, mais cela peut permettre d’effectuer des comparaisons entre des médias qui produisent beaucoup et des médias qui produisent peu.

Et ne serait-ce pas un indice, finalement, d’influence ? Ou un indice « d’écoute » ou « d’attention » du lectorat ? (car l’influence, c’est aussi se faire écouter…)

L’influence n’est pas l’audience, mais l’audience est un élément d’influence. On peut écrire peu, mais avoir un public relativement nombreux, fidèle, intéressé, à l’écoute : on sera plutôt influent. On peut écrire de façon stakhanoviste et générer une audience globale importante, mais chaque article sera lu peu de fois, et on sera plutôt pas très influent…

(NDR : ceux qui me connaissent savent à quel point je suis méfiant avec la notion d’influence. Voir ici par exemple. Je privilégie l’analyse qualitative de l’influence, mais sa quantification m’intéresse.)

Si on applique ce raisonnement au web, on peut effectuer des comparaisons entre blogs et sites médias en ligne. Les blogs n’ont en général pas des audiences comparables à celles des sites médias, mais ils écrivent beaucoup moins. Il serait donc très intéressant de pouvoir comparer l’audience relative des blogs et l’audience relative des médias en ligne…

Comment faire ? A partir de là, il faut faire des hypothèses et des choix :

– il faut d’abord récupérer des données d’audience pour les sites et les blogs. On sait que ça n’existe pas. Mais nous faut-il des données d’audience complètes ? Non car après tout, les données d’audience vont être ramenées par rapport à une quantité de production éditoriale et donc ne voudront rien dire en valeur absolue. Le tout est de pouvoir comparer des données, même partielles, pour tous les sites et blogs étudiés.

– C’est exactement ce que Google Reader fournit. En utilisant la fonction « ajouter un abonnement » dans Google Reader, apparaît le nombre d’abonnés au flux RSS en question. Il ne s’agit que des abonnés aux flux via Google Reader, cela ne donne donc qu’une idée très partielle de l’audience d’un site : il manque les abonnés Netvibes ou Bloglines, le trafic direct, le trafic via les moteurs de recherche, le trafic entrant via des clics sur des liens naturels ou publicitaires, etc. Mais encore une fois, on s’en fiche, puisqu’il s’agit juste de comparer des sites entre eux.

– Il manque alors un moyen d’estimer la quantité éditoriale produite par un site. Et là, magie de Google Reader, la même recherche sur « ajouter un abonnement » fait également apparaître le nombre de « publications par semaine ». Sur quelle durée ? Mystère, mais au moins dispose-t-on d’un chiffre.

Ainsi, Internet et Opinion (par exemple), a 36 abonnés Google Reader et publierait en moyenne 4.2 fois par semaine.

A partir de là, on peut s’amuser : comparer le nombre d’abonnés Google Reader entre blogs, entre médias, entre médias et blogs, voir quels médias et quels blogs postent le plus et le moins, etc.

Par exemple, quand on regarde les chiffres à partir des blogs du top 100 du classement Wikio, on voit que le n°16, Biologeek, n’a que 36 abonnés Google Reader. Juste au-dessus, le n°15, Standblog, en a… 2777. Par contre, le même Biologeek n’écrit que 1,6 fois par semaine, ce qui relativise son faible nombre d’abonnés. Le blog de Jean-Marc Morandini compte 841 abonnés… mais publie 183,4 fois par semaine, ce qui relativise son audience. Fred Cavazza, lui, publie 7.5 fois par semaine. Le Monde.fr compte plus de 500 000 abonnés RSS mais publie… 700 fois par semaine. Le blog qui a le plus grand nombre d’abonnés est TechCrunch (21 000), ce qui est autant que Rue89 ; etc.

Pour info, top 10 des blogs par nombre d’abonnés :

1 Techcrunch 21 430
2 KozToujours 18 040
3 Diner’s room 17 844
4 Presse Citron 3 629
5 Journal du geek 2 932
6 Standblog 2 777
7 Zorgloob 2 290
8 Fubiz 2 251
9 Fred Cavazza 1 659
10 Accessoweb2.0 1 489

Top 10 des médias en ligne (étudiés) par nombre d’abonnés au fil de une (seulement le fil de une, sinon je n’ai jamais le temps de faire cet article 😉 ) :

1 L’Equipe 733 194
2 Le Monde 536 681
3 Nouvelobs 141 689
4 Libération 128 491
5 01 Net 97 317
6 Les Inrocks 90 717
7 Clubic 88 070
8 Pcinpact 70 937
9 LCI 38 588
10 Rue89 21 136

Les 10 blogs (étudiés) qui publient le plus (billets par semaine) :

1 Gizmodo 209,1
2 Morandini 183,4
3 Beta politique 107,3
4 Chauffeur de buzz 84
5 TV News 82,4
6 Le blog auto 80,3
7 Journal du geek 74,4
8 The inquirer 58,6
9 Pingoo 55,3
10 GuiM 52,5

Les 10 médias (étudiés) qui publient le plus (par semaine) :

1 Le Figaro 861,2
2 Le Monde 716,6
3 L’Equipe 573,8
4 LCI 561,4
5 LePost 540,6
6 L’Express 513,1
7 Le Parisien 466,7
8 Métro 461,8
9 20 minutes 440,3
10 Nouvelobs 340,7

Bref, à partir de là je me suis amusé (tout à fait, cela m’amuse énormément) à relever le nombre d’abonnés et la fréquence de publication pour :

– les blogs du top 100 de Wikio

– une bonne trentaine de médias en ligne (les plus hauts dans les classements Nielsen et Médiamétrie ; les plus cités par la blogosphère ; les sites média de quelques « grands médias » traditionnels, des pure players emblématiques, etc.)

Un magnifique fichier excel, une formule de calcul, et hop, on a, pour environ 130 blogs et médias en ligne, un « indice d’audience relative ». Qui ne signifie rien en soi mais permet des comparaisons, donc de faire un classement.

Les médias en ligne dominent-ils les blogs ? Voilà ce que ça donne (désolé pour la mise en page, c’est un copié-collé du fichier excel), avec les médias professionnels en gras :

1 KozToujours 3537,3
2 Diner’s room 2317,4
3 01 Net 2306,1
4 Les Inrocks 1727,9
5 L’Equipe 1277,8
6 Le Monde 748,9
7 Clubic 727,3

8 Techcrunch 695,8
9 Pcinpact 562,1
10 Standblog 514,3
11 Nouvelobs 415,9
12 Rue89 408,0
13 Libération 403,7
14 Fubiz 331,0
15 Zorgloob 289,9
16 Doctissimo 283,5
17 Transnets 249,8
18 Révolution web 2.0 en live ! 236,9
19 Fred Cavazza 221,2
20 Technologies du langage 163,3
21 Netvibes.com blog 155,0
22 Agoravox 139,4
23 Presse Citron 122,6
24 Le blog d’abondance 105,5
25 L’internaute 93,5
26 Arrêt sur images 93,2

27 2803 by Henri Labarre 87,2
28 Journal d’un avocat 84,9
29 Emob 81,7
30 Fran6art 74,5
31 Jean-Michel Billaut 69,4
32 LCI 68,7
33 Blogeee.net 65,5
34 Bienbienbien 63,9
35 Intruders TV 63,1
36 Les Echos 58,5
37 Beau à la louche 55,4
38 La République des Livres 49,1
39 Accessoweb2.0 49,1
40 Le journal du net 44,9
41 Trends Now 43,4
42 Papygeek 42,9
43 Futura Sciences 39,5
44 Journal du geek 39,4
45 Jacques Froissant 38,2
46 Iphon 38,0
47 Mashable 37,6
48 WordPress Francophone 36,7
49 Bakchich 35,9
50 Génération NT 35,8
51 Kelblog 34,6
52 Jarodxxx 33,3
53 Mais pourquoi est-ce que je vous raconte ça 33,0
54 Coulisses de Bruxelles 32,2
55 Bleebot blog 31,7
56 Versac 30,1
57 Vinvin entertainment 29,6
58 Le monde du blog 28,5
59 Gonzague Dambricourt 28,3
60 Kick and blog 26,9
61 Embruns 26,9
62 Tapahont 26,5
63 Neteco 25,9
64 Marianne2 25,5
65 3 couleurs 25,0
66 Affordance 23,2
67 Biologeek 22,5
68 Plume de presse 22,4
69 Le Figaro 22,2
70 L’Express 21,8
71 France Football 21,2
72 Contre Journal 20,7
73 Ecrans 20,0
74 L’observatoire des médias 18,6
75 MrBoo.fr 17,6
76 ZDNet 16,3
77 La vie des idées 16,0
78 Veille2com 15,6
79 Cuisine plurielle 15,4
80 Webilus 14,8
81 Actualités de la Recherche en Histoire Visuelle 14,7
82 Adscriptor 14,7
83 Et si c’était bon 14,7
84 Benoît Descary 12,8
85 La Tribune 12,3
86 De source sûre 11,5
87 Loïc Le Meur 11,2
88 Bagatelles 10,8
89 Wikio blog 10,4
90 Papilles et pupilles 10,1
91 Le tiers livre 10,1
92 Le blog auto 9,9
93 Chauffeur de buzz 9,8
94 NTIC 8,7
95 Nowhere else 2.0 8,6
96 Ma vie en Narcisse 8,4
97 Eryn et sa folle cuisine 8,1
98 Choses vues 7,9
99 Chez Clarabel 7,7
100 Crise dans les médias 7,7
101 Ligne et papilles 7,5
102 Contre info 7,4
103 GuiM 7,1
104 Korben 6,3
105 20 minutes 5,1
106 Morandini 4,6
107 Le Point 4,5
108 L’Expansion 4,3
109 Intox2007 4,2
110 Psychologies 4,2
111 Le Parisien 3,5
112 Bozarblog 3,3
113 Pingoo 3,1
114 France2 3,1
115 TV News 2,3
116 Gizmodo 2,0
117 The inquirer 1,9
118 Le vinZ de blog 1,8
119 Partageons mon avis 1,7
120 Beta politique 1,4
121 Marc Vasseur 1,4
122 Peuples.net 1,2
123 Bizet’s blog 1,1
124 Caledosphere 1,0
125 Sarkofrance 1,0
126 Homo Sapiens Internetus 0,7
127 iSubway 0,7
128 MesOpinions.com 0,6
129 LePost 0,6
130 Métro 0,4
131 Investir 0,1
132 Challenges 0,1

Des résultats très très étonnants à mon sens :

– dans le classement très mélangé entre blogs et médias en ligne. Beaucoup de médias en ligne sont assez haut dans le classement ce qui est finalement rassurant pour eux… mais beaucoup sont aussi très, très bas dans le classement…

– dans les chiffres qui montrent des disparités énormes. Pour prendre des concurrents directs, le Figaro a 22 quand le Monde a 748…

– Classement assez moyen de beaucoup de blogueurs « historiques »…

Que faut-il en penser ? Mon ami Koz, 88ème du classement Wikio, est-il en réalité le site le plus influent du web français ? Ne nous emballons pas, il y a de nombreux et sérieux problèmes :

– Fiabilité des données Google Reader ? Il y a forcément un problème, justement, avec Koz : Google Reader indique 18 000 abonnés. Pourquoi pas. mais le Feedburner de Koz mesure 18600 abonnés au total. Or il est rigoureusement impossible qu’il n’y ait pas au moins 3 abonnés Netvibes pour un abonné Google Reader, étant donné l’utilisation faite de ces deux services en France. Google Reader ne peut pas réaliser 97% des abonnements de Koz. Il peut y avoir le même problème pour le deuxième du classement, Diner’s Room.

– Le nombre d’abonnés est biaisé pour les sites proposés par défaut par Google Reader, comme, je crois… TechCrunch

– Quand il y a plusieurs flux pour un même site, faut-il additionner les abonnés à chaque flux, y compris quand le flux est un flux Feedburner ? C’est ce que j’ai fait pour les blogs. Pour les médias en ligne, je me suis arrêté au flux principal, celui des dernières infos, qui est en général le plus important.

– Sur-représentation des sites dans les thématiques High-tech et Internet, dont les lecteurs sont plus facilement utilisateurs de flux RSS

– Enfin un classement thématique serait plus juste : on mélange des torchons et des serviettes. Il faudrait faire le même exercice pour sites et blogs high-tech ; sites et blogs actu générale ; etc.

Quelle est votre analyse ? Voyez-vous des moyens d’améliorer cette méthodologie ?

De mon côté, je ne prends rien de tout ça au pied de la lettre, mais les résultats me semblent intéressants. Je ne sais pas si les explications méthodologiques sont très claires mais la pédagogie de l’évaluation et des chiffres est difficile. Il me semble que la signification d’un indicateur d’audience relative est à chercher du côté de l’influence. Même si l’influence, quand on veut la quantifier, est aussi une affaire :

– d’audience absolue (si, quand même)

– de reconnaissance (le lien entrant étant le signe de reconnaissance sur le web, d’où les méthodes basées sur cette notion : PageRank, Autorité, classement Wikio…)

Sans compter ce qu’on ne peut pas quantifier (l’influence dépend des circonstances, du hasard, des sujets abordés, etc.)

Là où je suis assez sûr de moi, c’est qu’il y a une piste à creuser dans l’analyse de l’audience relative pour mesurer les rapports de force entre médias et blogs.

Tiens, une communication intelligente sur Facebook (mais pas très efficace pour autant)

Edit du 20 mai : l’analyse de l’évolution des données semble montrer que le nombre d’utilisateurs indiqué par l’application est calculé de façon assez restrictive, ce qui peut vouloir dire que l’appli a mieux marché que ce que je laissais entendre. Si c’est le cas j’en suis désolé et suis preneur des éclaircissements des concepteurs de l’appli !

Je n’ai pas souvent eu l’occasion de voir sur Facebook des initiatives intelligentes de marques. Un mot donc sur l’application qu’Eurosport a développé pour les fans de foot : « Liste des 23 pour l’euro« .

D’autant plus qu’il y a un truc très bizarre avec cette application.

Le principe, d’abord. C’est simple comme bonjour mais redoutablement efficace : l’application invite le facebooker à se mettre dans la peau de Raymond Domenech et à choisir les 23 qui iront à l’Euro. Poste par poste, on choisit les joueurs parmi une sélection assez large. Une fois qu’on a terminé, on peut inviter ses « friends » fans de foot ; on est ensuite informé du choix des 23 de ses friends. Et on peut même regarder la sélection moyenne des Facebookers, qui a un peu valeur de sondage à grande échelle (dont Raymond Domenech se fichera comme de sa première paire de chaussettes, faisons-lui confiance).

Dans la fenêtre de l’application s’affichent les flux d’info foot et de vidéos d’Eurosport.fr, permettant de cliquer… et de générer du trafic pour le site.

C’est archi-simple, mais dans cette application il y a tous les principes de bonne communication du web 2.0 et de Facebook en particulier :

– une logique communautaire (les fans de foot)

– une proposition qui entre en résonance avec les préoccupations et les conversations de son public (la liste des 23)

– une marque qui rend son public actif (choisir ses 23)

– un principe qui s’appuie sur la viralité très facile sur Facebook (inviter ses amis) et alimente la conversation (possibilité de commenter la sélection des autres)

– une mécanique qui donne envie de revenir plusieurs fois sur l’application (voir les sélections des amis, voir la sélection moyenne des internautes)

– une génération de trafic pour le site de la marque avec de l’écrit et de l’image (les news et vidéos)

Donc, une application d’autant plus géniale qu’elle est archi-simple.

Et pourtant… il y a un truc qui cloche.

L’application compte 4261 « daily active users » : pas terrible non ?

Il y a 1.7 millions de comptes Facebook en France. Même si beaucoup ont été ouverts dans un effet de mode ou de panurgisme, les chiffres de Facebook progressent assez rapidement (1 million en décembre, 1.7 million aujourd’hui, soit plus ou moins 140 000 nouveaux membres par mois).

Il doit donc quand même y avoir plusieurs centaines de milliers de français actifs sur Facebook en ce mois de mai 2008. Et vu le nombre de fans de foot dans la population française, vu le potentiel de cette application, je suis surpris qu’elle ne compte pas au moins 4 ou 5 fois plus de membres.

Je ne sais pas l’expliquer davantage. On en revient à un autre principe du web communautaire : la viralité est souvent mystérieuse.

En revanche et même si le nombre de téléchargements paraît peu élevé, il faut signaler que ce type de dispositif est peu coûteux : tout le monde aurait pu créer cette application. Les équipementiers, les sponsors de l’euro, les autres médias diffusant la compétition… tout le monde. Mais celui qui l’a fait, c’est Eurosport.

Le web comme terrain d’études : brand tags

« Le web 2.0, c’est du market research à l’état pur, et à un coût très réduit. Pourquoi s’en passer ? », disait le célèbre Mathieu Vaidis dans sa cultissime vidéo.

Le pire, c’est qu’il a raison. Dans nos métiers, plutôt que de ‘market research’ on parlera d’études de perceptions, mais l’idée est la même : le web est un formidable terrain d’étude de ce que les gens pensent (et chez Internet et Opinion(s) on a une faiblesse pour Summize).

Dernier joujou pour les études de perceptions : Brand Tags.

Brand tags présente sous forme de nuage de mots les qualificatifs spontanés qui passent par la tête des internautes quand on leur cite le nom d’une marque. C’est un peu comme de lancer une question sur la percption des marques sur Yahoo! Questions et de restituer les réponses sous forme de nuage de mots.

Il est très marrant de constater que le nuage d’Harley Davidson avait cette tête à jusqu’à hier, et faisait beaucoup rire sur le web en raison de la taille de « over-compensating »… :

… et que le mot gênant en question a considérablement diminué de taille en 24 heures :

Des « ambassadeurs » auraient-ils « noyauté » brand tags pour rétablir sa réputation, ou est-ce l’effet naturel de la popularité du service qui a été beaucoup linké sur des blogs très récemment ? 😉

Bref, amusant et limité mais toujours instructif car révélateur des représentations les plus spontanées – donc les plus ancrées. J’aime beaucoup la baseline du site :

« L’idée de ce site est qu’une marque existe entièrement dans la tête des gens. Donc, quoiqu’ils en disent, c’est ce qu’elle est. »

A quand la version française ?

(via BienBienBien).

L’avenir des médias en ligne en 6 questions

On parle beaucoup de l’avenir de la presse écrite, mais une autre question mérite d’être posée : celle de l’avenir des médias en ligne.

Je ne parle pas ici du web communautaire mais des médias professionnels : ces rédactions qui emploient et (sous)paient les journalistes et ont besoin d’un modèle économique pour vivre, donc pour publier.

De nombreuses, et passionnantes, lectures récentes dans les communautés web dédiées au journalisme apportent des éléments éclairants. Ou noircissants, c’est selon.

Voici 6 questions, ou enjeux, qui s’efforcent de synthétiser la situation à partir de ces différentes sources.

1. Comment un site média peut-il gagner de l’argent ? Un modèle économique est-il seulement possible ?

Malgré la croissance des audiences d’Internet, la question nécessite d’être posée. Voir à ce sujet le billet de Cédric Motte de Chouingmedia qui mérite vraiment lecture et qui vient rappeler à quel point la situation est difficile dans les rédactions en ligne.

« Les sites bénéficiaires sur leur activité éditoriale sont extrêmement rares« , écrit Cédric Motte. Un constat qui est aussi celui des intervenants de la dernière conférence organisée par le SNJ intitulée « Le web, sauveur ou fossoyeur du journalisme ? » (un très bon résumé chez Ceucidit).

Quelques exemples appuient ce propos :

– « A ma connaissance un site comme Rue89 a rentré les meilleures mois 30 000 euros de publicité et c’est très largement moins que ce qu’il faut. Il y a des mois il ne fait que 1000 euros« , dixit Gérard Desportes de Mediapart cité chez Ceucidit.

– Chez Backchich : un tout récent appel à la générosité des lecteurs

– La situation de rédactions online bénéficiaires est à relativiser : Lemonde.fr, annoncé comme bénéficiaire, republie des articles de l’édition originale dont le coût de production est supporté par les médias papier. Même si l’édition online paie un prix pour ce contenu, ce prix ne serait pas « le juste prix » (dixit Narvic dans les commentaires de Chouingmedia).

En d’autres termes, Lemonde.fr serait « subventionné » par la version papier. Ce qui pose la question suivante : si le média en ligne est bénéficiaire (techniquement, il gagne de l’argent), que coûte-t-il à la version offline ?

Car les audiences se déplaçant vers Internet, il y a forcément un manque à gagner pour la version papier. Et on a beau jeu de dire que la version web est un produit d’appel pour la version papier, qui peut dire qu’Internet rapporte des lecteurs à la version papier plus qu’il n’en coûte ?

Et maintenant que tout média qui se respecte dispose de son site web d’information, ne peut-on pas se demander si il était seulement dans l’intérêt des médias de basculer sur le web ? La question peut paraître sotte puisque les audiences se déplacent de toute façon sur le web qui est le média d’avenir, mais ne peut-on pas se demander si la migration vers le web n’accélère pas le déclin des médias traditionnels… alors que les business models du web ne sont pas définis ?

* Le problème du prix de la publicité

Le problème du modèle économique est, selon Cédric Motte, le prix de la pub :

« il est impossible de vivre d’un site d’informations de qualité. La faute à qui ? Pas du tout à une audience qui ne serait pas là : les sites d’infos sont parmi les plus visités. Non, la faute, encore et toujours, au prix de la pub. » (…)

« Pour qui a connu les régies pub des gros portails de l’époque, ils allaient parfois jusque -80% pour du CPM. Forcément, quand Yahoo annonce un CPM ridicule, qu’AOL embraye et que MSN ne dit pas non, à une époque où ils concentraient toute l’attention, cela a perverti les annonceurs… Du coup on se retrouve avec des CPM autour des 5-10 euros. »

(CPM = coût pour mille contacts)

* L’abonnement : une solution marginale ?

Si la pub ne permet pas de vivre, comment gagner de l’argent ? Le web d’information payant est encore loin d’avoir fait ses preuves. De ce point de vue les expériences encore récentes d’@rrêt sur images et Mediapart seront pleines d’enseignements. (Personnellement je ne suis pas convaincu de leur viabilité économique).

Là où il semble y avoir un pouvoir d’achat pour de l’information en ligne, comme le relève Cédric Motte toujours lui, c’est chez les cadres, dans les entreprises, là où l’information a une valeur économique et financière (ce sont les entreprises qui paient les abonnements). Ce qui positionne de façon favorable les marques média très installées et très CSP+ ou « leaders d’opinion ».

L’abonnement ne serait-il qu’une solution que pour une minorité d’acteurs avec un profil précis ?

* Les autres façons de gagner de l’argent

Rue89 (par exemple) vend des services éditoriaux. Les sites leaders sur leur catégorie sont aussi des sites de services : Aufeminin.com, Boursorama, Allocine… ne sont pas des sites exclusivement de contenu. Cédric Motte :

Quels sont les sites qui gagnent de l’argent ? Ceux qui ont transformé leur modèle médias initial (je suis un site média sur les femmes pour aufeminin, je suis un moteur de recherche pour google, je suis un réseau social pour myspace) en modèle de services BtoB.

Si il faut vendre du conseil éditorial ou du conseil marketing pour vivre (ce que fait Yahoo par exemple), cela pose de nombreuses questions. Déontologiques (conflits d’intérêt, indépendance de la presse), mais aussi par rapport au marché du conseil : les sites médias seront-ils les nouveaux concurrents des agences de com demain ?

Enfin sur cette question des modèles économiques, la lecture du prochain bouquin de Chris Anderson, « Free », peut être éclairante. Anderson ne parle pas de l’industrie des médias en particulier mais écrivait qu’il y a des dizaines de modèles économiques :

« le « freemium » (une version gratuite grand public, une version payante, et très chère, pour un petit nombre de professionnels) ; le modèle publicitaire (que Google est en train de transformer considérablement) ; les « cross-subsidies » ; le « zero marginal cost » ; le « labor exchange » ou encore le modèle du « gift » (cadeau) etc. »

(Lire le papier d’Anderson qui annonce son bouquin et cette analyse de Frédéric Martel).

2. Que peut-on attendre de la publicité et des annonceurs ?

A partir du moment où on fait le constat que les situations économiques des rédactions sont particulièrement compliquées et que le principal problème est dans les revenus de la publicité, la question qui se pose est de savoir comment ces revenus publicitaires peuvent évoluer.

Je ne sais pas si le prix des CPM peut augmenter. L’hypothèse que je fais est que s’ils sont bas c’est aussi parce que le web rend très largement traçable le comportement de l’internaute vis-à-vis de la pub. Et l’internaute étant actif (il évite la publicité, je prends souvent cet exemple d’eye-tracking) et publiphobe, il est difficile de créer des formats publicitaires en ligne qui ne soient pas malvenus. L’affiliation étant certainement le meilleur format.

En clair : les CPM sont bas parce que le web permet de montrer que l’efficacité de la publicité en ligne est relative. Non que la publicité offline soit forcément plus efficace, mais elle était / est sans doute partiellement protégée par la difficulté de tracer son efficacité.

Par contre et sans jouer les Madame Irma Geneviève la Voyante, on peut distinguer 3 tendances qui s’affrontent quant à l’évolution de la pub.

* La concurrence des autres sites

Il est bien entendu que la publicité en ligne va progresser, mais vers quels types de sites ? Le raisonnement de l’annonceur sur l’audience peut avoir des effets très dangereux pour les sites d’information : celui d’attirer l’audience sur d’autres sites que des sites d’information : les moteurs de recherche, les agrégateurs, les sites de services, les réseaux sociaux, les sites de partage, etc. Comme le disait Trevor Edwards de Nike,

« We’re not in the business of keeping the media companies alive, we’re in the business of connecting with consumers. »

Autrement dit, et c’est normal, l’annonceur se fiche bien se savoir quels types de médias il fait vivre et même s’il en fait vivre. Voilà un point de pessimisme.

* La progression de l’audience

Pour Cédric Motte, « le web n’ira pas plus loin en termes de pénétration du marché« . Je ne suis pas sûr de suivre : aujourd’hui, 58% de la population de + de 11 ans est internaute. La fracture numérique se réduit, mais reste une réalité. Les taux de connections progressent de 10 à 12% par an. Bien sûr on ne connectera pas la totalité des 40% restants et Cédric me le fait remarquer dans les commentaires de son billet, mais je suis sûr que l’audience peut encore progresser. D’ailleurs elle progresse, comme le montre XiTi. Ajoutons-y le développement attendu du marketing mobile… Un point d’optimisme, donc.

* L’évolution vers d’autres indicateurs de mesure de l’efficacité publicitaire

On parle de plus en plus des notions de contact ou d’attention, en plus de la mesure d’audience. Effectivement le temps passé sur un site devrait être une notion clé, quand on connaît les durées des visites on a très vite tendance à relativiser son audience…

Or les sites médias font partie des sites qui sont le plus susceptibles de retenir l’attention de l’internaute. Je n’ai pas d’étude sous la main, mais il me semblerait naturel que les internautes passent un temps moyen plus élevé sur des sites d’information que sur des blogs, des moteurs de recherche, des agrégateurs. Les sites média sont des sites de destination et la publicité devra le reconnaître. Voici un autre point d’optimisme.

3. Quelles conséquences pour le paysage des médias en ligne ?

Aufeminin.com annonçait il y a deux semaines des profits en nette baisse du fait d’un « environnement concurrentiel changeant« , résultats aussitôt sanctionnés par la bourse.

Il me semble assez symptomatique que le pure player emblématique de la réussite d’un média en ligne annonce des difficultés en raison d’une plus grande concurrence de l’information féminine sur Internet. Le message me semble clair : malgré les progressions d’audience que l’on peut attendre, il n’y aura pas de place pour tout le monde. Le marché des médias en ligne va nécessairement connaître une phase de consolidation. Et c’est de cette phase de consolidation que peuvent venir l’émergence d’acteurs solides et rentables.

Dans cette perspective, quels médias sont les mieux positionnés ? Là encore, le débat n’est pas tranché.

* Sites d’info des médias offline vs. pure players

D’un côté, les sites qui sont des déclinaisons online de marques média offline ont des atouts certains : l’attrait de la marque d’abord ; la possibilité de récupérer des contenus produits pour la version offline ensuite ; les archives enfin dont la publication favorise le trafic via les moteurs de recherche.

Pour autant, ces structures n’ont pas une culture web très développée et se contentent souvent de faire du papier sur le web ou plus généralement « la copie conforme du medium précédent », comme le disait Alain Joannès dans notre entretien.

C’est d’ailleurs sans doute ce qui explique que les leaders thématiques soient tous des pure players : Aufeminin, Boursorama, Linternaute, 01net, Allocine… Cédric Motte vient de livrer une analyse de ce qui différencie les pure players des sites de médias traditionnels, qu’on tentera de résumer en un mot : l’agilité.

Agilité qui a son revers, notamment la nécessité d’installer la marque et l’absence de contenu republiable et d’archives.

Il n’est pas dit que la consolidation se fasse juste autour des sites de médias traditionnels ou juste autour de pure players. Elle peut très bien se faire autour d’acteurs issus de ces deux familles. Nous sommes dans une période de « destruction créatrice » ou « d’incertitude radicale », pour reprendre les termes chers à Emmanuel Bruant. Le paysage est changeant et peut se modifier sous l’effet d’innovations technologiques, de décisions juridiques… Il paraît donc illusoire de vouloir se projeter et de faire des scénarios.

A ce propos, une réaction à un propos de Cédric Motte dans un autre de ses billets : « En 20 ans de web en France et autant d’années au cours desquelles les échecs se sont succédés, personne ne peut espérer devenir riche en lançant un site d’informations. » Je crois que ce raisonnement néglige un peu la dynamique du web et cette idée de destruction créatrice : le web 2.0 n’est là que depuis 4 ans, il se passe des choses nouvelles sans cesse, tout le monde apprend tous les jours. J’aurais donc plus tendance à voir la période actuelle comme une période transitoire dont il peut sortir… tout et n’importe quoi.

4. Qui va produire l’information ?

C’est une question que nous avons posée sur Internet et Opinion(s) il y a quelques semaines, à la suite du long papier du New Yorker que nous avions commenté, d’un résumé de ce papier chez Benoît Raphaël et d’un commentaire d’Emmanuel Parody – ouf.

Je ne vais pas copier-coller notre précédent billet mais l’idée est en résumé la suivante : ce sont les médias offline qui sont les principaux producteurs d’information. Sur Internet, en majorité, on copie-colle et on republie. D’ailleurs, Francis Pisani écrit cette semaine :

« Google News a indexé près de 3.000 articles se rapportant à la rupture des négociations entre Microsoft et Yahoo. 3.000 articles «sur la même chose» remarque Scott Karp de Publishing 2.0″

Jean-Marie Le Ray d’Adscriptor fait justement remarquer que ces 3000 articles ne sont pas identiques – autrement dit, il ne faut pas confondre information brute et analyse, mais l’idée est là : sur Internet, l’information est dupliquée, dédupliquée, etc.

Et commentée : la réussite de certains médias repose sur l’agrégation ET le commentaire d’informations produites par d’autres (le Huffington Post par exemple).

Donc, si ces médias d’agrégation et de commentaire captent la publicité pendant que la presse traditionnelle continue à s’affaiblir, qui va produire l’information ?

La part des agences de presse dans la production d’information semble croissante, celle des émetteurs d’information (les relations publiques) aussi. Peut-on attendre des médias en ligne qu’ils produisent de l’enquête et de l’analyse ? Cela suppose des coûts qui n’ont pas l’air de pouvoir (ou vouloir…) être supportés aujourd’hui.

5. Quelles sont les implications de la situation sur le contenu produit ?

Plusieurs des enjeux ci-dessus ont des conséquences sur la nature de l’information produite – à commencer par le dernier point : le rôle des agences de presse et des relations publiques, qui plutôt que de voir les médias comme des machines à relayer des messages, doivent toujours tendre vers plus de sens.

Ajoutons trois points pour répondre à la question du contenu :

* Le marketing éditorial

L’analyse du trafic sur les sites est édifiante. Philippe Cohen, rédacteur en chef de Marianne2.fr, au cours du débat du SNJ rapporté sur Ceucidit :

« si je fais un article sur la grève du Monde ou sur les Echos, je vais avoir 1500 ou 2000 visites maxi. Alors que si j’écris sur Marion Cotillard, Carla Bruni ou sur le SMS et bien ça va dépoter. » Et de conclure : « je suis obligé de jouer un peu sur les deux ».

[ndr : peut-être qu’on finira par remercier Airy Routier d’avoir su générer du trafic sur les sites d’information ? ;-)]

Le raisonnement par la publicité a donc pour conséquence d’orienter le contenu rédactionnel vers les informations les plus putassières, ce que Rfly résume ainsi dans les commentaires de Chouingmedia : « pas de thunes pour la qualité, du fric pour le people et les sites X ».

D’une certaine façon Internet encourage l’approche rédactionnelle par le « marketing éditorial » : le fait de voir exactement quels papiers marchent ou pas encourage le rédacteur à se comporter non pas en journaliste (vérifiant, contextualisant, donnant du sens et resitituant des faits) mais en marketeur (mon public veut une information avec telles et telles caractéristiques, je produis mon information en fonction de ces caractéristiques).

C’est un peu tout le contraire de la vocation du journaliste décrite par Hervé Bourges (résister aux contraintes temporelles dictées par les nouveaux médias) et rapportées par Narvic.

On en revient finalement à un débat d’offre et de demande : si on suit la demande (et Internet en rendant le suivi de l’internaute transparent pousse dans ce sens), l’information aura tendance à se spécialiser (sur-représentation de certains sujets, sous-représentation d’autres) et à se détériorer.

En ce qui concerne l’offre, on a évidemment envie de dire qu’une information à vraie valeur ajoutée doit pouvoir trouver son public, encore faut-il se doter des moyens nécessaires.

C’est encore le modèle d’abonnement payant qui permet le mieux de mettre en oeuvre ce raisonnement par l’offre. Plus que jamais, les expérimentations actuelles sont à suivre..

* L’influence du web communautaire

Le dernier billet de Benoït Raphaël : « comment les blogueurs ont révolutionné le journalisme » montre aussi l’évolution du contenu dans les médias professionnels. On voit en effet énormément de choses dans les médias (pas seulement en ligne d’ailleurs) qui sont inspirées de ce que l’on voit dans la blogosphère.

On voit bien dans le billet de Benoît Raphaël les tendances rédactionnelles : une organisation différente de l’information ; l’évolution des tonalités (emploi du « je », expérience personnelle, utilisation des liens, des listes…) ; la vitesse de circulation de l’information qui peut avoir comme commentaire le manque de vérification (loin d’être le monopole du web) ; l’intégration des commentaires, qui crée un process de corrections et d’enrichissements et faisait dire à Jeff Jarvis récemment que “sur papier, le process crée le produit ; en ligne, le process est le produit” ; etc.

Je ne suis pas sûr qu’il s’agisse d’une révolution, encore moins qu’elle impacte l’ensemble du journalisme en ligne, mais c’est justement parce que la mayonnaise n’a pas pris partout que le web communautaire peut continuer à influencer le contenu produit par les médias de la façon décrite par Benoît Raphaël.

* Le renouveau du consumérisme

Il s’agit là d’un des dadas de mon ami Bruant, sujet que nous évoquons de temps à autre sur ce blog. L’impact du web dans les médias est aussi là : dans une information plus consumériste. Le papier du Monde sur l’iPhone avait été une petite révolution à peine remarquée à l’époque, mais les exemples pullulent. Notre dernier exemple en date, le dossier de Libé sur GTA IV, est ici.

6. Que peuvent faire les médias en ligne ?

On va tenter ici de synthétiser diverses opinions d’experts. Ces opinions peuvent en gros être classées dans deux catégories : investir et innover d’une part ; faire évoluer les pratiques et la culture des rédactions d’autre part.

* Investir et innover

Evidemment les difficultés des rédactions ont pour corollaire la réduction des coûts : réductions d’effectifs, journalistes payés au lance-pierre, rédactions web focalisées sur du tri d’information et pas sur de l’enquête. Mais est-il viable de ne raisonner que par les coûts quand on traverse une crise ou quand on est en période de destruction créatrice ? C’est justement parce que la période bouleverse les repères habituels qu’il faut investir et innover.

Cela passe par de l’expérimentation, ainsi que le montre Cédric Motte dans sa formation faite à la Fédération Nationale de la presse française. Il n’y a aucune bonne solution, il est nécessaire d’expérimenter. L’intégration d’UGC ou de « journalisme citoyen » est une piste, mais les bonnes solutions ne sont peut-être pas celles qu’on attend. Le mot-clé est peut-être la sérendipité.

Alain Joannès insistait dans l’entretien que nous avons conduit sur le Rich Media, que l’on pourrait aussi décrire comme « l’info en 3D » et dont le résultat est « 1+1=3« . Les pratiques de Rich Media, courantes aux Etats-Unis, sont encore balbutiantes ici même si elles existent. Alain Joannès défend l’idée que leur mise en place est moins une question de coût qu’une question culturelle. Une réponse à creuser, donc.

On évoquera aussi un point de Cédric Motte sur l’organisation du contenu : éclater les sites généralistes en une multitude de sites thématiques spécialisés. Idée qui me semble cohérente avec un principe fondamental du web : le fonctionnement en réseaux affinitaires, ou en communautés thématiques.

L’innovation est aussi dans la recherche de son business model et pas forcément au niveau du seul rédactionnel. Si le développement des services est la clé vers la rentabilité, les sites d’information doivent développer des services (BtoB)… Ce n’est alors pas au niveau de la rédaction que ça se joue mais au niveau de la direction générale, de la stratégie d’entreprise.

* Faire évoluer les pratiques et la culture des rédactions

Ah, le rapport des journalistes au web… qu’il s’agisse des journalistes en place (que l’on peut illustrer par la situation au Parisien il y a quelques semaines) ou (plus inquiétant) des étudiants en journalisme, on va qualifier ce rapport de « compliqué ».

On ne s’achète pas une culture web comme ça, surtout quand la profession entretient la méfiance et la défiance vis-à-vis du web, ce qui a pour effet une profession désemparée.

Cette culture web passe donc par la formation. Relire à ce sujet le point de Journalismes.net sur les formations web en école de journalisme en France). Philippe Couve disait aussi lors de son intervention au cours du débat SNJ :

« A la question “un journaliste doit-il savoir tout faire aujourd’hui?”, j’ai répondu “oui” à la consternation d’une partie de la salle. Effectivement, je pense, et c’est le sens de la spécialisation multimédia mise en place au CFJ, que les journalistes aujourd’hui doivent maîtriser les bases de tous les médias (écrire, écrire pour le web, enregistrer du son, prendre des photos, tourner de la vidéo). »

Alain Joannès évoque, lui, trois pistes pour une re-légitimation du journaliste : fiabilité, capacité, innovation. Une question d’attitude et d’exigence, donc.

Mais la question est aussi une question de choix éditoriaux et d’identité de marque.

Seth Godin insistait sur son blog il y a quelques jours sur la nécessité pour le New York Times (mais c’est valable pour tout le monde) de se concentrer sur ses forces, ce pour quoi il est reconnu, et non pas sur ce qu’il ne traite pas mieux que les autres. Ce qui rejoint en quelque sorte le point de Francis Pisani sur les 3000 articles traitant de l’actualité Microsoft – Yahoo et lui faisait dire :

« la valeur des articles d’actualités, plus encore que celle des produits de consommation courante, tend vers zéro. » (…) « Traiter des sujets que tout le monde traite revient, pour les médias d’information, à assécher la source qu’ils exploitent. C’est un héritage du temps où l’audience n’avait accès qu’à un nombre très limité de publications. Le moment est venu d’intégrer à l’économie des médias le fait que leur audience en consulte toujours d’autres. »

Il s’agit donc à la fois pour un média de sonder son identité de marque (ce qui fait son « ADN », ce pour quoi il est reconnu) et de produire de la valeur ajoutée. Qu’est-ce donc que la valeur ajoutée d’un média ?

– pas l’information brute puisque tout le monde l’a et la reproduit (à moins de l’avoir avant tout le monde)

– pas les pages opinion puisque le web communautaire pullule d’excellents articles d’opinion (et là il faudrait un changement culturel fondamental puisque le must du journalisme en France est de devenir éditorialiste)

– mais plutôt l’enquête d’une part et l’analyse, la remise en perspective d’autre part. Qui sont des fondements, en principe, du métier de journaliste… Faut-il en déduire que les rédactions auraient intérêt à davantage « expertiser » leurs journalistes, ce qui aurait pour corollaire une moindre mobilité transversale des carrières ?

– la capacité à réunir et animer une communauté autour de soi, à faire parler. Ce qui suppose aussi l’implication des journalistes dans les relations avec les lecteurs, et pose encore et toujours, des questions de temps disponible, de culture et de volonté.

On terminera en rappelant que l’avenir des médias en ligne passe aussi l’avenir des marques médias : le média se définit de moins en moins par son ou ses supports et de plus en plus par sa marque. Un média en ligne d’avenir est donc peut-être aussi la version web d’un groupe média qui gagne de l’argent sur les autres supports… et ainsi « subventionnent » le site.

Pardon à ceux qui sont allés au bout pour ce très long article et auront noté qu’il n’y a… aucune réponse aux 6 questions. C’est ce qu’on appelle un débat ouvert.

Pollution

On en voit de drôles de choses sur le marché de la réputation en ligne. Entre ceci ou cela, j’ai juste envie de dire : si vous voulez gérer votre réputation… adressez-vous à des gens qui en ont une.