OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 [SPIIL] Journée de la presse en ligne http://owni.fr/2010/10/22/spiil-journee-de-la-presse-en-ligne/ http://owni.fr/2010/10/22/spiil-journee-de-la-presse-en-ligne/#comments Fri, 22 Oct 2010 07:26:39 +0000 [Enikao] http://owni.fr/?p=32854 A l’occasion de la première journée de la presse en ligne organisée par le SPIIL, Syndicat de la presse indépendante d’information en ligne qui fête sa première année à la Maison des Métallos, la Soucoupe est venue assister aux débats qui animent la profession. Précision utile : Owni a rejoint le SPIIL depuis 48 heures.

Cet article a été mis à jour tout au long de la journée

Suivez la journée sur Twitter avec le hashtag #SPIIL.

//

9:25 - Maurice Botbol introduit la journée et rappelle la raison d’être du SPIIL, créé peu après les Etats Généraux de la Presse : indépendance vis-à-vis des groupes de presse, information en ligne. Le SPIIL avait 10 membres au départ, il compte une soixantaine de membres aujourd’hui, avec un processus de choix selon des critères intangibles : modèle économique dès la création, au moins un journaliste ayant une carte de presse dans l’entreprise. Sites au contenu gratuit, payant, sites d’information locale, le SPIIL présente une vraie diversité aujourd’hui.

9:30 - Pierre Haski anime la première table ronde “Les enjeux professionnels de la presse en ligne : quels bouleversements pour demain ?”

Frédéric Filloux, Emmanuel Parody, Cyril Zimmermann, Francis Pisani.

Qu’y a-t-il d’excitant actuellement sur le net ?

9:45 – débats autour de Ruppert Murdoch, du modèle payant fermé qui freine la circulation virale.

Frédéric Filloux entrevoit des conteneurs Internet fermés, des environnements clos et des plateformes propriétaires (applications), au risque que l’Internet gratuit s’appauvrisse.

Francis Pisani pense qu’on n’est pas obligé d’envisager toutes les tendances comme inéluctables, l’innovation vient de la capacité générative des confrontations de techniques non contrôlées.

Cyril Zimmermann est fasciné par Murdoch, qui prend le risques de tester. S’autodistribuer est un véritable enjeux : conquérir ses abonnés, engendrer de l’adhésion à l’acte. Le problème vient en partie de l’offre, et de la frontière choisie entre ce qui doit être payant ou gratuit.

Emmanuel Parody rappelle qu’on a pris comme acquis que les contenus du web étaient ouverts parce que techniquement, le web est du lien. Il y a une tentation à mettre des liens en périphérie des articles, ce qui est une régression. Mais le débat gratuit/payant est trop binaire : la course à l’audience originelle (pages vues = pub, mais les rendements sont décroissants) s’est arrêtée car il y a moins de capitaux d’investissement, on est donc arrivé au revenu par utilisateur. Le payant ne veut pas dire que ce qui était gratuit de vient payant : il faut trouver des activités supplémentaires, complémentaires (mobilité, nouveaux contenus…).

10:00 – Pierre Haski rappelle qu’aujourd’hui on parle de l’affaiblissement et de la mort des marques dans l’industrie, et que ce discours arrive à peine pour les médias. La moitié du lectorat de Rue89 arrive par la recommandation. Le lectorat est diversifié : les fidèles, ceux qui arrivent par les réseaux sociaux, et ceux qui viennent de manière plus aléatoire par les moteurs de recherche. Leur implication n’est pas la même.

Internet a été présenté comme un chaos, mais la profusion de contenus justifie que les marques existent, comme point de repère.

Les médias sociaux permettent de rappeler à soi d’autres lecteurs qui ne viennent pas souvent.

Cyril Zimmermann pense qu’il y a eu un énorme marché de dupes entre les éditeurs de contenu, Google et les médias sociaux, parce qu’il y a eu une captation de la rente publicitaire. L’indexation gratuite contre du trafic a focalisé le sujet sur le nombre de vues, qui rapporte trop peu. C’est une spoliation avec l’assentiment fasciné des créateurs de contenus, Google le fait, Apple le tente et Facebook le fait déjà. Le déséquilibre économique vient d’un très beau marketing et du fait que l’enjeu de ce marché de dupes n’était pas directement monétaire (ce qui aurait réparti les revenus), mais simplement des clics.

Frédéric Filloux rappelle que tous les clics ne sont pas égaux. L’approche publicitaire est grossière, et indifférenciée. On est encore dans la religion du clic, que l’on obtient avec des manipulations minables comme des jeux. Mais quelle est la proportion de visiteurs à valeur, qui viennent avec une logique de marque ?

Emmanuel Parody : Facebook ne ramène pas des trafics, c’est vraiment infime, 1,25% à peine ! Facebook n’est pas la relève de Google, il est surévalué dans sa capacité de renvoi d’audience. C’est un lieu où s’organisent des échanges sociaux, c’est donc autre chose. La moitié des utilisateurs vient jouer en ligne sur Facebook, le webmail est un usage croissant, mais ce n’est pas un lieu de consultation d’information. Facebook crée du lien qualitatif, pas du clic en masse.

Francis Pisani suggère que l’on remettre en question l’article : la matrice d’un article est une matrice espace-temps. La distance virtuelle et le temps réel bouleversent ce when et ce where que l’on apprend dans les écoles de journalistes. Twitter, c’est du fragment qui vient de partout en temps réel. Les récits modulaires sont peut-être la vraie base de réflexion pour l’avenir de l’information : l’article viendra nous chercher sur les écrans que nous utilisons, le journalisme est un process et l’article n’est donc plus monolithique.

Frédéric Zimmermann rebondit sur la question du prix de l’article abordé par Francis Pisani : la vente à l’article va poser une question très gênante, celle de la rentabilité des journalistes car on verra clairement les articles qui marchent. Il faut donc s’en prémunir pour ne pas faire des journalistes salariés des pigistes chargés de tirer du trafic sans faire leur vrai métier (l’information) dans des conditions satisfaisantes.

10:30 - Les débats s’ouvrent dans le public sur Google : il n’y a pas de contrat, il est à la fois tacite et léonin. Il est possible de se désindexer mais puisqu’il n’y a pas d’accord. Le plateau s’anime et commence à débattre avec la salle.

Frédéric Filloux charge Huffington Post et ses 6 000 blogueurs non payés, qui n’est pas un modèle du tout. La spoliation est ailleurs : le Huff’Po draine à lui les commentaires et le trafic, en pillant ou en faisant piller les contenus créés ailleurs.

Emmanuel Parody : le modèle de la course à l’audience, c’est la revente ! Ariana Huffington l’a compris, c’est pour cela qu’elle ne parle pas de valeur de l’article. Entrer en bourse, faire la culbute, c’est quand même un classique, il faut assumer cette question de la bulle et regarder les chiffre en face.

Francis Pisani interroge Pierre Haski sur l’arrivée à la rentabilité de Rue89 : la crise a fait chuter les revenus publicitaires, la diversification est donc venue de la formation (aujourd’hui 30% des revenus) et la production de sites pour d’autres structures. L’accès reste gratuit car la moitié du trafic vient de la recommandation, la circulation virale reste donc importante car nous sommes un jeune média, et le modèle freemium n’est pas encore mature. Le mensuel papier (qui procède d’un reverse publishing) que nous avons lancé n’est pas encore pris en compte même s’il est rentable dès le premier numéro.

//

11:00 – Atelier “Audience et trafic, les dernières évolutions”

Hélène Froment (Mediapart), Emmanuel Parody (BCS Interactive) et Franck Si-Hassen (Médiamétrie e-Stat)

Affinage de la mesure d’audience.

La mesure des vidéos a longtemps été limitée au compteur, qui ne prend en compte que le temps de chargement. Désormais Médiamétrie peut savoir quel est le temps de visionnage réel. Les marqueurs e-Stat de Médiamétrie prennent en compte depuis peu les applications mobiles iPhone, iPad, iPod Touch, Androïd, et bientôt Blackberry.

Le wi-fi compte pour environ 20 à 30% des applications : le téléphone a beau être mobile, il est parfois utilisé de manière fixe.

Alenty a développé une application pour calculer le temps de visionnage des publicités (emplacement), cette technologie est désormais intégrée pour l’analyse de visualisation des contenus d’une page, en particulier dans les homepage qui évoluent sur les médias en ligne.

Pour Mediapart, au-delà des 40 000 abonnés désormais atteints, la mesure de l’audience est un enjeu particulier : l’économie de moyens ne permet pas une mesure fine avec des outils coûteux. L’engagement de dépense se concentre sur les éléments classiques : nombre pages vues, durée des visites, mais aussi zones. La base abonnés permet de vérifier les Adwords qui fonctionnent, et donc calculer le coût d’acquisition des nouveaux abonnés : cela a débuté en juin avec l’affaire Bettencourt. Ces données guident les investissements dans les campagnes d’achats de mots clés.

La mesure de fidélisation se fait sur l’écart entre les consultations connectées et non connectées. L’aspect hybride du modèle est donc évalué avec l’entonnoir pour vérifier le taux de transformation, et les éléments qui sont rédhibitoires. Les applications iPad et iPhone de Mediapart arriveront cet automne.

Questions du public : quelle utilisation éditoriale des chiffres pour orienter les choix de contenus ? Quels sont les apporteurs de trafic (Google, Facebook, Dailymotion…) ? Pour Mediapart, il y a un mix à trouver pour rester un site d’information générale, il faut équilibrer les sujets pour ne pas devenir “le média Bettencourt”. Cet été, la notoriété de la marque Mediapart a tiré les abonnements, le travail de CRM par les relances e-mail, les Adwords et les offres proposées sur Facebook et Dailymotion viennent après.

//

14:00 – Atelier “Formation : tout ce que les journalistes web doivent apprendre et que leurs collègues ignorent”

Table animée par Philippe Couve.

Philippe Couve, Soizic Bouju, Alice Antheaume, Marc Mentré, Eric Mettout

Alice Antheaume : l’enseignement au web en école de journalismes inclut plusieurs sujets larges. La vérification des sources, le fact checking accéléré sur les chiffres, mais aussi détecter un sujet rapidement pour prendre de vitesse l’AFP. En deuxième année, on passe au choix des outils de publication, on réfléchit aux formulations pour les demandes aux  développeurs, à comment optimiser son référencement Google. Les digital natives, c’est une forme de fantasme, il faut avoir des comptes sur les médias sociaux bien sûr, c’est même un prérequis, mais on apprend surtout à faire de l’info.

Eric Mettout : il faut aussi apprendre les relations avec la communauté et les lecteurs, le marketing, l’utilisation des outils disponibles comme les Google Maps, les nouvelles formes d’écriture, parce qu’aujourd’hui le journalisme web est un journalisme Shiva. La formation évolue désormais très vite.

Marc Mentré : il faut d’abord savoir ce qu’est le journalisme web : réseaux sociaux, mobilité ? Ce qui est sûr c’est qu’il ne peut y avoir une compétence unique centrée sur le web. Participer à la communauté est indispensable, et ça nécessite une spécialisation. On ne peut pas être un spécialiste des généralités. Les sites ne peuvent pas exploiter dans leurs médias respectifs certaines compétences comme les nouvelles formes de narration.

Soizic Bouju : la réactivité pour la profondeur, c’est là la ligne de partage. Il faut être formé à tout mais on ne peut pas tout faire. L’expertise a un sens car elle fait la différence.

Philippe Couve : la formation au dialogue entre journalistes et développeurs est indispensable, bien sûr les fonctions ne sont pas les mêmes mais il faut trouver les zones de contact.

14:30 – Questions du public  : le transmédia est devenu plus facile grâce aux outils matériel, mais cela ne change rien au fait que la pratique elle-même. Comment faire ?

Pour Marc Mentré, on va revenir aux équipes de journalistes, c’est d’ailleurs ce qu’on voit sur les projets de webdocumentaire. La diffusion des savoirs et des savoir-faire en interne est un vrai enjeu, il faut des passeurs de technique et des personnes capables de mener des projets en interne. L’éclatement de la bulle web au début des années 2000 a aussi freiné les demandes de formation web pendant des années.

Pour Soizic Bouju, il y a une phase de transition générationnelle, c’est sûr, mais ce n’est pas la ligne de partage et les résistances existent là où on ne les imagine pas : le management intermédiaire s’interroge encore beaucoup. Le projet doit être éditorial.

Marc Mentré : le web est horizontal, les rédactions sont verticales, ce qui crée des confrontations hiérarchiques. Il faut donc commencer par former la rédaction en chef, et la laisser réfléchir à l’organisation.

Les pigistes peuvent aussi bénéficier des formations web.

//

15:00 – Atelier “Eclatement des supports de diffusion : réseaux sociaux, mobiles… papier !”

Benoît Raphaël (Le Post), Laurent Mauriac (Rue89), Walter Bouvais (Terra Eco)

Walter Bouvais : il faut se concentrer sur le contenu, les angles, le ton, la question des supports et des canaux doit venir après. Cela suppose qu’on ait des conférences de rédaction musclées, et uniques, print et web réunis. Cela signifie publier moins vitre et moins souvent mais viser une forme de qualité.

Laurent Mauriac : pour l’instant, le mobile est une déclinaison du web, mais des fonctionnalités complémentaires arrivent. Nous avons des visiteurs qui ne nous lisent que par ce qu’ils voient des médias sociaux. Sur le papier, on a une commodité du format, et on doit quand même attirer des gens pour les faire payer un contenu qu’ils pourraient trouver gratuitement en ligne. Il faut quand même adapter les contenus aux plateformes, car les plateformes sont liées directement à des modes de consommation des médias.

Benoît Raphaël : Internet a été présenté comme un nouveau réseau de distribution, mais les contenus changent de nature à partir du moment où les canaux deviennent interconnectés : mobile, Internet, réseaux comme Facebook, demain la télévision connectée. L’information est devenue liquide, donc en salle de rédaction il faut apprendre à être plus agile, mais le mode de production doit le devenir aussi. Les nouveaux outils permettent de gagner beaucoup de temps, c’est pourquoi il faut se poser la question de la production, pas seulement de sa distribution. Le journaliste peut s’appuyer sur les internautes et se décharger d’une partie de ses fonctions : angles, témoignages, récupération, veille.

Le Post a longtemps recyclé et retravaillé une information générale déjà disponible, même si l’angle et l’enrichissement peuvent différer d’un média à l’autre. Puis il a fallu agrandir les équipes pour coproduire avec les journalistes, et enfin aller vers l’enquête plus spécifique.

Laurent Mauriac : l’éclatement des commentaires sur les différents supports devient difficile à gérer, car il y a le site, Facebook, Twitter… La conversation est difficile à animer. Sur Rue89, on a un outil pour mettre en valeur les commentaires pertinents, et même on en édite certains dans le mensuel papier quand ils apportent quelque chose.

Benoît Raphaël : le commentaire anonyme génère énormément de parasites, le contenu est souvent mauvais et très agressif. Le travail de la communauté dans les commentaires, sur l’actualité courante, est souvent assez pauvre. Supprimer l’anonymat par un système de commentaires réservé aux abonnés allège un peu ces mauvaises participations. Être présent près du lecteur, sur Facebook ou Twitter, c’est simplement aller le chercher là où il est, c’est du bon sens. Quand l’information est produite nativement en digitale, on peut l’adapter.

Éclatement des supports et monétisation  : pour Laurent Mauriac, il ne faut pas regarder la rentabilité par mode de diffusion. Le mensuel a fait connaître la marque à de nouveaux publics et assuré un autre visibilité auprès de nouveaux publics et des régies publicitaires.

Question du public : quelle relation avec les internautes, quel rapport au droit d’auteur ?

Laurent Mauriac : ils sont des capteurs mais il ne sont pas journalistes et n’ont pas vocation à être rémunérés parce qu’ils ne produisent pas stricto sensu. Rue89 n’adhère pas à cette idée de journaliste citoyen. Les CGU prévoient que les commentaires peuvent être repris dans un article en ligne ou même dans le mensuel.

16:00 – “Les enjeux démocratiques de la presse en ligne : prêts pour la campagne de 2012 ?”

Débat animé par Ewy Plenel.

Benoît Thieulin, Dominique Cardon, Edwy Plenel, Antonio A. Casilli, Xavier Moisant

Dominique Cardon : on a élargi le nombre de personnes qui prennent la parole à davantage de profils, qui désormais peuvent être anonymes, et on a ajouté la conversation, ce qui est proprement démocratique même si on change de qualité en libérant les subjectivités, en ouvrant la parole en présupposant l’égalité de parole. L’espace public a changé, mais toute la hiérarchie d’information demeure : la hiérarchie est celle des agissants. Le contrôle ex post a par contre fait son entrée. L’espace public a donc changé, et on voit nettement des réseaux catégoriels se constituer autour d’intérêts. Mais au final, Internet a surtout joué un rôle important dans la liberté d’expression par la massification des usages, Internet a procédé à un décentrement de la société, les individus s’auto-organisent de manière incontrôlable. Internet ressemble peut-être un peu plus à la société qu’avant où le témoin de la rue devait être poli, présentable et représentatif à la fois.

Antonio Casilli : il faut préparer un internaute civilisé à un Internet civilisé. Sur Internet, on est dans une situation de contrôle, de surveillance de soi de manière paternaliste et infantilisante, on retrouve en quelque sorte le “surveiller et punir” de Michel Foucault. Le trolling, le vandalisme sur Wikipedia, montrent que l’enjeu est important, c’est un effet de stimulation qui nécessite une réaction, même si elle doit être mesurée, dans ses efforts et dans le temps. Sur Internet, les polarisation sont plus fortes : contre-culture américaine, mini comu nippons, gauche radicale en Europe, trolls républicains professionnels… Ce vandalisme et cette viralité ont un rôle dans la place publique.

Xavier Moisant : l’incompréhension et la non-compréhension des candidats politiques ne sont pas des histoires anciennes, surtout à l’échelle nationale. On en est parfois à faxer des e-mails ! Il y a plusieurs réactions possibles. Il y a eu le “débrouille-toi” en 2002, qui donnait une grande liberté. On est passé depuis 2007 à des sites de campagne qui servaient de purs relais. Avec les médias sociaux plus implantés, ça va changer : Nicolas Sarkozy a déjà plus de 300 000 fans sur Facebook, ce qui est une base de mobilisation militante.

Benoît Thieulin : Internet est perçu comme un nouvel outil de communication, pas comme la possibilité de changer de paradigme. Move On, Howard Dean ont été des avancées qui ont montré des capacités de mobilisation de la société civile et de libération de la parole qui auraient dû faire bouger les mentalités. Internet a été l’outil des mouvements et candidats les moins favorisés des médias. En France, aucun candidat n’est encore un praticien du web (c’est un effet générationnel) alors que ce n’est pas le cas en Grande Bretagne et aux Etats-Unis. Notre classe politique, dans sa formation intellectuelle et dans sa carrière, qui passe souvent par de grandes administrations centrales, n’est pas formée au web. La société civile s’est réarmée par le web autour de logiques affinitaires, puis il y a eu un traitement médiatique, la politique est arrivée plus tard. Mais développer une stratégie complexe ne peut venir que de la pratique même, sinon on ne fait que décliner sur le web des stratégies préexistantes.

Dominique Cardon : Obama est un universitaire et il s’est inscrit dans les conversations, en sollicitant la participation, mais c’est aussi une bête de télévision. On est à la fois dans le participatif et dans la mise en avant d’une personnalité, sa victoire est le fuit d’une ambivalence.

Les réflexions sur les trolls sont nombreuses : modération, comment l’isoler, pourquoi troller est avant tout un verbe (on trolle) plutôt qu’un individu (tout le monde troll d ‘une manière ou d’une autre). La longue traine du web ouvre ces espaces dans la politique, mais elle permet aussi la communication directe pour des candidats moins connus. La discussion d’un élu qui a un capital politique élevé est plus rare et cette rareté risque d’avoir un effet déceptif.

D’autres compte-rendus :

Archives :

Illustration CC FlickR par Bill on Capitol Hill

]]>
http://owni.fr/2010/10/22/spiil-journee-de-la-presse-en-ligne/feed/ 8
Les nouveaux métiers du journalisme http://owni.fr/2010/03/09/les-nouveaux-metiers-du-journalisme/ http://owni.fr/2010/03/09/les-nouveaux-metiers-du-journalisme/#comments Tue, 09 Mar 2010 10:48:53 +0000 Nicolas Marronnier http://owni.fr/?p=9712 4317536426_64b9df34d8

Titre original :

Au Social Media Club, les nouveaux métiers du journalisme

Un débat public organisé par le Social Media Club sur les nouveaux métiers du journalisme en ligne s’est déroulée le 17 février 2010, à La Cantine, à Paris. Animé par Julien Jacob, il a suivi le format classique du Social Media Club France, à savoir une prise de parole d’environ 15 minutes pour chaque intervenant suivie d’une série de questions/réponses. Résumé de chaque intervention rédigé par le Social Media Club.

Le journalisme crowdsourceur

Jean-Luc Martin-Lagardette, journaliste pour le webzine Ouvertures, a évoqué pour nous l’expérience qu’il a menée avec le site Agoravox.

L’objectif général de sa démarche était de tenir compte de la participation du public dans l’élaboration de l’information. Cet objectif s’est traduit par la tenue d’une série d’ « enquêtes participatives », menées à l’aide de la communauté d’internautes voulant bien témoigner et contribuer à une réflexion autour d’une thématique bien précise.

Jean-Luc a évoqué la première de ces enquêtes (été 2007), qui fût sans conteste la plus enrichissante, concernant un sujet d’actualité déjà assez largement traité et qui faisait à l’époque déjà polémique sur le site : l’obligation vaccinale. Rebondissant sur un fait d’actualité (en mars 2007 une loi est passée qui durcissait les sanctions contre les réfractaires vaccinaux), il a tout d’abord écrit un premier article commentant ce projet de loi en invitant les internautes à réagir : ce durcissement était-il selon eux justifiée ?

Les commentaires n’ont pas tardé à affluer (600 contributions à date) et l’enquête fait aujourd’hui pas moins de 70 pages, épais dossier librement accessible sur le site d’Agoravox qui a donné lieu à presque 70 000 téléchargements !

La vraie richesse de cette démarche, selon Jean-Luc Martin-Lagardette, a été la réelle diversité des sources et des angles. Sur internet, les contributeurs étant tous sur un pied d’égalité, la distanciation se trouve en effet maximisée entre le journaliste et ses sources, le professionnel s’en tenant à l’information brute, au contenu, sans a priori sur celui-ci.

On peut donc entrevoir avec ce type de démarche une certaine « neutralisation » de l’avis du journaliste qui, face au grand nombre de contributions et d’avis contradictoires, a plutôt un travail de synthèse à effectuer.

Bien sûr, au fur et à mesure de la remontée des informations, Jean-Luc a mené un vrai travail d’investigation en procédant à des vérifications, à des interviews de personnes compétentes (scientifiques, responsables administratifs, associatifs), comme cela se fait dans toute enquête journalistique.

Mais le journaliste a tenu à souligner à quel point sa démarche se différenciait d’une investigation classique, la singularité de cette enquête résidant dans sa longue durée (3 mois) et dans l’utilisation de la puissance de l’outil internet en matière de mobilisation des sources.

Jean-Luc nous a en outre fait part de son regret à propos du faible relais opéré par les médias traditionnels concernant les résultats de son enquête, écho qui aurait pu permettre de lancer un réel débat sur la scène publique, d’avoir un véritable impact politique.

Enfin, il a souligné le fait qu’il lui a manqué un réel outil de gestion des contributions (documents, mails, commentaires…) pour faire face à leur nombre important et à leur diversité.

Le journalisme de données

Augustin Scalbert a pris la parole à ce sujet. Journaliste pour Rue89, il a pris ici la parole en tant qu’acteur de la campagne Libertés d’informer lancée entre autre avec ses confrères Luc Hermann et Paul Moreira. Cette campagne vise à promouvoir le vote d’une loi en faveur d’un accès plus libre à l’information en France. Concrètement, le collectif milite pour offrir aux citoyens un mécanisme de contre-pouvoir par le biais d’un accès libre aux données administratives, dans une logique de transparence.

Augustin a souligné le fait que la France est un des pays occidentaux les moins transparents en matière de mise à disposition de documents administratifs. Aux Etats-Unis, le Freedom of Information Act datant de 1966 garantit cette transparence. Le site Wiki Leaks s’est fait le spécialiste de la publication de données confidentielles outre atlantique, concernant la santé publique, le droit, ou les dépenses gouvernementales… C’est à lui que l’on doit par exemple la récente révélation du traité international ACTA qui fait craindre un filtrage généralisé du net sans passer par une autorité judiciaire.

En France, une loi de 1978 a bien donné naissance à la CADA (Commission d’Accès aux Documents Administratifs) mais celle-ci ne disposant pas d’un pouvoir d’injonction voit la moitié de ses demandes d’accès à des données sensibles tout bonnement refusée. Augustin donne comme exemples l’affaire Borel (décès suspect d’un magistrat à Djibouti), la violente répression de la manifestation algérienne du 17 octobre 1961 ou encore les retombées de la catastrophe de Tchernobyl en France comme autant de dossiers aux nombreuses zones d’ombre qu’un libre accès aux documents officiels aurait pu permettre d’éclaircir.

La CADA reste donc utile, pouvant constituer une menace en cas d’une réelle pression citoyenne sur l’administration, mais demeure un outil trop restrictif et finalement peu utilisé.

La pétition lancée par Libertés d’informer regroupe à ce jour 6000 signatures et ne dispose malheureusement que de trop faibles relais politiques. La classe dirigeante ne semble pas réaliser que rétablir un lien de confiance avec ses citoyens passe par le soutien de ce genre d’initiative.

Finalement, ce dont le mouvement Liberté d’informer est le symptôme, c’est que les journalistes et de façon plus générale les citoyens ont soif d’information brute, de données librement accessibles et exploitables, pertinentes et incontestables…

En effet, pour paraphraser Nicolas Vanbremeersch, « dans un monde d’hyper commentaires, on ne peut qu’espérer que les médiateurs de l’information s’emparent des données » pour nous fournir de l’information effective pertinente et ainsi à nouveau exercer leur rôle de contre-pouvoir.

Le journalisme coproducteur

Pierre Haski, cofondateur du site Rue89, est venu nous parler de son expérience d’un nouveau journalisme en ligne.

Il a  abordé le modèle du site en matière de production de l’information. Au départ, Rue89 reposait sur l’idée de « l’info à 3 voix », soit l’association de contributions émanant de journalistes, d’experts et d’internautes produisant de l’information séparément mais en un espace commun.

Cette méthodologie n’a pas été suivie dans les faits, le système ayant vite démontré ses limites du fait du manque de crédibilité des contributeurs amateurs et donc de la nécessité d’une validation journalistique des contenus produits.

Le modèle actuel équivaut donc plutôt à une « mise en musique » des différentes contributions, à un travail commun de production d’information.

Cette coproduction de l’information se matérialise de différentes manières. Par exemple, le site a mis en place un comité de rédaction participatif qui voit les 15 journalistes professionnels connectés en live à une centaine de chatteurs proposant des pistes de réflexion et apportant leur feedback aux idées émises par les journalistes.

Pour couvrir l’évènement au plus près et réagir rapidement aux faits d’actualité, Rue89 bénéficie des nombreux témoignages et remontées d’informations émanant d’internautes (live blogging, système d » « alertes ») et peut ainsi exploiter cette information brute afin de fournir du contenu de qualité sur son site.

Ce travail main dans la main avec la communauté des internautes permet à Rue89 de couvrir un évènement avec une rapidité jusqu’ici jamais atteinte : le site a par exemple été le premier à prendre la mesure de la grève en Guadeloupe. La presse n’en parlait pas, mais Rue89 recevait des messages indiquant des problèmes : ils ont alors mobilisé par email les habitants de l’île figurant dans leur base de données en demandant des témoignages, précieuses sources d’informations à partir desquelles les journalistes du site ont pu rédiger un article fourni sur les évènements.

Pour reprendre l’idée de Jeff Jarvis, à l’heure d’internet, l’information et donc les articles ne sont plus des produits finis mais ce sont des process en perpétuelle évolution. Sur le site, l’auteur d’un article se charge de la modération des commentaires, répond aux remarques émises et met en avant les contributions intéressantes dans une démarche de perpétuel enrichissement de la réflexion. Il arrive de ce fait que sur la base des commentaires, un second article soit rédigé pour affiner l’analyse première.

Là où les sites des journaux traditionnels se contentent d’externaliser le traitement des commentaires à des sociétés tierces, Rue89 effectue donc pour sa part un aller-retour permanent entre fondamentaux du journalisme et gestion du participatif, instaurant ainsi un vrai rapport avec le lecteur.

Le journalisme témoignage d’actualité

Philippe Checinski nous a présenté le site dont il est l’un des fondateurs : CitizenSide.

Il nous a tout d’abord rappelé que 20 000 photos sont envoyées chaque jour sur Facebook et 24h de vidéos chaque minute sur Youtube. L’idée du site est donc partie de ce constat que les internautes sont de plus en plus enclins à poster du contenu en ligne.

Le site se veut donc être une plateforme assurant l’intermédiation entre amateurs et professionnels de l’information. Le service repose sur la mise à disposition de contenu UGC aux médias qui peuvent venir piocher parmi les photos et vidéos d’actualité postées par les internautes. CitizenSide se charge de fixer le prix et de négocier la vente aux médias intéressés.

600 à 1200 photos/vidéos sont reçues chaque jour par le site. Avant toute mise en ligne, l’équipe du site effectue donc un travail de vérification du contenu. C’est là son cœur de métier, nous affirme Philippe. Cette validation repose sur une identification claire de la source (sa fiabilité, ses antécédents) et sur une expertise technique du site.

L’équipe dispose en effet de puissants outils permettant d’extraire des métadonnées de toute photo ou vidéo postée. Ces données renseignent CitizenSide sur la qualité du contenu (photo retouchée ou issue de Facebook, lieu de capture par géolocalisation…) et permettent de valider ou non une contribution.

Le site s’appuie donc sur la volonté des gens de participer à l’actualité et oeuvre ainsi à la crédibilisation du document amateur, trop souvent considéré comme peu fiable.

Le business model de CitizenSide reposait tout d’abord sur le prélèvement d’une commission sur les transactions effectuées sur le site, mais Philippe a aussi évoqué le développement d’une marque blanche vendue aux médias, avec mise à disposition de la technologie et du back-office du site. Le gratuit 20 minutes, BFM TV ou Voici comptent déjà parmi les clients.

Le cofondateur du site nous a également annoncé le lancement imminent de la plateforme EditorSide qui regroupera en un espace unique l’ensemble des contenus disponibles sur CitizenSide mais aussi sur les sites partenaires disposant de la technologie du site.

Enfin, Philippe Checinski a abordé les perspectives offertes par le développement d’applications mobiles et l’usage des techniques de géolocalisation qui en découle. On pourrait imaginer à l’avenir un système d’injonction à la contribution de « city-reporters » (aller prendre une photo ou capturer une séquence vidéo), sorte d’appel à témoins en temps réel, en fonction du lieu où se trouve chacun et des évènements qui s’y déroulent.

Le journalisme en réseau

Alexandre Piquard, journaliste sur LePost, est venu clore cette session par son témoignage.

Il nous a présenté le modèle du site, à la fois hébergeur et éditeur de contenu.

LePost rassemble en effet à la fois des contributions d’internautes (40 000 membres), des posts de blogueurs invités (30 experts) et des articles émanant de la rédaction (6 journalistes spécialisés). Chaque jour, une centaine d’articles passe en Une du site, issus de ces trois sources, et 6000 commentaires sont postés. D’où la notion de « journalisme en réseau », concept basé sur l’idée d’écosystème médiatique où différents acteurs enrichissent une même plateforme par des informations complémentaires.

La gestion de ce flux incessant d’informations est opérée par l’équipe de rédaction. Différents labels existent pour qualifier l’information et ainsi mettre en avant telle ou telle contribution. Le label « info brute » correspond aux apports des internautes non encore validés par les professionnels. Ce type d’information ne peut se retrouver en Une, au contraire des articles « info vérifiée » qui jouissent d’une visibilité accrue, au même titre que les articles des journalistes et blogueurs (« info rédaction » et « info invités »).

Faire du journalisme en réseau c’est aussi ne pas hésiter à se projeter hors de sa plateforme, insiste Alexandre. LePost se veut ainsi ouvert au microblogging produit sur les réseaux sociaux et relaie ponctuellement des « live twits » sur sa Une, en témoigne la récente couverture des débats sur la Loppsi à l’Assemblée. En outre, le site n’hésite pas à relayer du contenu issu d’autres médias et à renvoyer vers leurs sites en mettant en pratique le « journalisme de liens » cher à l’Américain Scott Karp.

Retrouvez l’actualité du Social Media Club France sur son blog : http://www.socialmediaclub.fr
Et rejoignez la communauté sur Viadeo pour échanger avec les membres autour de nos problématiques.

> Article initialement publié sur Rue89

> Illustration par Doing Media Studies sur Flickr

]]>
http://owni.fr/2010/03/09/les-nouveaux-metiers-du-journalisme/feed/ 1
Menaces à l’encontre du Net http://owni.fr/2009/11/24/menaces-a-l%e2%80%99encontre-du-net/ http://owni.fr/2009/11/24/menaces-a-l%e2%80%99encontre-du-net/#comments Tue, 24 Nov 2009 17:01:36 +0000 Christian Fauré http://owni.fr/?p=5693 Nous venons de célébrer les 40 d’internet en faisant remonter son histoire à septembre 1969, lorsque Leonard Kleinrock utilisa une connexion réseau par paquets entre deux ordinateurs.

Cliquer ici pour voir la vidéo.

Les 40 ans de l’histoire d’internet sont l’occasion de constater qu’il y a un certain nombre de menaces à son encontre, surtout depuis qu’une application inventée par Tim berners Lee, le web, a connu le succès que l’on sait.

Doit-on penser les dernières années que nous avons connues resteront une parenthèse dans l’histoire de l’humanité ? Une parenthèse où les bricoleurs, les chercheurs, les entrepreneurs et les amateurs se sont investis dans un no-man’s-land du numérique en réseau pour en faire un milieu technique associé. Un milieu où le modèle contributif a donné à nos sociétés un visage qui n’avait pas été prévu, planifié, et organisé.

je classe ces menaces selon les quatre types suivants :

1. tout d’abord une menace par le haut : celle des politiques
2. ensuite une menace interne, incarnée par le SaaS et le cloud computing
3. puis une menace par le dessous : celle les opérateurs telco
4. enfin une menace par la périphérie : celle que porte l’internet des objets

1. La menace politique.
C’est une menace qui se manifeste aussi bien par la politique menée par la Chine que par l’adoption de la loi Hadopi en France (sous l’effet du lobbying discret de France Telecom).
Mais, d’une manière plus générale, cette menace réside dans l’incurie de la puissance publique qui (cf. Qu’est ce que l’incurie de la puissance publique ? ), décidément, ne prend pas la mesure du phénomène et s’est longtemps, encore aujourd’hui, laissé bercé par la fable de l’immatériel.

Cette incurie mène le politique à n’être qu’une institution se faisant l’écho des lobbies : le politique tend à ventriloquer ce que les lobbies lui chuchotent à l’oreille.

Il s’agit là souvent de faire du web un bouc-émissaire (ce que permet sa nature de pharmakon). Parfois en ayant recours aux bouffons de la république : tel jour c’est Frédéric Lefebvre qui nous assène « combien de viols .. », tel autre l’homme à la rolex qui s’exclame que « le web est la pire des saloperies« . Parfois en ayant recours à une intelligentsia d’un autre âge.


2. La menace interne et le cloud computing.

En passant d’un web de document à un web de services, il a bien fallu que les données de ces services se concentrent et soient agrégées et stockées là où les algorithmes tournent pour inventer de nouveaux modèles d’affaires. Du coup, le web se fragmente autour de silos de données et de services associés qui prennent la forme de gated communities rendant encore plus sensibles les problématiques de respect de la vie privée, de confidentialité et de maîtrise de ses données, de ses traces.

Pourtant, c’est paradoxalement avec ces industriels des solutions SaaS et du Cloud Computing qu’il faut compter car, en constituant leurs plates-formes sur le web, ils dépendent en même temps du web. C’est le milieu technique dans lequel leur modèle d’affaire s’épanoui, pas question pour eux donc de porter atteinte à certains principes comme la neutralité du net, et ici le choc est frontal avec les opérateurs télecom.

Condamner systématiquement ces industriels, c’est ne pas voir plus loin que son nez. Certes, il faut trouver des ajustements et composer avec des alternatives, puisque le web le permet, mais le Net a besoin de ces nouveaux industriels qui peuvent devenir des alliés de poids dans la re-configuration de notre avenir.

3. Les opérateurs Telco.
C’est pour moi la menace n°1, la plus concrète et celle qui est la plus d’actualité. Dans cette affaire, les opérateurs télécom historiques sont des menteurs, des affairistes, et des preneurs d’otage.

  • Des menteurs : sur l’état de leur infrastructure et sur leurs coûts;
  • Des affairistes : qui défendent leur rente de situation et veulent maintenir leur modèle d’affaire en violant la sacro-sainte neutralité du net, qui ont joué un rôle majeur en poussant HADOPI, qui font du marketing pernicieux, comme Orange avec leur campagne « Il y a internet … et internet »;
  • Des preneurs d’otage : avec le refus de france telecom, malgré les injonctions de l’Arcep, d’investir dans les infrastructures haut débit, au prétexte que cela bénéficie aux acteurs du web. Profitant de la maîtrise de la couche base de transport, les opérateurs télécom prennent en otage tout le milieu technologique du net.

Ce qui a surpris les télécom c’est qu’il y a une décorrélation entre la où les investissements sont faits et là où les bénéfices se font. Investir sur des réseaux hauts débits en France pour que ce soit les industries des serveurs web des US qui margent est une torture pour France Telecom, qui dénonce la « stratégie du coucou » de ces acteurs.

4. L’internet des objets.

Quand on évoque l’internet des objets, il y a plusieurs scénarios qui viennent à l’esprit, mais celui qui est le plus réel est le scénario porté par l’industrie de fabrication des biens et des denrées. Industrie que l’on désigne par l’acronyme CPG (Consumers Products & Goods), couplé à l’industrie du Retail (la grande distribution).

Autour des identifiants d’objets, code barre et surtout RFID, c’est une vision des marchandises en réseau qui se met en place, opérée par un consortium de normalisation (GS1) sur la base de technologies propriétaires du réseau EPCGlobal Network).

Cet internet des objets, auquel je préfère d’ailleurs le terme d’internet des marchandises, a une vision de l’internet toute particulière qui s’appuie sur un copier/coller de l’architecture d’internet : à la place d’un DNS (Domain Naming Service) on a un ONS (Object Naming Service), puis des service de recherche des services (Discovery services) qui sont plus ou moins les équivalents des moteurs de recherche sur le web, etc. Tous çà, c’est du propriétaire, et l’enjeu est clairement de rajouter une deuxième racine à l’internet pour se retrouver avec non plus un internet mais des internets. Ces nouveaux portant avec eux la logique et les intérêts des industriels de la consommation, c’est à dire le maintien d’un milieu technologique dissocié.

Lors de la préparation des Entretiens du nouveau monde industriel de 2009, Daniel Kaplan a utilisé la formule suivante qui synthétise bien l’enjeu :

« est-ce que l’internet va s’industrialiser ou est-ce que l’industrie va s’internetiser ? ».

*

On peut parier que ces attaques n’entameront pas l’effet de réseau et l’audience qu’a gagné le net. Pourtant, rien n’est joué car la bataille qui a commencé est une bataille pour un nouveau modèle industriel : aura-t-on un modèle contributif qui mise sur l’intelligence collective ou le maintien d’un modèle de service dissocié ?
La plupart des acteurs économiques actuels peuvent, à tout moment, être confrontés à la nécessité de se retrouver à défendre une rente de situation vis à vis de la gestation qui est en cours, personne n’est à l’abri. Or, pour tout acteur industriel de taille, il est toujours tentant de mettre son argent en premier lieu dans le marketing et lobbying afin de maintenir artificiellement un modèle quaduc, plutôt que de prendre à bras le corps les changements et les opportunités qui se présentent.


» Article initialement publié sur www.christian-faure.net

]]>
http://owni.fr/2009/11/24/menaces-a-l%e2%80%99encontre-du-net/feed/ 3
Une échelle pour le web http://owni.fr/2009/08/28/une-echelle-pour-le-web/ http://owni.fr/2009/08/28/une-echelle-pour-le-web/#comments Fri, 28 Aug 2009 14:19:21 +0000 Nadia Tiourtite http://owni.fr/?p=2916

Charlene Li avait produit en 2006 une échelle des contributions qui dressaient une typologie des différents acteurs, et mode d’action : créateurs, critiques, collecteurs, simples membres, inactifs…

echelle 2006_Forrester

.On y découvrait ou confirmait que les sufers inactifs formaient le gros du bataillon.  Cette ‘échelle constituait une parfaite grille opérationnelle, pour équilibrer les contenus de manière à « engager » l’ensemble des visiteurs d’un site, chacun à leur manière.

Je me réjouis donc de découvrir sa version mise à jour :

Echelle des contributions _Forrester 2009

Premier constat : les actions disponibles pour chacun des types d’internautes se sont étoffés.

La catégorie Membres ( « Joiners » ) ne se contente plus de consommer les contenus des réseaux sociaux, mais elle y met à jour son profil. Une démarche déjà plus active.

La catégorie Spectateurs ne se contente plus de lire des blogs, ou d’écouter des podcasts, mais part à la recherche des avis et commentaires des autres internautes. Si elle ne participe pas, elle est beaucoup plus immergée dans le contenu participatif.

On voit bien que l’échelle a toujours comme formidable avantage de constituer une belle grille pour composer un contenu engageant.

D’autant que les inactifs ont fondu en 3 ans si on croit les données mises à jour par Forrester :

etat des participations_Forrester

Clairement, Facebook, Flickr, Twitter, Youtube… ont fait de la participation sur le web un geste banal de culture populaire…

Une lettre à la poste …..Un statut sur Facebook…un tweet…une photo en partage sur Flickr…

—-

Article de Nadia Tiourtite intialement publié sur Knockin ]]> http://owni.fr/2009/08/28/une-echelle-pour-le-web/feed/ 1 Participation Culture, Creativity And Social Change (Angl.) http://owni.fr/2009/05/04/participation-culture-creativity-and-social-change-angl/ http://owni.fr/2009/05/04/participation-culture-creativity-and-social-change-angl/#comments Mon, 04 May 2009 15:21:48 +0000 Aurélien Fache http://owni.fr/?p=709 Cliquer ici pour voir la vidéo.

via http://www.freshcreation.com/

]]>
http://owni.fr/2009/05/04/participation-culture-creativity-and-social-change-angl/feed/ 0