OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 The Weekly Best #11: Sélection des Aaaliens & Best-of d’Owni /-) http://owni.fr/2010/02/26/the-weeklybest-11-selection-aaaliens-bestof-owni/ http://owni.fr/2010/02/26/the-weeklybest-11-selection-aaaliens-bestof-owni/#comments Fri, 26 Feb 2010 15:47:35 +0000 Admin http://owni.fr/?p=9091 flying

Ces rdv sont trop rares et les bonnes résolutions trop rarement tenues! Ce billet est donc d’une densité exceptionnelle pour ce 11° #Weeklybest .

Nous vous proposons ici un best-of éditorialisé des articles les plus lus et et les plus partagés sur Aaaliens depuis près de deux mois, ainsi que les dix articles les plus lus sur la soucoupe ces dernières semaines. Détachez vos ceintures – bon surf /-)

#Aaaliens :

Journalisme

Bilan 2009, perspectives 2010

2009 aura consacré les réseaux sociaux comme de nouveaux médias de masse, et l’arrivée de l’Internet sur soi (et non plus seulement chez soi), tandis que les médias traditionnels restaient sur la défensive.

2010 devrait confirmer l’essor de l’information en mobilité (smart phones, tablette Apple, lecteurs ebook & encre électronique, téléphones Google….), du journalisme en temps réel avec recours à la géolocalisation et à la visualisation de données, mais aussi voir se développer de nombreuses nouvelles petites unités éditoriales. Côté médias classiques, le payant sur le web va être testé une nouvelle fois, sur fond d’alliances plus nombreuses entre anciens frères ennemis. Parions aussi qu’un vif débat autour de l’utilisation des données personnelles va enfin surgir.

Pourquoi les hebdos parient sur le Net

Le principal défi reste cependant de se distinguer dans l’univers bouillonnant des sites d’informations
Ces sites d’information, gratuits et basés sur la publicité, sont toujours sources de pertes pour leurs maisons mères. De nouveaux modèles économiques sont à l’étude, mais les hésitations se font sentir.

La presse hexagonale regarde passer l’ innovation technologique

Depuis les débuts de la numérisation massive, les industries françaises de contenus – musique, presse, édition, vidéo – regardent passer les innovations en ruminant de l’anti-américanisme primaire et en gémissant sur l’indifférence que les audiences – le peuple, en somme – osent manifester à l’égard de leur offre fade et monotone.
Elles ont contribué au torpillage du réseau français Cyclades qui, en 1978, intéressait énormément les pionniers américains d’internet (1). Elles n’ont pas vu arriver le CD audio, donc le DVD, preuves palpables que tout est numérisable. Elles n’ont pas vu arriver l’ADSL. Elles n’ont pas vu arriver le MP3. Elles n’ont rien compris à Napster. Elles n’ont pas vu arriver Google. Elles n’ont pas vu arriver Youtube. Elles ne voient pas ce qu’auraient pu leur apporter les lecteurs et tablettes électroniques…

Le futur des magazines sur iPad

“La tablette d’Apple bouleversera-t-elle le monde de l’édition ? L’attention s’est surtout tournée vers les livres et quotidiens. Mais il me semble que ce sont les magazines qui seront les plus transformés par l’interface.”

Cliquer ici pour voir la vidéo.

Wired version iPad

Personne ne pense un seul instant qu’il devrait payer pour son journal

Entre vouloir faire payer l’information à l’internaute et y parvenir, il y a un pas. Il ne pourra s’agir que de revenus complémentaires. Déjà, les médias de masse ont toujours été financés en partie par la publicité et l’impôt. Et il y a incompatibilité entre l’information sur le web et le payant. Les groupes de média essayent de s”ortir d’un modèle totalement « ouvert » et hyper-compétitif, ou le « gratuit » est dominant, pour se construire des refuges, des niches, où ils pourront contrôler l’accès et le mode de paiement (modalités et montant).”

Séisme, mensonges et vidéo

Intox, mode d’emploi. D’un côté, des individus réactifs et fin connaisseurs du web. De l’autre, des journalistes pressés et mal formés à la vérification en ligne. La vidéo présentée par des médias comme celle de “l’ambassade de France à Haïti pendant le tremblement de terre”, capturée à la va-vite sur des plateformes, passe pour un cas d’école.

“L’avenir de la presse est dans les réseaux” par Jeff Jarvis / video – fr

À l’heure d’Internet, l’erreur des médias est de vouloir préserver leur ancien modèle économique, estime le blogueur Jeff Jarvis. Celui-ci préconise la mise en place d’un nouveau webjournalisme, basé sur la sélection et l’enrichissement de contenus. Un entretien majeur, en français / et qui en éclairera plus d’un sur ce que nous sommes en train de monter /-)

2056874722_49defbc5b6_o

“Les effroyables imposteurs” sur Arte, Hadopi, Loppsi2: la revanche des anti-Internet

“Les journalistes seraient plus inspirés de trouver leur place dans ce nouvel écosystème plutôt que de faire perdre l’argent à la télévision publique à tenter de démontrer avec des ficelles aussi grosses que des gazoducs que le web est dangereux.
Ils devraient la jouer “Journalistes+amateurs” plutôt que “journalistes contre amateurs”.
Se battre contre l’effroyable amateur en brandissant le sceau divin de sa carte de presse, ce n’est pas à l’honneur d’une profession qui, au fil du temps, a toujours sur prouver qu’elle était capable de s’adapter au bouleversement permanent du monde et des usages.”

Les Français commencent à lire leurs journaux sur l’iPhone

Comme sur Internet, l’enjeu est désormais de monétiser cette audience.

La culture populaire à l’abordage des sites d’infos français

Si la ligne éditoriale d’un site d’infos et les goûts des internautes ne coïncident pas toujours, il y a au moins une chose qui fait l’unanimité. C’est gagné quand l’article véhicule ou suscite une émotion, comme le montre cette étude sur les articles les plus envoyés du New York Times. Et cela reste valable même si l’article parle de cosmologie.

En anglais

BBC tells news staff to embrace social media or leave

BBC journalists must keep up with technological change – or leave, the director of BBC Global News Peter Horrocks says.

Demand Media May Be Bad for Social Media, but Not for Journalism

Production of SEO optimized content is not just a matter of “gaming” Google; It plays to the notion of tweaking the purpose of social media for marketing. In this, Demand is also neutral. Demand’s intention is not to trick consumers of corporate social media efforts into believing someone’s there to listen to them. Rather, Demand’s intent is driven by the social media plan of the corporation that commissions the content.

For newspapers, Demand’s edited, optimized content could be beneficial. As newspapers continue to downsize, many will not be able to afford freelancers for the supplemental publications that have been helping some newspapers to stay afloat. If a newspaper receives edited, optimized evergreen content at reasonable cost it will not need to end supplemental publications.

There is no new revenue model for journalism

There are three ways – and only three ways – that publishers can make money from their content: 1. Direct purchases, such as subscriptions, copy sales and tickets 2. Advertising 3. Donations, including direct contributions and grant funding.

Société numérique

3410613401_64be710cc3_o

Le monde de la culture sombre-t-il dans la diabolisation de Google et de l’Internet?

“Tous ces éléments mis ensemble manifestent l’angoisse presque désespérée avec laquelle les acteurs de la Culture en France accueillent la révolution numérique. Son extension progressive à chacun des secteurs concernés a été vécue comme une montée progressive des périls. Elle touche aujourd’hui le dernier bastion, le coeur sacré du temple culturel : le livre et cela n’est pas sans importance pour expliquer la violence des réactions actuelles qui, de l’indifférence et du mépris semblent évoluer maintenant vers la haine.”

Les blogs “extimes” : analyse sociologique de l’interactivité des blogs

Le premier objectif de cet article est de mieux comprendre les motivations initiales des blogueurs de blogs personnels.Le second est plus fondamentalement d’expliquer la perception globalement positive qu’ont les blogueurs des réactions des internautes. Finalement, l’engouement que cette nouvelle activité suscite fait ressortir quatre types de motivations : témoigner, dévoiler sa personnalité (éventuellement créative), donner son avis, écrire. Ainsi, le succès des blogs extimes tient alors en partie à leur capacité à prendre en charge des besoins d’expression variés dans la population. Mais il tient aussi au caractère jugé « valorisant », « enrichissant » des réactions reçues par les blogueurs à la lecture de leurs billets.

Web : Les adolescents se détournent des blogs

“Aux Etats-Unis, le nombre de jeunes de 12 à 17 ans tenant un blog a été divisé par deux depuis 2006. Ils préfèrent les mises à jour de statuts sur Facebook, mais ignorent Twitter.”

Les surprises des pratiques des 8-18 ans

Jean-Michel Salaün revient sur une étude de la Kaiser Family Foundation sur les pratiques des médias des 8-18 ans aux Etats-Unis. Le temps d’exposition aux médias reste toujours élevé (4h29 en moyenne en 2009) au profit de la télé surtout. Télé pour laquelle si la pratique diminue, le visionnage différé augmente.

Les jeunes et les médias : un stagiaire du Figaro répond à Morgan Stanley

“Toute la City avait tremblé, cet été, après la publication par Morgan Stanley du rapport d’un de ses jeunes stagiaires, Matthew Robson, 15 ans et 7 mois, sur la manière dont les jeunes consomment les médias. Une de ses trouvailles édifiantes – les adolescents n’utilisent pas Twitter – avait fait douter les plus sérieux financiers de la pertinence de ce service.”

Education : Facebook doit entrer à l’école

Comment les enseignants peuvent-ils introduire les réseaux sociaux dans la salle de classe ? Pour commencer, les jeunes peuvent parler de ce qu’ils font sur Facebook et cie, présenter les façons dont ils opèrent des connexions entre eux, et partager les vidéos et les logiciels qu’ils ont créés. Une fois la conversation engagée, les enseignants identifient quels étudiants ne participent pas et doivent trouver les façons d’accroître la capacité d’implication de ces étudiants pour les mettre à niveau. Les enseignants peuvent gérer le projet en sélectionnant le contenu et les conversations les plus intéressantes et en les intégrant dans les troncs communs du curriculum. Si un étudiant a créé une entrée sur Wikipedia pour un groupe de musique ou une équipe sportive locale, d’autres pourraient travailler en équipe pour réviser sa contribution ou pour l’incorporer dans un projet plus large sur l’histoire locale.

La génération « post-micro »

La génération des digital natives n’est pas si à l’aise que cela avec l’informatique, explique Jean-Noël Lafargue, qui voit arriver des “étudiants « post-micro-informatique », relativement malhabiles face aux logiciels bureautiques ou de création, auxquels ils ont pourtant eu accès au collège.” Cette nouvelle génération, à l’image de celle que pointait du doigt l’étude sur les jeunes off-line et la fracture numérique, publiée récemment par la Fondation Travail et Technologie de Namur, a une connaissance de l’informatique limitée aux outils de pure récréation. Pour Jean-Noël Lafargue : “Les outils cessent d’être des vecteurs d’émancipation lorsqu’on n’en a aucune maîtrise.”

Facebook comme bac à sable

L’ubiquité, la toute puissance, l’unité enfin accomplie, la victoire contre les instances parentales, la liberté enfin retrouvée, le contact permanent avec les « bons » objets.. Mais Facebook est juste un bac à sable et les châteaux de sable que nous y construisons ne nous appartiennent pas. Tout ce que nous y produisons est tributaire des outils que Facebook nous donne.

4300931777_586f7f1c9f_o

Comment les nouvelles règles de Facebook vont modifier le comportement des utilisateurs

Si vous êtes utilisateur de Facebook (et il y a toutes les chances pour que vous le soyez, comme 15 millions de Français) alors il y a deux choses que vous devez savoir :

Vous êtes propriétaire de vos données personnelles mais Facebook se réserve le droit de les utiliser à sa guise (cf. les nouvelles CGU : Facebook’s Great Betrayal). Si vous ne modifiez pas les paramètres de confidentialité, vos données personnelles sont maintenant accessibles à tous et indexées dans Google. Oui vous avez bien lu : Facebook n’est officiellement plus un réseau social fermé mais une plateforme sociale ouverte où n’importe quel internaute peut parcourir votre profil et les informations qui y sont affichées.

Vie privée : le point de vue des “petits cons”

Pour Josh Freed, célèbre éditorialiste canadien, c’est la plus importante fracture générationnelle depuis des décennies, qu’il résume ainsi : d’un côté, nous avons la “génération des parents”, de l’autre, la “génération des transparents”.

La vie privée n’est pas ce que l’on croit

Je vais encore une fois jouer les vieux cons, mais je trouve parfaitement superflue l’agitation actuelle autour de ce qui serait la fin de la vie privée.

Les médias sociaux et le décès de Lhasa de Sela

La frontière entre la sphère publique et la sphère privée est flexible et mince. Les gens qui utilisent les médias sociaux n’ont pas encore le réflexe de tenir compte du fait que si leur profil est ouvert, ça devient accessible publiquement. Même avec un petit nombre de contact dans ses réseaux, une “fuite” peut arriver très rapidement. Je constate qu’il y a le besoin fort de l’humain de s’exprimer et de partager ses émotions avec ses proches. Dans ce cas-ci, les deux statuts sur Facebook ont été fait sur la sphère publique parce que les profils étaient libres d’accès. Dans le cas de Mike Pincus, il avait un réseau de 29 amis, alors que Jules Beckman avais un réseau de 318 amis. Ainsi, l’effet viral de l’information et de la rumeur était déjà enclenché. Par la suite, l’information est passée dans l’univers de Twitter et en français. De là est apparue cette explosion de la nouvelle et la création de la rumeur qui est présentée plus haut.

Le Vatican évangélise le “continent digital”

2009 aura donc marqué un tournant dans l’histoire digitale du Vatican, mais le plus dur reste à faire : l’évangélisation du continent digital, tout comme à l’époque des missionnaires, prendra beaucoup de temps. L’Eglise en a conscience et s’engage dans une stratégie de petits pas qui ne fait pas peur à une institution séculaire. Mgr di Falco la résume en quelques mots : “Pour terminer, permettez-moi de citer un écrivain français, Jules Renard : « Quelques gouttes de rosée sur une toile d?araignée, et voilà une rivière de diamants. » Puissent les quelques gouttes de rosées que nous déposons sur l?immense toile internet la transfigurer aux yeux de tous en rivière de diamants”

Le flux – NT2

Le laboratoire NT2 vient de livrer une intéressante introduction au concept de flux, plus particulièrement dans l’art hypermédias. Mais ceux qui s’intéressent au sujet pourront y puiser bien des références, dans ce flux, concepteur fondateur de la culture web.

danah boyd : Ce qu’implique de vivre dans un monde de flux

L’article revient aussi sur la conférence de danah boyd au Web 2.0 : d’accord avec JM Salaun en commentaires qui estime qu’il y a [peut y avoir] contresens dans sa perception que “Dans le modèle de la distribution de l’attention en réseau, il y a encore une forme de distribution qui ne passe pas directement par les créateurs, mais par d’autres intermédiaires?”. Retour aussi sur son expérience de backchaneling via le mur Twitter public (twitterwall) durant sa conférence : la vidéo ne montre pas grand chose. Le lynchage en ligne par la foule sur Twitter serait baptisé “Tweckle” par Marc Parry…Hubert Guillaud appelle très justement à la mise en place d’une sorte de savoir-vivre ou faire dans ce type de rencontre “Il faut mettre en scène la rencontre entre le back et le front channel”

danah boyd : “Voyez-vous ce que je vois?”

Puisque nous réfléchissons à la société numérique que nous sommes en train de créer, je vous invite à réfléchir à la visibilité. Que pouvez-vous voir que vous ne pouviez pas voir avant ? Quelles réactions cela provoque en vous ? Et qu’allez-vous faire à ce sujet ? Il est peut être temps pour nous de nous colleter à la visibilité et de prendre un moment pour regarder. Prenez un moment pour voir. Et, plus important que tout, prenez un moment pour agir.

Secousses syntaxiques et tremblements motorisés : Google, Twitter et Haïti.

Face à la catastrophe de Haïti, retour sur les logiques en cours sur Google et sur Twitter qui renvoie à la structuration de l’information.

Ingénieries de la sérendipité

Quels sont les procédés de la sérendipité, ces découvertes que l’on fait sans s’y attendre, en se baladant sur la Toile ?

Twitter ou la société d’adoration mutuelle

“Dans cette production tous azimuts de contenus par tout un chacun est surgi un phénomène tout particulier avec des plateformes de réseautage social comme le blogue, Twitter et Facebook: la diffusion de soi pour obtenir la reconnaissance de soi. Ces outils sont de fantastiques machines de promotion de soi. Et les gens ne se gênent surtout pas pour les utiliser, et c’est très bien ainsi. C’est à qui fera le plus possible la promotion de lui-même afin de rejoindre un public de « suiveurs » et d’admirateurs. Seth Godin, quant à lui, appelle ça votre « tribu ». (…) Une fois que la tribu est constituée, se développe alors une société d’adoration mutuelle.”

2424995848_bdb1768987_b

L’Internet comme miroir des exclusions

Internet une “merveilleuse” méritocratie ? Pas vraiment expliquait danah boyd au dernier Personal Democracy Forum, en montrant comment la répartition des populations américaines sur MySpace et Facebook relève de mécanismes d’exclusion sociale. Facebook s’est peuplé depuis les universités et les grandes écoles au détriment de MySpace qui rapidement été ostracisé, à la manière des quartiers de banlieue. Au final, les deux espaces s’ignorent totalement. Pour danah boyd, il est clair que l’internet est le reflet de nos sociétés, que c’est un espace public qui appartient d’abord aux classes dominantes. Etre sur un réseau social c’est indiquer à quelle population on s’intéresse et à laquelle on ne s’intéresse pas.

Soyons sérieux, jouons ! (1/5) : Prendre le jeu au sérieux

L’actuelle vogue des “jeux sérieux” doit beaucoup à la montée en puissance des ordinateurs et à la perfection des simulations. Du coup, le jeu sérieux quitte ”école pour investir d’autres domaines. L’entreprise, bien sûr, mais aussi la santé, voire l’action militante, car certains de ces jeux ont moins pour ambition d’éduquer sur un sujet que faire passer des idées : c’est ce qu’on appelle les “jeux persuasifs”.

Mais le progrès technologique ne résout toujours pas la difficulté, le paradoxe du “jeu sérieux” : une simulation n’est pas un jeu, comme nous le rappelle Second Life ! Or, la dimension ludique reste nécessaire pour permettre l’immersion : on ne s’investira pas dans la meilleure des simulations si l’on s’y ennuie à mourir.

Google Chrome : les 10 meilleures extensions pour les blogueurs

Comme son titre l’indique.

Politique

menottes_pour_enfants1

Hadopi, Loppsi: les censeurs du Net s’organisent

Il eut été plus juste et plus rassurant, touchant au domaine des libertés numériques et de l’usage d’Internet, de commencer par garantir les droits des internautes. Ce n’est pas le parti pris par nos gouvernants…

La disparition du secrétariat d’État à l’Economie numérique est-elle programmée ?

Derrière la rumeur, un bilan intéressant, car contrasté, du passage de NKM à l’Economie numérique.

Les solutions pour contourner Hadopi de plus en plus qualitatives

Comment contourner Hadopi ? Le ReadWriteWeb liste les solutions et souligne que la mutation des usages est déjà en cours et qu’elle ne va toujours pas se faire au profit des auteurs et des artistes. Hélas.

Réseaux sociaux politiques : tout le monde veut son MyBarackObama.com

Nicolas Vanbremeersch fait le point sur la floraison des sites politiques sociaux à la veille des régionales : “Les créateurs de possibles, par son ignorance de la sociabilité, et la Coopol, par sa fermeture, ignorent que l’important est ailleurs. Il est là : sur le web non comme outil d’organisation, mais comme territoire réel, comme lieu de rencontre, de circulation des idées, de partage, de mobilisations de pair à pair, sans gros site qui nous mâche le travail.”

Economie

Deezer, ou les raisons d’un beau gâchis

“L’avenir du streaming ne passe manifestement pas par le Web 2.0 mais, au contraire, par la fourniture d’un juke-box logiciel léger, puissant et ergonomique. Apple a déjà montré la voix avec iTunes. Spotify ne fait que confirmer cette tendance de fond. Jonathan Benassaya ne pouvait pas ne pas l’avoir perçu. Mais avait-il seulement les moyens de changer de stratégie ? La réponse est non.”

Neo-experts, post-gourous et wannabe consultants digitaux

Vous aussi ?! Alors pourquoi ne pas vous renseigner sur l’expert digital ou l’agence avec qui vous allez bosser ?

* Un expert en blog ? Il est où son blog ? Il fonctionne ? Combien de commentaires par articles, combien de lecteurs estimés ? Depuis combien de temps existe-t-il ? A-t-il une véritable ligne rédactionnelle ou est-ce un blog “seo-oriented” ?
* Un expert Twitter ? Combien de followers ? 300 ? Ben dites donc, ça doit être un expert de niche ou alors il se fout de votre g*. Lisez Self-Proclaimed Social Media Gurus on Twitter Multiplying Like Rabbits.
* Un expert en e-notoriété ? Googlisez son nom et analysez les résultats. Sa e-réputation se doit être nickel. Et ça vous permet de tester la longevité du bonhomme. Quoi ? Seulement 3000 résultats ? Il a découvert le web avant-hier ou quoi ?

Devenir influent ?

L’influence s’adapte à la loi du média : d’une stratégie du message standardisé, massif et persuasif à de multiples tactiques d’alliance, réseaux, reprise, réputation, adaptées aux configurations changeantes du nouveau Web.

Sciences

2703681565_4f27bfe3b8_o

Les vertiges de la technoscience. Façonner le monde atome par atome

” Pour B. Bensaude-Vincent, la technoscience est bien plus que l’avènement d’un nouveau champ pour la connaissance, c’est un véritable changement de régime, qui nous appelle à réévaluer toutes les notions et les distinctions sur lesquelles s’est fondée la découverte scientifique. Mais on peut penser qu’une telle manière de juger de l’histoire des sciences cède trop facilement aux mirages du postmodernisme”…Transhumanisme, nanotechnologies, convergence…

> Le best-of d’Owni (via PostRank) :

> Le dernier Best-Of publié sur la soucoupe

> Tous les (trops rares ;) ) WeeklyBest

> Les Top d’Aaaliens (fonctionne sur n’importe quel mot-clef)

> Le prochain WeryBest intégrera la sélection de la rédaction /-)

> Vous souhaitez partager un lien ? n’hésitez pas à le faire ici en commentaire !

Pour les fans : une page de photos volées qui sera actualisée en temps-réel, photos d’un chantier de design auquel nous vous inviterons ; celui de la V2 d’Owni !

Crédits Images (dans l’ordre d’apparition)

[image CC Fesoj]

[image CC topgold]

[image CC laurenlemon]

[image CC Balakov]

[image CC Brajeshwar]

[image Copyright Geoffrey Dorne sur jaffiche.fr]

[image CC Belgapixel's]

]]>
http://owni.fr/2010/02/26/the-weeklybest-11-selection-aaaliens-bestof-owni/feed/ 0
On achève bien d’imprimer http://owni.fr/2010/02/08/on-acheve-bien-dimprimer/ http://owni.fr/2010/02/08/on-acheve-bien-dimprimer/#comments Mon, 08 Feb 2010 09:08:12 +0000 JCFeraud http://owni.fr/?p=7730

Les amis de la forêt qui n’ont pas pardonné à Gutenberg l’invention de la presse à imprimer en l’an de grâce 1440 peuvent dire merci à Internet. La révolution numérique est en train de mettre fin à la civilisation du papier en dématérialisant nos échanges à la vitesse de 100 megabits par seconde, bientôt beaucoup plus.Fax, lettres d’amour, cartes postales, déclarations de revenus, livres et journaux imprimés… Avant dix ans, peut-être moins, ces millions de tonnes de paperasse – que l’on s’efforce encore de recycler pour épargner ce qu’il reste de la Selva amazonienne et de nos forêts primaires européennes – seront reléguées au rayon des antiquités. Comme avant elle les tablettes d’argile de Babylone et Summer, les papyrus des pharaons, et les stelles de marbre gréco-romaines.

Avec l’incroyable boom des smartphones (Selon Gartner, 525 millions d’unités seront vendues en 2010, contre 179 millions en 2009 !) et l’avènement de la Sainte Tablette d’Apple (Gfk prévoit que la firme à la pomme devrait écouler 4 millions d’iPad dès cette année), l’humanité va en effet entrer dans l’ère de l’écran tactile portatif omniprésent. Regardez autour de vous : dans le métro, dans la rue, au bureau, le lecteur de “Libé” ou du “Monde” version papier se fait rare et vieillissant. Bientôt je serai le dernier des Mohicans avec quelques autres membres du club des nostalgiques de la presse old school. Résultat, la diffusion des quotidiens s’effrite inexorablement : encore – 3,9 % en 2009 pour l’ensemble des quotidiens nationaux selon les derniers chiffres de l’OJD, avec des pointes à – 10 % pour certains titres. D’ailleurs depuis que j’ai cédé à la pression du progrès et de la conformité, je feuillette plus distraitement mon canard préféré pour tapoter de plus en plus fréquemment sur l’écran de mon iPhone et faire défiler frénétiquement les news et les liens internet. Car comme d’autres confrères mutants, je suis devenu un TweetJournaliste accro à l’internet en temps réel. C’est ainsi…

Cela fera sans doute de la peine aux amoureux de la chose imprimée, mais cette dématérialisation de l’écrit est un mouvement inéluctable, l’une de ces révolutions technologiques qui pavent magistralement l’Histoire tous les deux ou trois siècles.

Il suffit d’observer le comportement média des moins de trente ans, cette génération de “digital native” a laquelle j’ai consacré ce récent billet : ils ne savent déjà plus ce qu’est un kiosque à journaux, ni un timbre poste et encore moins un fax… Et demain, hypnotisés par la multiplication des écrans, cette incroyable Bibliothèque d’Alexandrie numérique qu’est devenu le Web et cette merveilleuse fluidité du savoir à portée de clic, ils fréquenteront peut-être de moins en moins aussi les librairies. Avant dix ans, dans les pays développés, la chose imprimée deviendra peut-être paradoxalement un produit de luxe, une vitrine réservée à certains journaux élitistes comme “Le Monde” et “Les Echos” qui tireront des éditions limitées à quelques milliers d’exemplaires.

Nul besoin d’être grand clerc pour savoir que les médias diffuseront toute l’info (texte, son, vidéo HD, 3D…) en temps réel sur des terminaux nomades de plus en plus légers et ergonomiques, qui seront comme un prolongement cybernétique de nous même. Cete révolution est déjà en marche sur l’iPhone et les Blackberry. Dans l’édition, idem : le papier sera un jour réservé aux premiers tirages de la rentrée littéraire et aux beaux livres, l’essentiel de la production étant disponible sur les “readers” et autres tablettes numériques… On téléchargera bientôt le dernier opus noir et déjanté de l’immense James Ellroy comme on commande une pizza.Sauf à réserver une belle version reliée vendue trois fois plus cher. C’est inéluctable avec le cyberlibraire Amazon qui pousse pour faire tomber le prix moyen du livre à 9,99 dollars, de la même manière qu’Apple a imposé la chanson à 0,99 cents sur son magasin iTunes.

Car derrière le bel argumentaire “Green” qui monte qui monte“Hou c’est pas bien tout ce formidable gaspillage de papier qui menace le poumon de la Terre que sont nos forêts” - la logique économique de la dématérialisation est bien plus implacable. Imaginez : quand on achète un quotidien 1,30 euros, près de 80 centimes partent en papier, coûts d’impression et de distribution. L’équation est la même pour le livre : 70 % du prix d’un ouvrage sont aujourd’hui captés par la chaîne qui l’amène jusqu’à l’étal du libraire (voir ce joli graphique sur le site du Syndicat national de l’édition) ! En se passant de cette relique millénaire que tend à devenir le papier, les industries de la presse et de l’édition peuvent espérer d’énormes gains de productivité et de belles marges retrouvées…à condition de trouver enfin un modèle économique online. Evidemment, il y aura encore de la casse sociale : des centaines de milliers d’emplois à travers le monde dans l’industrie du papier, l’imprimerie, la presse et l’édition disparaîtront dans les oubliettes du “progrès”.

Ce n’est pas pour rien que le “puissant” syndicat du Livre CGT, qui n’est déjà plus que l’ombre de lui-même, s’accroche à son statut et à ses postes. Un combat désespéré et perdu d’avance qui contribue à plomber les comptes des journaux. Mais c’est ainsi que meurt un vieux métier qui fut longtemps celui de l’aristocratie de la classe ouvrière.

Mais avant de profiter de la dématérialisation, les médias et l’édition devront bien sûr convaincre le consommateur numérique qu’il faut payer pour voir quand la culture de la gratuité est devenu la norme sur internet. Et là pour le moment c’est une autre histoire. Pour la majorité des lecteurs, le kiosque à journaux s’appelle maintenant Google News et il reste pour l’heure totalement gratuit.

La fameuse Tablette iPad d’Apple pourrait contribuer à cette évangélisation, tout comme l’iPod et l’iPhone ont amené des millions de fans de musique à délaisser les sites “peer to peer” et à acheter leur musique en ligne en toute légalité.

La pression mise par Citizen Murdoch et d’autres pourrait aussi changer la donne si la presse parvient à faire front commun contre “le vampire Google” comme l’appelle Rupert : menacés d’un boycott massif de la part des journaux au profit de Bing (Microsoft) ou d’un autre, le géant de l’internet acceptera peut-être un jour de reverser une sorte de “licence globale” à la presse en échange de la mise en ligne de ses articles. Assis sur un tas d’or publicitaire, les maîtres de l’internet seront invités à partager – un tout petit peu – pour que vivent les industries culturelles. Ce ne serait pas scandaleux dans la mesure où ils vivent plutôt grassement des contenus auxquels ils donnent certes accès, mais sans verser un cent pour les produire.

Pour le vieux monde de l’imprimé, il y a en tous cas urgence à se défaire peu à peu de ses derniers oripeaux de papier. Question de survie, plus que d’écologie. Car l’homo numeris d’aujourd’hui en pince bien moins aujourd’hui pour la sève des arbres que pour le flux d’informations qui défile sur l’écran de son smartphone… Google construit d’ailleurs déjà son meilleur monde numérisé sur les ruines de l’imprimé : début 2009, la firme californienne a carrément racheté une usine de pâte à papier au finlandais Stora Enso pour la modique somme de 50 millions de dollars… Pas pour alimenter les rotatives des « Echos » ou fournir les pages du prochain Goncourt. Non, cette fabrique située au milieu des forêts septentrionales de Summa Mile a été rasée pour construire un nouveau « data center » ! L’une de ces fameuses « fermes » de serveurs informatiques que Google essaime aux quatre coins de la planète pour indexer sans relâche la Toile et faire tourner son moteur de recherche à plein régime. C’est ce qui s’appelle avoir le sens du symbole et de l’Histoire avec un grand H. Ce bon vieux Gutenberg doit évidemment se retourner dans sa tombe, mais on n’arrête pas le progrès…

Jean-Christophe Féraud

]]>
http://owni.fr/2010/02/08/on-acheve-bien-dimprimer/feed/ 3
#huisclosnet ou la théorie du serpent qui se mord la quéquette http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/ http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/#comments Thu, 04 Feb 2010 15:27:41 +0000 Emgenius http://owni.fr/?p=7666

Ainsi donc, la crème, le gratin, le überpanier de la presse francophone vient de rentrer dans un loft africain situé au beau milieu du Périgord. Ceci afin de prouver que ces oies blanches numériques…. ben pour prouver quoi en fait….

1) option 1: Prouver que la vie c’est trop bien avec Twitter et Facebook et qu’on n’est vraiment que des gens trop négatifs à encore acheter des magazines et des journaux quand il suffirait de quelques réseaux sociaux super informés pour qu’on satisfasse notre boulimie informative…. Mouais j’ai un doute quant à penser que les radios francophones jouent à se tirer une balle dans le pied

2) option 2: Prouver que la vie avec Twitter et facebook c’est super bien, mais que rien ne vaut quand même un bon journaliste qui trie l’info valide ses sources et est capable de fournir une information de qualité LUI. AAAh là je crois que je peux comprendre qui finance cette expérience.

3) Option 3: Nour-Eddine Zidane ça faisait super longtemps qu’il avait envie de voir son pote belge alors il a monté un gros pipeau avec quelques potes pour s’enfermer dans un gîte à la cambrousse à fumer des clopes et boire des glutes. Et même tiens chiche, qu’on est capables de se faire rembourser le TGV de David Abiker…. Moi c’est le postulat qui me convainc le plus.

Parce que sérieusement…. Comme l’a très bien résumé Damien Van Achter (que je léchouille langoureusement ici) on ne peut pas parler de “Twitter” et “Facebook” comme de médias à part entière. Ce sont des vecteurs de médias. C’est ce constat de base, compris de tout twittonaute, qui semble avoir fait défaut aux promoteurs de l’émission très très médiatisée (en gros c’est la ferme de TF1 à la sauce Radio francophone)

Je ne comprends pas à quoi sert ce genre d’expérience. Finir la semaine au pays des oies  en déduisant “le net c’est bien mais c’est brouillon, heureusement qu’il y a des journalistes pour dépiauter l’actualité” a un côté “rétro” qui me choque. (quoique si on me paie une semaine à Péta avec ma famille je dois pouvoir arriver à la même conclusion). C’est le genre d’analyse qui conduit à la duplication perpétuelle des mêmes modèles de communication, motive le pré-carré de la presse payante dite “sérieuse” face aux internautes tocards, et permet d’éviter de se poser n’importe quelle question liée à la valeur du travail du journaliste dans le monde futur ou de l’intérêt même de l’organe de presse face à une montée éventuelle des “identités référentes et crédibles”. Quoi? tu doutes lecteur? tu penses que les journalistes enfermés n’ont pas ces “basses” motivations? Je te le prouve. Avec l’esprit provoc qui me caractérise, j’ai balancé à Nour-Eddine  en réponse à une question qu’il se posait suite au bruit consécutif au BOUM de Lille qu’il suffisait de relayer un bruit et que de toutes façons les journaleux, qui sont avertis par le même bruit, font ensuite le tri… pour me retrouver cité dans la chronique du journaliste, que par ailleurs je salue. C’était trop trop simple de manipuler un journaliste… il suffit de lui dire ce qu’il veut entendre ;-)

Alors oui c bien mais il en pense quoi l’Emgenius.

Ben plusieurs choses:

- 1/ que tout le monde entend parler de Twitter et facebook grâce à ce genre d’initiative.

Maintenant, avec le battage sur ces deux noms, genre même les têtes grises qui écoutent Stéphane Bern associeront nouvel internet à Twitter et Facebook. Quelque part c’est bien. Et c’est pas bien. C’est bien parce que maintenant tu peux dire en entretien d’embauche “oui je maîtrise les techniques de la gestion de communauté et d’information sur les réseaux facebook et Twitter” et comme il n’y a encore ni école, ni métrique; pour peu que tu te touches le menton en même temps avec un air salace, tu peux attraper un poste de community manager chez Areva. Qu’importe si tu es bon ou mauvais, efficace ou pas. Personne ne comprend encore vraiment le bénéfice qu’il y a à en retirer, tout le monde comprend qu’il “faut y être” ne fut-ce que pour pas apparaître plus ringard que les radios francophones ou que son voisin et pour avoir l’air d’une marque de jeune.

- 2/ qu’il y a encore un sacré boulot de pédagogie à faire dans les rédacs.

a) Euh les gars… personne ne se contente de Twitter et facebook pour l’analyse de l’info. A ce compte, Johnny Depp serait mort plusieurs années consécutives dans un accident de la route, parallèle à une explosion de Lille provoquée par Sim qui n’est pas mort lui dans l’incident; puisqu’il a été vu bras dessus bras dessous avec Michael Jackson dans une ruelle de Nancy.

b) Oui pourtant, au vu notamment des chroniques que j’entend de vous 5 sur les chaînes partenaires, vous arrivez à avoir une vue plus ou moins identique à nous autres, lambdas, qui arpentons le web et mangeons vos JT… ou qui lisons 20minutes dans le métro et regardons Morandini sur Direct8 (citer Morandini c’est bien, parce que ça énerve un journaliste en général). En fait on aurait du vous priver de smartphone, de journaux et de potes sur Twitter… Là ils auraient vu les internautes que c’est dur de trier une information…)

=> Monsieur Michu à la limite… il s’en tamponne de savoir si L’INFO elle provient d’un torchon pondu par des non journalistes sous payés, des blogueurs asservis, des lobbyistes patentés ou du cerveau d’un SciencePo maniaque de la plume. Et comme vous venez de le constater, ils arrivent à suivre “le fil d’info du monde”

=> La mission des médias dits “sérieux” avec pignon sur avenue ne devrait du coup plus être l’iINFORMATION (pour ça on peut s’en sortir tout seul ou avec des publireportages) mais bien le traitement de l’information, son ANALYSE, son déchiffrement, ses dossiers de fond, ses arcanes, ses coulisses se méandres. Or et c’est là un débat qu’on évoque assez peu dans vos expériences… les médias n’ont plus ou pas le temps de se prêter à ce genre d’analyse. Oui je sais ça fait mal à entendre. N’ont plus le temps, l’économie ou l’envie de garder un langage expert qui épaterait les bouffeurs de dépêches sous payés par les “Gratuits” autant que le Retwitter fou d’info au kilomètre. Quoi? #Merilestfou es-tu prêt à te dire… Pourtant j’affirme ce que je dis. Je me souviens avoir lu que la reine Fabiola était décédée, parce que l’agence Belga l’avait dit dans les dépêches… CQFD. Non? Essaye encore. Il est un domaine que je connais bien, puisqu’il m’emploie depuis près de 10 ans: la téléphonie mobile. Quand il m’arrive de lire un journal officiel évoquant une nouvelle technologie mobile ou high tech… je me surprend souvent à me dire que franchement le journaliste derrière n’a pas du avoir beaucoup de temps pour pondre son papier, pour se documenter, vulgariser. Et que pour un Walt Mossberg ou une Marie-Christine Beuth, il y a un paquet de gratte-papier qui sont eclipsés par des billets de qualité, spécialisés, produits par des blogueurs émérites, sur le sujet. A titre d’illustration on pourrait citer les multiples articles pro-Ipad lus récemment dans la presse (prompte à bénir un appareil qui propose un modèle économique pour la presse) écrits par des journalistes adeptes du POMME Q. Sérieusement j’ai lu bien plus d’analyse, de prospective, de réflexion pondérée sur moult blogs sérieux.

c) vous opposez perpétuellement Internet vs Journalistes comme s’il s’agissait de deux mondes imperméables… Or… C’est loin d’être le cas. Je n’ai pas encore lu d’étude qui en parle, mais je suis prêt à parier que dans la portion congrue de personnes qui produisent du contenu pour “le web” à destination de cette masse consommatrice que représente le reste du monde connecté: il y a un paquet de pigistes, de red chefs, de spécialistes des médias. Pour un Henry Michel combien d’Alex Hervaud?  On ne se refait pas. Quand on a décidé d’écrire pour vivre, c’est en général une passion qui devient un métier. On est d’abord communiquant avant de devenir journaliste. Du coup, à moins d’interdire à tout journaliste en exercice de produire des blogs persos, de travailler sous un pseudo sur le net… Il y aura toujours de Internautes infiltrés dans le monde des Journalistes (ça fait très CIA ma démonstration). Berk c’est sale.

Et que plutôt que de lutter, il vaut mieux non seulement s’en servir mais utiliser à la fois comme source à vérifier pour la remontée de dépèche avant la dépèche mais aussi comme méthode, technologie, outil de médias plus’ en prise avec le monde dans lequel ils vivent, plus globaux, plus réactifs et proches des “jeunes”. Pour illustrer mon propos par un a contrario je me permets de citer en me gaussant de l’expérience Fillon vs Twitter menée récemment par Europe 1 où le premier ministre n’a pas répondu à une seule question remontée par le hashtag # spontané des internautes et à privilégié un Twitter en mode cénacle fermé (arf un comble) de Twitterers influents > Pour la compréhension et la logique de l’outil participatif on repassera.

- 3/ Que les journalistes n’ont pas encore compris qu’ils n’ont pas forcément besoin de rédaction

Pour ne froisser personne… prenons un exemple à l’étranger et recitons Walt Mossberg. Depuis ‘91 il tient un deux colonnes dans le très sérieux Wall Street journal. Il est le geek de la boîte. Celui qu’on envoie faire du bisou à Sergeï Brin et avec qui Steve Jobs fait des paris sur le prix de l’iPad. Il est vieux, dégarni barbu et pertinent. Quand il apparaît quelque part, pas besoin de carte de presse: c’est Walt Mossberg. Pas Walt Mossberg du Wall Street Journal. Non. Juste Walt Mossberg. Le Walt Mossberg. Tu doutes? Tu penses que son affiliation à WSJ l’aide énormément. Ok je sors mon atout Robert Scoble l’évangeliste. Idem que Walt. Mais lui en plus il part avec le handicap d’avoir commencé en qualité d’employé de Microsoft… CQFD.

Si demain Walt Mossberg se mettait à bosser rémunéré par une boisson gazeuse ou si sa casquette se retrouvait typée d’un Swoosh… son avis serait-il moins pertinent sur la technologie? Colette Braeckman parlerait-elle moins bien de l’Afrique si elle quittait le Soir pour un portail citoyen payé par la publicité? Si elle vivait de conférences?

Puisqu’aujourd’hui le monde moderne a porté la people-isation à l’outrance, puisque les journaux sont devenus des “marques” et qu’on lit le Monde parce que c’est un gage de sérieux comme on lit Libération pour éviter de porter la même écharpe que Barbier qui nous va moins bien au teint (l’écharpe, pas Barbier), il est temps peut-être de penser à “people-iser” les spécialistes. De les transformer en marques personnelles communicantes sur un de leurs sujets de prédilection. De renverser les modèles économiques. C’est le Soir qui achèterait du Braeckman pour s’assurer un lectorat, c’est Loïc le Meur qui payerait une prestation à Presse-citron.net qui fait l’honneur de sa présence à Le Web. etc. etc.

Ne m’avancez pas l’argument du “oui mais alors ils seront à la solde des gens qui les paient” je vous répondrais qu’entre suvbvention publique et page de pub dans les Inrocks… jusque là personne ne s’est plaint. Puis je crois qu’un article sponsorisé se découvrira plus rapidement (cf. l’affaire Gonzague Dambricourt à la sortie de la websérie je sais plus quoi) qu’une personne sponsorisée pour faire l’article qu’il veut. Et si tu me crois pas…c’est le même prix.  On ne paierait plus un journaliste pour son papier dans un journal ou sur un média. Mais on paierait un journaliste pour son papier dans n’importe quel support + son image d’expert d’un sujet ou d’une façon de faire + sa présence qui apporte une valeur ajoutée à un produit ou un événement + la communication qu’il fait autour de son commanditaire ou du support pour lequel il travaille.

Oui certes, tous les journalistes n’auront pas valeur d’expert. Toutes les niches ne paieront pas. L’ancien modèle économique lectorat acheteur+publicité+subventions publiques sera encore l’usage pour les sujets à moins forte valeur marchande…

Il n’empêche qu’en tant que journaliste, je m’efforcerais de devenir spécialiste de mon sujet, et de mon image de marque sur le sujet. Pour qu’on dépasse la question du “journaliste = mieux qu’internet” pour arriver à “journaliste = se sert d’internet en source et en source de revenu personnel”. Le débat deviendra plutôt alors

“groupes Médias vs Journalistes, qui est le plus fort” ou “Vincent Glad vs Henry Michel, c’est qui qui fait le plus de pages vues? Lequel des deux nous garantit le meilleur lectorat et de vente d’encart pub dans la version papier?”

J’arrête. je vous épuise comme d’hab… Et je suis épuisé

Denis – Emgenius

» Article initialement publié sur emgenius.owni.fr

» Illustration de page d’accueil par tantek sur Flickr

]]>
http://owni.fr/2010/02/04/huisclosnet-ou-la-theorie-du-serpent-qui-se-mord-la-quequette/feed/ 2
Ingénieries de la sérendipité http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/ http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/#comments Thu, 04 Feb 2010 10:11:51 +0000 Olivier Ertzscheid http://owni.fr/?p=7639

AU COMMENCEMENT …

Cela ressemble à de la sérendipité, ça à la goût de la sérendipité … mais ce n’est pas nécessairement de la sérendipité. Historiquement, c’est Google qui fut le premier moteur de recherche à instrumentaliser un processus de fortuité, via le bouton “Feeling Lucky” (lequel n’a d’ailleurs rien à voir avec une quelconque sérendipité littérale, puisque ledit bouton se contente de vous amener sur le premier résultat renvoyé par le moteur de recherche). Comme nous l’expliquions en détail dans ce remarquable article co-écrit avec mes excellents collègues (:-), ce bouton est avant tout un argument marketing et un élément fondateur de la sémiotique Googléenne.

1998 : Sérendipité année zéro. Bref, depuis Google, et avec l’arrivée du web contributif, la sérendipité est aujourd’hui partout réellement présente et systématiquement agissante. Mais cette capacité à trouver de nouveaux amis en ligne, ces liens passionnants qui semblent surgir aléatoirement au détour d’un raccourcisseur d’URL sur Twitter sont-ils réellement de la sérendipité en action ? Voici quelques-unes des questions auxquelles ce billet va tenter d’apporter des réponses (ah ben tiens, je crois que c’est la 1ère fois que je fais une vraie introduction dans un billet :-)

Basiquement, la sérendipité désigne la capacité à trouver des informations qui n’étaient pas celles que l’on recherchait initialement mais qui vont cependant s’avérer utile pour résoudre le problème ou la question à l’origine de notre recherche, ou d’une recherche/d’un problème antérieur.

Sérendipité et SIC. Avant que je ne me ré-attaque au problème avec mes gentils camarades, c’est le vénérable Jacques Perriault qui avait (ré)introduit la notion de sérendipité dans le corpus des SIC (sciences de l’information et de la communication … enfin, plus souvent de la communication que de l’information, mais ceci est un autre débat …). Jacques Perriault donc, au tout début des années 2000, avec ce texte in fine ô combien programmatique : “Effet diligence, effet serendip et autres défis pour les sciences de l’information“.

Dans notre approche (celle de mes petits camarades et de moi-même), la sérendipité est un concept moteur pour penser à la fois les stratégies (machiniques) à l’oeuvre derrière l’infinité de l’arbre des possibles navigations du Web (comportements), ainsi que les stratégies mémorielles à court et moyen terme présidant à nos activités de recherche et d’accès à l’information (aspect cognitif). Soit la très sainte trinité suivante : machine – cognition – comportements (usages) qui conditionne tout un tas de choses, dont la sériation des différents phénomènes de sérendipité. Si la littérature francophone sur la sérendipité est relativement maigre, le concept est en revanche depuis longtemps très développé outre-atlantique, notamment, depuis la fin des années 60 dans les travaux d’Eugène Garfield, “père fondateur” de la bibliométrie qui développe le concept de “systematic serendipity” (notamment dans cet article “Systematic serendipity : Finding the Undiscovered Answers to Science Questions” .pdf).

Notons qu’il est à première vue assez paradoxal de retrouver l’essentiel de la littérature scientifique sur la sérendipité dans un champ disciplinaire – les études bibliométriques et scientométriques – qui a pour objectif de ramener dans la rationalité de modèles mathématiques tout ce qui pourrait de près ou de loin ressembler à de l’aléatoire et à du fortuit :-)

Sérendipité illustrée. La sérendipité dispose donc aujourd’hui de ses colloques, de ses théoriciens et historiens, de sa très sérieuse revue scientifique éponyme, de ses projets de recherche éponymes reposant sur la valeur prédictive d’icelle, de sa courbe mathématique, ses pédagogues éclairés (allez dévorer l’article de Patrick Pecatte : “Heuristique et Sérendipité : un exemple en images.“). Ou d’une sérendipité, l’autre.

Im-feeling-luckySerendip

Ayant déjà largement glosé sur la première de ces images (, , , mais aussi par là), la seconde image (découverte fortuitement ici grâce à la fréquentation – cette fois non-fortuite – de ce monsieur là) m’a semblé parfaitement illustrer la manière dont les SIC se doivent d’approcher la sérendipité. C’est à dire sans se priver d’un cadre anthropologique global mais en se focalisant sur les “artefacts” de la sérendipité.

CHAPITRE PREMIER / De la mécanique du rebond à la dynamique du surgissement : sérendipitéS.


Dans un ancien billet (Nov. 2005), je m’efforçais en ces termes de décrire l’évolution de nos modes de navigation :

» “les développements du (web 2.0 + Social software + RSS) nous emmèneraient vers un “troisième âge” de la navigation : après le browsing et le searching voici venu le temps du “subscribing”**. On ne navigue plus, on ne recherche plus, on s’abonne, on “souscrit”. Notons d’ailleurs que l’étymologie de ce dernier vocable est intéressante : “souscrire”, “sub-scribere”, littéralement “écrire en dessous”, à moins qu’il ne s’agisse d’écriture “sous autorité” : en agrégeant les discours écrits ou postés par d’autres, on est, de facto, placé “sous” une “autorité” qui n’est plus notre.
Car comment faire autrement que de “souscrire” à ces contenus qui ne sont plus “inscrits” ?

**Je vous épargne le Wilfing ou naviguerrance ou plus prosaïquement cyberglandouille.

Corrélons maintenant la hiérarchie précédente (Browsing => Searching => Subscribing) à une autre typologie :

» Désintermédiation : au “browsing” (littéralement “feuilletage”), correspond une logique de type “Watching” : je regarde, surveille, inspecte et parfois découvre de l’information, des contenus avec comme seuls fils conducteurs ceux de mon propre intérêt (= “je suis à la recherche de quelques chose”) et des stratégies cognitives que je suis capable de mettre en place au cours de ladite navigation

» Médiation : au “searching” (littéralement “recherche”), correspond une autre logique, en rupture complète avec la précédente, qui est celle du “matching”, c’est à dire de l’adéquation entre un ou plusieurs termes (ceux de ma recherche) et une ou plusieurs pages de contenus. Il y a donc, dans ce cas, recours explicite à une médiation machinique (celle des moteurs “prescripteurs”, l’algorithmie de ces derniers devenant le fil conducteur presqu’exclusif de mes pérégrinations sur le web)

» Ré-intermédiation : enfin, au “subscribing”, à cette souscription désormais si fréquente (grâce aux ingénieries spécifiques du web contributif, fils RSS notamment), correspond une dernière logique, là encore en rupture avec les précédentes, celle de ce que l’on pourrait qualifier de “floating” (littéralement “flottement”), une navigation flottante, c’est à dire non-orientée, ni par l’adéquation entre un besoin exprimé et des contenus y répondant (“searching”), ni par un parcours volontariste de recherche (“browsing”). Une navigation flottante s’appuyant sur les seuls remous de la houle des signalements effectués par d’autres, et avec comme seule cardinalité, comme seul “horizon” de navigation, le fait que j’aie (ou non) à un moment donné fait le choix d’agréger ces “autres” au sein de mon panoptique personnel**

(** par “panoptique personnel” comprendre ici l’ensemble des outils fonctionnant comme autant de tableaux de bords quotidiens nous permettant de nous informer du monde comme il va : Twitter, Facebook et mon agrégateur RSS sont ainsi les 3 composantes de base de mon panoptique personnel)
La boucle (si fréquente dans les SIC) permettant de passer d’un dispositif désintermédié (= sans intermédiaires) à un dispositif réintermédié (= incluant de nouvelles médiations, de nouveaux médiateurs) permet de caractériser, au sein du processus même de sérendipité, un changement de nature important : la logique du rebond, propre aux deux premières étapes, s’efface pour laisser place à une dynamique du surgissement, dont l’efficacité – réelle – n’en demeure pas moins entièrement conditionnée à nos choix initiaux (réagencés en permanence) des contenus ou des personnes agrégées dans notre panoptique personnel.

Soit l’occasion de reposer l’éternelle question de la poule et de l’oeuf :

» la pertinence (objective dans un contexte donné) de nos navigations aléatoires est-elle la conséquence de nos choix (subjectifs) initiaux en termes de réseaux d’affiliation et de souscription ?

» ou bien en est-elle la cause, c’est à dire bâtissons-nous nos réseaux d’affiliation et de souscription en fonction de la pertinence (subjective) des contenus pertinents (objectivables) que d’autres proposent à des communautés déjà constituées ?

Comme le disait Fox Mulder, autre éminent chercheur en SIC, “la vérité est ailleurs“, et probablement entre les deux. Une chose reste certaine, toute réintermédiation – a fortiori ouverte et/ou participative -  entraîne nécessairement et mécaniquement une part d’aléatoire, de sérendipité, et – pour autant que l’on soit convaincu de l’apport de cette part d’aléatoire – on serait assez bien inspiré de cesser de craindre les profondes et hétérogènes réintermédiations qui se pointent à l’horizon de l’édition, de la presse (et la presse en ligne), de la chaîne du livre, etc … pour au contraire s’en réjouir et accélérer d’autant les désintermédiations en cours comme autant de préalables parfois un peu douloureux mais pourtant si nécessaires et si urgents …

La “sérendipité contrôlée” de Madame Popova : “ça c’est kloug, Mme Popova. Pas sérendipité.” Un récent article des blogs du NYTimes parle de “sérendipité contrôlée” pour désigner je cite, ces personnes qui “filtrent des liens intéressants à destination de centaines d’inconnus pour épancher leur soif de curiosité“, citant l’exemple de Madame Popova :

» “Mrs. Popova uses a meticulously curated feed of Web sites and Twitter followers to find each day’s pot of gold. She said, “I scour it all, hence the serendipity. It’s essentially ‘metacuration’ — curating the backbone, but letting its tentacles move freely. That’s the best formula for content discovery, I find.” Ce qui donnerait à peu près ceci : “méticuleuse dans ses choix de fils RSS et d’amis sur Twitter – ce qui lui permet de découvrir chaque jour une nouvelle mine d’or. ‘J’épluche tout, dit-elle, d’où les heureux hasards. Il s’agit essentiellement d’un “méta-réseau” – organiser le coeur du réseau informatique, mais en laissant ses tentacules libres de tout mouvement. Je trouve que c’est le meilleur moyen de faire des trouvailles.” (Merci Suzanne et Audrey pour la traduction simultanée … si vous avez mieux, les commentaires sont ouverts …)

De fait, il n’y a ni contrôle, ni aléatoire dans le processus décrit dans ce billet du NYTimes. Juste des processus de filtrage en amont (les liens choisis par Mme Popova), et en aval (les Followers décidant de suivre le compte de Mme Popova). Si sérendipité il y a, il faut alors la chercher dans le pourcentage de chances qu’un individu X s’intéressant grosso modo aux mêmes thèmes que Mme Popova découvre son compte et s’y abonne. Mais cela est encore un autre processus … sur lequel nous reviendrons plus tard.

Ne pas confondre participatif et contributif. Notons simplement que si les outils changent, les modalités et typologies de la participation sur le web contributif ne varient guère : la distinction entre les suiveurs et les suivis sur Twitter, entre ceux qui signalent beaucoup dans différents domaines et ceux qui signalent un peu moins mais de manière plus qualifiée ou plus thématique renvoie à l’ancienne dichotomie entre Linkers et Publishers au début de l’essor de la blogosphère. La règle wikipédienne d’une immense majorité de commentateurs et d’un très petit nombre de rédacteurs, se décline également sur Twitter comme elle se déclinait encore hier sur la blogosphère. Bref, beaucoup les gens participent beaucoup (ils “suivent” sur Twitter, corrigent sur Wikipédia, agrègent ou commentent sur les blogs), mais peu de gens contribuent réellement (en produisant ou signalant des contenus originaux). Tout cela pour dire que la seule production et/ou diffusion de contenus à des communautés non-constituées ou très largement éparses et aléatoires, ne peut suffire à parler de sérendipité, a fortiori de sérendipité contrôlée … ou non-contrôlée.

La sérendipité chez les Jivaros : à propos des réducteurs d’URL. Le témoin emblématique de cette logique du surgissement est tout entier contenu dans l’affichage des URL réduites sur Twitter : à part quelques hashtags (mot-clés) eux-mêmes souvent délibéremment aléatoires, rien ne m’indique la nature réelle de la cible desdits liens dans une adresse du type : “http://bit.ly/Tdki5af”. Rien sinon le fait qu’ils émanent de l’un des prescripteurs que j’aurai choisi (et auquel j’aurai donc souscris), ou qu’ils bénéficient déjà d’une large boucle d’écho (= qu’ils sont déjà largement repris sous forme de RT – retweet – par d’autres contributeurs). Notons d’ailleurs de manière tout à fait empirique (rien de scientifique dans cette observation) que nombre d’utilisateurs de Twitter synchronisent leurs Tweets avec leur compte Facebook (et réciproquement) : une info pourra donc ainsi bénéficier d’une boucle d’écho internalisée (publiée ET reprise sur Twitter) ou externalisée (publiée sur Twitter et reprise sur Facebook par exemple).

Nouvelle(s) infobésité(s) ou échec du filtrage ? Telle est l’une des questions soulevées par Clay Shirky dans l’une de ses interventions (“Information overload versus filter failure” / Sept. 2008). S’inscrire à ces outils du web contributif implique, pour pouvoir profiter à plein de leur potentiel de “recommandation”, de sérendipité, s’inscrire à ces outils disais-je, implique – sous peine de s’effondrer sous le poids d’une infobésité galopante – de gérer très précautionneusement le potentiel de surgissement des mêmes outils, à savoir :

» isoler, en amont, les prescripteurs, les “‘autorités”, le “collège invisible” auxquels ou pourra accorder une confiance sinon aveugle, du moins sans grand risque de voir celle-ci déçue.
» et/ou jouer sur les fonctionnalités de “liste” et autres dispositifs de filtrage interne dont ils disposent (mais cela est nettement moins efficace que le point précédent)
» s’appuyer sur les filtres que d’autres ont déjà mis en place sur des thématiques ou des centres d’intérêt proches des miens (= suivre les personnes suivies par ceux qui je suis moi-même)
» bref … réapprendre à faire avec Twitter et les réseaux sociaux ce que l’on avait mis quelques années à apprendre à faire avec les blogs.

L’infobésité n’a pas changé de nature ni d’amplitude, elle a simplement contaminé de nouveaux outils, emprunté de nouveaux vecteurs. Et la sérendipité avec elle.
Bien plus que le nombre de contributeurs ou de producteurs d’informations, bien plus ques gigantesques écarts d’échelle entre le nombre d’emetteurs et le nombre de récepteurs, c’est la nature pervasive du web social qui est le principal facteur de l’accroissement – réel – de la sérendipité et de son corollaire, l’accroissement – supposé ou ressenti – du phénomène d’infobésité.

CHAPITRE SECOND / Quelles ingénieries pour la sérendipité ?


De fait, à observer et analyser un grand nombre de manifestations de la sérendipité dans les différents outils de recherche ou d’accès à l’information, la seule ingénierie manifeste est d’ordre relationnelle : soit en jouant sur le graphe – relationnel – d’un certain nombre d’éléments (les pages web par exemple) pour en faire remonter certains de manière plus ou moins aléatoire, soit – et c’est là le point le plus intéressant – en s’appuyant sur les recommandations ou signalements de notre réseau relationnel (ce qui est le principe même d’un site comme twitter). Ces ingénieries relationnelles peuvent alors se scinder en deux groupes :

» ingénieries relationnelles machiniques.
» ingénieries relationnelles humaines.

Remarque : Ingénieries que d’autres (Dominique Cardon en l’occurrence), interrogent d’un point de vue plus sociologique et identitaire.
Ces deux groupes peuvent eux-mêmes se resituer dans trois grands âges de la sérendipité sur le web.

Les trois âges de la sérendipité sur le web.

» L’âge de pierre. Celui des premières pages web. Des premiers liens hypertextes codés en HTML et pour lesquels bien souvent l’ancre de départ ne laissait en rien présager la nature de la page sur laquelle on allait arriver …

» L’âge de fer. Celui de l’arrivée des machines, moteurs de recherche en tête, qui se font le relai tantôt revendiqué tantôt accidentel de phénomènes de sérendipité dans le couple alliant nos requêtes et nos navigations.

» L’âge d’or. Celui des réseaux sociaux au sens large, c’est à dire de la possibilité offerte de faire du conseil de nos proches un calcul, une “computation” comme les autres.

Le côté obscur de la sérendipité : Ingénieries relationnelles machiniques.

Elles relèvent uniquement du truquage : Les 5 exemples suivants en sont l’illustration sinon la preuve.

» Marketing Ornemental : le bouton “feeling lucky” de Google. Qui permet en fait d’escamoter la page de résultats pour directement boucler sur le site apparaissant en tête de ladite page,

» Ingénierie relationnelle : le FriendFinder de Facebook. Il s’agit de l’application coeur de Facebook, qui fait remonter des “amis” possibles en fonction des connexions déjà existantes sur le mode “les amis de mes amis sont – potentiellement – mes amis”. Ce qui en a l’apparence mais qui ne relève définitivement pas de la sérendipité. Simple ingénierie relationnelle. Mais – et c’est là toute l’habileté du dispositif – un effet de surgissement qui prend le masque de l’inattendu, du fortuit pour mieux séduire et amener l’usager exactement là où il (facebook) le souhaite : c’est à dire à enrichir son réseau relationnel pour mieux pouvoir le monétiser en créant une dépendance à ce service de “mise en relation”

» Ciblage comportemental industriel : les recommandations d’Amazon. Les recommandations de sites marchands comme Amazon sont avant tout du marketing industriel (ne reposant en tout état de cause que sur le profil des achats ou des consultations précédentes et sur l’organisation par thématique et par genre du site, quand elle ne sont pas simplement bidonnées … pour plus de détails et d’explications, se reporter à cet excellent diaporama ;-) “Les industries de la recommandation sont-elles recommandables ?“)

» Sérendipité embarquée (embedded serendipity) ou le packaging inversé : technique spécifique aux sites de vidéos permettant d’encapsuler, à la fin de la vidéo visionnée, d’autres séquences vidéo supposément “en rapport” avec la vidéo initiale. Soit l’inverse du packaging puisque c’est cette fois
après avoir utilisé (visionné) le produit que l’on vous suggère d’en acheter (visionner) d’autres. Là encore il s’agit d’une intervention machinique qui ne doit pas grand chose à l’aléatoire même si elle est encore, et de loin, la moins bien contrôlée par ceux qui la mettent en oeuvre … qui n’a jamais été surpris à la fin du visionnage d’une vidéo de voir s’afficher d’autres vidéos pas franchement “en rapport” avec la vidéo initiale ? Ce qui explique que les sites hôtes travaillent d’arrache-pied à mettre en place des mécanismes pour mieux “contrôler” cette sérendipité embarquée.

» l’anti-sérendipité ou la sérendipité suggérée : représentée par les fonctions du type “suggest” sur les moteurs de recherche. C’est à dire les suggestions en cours de frappe. Là encore, force est de constater que l’aléatoire n’a qu’une part très relative puisque les requêtes ainsi “suggérées” sont celles les plus saisies par les internautes. On est donc davantage dans l’affichage d’une dynamique de “mainstream” que dans la recherche d’un surgissement aléatoire authentique. On ne cherche pas à suggérer à l’usager des pistes nouvelles ou a priori déconnectées de sa recherche initiale, on lui suggère les pistes les plus explorées, les sentiers les plus rebattus.

Ce sont là les industries de la recommandation à leur apogée, maximisant leur capacité à capter l’attention dans un écosystème clôt. Sauf dans le cas particulier de Google (pour des raisons évidentes liées à la nature même du moteur de recherche), tous les effets de rebond résultant de cette sérendipité se font à l’intérieur du site vecteur de sérendipité.

A noter également : si l’on croule sous les articles à la gloire de la sérendipité à propos de tout et de n’importe quoi (“sérendipité et DRH”, “marketing et sérendipité”, “culture de la pomme de terre et sérendipité”), on peine en revanche à trouver quelques sons de voix discordants. D’où l’intérêt de cet article du NYTimes : “Serendipity : Lost in the Digital Deluge“, qui pointe le danger d’une uniformisation des pratiques (“We are discovering what everyone else is learning, and usually from people we have selected because they share our tastes.“) au travers de la massification des accès et l’incapacité du numérique à rivaliser avec le monde réel sur le terrain de la sérendipité (prenant l’exemple du passant que l’on croise en train de lire un bouquin – et nous d’être surpris et attiré par ledit titre, association fortuite impossible si l’on croise quelqu’un en train de bouquiner sur un reader sony …). L’exemple me semble assez mal choisi mais, et les 5 ingénieries relationnelles machiniques décrites ci-dessus l’illustrent, il y a un risque réel d’affaiblissement de la fortuité derrière des pratiques et des ingénieries en fait de plus en plus normées et laissant le moins de place possible à l’aléatoire s’il n’est pas entièrement tourné vers le marketing et la publicité comportementale.

Heureusement il y a findus les ingénieries relationnelles humaines.

Le retour du Jedi : Ingénieries relationnelles humaines.

Si, pour les précédentes (ingénieries relationnelles machiniques), c’était l’intériorité qui primait (le système ne renvoyant qu’à lui-même ou à des sites tiers sous son contrôle), les secondes (ingénieries relationnelles humaines) peuvent d’abord se caractériser par leur extériorité. Leur principe même est de permettre de s’affranchir d’un espace de navigation dédié (tel site, tel réseau social) pour offrir au “taux de rebond” de la sérendipité une amplitude maximale.
L’étau du rebond. Plus précisément, là où le taux de rebond est – en terme de référencement, de marketing et de SEO – une métrique qu’il faut s’efforcer de contenir à la baisse, on pourrait définir la sérendipité instrumentalisée (c’est à dire mise en place à dessein) comme “l’ensemble des techniques permettant, pour un individu, un site ou un écosystème de marque/produit, de pousser au maximum leur taux de rebond”.

Pour donner leur plein rendement, les ingénieries relationnelles humaines de la sérendipité ont besoin d’exister, sinon dans une obscurité, du moins dans un relatif clair-obscur numérique. A ce titre, l’hétérarchie de Twitter, son système à contrainte (140 caractères ne permettant généralement pas de caractériser suffisamment une information ou un signalement), l’opacité totale (au sens d’indéchiffrabilité) de ses URL raccourcies, et sa réticence à injecter du sens (de la hiérarchie) dans les relations “suivis-suiveurs” (following / followers), en font l’outil paradigmatique d’une sérendipité “primitive”.

On résume un peu ?

D’abord, la sérendipité “réelle”, telle que théorisée par Merton, trouve de moins en moins sa place dans le monde numérique. Twitter est, pour l’instant, la seule exception semblant confirmer cette règle. Ensuite, les ingénieries de la sérendipité sont en plein essor et tendent à structurer et à légitimer une “économie de la sérendipité” pour reprendre l’expression de Didier Durand. En d’autres termes …

» (temps 1) la stochastique initiale du web a progressivement fait place nette a une hiérarchisation organique, mise en mémoire et en accès par les moteurs de recherche.

» (temps 2) L’essor du web contributif a ensuite permis de dépasser et de transgresser littéralement cette hiérarchisation monolithique (et monopolistique) en y réinjectant de l’humain et du social, bref, de l’aléatoire.

» (temps 3) Par le biais de différentes fusions et/ou acquisitions (delicious pour Yahoo, Youtube pour Google, essor des entrepôts géants Amazon-like, etc …), certains des mécanismes aléatoires liés à l’humain sont devenus “calculables”, programmables, donnant alors naissance aux industries de la recommandation (cf ci-dessus le côté obscur de la sérendipité), revêtant ainsi des atours séduisants de l’aléatoire et du surgissement ce qui demeure pourtant très trivialement l’exploitation systématique (mais pour autant ingénieuse) d’une gigantesque base de donnée relationnelle.

Le moteur social, c’est comme la voiture électrique : ce sont les constructeurs qui décident. Pas les consommateurs, ni les technologies. Car le moteur social, qui semblait pourtant si prometteur à l’été 2005, n’existe toujours pas en 2010, et ce malgré les récentes annonces (Juillet 2009) de Google en la matière. Pour autant, l’ensemble des moteurs de premier plan se sont, chacun à leur manière, “socialisés”, en partie le biais des options de personnalisation, en partie grâce à l’interpénétration des différents outils de leurs écosystèmes, en partie grâce aux techniques de data-mining transférées dans l’immensité du web des données. Soit l’asservissement à une algorithmie de plus en plus englobante, de plus en plus “impliquante” du potentiel de fortuité des recommandations sociales telles qu’elles transparaissent dans les outils-supports de leurs médiations (ce qui n’est déjà pas si mal, je vous l’accorde).

“La sérendipité est comme une pertinence seconde.” Je laisse la conclusion de ce billet à André Gunthert, interviewé par Hubert Guillaud sur InternetActu :

  • Sur Youtube, il y a toujours une réponse. La sérendipité est comme une pertinence seconde, qui vient se substituer à la réponse exacte.

J’ajoute simplement, en paraphrasant Mallarmé, que la question est peut-être aujourd’hui de savoir si “Un coup de sérendipité, jamais, n’abolira la pertinence.” Ou pas. J’ajoute aussi que si “la sérendipité est une pertinence seconde“, et que si elle “se substitue à la réponse exacte“, ce n’est pas seulement lié au fait qu’il y ait “toujours une réponse“, mais – à mon avis – au moins autant à l’importance que les ingénieries de l’aléatoire occupent aujourd’hui dans le développement de l’écosystème des outils de recherche et d’accès à l’information. J’ajoute enfin qu’il serait intéressant de mener une étude sur la pregnance cognitive de cet état de fait dans les comportements de requêtage et de navigation des usagers (pour voir dans quelle mesure ils “intègrent” ou “rejettent” cet habitus).

» Article initialement publié sur affordance

» Photo d’illustration par jef safi (‘pictosophizing) sur Flickr
]]> http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/feed/ 3 Journalistes en 2010 http://owni.fr/2010/02/01/journalistes-en-2010/ http://owni.fr/2010/02/01/journalistes-en-2010/#comments Mon, 01 Feb 2010 15:33:03 +0000 Guillaume Ledit http://owni.fr/?p=7499 Cliquer ici pour voir la vidéo.

Que sera le journalisme en 2010 ? Dans quel écosystème s’intégrera-t-il ? Quel sera la place des journalistes en son sein ?

Toutes ces questions, les futurs journalistes interrogés par The Nation se les posent déjà. Ils tentent ici d’apporter des éléments de réponse. Si l’une considère que le journaliste de 2010 se devra de savoir tout faire, une autre considère qu’il devra se spécialiser sur un sujet, et apprendre par la suite à le diffuser au mieux.

L’importance du journalisme d’investigation est souligné par l’un des intervenants. Pour ce faire, il faut veiller à maintenir des médias indépendants.

Internet et les technologies comme le kindle et l’Ipad sont évidemment évoqués, pusiqu’ils remettent en cause la chaîne de distribution de l’information.

Pour le dernier journaliste en herbe, l’une des pistes intéressantes peut être la vidéo, notamment en cela que le format est facilement monétisable.

La conclusion est également intéressante : l’idée développée par la jeune journaliste est que l’on s’apprête à connaître un changement dans le contenu même de l’information, permettant à des minorités d’accéder au flux d’information “mainstream”, modifiant ainsi la structure de ce dernier.

Via l’observatoire des médias , @gillesbruno /-)

]]>
http://owni.fr/2010/02/01/journalistes-en-2010/feed/ 2
IVI : Interruption volontaire d’information http://owni.fr/2010/01/31/ivi-interruption-volontaire-dinformation/ http://owni.fr/2010/01/31/ivi-interruption-volontaire-dinformation/#comments Sun, 31 Jan 2010 11:11:05 +0000 Martin Lessard http://owni.fr/?p=7438 «Huis clos sur le net». Cinq journalistes s’isoleront cinq jours durant, coupés de tous médias traditionnels, avec pour seule mission de “rester informés” à travers “les réseaux sociaux” comme seules sources. Décryptage.

Ile déserte

Du 1er février au 5 février 2010, cinq journalistes des radios publiques francophones n’auront ni télévision, ni radio, ni presse écrite, ni dépêches d’agence, seulement l’information qui émerge de 2 réseaux sociaux, Facebook et Twitter.

Mais la réelle expérimentation de ce projet n’est pas là où on le pense…

Description du projet «Huis clos (sur le net)»

«L’idée, c’est de comprendre quelle représentation du monde on se fait à travers les réseaux sociaux, nous allons tenter de faire le tri entre les informations très vite relayées et la surabondance d’humeur» explique un des journalistes àStéphane Baillargeon dans Le Devoir.

«Notre but est de démontrer qu’il y a différentes sources d’information et de voir la légitimité de chacune de ces sources », ajoute Hélène Jouan, directrice de la rédaction de France Inter dans la Dépêche.

On annonce que ce “jeu” consiste à simuler une consommation d’information strictement limitée au “tweet” et “status” de la communauté en ligne, avec la seule exception d’un suivi de lien (c.-à-d., dans un message Facebook ou Twitter, ils peuvent cliquer sur un lien qui mène à une page web, mais sans cliquer plus loin – le surf est interdit). «Comment être informé et informer à son tour, quand on est coupé des sources traditionnelles d’information ?»

Sur le site des Radios publiques de langue française, qui lance cette initiative “inédite”, on dit vouloir mesurer la valeur des infos diffusées sur les réseaux sociaux en se posant ces questions:

> La lecture du monde, dans ces conditions, est-elle pertinente ?
> Est-on informé de la même manière qu’avec les médias classiques ?
> Comment se construit alors l’information ?

Philippe Chaffanjon, directeur à France Info ajoute : «Cette expérience ne cherche pas à démontrer que les médias traditionnels sont indispensables, au contraire. Ce que nous cherchons à faire est de savoir si on s’informe de la même façon à travers les réseaux sociaux qu’à travers les médias traditionnels» (source en anglais) (PressGazette, ouvert, citant Le Parisien, verrouillé)

Pour plus de détails sur le projet, ici: Huis clos sur le net sur France-Info.

Un projet peut en cacher un autre

Que ce projet s’appelle “huis clos” étonne beaucoup: être sur le net est exactement l’inverse d’un huis clos. Qui plus est, sur les réseaux sociaux! Alors comment expliquer qu’un journal titre “Journalistes coupés du monde” (La Dépêche et Le Républicain Lorrain) (l’emphase est de moi)

C’est que, contrairement à ce que le projet laisse entendre, l’isolation n’est pas là où on le pense: un “huis clos” pour ces journalistes, c’est s’isoler de leurs confrères, de leurs réseaux de sources fiables.

Ils ne vont pas seulement être “coupé des sources traditionnelles d’information”, ils seront surtout coupés de leur réseau de contacts et de validation!

Dans ma tête, la vraie mission je préfère la résumer tout de suite ainsi:

> Reformulons: Nos 5 journalistes pourront-ils faire leur boulot de journaliste seulement avec les 2 réseaux de contacts en ligne (et sans pouvoir valider par téléphone, ni par courriel, et surtout sans surfer sur le web pour trouver des répondants ou recouper les sources)?

L’enjeu ici en est une des autorités informationnelles en ligne: comment se créeune autorité cognitive sur Internet dans un monde de surabondance d’information où l’internaute doit développer de nouvelles stratégies pour trier et filtrer l’information. Espérons qu’ils vont partager leurs découvertes et non seulement de cocasses anecdotes.

La candeur des 3 questions citées plus haut peut faire sourire, mais essayons d’y répondre plus bas, question d’éviter que le débat entourant le projet s’enlise trop facilement dans un combat “bonne information” versus “mauvaise information” ou que l’on rejette du revers la main le projet en le pensant pipé d’avance (Numerama– qui aurait dû tourné 7 fois son clavier entre les mains avant de publier).

Mais il faut admettre qu’il est normal que certains puissent être dubitatifs devant le projet en apprenant les grandes lignes:

«Il y a une volonté de démontrer la supériorité des médias traditionnels pour s’informer. C’est comme si on se disait: “On va utiliser le téléphone, mais on n’aura pas accès au bottin”. Il faut poser un regard plus nuancé sur ces outils et l’usage qui en est fait.» ( Colette Brin, professeure agrégée du département d’information et de communication de l’Université Laval cité par Stéphane Baillargeon dans Le Devoir)

Frederic Montagnon, entrepreneur internet, ajoute sur son blogue «On serait mieux informé en habitant à côté de la maison de la radio à Paris que dans un gîte rural dans le Périgord? Sourire.» (source)

C’est vrai que la page web du projet Huis clos sur le net est plutôt laconique sur les raisons sous-jacentes et que les règles sont particulièrement ambitieuses.

Plusieurs journalistes nous ont longtemps habitués à une caricature du phénomène des réseaux sociaux. Alors, ne boudons pas notre plaisir quand on nous propose d’en isoler cinq d’entre eux pour qu’ils nous donnent leur point de vue à chaud… de l’intérieur. D’autant plus que dans la blogosphère, la question de qui informe qui a été évacuée il y a longtemps. On se demande vraiment ce que pourrait être «une lecture du monde SANS les médias traditionnels».

Tirons donc des hypothèses et tentons de comprendre ce qui va se passer la semaine prochaine.

1- «La lecture du monde, dans ces conditions, est-elle pertinente ?»

Ce n’est pas un reproche, mais pour ceux qui s’intéressent aux médias, on se demande si les contraintes qu’ils se sont données a priori (défense de surfer) ne biaisent pas le but de la recherche (y a-t-il une pertinence à lire le monde via les médias sociaux SANS surfer le web?). Mais si on est prêt à jouer le jeu, on doit relever trois mises en garde:

Premièrement, il faut comprendre tout de suite que d’objet d’étude pour ces journalistes, les réseaux sociaux vont plus tôt devenir les observateurs d’une étude inversée où ce sont eux qui deviendront les cobayes et non l’inverse. Ou tout au moins, l’observateur et l’objet d’observation seront en forte interaction. Au pire, l’observateur devient l’observé.

Deuxièmement, tout en reconnaissant que le huis clos est impossible (le public est au contraire tenté de s’inviter), l’isolation relative n’est pas “inédite” : une bonne partie de l’intelligentsia de la webosphère, déjà férue d’interruption volontaire d’information traditionnelle, s’y adonne régulièrement. Ce qui est inédit, ce sont les règles plus strictes (usage limité à Facebook et Twitter) qui accentuent la dépendance aux filtres sociaux d’une façon artificielle.

Troisièmement, les conclusions à la question «La lecture du monde, dans ces conditions, est-elle pertinente ?» sont connues d’avance. Rémy Charest les résume en trois points:

1- Twitter et Facebook sont des illustrations parfaites de l’idée d’auberge espagnole: on y trouve bel et bien ce qu’on amène avec soi.

2- On n’y signale pas nécessairement les nouvelles les plus importantes (déjà reprises ailleurs) mais souvent celles méconnues.

3- À peu près tous les médias offrent des fils de diffusions sur les réseaux sociaux.

Si on tient compte du point 3, les journalistes devront purger leurs signets –ce qu’ils feront (source)– car effectivement on peut suivre tous les médias dans les réseaux sociaux sans jamaispasser par un intermédiaire.

Mais voilà, en ne suivant uniquement que les fils médias, ce serait manquer ce qui fait la particularité des réseaux sociaux –conversation, percolation en direct de l’information, empêcheurs de penser en rond, etc.).

De plus, pour éviter de dénaturer leur projet, ils devraient aussi exclurent leurs “intermédiaires informationnels” fiables habituels (iront-ils jusqu’à les bloquer si leur réseau de confiance cherche à les recontacter?).

Les nouveaux “intermédiaires” devraient provenir d’un nouveau cercle (ce qui est plus passionnant comme défi) et ils devraient éviter de rebâtir leur cercle déjà existant (ce qui est la raison de l’absence de téléphone et de carnets d’adresses).

La vraie essence du projet consiste à faire passer ces journalistes sous respirateurs informationnelles durant tout leur séjour et les sevrer des canaux habituels en ne s’abreuvant qu’à ce qui sera poussé dans les réseaux vers eux pour enrichir leur veille.

On commence à voir, maintenant, que ce sera moins une étude sur les réseaux sociaux que sur les réseaux journalistiques: ils seront en mesure durant 5 jours de mesurer tout ce qui leur manque “hors ligne” pour bien filtrer ce que qui est en ligne…

2- «Est-on informé de la même manière qu’avec les médias classiques ?»

On peut prévoir tout de suite qu’une des trois possibilités d’interprétations suivantes émergera à la suite de l’expérience (dépendant des intérêts et compétences personnels des “Robinsons des communications”).

a. Les réseaux sociaux désinforment et ne sont pas pertinents (si on suit @oprah et@aplusk)
b. Les réseaux sociaux informent autant que les médias (si on suit @lemondefr et@nytimes)
c. Les réseaux sociaux complémentent bien les médias trad (si on suit @rue89 et@martinlessard) (joke ;-)

La réponse serait entre b et c. Les réseaux sociaux, contrairement aux journaux, sont des coquilles vides dont la valeur dépend de ce qu’on y bâtit.

Nos journalistes dévoileront plutôt la compétence “transmettrice” du réseau qu’ils ont bâti (c’est donc leur propre “représentation du monde” qu’ils ont construit plutôt qu’un quelconque portrait “des réseaux sociaux” at large).

Ils dévoileront aussi leurs compétences techniques et stratégiques, car la consommation passive d’information ne fait toujours qu’un temps:

> Quels mots-clés (hashtag) vont-ils suivre sur twitter?

> Quel groupe vont-ils suivre sur Facebook?

> Comme vont-ils interpréter les signaux fiables pour hiérarchiser l’information?

> Et puis, de quelle hiérarchisation est-il vraiment question ici?

Les médias n’ont plus le monopole de “setter les agendas”: les médias sociaux sont aussi un percolateur de “sujets d’actualité” (lire mon billet sur l’agenda-setting).

Alors, évidemment non, dirons-nous en guise de réponse, on n’est pas “informé de la même manière qu’avec les médias classiques”.

La question à se poser aurait dû être plutôt «Quels sont les codes de reconnaissance sur lequel le journaliste se reposera pour décréter une information pertinente?»

3- «Comment se construit alors l’information ?»

Se constituer un réseau social fiable pour relayer une information de qualité exige temps et compétence. Les journalistes démontreront sans aucun doute leur savoir pour décoder “l’information de l’humeur”. En se coupant de leurs pairs journalistes et en se fondant dans les réseaux sociaux, ils auront à rebâtir leur réseau de confiance.

Alors, pour répondre à la question, on doit se poser celle-ci : «Comment se forme les nouveaux réseaux de collaboration entre pairs reposant sur la confiance ?» Le court laps de temps (5 jours) pour rebâtir un réseau rend la tâche plus ardue, mais pas impossible (on verra pourquoi à la fin).

On aimerait bien connaître la façon qu’ils développeront pour discriminer les différents acteurs susceptibles d’entremettre des informations de qualité. Y aura-t-il une réelle collaboration dans le nouvel écosystème qui est maintenant en place entre des relais hors institutions et ceux qui les valident dans les médias classiques?

Il m’apparaît clair que l’usage de Facebook et de Twitter sera très différencié. Je pari sur la supériorité de Twitter pour piquer la curiosité (première ligne d’alerte) et sur Facebook pour donner un peu plus de contexte (Facebook en particulier pour le journaliste québécois qui a annoncé qu’il veut “tenter l’expérience sans sortir des deux sites” (Numérama)).

Au final, un Tweet avec un lien sera définitivement plus performant pour le but de l’expérience (s’informer), ne serait-ce que par son côté ouvert (une information relayée circule plus loin) et l’effet de chambre d’écho (on peut suivre un mot clé sans nécessairement être abonné à un fil).

L’Information se “coconstruit” en développant des affinités, des liens de confiance, basés sur les intérêts mutuels. On touche ici le thème l’identité numérique. Malheureusement, les règles imposées empêchent de valider en ligne, car il faut pour ça surfer.

On peut conclure

Ce sera plutôt «Huis Clos suivi de Les Mouches». Bon OK, le jeu de mots est ringard (Huis Clos de Sartre est souvent suivi par Les mouches dans les collections de poches), mais l’image est la bonne: ce huis clos numérique sera suivi par un essaim de lecteurs numériques.

Et ça, c’est l’ultime donnée non prévue dans ce projet: si la webosphère s’empare du phénomène, comme je l’ai signalé dans ma première mise en garde, il faudra composer avec un bombardement de messages de toute part. Mais seront-ils de l’intox ou de l’info?

Intox: on peut s’inquiéter (à tort) que de fausses informations leur sera transmises pour les tromper. Mais pour ça il faudrait que tout le monde se mette de connivence. Or j’ai déjà souligné dans un billet antérieur à quel point les réseaux sociaux induisent une imputabilité de l’émetteur: quand je transmets une fausse nouvelle, c’est à tout mon propre réseau que je le transmets et non à une seule personne!

info: je crois plutôt que le réseau abreuvera le réseau des 5 journalistes de plein de détails. Ils seront gavés d’info et n’auront que l’embarras du choix.

Si l’accès à l’information n’est plus un problème, alors la capacité de traitement de cette information sera le vrai défi: que leur restera-t-il à faire? “Ré-hiérarchiser” l’information! (lire Olivier Ertzscheid Twitter : le hiératique contre le hiérarchique). Dure tâche quand on est “coupé du monde” (des journalistes).

Mais quelle est la signification de faire du journalisme sans être avec des journalistes?

Ma foi, cela démontera qu’il n’existe pas de différence fondamentale entre lesprocessus de hiérarchisation “amateur” et “professionnel”. À compétence égale les deux feront tout aussi bien. Le journalisme se distingue seulement par son appartenance au groupe des journalistes qui ont le pouvoir de concentrer l’attention de leur (large) audience.

Mais dans le nouvel écosystème de l’information qui se met en place, et dont ce projet est une belle illustration, ce sera plutôt l’audience qui concentrera l’attention de (petit) groupe de journalistes…

L’équipe de Huis clos sur le net (stats en date de mercredi matin)

Communiqué Huis clos sur le net sur France-Info.
@HuisClosNet 0 tweets, 5 Following, 374 Followers,16 Listed
@HuisClosNet/lesjournalistes 295 followers de la liste

@Benjamin_Muller 142 tweets, 341 Following, 367 Followers, 38 Listed
@nicolaswill 12 tweets, 99 Following, 100 Followers, 12 Listed
@janictremblay 54 tweets, 256 Following, 245 Followers, 27 Listed
@zizou78700 53 tweets, 67 Following, 133 Follower, 20 Listed
@AnnePauleMartin 147 tweets, 154 Following, 195 Followers, 14 Listed

> Article initialement publié sur Zero Seconde

]]>
http://owni.fr/2010/01/31/ivi-interruption-volontaire-dinformation/feed/ 0
Le jour-now-lisme : le journalisme en tant que processus créatif http://owni.fr/2010/01/28/le-jour-now-lisme-le-journalisme-en-tant-que-processus-creatif/ http://owni.fr/2010/01/28/le-jour-now-lisme-le-journalisme-en-tant-que-processus-creatif/#comments Thu, 28 Jan 2010 10:30:17 +0000 Josselin Perrus http://owni.fr/?p=7322 Les réflexions exposées ici sont issues d’une discussion qui a eu lieu lors de la conférence de rédaction ouverte tenue par InternetActu à l’occasion du Remix de la Cantine. Le contexte en était : comment impliquer davantage la communauté des lecteurs ?

La culture d’une réflexion packagée

Je fais le constat suivante à propos du journalisme : l’implication de la communauté se fait quasi-exclusivement suite à la publication d’un produit fini qu’est l’article. Une fois l’article publié, il est soumis aux commentaires/discussions.

Il n’y a donc aucune interaction entre le journaliste et la communauté au cours du processus créatif (réflexion, documentation, rédaction), qui, comme c’est le cas pour des articles de fond, peut s’étendre sur de longues périodes. La proposition que j’ai formulée était d’ouvrir ce processus à la communauté. Plus précisément les étapes de réflexion et de documentation car je suis d’accord avec les journalistes d’InternetActu pour dire que la rédaction collaborative peut convenir pour certains formats (par exemple des comptes-rendus d’évènements) mais est laborieuse pour ne pas dire contreproductive dans le cas d’articles.

Les réticences à une telle ouverture me paraissent de trois ordres :

  1. Le dévoilement de l’intime : le processus créatif est ressenti de manière très personnelle et c’est pas toujours joli à voir : comme le faisait remarquer Rémi Sussan c’est beaucoup de fouillis…
  2. La publication est ressentie comme un engagement par rapport à ce qu’on a écrit, alors que le processus de création est jalonné d’essais/erreurs, de ratures, de questions plus ou moins “stupides”, et d’opinions tranchées dont on peut être amené à se distancier.
  3. Le format de publication : de par sa nature “bordélique” le processus créatif ne peut s’étaler sur les mêmes pages que des articles structurés. Se pose la question de où et sous quelle forme le processus de création pourrait s’ouvrir à des contributions extérieures.

3492049287_27555d4a57_b

Le journalisme en “morceaux”

Les deux premiers blocages étant d’ordre psychologique, j’imagine qu’il n’y a que des essais qui peuvent devenir des habitudes… Je me heurte à ces mêmes blocages : j’avais fait vœux (dans mon premier post) de me servir de ce blog pour écrire sur des sujets “en cours de réflexion” (ce que je n’ai qu’esquissé). Cependant j’observe l’utilisation faite par certains (dontNicolas Nova) du blog pour publier des “morceaux” (par exemple des photos).

Ces morceaux peuvent prendre la forme d’interrogations, d’opinions, de photos, mais aussi de liens. Et là on s’aperçoit que nombreux sont ceux qui déjà donnent à voir si ce n’est leur réflexion “qui se fait” au moins les lectures qui nourrissent cette réflexion avec la publication de leurs bookmarks. Les morceaux sont des instantanés, rapides à publier et ne font pas l’objet d’une contextualisation poussée. Ils ne sont pas intégrés à une réflexion englobante au moment de leur publication. Ce sont donc des éléments laissés à l’interprétation de la communauté.

Par ailleurs ces morceaux n’ont pas seulement une valeur de “moyen” : leur valeur ne réside pas uniquement dans le fait qu’une fois articulés les uns aux autres ils peuvent conduire à un produit fini. D’une part ils ne finissent pas tous par trouver leur place au sein d’une production. D’autre part ils ont une valeur en tant que tel pour la communauté qui peut s’en nourrir et éventuellement les réutiliser dans ses propres productions. Enfin les journalistes ne sont pas les seuls à pouvoir contribuer des morceaux : leur communauté peut devenir une force d’enrichissement de leur pratique, non pas seulement en réaction à un produit fini mais au sein même de leur processus créatif.

Du point de vue de la structure d’accueil de tels morceaux les Tumblr ou Twitter semblent une alternative au blog classique par leur format et leurs usages plus orientés vers des publications courtes, destructurées. Le wiki ou Google Wave permettent eux la collaboration et ils ont l’avantage de centraliser l’échange et de ne pas être linéaires et rigides à la manière de forums. Wave offre de plus cette formidable possibilité qu’est le replay permettant à chacun de faire une session de rattrapage et de pouvoir reconstituer la chronologie des apports de chacun.

Conclusion

Le journalisme se caractérise aujourd’hui par son produit fini alors qu’il est bien plus que cela : il est un processus créatif. Ce processus a commencé son dévoilement au travers de la personnification du journalisme qui amène certains à alimenter régulièrement des communautés constituées autour de leur signature. La contribution collaborative autour de morceaux permet de raccourcir la boucle de publication/retour qui lie le journaliste à sa communauté. Le journalisme se conjugue au présent (pour éviter de parler de journalisme en temps réel).

A noter qu’une telle ouverture du processus créatif à la communauté implique une forme d’humilité vis-à-vis de sa communauté et de confiance en son intelligence (à elle).

> Article initialement publié sur SVN, le blog de Nils

]]>
http://owni.fr/2010/01/28/le-jour-now-lisme-le-journalisme-en-tant-que-processus-creatif/feed/ 6
La presse hexagonale regarde passer l’innovation technologique http://owni.fr/2010/01/26/la-presse-hexagonale-regarde-passer-linnovation-technologique/ http://owni.fr/2010/01/26/la-presse-hexagonale-regarde-passer-linnovation-technologique/#comments Tue, 26 Jan 2010 18:34:22 +0000 Admin http://owni.fr/?p=7263

Les dirigeants de “la presse en crise” devraient tressaillir de joie en apprenant que Steve Jobs, patron d’Apple, se propose de “reconfigurer le modèle économique de l’édition, de l’information et de la vidéo” (Source: Wall Street Journal du 21 janvier)

Steve Jobs fait allusion à la mise au point et à la présentation imminente d’une tablette électronique susceptible d’accueillir toutes sortes de contenus numériques, à usage familial et scolaire, principalement mais pas uniquement.

L’objet entre en compétition frontale avec le lecteur électronique Kindle d’Amazon. Amazon a noué des partenariats avec des éditeurs de livres. Apple est en négociation avec d’autres éditeurs et avec de grands groupes de presse, dont celui de Ruppert Murdoch – le magnat qui veut en finir avec le “tout est gratuit” sur le web – et celui du New York Times. Amazon vient d’annoncer- ce jeudi soir heure française – que son Kindle va être rapidement amélioré afin de s’ouvrir à une plus grande diversité de contenus,, réponse directe à l’annonce de Steve Jobs.

La bagarre technologique sera âpre, comme le furent les affrontements sur les protocoles, les normes, les formats, les standards liés à chaque grande innovation technologique. Puis les surenchères s’atténueront. Les innovations se stabiliseront. Les usagers désigneront les meilleurs produits, les meilleurs services.

S’agissant des tablettes et des lecteurs, il y en aura peut-être deux types de produits, correspondant à des usages différents.

En attendant l’issue de la confrontation entre Amazon et Apple, les lecteurs électroniques se vendent plutôt bien aux Etats-Unis. Ils suscitent en France le même scepticisme que celui d’un premier ministre, devenu blogueur par la suite et qui avait décrété, en 1997, que le web n’était qu’une mode américaine passagère. Face aux lecteurs et tablettes électroniques, “Gadgets !”, gloussent les sceptiques de ce côté-ci de l’Atlantique.

Vision et agilité

Mais, justement, Apple ne fait pas dans le gadget. Son patron, Steve Jobs, est un monsieur qui a transformé une firme moribonde en premier distributeur mondial de musique et en acteur décisif de la téléphonie mobile, tout en continuant à concevoir des ordinateurs très performants.
Agilité industrielle par compréhension de ce que les usagers attendent.
Steve Jobs, c’est surtout quelqu’un qui a ce qui manque le plus aux managers produits par la consanguinité du capitalisme franchouillard: une vision stratégique.
Il positionne la créativité de son entreprise entre les producteurs de contenus à forte valeur ajoutée et les usagers prêts à payer cette valeur ajoutée, pourvu que ce ne soit pas trop cher et simple, “convenient”.
Ce positionnement, c’est exactement ce qui manque à “la presse en crise” pour sortir du marasme où elle s’est enfoncée toute seule.

Comme des bovins près d’une voie ferrée

Depuis les débuts de la numérisation massive, les industries françaises de contenus – musique, presse, édition, vidéo – regardent passer les innovations en ruminant de l’anti-américanisme primaire et en gémissant sur l’indifférence que les audiences – le peuple, en somme – osent manifester à l’égard de leur offre fade et monotone.
Elles ont contribué au torpillage du réseau français Cyclades qui, en 1978, intéressait énormément les pionniers américains d’internet (1).
Elles n’ont pas vu arriver le CD audio, donc le DVD, preuves palpables que tout est numérisable.
Elles n’ont pas vu arriver l’ADSL.
Elles n’ont pas vu arriver le MP3.
Elles n’ont rien compris à Napster.
Elles n’ont pas vu arriver Google.
Elles n’ont pas vu arriver Youtube.
Elles ne voient pas ce qu’auraient pu leur apporter les lecteurs et tablettes électroniques.

Le_paradis_des_medias.jpg

Et pendant que des journalistes twitteurs twittent leurs insignifiances rabougries (2), leurs patrons ineptes mendient des subventions au pouvoir politique en place.
Seuls les jeunes et futurs journalistes peuvent régénérer l’information franchouillarde en s’assurant la maîtrise des outils et des méthodes pour valoriser les contenus, donc leur travail.
Voir sur ce thème:
- La crise des quotidiens est parfaitement logique.
- Phénomènes émergents dans la consommation de l’information.

1) En 1978-79, une délégation représentant les pionniers américains d’internet est venue rencontrer en France Louis Pouzin qui avait mis au point le réseau “Cyclades” de communication par paquets, dispositif qui était en avance sur certaines technologies américaines de l’époque. Le but était d’avancer ensemble.
Je tiens de Vinton Cerf, un des cinq créateurs d’internet, une version de cette tentative de collaboration transatlantique pour accélérer l’émergence du réseau des réseaux.
Mais, durant cette période, le pouvoir politique incarné par Valéry Giscard d’Estaing, Raymond Barre et Norbert Segard, ministre des Postes et des Télécommunications, a décidé de saborder le réseau “Cyclades” pour ne pas permettre à un réseau décentralisé – c’est à dire peu contrôlable – de diffuser des contenus qui auraient pu porter préjudice à la presse écrite.
Je tiens cette explications de deux anciens cadres supérieurs de la DGT (Direction Générale des Télécommunications) qui m’ont précisé ceci: “Le pouvoir tenait à rester en bons termes avec la presse nationale et régionale entre les législatives de 1978 et l’élection présidentielle de 1981″. Voilà pourquoi les Français se sont vus infliger le minitel, système insupportable mais centralisé, donc contrôlable.

2) J’attends le tweet de mon journaliste twitteur préféré: “ya séisme en Haïti Oh lalalala” (Voir le billet du 6 janvier)

» Article initialement publié et commenté sur Journalistiques ]]> http://owni.fr/2010/01/26/la-presse-hexagonale-regarde-passer-linnovation-technologique/feed/ 1 #CantineRMX : les djs des NTIC fêtent leurs deux ans http://owni.fr/2010/01/25/cantinermx-les-djs-des-ntic-fetent-leurs-deux-ans/ http://owni.fr/2010/01/25/cantinermx-les-djs-des-ntic-fetent-leurs-deux-ans/#comments Mon, 25 Jan 2010 16:59:18 +0000 Abeline Majorel http://owni.fr/?p=7243 Free Culture, cela vous dit quelque chose ? Et bien, à l’occasion de son deuxième anniversaire, La Cantine a l’audace de remixer Laurence Lessig trois jours durant. Le 26, 27 et 28 janvier, la Cantine est fidèle à sa vocation de promouvoir et accueillir tous les acteurs de l’innovation numérique en vous offrant 3 jours de fête UGC.

Chaque intervenant a répondu à l’appel à projets de Silicon Sentier de contribuer à animer cet anniversaire. Tous ensemble, nous pouvons remixer cet espace central et essentiel de la culture numérique.

Vous cherchez les meilleurs spécialistes de Drupal ou de Wordpress ? Vous voulez connaître l’algorithme de l’Appstore ? Vous cherchez à comprendre le web de données ? Les transformations des média vous intéressent ? Vous voulez manager autrement ? Construire des objets interactifs indépendants ? Vous êtes un artiste souhaitant mixer art et techno ?

Que vous soyez un expert ou un simple passionné, Silicon Sentier vous offrira un panorama complet fait par les meilleurs experts de NTIC. Workshop ou conférence, tout sera fait dans l’esprit qui anime les équipes de Silicon Sentier : le partage et le dynamisme. Un programme alléchant que vous pourrez retrouver ici et qui vous donnera envie d’être un des 700 inscrits et participants à cet évènement.

Et pour le dernier mix avant de dormir, Silicon Sentier vous invite à vous rencontrer, vous mélanger, dans une ambiance zen et festive, lors la soirée de clôture de l’anniversaire .

Pour vous inscrire, rendez vous ici


Pour suivre REMIX sur twitter #CantineRMX

]]>
http://owni.fr/2010/01/25/cantinermx-les-djs-des-ntic-fetent-leurs-deux-ans/feed/ 1
Google, Twitter et Haïti http://owni.fr/2010/01/20/google-twitter-et-haiti/ http://owni.fr/2010/01/20/google-twitter-et-haiti/#comments Wed, 20 Jan 2010 13:08:54 +0000 Olivier Ertzscheid http://owni.fr/?p=7135 Titre original :

Secousses syntaxiques et tremblements motorisés : Google, Twitter et Haïti.

Dans le domaine de la communication de crise, on peut aisément distinguer deux catégories d’analyses : lorsqu’il s’agit d’une entreprise – devant faire face ou mettre en place une communication de crise – la littérature sur le sujet pointe surtout les “dangers” des nouveaux médias en terme de vitesse de propagation des rumeurs et l’importance – pour l’entreprise – de réagir en temps réel, et en utilisant les mêmes canaux d’information/désinformation, soit les sites de micro-blogging, de réseaux sociaux, etc …

Lorsqu’il s’agit en revanche de communication de crise dans un contexte humanitaire, et tout particulièrement depuis l’avènement de Twitter, le traitement de ces nouveaux outils de communication en temps réel est largement salué et plébiscité, quand il ne vire pas franchement au panégyrique.

De fait, l’instantanéité de la transmission, la faculté de tisser des réseaux transcontinentaux temporaires mais exceptionnellement denses, la capacité d’entonnoir financier de ces services capables de drainer des fonds plus naturellement que ne le ferait n’importe quelle ONG, de fait cet ensemble de propriétés des sites communautaires contributifs ou simplement participatifs est une opportunité remarquable dans un contexte de catastrophe naturelle.

Le drame qui touche Haïti nous en offre quelques exemples.

CHAPITRE PREMIER : TREMBLEMENTS MOTORISÉS

Google et Haïti : tremblements motorisés. Le premier exemple est celui de la société Google qui met en place un site dédié : http://www.google.com/intl/fr/relief/haitiearthquake/, site dédié accessible grâce à un lien présent sur la page d’accueil du moteur, dont la légendaire sobriété n’est que très exceptionnellement dérangée. Les stratégies d’aide de Google se déclinent en trois points :

  • l’aide aux dons : grâce à la mise en place d’un paiement simple et direct à destination de deux ONG, paiement utilisant la solution Google Checkout. Naturellement c’est également l’occasion pour Google d’élargir son portefeuille de clients “Google Checkout” (lequel service nécessite authentification préalable), mais difficile en l’occurence de le lui reprocher …
  • la cartographie dynamique : les cartes de Google Earth ont été mises à jour dès après le séisme, et se déclinent avec la possibilité d’un mode d’affichage “avant / après” qui fait frissonner et permet de toucher du doigt la “réalité” du bouleversement résultant du séisme.

Et puis il y a le widget “Person Finder”, aisément téléportable sur n’importe quel site, et qui permet de nourrir en temps réel une base de donnée publique des personnes disparues ou recherchées. Un Widget qui fonctionne avec deux entrées : “I’m looking for someone” ou “I have information about someone”.

L’offre est là. Demande. Au-delà des offres de téléphonie gratuites pour Haïti, proposées par Google Voice comme par un très grand nombre d’autres opérateurs (SFR, mais aussi les autres), au-delà des dons pas SMS proposés là encore par la quasi-unanimité des opérateurs télécom en partenariat avec nombre d’associations caritatives, au-delà des donations des entreprises elles-mêmes (Google donnera 1 million de dollars), c’est la mise en place de ce widget “Person Finder” qui me semble peut-être la plus “signifiante”, la plus caractéristique.

Du panoptique au pancatalogue. En pareil cas de mobilisation planétaire, qu’elle soit liée à des actes de terrorisme ou à des catastrophes naturelles, les médias (anciens ou modernes) se sont fait une spécialité de l’organisation de panoptiques 24h/24h, panoptiques dans lesquels défilent – parfois jusqu’à la nausée – les mêmes images, les mêmes vidéos amateur, les mêmes montages. Les “nouveaux” médias, dont Google, ne sont naturellement pas exempts de cet habitus. Mais là où les médias “traditionnels” n’ont, pour sortir de leur propre panoptique, que les ressources de l’infographie et du commentaire journalistique (ressources rapidement épuisées), Google (et d’autres, mais Google surtout …) a la possibilité de cartographier en temps réel, a la possibilité de construire ce pan-catalogue des victimes, si nécessaire même s’il ne concerne “que” ceux qui sont “étrangers” à la territorialité de ce séisme et le regardent de loin en y cherchant un proche, un ami, un membre de leur famille.

Clair-obscur technologique. Clair obscur ou plus exactement mise en abyme. D’un côté la coupure télécommunicationnelle. Plus rien ne fonctionne à Haïti. Ni internet, ni téléphone, ni radio, ni télévision. Le black-out. De l’autre, la surenchère télécommunicationnelle : SMS qui explosent (pour la bonne cause …), espaces de téléphonie “vers haïti” bradés et offerts (pour la bonne cause encore), mobilisation technologique exceptionnelle de l’ensemble des acteurs et industries technologiques. Là-bas soudain plus de télévision. Mais là-bas, presque tout de suite toutes les télévisions d’ici. La technologie, l’industrie médiatique au secours d’elle-même. Ou peut-être aussi au chevet d’elle-même.

De la réponse à l’échelle à la réponse à la carte. En pareil cas de catastrophe, seul des états avaient capacité à fournir des réponses “à l’échelle”. A l’échelle par la mobilisation des moyens humains (civils et militaires) et financiers directement mobilisables. Cette proportionnalité reste naturellement valable à la différence près qu’aujourd’hui et notamment grâce à l’un de leurs principaux hérauts (les moteurs de recherche), à la différence près qu’aujourd’hui les industries lourdes de la technologie (télécommunications au sens large) ont elles aussi la capacité de fournir une réponse à l’échelle. Mais – et la nuance me semble de taille – elles peuvent surtout fournir une réponse “à la carte”. A l’évocation de la difficulté des secours pour localiser les victimes, sous les décombres ou bien dans l’état de chaos qui suivit la catastrophe, on songe naturellement aux immenses potentialités de la géolocalisation systématisée. Et l’on s’efforce tout aussitôt de penser à l’immensité de ses dangers au regard des libertés publiques.

CHAPITRE SECOND : SECOUSSES SYNTAXIQUES.

Twitter et Haïti : secousses syntaxiques. Vétéran du cataclysme participatif, le site Twitter n’est naturellement pas en reste pour ce qui est de la situation en Haïti, même si les médias traditionnels semblent – je dis bien “semblent”, je n’ai toujours pas la télé – semblent donc y faire moins systématiquement référence (en même temps c’est vrai que CNN est sur place et … twitte en direct). J’ai déjà eu l’occasion de m’exprimer assez longuement sur l’intérêt et les spécificités de Twitter, dont l’une des clé de voûte est sa cohorte de Hashtags et la syntaxe afférente. Car en pareille situation de crise, on touche du doigt la double limite imposée à la fois par la briéveté des messages (140 caractères max.) et le caractère profondément hétérogène (et hétérarchique …) desdits hashtags. Si l’on veut pouvoir aller “ensemble” à l’essentiel, c’est à dire en l’occurrence porter assistance de manière coordonnée, est-il possible de se reposer entièrement sur une hypothétique sagesse des foules concernant la mise en oeuvre de Hashtags dédiés ? Certains semblent penser que non. D’où l’initiative du projet EPIC (derrière lequel on trouve deux universités et la NSF), de lancer et de propager une syntaxe spécifique à la catastrophe en Haïti. Cette syntaxe comporte trois catégories de tags :

  • “primaires” : #need #offering or #have #imok <reporting I AM OKAY> #ruok <asking ARE YOU OKAY?>
    ces deux derniers étant respectivement traduits en français par #chuiok et #teok
  • “secondaires” : #food #water #fuel #medical of #med #volunteers… can shorten to #vols
  • “de données” : #name [name] #loc [location] #num [amount or capacity] #contact [email, phone, link, other] #photo [link to photo] #source [source of info]

Signalons enfin qu’un Wiki permet d’enrichir la base de (hash)tags.

Ou comment le fait de tenter de porter secours de manière coordonnée repose la question fondamentale de l’indexation libre ou contrôlée (coordonnée). Sans pousser trop avant la métaphore on remarquera cependant que face à des logiques d’effondrement, l’indexation se réaffirme comme marqueur, comme signal, à la fois comme vestige et comme balise topologique.

Facebook et Haïti : Un grand absent ?

Après Google et Twitter, sites différemment emblématiques, après Wikipédia (dont la page dédiée s’enrichit considérablement sur le modèle établi du palimpseste), le grand absent du paysage reste Facebook dont la page d’accueil reste désespérement sans signe de solidarité apparente. De fait, et mis à part quelques publicités sponsorisées, très peu de signes de mobilisation apparente. Faut-il y voir l’illustration du modèle “fermé” que véhicule Facebook, diamétralement opposé aux logiques ouvertes de Twitter, Wikipédia ou – dans une moindre mesure – Google ?

A lire aussi sur le même sujet :

» Article initialement publié sur Affordance

]]>
http://owni.fr/2010/01/20/google-twitter-et-haiti/feed/ 3