Typologie des superflu(x). Et autres considerations …

Monde du flux ou du superflu(x) ?
Perdu (mais pas complètement) entre mon agrégateur RSS, les innombrables signalements qui circulent sur mon compte Twitter, l'archive des signets delicious … Besoin de clarification dans un monde ou tout est "flux" pour éviter qu'à terme tout ne nous semble "superflu(x)".
- Les médias de flux : TV, Internet. Broadband. Modèle connu.
- Les "nouveaux" médias de flux, ceux du micro et du méso-net : comment s'y retrouver ?
Des flux et des médias. Dans l'immédiat, des im-médias.
Côté flux (liste naturellement non-exhaustive). Besoin de distinguer entre :
- des flux "identitaires" : ce que je dis de moi
- des flux "profilaires" : ce que les autres disent de moi, et/ou ce qu'il est permis – pour un individu ou pour un moteur ou un système de recommandation – d'inférer à partir de ce que je fais ou de ce que je dis de/sur moi.
- des flux "grégaires" : ceux que "je" sélectionne en fonction de leur intérêt. Ces flux peuvent eux-mêmes être des flux identitiaires, profilaires, etc …
- des flux "prioritaires" : ceux que "les autres" jugent incontournables sur un sujet, un "objet", une thématique.
- des flux "aléatoires" : qui incarnent "l'effet rebond", la part de plus en plus important qu'occupe la sérendipité dans nos processus de recherche d'information et plus globalement d'interaction en ligne.
Côté médias (liste tout aussi peu exhaustive que la précédente)
- des médias d'agrégation. Dialectique de la digue et du tamis. Par "média d'agrégation", j'entends ici principalement (mais pas exclusivement) les agrégateurs RSS, version "en-ligne" ou cliente. Netvibes, GoogleReader en sont quelques exemples types. Leur fonction est une fonction de digue. Ils ont pour objet de "contenir" plus que de "retenir" (au sens mémoriel du terme). Plus précisément, ils circonscrivent sans rien inscrire, sans véritablement garder et faire "trace". Des digues donc. Mais qui virent inexorablement au "tamis" avec un maillage de plus en plus grossier (si l'on se place du point de vue amont des médias et flux qui devront passer par ces tamis) ou de plus en plus fin (si l'on se place du point de vue de l'utilisateur qui "met en place" ces tamis)
- des fonctions de dissémination : leur enjeu est d'abord d'amplifier l'effet rebond, par sérendipité. L'exemple type est la fonction RT (retweet) de Twitter. Mais cela concerne également l'ensemble des fonctionalités "virales" proposées sur Facebook ou sur les plateformes de blog. L'objet de ces fonctionalités est d'amplifier les occurences d'un item (vidéo, texte, marque … individu). Particularité des médias numériques de dissémination, l'amplification n'entraîne pas automatiquement et nécessairement une perte de traçabilité. Le maillage des réseaux sociaux, les fonctionalités de rebond (RT chez Twitter, "share this" chez Facebook), et plus globalement la puissance d'indexation et de 'mémoire" des moteurs et outils de recherche facilite grandement le rétablissement d'une autorité (= la recherche de l'auteur/diffuseur original du texte, de la vidéo) a posteriori.
Une cybernétique observable. Cette articulation entre médias d'agrégation et fonctions de dissémination me semble essentielle. Elle illustre l'extraordinaire force centrifuge des premiers, qui mettent "sous nos yeux" un ensemble de flux, et la non moins extraordinaire force centripète des seconds qui redistribuent en permanence les mêmes flux, parfois légèrement altérés ou recombinés (méta-flux de Yahoo-pipes, Rss personnalisés et autresméta-flux générés ou attachés à des services particuliers). Bref, des usagers à la barre, une cybernétique à l'oeuvre, avec son feedback.
Voilà aujourd'hui, à mon sens, les deux grandes logiques du web contributif. Naturellement et comme dans les "anciens" systèmes médiatiques (moins "contributifs", moins "distribués" et sans l'échelle fractale qui est un marqueur spécifique du web 2.0), les deux sont liées. C'est à dire que le média ou la fonction de dissémination sera d'autant plus efficace et amplifiée qu'elle s'appuiera ou sera supportée par un média à forte capacité d'agrégation. Inversement, on agrègera toujours davantage les items les plus "disséminés".
Le troisième âge de la navigation. Ces phénomènes illustrent ce que je décrivais ainsi dans un ancien billet :
- "les développements du (web 2.0 + Social software + RSS) nous emmèneraient vers un "troisième âge" de la navigation : après le browsing et le searching voici venu le temps du "subscribing". On ne navigue plus, on ne recherche plus, on s'abonne, on "souscrit". Notons d'ailleurs que l'étymologie de ce dernier vocable est intéressante : "souscrire", "sub-scribere", littéralement "écrire en dessous", à moins qu'il ne s'agisse d'écriture "sous autorité" : en agrégeant les discours écrits ou postés par d'autres, on est, de facto, placé "sous" une "autorité" qui n'est plus nôtre."
La souscription est et demeure une dépendance. Telle qu'organisée et disponible initialement (à l'époque des premiers agrégaterus et flux RSS), elle était également potentiellement une aliénation. La possibilité aujourd'hui offerte de recombiner et/ou d'altérer des flux diminue significativement sa force d'aliénation, mais augmente considérablement l'effet de dépendance.
Keep control. Pour que nous puissions nous y retrouver dans l'ensemble de ces médias de flux, pour que nous puissions en garder le contrôle ou tout au moins avoir l'impression que nous en gardons le contrôle, il faut – et c'est déjà le cas – que les principales fonctionalités et innovations portent sur 3 points :
- la synchronisation
- les périphéries reconfigurables
- la gestion de l'asymétrie des relations para-sociales.
Petites explications …
- la synchronisation.
Elle est la dernière étape de la dérive des continents documentaires. Nos modes de consultation sont nomades mais nos dispositifs (terminaux) d'accès au web sont encore hétérogènes. Nos temporalités d'accès sont elles aussi pour l'instant encore asynchrones (lecture des mails le matin sur l'ordinateur "de bureau", consultation de vidéos le soir sur l'ordinateur "familial", etc …)
- les périphéries reconfigurables.
La périphérie est une notion clé pour comprendre les logiques aujourd'hui à l'oeuvre dans la machinerie contributive du web (et pas seulement du web 2.0). Le meilleur ouvrage sur la question a été publié à une époque ou Serguei Brin et Larry Page n'étaient encore qu'en première année de faculté. Il s'appelle "Situated Learning : Legitimate Peripheral Participation". C'est Jo Link-Pezet, ma directrice de thèse qui me l'avait fait découvrir à l'époque, comme tant d'autres des ouvrages, notions et concepts qui font que je ne me sens aujourd'hui pas trop démuni pour aborder l'étude et l'analyse des objets informationnels qui m'intéressent … (un jour quand j'aurai le temps, je vous raconterai pourquoi j'ai eu la chance de bosser avec LA directrice de thèse idéale …). Mais revenons au centre de nos périphéries. Les périphéries de ces communautés contributives disposent, grâce à cette ingénierie de la sérendipité, de plastiques de plus en plus souples et étendues. Périphéries à la fois théoriquement globales, et toujours possiblement ciblées. Le genre de périphéries "sociales" que les moteurs, Google en tête,commencent à intégrer au coeur de la présentation de leur résultats, en fonction de leurs vertus – supposées pour certains, avérées pour d'autres – de recommandation "sur-mesure" (sur Google Social Search puisque c'est de cela qu'il s'agit, voir également ici et là)
- la gestion de l'asymétrie des relations sociales.
C'est à dire en fait la gestion des relations para-sociales. Dans l'une de ses dernières interventions, Danah Boyd revient sur cette notionen indiquant : "But the information ecology we live in today has twisted this whole thing upside down. Just because I can follow the details of Angelina Jolie's life doesn't mean she knows that I exist. This is what scholars talk about as parasocial relations. With Facebook, you can turn your closest friends into celebrities, characters you gawk at and obsess over without actually gaining the benefits of social intimacy and bonding." Ce seul et dernier critère permet d'expliciter nombre des phénomènes de viralité, de propagation, de "buzz", mais il porte également trace de la nature profonde des dynamiques contributives et du sentiment d'appartenance à une communauté (et des phénomènes de reconnaissance liés, à l'intérieur des mêmes communautés).
A regarder aujourd'hui le déploiement, l'essor et les configurations chaque fois nouvelles et dans le même temps si peu souvent inattendues des sites emblématiques du web contributif, à regarder aujourd'hui tout cela sous l'angle des trois notions sus-citées, il me semble que l'on doit pouvoir comprendre un peu mieux à la fois les raisons de l'engouement qu'ils suscitent et le devenir dont ils sont porteurs.
L'indexation du temps réel. Naturellement, il reste encore des grands médias d'agrégation dont ce billet n'a pas traité : je pense bien sûr aux moteurs de recherche. Ces moteurs qui sont déjà capables de remonter le temps de diverses manières (ici ou là), capables également d'inférences (moteurs de divination et web implicite), et qui ont intégré progressivement (avec les news, puis les blogs) la question aujourd'hui si cruciale de l'indexation en temps réel pour en arriver finalement et plus précisément à l'ambition d'indexation du temps réel. <Parenthèse> Hallucinant vertige linguistique c'est désormais la traduction automatique qui se fait également en temps réel. </Parenthèse>
MMM. Moteurs méta-médias. Du point de vue de l'angle choisi pour ce billet, ces moteurs peuvent être décrits comme des "méta-médias d'agrégation". Ils ne se contentent en effet pas seulement d'agréger de manière cumulative des contenus et des flux mais ils permettent également d'isoler, de choisir, de discriminer, de capter (l'attention) et de retenir (l'attention et les contenus). A ce titre ils disposent d'une triple caractérisation, à la fois :
- moteurs/médias de discrimination : les listes, leurs listes de résultats, donnent à lire un ordre du monde conditionné par l'arbitraire algorithmique
- moteurs/médias de captation : leurs zones de saisie sont la porte d'entrée incontournable d'une certaine approche (notre attention) de l'information et de la connaissance (les contenus)
- moteurs/médias de rétention : l'attention une fois captée à vocation à être conservée et enfermée dans une périphérie de services propriétaires, et les contenus eux-mêmes sont également "retenus" dans le cache des moteurs.
Les petits flux font les grandes rivières. Et les grandes rivières intéressent les grands moteurs (cf l'effet de digue détaillé plus haut dans ce billet). Les moteurs, tous les moteurs regardent donc d'un oeil plein de convoitise le nouveau champion du temps réel : Twitter et sa périphérie de services. Après les rumeurs et les tentatives de rachat, les deux géants (Microsoft et Google) se contenteront finalement de l'indexation des tweets (sur le sujet, voir notamment le billet de Didier Durand et tous ceux signalés en lien ci-après)
Lire la suite
Rejoignez PSST ! La plateforme d'échanges interprofessionnelle !
envoyez nous vos actualités + inscrivez vous a la newsletter : www.psst.fr
SOURCE : affordance.typepad.com
PAR: alexis mouthon
ACCÈS DIRECT A LA PLATEFORME: PSST.FR
UNE INITIATIVE DE: POURQUOI TU COURS?
AGENCE DE PLANNING STRATEGIQUE 2.0
DIRIGÉE PAR: Jérémy Dumont

Laisser un commentaire