On ne présente plus vraiment Tim O’Reilly et John Battelle. Tim O’Reilly,
des éditions O’Reilly, est devenu l’un des gourous incontournables du
web. Initiateur – et promoteur – de la notion de Web 2.0 (voir notre traduction), il demeure l’un des plus fins observateurs du changement technologique. John Battelle, journaliste, auteur de La révolution Google est quant à lui l’un des spécialistes des moteurs de recherche. Ils ont commis, à l’entrée de l’été, un texte important,
essayant de définir, 5 ans après l’apparition de la notion de Web 2.0,
l’émergence d’un nouveau paradigme, entre le Web 2.0 (celui des
plates-formes sociales) et le Web 3.0 (le web sémantique), comme l’explique très bien Frédéric Cavazza.
Un terme qui s’efforce de mettre en cohérence l’évolution du web des
plateformes 2.0 vers le temps réel, les écosystèmes de données, les
objets communicants…C’est là le Web Squared, ce web à la puissance 2, ce web exponentiel (1)
que proposent O’Reilly et Battelle. Après avoir déplacé les
utilisateurs au coeur du système (Web 2.0), ce Web² s’intéresse aux
données. Ce sont elles la nouvelle puissance du web ! On passe d’un web
2.0 qui exploite l’intelligence collective des hommes à un Web² qui
exploite l’intelligence collective des capteurs et des données… Un
texte important, qui méritait une traduction.
Il y a cinq ans, nous lancions une conférence sur une idée simple,
qui est devenue un mouvement. La Conférence originale Web 2.0
(dorénavant le Sommet Web 2.0)
a été conçue dans le but de redonner confiance à une industrie
déboussolée après l’éclatement de la bulle internet. Le Web n’en était
qu’à ses premiers temps, avancions-nous. En fait, il était en voie de
devenir une plateforme robuste pour une génération d’applications et de
services informatiques qui allaient transformer notre culture.
Dans notre programme initial, nous nous demandions pourquoi
certaines entreprises avaient survécu à cette bulle, tandis que
d’autres avaient échoué si lamentablement. Nous observions également
l’éclosion d’un ensemble de startups et cherché à comprendre
pourquoi elles se développaient si rapidement. Les réponses nous ont
aidés à comprendre les principes du marché sur cette nouvelle
plateforme.
Notre principale intuition était que « le réseau en tant que
plateforme » signifiait bien davantage que simplement fournir de
vieilles applications via le réseau (« le logiciel comme service ») ;
cela signifiait à mesure que leur des applications qui s’amélioraient à
mesure que leur nombre d’utilisateurs augmentait, en exploitant les
effets de réseau, non seulement pour gagner de nouveaux utilisateurs,
mais aussi pour apprendre et progresser à partir de leurs contributions.
De Google et Amazon à Wikipedia, eBay et Craiglist, nous constations
que le logiciel jouait un rôle facilitateur, mais que la valeur était
créée par et pour la communauté des utilisateurs. Depuis, de nouvelles
et puissantes plateformes, telles Youtube, Facebook et Twitter, ont
démontré cette même idée de nouvelles manières. Le Web 2.0 consiste à exploiter l’intelligence collective.
Les applications de l’intelligence collective reposent sur la
gestion, la compréhension et l’exploitation de quantités massives de
données générées par les utilisateurs en temps réel. Les «
sous-systèmes » du système d’exploitation internet qui émerge sont de
plus en plus des sous-systèmes de données : localisation, identité (des
personnes, des produits, des lieux), et les écheveaux de sens qui les
lient entre eux. Cela produit de nouveaux leviers davantage
concurrentiels : les données sont le « Intel inside » de la prochaine
génération d’applications informatiques.
Aujourd’hui, nous réalisons que ces idées n’allaient pas seulement
dans la bonne direction, mais qu’elles se sont aussi appliquées à des
domaines que nous ne pouvions qu’imaginer en 2004. La révolution des
smartphones a déplacé le Web de nos bureaux à nos poches. Les
applications d’intelligence collective ne sont plus seulement activées
par des humains tapant sur des claviers, mais, de plus en plus, par des
capteurs. Nos téléphones et nos appareils photo deviennent les yeux et
les oreilles des applications ; des capteurs de mouvement et de
localisation indiquent où nous sommes, ce que nous regardons, et à
quelle vitesse nous nous déplaçons. Des données sont collectées,
présentées et exploitées en temps réel. L’échelle de la participation
gagne plusieurs ordres de grandeur.
Avec plus d’utilisateurs et de capteurs alimentant plus
d’applications et de plates-formes, les développeurs sont capables
d’affronter les problèmes sérieux du monde réel. En conséquence, les
possibilités du Web ne croissent plus de manière arithmétique : elles
croissent de manière exponentielle. D’où notre thème pour cette année :
le Web à la puissance deux. 1990-2004 : l’allumette a été frottée.
2005-2009 était l’amorce. 2010 sera l’explosion.
Depuis l’instant où nous avons introduit pour la première fois le
terme « Web 2.0 », les gens n’ont cessé de nous demander « Et après ? »
Comme si le Web 2.0 faisait référence à une sorte de numéro de version
d’un logiciel (plutôt qu’à un énoncé à propos de la seconde naissance
du Web après la bulle Internet), nous étions constamment interrogés sur
le “Web 3.0″. S’agira-t-il du Web sémantique ? Du Web sensible ? Du web
social ? Du web mobile ? Sera-t-il une forme de réalité virtuelle ?
Il est tout cela, et plus encore.
Le Web n’est plus une collection de pages statiques en HTML qui
décrivent quelque chose du monde. De plus en plus, le Web est le monde
– chaque chose et chaque personne de ce monde projettent une « ombre
d’information », une aura de données, qui, captée et traitée de manière
intelligente, ouvre d’extraordinaires possibilités et de stupéfiantes
implications. Le Web puissance deux est notre façon d’explorer ce
phénomène et de lui donner un nom.
Redéfinir l’intelligence collective : une nouvelle participation sensorielle
Pour comprendre dans quelle voie le Web se dirige, il est utile de
revenir à l’une des idées fondamentales qui sous-tend le Web 2.0, à
savoir que les applications en réseau qui réussissent sont des systèmes
exploitant l’intelligence collective.
Beaucoup de gens comprennent aujourd’hui cette idée dans le sens du « crowdsourcing
», à savoir qu’un grand groupe de personnes peut créer une œuvre
collective dont la valeur dépasse de loin celle que peut produire
n’importe quel participant individuel. Le Web dans son ensemble est une
merveille de crowdsourcing, comme le sont les places de marchés telles
qu’eBay et Craigslist, les collections de divers médias tels YouTube et
Flickr, ou encore les vastes collections de flux d’activités personnels
que l’on produit sur Twitter, MySpace et Facebook.
Beaucoup de gens comprennent également que l’on peut construire des
applications de manière à orienter leurs utilisateurs vers la
réalisation de tâches spécifiques, comme l’élaboration d’une
encyclopédie en ligne (Wikipedia), l’annotation d’un catalogue en ligne
(Amazon), l’ajout de points de données sur une carte (les nombreuses
applications web de cartographie), ou la découverte des actualités les
plus populaires (Digg, Twine). Le Mechanical Turk d’Amazon a été
jusqu’à proposer une plate-forme pour employer des personnes à des
tâches que des ordinateurs seuls ne parviennent pas à réaliser.
Mais est-ce vraiment ce que nous entendons par intelligence
collective ? L’intelligence, après tout, ne se définit-elle pas entre
autres comme cette caractéristique qui permet à un organisme
d’apprendre et de réagir à son environnement ? (Notez que nous laissons
entièrement de côté la question de la conscience de soi. Pour le moment
en tout cas.)
Imaginez le Web (défini au sens large, comme le réseau de tous les
appareils et applications connectés, et non l’application destinée aux
PC officiellement connue sous le nom de World Wide Web) comme un
nouveau-né. Il voit, mais au début, il ne peut concentrer le regard. Il
peut sentir, mais il ne connaît la taille de quelque chose qu’en le
portant à la bouche. Il entend les paroles de ses parents souriants,
mais ne peut les comprendre. Il est submergé de sensations, mais il
n’en comprend pas la plupart. Il n’a pas ou peu de contrôle sur son
environnement.
Petit à petit, le monde commence à prendre sens. Le bébé coordonne
les perceptions issues de ses nombreux sens, distingue le signal du
bruit, acquiert de nouveaux talents, et les tâches autrefois difficiles
deviennent automatiques.
La question qui se pose est alors la suivante : le web devient-il plus intelligent à mesure qu’il grandit ?
Considérons la recherche d’informations – aujourd’hui la lingua franca
du Web. Les premiers moteurs de recherche, en commençant par le
WebCrawler de Brian Pinkerton, portaient pour ainsi dire tout à leur
bouche. Ils suivaient les liens avec avidité, consommant tout ce qu’ils
trouvaient. Le classement s’établissait par la « force brute » des
correspondances de mots-clefs.
En 1998, Larry Page et Sergey Brin accomplissaient une percée en
réalisant que les liens ne sont pas simplement un moyen de trouver de
nouveaux contenus, mais aussi un moyen de les classer et de les relier
à la grammaire plus élaborée du langage naturel. En substance, chaque
lien est devenu un vote, et les votes de personnes compétentes (ainsi
mesuré par le nombre et la qualité des personnes qui à leur tour votent
pour eux) comptent plus que d’autres.
Les moteurs de recherche modernes utilisent maintenant des
algorithmes complexes et des centaines de critères de classement
différents pour produire leurs résultats. On compte, parmi les sources
de données, celle de la boucle de rétroaction générée par la fréquence
des termes de recherche, le nombre de clics d’utilisateurs sur un
résultat de recherche, et nos propres recherches personnelles et
historiques de navigation. Par exemple, si une majorité d’utilisateurs
commence à cliquer sur le cinquième élément d’une page spécifique de
résultats de recherche plus souvent que le premier, l’algorithme de Google
interprète ceci comme un signal indiquant que le cinquième résultat est
potentiellement meilleur que le premier, et ajuste finalement les
résultats en conséquence.
Considérons maintenant une application de recherche encore plus
récente, Google Mobile pour l’iPhone. L’application détecte le
déplacement du téléphone vers votre oreille, et passe automatiquement
en mode de reconnaissance vocale. Elle utilise le micro pour écouter
votre voix, et décode ce que vous dites, à partir, non seulement de ses
algorithmes et de sa base de données de reconnaissance vocale, mais
aussi de la correspondance avec les termes de recherche les plus
fréquents présents dans sa base de données de recherches. Le téléphone
utilise le GPS ou la triangulation cellulaire afin de détecter son
emplacement, et exploite également cette information. Une recherche
pour “pizza” renvoie le résultat qui sera probablement celui que vous
attendiez : le nom, l’emplacement et les coordonnées des trois
pizzerias les plus proches.
Tout d’un coup, nous ne cherchons plus par l’intermédiaire d’un
clavier et d’une grammaire de recherche formelle, nous parlons au Web
et avec lui. Il devient assez intelligent pour comprendre certaines
choses (telles que notre position) sans que nous ayons à le lui dire
explicitement. Et ce n’est que le début.
Et si certaines des bases de données référencées par l’application –
telle la correspondance entre coordonnées GPS et adresses – sont «
enseignées » à celle-ci, d’autres, comme la reconnaissance vocale, sont
« apprises » par le traitement de grands ensembles de données «
crowdsourcés ».
Voilà manifestement un système « plus intelligent » que ceux que
nous connaissions il y a encore quelques années. La coordination de la
reconnaissance vocale et de la recherche, des résultats de recherche et
du lieu, est similaire à la coordination « main-œil » que le bébé
acquiert progressivement. Le Web grandit, et nous sommes tous ses
parents collectifs.
Faire coopérer les sous-systèmes de données
Dans notre analyse initiale du Web 2.0, nous avancions que le futur
« système d’exploitation internet » se composerait d’une série de
sous-systèmes de données interopérables. L’application Google Mobile
fournit un exemple de la façon dont un système d’exploitation fondé sur
les données pourrait fonctionner.
Dans cet exemple, toutes les données des sous-systèmes sont la
propriété d’un fournisseur – Google. Dans d’autres cas, comme avec
Apple iPhoto ‘09, qui intègre Flickr et Google Maps, ainsi que les
propres services d’Apple, l’application utilise des services de bases
de données distribuées provenant de nombreux fournisseurs.
Comme nous l’avions d’abord noté en 2003, « les données sont le
Intel Inside » de la prochaine génération d’applications informatiques.
Ainsi, si une entreprise a le contrôle sur une source unique de données
nécessaire au fonctionnement d’applications, elle sera en mesure de
tirer une rente monopolistique de l’utilisation de ces données. En
particulier, si une base de données est générée par des contributions
d’utilisateurs, les leaders du marché seront en situation de rendements
croissants, puisque la taille et la valeur de leur base de données
progresseront plus rapidement que celles de n’importe quel nouvel
entrant.
Nous voyons par conséquent l’ère du Web 2.0, comme une course à
l’acquisition et au contrôle de fonds de données. Certains de ces fonds
– la masse critique des listes de vendeurs sur eBay, ou la masse
critique des publicités par petites annonces sur Craigslist – sont
spécifiques aux applications. Mais d’autres ont déjà toutes les
caractéristiques de services essentiels, d’infrastructures du système.
Prenons par exemple les registres des noms de domaine du DNS, qui
constituent l’une des épines dorsales de l’internet. Pensons à CDDB (la
base de données des disques compacts, NDT), utilisée par pratiquement
toutes les applications musicales pour consulter les métadonnées des
chansons et albums. De même, les données cartographiques de
fournisseurs comme Navteq et TeleAtlas sont utilisées par quasiment
toutes les applications de cartographie en ligne.
Il y a une compétition actuellement pour s’emparer du graphe social.
Mais nous devons nous demander si ce service est si essentiel qu’il
doive être accessible à tous.
Il est facile d’oublier qu’il y a 15 ans à peine, le courrier
électronique était aussi fragmenté que les réseaux sociaux aujourd’hui,
avec des centaines de systèmes de messagerie incompatibles raccordés
par des passerelles fragiles et encombrées. L’un de ces systèmes —
internet RFC 822 e-mail – est devenu l’étalon-or des échanges.
Nous nous attendons à voir la même standardisation advenir dans les
services internet et les sous-systèmes essentiels. Les concurrents qui
pensent que « le gagnant ramasse la mise » seraient bien avisés de
s’unir pour faciliter la création de systèmes construits à partir des
meilleurs sous-systèmes issus d’entreprises en coopération.
Comment le Web apprend : sens explicite contre sens implicite
Mais comment le Web apprend-il ? Certaines personnes imaginent que,
pour que les programmes informatiques comprennent et réagissent au
sens, la signification doit être codée dans une taxonomie particulière.
Or, ce que nous voyons en pratique, c’est que la signification
s’apprend « par déduction » à partir d’un corpus de données.
La reconnaissance vocale et la vision par ordinateur fournissent
deux excellents exemples de ce type d’apprentissage par les machines.
Mais il est important de se rendre compte que les techniques
d’apprentissage des machines ne s’appliquent pas qu’aux données issues
de capteurs. Par exemple, le système de vente aux enchères de
publicités de Google est un système d’apprentissage qui optimise en
temps réel le placement et les tarifs à partir d’algorithmes
d’apprentissage.
Dans d’autres cas, le sens est « enseigné » a l’ordinateur. Ainsi,
on indique à l’application les correspondances entre un ensemble de
données structurées et un autre. Par exemple, l’association entre
adresses et coordonnées GPS est « enseignée » plutôt qu’apprise. Les
deux séries de données sont structurées, mais ont besoin d’une
passerelle pour se relier.
Il est également possible de donner une structure à des données qui
paraissent non structurées en enseignant à une application comment
reconnaître le lien entre des données. Par exemple, You R Here,
une application iPhone, combine parfaitement ces deux approches. Vous
utilisez l’appareil photo de votre iPhone pour photographier une carte
contenant des détails que l’on ne trouve pas sur les applications
cartographiques généralistes telles que Google Maps – comme la carte
d’un sentier dans un parc naturel, ou toute autre carte de randonnée.
Vous utilisez le GPS du téléphone pour définir votre position actuelle
sur la carte. Vous marchez à une distance de là, et fixez un second
point. Maintenant votre iPhone est capable de suivre votre position sur
cette image de carte personnalisée aussi facilement que sur Google
Maps.
Les services web les plus essentiels et les plus utiles ont été
construits de cette façon : en reconnaissant des schémas d’organisation
dans des ensembles de données non structurées a priori, puis en enseignant ces schémas à l’ordinateur.
Ti Kan, Steve Scherf et Graham Toal, les créateurs de CDDB, ont
compris que l’enchaînement des durées des pistes d’un CD forme une
signature unique qui peut être associée à un nom d’artiste, d’album et
de chanson. Larry Page et Sergey Brin se sont rendu compte que chaque
lien est un vote. Marc Hedlund de Wesabe a réalisé que chaque
utilisation d’une carte de crédit est également un vote, qu’il y a un
sens caché dans les visites répétées au même commerçant. Mark
Zuckerberg de Facebook s’est aperçu que les relations amicales en ligne
composent un réseau social généralisé. Ils ont tous transformé des
données qui, de prime abord, ne semblaient pas structurées, en données
structurées. Et tous ont utilisé à la fois des machines et des humains
pour le faire.
Notion clé : Une compétence primordiale
de l’ère du Web 2.0 repose sur la découverte de métadonnées implicites,
puis la construction d’une base de données pour capter ces métadonnées
et/ou promouvoir un écosystème autour de celles-ci.
Quand le Web rencontre le monde : « l’ombre informationnelle » et « l’internet des objets »
Dites « applications basées sur des capteurs », et de nombreuses
personnes imaginent un monde d’applications fondées sur des étiquettes
RFID ou des modules ZigBee.
Ce futur est commodément lointain, avec des déploiements expérimentaux
et quelques applications excitantes en gestation. Mais beaucoup de gens
omettent de remarquer que la révolution des capteurs est déjà bien
avancée. C’est la face cachée du marché des mobiles, et son opportunité
la plus détonante.
Aujourd’hui, les smartphones contiennent des microphones, des
appareils photo, des détecteurs de mouvement, des capteurs de proximité
et des capteurs de position (GPS, triangulation cellulaire, et même,
dans certains cas, une boussole). Ces capteurs ont révolutionné
l’interface utilisateur des applications — vous n’avez qu’à jouer avec
l’Ocarina de Smule pour l’iPhone pour le constater.
Mais souvenez-vous : les applications mobiles sont des applications
connectées. Les enseignements essentiels du Web 2.0 s’appliquent à
toutes les applications réseau, qu’elles s’appuient sur le Web ou sur
un téléphone mobile (et la ligne de démarcation entre les deux est de
plus en plus floue). Les applications basées sur des capteurs peuvent
être conçues pour s’améliorer à mesure que leur nombre d’utilisateurs
croît, en collectant des données qui, par une boucle de rétroaction
vertueuse, augmentent à leur tour l’utilisation. La reconnaissance
vocale dans l’application pour mobile de Google est l’une de ces
applications. Les nouvelles applications GPS connectées à l’internet
intègrent également des boucles de rétroaction qui calculent votre
vitesse et l’utilisent pour estimer votre heure d’arrivée en fonction
de ses connaissances de la circulation sur votre chemin. Aujourd’hui,
les modèles de circulation sont principalement des estimations, de plus
en plus, ils seront évalués en temps réel.
Le Net gagne en intelligence plus vite que vous ne le pensez.
Considérez le géomarquage de photos. Au départ, les utilisateurs
enseignaient à leurs ordinateurs l’association entre les photos et les
lieux en les étiquetant. Dès que les appareils photo ont su se
localiser, chaque photo a été géomarquée, avec une précision bien plus
grande que celle qu’un humain pourrait donner.
Et l’augmentation de la précision dans un ensemble de données augmente le potentiel d’un autre ensemble. Prenez la précision de ces cartes générées par des photos géomarquées de Flickr :


Quelle sera la précision de ces cartes lorsqu’elles s’appuieront sur des milliards de photos ?
Mais les connaissances que produiront les réseaux de capteurs visuels du net ne se limiteront pas à la localisation.
Bien qu’il en soit encore à ses débuts, le programme de reconnaissance des visages de l’Apple iPhoto ‘09
fonctionne plutôt bien. À partir de quel point y a-t-il assez de
visages nommés pour que le système soit capable de vous montrer
uniquement les gens qu’il ne reconnaît pas ? (Qu’Apple fournisse cette
information comme un service de base est une question ouverte, que
quelqu’un d’autre le fasse comme un service réseau ne l’est assurément
pas).
L’application guide de voyage Wikitude
pour Androïd porte la reconnaissance d’image encore plus loin. Pointez
la caméra du téléphone vers un monument ou un autre point d’intérêt et
l’application compare ce qu’elle voit avec ce dont elle dispose dans sa
base de données en ligne (répondant à la question « qu’est-ce qui
ressemble à cela à proximité ?). L’écran vous montre ce que voit la
caméra, de sorte qu’elle ressemble à une fenêtre, mais intégrant un
affichage tête haute comportant des informations additionnelles sur ce
que vous observez. C’est la première expérience d’une « réalité
augmentée » future. Elle superpose des distances et des points
d’intérêts, utilisant la boussole pour suivre l’endroit où vous
regardez. Vous pouvez balayer tout autour de vous avec votre téléphone
et analyser la zone à la recherche de choses intéressantes à proximité
».
Layar
porte cette idée encore un peu plus loin, promettant un cadre pour de
multiples couches de contenus de « réalité augmentée » qui seront
accessibles par le biais de la caméra de votre téléphone mobile.
Pensez les applications basées sur des capteurs comme si elles vous conféraient des superpouvoirs. Darkslide
vous donne une super vue, vous montrant des photos proches de vous.
L’application Twitter pour iPhone peut « trouver des tweets récents
proches de vous », elle vous donne une super audition et saisit les
conversations qui se déroulent autour de vous.
Photosynth, la photographie en ultra haute définition et les images infinies
L’augmentation respective de la richesse des données de capteurs et
de l’apprentissage par les machines repousse les frontières de
l’expression créative et de la reconstruction ingénieuse du monde.
Photosynth de Microsoft démontre que l’ordinateur peut synthétiser
des images en 3D à partir de photographies crowdsourcées. La
photographie en ultra haute définition révèle des détails qui sont
invisibles, même pour les gens sur place. Infinite Images
d’Adobe révèle quelque chose d’encore plus surprenant : la capacité de
l’ordinateur à synthétiser des mondes imaginaires qui n’ont jamais
existé, extrapolant une simulation 3D complète à partir d’une série de
photos. Il faut voir la vidéo de démonstration pour la croire.
Toutes ces percées sont le reflet du fait, noté par Mike Kuniavsky de ThingM, que les objets du monde réel projettent « des ombres informationnelles »
dans le cyberspace. Par exemple, un livre à une ombre d’information sur
Amazon, Google Recherche de livres, Goodreads, Shelfari et
LibraryThing, sur eBay et BookMooch, sur Twitter et sur un millier de
blogs.
Une chanson a une ombre d’information sur iTunes, Amazon, Rhapsody,
MySpace ou Facebook. Une personne a une ombre d’information dans une
foule d’e-mails, de messages instantanés, d’appels téléphoniques, de
tweets, de billets de blogs, de photographies, de vidéos ou de
documents officiels. Un produit sur une étagère de supermarché, une
voiture dans le parking d’un concessionnaire, une palette de bore
nouvellement extrait reposant sur un quai de chargement, une vitrine
dans la rue principale d’une petite ville – tous possèdent désormais
une ombre informationnelle.
Dans de nombreux cas, ces ombres d’information sont liées avec leur
alter ego du monde réel par des identifiants uniques : un numéro ISBN
ou ASIN, un numéro de pièce, ou, plus proche des individus, un numéro
de sécurité sociale, un numéro d’immatriculation de véhicule ou un
numéro de série. D’autres identifiants sont plus souples, mais
l’identité peut également être triangulée : un nom accompagné d’une
adresse ou d’un numéro de téléphone, un nom et une photo, un appel
téléphonique depuis une localisation particulière qui ébranle ce qui
aurait pu être autrefois un alibi en béton.
Beaucoup de ceux qui parlent de « l’internet des objets »
présument que la combinaison d’étiquettes RFID très bon marché et
d’adresses IP pour les objets du quotidien va nous y conduire.
L’hypothèse repose sur l’idée que chaque objet doit avoir un
identifiant unique pour que « l’internet des objets » fonctionne.
Ce que nous dit la sensibilité Web 2.0 c’est que nous parviendrons à
l’internet des objets par le biais d’un fatras de données de capteurs
qui contribueront, du bas vers le haut, à des applications
d’apprentissage des machines, qui, progressivement, comprendront de
mieux en mieux les données qui leur seront confiées. Une bouteille de
vin au rayon de votre supermarché (ou tout autre objet) n’a pas besoin
d’avoir une étiquette RFID pour rejoindre « l’internet des objets », il
suffit simplement que vous preniez en photo son étiquette. Votre
téléphone mobile, la reconnaissance d’image, la recherche et le web
sensitif feront le reste. Nous n’avons pas à attendre que chaque objet
dans un supermarché ait un identifiant unique et lisible par une
machine. Au lieu de cela, nous pouvons nous contenter de codes-barres,
d’informations ajoutées à des photos, et d’autres bidouillages qui ne
sont rien d’autre que des moyens d’extraire par la force de l’identité
à partir de la réalité.
Dans son travail sur la détermination de l’identité,
Jeff Jonas isole un fait fascinant. Jonas construisait une base de
données d’Américains, tels qu’ils étaient connus par diverses sources.
Sa base de données a augmenté jusqu’à contenir environ 630 millions «
d’identités » avant que le système ne dispose de suffisamment
d’informations pour identifier toutes les variantes. Mais à un certain
point, sa base de données a commencé à apprendre, puis à se réduire.
Chaque nouveau chargement de données rendait la base de données plus
petite, et non plus grosse. 630 millions plus 30 millions devenaient
600 millions, car le subtil calcul de reconnaissance par « accumulation
de contexte » exerçait sa magie.
A mesure que l’ombre d’information devient plus épaisse, plus
substantielle, le besoin de métadonnées explicites diminue. Nos
appareils photos, nos microphones sont en train de devenir les yeux et
les oreilles du Web, nos détecteurs de mouvement et capteurs de
proximité sa proprioception, le GPS son sens de la localisation. Le
bébé grandit. Nous rencontrons l’internet, et c’est nous.
Capteurs et programmes de surveillance n’agissent pas seuls, mais en
concerts avec leurs partenaires humains. Nous enseignons à notre
programme photo à reconnaître les visages qui sont importants pour
nous, nous partageons des nouvelles qui ont de l’importance, nous
ajoutons des étiquettes à nos tweets afin qu’ils puissent être
regroupés plus facilement. En ajoutant de la valeur pour nous-mêmes,
nous ajoutons également de la valeur au web social. Nos dispositifs
nous prolongent/augmentent et nous les prolongeons/augmentons.
Ce phénomène ne se limite pas au web grand public. « L’initiative pour une planète plus intelligente » (Smarter Planet Initiative) d’IBM et le projet de “peau planétaire” (planetary skin)
de la NASA et Cisco, montrent toutes deux, combien l’économie sera
transformée par le web des capteurs. Les raffineries de pétrole, les
aciéries, les usines et les chaînes d’approvisionnement sont en train
de s’instrumenter à l’aide de capteurs et des mêmes algorithmes
d’apprentissage machines que ceux que nous voyons dans les applications
web.
Mais comme c’est souvent le cas, l’avenir n’est pas plus clair dans
le discours des grandes entreprises que dans les savantes optimisations
des adopteurs précoces et autres “alpha geeks”. Nat Torkington l’un des
blogueurs du Radar [d’O'Reilly] raconte l’histoire d’un chauffeur de
taxi qu’il a rencontré à Wellington en Nouvelle-Zélande, qui a conservé
les logs de six semaines d’activité (GPS, météo, passagers et trois
autres variables), en a alimenté son ordinateur, et a produit des
analyses pour savoir où il doit être à tout moment dans la journée afin
de maximiser ses recettes. Au final, il vit bien mieux et travaille
moins que les autres chauffeurs de taxi. Instrumenter le monde paie.
L’analyse des données, leur visualisation et
l’usage d’autres techniques pour identifier des modèles dans les
données deviendront des compétences de plus en plus précieuses. Les
employeurs devraient en prendre note.
Cela ne veut pas dire que des identifiants uniques d’objets ne
joueront pas un très grand rôle, surtout pour des objets fongibles qui
appartiennent à des catégories bien connues (comme un livre ou une
collection de musique). Mais les faits suggèrent que les systèmes
formels qui ajoutent à priori du sens aux données numériques sont en
réalité moins puissants que les systèmes informels qui extraient du
sens des données en observant leurs caractéristiques. Un ISBN fournit
un identifiant unique pour le livre, mais un titre et un auteur vous en
approchent tout autant.
On verra émerger des projets qui se fixeront pour objectif de
catégoriser systématiquement les données brutes issues de capteurs, sur
le modèle d’Astrometry, dont les fondateurs déclarent “Nous
construisons un “moteur d’astrométrie” pour créer des métadonnées
astronométriques correctes et conformes aux normes qui s’appliqueront à
toutes les images astronomiques jamais capturées, dans le passé ou à
l’avenir, quel que soit l’état de son archivage.” En utilisant ce moteur, le robot astroétiquetteur
se balade sur Flickr pour chercher des images d’objets astronomiques et
leurs donner de bonnes métadonnées, ce qui leur permet ensuite d’être
incluses dans une recherche d’images astronomiques. Il s’agit d’un
service analogue à CDDB : un service de recherche qui cartographie les
données en désordre pour en faire une base de données organisée
permettant des recherches.
Comme c’est souvent le cas, les premiers exemples sont souvent
l’œuvre de passionnés. Mais ils annoncent un monde dans lequel les
entrepreneurs appliqueront les mêmes principes à de nouvelles
opportunités d’affaires. Plus notre monde sera activé par les capteurs,
plus il y aura de surprenantes révélations dans la façon, dont beaucoup
de sens – et de valeur -, pourront être extraits de leurs flux de
données.
Pensez à ce que l’on appelle “le réseau électrique intelligent”. Gavin Starks, le fondateur d’AMEE,
un service web neutre pour des données de capteurs liées à l’énergie,
notait que les chercheurs qui ratissaient les données de compteurs
intelligents de plus d’1,2 million de foyers au Royaume-Uni avaient
déjà découvert que chaque appareil possédait une signature énergétique
unique. Il est possible alors de déterminer non seulement la puissance
tirée par l’appareil, mais également la marque et le modèle de chacun
des appareils électro-ménagers du foyer – une sorte de CDDB pour les
appareils électroménagers et électroniques !
Cartographier des données non structurées pour
les transformer en ensembles de données structurées sera l’une des
compétences-clé du web à la puissance deux.
L’essor du temps réel : un cerveau collectif
En étant de plus en plus conversationnelle, la recherche est aussi
devenue plus rapide. Le blogging a ajouté des dizaines de millions de
sites à indexer chaque jour et même chaque heure, mais le microblogging
nécessite une mise à jour instantanée – impliquant un changement
profond à la fois dans l’infrastructure et dans la méthode. Quiconque
recherchant un sujet populaire sur Twitter est confronté au message
suivant « Voyez ce qu’il se passe maintenant », suivi, quelques
instants plus tard par « 42 résultats supplémentaires depuis que vous
avez débuté la recherche. Actualisez la page pour les consulter. »
En outre, les utilisateurs continuent de co-évoluer avec nos
systèmes de recherche. Prenez les hashtags sur Twitter : une convention
humaine qui facilite les recherches en temps réel à propos d’événements
partagés. Une fois de plus, voyez comme la participation humaine ajoute
une couche structurante — aussi sommaire et incohérente soit-elle – au
flux de données brut.
La recherche en temps réel encourage la réponse en temps réel. Les «
cascades d’informations » retweetées propagent les flashs d’information
à travers tout Twitter en un instant, ce qui en fait la première source
de prise de connaissance de l’actualité pour de nombreuses personnes.
Une fois encore, tout ceci n’est que le commencement. Avec des services
comme les mises à jour de statut de Facebook et Twitter, une nouvelle
source de données a été ajoutée au Web – des indications en temps réel
de ce qui existe dans notre esprit collectif.
Le Guatemela et l’Iran ont tous deux ressenti l’effet Twitter, les
protestations politiques ayant été lancées et coordonnées sur Twitter.
Ce qui nous amène à un débat opportun : nombreux sont ceux qui
s’inquiètent de l’effet déshumanisant de la technologie. Nous
partageons cette inquiétude, mais nous voyons aussi la contre-tendance,
au travers de laquelle la communication nous unit, nous donne un
contexte commun et, finalement, une identité commune.
Twitter nous apprend aussi une chose importante sur la manière
d’adapter les applications aux appareils. Les Tweets sont limités à 140
caractères, et ces mêmes limites ont conduit à une profusion
d’innovations. Les utilisateurs de Twitter ont développé une
sténographie (@nomdutilisateur, #hashtag, $cotation), que les logiciels
clients Twitter ont bientôt converti en liens cliquables. Les «
raccourcisseurs » d’URL pour les liens web traditionnels sont devenus
populaires, et leurs opérateurs se sont vite rendu compte que la base
de données des liens cliqués permet de nouvelles analyses en temps
réel. Bit.ly, par exemple, présente en temps réel le nombre de clics que vos liens suscitent.
Par conséquent, une nouvelle couche
d’informations est en cours de construction autour de Twitter, une
couche qui pourrait croître jusqu’à rivaliser avec les services devenus
le cœur du web : la recherche, l’analyse, et les réseaux sociaux.
Twitter démontre aussi aux opérateurs de téléphonie mobile ce qu’il
peut se passer lorsque vous fournissez des API. Les leçons tirées de
l’écosystème d’applications de Twitter pourraient, soit indiquer les
prochaines opportunités pour les SMS et autres services mobiles, soit
produire ce qui les remplacera.
Le temps réel ne se limite pas aux médias sociaux et mobiles. De
même que Google s’est aperçu qu’un lien est un vote, Wal-Mart s’est
rendu compte qu’un client qui achète un article vote, et que la caisse
enregistreuse est un capteur chargé de comptabiliser ce vote. Les
boucles de rétroaction en temps réel supervisent les stocks. WalMart
n’est peut-être pas une société Web 2.0, mais elle est sans aucun doute
une entreprise Web à la puissance deux : une entreprise dont les
opérations sont tellement imprégnées par l’informatique, si
fondamentalement dirigées par les données de leurs clients, que cela
lui confère un avantage concurrentiel immense. L’une des grandes
opportunités que crée le Web puissance deux est de permettre aux petits
détaillants qui ne peuvent pas s’appuyer sur une chaîne
d’approvisionnement monolithique d’accéder à cette capacité d’analyse
en temps réel.
Comme l’a expliqué avec tant d’éloquence Vivek Ranadive, fondateur et PDG de Tibco, dans son récent portrait par Malcolm Gladwell du New Yorker :
« Tout dans le monde fonctionne maintenant en temps réel. Donc,
quand un certain type de chaussure ne se vend pas dans votre boutique,
il ne se passe pas six mois avant que le type en Chine le découvre.
C’est presque instantané, grâce à mon logiciel. »
Même sans achats dirigés par capteurs, l’information en temps réel à
déjà un impact énorme sur les affaires. Lorsque vos clients déclarent
leurs intentions partout sur le Web (et sur Twitter) – en acte ou en
paroles – les entreprises doivent à la fois écouter et se joindre à la
conversation. Comcast a transformé son approche de service à la
clientèle en utilisant Twitter ; d’autres entreprises en font autant.
L’autre histoire frappante dont nous avons récemment entendu parler
concerne une boucle de rétroaction en temps réel : le système Houdini
utilisé par la campagne Obama pour retirer les électeurs de la liste
d’appel « Get Out the Vote » dès qu’ils ont effectivement voté. Dans
les districts majeurs, des observateurs de l’élection signalaient quels
électeurs inscrits venaient d’émarger, afin de les faire « disparaître
» des listes d’appel fournies aux bénévoles (d’où le nom Houdini).
Houdini est le Mechanical Turk d’Amazon en plus visible : un groupe
de bénévoles sert de capteurs, de nombreuses files d’attente de données
en temps réel sont synchronisées, puis sont utilisées pour agir sur les
instructions d’un autre groupe de bénévoles servant eux d’actionneurs
de ce même système.
Les entreprises doivent apprendre à exploiter
des données temps réel comme des signaux essentiels qui alimentent une
boucle de rétroaction beaucoup plus efficace pour le développement de
produits, le service à la clientèle, et l’allocation des ressources.
En conclusion : ce qui compte
Tout ceci est, à bien des égards, un préambule à ce qui pourrait
constituer la partie la plus importante de l’opportunité constituée par
le web puissance 2.
La nouvelle orientation du web, en voie de collision avec le monde
physique, ouvre d’immenses possibilités pour les entreprises, ainsi que
pour traiter les problèmes majeurs de notre monde.
Des centaines d’exemples
démontrent que cela se passe déjà, sous nos yeux. Mais il y a beaucoup
d’autres secteurs pour lesquels des progrès sont nécessaires, que cela
concerne notre écosystème énergétique ou notre approche des systèmes de
santé, sans oublier notre système financier, qui est en plein désarroi.
Même dans un environnement favorable à la régulation, les
gouvernements sont désespérément surclassés par les systèmes financiers
qui fonctionnent en temps réel. Qu’avons-nous appris de l’Internet
grand public qui pourrait devenir la base d’un nouveau système de
réglementation financière du XXIe siècle? Nous avons besoin d’appliquer
les apprentissages par la machine à la finance : des algorithmes pour
détecter les anomalies, la transparence qui autorise un contrôle par
toute personne se sentant concernée, et pas seulement par des
régulateurs sous-dimensionnés et surchargés.
Quand nous avons lancé les rencontres “Web 2.0″, nous affirmions que
“le Web est une plateforme”. Depuis, des milliers d’entreprises et des
millions de vies ont été changés par les produits et services reposant
sur cette plateforme. Mais 2009 marque un tournant dans l’histoire du
Web. Il est temps de tirer parti de la véritable puissance de la
plateforme que nous avons construite. Le Web n’est plus une industrie
en soi, le Web est dorénavant le monde lui-même.
Et le monde a besoin de notre aide.
Pour résoudre les problèmes les plus saillants du monde, nous devons
mettre la puissance de l’Internet au travail – ses technologies, ses
modèles d’affaires, et peut-être, plus important encore, sa philosophie
d’ouverture, son intelligence collective et sa transparence. Et pour ce
faire, nous devons amener le Web à changer d’échelle. Nous ne pouvons
pas nous permettre une évolution arithmétique.
Il est temps pour le Web de se colleter au monde réel. Le Web rencontre le monde – c’est le Web à la puissance deux.
Tim O’Reilly et John Battelle
Traduction Marin Dacos, Hubert Guillaud, Daniel Kaplan et Robert-André Mauchin.
Appel à exemples !
Dans le cadre de ce document et de notre travail sur le programme du
Sommet du Web 2.0, nous aimerions votre avis. Nous cherchons à créer
une liste d’applications, services et projets qui reflètent le thème du
Web à la puissance deux.Quelques exemples :
– L’élection de Barack Obama a démontré comment l’internet peut-être
utilisé pour transformer la politique. Maintenant, son administration
s’est engagée à explorer comment la technologie pourrait transformer
concrètement la manière d’administrer et de gouverner.
Le gouvernement fédéral américain a pris un important engagement envers
la transparence et l’ouverture des données. Data.gov héberge désormais
plus de 100 000 flux de données en provenance de sources
gouvernementales américaines, et le blog de la Maison Blanche d’afficher son engament en faveur des 8 principes pour des données publiques ouvertes (NDT : voir la traduction de ses principes)
imaginées par un groupe d’activistes fin 2007. Célébrons les succès de
ce que beaucoup appellent désormais “Gouvernement 2.0″. Nous aimerions
entendre parler des succès du Gouvernement 2.0 partout dans le monde.Pourtant, en exprimant son avis sur l’orientation du Sommet sur le Gouvernement 2.0,
le responsable fédéral américain de la technologie Aneesh Chopra nous a
exhorté à ne pas nous concentrer sur les succès du Web 2.0 dans
l’administration, mais plutôt sur les problèmes non résolus. Comment la
communauté technologique peut-elle aider à résoudre des problèmes tels
que la mesure des emplois créés grâce au plan de relance économique ?
Comment peut-elle accélérer nos progrès vers l’indépendance énergétique
et la réduction d’émissions de CO2 ? Comment peut-elle nous aider à
refonder notre système éducatif pour produire une main-d’oeuvre plus
compétitive ? Comment peut-elle nous aider à réduire le gonflement des
coûts du système de santé ?– Twitter est utilisé pour rapporter les nouvelles de catastrophes,
et pour coordonner les interventions d’urgence. Des initiatives comme InSTEDD
(Support innovant pour les urgences, les maladies et les catastrophes)
s’appuient sur cette tendance pour l’amplifier. InSTEDD utilise des
techniques de l’intelligence collective pour fouiller des sources comme
des messages SMS (par exemple Geochat), des flux RSS, des listes de
diffusion (par exemple ProMed, Veratect, HealthMap, Biocaster,
EpiSpider), OpenROSA, Map Sync, Epi Info, des documents, des pages web,
des dossiers médicaux électroniques (par exemple OpenMRS), des données
sur les maladies animales (par exemple OIE, AVRI hotline), des flux
environnementaux (par exemple le système de télédétection de la NASA,
etc.) , le tout afin de recueillir des signaux sur les maladies
émergentes. L’initiative globale pour la prévision des virus (GVFI)
recueille désormais délibérément des données (dans ce cas, sur les
maladies émergentes passant de l’animal à l’homme) qui peuvent être
introduites dans ce système mondial d’alerte précoce.– Notre système de soins chancèle. Il y a peu de corrélation entre les dépenses et les résultats. Comme Atul Gawande l’a écrit dans le New Yorker :
“Les dirigeants locaux d’hôpitaux, de cliniques et d’agences de
santé comprennent leurs taux de croissance et leurs parts de marché.
Ils savent quand ils perdent ou gagnent de l’argent. Ils savent que si
leurs médecins apportent suffisamment d’affaires – chirurgie, imagerie
médicale, soins infirmiers à domicile -, ils feront de l’argent. Et
s’ils obtiennent que les médecins en rapportent plus, ils en feront
plus encore. Mais ils ne savent pas vraiment si les médecins font en
sorte que leurs communautés de patients soient en aussi bonne santé que
possible, ou s’ils sont plus ou moins efficaces que leurs homologues
venant d’ailleurs.”
En bref, nous mesurons les mauvais indicateurs. Comment pouvons-nous
appliquer les leçons du web 2.0 pour mesurer ce qui compte vraiment au
sein du système de santé ?– Des entreprises comme 23andMe ou PatientsLikeMe
appliquent le crowdsourcing pour construire des bases de données
destinées aux communautés de médecine personnalisée. 23andMe fournit
des tests génétiques à des fins personnelles, mais son objectif à long
terme est de fournir une base de données d’informations génétiques que les usagers pourront volontairement mettre à disposition des chercheurs.
PatientsLikeMe a créé un réseau social pour des gens atteints de
diverses maladies chroniques, qui transforment leur vie. En partageant
les détails de leurs traitements – ce qui marche et ne marche pas – ils
fournissent la base médicale la plus large du monde pour les résultats
d’essais. Quelles autres applications créatives des technologies Web
2.0 voyez vous faire avancer l’état du système de soin ?– Comment pouvons-nous créer des opportunités économiques en réduisant le coût des soins de santé ? Comme l’écrit
Abraham Verghesewrites de Stanford, la raison pour laquelle il est si
difficile de réduire les coûts des soins de santé est qu’”un dollar
dépensé en soins médicaux est un dollar de revenu pour quelqu’un”. Nous
ne pouvons pas simplement couper les coûts. Nous devons trouver des
façons de faire de l’argent en réduisant les coûts. À cet égard, nous
nous intéressons à des startups comme CVsim,
une société de simulation cardio-vasculaire. A partir de données de
scans CAT toujours plus précis, couplés avec un logiciel de simulation
d’écoulement du sang fonctionnant sur une plateforme hébergée, il est
concevable d’améliorer les résultats sanitaires et de réduire les coûts
tandis qu’on économise plusieurs milliards de dollars sur le marché de
l’angiographie, qui reste une procédure médicale coûteuse et risquée.
Si CVsim parvient à cet objectif, ils bâtiront une gigantesque
entreprise tout en réduisant la dépense nationale de santé. Quelles
autres possibilités la technologie propose-t-elle pour remplacer les
anciennes procédures médicales moins efficaces par de nouvelles,
potentiellement plus efficaces tout en coûtant moins cher ?– Dans le cadre du plan de relance financière, le gouvernement
dépense 5 milliards de dollars en subventions à l’isolement des
bâtiments. Comment les technologies du Web 2.0 pourraient-elles nous
dire si le programme atteint ses objectifs de création d’emploi et de
réduction de la consommation d’énergie ?– Les sociétés adoptent des outils de surveillance et de gestion en
temps réel pour construire des chaînes d’approvisionnement
intelligentes, gérer les ressources distantes, et en général, améliorer
leurs retours sur investissement en utilisant ce que Doug Standley et
Deloitte appellent “le capital intelligence”. Nous aimerions entendre
des exemples de personnes qui déploient ces technologies.– Des systèmes de surveillance du trafic en temps réel comme
ClearFlow de Microsoft réduisent les pertes de temps et d’énergie liées
aux déplacements quotidiens. Les services web suivent la progression
des bus et trains par rapport à leurs horaires d’arrivée prévus, afin
de rendre le transport public plus efficace et agréable. Ce sont des
avantages tangibles que tirent les consommateurs de l’instrumentation
du monde. Des tarifications urbaines dynamiques fondées sur les
informations de capteurs de trafic, comme celle qu’à construit IBM pour la ville de Stockholm,
créé des incitations économiques pour réduire le trafic aux heures de
pointe. Des initiatives soulèvent également des questions de
confidentialité. Nous sommes intéressés à entendre des histoires de
réussites – et des histoires effrayantes – sur la façon dont
l’instrumentation du monde change notre manière de vivre.– Les initiatives de réseaux de distribution d’électricité « intelligents » (Smart Grids)
permettront de réduire notre consommation d’énergie en augmentant
l’intelligence du système utilisé pour la délivrer. Comme nous le
suggérions plus haut, cela va ouvrir un nouveau front dans la guerre de
l’intimité. Les données qui seront révélées par ces applications ne
vont pas seulement rendre nos appareilsélectroménagers plus
intelligents, elles rendront également les marketeurs plus
intelligents. Il est peu probable cependant que cela les rende plus
humains et moins indiscrets !
____________
1. Pas facile de trouver une traduction adéquat à ce Web Squared.
Le web carré ? Le web au carré ? Le carré web ? Le web à la puissance 2
? Le Web factorisé ou le Web factoriel ? En opposant le web incrémental
au Web Squared, O’Reilly et Battelle donnent peut-être une solution.
Peut-être faut-il plutôt parler de Web géométrique (par rapport à un
Web dont la progression serait arithmétique) ou plus encore de “Web
exponentiel”, qui nous semble le mieux à même de donner de la
profondeur à l’expression imaginée par les auteurs anglo-saxons. Mais
nous avons retenu le Web à la puissance deux qui nous a paru plus
littéral.
SOURCE : internet actu
SUR LE VIDE POCHES : planning strategique
PAR : jérémy dumont
LE MEILLEUR DES BLOGS SUR PSST.FR
UNE INITIATIVE DE POURQUOITUCOURS?
AGENCE DE PLANNING STRATEGIQUE 2.0
DIRIGÉE PAR jérémy dumont

Répondre à Julien Bonnel Annuler la réponse.