WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Les apports du web 2.0 sur les futurs sites web, les enjeux dans la relation client et les impacts sur les modeles economiques

( Télécharger le fichier original )
par Dany Stéphane ZIE FOMEKONG
Université de Picardie Jules Verne - Master 2 Systèmes d'Information et Informatique Nomade (SIIN) 2009
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Mémoire Master 2 SIIN

D511 - Etudes et Recherche

Thème :

LES APPORTS DU WEB 2.0 SUR LES FUTURS SITES WEB, LES ENJEUX DANS LA RELATION CLIENT ET LES IMPACTS SUR LES MODÈLES ÉCONOMIQUES

Présenté par

ZIE FOMEKONG Dany Stéphane

Encadré par

M. Richard CHAIGNEAU

Année académique 2009/2010

Table des matières

Introduction 3

I. Web 2.0 : états des lieux et perspectives 4

1. Comprendre le web 2.0 4

a. Historique et définition 4

b. Le panorama des techniques et technologies utilisés par le web 2.0 5

c. Web 2.0 : concepts pratiques et technologiques 11

d. Web 2.0 : Point de vue social 13

2. Les principaux type de sites web 2.0 14

a. Les plateformes de blogs et de Réseau sociaux 14

b. Les interfaces de partages d'images et de Vidéos 18

c. Partage et agrégateur d'actualités 23

d. Les RIA 24

d. Les applications composite, ou Mashups. 27

e. Les espaces personnalisés en lignes 29

3. Evolutions probables 30

a. Blog 2.0 : Vous-même êtes votre propre marque 30

b. Social Shopping 2.0 : Nous sommes tous des commerçants 31

c. Réseaux sociaux 2.0 : des millions d' «amis » à portée de clic 31

d. Contenus multimédia 2.0 : Tous des directeurs de programmation 32

e. Mashup 2.0 : Vous êtes votre propre directeur informatique 32

II. Impact sur les modèles économiques et CRM 2.0 34

1. Les modèles économiques 34

a. E-Publicité 2.0 34

b. Libre-service et de participation de l'utilisateur 35

c. L'ouverture des services : disponibilité d'API et création de MashUp 36

d. Les limites 36

2. L'évolution du e-Commerce et du e-Commerce 37

a. Le e-commerce 2.0 38

b. Blog de marque 39

3. Stratégie marketing et CRM 41

a. Crowdsourcing et pronétariat 41

b. CRM 2.0 43

4. Les enjeux juridiques du Web 2.0 44

a. Le problème des droits d'auteurs dans les sites de partages 44

Conclusion 46

BIBLIOGRAPHIE 46

Webographie 47

What Is Web 2.0 48

ANNEXES 48

Annexe 1 : Traduction française de l'article fondateur du web 2.0 de Tim O'Reilly 49

Annexe 2 : exemples de services revendiquant l'approche Web 2.0 66

Annexe 3 : exemple de fichier CSS 68

Annexe 3 : exemple de contenu XML 69

Introduction

En quelques années, Internet et son utilisation s'est entièrement emparé de notre vie au quotidien, immergeant ce qu'il faut sans doute qualifier de révolution. Cette révolution-là, contrairement à beaucoup de celles qui ont précédé, est une révolution de l'information et de la communication, qui entraîne un changement fondamental dans les habitudes avec notamment de nouveaux agissements, de nouvelles façons de penser, de vivre, d'échanger avec les autres.

Sur ce plan, le Web 2.0 et ses différentes technologies novatrices a assurément favorisé la montée en puissance du web qui se veut désormais plus collaboratif. Ceci a été rendu possible principalement en plaçant l'utilisateur au centre des services en line.

Dans son article «Qu'est-ce que le web 2.0 ?» publié sur son site le 30 septembre 2005, Tim O'Reilly pose ainsi les bases et dessine les enjeux cette révolution du web. Les technologies Web 2.0 sont source de nouveaux applicatifs sur les sites, d'une ergonomie améliorée et innovante pour un confort utilisateur accentué et surtout une interaction plus concrète. Elles favorisent alors la montée en puissance d'un Web qui se veut plus collaboratif, plaçant l'utilisateur au coeur des services en ligne.

Le web 2.0 dont les concepts, technologies et impacts économiques seront passés en revue dans cette étude, prône la mise en collaboration des multiples ressources, tant technologiques qu'humaines, qui sont à la base du trafic et des interactions sur la toile. Les exemples sont légions, nous pouvons simplement citer les plates formes très connues comme Youtube, Facebook, Twitter ou Dailymotion qui permettent à l'internaute d'être au centre de l'information.

Comment expliquer cet engouement, cet avènement des nouvelles technologies de l'information et de la communication ? Comment décrypter et faire la part entre mode et nouvelles relations de l'individu au monde et aux autres ? Blogs, flux RSS, wiki, podcasts font désormais partie de notre lexique mais quel est leur impact sur les différents acteurs sociaux et économique du web ? Quelles possibilités offrent les nouveaux supports de diffusion ? Le web 2.0 dans ce sens ouvre une multitude d'inforoutes dans un contexte de réappropriation du web par ses utilisateurs et donne par ce fait matière à réflexion pour en déceler le coeur de cette révolution.

A toute révolution associé sa marge de contre sens et autres déformations, il s'agira t-il de déceler les fausses promesses et les vrais rêves qu'apporteront les innovations du web 2.0 au sein de la communauté des utilisateurs d'Internet.

Nous ferons dans un premier temps un réel état des lieux, en étudiant premièrement les concepts et définitions. Nous détaillerons aussi les différents types de services, les technologies et évolutions probables du Web 2.0. Dans un second temps, nous nous pencherons sur les questions et enjeux économiques, notamment l'impact du web 2.0 sur les modèles économiques.

I. Web 2.0 : états des lieux et perspectives

1. Comprendre le web 2.0

a. Historique et définition

L'explosion de la bulle internet en 2001 a définitivement marqué un tournant dans l'histoire du web. Beaucoup de gens ont à ce moment considéré que le web était une technologie surévaluée alors qu'au contraire, le fait qu'une bulle se forme puis éclate est un trait commun à toutes les révolutions industrielles. Ces soubresauts sont même caractéristiques du moment où une technologie ascendante est prête à entrer dans une nouvelle phase. C'est en effet le moment où les simples prétendants arrivent à bout de souffle tandis que les points forts des premiers gagnants apparaissent : et c'est seulement à cet instant que l'on commence à comprendre ce qui distingue les premiers des seconds.

Le concept de web 2.0 est apparu avec une conférence « brainstorming » entre O'Reilly et Medialive International1. Dale Dougherty, pionner du web et membre d'O'Reilly notait alors que bien loin de s'être effondré, le web n'avait jamais été aussi important et que nombre de nouveaux sites et applications à caractère innovant apparaissaient avec une régularité déconcertante. De plus, les quelques sociétés qui avaient survécu à l'hécatombe semblaient avoir quelque chose de commun. Se pouvait-il que le crack des « dot com » eût révélé une nouvelle ère pour le web au point que l'expression « web 2.0 » ait un sens ? Nous sommes alors tombés d'accord sur le fait que cela en avait un : la conférence web 2.0 était née.

A l'issue de ce brainstorming, les conférenciers ont différenciés les sites et services dits `web 1.0' de ceux estampillées `web 2.0'. Par exemple les équivalents des sites personnels sont les blogs, l'équivalent de mp3.com est Napster, etc... Ces différences ne se sont pas arrêtées aux sites seuls mais également aux grandes familles de services liées aux web. Par exemple la spéculation sur les noms de domaines, opérées pendant les années 1990, a fait place au marché grandissant du référencement, les systèmes de gestion de contenu (encyclopédies en ligne) ont été progressivement remplacés par des wiki. Ceux-ci, popularisé par Wikipedia permettent aux membres d'un groupe social, une entreprise par exemple, de proposer des définitions aux termes utilisés par le groupe sans en référer à un rédacteur centralisé. Cette première prise de conscience par des chercheurs des évolutions possibles du web sont présentées en annexes, Tim O'Reilly ayant publié un article qui concentre les idées et concept de base.

Concrètement, le concept web 2.0 n'a jamais eu de réelle définition par les instances supérieures, comme le W3.

1What is Web 2.0 by Tim O'Reilly http://www.eutech-ssii.com/ressources/1

On peut résumer le "concept" Web 2.0 en deux aspects : l'un qui est technique et l'autre qui est plus lié à la communication et le partage.

· Au niveau technique le Web 2.0 correspond à ce que l'on peut appeler les interfaces enrichies (Ajax, Flash, Ruby on Rails...) Tous ces outils techniques, on pour but de faciliter la navigation et l'ergonomie ;

· Au niveau communication cela correspond au partage et à la diffusion d'information (blog, RSS, utilisation d'api, portail communautaire, forum, folksonomie, wiki...) mais aussi au marketing viral.

Il y a une volonté certaine de redonner le pouvoir aux utilisateurs, les internautes deviennent acteurs c'est ça la philosophie du Web 2.0.

b. Le panorama des techniques et technologies utilisés par le web 2.0

Pour implémenter ces nouvelles technologies les développeurs et concepteurs multimédias ont à leur disposition plusieurs nouveaux langages de programmation, principalement l'AJAX, le XML et le Ruby. Ces langages sont utilisés par les machines pour communiquer entre elles, et de nouvelles architectures sont mises en place comme REST et SOAP. De plus, il faut également préciser qu'en plus du fond, les sites Internet ont évolué sur la forme. Le Web2.0 a ainsi vu l'émergence de nouvelles normes graphiques pour les nouveaux sites Internet.

Tous ces éléments ont pris forme sur plusieurs media différents qui là aussi sont apparus petit à petit : on parlera de blogs (journal intime publique sur une personne, un thème ou autre) mais aussi de wiki (qui sont des sites mis à jour directement par les internautes).

Enfin ces architectures permettent l'émergence de concepts jusqu'ici inconnu comme les flux RSS, les applications Internet riches et les mashups.

· Les nouveaux langages

- AJAX

Ajax, ou Asynchronous Javascipt And XML, est un acronyme désignant une solution informatique libre pour le développement d'applications Web2. AJAX n'est pas à proprement parler un langage, mais consiste en l'utilisation conjointe du XML, des CSS et de JavaScript.

2 Le développement web avec AJAX - http://www.ak-project.com/spip.php?article82

Cet ensemble permet de créer des interfaces riches sans avoir à rafraîchir la page internet où vous vous trouvez pour accomplir une action.

Les applications Ajax sont compatibles avec la plupart des navigateurs actuellement utilisés par la majorité des internautes : Internet Explorer, Firefox, Safari, Opera, Konqueror, Mozilla...

Le nombre de ces applications accessibles sur le Web a littéralement explosé depuis leur apparition, en 2005 : deux millions de nouvelles pages reposant sur cette technologie sont en effet mises en ligne chaque semaine2.

Même si le terme AJAX est employé depuis 2005, les éléments qui le composent et leur utilisation sont antérieurs. L'objet XMLHttpRequest par exemple (aussi nommé XMLHTTP), point de départ de cette technique, fut développé par Microsoft en tant qu'objet ActiveX en 1999. Néanmoins son utilisation n'est pas plébiscitée par toute la communauté des développeurs, en raison notamment de sa difficulté à être appréhendé et de sa non prise en compte des standards de navigation et d'accessibilité.

- XML

XML (entendez eXtensible Markup Language et traduisez Langage à balises étendu, ou Langage à balises extensible) est en quelque sorte un langage HTML amélioré permettant de définir de nouvelles balises. Il s'agit effectivement d'un langage permettant de mettre en forme des documents grâce à des balises (markup).

Contrairement à HTML, qui est à considérer comme un langage défini et figé (avec un nombre de balises limité), XML peut être considéré comme un métalangage permettant de définir d'autres langages, c'est-à-dire définir de nouvelles balises permettant de décrire la présentation d'un texte.

La force de XML réside dans sa capacité à pouvoir décrire n'importe quel domaine de données grâce à son extensibilité. Il va permettre de structurer, poser le vocabulaire et la syntaxe des données qu'il va contenir.

XML a été mis au point par le XML Working Group sous l'égide du World Wide Web Consortium (W3C) dès 1996. Depuis le 10 février 1998, les spécifications XML 1.0 ont été reconnues comme recommandations par le W3C, ce qui en fait un langage reconnu. (Tous les documents liés à la norme XML sont consultables et téléchargeables sur le site web du W3C, http://www.w3.org/XML/) 3.

XML est un sous ensemble de SGML (Standard Generalized Markup Language), défini par le standard ISO8879 en 1986, utilisé dans le milieu de la Gestion Electronique Documentaire (GED). XML reprend la majeure partie des fonctionnalités de SGML, il s'agit donc d'une simplification de SGML afin de le rendre utilisable sur le web !

3 http://www.commentcamarche.net/contents/xml/xmlintro.php3

Evolution du langage SGML permettant aux concepteurs de documents HTML de définir leurs propres marqueurs, dans le but de personnaliser la structure des données qu'ils comptent présenter. Le XML est une recommandation du W3C. L'objectif initial de XML était de faciliter le partage de textes et d'informations structurées, par exemple au travers de l'Internet, en séparant le contenu (les données) du contenant (la présentation des données) 3.

- Ruby on Rails

Le Ruby a été crée au japon, par Yukihiro "Matz" Matsumoto en 19934. La première version a été publiée en 1995. Son auteur voulait un langage à la fois simple comme le Python mais aussi flexible comme le Perl. Ruby est un langage de script orienté objet. Il a été conçu pour le web. L'une de ses principales caractéristiques est d'être intégralement orientée objet. Il s'agit d'un langage serveur, comme PHP, qui permet de créer des interfaces très facilement et très rapidement, au contraire de PHP qui nécessite de longues heures de développements. Parfaitement adaptée aux exigences des nouveaux services qui doivent bénéficier d'une grande réactivité, son essor est grandissant dans la communauté. Malgré ses nombreuses qualités, il manquait à ce langage un environnement de travail, un Framework puissant, exploitant ses nombreuses possibilités. Ruby on rails s'est présenté comme le candidat idéal. Il en résulte des sites qui proposent des interfaces riches en fonctionnalités, pourvues d'une forte interactivité, illustrant bien le concept web 2.0.

- CSS

Afin de simplifier la programmation mais aussi améliorer le graphisme et donc l'ergonomie des sites internet, la séparation du contenu d'un site se sa forme propre s'est vite révélée indispensable. Les feuilles de styles en cascades (Cascading styles sheets, CSS) sont le système aujourd'hui standardisé de mise en page des pages web, utilisés par la majorité des concepteurs web. Elles leurs permettent de mettre en place une mise en page

- XSL

Un fichier XSL (eXtending Stylesheet Language) est une feuille de style CSS améliorée. Ce format permet la création de template (modèles de pages) qui, utilisées avec les données d'un fichier XML permettent l'affichage d'une page web complète. Les feuilles de styles XSL étendent l'effet des CSS à la création de calques ou de tableaux contenant un certain type d'information. De plus les développeurs peuvent programmer sommairement certains aspects, grâce à une syntaxe fonctionnelle, permettant de créer des boucles afin d'automatiser certaines mises en page. On aura ainsi un fichier XML contenant les articles d'un journal, une feuille de style XSL positionnant cet article dans la page, et une feuille de style CSS gérant l'aspect du texte.

4 http://blog.aysoon.com/66-ruby-on-rails-dossier-complet-pour-tout-comprendre-sur-cette-techno-pahre-du-web20

· Nouvelles architectures réseaux

- REST

REST, acronyme de Representational State Transfer, est une technologie développée par Roy T. Fielding en 2000 dans sa thèse « Architectural Styles and the Design of Network-based Software Architectures »5. REST est un modèle définissant l'architecture du web, bâtie sur quatre principes fondamentaux. Connaître l'URI (l'URI est l'identifiant de ressource Internet, généralement une adresse web) doit suffire pour accéder à l'information, le protocole HTTP doit être à même de fournir toutes les informations, chaque opération doit être auto suffisante et les standards hypermédias doivent être utilisés. Cette architecture n'est pas limitée aux sites Internet, elle est de plus en plus utilisée par les développeurs pour faire communiquer des machines entre elles. En effet, elle reste simple, compréhensive par des systèmes très différents. L'information de base, dans une architecture REST, est appelée ressource. Toute information qui peut être nommée est une ressource : un article d'un journal, une photo, un service ou n'importe quel concept. Dans un système hypermédia, une ressource est tout ce qui peut être référencé par un lien. Enfin, les composants de l'architecture manipulent ces ressources en transférant des représentations de ces ressources. Sur le web, on trouve aujourd'hui le plus souvent des représentations au format HTML ou XML. Par exemple, les services d'Amazon et de Flickr sont bâtis sur des architectures REST.

- SOAP

SOAP est l'autre standard d'architecture utilisé par les nouveaux services web. Développé par Microsoft et IBM, son utilisation est recommandée par le W3C. Le protocole SOAP bâti sur XML différencie l'enveloppe de l'information, et un modèle de données contenant les informations à transmettre. Il permet la transmission de messages entre objets distants, ce qui veut dire qu'il autorise un objet à invoquer des méthodes d'objets physiquement situés sur un autre serveur. Le transfert se fait le plus souvent à l'aide du protocole HTTP, mais peut également se faire par un autre protocole, comme SMTP.

5 http://www.clever-age.com/veille/clever-link/soap-vs.-rest-choisir-la-bonne-architecture-web-services.html#titre4

· Nouvelles applications

- Les RIA (Applications Internet Riches)

Rich Internet Application (RIA), ou Application Internet riche, est une application web qui offre des caractéristiques similaires aux logiciels traditionnels installés sur un ordinateur. La dimension interactive et la vitesse d'exécution sont particulièrement soignées dans ces applications web 6.

Les RIA, terme introduit par Macromédia en 2002 déjà, proposent depuis ce temps d'utiliser des applications web avec l'ergonomie des applications de bureau.
Les plus étonnantes de ces applications sont développées en Flash, mais elles peuvent l'être en Ajax, voir dans d'autres technologies qui seront avec le temps implémentées sur les navigateurs modernes : SVG (Scalable Vector Graphics, format de fichier basé sur XML permettant de décrire des ensembles de graphiques vectoriels.), XUL (XML-based User interface Language, langage de description d'interfaces graphiques basé sur XML créé dans le cadre du projet Mozilla), ...

- Les Mashups ou applications Web composites

Produit Web 2.0 type, les mashups se proposent de bâtir de nouvelles applications et de mutualiser les contenus en s'appuyant sur des services déjà existants. Traduisible en français par "mixage" ou "fusion", le mashup consiste à agréger au sein d'une même application (ou service Internet) des contenus ou services extraits d'un ou plusieurs autres sites Web. Les mashups, qu'ils s'agissent d'applications Web ou de sites Internet, sont également nommés sites hybrides ou encore mutants.

Les mashups sont donc pleinement dans la mouvance du Web 2.0 et placent l'utilisateur, ou plus particulièrement les développeurs, au coeur de ce qui est présenté comme le nouvel Internet, en lui permettant de personnaliser des interfaces Web, d'extraire et d'agréger librement des contenus.

Un grand nombre d'interfaces web 2.0 mettent à disposition des développeurs indépendants des fragments de leur codes sources. En utilisant ces fragments les développeurs peuvent mixer différents services entre eux afin de créer une nouvelle application composite. C'est le cas d'Amazon, Flickr ou Google, qui ont donné lieu à de nombreuses applications nouvelles, comme la Flickr Clock ou Veni Vidi Wiki, exemples que nous analyserons plus loin.

6 http://fr.wikipedia.org/wiki/Rich_Internet_Application

- Le RSS

RSS est l'acronyme de `'Really Simple Syndication''. La syndication de contenu désigne la possibilité de republier sur un site Web de façon automatisée du contenu provenant d'un autre site Web7

RSS est un format d'échange de données, défini en XML, permettant de décrire un contenu Web, et plus généralement toute page qui présente un contenu mis à jour chronologiquement, à l'aide de balises spécifiques.

Les fils RSS sont des flux de contenus gratuits en provenance de sites Internet. Le fil RSS est en fait un simple fichier texte au format XML, généré automatiquement au fur et à mesure de la publication de nouvelles actualités, et comprenant les titres des articles, des résumés et des liens vers les articles intégraux à consulter en ligne. Les articles associés à un flux RSS, sont des articles produits régulièrement qui peuvent être ceux publiés sur l'ensemble d'un site web ou ceux produits dans le cadre d'une rubrique du site ou encore, par exemple, ceux postés dans un  blog. Il est ainsi possible de générer, pour un site, plusieurs fils RSS. Le fichier du fil RSS a sa propre URL et est repérable sur le site par une petite icône orange spécifique portant le label   ou   ou   ou encore  .

- Folksonomy, tags et social bookmarking

Folksonomy est un mot-valise issu de la contraction des mots folks ("potes" en français) et taxonomy ("taxinomie" en français, la science du classement). Il s'agit d'une méthode de classification collaborative de contenus Web, via des tags (étiquettes en français), réalisée par une communauté d'internautes. Le but est de faciliter la recherche et l'identification des contenus. Cette méthode de classement réintroduit un facteur humain et une part de subjectivité dans les processus de recherche d'information sur Internet.

L'ensemble des tags peut-être rassemblé dans un tag cloud, c'est-à-dire un nuage de mots qui affiche les tags qui ont été les plus utilisés dans un laps de temps donné. La taille des mots y est proportionnelle à la fréquence de leur utilisation par les internautes, ce qui permet d'identifier en un clin d'oeil les sujets chauds.

Le social bookmarking (en français « marque-page social », « navigation sociale » ou « partage de signets ») est une façon pour les internautes de stocker, de classer, de chercher et de partager leurs liens favoris.

7 http://wiki.univ-paris5.fr/wiki/Fil_RSS

c. Web 2.0 : concepts pratiques et technologiques

La principale caractéristique du web 2.0 est qu'il utilise est basé sur l'utilisation de technologies déjà existantes et sûres. De ce fait il ne constitue pas en soi une révolution technologique mais une succession d'évolutions. Il est à noté que la principale contrainte des développeurs étant le parc de navigateurs installés sur les machines des internautes, leur souci a toujours été de développer des applications accessibles aux plus grands nombre.

- Structuration de l'information, des données à valeur ajoutée

Un ensemble de technologies (telles que celles du "web sémantique" qui enrichit le web de contenu assimilable par la machine et celles associées à l'agrégation-syndication-flux RSS) permettent de relier les informations, d'agréger ou de partager des services et des contenus, de refondre les interfaces, de participer à des espaces collaboratifs, de personnaliser sa pratique de l'Internet et de prendre part plus facilement à son développement.

- Une interactivité toujours plus grande

Renouveau des interfaces utilisateurs des sites web. Interfaces riches, Rich media (intégration de la vidéo et de l'audio). Les technologies AJAX et FLASH enrichissent les interfaces utilisateurs de fonctionnalités nouvelles. Ajax aide la fluidité de navigation en évitant des rechargements de pages lorsque l'on modifie certains éléments. Il rend également possible les "glisser-déplacer" d'objets tout comme dans les environnements de type Windows. Le web devient encore plus interactif.

- Interopérabilité

Le web 2.0 combine des architectures plus flexibles, des protocoles de communication plus ouverts (Web Services) avec notamment REST et SOAP, une interopérabilité plus poussée, une amélioration des interfaces utilisateurs d'un point de vue ergonomique et sémantique qui donnent des résultats d'une grande souplesse d'utilisation.

- Modularité

Les applications et services fournis par divers sites sont autant de briques d'application qui peuvent, grâce aux Web Services les rendant interopérables, être recombinées à loisir à d'autres fonctionnalités pour composer, créer de nouvelles application, pour proposer de nouveaux services. Ainsi, les (mashups) ajoutent des couches plus pratiques et fonctionnelles au web. L'avantage pour les utilisateurs est immédiat : disposer d'un guichet unique pour consulter différents services.

- Montée en puissance des applications bureautique en ligne

Microsoft a bien senti le renversement de situation en cours avec son ambitieux programme Office Live, ainsi que Google, avec sa plateform en ligne "Google Docs"8 : l'avenir n'est plus aux applications autonomes installées sur le poste des utilisateurs mais plutôt aux applications en ligne qui seront facturées à la demande. Ainsi, de nouveaux services en ligne ont fait leur apparition (Suite bureautique, traitement de texte, tableur, création de diagrammes, client email, gestion de calendrier, gestion de projet).

A terme, les services de Web 2.0 pourraient remplacer les applications bureautiques. Les logiciels utiles se libèrent d'une plate-forme spécifique. Ils deviennent accessibles partout et sur tout support. Vers plus de mobilité.

- Une mutation perpétuelle des services

La version beta d'un service n'est plus une étape vers une version figée : elle devient la situation "stable" d'un service en changement dynamique. Elle est mise en ligne alors même qu'elle est en cours d'évolution. Cela permet de générer du buzz autour de ses nouveaux services, d'avoir des béta testeurs, de faire évoluer le service et ses infrastructures petit à petit (grâce notamment à l'analyse du comportement des internautes face aux nouvelles fonctionnalités proposées au fur et à mesure).

- Une démarche open source à travers le développement participatif :

Une grande partie de l'infrastructure du web elle-même repose sur les méthodes de production individuelle de l'open-source qui sont, elles aussi, une émanation de l'intelligence collective. Les utilisateurs deviennent des co-développeurs.

8 Découvrez Google Docs

http://www.google.com/google-d-s/intl/fr/tour1.html

d. Web 2.0 : Point de vue social

Sur un aspect purement social, le web 2.0 représente le partage de l'information, fondé sur des bases de données ouvertes qui permettent à d'autres utilisateurs de les employer.

Le web 2.0 mêle le global au local ("glocalisation9"). Il donne aux gens la possibilité de trouver, organiser, partager et créer de l'information d'une manière à la fois personnelle et globalement accessible. La création de contenu provient de plus en plus des particuliers. Flux rss, Blogs, podcasts, vidéocasts, échange de fichiers, utilisation d'api, portail communautaire, forum, tags, commentaires, folksonomie, wikis, services interactifs : l'internaute participe activement au lieu de consommer passivement, il devient acteur et rédacteur.

En facilitant toutes ces formes de partages le web 2.0 favorise la création de communautés et la mise en place de réseaux sociaux. Le web 2.0 devient véritablement une partie de la vie des citoyens, et non plus seulement un outil dont on se sert pour effectuer une recherche spécifique. Des études de même nature avaient eu lieu lors de l'apparition d'autres nouvelles technologies de communication, comme la radio, promettant que les liens sociaux allaient se retrouver bouleversés. Ce n'a jamais été le cas, mais peut on dire que ca ne le sera pas non plus avec l'arrivée du web 2.0 ? Les bouleversements sont déjà la, sur toutes les facette de la communication, artistique, économique, politique, etc...

A l'origine, en 2003, c'est surtout l'aspect technologique qui caractérisait l'appellation web 2.0, le but étant de faire évoluer l'Internet en mettant à disposition de l'internaute de nouvelles applications lui permettant de personnaliser sa pratique de ce média. Ici, le modèle économique rejoint celui des autres produits qui tendent à être de plus en plus personnalisables. (Téléchargement de sonneries sur téléphone portable, tuning,...) Comme expliqué plus haut, ce sont surtout les flux RSS qui permettent d'afficher sur une même page des informations provenant de multiples sources (Netvibes) ainsi que la mise en place d'espace collaboratifs (Wikipedia) qui sont les plus utilisés. La meilleure illustration du web 2.0 est, selon les observateurs qualifiés, l'explosion des blogs. Aidée par une architecture technique telle que celle développé plus haut, ceux-ci permettent à un simple internaute lambda de créer son propre site, et surtout de pouvoir avoir un retour direct sur ses articles grâce au système du commentaire.

L'internaute devient ainsi à la fois acteur spectateur et commentateur. La démarche n'est plus commerciale, le but est uniquement le partage d'idées et de documents, du moins dans l'idée des premiers analystes. Abraham Lincoln parlait de « gouvernement du peuple par le peuple et pour le peuple », Le Web 2.0 Serait donc «  le Web par le peuple, pour le peuple ». De même les technologies utilisées pour arriver à ces résultats sont la plupart du temps issues de l'informatique libre, et donc gratuites. La triple casquette de l'internaute le rend capable de créer son propre site personnalisé, grâce à des outils type.

9 Glocalisation - http://wiki.univ-paris5.fr/wiki/Glocalisation

2. Les principaux type de sites web 2.0

De l'action de mettre à contribution l'internaute et de la placer au coeur d'un contenu désormais modifiable et évolutif, diverses applications sont ainsi rendus possibles partant de ce principe. Nous allons faire un étude de cas selon les grandes thématiques de typologies de sites web 2.0 en recensant les services les plus en vue.

a. Les plateformes de blogs et de Réseau sociaux

Facebook

Avec ses 250 millions d'utilisateurs dans le monde, 5 millions de membres en France, Facebokk est assurément la plateforme de réseau social la plus prolifique. Mark Zuckerberg, le jeune (25 ans) fondateur de facebook, l'a annoncé aujourd'hui sur son blog le jeudi 15 juillet 2009 10. Le service affichait 200 millions "d'amis" au début du mois d'avril, ce qui signifie que le nombre d'utilisateurs a progressé de 50 millions de nouveaux inscrits en à peine plus de trois mois. Un rythme de croissance qui ne fléchit pas, puisque les paliers de 50 millions d'utilisateurs supplémentaires s'enchaînent de manière de plus en plus rapprochée.

Facebook est donc un site Web de réseautage social créé par Mark Zuckerberg et destiné à rassembler des personnes proches ou inconnues. Depuis septembre 2009, il rassemble plus de 300 millions de membres à travers la planète.

Il est le 2e site le plus visité au monde selon Alexa Internet11 (après google.com). Facebook est né à Harvard : il est à l'origine le réseau social fermé des étudiants de cette université avant de devenir accessible aux autres universités américaines. La vérification de la provenance de l'utilisateur se faisait alors par une vérification de l'adresse électronique de l'étudiant. Le site est ouvert à tous depuis septembre 2006.

Le 2 octobre 2008, Facebook annonce qu'il va implanter son siège international à Dublin, en Irlande (pour les marchés européen, africain et moyen-oriental). Le 9 octobre 2008, Facebook annonce qu'il va ouvrir un bureau à Paris.

Le nom du site s'inspire des albums photo (trombinoscope ou facebooks en anglais) regroupant les photos prises de tous les élèves durant l'année scolaire et distribuées à la fin de celle-ci aux collégiens, lycéens et étudiants.

10 http://blog.facebook.com/blog.php?post=106860717130

11 Statistiques sur les sites interne http://www.alexa.com/

Comme application de réseau social, Facebook permet à ses utilisateurs d'entrer des informations personnelles et d'interagir avec d'autres utilisateurs. Les informations susceptibles d'être mises à disposition du réseau concernent l'état civil, les études et les centres d'intérêt. Ces informations permettent de retrouver les utilisateurs partageant des mêmes centres d'intérêt. Ces derniers peuvent former des groupes et y inviter d'autres personnes. Les interactions entre membres incluent le partage de correspondance et de documents multimédias.

Si le plus grand réseau social du web a rencontré son public, le modèle économique semble moins lucratif que prévu. En cause, les tentatives de publicité basées sur l'analyse des données personnelles, qui ont suscité une levée de boucliers de la part des utilisateurs. Ils ont jugé ces nouveaux formats publicitaires trop intrusifs. La polémique s'est apaisée avec le temps et un assouplissement du système. Depuis, le site commence à réaliser des bénéfices.

En novembre 2007, Microsoft avait versé 240 millions de dollars pour s'approprier 1,6 % du capital de Facebook 12. Cette participation plaçait alors la valorisation potentielle du site à 15 milliards de dollars. Un chiffre colossal, dont on se demande aujourd'hui s'il ne se réduisait pas à un simple écran de fumée. Un fond russe, Digital Sky Technologies (DST), a lancé une offre de rachat d'action en direction des 900 employés du réseau social. S'il réussit son opération, il détiendra 3,5 % de facebook, valorisant le site à 6,5 milliards de dollars, soit un peu moins de la moitié de ce qui avait été annoncé il y a deux ans.

Myspace

Myspace est un site créé aux Etats Unis dont la fonction première est la création de réseaux sociaux entre ses membres. Les membres enregistrés ont ainsi accès à un espace web paramétrable leur permettant de créer leur propre page personnelle. Fondé par Tom Anderson et Chris DeWolfe, son énorme succès en Amériques a intéressé Rupert Murdoch, propriétaire du groupe News Corp, qui l'a acheté en juillet 2005 pour 580 millions de dollars. En juillet 2006 il était le site web à posséder le plus d'utilisateurs enregistrés, 90 millions. Myspace est une plate forme permettant à chacun de créer son propre espace sur Internet et de se faire connaître de la communauté. Grâce à un système de messagerie permettant aux membres de communiquer directement grâce à l'interface du site, et d'ajouter des amis en visitant leurs pages personnelles, il permet très facilement et rapidement de se constituer un réseau de connaissances. Les pages personnelles des différents membres permettent d'afficher des articles de types blogs, c'est-à-dire des textes, des photos, des vidéos, et surtout des compositions musicales. On assiste ainsi à une augmentation de la création de Myspace de groupes de musiques, souvent au détriment des sites traditionnels. En effet grâce aux systèmes d'ajout de contact, les fans des groupes présents peuvent se sentir important en ajoutant comme amis les membres de leur groupe favoris.

12 http://www.lepoint.fr/actualites-technologie-internet/2009-07-16/facebook-250-millions-de-membres-et-beaucoup-de-questions/1387/0/361779

L'exemple le plus célèbre est celui du groupe TTC, qui a créé son Myspace et a basé toute sa communication sur Internet par ce média. Cette stratégie inédite lui a permis de créer un buzz sur ses membres et de gagner en popularité très rapidement sans disposer au début de site web. Les premiers fans du groupes ont ainsi pu faire partie des `amis' des membres, faire écouter les chansons à leur propre communauté et faire connaître de plus en plus ce groupe, qui aujourd'hui bénéficie d'une popularité grandissante.

Twitter

Twitter est le symbole de cette génération de sites qui minent peu à peu le colosse de la publication de blogs traditionnels. En effet, Twitter, comme d'autres sites similaires, permet de poster un microarticle de 140 caractères maximum répondant à la question « Que faites-vous en ce moment ? ».

L'inscription est très rapide et l'internaute peut inviter ses collègues et amis à utiliser le service. On peut choisir de publier ses « twits » de façon publique ou privée, de s'abonner (suivre) d'autres utilisateurs et de gérer les utilisateurs qui s'abonne à votre flux. L'utilisation peut se faire à partir du site d'accueil, de plusieurs sites qui permettent de mettre à jour le statut, et aussi à partir d'un téléphone mobile.

Une question que l'on est droit de se poser est pourquoi l'apparition, et surtout la popularité d'un tel service, qui semble à prime abord inutile. Les créateurs de Twitter ont bien compris que la majorité des internautes sont de plus en plus fréquemment à l'affût de la moindre information sur le Web, et d'avoir une application qui permet de savoir si votre collègue est en retard au travail ou que vous organisez une fête permet de mieux communiquer ces informations aux gens concernés.

Là où le bât blesse, malgré la simplicité implicite de l'utilisation de Twitter, c'est que ce service surcharge le web déjà saturé de contenu généré par les utilisateurs. Le micro-blogging rend de plus en plus obsolète la lecture d'articles de 500 mots en accélérant la diffusion de contenu informatif, mais en ne le rendant pas plus valide.

Skyblog

Skyblog est la plus populaire des plateformes d'hébergement de blogs en France auprès des jeunes. Lancé en décembre 2002 par la radio française Skyrock, il dérive légèrement des plates formes habituelles de blogs par sa simplicité. Son succès indéniable est maintenant utilisé pour des campagnes publicitaires, les films ayant pour cible les adolescents ouvrant des skyblogs en plus de leur site publicitaire habituel. Les différences avec les interfaces plus traditionnelles comme Blogspot se situent au niveau technologique mais également social.

Fin mai 2006, on comptait environ 4 800 000 Skyblogs alors que seuls 2 900 000 comptes Skyrock étaient ouverts. Ainsi une personne a souvent plusieurs blogs. Les travaux d'Hélène Delaunay-Téterel ont révélé que 97% des skybloggeurs étaient des jeunes de 12 à 18 ans mais surtout que 60% étaient des filles. 13

Du point de vue technologique, les habituelles fonctions de syndications RSS des commentaires sont absentes. Cette absence peut sûrement être mis au compte du fait que les flux RSS permettent à l'utilisateur de ne pas revenir sur le site et donc de ne plus être exposés a la publicité, ce qui serait préjudiciable à la plate forme. Néanmoins son ancienneté et le succès qu'il rencontre la rende incontournable. La mise en page et la création d'un Skyblog est très simple : il suffit de se créer un compte Skyrock et de mettre en page puis en ligne ses articles. Les contenus diffèrent également des blogs traditionnels. La plupart étant créés par des adolescents, on trouve peu de blogs sérieux, mais plus généralement des photos de proches, des poèmes, etc... Le style d'écriture est souvent de type SMS, c'est à dire peu respectueux des règles grammaticales et orthographiques française. L'utilisation de ce langage est à mettre au crédit des utilisateurs, qui font partie d'une communauté plus jeune et ayant ses propres codes linguistiques, on assiste ainsi de la part des rédacteurs de blogs plus `sérieux' à un rejet des skyblogs. Le but de tout skybloggeurs est la popularité au sein de la communauté, mesurable par le nombre de visites, mais surtout de commentaire l'expression « lâche tes com' » (laisse un commentaire) revenant souvent. Skyblog est une plateforme commerciale, elle dispose donc d'un certain nombre d'outils payants à destination des utilisateurs. On peut ainsi accroître sa popularité en envoyant un message SMS ou vocal, par téléphone mobile via un numéro surtaxé permettant d'afficher en page d'accueil un message et un lien vers son Skyblog. La publicité est également omniprésente sous forme de bannière ou de liens commerciaux, type Google Adsense. Les images et les articles sont hébergés en interne, mais les vidéos proviennent des serveurs Youtube et Google vidéo. La mise en page est très rigide, le rédacteur n'ayant accès qu'à une quinzaine de templates différents, mais aucune action sur le code source. Néanmoins, l'aspect communautaire prend le dessus ici, et nous verrons que les internautes ont réussi de manière très intéressante à retourner la rigidité originelle à leur propre avantage. Skyblog est ainsi un parfait exemple de l'appropriation de l'outil technologique par une communauté. En effet sa simplicité a forcé les utilisateurs à trouver des manières de mettre en page de façon plus personnalisée leurs blogs, on assiste ainsi à une véritable communauté qui propose de télécharger des codes sources de mise en page utilisable dans son blog.

On retrouve souvent l'expression `EntreNet' pour définir ces plates formes ou les technologies reste majoritairement web 1.0 mais où l'aspect social et communautaire est totalement web 2.0. Skyblog propose plusieurs outils de classification et de classement des meilleurs blogs. Le but d'un skybloggeur est souvent de faire partie de ces top, affichés en première page afin d'augmenter sa popularité. La page d'accueil de Skyblog présente en premier lieu, juste en dessous du logo, de la publicité annonçant clairement son statut commercial, et à but lucratif.

13Source : d'Hélène Delaunay-Téterel, doctorante à France Télécom R&D

http://cems.ehess.fr/document.php?id=765

On a ensuite plusieurs encarts présentant les Skyblogs stars, les publicités envoyées par SMS, une interface de recherche simple sur les contenus des skyblogs (pas de gestion des tags), ainsi qu'une sélection de skyblogs officiels.

Ainsi, malgré quelques lacunes au niveau technologique, cette plate-forme popularise de façon énorme le web 2.0 et les concepts qui y sont rattachés. Elle bénéficie d'une assise très forte et permet ainsi également de montrer à ses détracteurs qu'un modèle économique basé sur un site communautaire 2.0 est parfaitement viable.

b. Les interfaces de partages d'images et de Vidéos

Dailymotion

Dailymotion est un site web français permettant de partager et de visionner des vidéos diverses et variées. Il est semblable en ceci à Youtube, mais va plus loin dans l'utilisation du web 2.0, notamment dans la gestion des tags. Ce genre de site a un succès certain, Dailymotion compte plus de 800 millions de pages vues par mois14.

Dailymotion a été créé en février 2005 par deux développeurs travaillant à l'origine dans une société d'hébergement, Benjamin Bejbaum et Olivier Poitrey. Son capital de départ était de 250 000 euros, apporté par des investisseurs individuels. En septembre 2006 les deux créateurs ont révélés que deux fonds d'investissement, Atlas Ventures et Partech International ont levés 7 millions d'euros, levée de fonds la plus importante de l'année 2006 pour le web 2.0 français.

Dailymotion utilise comme la plupart de ces outils la technologie flash, mais à la différence de Youtube, il se démarque par une interface multilingue et un moteur d'encodage développé en interne.

Ce type de site est exemplifie tout à fait le caractère `démocratique' du web 2.0. En effet l'auteur du site ne met à disposition aucun contenu, aucune information. C'est l'utilisateur lui même qui ajoute les vidéos qu'il veut faire partager.

La page d'accueil du site comporte plusieurs encarts, mis en page de façon typiquement `web 2.0'. Le style graphique souvent semblable de ces sites fera d'ailleurs l'objet d'une partie ultérieure de cette étude.

14 source : comScore World Metrix, Septembre 2009 http://publicite.dailymotion.com/?page_id=9

Le premier outil de recherche est la recherche simple sur des mots clés, les fameux tags. Lorsqu'on entre un mot clé dans ce champ, le site effectue une recherche sur les tags entrés par l'uploadeur de la vidéo.

Jusqu'ici le principe est le même que pour un moteur de recherche normal. Mais lors de l'affichage de la page des résultats, un encart nous présente les `hot tags'. Des mots clés connexes classés de manière visuelle par ordre de popularité. C'est la que les tags deviennent vraiment un nouveau mode d'utilisation d'Internet, la classification se faisant par les internautes eux mêmes sans action d'un quelconque modérateur. (En dehors des vidéos classées X ou à caractère raciste). Ces tags se retrouvent en page d'accueil sous la forme d'un encart intitulé également `hot tags' et mis en forme toujours selon un code couleur précis correspondant à leur popularité. Lors du clic sur un de ces liens on accède à une page contenant les vidéos connexes à ce mot clé. On peut ensuite préciser sa recherche en ajoutant d'autres tags afin de réduire le nombre de résultats. Cette recherche intuitive correspond aux balbutiements du web sémantique, en effet ces tags permettent d'isoler des ontologies (concepts) plutôt que de simples mots clés. En effet dans un moteur de recherche classique, type Google, l'application ne recherche pas les mots clés ayant des sens s'approchant, mais uniquement des orthographes proches, lors d'une faute de frappe par exemple.

D'autres outils de recherche existent également. Afin de renforcer l'aspect communautaire et de fidéliser les utilisateurs, il est possible de créer sa propre page présentant ses vidéos, mais également de créer des groupes, des chaînes (assimilable à des chaînes de télévision) Ces classifications sont affichées sur la page d'accueil sous la forme d'une sélection des vidéos dans chaque catégories, des membres affichées de façon aléatoire ainsi que des partenaires. Dailymotion met ainsi à disposition de ces partenaires (Le Monde, Itélé, ...) des espaces leur permettant de mettre en ligne des vidéos (interviews, etc...)

Youtube

Aujourd'hui, les vidéos sont incontournables sur le Web. Les grands journaux en agrémentent leurs pages, les chaines spécialisées se développent pour partager du contenu audio et vidéo, professionnel comme amateur, et les internautes ne sont pas en reste car ils sont les plus gros consommateurs et producteurs de vidéos. Youtube, principalement consulté par un public anglophone, en est encore le leader mondial.

Beaucoup de services professionnels se dégagent et produisent des émissions indépendantes, du contenu sponsorisés avec ou sans publicité et offrent des plus grandes fonctionnalités que Youtube. Reste que le site américain est encore le plus populaire avec plus de 60 millions de visites au mois de mai 200815.

15Selon le site Movers 2.0 utilisant la technologie Alexa

Fondé en 2005 et racheté par Google en 2006, Youtube reste encore LE site de référence pour le partage de vidéo. La recherche se fait avec des mots-clés, « Tags » utilisés par les utilisateurs, dans la barre de recherche. Depuis peu la barre de recherche affiche des suggestions de recherches (comme Google). Les utilisateurs qui téléchargent des vidéos les regroupent dans des chaines (channels) et n'importe quel internaute peut s'y inscrire et ainsi être mis au courant des nouvelles vidéos de sa chaîne favorite.

Les internautes inscrits peuvent voter pour leurs vidéos favorites, les sauvegarder dans une liste de favoris, composer leurs « playlists » et commenter les vidéos regardées. Les vidéos peuvent aussi être téléchargées à partir d'un téléphone mobile.

Dans l'affichage vidéo, à droite de l'écran, s'affichent les vidéos du membre qui les met en ligne et encore des « related vidéos » avec les mêmes mots-clés. S'affichent aussi des vidéos sponsorisées par des professionnels et des publicités. Les vidéos peuvent être visionnées en plein écran mais leur qualité n'est pas toujours homogène, étant donné le taux de compression utilisé pour le téléchargement. Une fonctionnalité intéressante est d'utiliser un code, présent à droite des vidéos, qui les incorpore dans un cadre pour les afficher dans des blogs et des forums.

La page d'accueil regroupe les abonnements aux diverses chaînes, les suggestions de

vidéos basées sur les mots-clés des favoris et les vidéos commerciales qui sont développés par des professionnels. Comme beaucoup d'autres sites, Youtube tend à regrouper plusieurs services sur la même interface. Ainsi, un service de courriel est disponible pour recevoir les messages d'autres utilisateurs et suivre leur activité. Le service permet aussi de suivre la trace des commentaires laissés sous une vidéo, permettant de voir qui a répondu. Un carnet de contacts permet d'organiser les différents contacts et de les classer dans des catégories avec des options de confidentialité diverses.

Plusieurs options sont disponibles pour protéger les informations personnelles des internautes inscrits, comme la possibilité de rendre des vidéos accessibles seulement pour les amis et la famille. Pour ce qui est du contenu, Youtube reste intéressant pour voir un extrait de concert, vidéo, ou une interview des médias, mais on y trouve également beaucoup de vidéos personnelles des utilisateurs qui parlent de leur vie sentimentale, leurs relations. Le fait de pouvoir interagir directement avec des gens qui parlent de problèmes bien réels a beaucoup d'attrait pour les internautes, mais il ressort qu'il y a beaucoup de contenu sans intérêt réel. Le problème le plus fréquemment rencontré est l'abus des mots-clés utilisés pour attirer le plus d'auditeurs pour une vidéo ou une chaîne. Ces mots-clés sont souvent sans rapport avec le contenu même de la vidéo.

Flickr

Flickr est un site web de diffusion et de partage d'images. Il est gratuit mais certaines fonctionnalités sont payantes. Flickr est une interface totalement web 2, elle utilise de façon complète les fonctionnalités offerte par les tags et exploite très bien le concept de folksonomie. Flickr est une interface souvent utilisée par les blogueurs pour faire partager leurs albums photos. C'est un des sites les plus symboliques du web 2, qui a dépassé en février 2006 les 100 millions de photos. Mis en ligne en 2004, il a été développé par Ludicorp, une société canadienne fondée en 2002. A l'origine, il s'agissait d'un ensemble d'outils développé pour un jeu multi-joueurs sur Internet : Game Neverending, qui a finalement été abandonné. Il consistait en un chat room dédiée au partage des photos, mais a ensuite évolué vers le téléchargement et le classement des photos. En 2005, Ludicorp a été rachetée par Yahoo, et ses serveurs ont été transférés aux Etats-Unis, assujettissant ses contenus aux lois américaines. L'interface de Flickr utilise AJAX, permettant à l'utilisateur de gérer ses photos en rajoutant des tags, titres et descriptifs automatiquement sans recharger la page.

Les sites de partages de photos existent depuis les débuts d'Internet, Flickr se distinguant par plusieurs différences caractéristiques de son offre. Tout d'abord le fait que par défaut les photos publiées sont publiques, même si chaque utilisateur peut créer des groupes ayant des accès différents à ses photos. Ensuite, la possibilité pour l'utilisateur de marquer les photos uploadées de tags lui permettant de décrire l'objet de ses photographies. Et enfin le service dispose d'un grand nombre d'outils permettant de fidéliser les utilisateurs et développe un certain nombre d'applications gratuites, telles qu'un navigateur intégrant des outils permettant de faciliter l'envoi d'images. Une autre fonctionnalité intéressante est la possibilité de rajouter des notes sur sa photo. Ainsi il est possible de dessiner un cadre autour d'un élément de la photo (par exemple un bateau dans une crique) et d'ajouter un commentaire lisible par l'internaute lors d'un survol sur cette partie de la photo (par exemple `c'est moi'). Le résultat de ces caractéristiques uniques est que 80% des photos sont publiques, que la moitié est balisée de mots clés et que plusieurs dizaines de milliers d'utilisateurs participent à une communauté bâtie autour de Flickr. L'essentiel est ici de montrer ses photos, la page d'accueil, le blog et les flux RSS présentant les dernières photos, les plus populaires ou les plus insolites. Flickr dispose d'un système de tags abouti, qui fonctionne de la même façon que celui de Dailymotion, nous ne le détaillerons donc pas ici. Il propose tout de même quelques fonctionnalités supplémentaires comme la possibilité de s'abonner aux flux RSS de chaque tag, permettant ainsi à l'internaute de se tenir au courant des nouvelles images en ligne mais également d'afficher les images d'un même thème sur un autre site, en respectant la licence de l'auteur. En effet Flickr est attaché à défendre le droit des créateurs d'image et a donc mis en place un système de licence Creative Commons régi par l'utilisateur lui-même. Creative Commons est une licence de droit d'auteur qui est de plus en plus utilisée dans le monde de l'informatique libre mais également lors de la distribution d'oeuvres numériques. Elle permet de donner un certain nombre de droits à l'internaute téléchargeant l'oeuvre, en fonction de la volonté de son auteur. Son objectif est d'encourager la circulation des oeuvres sur Internet de manière licite et d'encourager les internautes à mieux respecter le droit, mais elle ne prévoit aucune rémunération pour l'auteur. L'interface permet de gérer les groupes ayant accès à ses photos et de gérer les droits d'accès en lecture des différents groupes.

Les développeurs ont intégrés un certain nombre d'outils innovants, comme par exemple le `badge'. Cette petite bannière, intégrable sur n'importe quel site web (le code source est donné), permet d'afficher de manière aléatoire en flash ou en html des photos de son propre compte ou de n'importe quel utilisateur, selon certains tags à définir. Il permet ainsi de montrer des images en rapport avec un thème et de proposer un lien vers la galerie de photos de son choix. A cela s'ajoute toujours le bouton `blog this' permettant d'afficher directement sur son blog n'importe quelle photo issue de Flickr.

Les développeurs ont également mis à disposition des programmeurs indépendants les API (interfaces de programmation ouvertes) leur permettant de créer une infinité d'applications ou d'extensions. Comme par exemple Flickr Graph permettant de visualiser les réseaux sociaux au sein de la communauté, la Flickr Clock affichant l'heure avec des photos ou d'autres mashups.

L'aspect communautaire est présent à travers la possibilité donnée aux utilisateurs de se regrouper en communautés qui regroupe des internautes d'un milieu donné. On trouve ainsi des communautés d'utilisateurs d'une marque d'appareil photo, de photographes d'un thème précis, ou des regroupements par styles,... Ce sont ces regroupements qui font la force de Flickr, en effet une photographie d'une fleur n'a que peu de valeur en soi, mais c'est le fait que plusieurs photographes vont confronter leurs clichés pour en discuter et faire ainsi vivre la communauté qui rend cette plateforme vivante

On retrouve dans Flickr l'esprit des skyblogs et Myspace, la popularité au sein de la communauté. Celle-ci est mesurée au travers du nombre de pages vues et par le nombre de commentaires laissés par les visiteurs. Flickr propose également un accès payant pour 25$ par mois, permettant à l'utilisateur `pro' de bénéficier d'un nombre de photo illimité à uploader, de la disparition des publicités, et l'archivage permanent des photos haute résolution, l'interface permettant de poster différentes résolutions

Le principal écueil de Flickr est sa difficulté à convaincre les professionnels, ce pour plusieurs raisons. Tout d'abord pour des questions techniques, ceux-ci préférant travailler avec des fichiers en haute résolution, dont la qualité est située bien au delà des standards Flickr. De plus on assiste à un sentiment de « dépossession ». En effet, la qualité des photographes amateurs ne peut être comparée à celles des professionnels, néanmoins ceux-ci rencontrent un succès certain. Dans ce cas les photographes vivant de leur art peuvent se sentir quasiment humiliés par le succès d'amateurs enclins à partager gratuitement des photos, alors qu'eux même tirent leurs ressources de la publication de leurs clichés. Pour Luc Pérénom, photographe professionnel, les outils amateurs ne doivent se mélanger avec ceux destinés aux professionnels, qu'ils soient acheteurs ou vendeurs : «Vu la profusion d'images numériques aujourd'hui, je ne pense pas qu'un professionnel, qui doit savoir montrer la valeur ajoutée de son travail, doive utiliser les mêmes outils que les amateurs. Flickr propose une interface relativement pauvre, peu dédiée à l'usage professionnel. L'espace d'échange est vite limité : les commentaires tournent vite en rond à se congratuler les uns les autres. Sans compter que la photographie est une démarche personnelle, indépendante par définition. C'est sa vision qu'on a besoin de pousser au bout, pas les avis des uns et des autres.»

La réticence des professionnels s'explique ainsi par deux raisons. Le coté non-commercial, excluant toute forme de rémunération, et l'aspect amateuriste constaté. Convaincre les professionnels sera donc la prochaine étape de cette start-up, ainsi que l'ajout de certaines fonctions encore en développement comme la reconnaissance automatique des lieux et des personnes sur les photos.

c. Partage et agrégateur d'actualités

Newsvine

Newsvine répertorie les actualités mondiales avec une prédominance américaine. Le plus intéressant est que non seulement on peut personnaliser la page d'accueil, mais on y retrouve toutes les autres fonctionnalités des sites comme Digg (analysé plus bas) qui permettent de voter pour les nouvelles les plus intéressantes.

Toutes les dépêches et articles sont tirés de l'agence « Associated Press », mais absolument aucun contrôle éditorial n'intervient dans la sélection des articles présentés. L'interface se présente de façon très sobre et fonctionnelle. La page d'accueil est composée de modules indépendants les uns des autres que l'on peut déplacer, effacer, et ainsi composer une page complètement personnalisée. Les modules permettent d'afficher des informations selon le lieu géographique de l'internaute. C'est une fonction du reste très intéressante parce que, même majoritairement américain, cela évite de devoir chercher le flux RSS d'une région et l'installer soi-même.

Une barre de recherche permet d'introduire des mots-clés pour trouver des articles correspondants. Les différentes sections du site (World News, Sport, Politics) sont séparées en onglets, ce qui rend la lecture beaucoup plus facile et conviviale.

Avec la création d'un compte utilisateur, l'internaute peut créer « sa » page éditoriale, y écrire des articles et des recommandations. La présence sur le site de publicités peut être gênante, mais génère des revenus pour les internautes qui publient régulièrement du contenu sur leur page éditoriale.

Lors de la lecture d'un article, l'internaute peut voter (Up or Down), et à sa prochaine

visite, les actualités lui seront proposées en rapport avec ses votes et ceux d'autres utilisateurs. Newsvine permet aussi de proposer des actualités à partir d'autres sites web ; une nouvelle intéressante sera publiée avec la fonction « Seed » et le flux seraaffiché en page d'accueil. Les « Seed » publiés peuvent provenir de sources journalistiques qui ont une crédibilité, mais après quelques manipulations on y trouve aussi des « nouvelles » qui n'en sont pas et qui s'apparentent à du « spam ». Malgré tout, c'est un des sites les plus « professionnels » rencontré lors des recherches.

DIGG

Avec près de 220 millions de pages vues par mois 16, Digg reste un des sites majeurs de la webosphère et un phénomène à lui tout seul. Le principe est très simple : les actualités proviennent d'autres sites et s'affichent sur la page d'accueil avec quelques lignes résumant l'article.

L'internaute clique sur l'article (en général n'en lit que le résumé) et ensuite vote pour (« thumbs up = Digg ») ou contre (« thumbs down = Dugg »).

Plus un article a reçu de votes, plus il sera affiché en tête de liste dans la page principale. Les dizaines d'articles qui émaillent l'accueil sont le « buzz » du moment, ce dont les gens « discutent et commentent ».

La page d'accueil peut être filtrée pour n'afficher que des thématiques qui intéressent l'internaute. Digg ne propose pas que du texte, mais tout ce qui est relié à une actualité (photos, vidéos). De plus, le site propose une fonction de réseau social qui permet d'ajouter des amis, de voir leur activité sur le site et de leur envoyer des messages.

De ce fait, tous les articles peuvent être commentés et c'est là que l'on se rend compte qu'en fait la majorité des internautes ne vont pas lire l'article en entier mais se contentent du résumé. La lecture des commentaires sur des thématiques actuelles peut

virer à l'empoignade virtuelle, et plus aucun commentaire n'est relié au texte. La page d'aide revendique la « démocratisation » de l'actualité, étant donné qu'il n'y a aucun contrôle éditorial, mais contrairement à Newsvine traité précédemment, les flux sont affichés de façon désordonnés, ce qui rend la lecture moins facile.

d. Les RIA

Google propose en plus de son célèbre moteur de recherche un certain nombre d'applications disponibles en ligne, permettant de disposer d'une interface de mail très avancée, d'effectuer des travaux bureautiques, ou de disposer de cartes géographique très complètes.

Gmail est un service de messagerie mis en place par Google, et offrant de très nombreuses fonctionnalités, semblables a celles des logiciels téléchargeables, comme Outlook. C'est une des plus utilisées des Application Internet Riches. A la différence des autres webmails (Hotmail, etc...) L'utilisateur dispose d'une capacité de stockage augmentant en permanence d'environ 3 gigaoctet.

16 http://www.haute-disponibilite.net/2009/02/04/l-architecture-et-les-bases-de-donnees-du-site-digg/

Il peut également regrouper les messages et réponses d'un unique interlocuteur en conversations lui permettant de mieux suivre et retrouver tout le fil d'une conversation par mail, classer ses messages en les rangeant dans une page spéciale, trier et filtrer les messages, les spam, etc... Le système reconnaît également les raccourcis clavier, par exemple en tapant Ctrl+S, le message est sauvegardé.

L'interface dispose également d'une vérification orthographique, d'une fonction de chat, de syndication via RSS, d'affichage de nouvelles du web, et d'une quantité étonnante de services connexes, comme l'utilisation du service via téléphone portable, sur le Wap. L'interface est encore une fois bâtie en AJAX, ce qui permet l'utilisation des raccourcis claviers dans le navigateur. Depuis 2007, il intègre même un logiciel de chat de type MSN, à l'origine développé séparément, Google talk.

Gmail utilise des logiciels lui permettant d'analyser le contenu des messages envoyés et d'adresser des publicités en encart en rapport avec le contenu des messages.

Ces fonctionnalités font débat, et sont particulièrement intéressantes car elles correspondent a des aspects marketing du web 2.0.

Google Docs est une application en ligne ouverte en 2006, et exemplifiant tout à fait la possibilité qu'auraient les applications Internet riches de remplacer les suites bureautique habituelles. En effet il y est possible d'importer et de modifier n'importe quel document Microsoft Office, Open Office,... Toujours grâce à une interface en AJAX, les modifications sont automatiquement sauvegardées et mises a jour, permettant ainsi un travail collaboratif dont la portée est très importante. Grâce à ce système plusieurs personnes peuvent travailler en même temps sur un même document à des kilomètres de distance et sans communiquer par téléphone ou par mail pour se rendre compte de l'avancement de chacun. A l'origine uniquement tableur, il est également devenu logiciel de traitement de texte lors de l'acquisition de Writely (développé par Upstartle) par Google.

Google Maps est l'exemple même des fonctionnalités offertes par le web 2.0 puisqu'il reprend exactement l'interface du logiciel de bureau Google Earth, mais en l'adaptant à une interface web. Basé sur une base de données contenant les photos satellites de tous les endroits de la planète ainsi que des cartes très complètes, Google Maps est une application qui permet la création de très nombreux mashups. En effet les API de cette plate forme sont ouvertes aux développeurs indépendants, ce qui leur permet de rajouter sur ces cartes d'autres contenus comme l'emplacement d'une entreprise, ou des revendeurs d'un produit. Les possibilités offertes sont énormes et ne sont limitées que par l'imagination des concepteurs. C'est bien la l'intérêt du web 2.0 qui rend l'outil de création sur Internet accessible à tous, ne posant plus de barrières techniques à l'imagination.

Adobe AIR

Adobe AIR représente un nouveau média réunissant le meilleur de deux univers, celui du web et celui des postes de travail, comme le précise Kevin Lynch, senior Vice President & Chief Software Architect chez Adobe17.

Adobe AIR élargit le champ des possibilités pour des développeurs web qui sont à présent en mesure de produire une nouvelle génération d'applications exploitables sur tous systèmes d'exploitation, au sein comme en dehors du navigateur, et qui font le lien entre le web et le micro-ordinateur.

Adobe a décidé d'ouvrir à tous sa plate-forme de développement Web 2.0 AIR (Apollo Intergrated Runtime) dans une première version bêta. Précédemment connue sous le nom de code Apollo, AIR permet aux développeurs de faire appel aux technologies HTML/CSS, Ajax, Adobe Flash et Adobe Flex pour déployer des applications Internet riches (RIA) sur les postes de travail

AIR intègre une base de données locale, le support de la technologie PDF, des fonctionnalités optimisées pour les développeurs JavaScript et une intégration encore plus étroite avec Adobe Flex.

Yahoo ! Mail

Qualité de service quasi-irréprochable, fonctionnalités innovantes, sobriété : depuis le lancement de son service de messagerie gratuite en 1997, Yahoo! a su montrer avec son service Yahoo! Mail une certaine constance. Un atout non négligeable dans le domaine

Certains d'entre vous ont eu l'occasion de découvrir le nouveau Yahoo ! Mail. Depuis quelques mois déjà, les usagers basculent en effet sur la nouvelle interface de la messagerie. Que vaut donc cette version ?

Premier constat : l'interface a été épurée. Annoncée comme plus rapide, elle est harmonisée avec la nouvelle page d'accueil de Yahoo! qui fait la part belle au blanc. Bon point : l'ergonomie générale n'a pas changé. Les utilisateurs du webmail de Yahoo! ne seront donc pas déconcertés

Côté technique, les pièces jointes peuvent désormais atteindre 25 Mo (contre 10 Mo auparavant). Sur ce point,  Yahoo! Mail est désormais à la hauteur de Gmail.

17 http://www.linformaticien.com/Actualités/tabid/58/newsid496/2267/Default.aspx

Un système d'extensions (plug-ins) permet d'ajouter des fonctionnalités nouvelles, comme par exemple la gestion et le partage de vos photos ou le paiement via Paypal. Plutôt sympathique et prometteur sur le papier, même si seulement 2 extensions sont pour l'instant proposées.

Mais la principale nouveauté de ce  Yahoo! Mail, c'est l'apparition de fonctions de réseau social. Sur le modèle de ce que fait déjà Microsoft avec  Hotmail et les profils Windows Live, Yahoo! vous propose de partager votre vie numérique avec vos contacts. En pratique, vous pouvez désormais vous créer un profil Yahoo!,  définir qui sont vos proches, mettre à jour votre statut et être informé de l'actualité de votre réseau.

A droite de la page d'accueil (rebaptisée Nouveautés), Yahoo! vous fait des suggestions de contacts dont vous pouvez suivre les activités. Les nouveaux e-mails de ces proches (que Yahoo! appelle Connexions) sont mis en avant sur la page d'accueil de  Yahoo! Mail.

Vous pouvez  mettre à jour votre statut grâce au  champ Que faites-vous en ce moment ? En haut de la page Nouveautés. Vos proches en prendront alors connaissance depuis leur propre page Nouveautés.

Yahoo! vous permet si vous le désirez de partager des activités supplémentaires (Flickr, Youtube, Vimeo, Picasa, Last.fm) avec vos connexions.

d. Les applications composite, ou Mashups.

Veni Vidi Wiki

Ce service novateur exemplifie tout à fait les possibilités offertes par les mashups. Encore confidentiel et peu connu, cette application issue de Google Maps est une ressource de voyage qui renouvelle le style du guide de voyage sur Internet auparavant rédigé et utilisé comme un guide papier.

L'interface utilise Google Maps pour afficher des cartes du monde, et les internautes peuvent ajouter des points d'intérêts à certains endroits et rédiger des articles, insérer des vidéos Dailymotion ou Youtube. Ainsi le guide planétaire se crée de façon collaborative. Il n'existe aucun remplissage de la base préalable, c'est uniquement l'internaute qui va donner du sens ou non à cette nouvelle application. Développée par une française, ce guide compte environ 400 références sur toute la planète.

Les mashups issus de Flickr

Un des credo des développeurs de Flickr a toujours été de laisser une partie de leur code source accessible aux internautes. Le fait de permettre à ces développeurs de créer des applications innovantes sur le squelette de leur interface a permis à Flickr de bénéficier d'une grande popularité, et à donner lieux à de très nombreuses applications composites que nous allons étudier ici. Le code source de Flickr à d'ailleurs été optimisé pour pouvoir être souple et permettre le développement d'applications annexes. Ainsi les développeurs ont prévu des packages permettant d'intégrer les éléments Flickr au Flash, au PHP ou à d'autres langages de programmation en usage sur Internet. Les développeurs qui veulent réaliser un mashups peuvent ainsi jouer sur les tags, les noms d'utilisateurs, la popularité, et bien sûr, les photos elles-mêmes. Ces développements peuvent donner lieu à des créations artistiques, des jeux, des outils de e-commerce, ou des moyens de propagande. Le web 2.0 permet donc ici à chacun d'utiliser le même outil et d'en faire une oeuvre ou un service différent, ce qui est à mon sens la réelle révolution induite par les nouvelles technologies.

- Retrievr

Retrievr est une nouvelle façon de concevoir la recherche documentaire sur Internet. En effet il permet à l'utilisateur de rechercher des photos ressemblant à un croquis dessiné par ordinateur. Créée par Christian Langreiter, cette application effectue une recherche dans la base de données Flickr en se basant sur les couleurs et les formes dessinées. Le tout se fait en temps réel, une modification du dessin apportant immédiatement d'autres résultats. Même si l'utilité en est réduite, il sera ainsi toujours plus rapide et facile de taper un mot clé, ce service prouve que l'imagination devient désormais la seule barrière à la création, qui aurait pu imaginer que de tels outils puissent exister ?

- Spell

La encore, Spell est plus une performance qu'un réel outil. Flickr accueillant un grand nombre de photographies d'objet en forme de lettres, son créateur à eu l'idée de développer une application qui écrit des mots entrées auparavant par l'utilisateur sous forme de photos.

- Tagnautica

A la différence des deux premiers, ce mashups dénote une réelle utilité en plus de créer une oeuvre esthétiquement aboutie. La première action de l'utilisateur consiste à entrer un mot clé. Ce mot clé sera recherché dans la base de données de Flickr et les tags qui lui sont le plus proches seront affichés dans un anneau graphique autour du tag original. Cet anneau est composé de plusieurs photographies correspondant à chaque tag. Chaque tag est un noeud permettant d'explorer l'univers et les photos de Flickr, la taille de chaque noeud étant proportionnelle à l'importance de ce tag. Le clic sur un de ces noeuds commande la création d'un nouvel anneau, en rapport avec ce dernier. Ce mashup a été écrit par Mario Kingeman, le créateur entre autres de Clockr, une horloge utilisant des photos pour dessiner les nombres. On a ici typiquement une rencontre entre un outil utile et une oeuvre presque artistique, du moins conceptuelle.

- Fastr

Cette application fait partie des jeux qui peuvent être développés en utilisant les API Flickr. Ce jeu de rapidité cherche quelques images ayant un tag en commun et les affiche sur une page web. Le but pour l'utilisateur est de deviner quel est ce tag commun, le plus vite possible. Créé par Scott Reynen, ce jeu permet également de se comparer aux autres joueurs via un classement des meilleurs scores.

e. Les espaces personnalisés en lignes

Netvibes

Netvibes est un service de page d'accueil personnalisable. Créé par Pierre Chappaz et Tariq Krim, ce portail français a désormais une antenne à Londres. Netvibes est lancé en septembre 2005, et offre le même style de service que les pages d'accueil Google. L'utilisateur peut ainsi ajouter à sa page des « widgets » ou modules lui permettant d'afficher des informations d'autres sites, ou de blogs. Ainsi cette application est parfaitement web 2.0 : elle ne propose par elle-même aucun contenu, mais paradoxalement est plus fournie que la plus énorme des bases de données. Netvibes utilise les flux RSS pour se remettre à jour de façon automatique, et la plupart des sites disposent d'un bouton « add to Netvibes » permettant à l'internaute de s'abonner à ce flux. Les services vont encore plus loi puisque grâce à l'utilisation de l'AJAX, on a également des widgets qui indiquent l'heure ou permettent de noter des informations sur un calendrier virtuel. Lauréat du prix spécial du Jury des 9e clics d'or en 2006, Netvibes met également à disposition des développeurs des fragments de son API, espérant ainsi drainer de nouveaux talent et disposer d'innovations constantes.

Ainsi grâce à ce genre d'application, l'espace de travail devient virtuel et le bureau se déplace avec l'utilisateur. Les employés étant de plus en plus mobiles, le web 2.0 participe à la mise en place de nouvelles manières de travailler, et s'inscrit dans une démarche qui va au delà du monde des nouvelles technologies.

Del.ico.us

Dans la même idée de disponibilité de l'information, où que soit l'internaute, se trouve également Del.ico.us un service permettant de sauvegarder ses favoris et de pouvoir y accéder en ligne depuis n'importe quel ordinateur. L'avantage en est certain, et se rapproche de la modularité constatée dans le monde des grandes entreprises ou de plus en plus d'espace de travail ne sont plus fixes mais temporaires et changent tous les jours. A cela s'ajoutent des fonctionnalités permettant de noter de s'informer sur les liens préférés de ses amis ou des autres membres de la communauté. Le tout s'apparentant à l'idée de « social bookmarking ».

A travers cette typologie, forcément incomplète, le web 2.0 apparaît non plus comme une simple idée de collaboration entre internautes, mais comme une galaxie de nouveaux services. Les évolutions induites par les nouvelles technologies permettent d'imaginer un grand nombre de nouvelles applications et relations entres les différents acteurs d'Internet. Que ceux-ci soient stratèges économiques, concepteurs, artistes, chercheurs ou politiciens, le web 2.0 apporte à sa façon de nouvelles façons de travailler. C'est dans ces conditions que nous allons continuer cette étude, on explorant tout d'abord les évolutions probables et les recherches en cours chez les grands groupes.

3. Evolutions probables

Fort est de constater qu'avec l'avènement du concept Web 2.0, beaucoup d'encre a coulé sur les véritables potentialités et perspectives du Web 2. Il s'agit maintenant de se projeter dans un avenir relativement proche et d'essayer d'anticiper quelles pourraient être les hypothèses d'évolution des services ayant fait le succès du web 2.0.

a. Blog 2.0 : Vous-même êtes votre propre marque

Se souvient-on de la première fois où il a entendu parler de «blog» ? Ça date certainement... et pourtant, si vous faites abstraction de ces infâmes sidebar qui pullulent de widgets à la con, le principe des blogs n'a quasiment pas évolué : billets, commentaires, catégories.

Et pourtant, la relève est déjà là sous la forme de services de micro-blogging comme Twitter. Le moins que l'on puisse dire c'est que ce type de services ne laissent pas indifférent : soit on déteste, soit on reste hypnotisé.

En poussant un peu plus loin ce concept d'agrégation de l'activité quotidienne d'un individu, on en arrive à regarder d'un oeil moins méfiant les services de lifelogs comme  LiFE-LiNE. Alimentée en permanence par nos actions quotidiennes, ces lignes de vie digitales sont le témoin et la mémoire de notre présence en ligne, de notre existence passée et présente.

Encore plus fort, puisqu'il est question de documenter notre quotidien, pourquoi ne pas en faire un documentaire filmé via une webcam allumée en permanence ? C'est ce que vous propose déjà de faire des services comme  uStream : adapter aux individus le principe de  lifecast.

b. Social Shopping 2.0 : Nous sommes tous des commerçants

Reparlons maintenant de micro-blogging mais dans un cadre de commerce en ligne : Tant qu'à documenter le quotidien d'un individu (ses actions, déplacements, rendez-vous...) pourquoi ne pas également documenter ses achats ? Nous pourrions ainsi imaginer un service à mi-chemin entre  Shopalize et  Zlio qui archiverait vos achats et vous rémunèrerais en fonction des ventes réalisées à partir de cette « buylog » via un système d'affiliation silencieuse (non-contraignant pour l'utilisateur)

De même, cela n'a pas encore été fait en France, mais de nombreux services de  Team Buying existent déjà en Chine. Pourquoi ne pas envisager des agents intelligents capables d'identifier des groupes d'utilisateurs homogènes (ayant les mêmes besoins et fréquentant les mêmes quartiers) et de leur proposer des rassemblements spontanés pour faire de l'achat groupé hors-ligne. Le tout orchestré par SMS, géolocalisation de votre téléphone portable et anticipation d'une baisse des prix à l'aide de services prédictifs comme  Farecast (pour l'instant limité aux prix de billets d'avion et d'hôtels). Celui ou celle qui mènerait les négociations avec le marchand se verrait créditer des points de confiance par les autres acheteurs (l'utilisation de ces points reste à définir, si vous avez une idée, n'hésitez pas à la publier dans les commentaires).

c. Réseaux sociaux 2.0 : des millions d' «amis » à portée de clic

Oubliez  MySpace et ces 200 millions de comptes, l'avenir des réseaux sociaux se trouve ailleurs. Peut-être dans la  Facebook Platform ou autre Ning, une sorte de système d'exploitation en ligne pouvant héberger une infinité de services au sein d'un écosystème ( Facebook se métamorphose en web OS). Le tout reposant bien évidement sur la gigantesque base de données d'utilisateurs sous le contrôle d'un éditeur tout puissant (ça ne vous rappelle pas un certain moteur de recherche qui a pris beaucoup d'ampleur ces dernières années ?)

Puisque que l'on parle du loup, autant aborder le cas de  SocialStream, un réseau social universel qui mise avant tout sur l'unification (unified social network) et l'interopérabilité. Une sorte de Facebook Platform à la sauce Google.

Il ya également Ning, une sorte de réseau des réseaux. C'est un outil référence pour créer son réseau social à pas cher. Encore faut-il s'investir un minimum dans la conception et surtout l'animation de son réseau. Il comptabilise plus de de 500 000 réseaux créés en 2008. 18

Evoquons enfin le cas très intéressant de  Skaaz, un service à mi-chemin entre avatar et agent conversationnel ( Créez votre double virtuel avec Skaaz). Le principe est redoutable : créer un avatar intelligent qui va apprendre à reproduire votre personnalité pour pouvoir converser à votre place.

18 http://blog.ning.com/2008/10/500000-social-networks-on-ning.html

d. Contenus multimédia 2.0 : Tous des directeurs de programmation

A l'heure où  YouTube semble plus puissant que jamais (son audience dépasserait celle de Google), les regards des géants de l'audiovisuel se tournent plutôt vers  Joost, une plateforme d'IPTV. Car il faut bien se rendre à l'évidence : plus on leur en donne (du contenu) et plus ils en consomment (de la bande passante). Arrêtons de nous mentir et regardons la réalité en face : trop de frais techniques (hébergement, bande passante), trop de contenus illégaux (sous copyright), trop de polémiques (pour hébergement de contenus à caractère raciste / pornographique)... tout ça va bien s'arrêter un jour, même quand on s'appelle Google. Bref, la solution se trouve dans une nouvelle génération de service de distribution de vidéos en ligne : une infrastructure technique moins lourde, des contenus «casher«, un moteur de recommandation et de ciblage publicitaire efficace.

Et puisque l'on parle de moteur de recommandation, souvenez-vous que le temps est la monnaie de demain. A partir de là, les services capables de faire des recommandations pertinentes sous forme de playlist de vidéos, de musiques et pourquoi pas de casual games seront également en mesure de modéliser des profils de consommateurs valant de l'or pour les annonceurs. J'anticipe ainsi un service à mi-chemin entre  PandoraTOITICafe et régie publicitaire. Le tout en multi-plateforme et haute-définition bien évidemment !

Terminons ces hypothèses de l'entertainment 2.0 avec un principe de show TV open source : les éditeurs se «contenteraient» de rédiger un brief et de réaliser un pilote, les spectateurs se chargeraient ensuite de faire évoluer l'histoire (avec un système de soumissions / votes), de gérer le casting (avec un service de crowdsourcing comme  ItsOurMovie) ainsi que le financement (via un système de collecte de fond en mode P2P).

e. Mashup 2.0 : Vous êtes votre propre directeur informatique

Le web 2.0 a au moins l'avantage d'avoir pu familiariser le grand public avec des notions informatiques complexes comme les mahups et les API. Mais si tout le monde à l'exemple de Google Maps en tête, qui connaît de services de conception de mashup comme  Yahoo! Pipes, Google Mashup Editor ou encore  Popfly ? En rendant les mashup accessibles à tous, ces services facilitent la re-sémantisation des contenus ainsi que la transformation des sites en services (lire à ce sujet ce très bon billet :  When Web Sites Become Web Services).

Encore plus fort, en combinant des solutions comme  DAMIA et  QEDWiki (déjà présentés en  vidéo), on se met à rêver d'un système d'information extrêmement modulaire que l'on pourrait enrichir et personnaliser à l'aide de widgets applicatifs partagés au sein d'un écosystème. Le nirvana de l' Entreprise 2.0 !

On terminera cette série d'hypothèse d'évolution avec le concept de web OS, ultime itération des portails personnalisables (une sorte de Netvibes 2.0). Les solutions comme  EyeOSGoowyYouOS, DesktopTwo... sont ainsi très intéressantes mais n'apportent somme toute pas grand chose de neuf... peut-être une gestion du mode déconnecté... comme le promet  Parakey... récemment racheté par Facebook. Quoi, Encore Facebook ? Et oui, encore Facebook ! Voilà peut-être qui explique pourquoi la valorisation de ce service est estimée à plusieurs milliards de dollars.

II. Impact sur les modèles économiques et CRM 2.0

1. Les modèles économiques

La relance de l'économie d'Internet que l'on voit grandir auteur des concepts novateurs tels que le Web 2.0 s'est vu accompagner par un nouveau lot d'investisseurs potentiels dans les services émergents 2.0. Cela tourne bien évidemment la page noire des années (ou plutôt des mois) de l'an 2000 et de la première bulle Internet qui avait fini par éclater en faisant beaucoup de dégâts.

Là justement où en 2000, il s'agissait de profiter de l'avènement d'Internet et de créer de nouveaux services payants ou non pour ce nouveau marché illimité; dans la nouvelle tendance 2.0, les enjeux sont tout autres. En effet, les modèles économiques alors viables en 2000 ont du être complètement modifiés ou même remplacés par de nouveaux modèles économiques basés autour de la gratuité de service, de la publicité ciblée, de la collaboration des internautes et de tout ce qui peut potentiellement aider les internautes à se rencontrer, à communiquer, à échanger, à dialoguer, à vendre/acheter, etc.

a. E-Publicité 2.0

L'un des points forts du développement de cette nouvelle tendance a été et est toujours le système de la publicité ciblée. Celle-ci permet la création et la distribution de services qui n'existaient pas auparavant. Largement dominées par le service de Google : AdSense, les régies publicitaires ciblées permettent de monétiser des sites Internet en fonction de plusieurs critères comme le nombre de pages affichées, le nombre de visiteurs qui cliquent sur des bannières de publicité ou encore la quantité de visiteurs qui s'inscrivent ou qui achètent sur un site proposé sur une annonce.

Même si le principe en lui même n'est pas nouveau, la libéralisation de ce procédé via la possibilité pour n'importe quel site de mettre de la publicité correspondant exactement avec le contenu du site a considérablement changé les choses. En effet qu'un site soit important ou touchant à de nombreux sujets ou qu'il soit tout petit, nouveau ou ne traitant que de domaines précis ou pointus, chaque webmaster peut monétiser facilement son site.

A une échelle professionnelle il en résulte la possibilité pour de jeunes entreprises présentes sur le web de faire leur chiffre d'affaires uniquement en se basant sur cette forme de monétisation. Le contenu du site Internet devient dès lors gratuit pour chaque visiteur ; le but n'étant plus de faire payer un service mais de créer une importante quantité de visites sur le site via des services novateurs ou du contenu intéressant. Un des exemples que l'on peut citer est peut être celui des hébergeurs de fichiers ou photos. Jusqu'à lors ils faisaient payer l'hébergement ou limiter la quantité de fichiers téléchargeables gratuitement. Désormais bon nombre de sites comme Mediafiree.com ou Loocalhotr.com permettent tout cela de manière illimité et gratuite. Le coût des infrastructures et de fonctionnement étant amorti par la publicité présente sur le site.

b. Libre-service et de participation de l'utilisateur

Certains sites ont poussés plus loin encore le modèle de la monétisation 100% publicité ciblée en incitant les utilisateurs à créer ou à participer eux-mêmes à leurs sites Internet. Ils réalisent ainsi d'une pierre deux coups : les visiteurs créent le contenu du site mais deviennent aussi dépendant à ce site et créer ainsi un fort trafic sur le site générant de la publicité. On retrouve ce principe dans de nombreuses illustrations du Web2.0.

Le Web 1.0 reposait sur l'idée selon laquelle l'éditeur est l'acteur en bout de chaine (du serveur) et le client, le consommateur d'informations. Ainsi, Le Monde met ses informations sur LeMonde.fr et le consommateur se rend sur ce site pour cliquer sur les articles qui l'intéressent. Ce qui est important avec le Web 2.0, c'est que ce modèle n'est plus toujours d'actualité et c'est justement cette nouvelle mentalité, beaucoup plus que n'importe quelle nouvelle technologie ou « web-application », qui a des conséquences sur l'activité d'édition. Les blogs sont devenus un moyen beaucoup plus répandu d'obtenir des informations sur les centres d'intérêt. Les Podcasts ont fait baisser les coûts et supprimé les barrières technologiques de la diffusion audio en créant un monde complètement nouveau de « micro-broadcasts » diffusés via Internet. Les gens qui avaient l'habitude d'être des consommateurs d'informations deviennent maintenant des éditeurs de plein droit et la plupart des « web-applications » associée au Web 2.0 sont faites pour les aider à organiser et publier leurs propres contenus. On pourra citer par exemple le principe des Wiki où les internautes sont les contributeurs du site en lui-même à l'image de Wikipedia.

En outre, la tendance2.0 pousse encore plus loin l'implication des visiteurs en leur demandant de voter pour l'information qu'il leur plaît (système de votes inventé par Digg.com et tous ses successeurs Digg-like comme le français Scoopeo.com). Là, le visiteur devient plus que collaborateur d'Internet, il en devient l'organisateur avec la capacité de donner un avis sur tel ou tel actualité ce qui instaure un classement des différente actualités sur ces sites. En parallèle de ce système de vote, de plus en plus de site recueillent également les avis des visiteurs afin là encore de laisser la possibilité à chaque utilisateur d'être au coeur du site Internet mais aussi d'en avoir un certain contrôle.

L'organisation en elle-même d'un site Internet2.0 va là aussi être directement influencée par ses visiteurs via le système de « tags » ou « folksonomy ». Il s'agit pour chaque billet, information, vidéo, photo ou tout autre contenu de lui attribuer des « tags » ou mots-clés représentatifs du contenu pour ensuite pouvoir les classer et les organiser par catégorie. On trouve ce système sur les blogs, sur les diffuseurs de vidéo comme YouTube ou Google Vidéo mais aussi sur la plateforme de photos Flickr.com qui a été un des précurseurs en termes de « folksoonomy ».

c. L'ouverture des services : disponibilité d'API et création de MashUp

Autre facteur que l'on voit de développer ses quelques derniers mois : la disponibilité d'API (Application Programming Interface). Ces API sont en fait de véritables interfaces de programmation libre d'accès permettant à quiconque de développer sur son site Internet ou pour le site Internet proposant l'API de nouveaux modules directement basé sur le modèle du site en question. Un exemple concret est la plateforme Netvibes.com (interface web personnalisable par chacun à l'aide de modules divers comme des lecteurs RSS, des infos météo, trafic et autres...). Avec l'API de Netvibes, beaucoup de développeurs se sont mis à développer eux-mêmes des modules pour ce concept et ainsi, d'une part, grossir le catalogue de modules disponibles mais aussi, d'autres part, fédérer ces utilisateurs en les faisant devenir de véritables acteurs du concept.

La diversification des API disponibles et cet esprit communautaire grandissant favorisent les réalisations faites grâce à ces API et généralement cela se concrétise par la réalisation de MashUp se basent sur la programmation événementielle. Ces applications composites (ou MashUp) peuvent être sous la forme d'un site Web combinant du contenu provenant de plusieurs sites Web. Le principe est donc d'agréger du contenu provenant d'autres sites, afin de créer un site nouveau. Techniquement, cela est rendu possible par l'emploi de fonctionnalités incluses dans AJAX ainsi qu'avec les API fournies par certains sites. Un exemple pourrait être de créer un service qui mélange les annonces d'eBay et Google Maps pour visualiser l'emplacement du vendeur. Là encore l'intérêt est d'inciter les développeurs à répandre et à diffuser le contenu d'autres sites à une échelle plus importante.

d. Les limites

Le problème qui se pose aux grands sites 2.0 comme MySpace et Youtube est de réussir à transformer leur énorme popularité en bénéfices nets. Leur rachat par de grands groupes médias, stratégie dite de « service en marque blanche », qui ont enrichi leurs fondateurs va même dans le sens d'une bulle de spéculation qui a toutes les chances d'éclater. Les deux exemples des ces plates formes novatrices rachetée respectivement pour 650 millions de dollars et 1.65 milliard est particulièrement édifiant, en effet ils correspondent à environ 1000 fois le total de leurs pertes mensuelles. De plus MySpace a un revenu annuel d'environ 200 millions de dollars pour un milliard de pages vues par jours. Ce qui correspond au vingtième du chiffre d'affaire de Yahoo, avec un nombre équivalent de pages visitées, d'après le New York Times19. Néanmoins certaines différences avec l'éclatement de la bulle 1.0 peuvent laisser espérer que 2007 ne verra pas encore l'e-économie s'effondrer.

19 http://www.nytimes.com/2006/04/23/business/yourmoney/23myspace.html?_r=1&ex=1303444800&en=68144371c

En effet à l'époque les entreprises réelles ne rachetaient pas des virtuelles, mais on observait le contraire : AOL rachetant Warner, etc.

On observe aujourd'hui plutôt une diversification et une injection de capitaux dans le web par des groupes déjà riches et solidement installées. Le rachat de Youtube par Google permet ainsi à une gigantesque régie publicitaire d'accéder à une audience mondiale. La deuxième différence est le cout de développement. Comme évoqué précédemment, celui-ci a énormément baissé, la faillite d'une startup 2.0 est donc beaucoup moins grave pour son PDG qui peut presque en démarrer une autre tout de suite.

Ainsi, l'éclatement d'une bulle 2.0 ne semblerait pas venir d'un parallèle avec l'effondrement de la net-économie des années 90, qui à force de spéculation s'est retrouvée totalement en faillite. Mais il existe d'autres facteurs qui peuvent rendre inquiets les spécialistes, comme par exemple la difficulté d'attirer des annonceurs sur un portail contenant des informations et des contenus totalement hétérogènes car mis en ligne par les internautes. Ainsi le Cout Pour Mille (CPM : le cout de la visualisation de 1000 bannières de publicités) est très inférieur sur les espaces web 2.0 que sur les grands portails médias où le contenu est à l'avance connu des annonceurs. L'arrivée du micro-marketing, c'est-à-dire le marketing à portée des très petites entreprises, grâce notamment aux Adsense et Adwords Google, a permis aux pourvoyeurs de ces services de recueillir d'énormes bénéfices. Mais les grands groupes, dont le budget publicité ne s'est pas vraiment orienté sur le web, n'ont pas suivi le mouvement, entrainant une baisse de la croissance de ce secteur. Ainsi l'augmentation du nombre d'annonceurs et l'illusion de l'expansion du marché pourrait conduire à une recette globale en baisse. En effet le marché de la publicité est tiré vers le haut par de grands comptes qui dépensent énormément dans leur moyens de communication vers l'utilisateur, Internet y compris. Que se passe-t-il si au lieu d'utiliser les moyens traditionnels du web, ceux-ci préfèrent prendre en compte les solutions beaucoup moins chères offertes par l'e-pub 2.0 ?

Or le web 2.0, encore jeune, va évoluer. D'abord caractérisé par un mouvement gratuit collaboratif entre internautes, il s'est vu ajouter une dimension produit, business et enfin devra trouver un moyen de stabiliser son activité afin de réussir dans la durée et bien sûr de monétiser et de dégager une valeur ajoutée à son activité.

2. L'évolution du e-Commerce et du e-Commerce

D'un point de vue marketing l'essor de l'Internet collaboratif peut être très intéressant pour les agences et les marketers chargés de vendre ou de communiquer sur un produit ou un service. Le placement produit dans les interfaces générées par les utilisateurs est un concept très intéressant pour les commerciaux. L'e-Commerce collaboratif, et le pinko-marketing vont également en ce sens. Enfin la relation client est également en pleine évolution grâce au web 2.0. Le CRM (Customer Relationship Management) est aujourd'hui à la veille de devenir un CRM 2.0, en utilisant les techniques de crowdsourcing. C'est sont ces aspects marketing plus qu'économiques qui vont maintenant nous intéresser.

a. Le e-commerce 2.0

Les évolutions du e-commerce et l'influence du marketing collaboratif s'expliquent par l'importance grandissante de l'effet Long Tail (Longue Traîne en français).

La longue traine (ou longue queue) est un concept bien connu des statisticiens. Il s'agit en fait d'une expression utilisée pour la première fois en 2004 par Chris Anderson dans le magazine Wired afin de décrire le modèles économiques des grandes boutiques en ligne comme audible, Amazon ou eBay. En effet il s'est attaché à observer et démontrer que les ventes des articles les plus demandés par les internautes, étaient globalement moins élevées que le total des ventes des articles les moins demandés, qui sont beaucoup plus nombreux. De cette idée découle plusieurs effets. Le facteur clé déterminant l'existence ou non d'une longue traine est le cout de stockage. En effet, si les couts sont faibles il devient plus intéressant de diversifier son offre mais quand ceux-ci augmentent, il vaut mieux se concentrer sur les produits les plus vendus. L'arrivée d'Internet, permettant de faire baisser énormément les cours de stockage à donc vu se développer un grand nombre de boutique en lignes basées sur la longue traine. Dans ces conditions, afin de diversifier encore plus l'offre, la création d'objets personnalisés est devenue plus rentable que la standardisation. De plus le marché de niches devient de plus en plus important. En effet, il devient plus intéressant de satisfaire beaucoup de petites fractions du marché, plutôt qu'un seul énorme. En effet, sur les secteurs très concurrentiels, le marché est saturé, surtout sur Internet. En revanche les niches, après avoir été très peu considérées, permettent un profit élevé. En effet la facilité de communication sur Internet permet de toucher un plus grand nombre de personne, rendant une niche sur Internet plus intéressante que jamais.

Parallèlement à ce rejet de la standardisation, la publicité classique, dirigée de l'annonceur vers le spectateur perd du terrain. Celui-ci est de plus en plus habitué et enclin à éviter le message publicitaire. Cette situation peut être un désavantage mais peut être également bénéfique pour l'entreprise si elle agit sur le « bouche à oreille positif »19. C'est à dire en déguisant de la publicité comme un message informatif diffusé entre utilisateurs eux-mêmes, ce qui est une utilisation des aspects communautaire du web 2.0. Selon Frank Jacob et Martin Oetting, tous deux professeurs en Marketing à l'Université de Berlin, les marques doivent apprendre à interagir avec leurs clients, a dialoguer via les espaces publics présent, que ce soient les blogs ou les plateformes de partage communautaires. Ainsi Opel a mis à la disposition de 8 bloggeurs indépendants une Corsa afin qu'ils l'évaluent et en fasse des commentaires sur le blog créé pour l'occasion par la marque.

E-commerce collaboratif

La mode est aujourd'hui la personnalisation, la contribution de l'internaute est de plus en plus utilisée par les boutiques en lignes.

Pinko Marketing

Le pinko marketing est une nouvelle vision du marketing, tourné vers Internet. Encore balbutiant, c'est une idée développée par Tara Hunt 20.

b. Blog de marque

Le blog corporate

Le blog, figure emblématique du web 2.0 est de plus en plus utilisé par les marques dans leurs stratégies corporate. Complétant les informations du site institutionnel il permet d'établir une connivence avec le public, et ainsi peut être à l'écoute de sa communauté. Les avantages d'une solution blog sont nombreux s'il est utilisé en complément du site web, qui est la réelle vitrine de l'entreprise. Il permet par exemple une ligne éditoriale plus souple et plus proche d'un segment de la population, ainsi qu'une plus grande interactivité que sur le web traditionnel, habituellement plus figé. D'un point de vue technique, il permet également d'avoir un trafic qualifié et intéressé par la marque, redirigé depuis le site web, ainsi qu'un meilleur référencement que la vitrine. Du point de vue financier, la mise en place d'un blog est rapide et peu couteuse, elle peut donc être considérée comme la partie dynamique et actuelle d'un site web qui peut être statique dans le temps et mis à jour beaucoup moins souvent.

Les blogs d'entreprise se divisent en deux types. Tout d'abord les blogs officiels, où la marque apparaît clairement et utilise ses outils marketing visiblement et les blogs officieux qui essayent de cacher leur affiliation afin de bénéficier de la crédibilité attribuée aux bloggeurs. Ces blogs officieux restent néanmoins facilement identifiables.

La communication sur Internet d'une entreprise se trouve grandement facilitée par l'usage des blogs. Tant du point de vue du rédacteur, pour qui la mise en place et l'administration est très simple que de celui de l'utilisateur, maintenant familiarisé avec ces nouvelles formes de contenus. Cette actualisation est peu intrusive, à la différence de la newsletter, l'internaute qui a accès à l'information est donc uniquement celui qui est intéressée par celle-ci. Cette information peut également être distillée aux journalistes qui y trouveront matière à des articles beaucoup plus facilement et donc seront plus enclins a parler de l'entreprise ce qui augmentera sa visibilité.

20 http://www.arkantos-consulting.com/articles-marketing-internet/webmarketing-mix/20071221-le-pinko-marketing.php

En parallèle de cette communication de l'entreprise vers ses clients, le blog de marque officiel permet également un retour sur les produits ou services vendus par l'entreprise.

Le référencement, souvent problématique et difficile à appréhender, se trouve grandement facilité par l'utilisation des blogs. En effet les contenus sont facilement analysables par les robots, comportent un grand nombre de liens entrants et sortants ainsi que de liens internes, qui sont autant de critères de calcul de l'algorithme du Page Rank du leader actuel, Google.

Il existe des blogs de marques officiels émanant véritablement du pôle communication de l'entreprise, mais également des blogs officiels rédigés par des amateurs car ils sont passionnés par l'esprit de la marque, souvent dans le secteur automobile. Par exemple, NetFlix, un loueur de DVD en ligne possède un blog non officiel mais qui revendique totalement sa filiation.

Le blog est également un outil à privilégier pour les très petites entreprises, qu'elles possèdent ou non un site web institutionnel, et ce pour plusieurs raisons. La nature même des TPE rend caduque l'utilisation d'un webmaster à plein temps, par manque de main d'oeuvre principalement. Avec l'utilisation des blogs la visibilité sur Internet peut être facilitée et accessible à n'importe quel membre de l'équipe. En effet, pour ces entreprises, le blog professionnel dispose d'un très bon rapport effort fourni / retour constaté. Souvent sous licence open source les blogs et hébergements sont quasiment gratuits, et surtout esthétiquement de bonne qualité, ce qui n'est majoritairement pas le cas des sites web réalisés en interne par un des membres de l'équipe qui possède quelques notions de programmation. De même que les problématiques graphiques et d'hébergement, le référencement est généralement assuré par la plate forme. Le blog peut donc être un outil particulièrement utile pour les professionnels.

Le blog officieux

Les blogs officieux, qui cachent leur enseigne d'affiliation, sont un dérivé des techniques de marketing viral souvent utilisés sur Internet. On peut citer par exemple les campagnes Vichy (pourmapeau.fr) ou Celio (nousleshommes.fr). Le problème de ces campagnes est que leur outil se retourne souvent contre eux. En effet, il est souvent très facile de reconnaître à quelle marques ils se rapportent, justement parce qu'ils en font l'apologie. L'internaute est alors rebuté par cette tentative, d'autant plus que les marques essaient souvent de se camoufler sous une apparence journalistique. Un bon exemple de ce ratage est la campagne Super Radin, réalisée pour Cetelem par l'agence Pékin. Ce site cherchait à prouver aux futurs demandeurs de crédits que le crédit à la consommation pouvait servir à financer des biens de consommation courante et pas seulement des appartements ou des voitures. De ce coté, l'objectif didactique était rempli mais c'est la tentative de buzz par le blog qui est avortée. La tentative de communication virale est peu adaptée à ce type de blog, en effet les internautes se partagent volontiers des textes ou des liens vers des contenus multimédias, mais plus difficilement des sites sur la facilité d'obtenir un crédit, surtout un site appelé `super radin'. A fortiori cette campagne qui cède à un effet de mode mais ne résulte pas d'une réelle stratégie comporte plusieurs écueils dans sa réalisation.

Ainsi, le choix d'une campagne virale ne doit pas être automatique, et c'est malheureusement souvent le cas dans les campagnes de blogs officieux. Plus que ces derniers, les marketers se devraient de rejoindre la voie du journalisme de publicité, le publi-rédactionnel.

3. Stratégie marketing et CRM

a. Crowdsourcing et pronétariat

Le crowdsourcing (littéralement `approvisionnement par la foule') est un néologisme décrivant un modèle économique inventé par Jeff Howe et Mark robinson en Juin 2006 dans un article du magazine Wired. Il s'agit d'un système dérivé de l'outsourcing (`sous traitance') qui ne fait pas travailler des prestataires étrangers moins chers, mais des internautes, amateurs et prêt à être peu rémunérés. Il diffère du pinko marketing qui est plus une stratégie de promotion, par ses implications plus axée sur l'économie.

Concrètement, pour faire du crowdsourcing, l'entreprise doit déléguer un poste qui est dévolu à un employé unique à un large groupe d'internaute qui répondra à un appel sur Internet. Ceux-ci seront micropayés si leur travail est validé, mais travailleront gratuitement dans le cas contraire. Ses implications directes en font donc un modèle économique parfaitement représentatif du web 2.0. Ainsi la doctrine du crowdsourcing se résume par le postulat selon lequel un grand nombre d'enthousiastes peut être plus performant qu'un petit groupe de professionnels expérimentés. Ici encore, la longue traine joue un rôle important, en effet chaque acteur a un rôle insignifiant mais le total des compétences de la communauté est gigantesque.

Le crowdsourcing peut à terme devenir une menace pour les professionnels c'est du moins ce que craignent certains photographes. Comme avec le débat autour de Flickr et l'utilisation de photos d'amateurs. Un des exemples les plus intéressants de crowdsourcing a été réalisé par Amazon. Sur son interface Amazon Mechanical Turk, La célèbre boutique en ligne propose aux internautes de réaliser des taches très répétitives mais impossible à réaliser par un ordinateur. Impossible ou plus chères, la machine devenant plus couteuse que l'être humain. Les taches se composent essentiellement de tris de photos, rémunérés quelques centimes. En France, la plate-forme Wilogo propose à ses adhérents de réaliser des logos pour des entreprises. Généralement, le nombre de propositions pour un client s'élève à 80 propositions. Le cout d'un tel appel d'offre est faramineux, mais ici il est quasiment gratuit. Le graphiste choisi reçoit un chèque d'environ 300 euros, une somme suffisamment importante pour attirer un amateur mais qui est d'une part ridicule par rapport aux prix du marché, mais est également soumise à une commission de la part de la plate-forme. Ce n'est pas le contributeur qui est gagnant mais bien l'entreprise. En faisant miroiter un travail de chez soi, simple, les crowdsourceurs s'assurent des pronétaires une main d'oeuvre docile et totalement sous payée. Dans le cas de Wilogo, ils s'appuient même sur la fierté du graphiste amateur de voir son travail choisi par une entreprise. Les auteurs ont même poussé le système à son paroxysme en proposant de retravailler toute la charte graphique du site, ce qui coute plusieurs milliers d'euros, en proposant comme récompense, un baladeur MP3. Pourtant, selon Fred Cavazza « ce genre d'initiative réellement remarquable et surtout révélatrice du réel potentiel du web 2.0 : des modèles participatifs avec redistribution des revenus »21. Il avoue lui même pécher souvent par optimisme, néanmoins dans l'esprit ce type d'initiative peut être intéressant par exemple avec Cambrian House. Cette start-up se décrit comme une incubatrice de logiciels. Ils font appel à l'imagination des internautes pour avoir des idées de concepts de logiciels. Des développeurs crowdsourcés développent les idées les mieux notées par la communauté. Cambrian House se charge de la commercialiser et redistribue les revenus à tous les maillons de la chaine. On a ainsi une entreprise qui peut être dotée d'une grande force, mais n'employant aucun salariés.

Pronétariat

Le pronétariat est un néologisme qui découle de l'idée de crowdsourcing. Il s'agit d'une contraction du prolétariat, qui désigne les ouvriers volontaires de l'Internet. Joël de Rosnay définit les pronétaires comme « une nouvelle classe d'usagers des réseaux numériques capables de produire, diffuser, vendre des contenus numériques non propriétaires, en s'appuyant sur les principes de la ''nouvelle nouvelle économie''. »22 Ils se rapprochent ainsi des « pro-ams », les professionnels amateurs, qui utilisent les outils professionnels accessibles facilement sur Internet.

21 http://www.fredcavazza.net/2006/07/19/start-up-crowdsourcing-cambrian-house/

22 http://www.contacttv.net/i_dossier_recherche_contenu.php?id_rubrique=384&id_article=2257

b. CRM 2.0

Le CRM, (Customer Relationship Management, gestion de la relation client) composante très importante du marketing relationnel, est en passe d'évoluer radicalement grâce aux nouveaux outils du web 2.0. La création de communauté en ligne permet de recueillir des informations sur les prospects très facilement. Cette gestion de la relation cliente est facilitée par de nombreux logiciels aidant à fidéliser les clients. Ces logiciels utilisent de plus en plus les technologies du web 2.0, en termes de convivialité et de puissance d'une part, mais également du point de vue participatif en mettant les clients au coeur de la stratégie CRM de l'entreprise. Ainsi, l'ancien outil maitre du CRM sur Internet, la newsletter est totalement repensée grâce à l'ajout de flux RSS au site de l'entreprise. Ceux-ci permettent de faire vivre le site et d'informer instantanément les clients sur la vie de la marque et les nouveaux produits disponibles.

De même, la CRM sur Internet a également comme mission de suivre l'évolution du compte d'un client, par exemple lors d'une commande sur une boutique en ligne. La encore les flux RSS permettent de s'affranchir des alertes mails.

LA VRM : Vendor Relationship Management

Le VRM est un nouveau cap de la relation client qui inverse la relation client-vendeur. Il permettra à l'avenir (il s'agit encore d'un concept en développement) au client de disposer des même armes que le vendeur en lui permettant de choisir son propre vendeur, et non plus d'être choisi par lui.

Des ébauches de VRM existent cependant déjà dans l'e-tourisme avec des services comme l'éco-comparateur mis en place par voyages-sncf.com. Ce service compare les offres des différentes agences de voyages qu'elles soient aérienne ou ferroviaires et propose le meilleur prix au client. Néanmoins il est encore sommaire et ne prend pas en compte les différentes cartes de fidélités, habitudes de voyage, etc.

Ainsi le VRM contournerait les intermédiaires, mais la principale difficulté à sa mise en place sont les politiques commerciales des différents acteurs concurrentiels qu'il mettrait en compétition.

FeedBack 2.0

FeedBack 2.0 est logiciel de CRM en ligne utilisant pleinement les apports du web 2.0. En effet il propose de créer des communautés permettant à tout membre de l'entreprise de s'informer sur les suggestions et les innovations proposée par ses clients.

Ainsi les prospects, ou par extension toute personne intéressée par la vie de l'entreprise peut laisser des commentaires, des suggestions d'amélioration, qui seront évaluées et notées par la communauté dans son ensemble et pas uniquement par une instance centrale. Il s'agit d'une application facilitant le dialogue et permettant dans un premier temps de l'initier. L'utilisation des technologies AJAX, RSS, ainsi que des tags pour la navigation en fait une application Rich Media résolument moderne. L`avantage par rapport au blog est que la communauté s'anime d'elle même et ne nécessite pas du webmaster d'ajouter du contenu pour en faire discuter les clients.

Feedback possède évidement des outils permettant de motiver les clients à être actifs, comme des systèmes de notation récompensant les membres qui donnent le plus de commentaires, etc.

4. Les enjeux juridiques du Web 2.0

a. Le problème des droits d'auteurs dans les sites de partages

Le web 2.0, vu comme un formidable moyen de partager des créations originales ou des informations, se heurte de plus en plus au problème du droit d'auteur. En effet il est possible sur Dailymotion par exemple d'accéder à des contenus sous copyright comme des épisodes de grandes séries à succès. Dans ces conditions, quelles sont les solutions qui peuvent être apportée afin de satisfaire d'un coté les auteurs, et de l'autre de ne pas faire fuir les utilisateurs, l'audience restant le seul moyen d'attirer les annonceurs et donc de faire survivre le site ? Youtube a ainsi été récemment assigné en justice par la chaîne américaine NBC, qui exigeait le retrait de certains extraits de ses émissions à succès. La solution pourrait constituer en des partenariats avec ces grands groupes médias, autorisant Youtube à utiliser sa force de frappe pour diffuser des émissions entières mais entrecoupées de publicité. Ce faisant, on opérera par contre un réel retour en arrière dans le concept même de web 2.0. Le pourvoyeur d'informations ne sera plus libre mais surveillé, et les contenus mis en avant car plus lucratifs seront ceux payés par des annonceurs pour être affichés. Le web 2.0 est il condamné à disparaître, au même titre que Napster par exemple ? Napster qui a d'ailleurs également essayé de se transformer en système légal lorsqu'il s'est vu interdire son offre de téléchargements gratuits. Voici quelques éléments de réponses basées sur des réflexions communautaires du web 2.0 à travers ces quelques interrogations.

- Quel est le statut du responsable d'un site Web 2.0 (loi LCEN) ?

La loi pour la confiance dans l'économie numérique du 21 juin 2004 (LCEN) a édicté un régime de responsabilité spécifique et allégé pour les prestataires techniques qui assurent le stockage de contenus fournis par le destinataire du service. Le web 2.0 conduit les juges à s'interroger sur la qualité de l'opérateur du site Web 2.0 dont la responsabilité est recherchée : est-il hébergeur au sens de la LCEN ou éditeur ? En d'autres termes, est-il responsable du contenu qu'il publie ?

- Comment diffuser des données personnelles (loi Informatique et Libertés) ?

Les données personnelles ne peuvent être diffusées qu'après avoir obtenu l'accord préalable des personnes et les avoir informées de leurs droits et modalités d'exercice. Les politiques de confidentialité des sites doivent traduire les principes de la loi Informatique et Libertés. La CNIL ainsi que ses homologues européens s'interrogent sur le respect de ces principes par les sites de réseaux sociaux du type Facebook, Myspace...

- Comment gérer les RSS, blogs, forums, agrégateurs ?

Les contrats d'hébergement ou les conditions générales d'utilisation des sites permettent de fixer les obligations et la responsabilité de l'utilisateur en matière de contenus ainsi que les mesures de sanction pouvant être prises par le site.

- Modération et filtrage : quels sont les risques juridiques ?

En modérant ou filtrant le contenu, l'opérateur de site pourrait être considéré comme modifiant le contenu et dès lors assumer une responsabilité d'éditeur. Pourtant ces moyens doivent être utilisés pour répondre à des exigences spécifiques mises à la charge des sites par la loi LCEN (contribution à la lutte contre certaines activités illicites) ou par les tribunaux (obligation particulière de surveillance).

- Comment interpréter les récentes décisions contre le Web 2.0 (LesPipoles, Fuzz, DicoDuNet, Wikio...) ?

Ces décisions qualifient les opérateurs des sites d'éditeur. Ils sont donc responsables des contenus illicites auxquels les flux RSS renvoient automatiquement ou directement mis en ligne par des internautes.

La portée de ces décisions rendues en référé et contraires à d'autres décisions judiciaires qualifiant les opérateurs de sites Web 2.0 d'hébergeur doit être relativisée. Toutefois, elles créent une insécurité juridique qui poussera peut-être le législateur à créer un régime de responsabilité spécifique aux sites...

- Comment peut-on mesurer les risques juridiques encourus par un site web ?

La meilleure façon est certainement de se renseigner dans un premier temps sur les enjeux juridiques réels liés aux nouvelles formes de publication des sites web, qu'ils fassent intervenir des internautes (blogs, forums, wikis, etc.) ou qu'ils agrègent des contenus tiers (flux RSS, affiliations, marque blanche, etc.). Ensuite, à chacun de voir si un accompagnement par un professionnel du droit s'impose, afin de prévenir en amont...

Conclusion

Le web 2.0 et tout son apanage technique et technologie apparaît logiquement comme novateur dans sa modification fondamentale de la communication sur Internet. Le serment du Web 2.0 est donc d'ouvrir une ère nouvelle où les utilisateurs sont à la fois les contributeurs et les bénéficiaires. Dès lors la perception de l'intelligence collective prend tout son sens. Un point de départ où une multitude de nouveaux usages et de nouvelles applications sont encore à trouver.

Il n'en demeure pas moins que cette notion conceptuelle qu'est le Web 2.0 reste floue à définir mais aussi à cerner... Pour le moins paradoxal en soit puisque tout le monde en parle mais pourtant personne en saurait en donnait une définition exacte sur laquelle tout le monde s'accorderait. Il s'agit surtout d'un ensemble d'enjeux économiques, de nouveaux services définis pour mais aussi autour de l'internaute.

Beaucoup de services estampillés 2.0 ont vu le jour durant ces derniers mois et années, beaucoup sur un même marché d'autres ont su créer la différence et inventer un service apprécié des utilisateurs mais jusqu'à lors inexistant. Cependant, si l'on prend le modèle du web 1.0, première bulle, mais aussi en s'appuyant sur les modèles économiques 2.0 basés en majeure partie sur la publicité ou sur la valeur d'une potentielle entreprise, on peut s'attendre à voir disparaitre beaucoup de ces jeunes « start-up » dans un futur relativement proche tant le marché est en pleine évolution devient hautement concurrentiel.

Ainsi en termes d'evolution du Web2.0, on peut imaginer plusieurs choses. Premièrement, l'avènement du concept de Web sémantique va révolutionner la manière de faire ses recherches sur Internet. Deuxièmement, on peut concevoir une évolution de la syndication des données en combinant données et services afin de permettre de développer encore plus le concept de plateforme client/serveur où n'importe quelle application devient accessible via Internet. Enfin, si le terme de Web 3.0 doit exister un jour, cela ne pourra être qu'en tant qu'une évolution du Web2.0 avec des services encore plus poussés, plus intuitifs et surement le principe des MashUps exploités au maximum avec des sites concentrant un ensemble de services.

BIBLIOGRAPHIE

Webographie

Internet mobile, état des lieux : le futur du web est-il mobile ?

http://www.presse-citron.net/internet-mobile-etat-des-lieux-le-futur-du-web-est-il-mobile

Twitter entre dans la cour des grands du Web 2.0

http://www.lesechos.fr/info/comm/300356861-twitter-entre-dans-la-cour-des-grands-du-web-2-0.htm

Archives pour Marketing 2.0

http://www.michelleblanc.com/category/marketing-20/

Déployer des services Web 2.0 : état des lieux, opportunités, exemples à suivre

http://www.benchmark.fr/catalogue/publication/69/etude-deployer-des-services-web-2-0-etat-des-lieux-opportunites-exemples-a-suivre.shtml

What is Web 2.0 by Tim O'Reilly

http://www.eutech-ssii.com/ressources/1

Le WIKI de l'Université de Paris

http://wiki.univ-paris5.fr/wiki/Fil_RSS

Le développement web avec AJAX

http://www.ak-project.com/spip.php?article82

Le nouveau Yahoo Mail

http://www.arobase.org/blog/2009/09/le-nouveau-yahoo-mail-est-allege-et-enrichi-et-alors/

Adobe AIR

http://www.linformaticien.com/Actualités/tabid/58/newsid496/2267/Default.aspx

XML

http://www.futura-sciences.com/fr/definition/t/internet-2/d/xml_3997/

Ruby on Rails : dossier complet pour tout comprendre sur cette techno phare du web2.0

http://blog.aysoon.com/66-ruby-on-rails-dossier-complet-pour-tout-comprendre-sur-cette-techno-pahre-du-web20

Présentation de XML

http://www.commentcamarche.net/contents/xml/xmlintro.php3

Les Mashups, applications Web composites très Web 2.0

http://www.journaldunet.com/solutions/0606/060628-qr-mashup-hybride.shtml

Web 2.0 Etat de l'art

http://www.ymca.int/uploads/media/Web2.0_Etat_de_art.pdf

Le Web 2.0 va révolutionner le CRM

http://www.journaldunet.com/expert/6309/le-web-2-0-va-revolutionner-le-crm.shtml

Hypothèses d'évolution pour le web 2.0

http://www.fredcavazza.net/2007/08/30/hypotheses-devolution-pour-le-web-20/

What Is Web 2.0

http://oreilly.com/web2/archive/what-is-web-20.html

REST

http://www.clever-age.com/veille/clever-link/soap-vs.-rest-choisir-la-bonne-architecture-web-

services.html#titre4

Les enjeux juridiques du Web 2.0 : quelques réflexions...

http://www.webrankinfo.com/actualites/200804-enjeux-juridiques-du-web-2.htm

ANNEXES

Annexe 1 : Traduction française de l'article fondateur du web 2.0 de Tim O'Reilly

Qu'est ce que le web 2.0 : modèles de conception et d'affaires pour la prochaine génération de logiciels.

L'explosion de la bulle internet en 2001 a définitivement marqué un tournant dans l'histoire du web. Beaucoup de gens ont à ce moment considéré que le web était une technologie surévaluée alors qu'au contraire, le fait qu'une bulle se forme puis éclate est un trait commun à toutes les révolutions industrielles. Ces soubresauts sont même caractéristiques du moment où une technologie ascendante est prête à entrer dans une nouvelle phase. C'est en effet le moment où les simples prétendants arrivent à bout de souffle tandis que les points forts des premiers gagnants apparaissent : et c'est seulement à cet instant que l'on commence à comprendre ce qui distingue les premiers des seconds.

Le concept de web 2.0 est apparu avec une conférence « brainstorming » entre O'Reilly et Medialive International. Dale Dougherty, pionner du web et membre d'O'Reilly notait alors que bien loin de s'être effondré, le web n'avait jamais été aussi important et que nombre de nouveaux sites et applications à caractère innovant apparaissaient avec une régularité déconcertante. De plus, les quelques sociétés qui avaient survécu à l'hécatombe semblaient avoir quelque chose de commun. Se pouvait-il que le crack des « dot com » eût révélé une nouvelle ère pour le web au point que l'expression « web 2.0 » ait un sens ? Nous sommes alors tombés d'accord sur le fait que cela en avait un : la conférence web 2.0 était née.

En un an et demi (ndt : l'article est daté du 30/09/2005), le terme « web 2.0 » s'est franchement popularisé avec plus de 9,5 millions de citations dans Google. Mais il reste encore de multiples points de désaccord sur sa signification exacte, un certain nombre de personnes décriant ce qui ne leur semble être qu'un buzzword bien marketé, d'autres y voyant une nouveau modèle de pensée.

Cet article est donc une tentative de clarification du sens du terme « web 2.0 ». Dans notre brainstorming initial, nous avons exprimé notre ressenti du web 2.0 par l'exemple :

Web 1.0 // Web 2.0

DoubleClick --> Google AdSense

Ofoto --> Flickr

Akamai --> BitTorrent

mp3.com --> Napster

Britannica Online --> Wikipedia

sites perso --> blogs

evite --> upcoming.org et EVDB spéculation sur les noms de domaines --> optimisation pour moteurs de recherche pages vues --> coût au clic

« screen scraping » --> services web publication --> participation système de gestion de contenu --> wikis arborescence (taxonomie) --> tags ("folksonomy") rigidité du contenu --> syndication de contenu

Et la liste pourrait encore s'allonger... Mais cela ne nous dit toujours ce qui fait qu'une application ou un concept est web 1.0 et un autre web 2.0. (La question est particulièrement pressante dans la mesure où le terme « web 2.0 » s'est à ce point répandu que des entreprises se l'approprient bien souvent sans réelle compréhension de sa signification. C'est d'autant plus délicat que la plupart de ces start-ups friandes de termes à la mode ne sont en rien web 2.0 et que parallèlement à cela des applications que nous avons identifiées comme étant web 2.0, comme Napster ou BitTorrent ne sont même pas des applications web à proprement parler !). Nous avons donc commencé à tirer de ces exemples les principes qui sont d'une manière ou d'une autre à la base des succès du web 1.0 mais aussi des applications récentes les plus remarquables.

Le web en tant que plate-forme

Comme de nombreux concepts majeurs, le web 2.0 n'a pas de frontière claire mais plutôt un centre de gravité. Vous pouvez voir le web 2.0 comme un ensemble de principes et de pratiques qui, à la manière d'un système planétaire, verrait des sites exposant tout ou partie de ses préceptes graviter à des distances variables du centre en question.

Ce schéma montre une cartographie du web 2.0 telle qu'elle a été développée lors d'une session brainstorming pendant le FOO Camp, une conférence O'Reilly Media. C'est encore à l'état de brouillon mais cela montre la plupart des idées émanant du noyau du web 2.0.

Lors de la première conférence web 2.0 en octobre 2004, John Battelle et moi-même avons établi une liste préliminaire de principes pour notre discours d'ouverture. Le premier de ces principes était « le web en tant que plate-forme ». Or il se trouve que c'était déjà la devise d'un enfant chéri du web 1.0, Netscape, qui avait malgré cela succombé à sa fameuse bataille contre Microsoft.

De plus, deux de nos exemples web 1.0 de départ, DoubleClick et Akamai, étaient des pionniers qui avaient eux aussi abordé le web comme une plate-forme. Les gens n'y pensent pas souvent en tant que « services web » mais en réalité, les serveurs de publicité furent probablement les premiers « mashup » (ndt : dans le sens ou ce sont des contenus diffusés directement au sein de sites clients) largement déployés sur la toile.

Chaque bannière publicitaire est en effet une forme de coopération entre 2 sites web dans un seul but : délivrer une page intégrée à un lecteur sur ordinateur de plus. De son côté, Akamai traite aussi le réseau en tant que plate-forme quand il élabore un cache ainsi qu'un système de distribution de contenu soulageant la bande-passante d'un réseau souvent congestionné.

Cependant ces pionniers apportent des contrastes intéressants avec des acteurs du web plus récents dans la mesure où ces derniers ont repris à leurs aînés des solutions aux mêmes problématiques tout en les poussant plus loin, et qu'ils expliquent ainsi de manière plus profonde la véritable nature de cette nouvelle plate-forme. DoubleClick et Akamai furent donc des pionniers du web 2.0, mais nous constatons déjà qu'il est possible d'exploiter plus efficacement ce nouveau concept à l'aide d'autres « design patterns » du web 2.0.

Je vous propose d'examiner plus précisément les trois cas qui suivent et qui nous permettront d'extraire les fameux traits différenciant le web 1.0 du web 2.0.

Netscape vs. Google

Si Netscape est emblématique du web 1.0, Google est de manière encore plus certaine son équivalent web 2.0, ne serait-ce du fait de leurs entrées sur les marchés boursiers qui marquèrent chacune l'aube d'une nouvelle ère du web. Commençons donc la comparaison de ces deux sociétés et de leur positionnement.

Netscape énonçait « le web en tant que plate-forme » dans les termes du paradigme du logiciel d'autrefois : leur produit-phare était le navigateur web, une application cliente, et leur stratégie était d'utiliser leur domination sur le marché du navigateur pour créer un marché à destination des serveurs haut de gamme. Le contrôle des standards d'affichage de contenu et des applications utilisant un navigateur aurait du en théorie donner à Netscape le même genre de pouvoir sur ce marché que celui que possède Microsoft sur celui des Pcs. Un peu à la manière de l'expression "horseless carriage" (ndt : « la charrette sans cheval ») qui popularisa l'automobile, Netscape promut l'expression « webtop » pour supplanter le desktop et prévit de remplir ce webtop d'informations et d'applications grâce à des apporteurs de contenus qui utiliseraient des serveurs Netscape.

Finalement, serveurs et navigateurs web devinrent de simples outils et la plus grande part de la valeur ajoutée du web se concentra dans les services diffusés par les plates-formes web.

Google au contraire, commença son existence en tant qu'application web native, jamais vendue ou packagée mais délivrée en tant que service, avec des clients payant, directement ou indirectement, pour utiliser ce service. Aucun des pièges de la vieille industrie logicielle ne pouvait s'appliquer à son modèle. Aucun planning de sortie de différentes versions, juste une amélioration continue. Aucun système de vente ou de licence, simplement des utilisateurs. Aucun problème de portage sur différentes plate-forme de sorte que les clients puissent faire marcher le logiciel sur leur machine, uniquement une quantité massive de Pcs utilisant un système d'exploitation open source ainsi que quelques applications maison (que quiconque d'extérieur à l'entreprise n'a jamais pu voir...).

A la base, Google nécessitait une compétence dont Netscape n'avait jamais eu besoin : la gestion de base de données. Google n'est pas une simple suite d'outils logiciels, c'est une base de données spécialisée. Sans données, les outils ne servent à rien ; sans logiciel, les données sont ingérables. La gestion des licences et le contrôle des API - points cruciaux de l'ère précédente - n'avaient plus lieu d'être dans la mesure où les logiciels n'avaient plus besoin d'être distribués mais seulement utilisés et où sans la capacité de collecter et de gérer des données, le logiciel n'est que de peu d'utilité. En fait, la valeur d'un logiciel est proportionnelle à l'échelle et au dynamisme des données qu'il permet de gérer.

Le service offert par Google n'est ni un serveur - bien qu'il soit délivré par une quantité massive de serveurs web - ni un navigateur - bien que pour l'utiliser, un navigateur soit nécessaire. Leur service de recherche bien connu n'héberge même pas le contenu qu'ils permettent à leurs utilisateurs de trouver. A la façon d'un coup de téléphone où la valeur n'est pas dans les téléphones mais le réseau les mettant en relation, Google place sa valeur dans l'espace situé entre le navigateur et le serveur de contenu, comme un opérateur entre l'utilisateur et son usage du web.  

Même si Netscape et Google peuvent être décrites comme des sociétés de logiciels, il est clair que Netscape appartient à la même catégorie que les Lotus, Microsoft, Oracle, SAP, et autres qui ont pris leur envol au début de la révolution logicielle du début des années 80 alors que les comparses de Google sont d'autres applications web telles que eBay, Amazon, Napster, et bien entendu, DoubleClick et Akamai. 



DoubleClick vs. Overture et AdSense

Comme Google, DoubleClick est un pur produit de l'ère internet. Il décline le modèle du logiciel en tant que service, a un coeur de métier dans la manipulation des données et, comme nous l'avons vu plus haut, a été un pionnier du service web bien avant même que le terme « web service » ait été créé. Cependant, DoubleClick fut finalement limité par son modèle économique. La société paria en effet sur la croyance très « 90's » que le web était fait de publications et non de participations. ; que les annonceurs, et non les consommateurs, devaient être les acteurs moteur ; que la taille importait, et qu'Internet serait peu à peu dominé par les quelques sites webs du haut des classements de MediaMetrix et ses semblables.

Dans cette logique, DoubleClick annonce fièrement sur son site « plus de 2000 implémentations réussies » de sa solution. Pendant ce temps, Yahoo! Search Marketing (auparavant Overture) et Google AdSense possèdent déjà des centaines de milliers d'annonceurs...

Le succès de Google et d'Overture provint de leur compréhension de ce que Chris Anderson nomme « la longue traîne » (ndt : traduction de l'expression « the long tail » déjà popularisée dans la communauté francophone) : la force collective des petits sites représente l'essentiel du contenu du web. L'offre de DoubleClick demande un contrat de vente très formel, limitant leur marché aux quelques milliers de sites les plus importants. Overture et Google ont montré comment il était possible d'ajouter virtuellement de la publicité sur n'importe quelle page existante. De plus, ils ont remplacé les publicités tape-à-l'oeil et agaçantes telles que les bannières et les « pop-up » par des messages peu intrusifs, sensibles au contexte de la page à laquelle ils s'intègrent et finalement plus appréciés des consommateurs.

Leçon du web 2.0 : mettre au point un service simple d'accès et une gestion algorithmique des données pour toucher l'intégralité du web, jusque dans sa périphérie, pas seulement son centre, jusqu'au bout de sa longue traîne, pas seulement en son coeur.

De manière peu surprenante, les autres « success stories » du web 2.0 démontrent le caractère gagnant de ce modèle. Ebay permet les transactions occasionnelles de quelques dollars entre individus en tant qu'intermédiaire. Napster (bien que fermé pour des raisons légales) ne s'est pas construit grâce à un immense catalogue de chansons mais à travers la mise au point d'un système faisant de chaque client un serveur renforçant lui-même le réseau.

Akamai vs. BitTorrent

Tout comme DoubleClick, Akamai est optimisé pour faire des affaires avec un coeur de cible pas avec la périphérie du marché. Bien que ses services bénéficient à tous en facilitant l'accès aux sites à fortes audience, ses revenus ne proviennent que d'un certain nombre de grands comptes du web.

BitTorrent, comme les autres pionniers du mouvement peer-to-peer, utilise une approche radicalement différente de la décongestion des flux. Chaque client est aussi un serveur, les fichiers sont découpés en fragments légers pouvant être téléchargés de plusieurs lieux à la fois, permettant ainsi à chacun des membres du réseau d'apporter un peu de bande passante et de données à chacun des autres utilisateurs : plus un fichier est populaire, plus rapide est son téléchargement.

BitTorrent illustre là un principe clé du web 2.0 : le service s'améliore automatiquement quand le nombre de ses utilisateurs croit. Alors qu'Akamai doit ajouter des serveurs pour améliorer son service, chaque utilisateur de BitTorrent apporte un peu de ses ressources à l'ensemble de la communauté. C'est implicitement une « architecture de participation », une nouvelle éthique de la coopération dans laquelle le service agit comme un intermédiaire intelligent, connectant chaque parcelle de la gigantesque banlieue du web à une autre et donnant le pouvoir aux utilisateurs eux-mêmes.

Tirer parti de l'intelligence collective

Le principe central du succès des géants nés du web 1.0 qui ont survécu pour maintenant mener l'ère du web 2.0, semble être qu'ils ont su exploiter de manière efficace la force de l'intelligence collective que recèle potentiellement le web :

Les liens hypertextes sont le fondement du web. Au fur et à mesure que les utilisateurs ajoutent des contenus, celui-ci est intégré à la structure du web par d'autres utilisateurs qui les découvrent et placent des liens vers ceux-ci. Telles des synapses formant un cerveau où les associations se renforcent à force de répétitions et d'intensité, les connections au sein du web se multiplient organiquement à la mesure que leur dicte l'activité de l'ensemble des utilisateurs.

Yahoo !, la première grande success story, est né d'un catalogue de liens, une agrégation du meilleur de milliers puis de millions d'internautes. Même si Yahoo! a depuis quelque peu changé de modèle d'affaire, son rôle en tant que portail vers l'oeuvre collective des utilisateurs du web reste sa principale valeur.

La percée de Google dans la recherche, qui en a fait rapidement et indiscutablement le maître du marché, était basée sur le PageRank(ndt : littéralement classement de page), une méthode basée sur la structure hypertexte du web plutôt que sur l'analyse des contenus.

Le produit d'eBay est l'activité collective de l'ensemble de ses utilisateurs ; comme le web lui-même, eBay grossit organiquement en réponse à l'activité de ses clients, le rôle de la société consistant simplement à fournir le contexte dans lequel cette activité peut se dérouler. De plus, les avantages comparatifs d'eBay viennent entièrement de la masse critique d'acheteurs et de vendeurs disponibles, tout nouveau concurrent étant inévitablement pénalisé de ce point de vue.

Amazon vend les mêmes produits que des concurrents tels que Barnesandnoble.com, ils reçoivent les mêmes descriptions de produits, images de couverture et contenus de la part des éditeurs. Mais Amazon a fait une science de l'implication du consommateur. Ils sont un cran au dessus des autres en ce qui concerne les commentaires des acheteurs, les invitations à participer (de plusieurs manières et sur quasiment toutes les pages) - et plus important encore, ils se servent de l'activité des utilisateurs pour affiner les résultats de leurs recherches. Alors que les recherches de Barnesandnoble.com poussent les utilisateurs vers ses propres produits ou vers des résultats sponsorisés, Amazon renvoie toujours vers « les plus populaires », une notion calculée en temps réel non pas à partir des ventes mais à partir de ce que les gens d'Amazon appellent le « flow » (ndt : le bruit, le mouvement, le flux) autour des produits. Il n'y a donc rien d'étonnant à voir la croissance des ventes d'Amazon dépasser celles de ses concurrents.

Ces temps derniers, plusieurs sites ont marqué le web de leur empreinte avec de tels principes et les poussent même peut-être un peu plus loin :

- Wikipedia, une encyclopédie en ligne basée sur le principe peu commun qu'une entrée puisse être ajoutée par n'importe quel utilisateur du web et modifiée par un autre est une expérimentation radicale du dicton de Eric Raymond (qui se référait à la base au développement open-source) qu' « avec suffisamment d'yeux, tous les bugs disparaissent » dans le domaine de la création de contenu.

- Les sites tels que del.icio.us et Flickr, 2 sociétés ayant bénéficié dernièrement d'une grande attention, ont été pionnières dans le concept que certains appellent « folksonomy » (ndt : qu'on pourrait traduire par « classement par les gens » pour contraster avec « taxonomy », « classement standard »), une sorte de catégorisation collaborative des sites utilisant des mots clés librement choisis, qu'on appelle en général « tag » (ndt : trace, marque). Le « tagging » permet un phénomène d'associations multiples et redondantes semblables à celles que le cerveau utilise lui-même plutôt que des catégories rigides. Exemple typique : une photo de Flickr d'un chiot peut être taguée par les termes « chiot » et « mignon » - permettant donc de retrouver la photo suivant un cheminement naturel grâce, une fois de plus, à l'activité des utilisateurs.

- Les systèmes anti-spam collaboratifs tels que Cloudmark agrègent les décisions individuelles des utilisateurs d'e-mail sur ce qui est et n'est pas du spam, et obtiennent de bien meilleurs résultats que les systèmes s'appuyant sur l'analyse des messages eux-mêmes.

- C'est enfoncer une porte ouverte que de dire que les plus grands succès du web ne font pas de publicité sur leurs produits. Leur adoption est guidée par le « marketing viral », les recommandations se propageant d'utilisateur unique à utilisateur unique. Vous pouvez parier sur le fait que si un site ou un produit se repose sur la publicité pour faire parler de lui, il n'est pas web 2.0.

- Une grande partie de l'infrastructure du web elle-même - Linux, Apache, MySQL et du code Perl, PHP ou Python sont utilisés sur la plupart des serveurs web - repose sur les méthodes de « production individuelle » (ndt : par opposition à la production de masse de firmes privées) de l'open-source qui sont, elles aussi, une émanation de l'intelligence collective.

- Il existe plus de 100.000 projets open-source listés sur SourceForge.net. N'importe qui peut y ajouter un projet, télécharger et utiliser le code, et les nouveaux projets migrent de la périphérie vers le centre à mesure que les utilisateurs les font vivre, contribuent, téléchargent... le tout reposant évidemment sur le marketing viral.

La leçon à retenir : Dans l'univers web 2.0, l'implication des utilisateurs dans le réseau est le facteur-clé pour la suprématie du marché

Les blogs et la sagesse des foules

Un des traits les plus remarquables de l'ère Web 2,0 est la montée du phénomène « blog ». Les pages personnelles étaient là depuis les débuts du web, les journaux intimes et le courrier des lecteurs depuis longtemps encore... de quoi s'agit-il alors ?

On pourrait dire très simplement que le blog est une page personnelle dans un format journal intime. Mais comme le souligne Rich Skrenta, l'organisation chronologique d'un blog « semble être une différence anodine, alors que cela conduit à un processus de création, à un système de signalement et à une chaine de valeur radicalement transformés ».

Une des choses qui ont fait la différence est une technologie appelée RSS. RSS est l'avancée la plus significative dans l'architecture du web depuis que les premiers bricoleurs d'internet ont réalisé que les CGI pouvaient être utilisés pour créer des sites reposant sur des bases de données. RSS permet à quelqu'un de ne pas seulement attacher une page, mais de s'y abonner, avec un avertissement à chaque fois que le contenu de la page change. Skrenta appelle cela « le web incrémenté ». D'autres l'appellent « live web » (ndt : « le web en temps réel »).

Evidemment, « les sites web dynamiques » (c'est à dire générant dynamiquement un contenu à partir de base de données) ont désormais remplacé les pages web statiques depuis près de 10 ans. Mais ce qui est dynamique dans le « live web », ce ne sont pas seulement les contenus, ce sont les liens eux-mêmes. Un lien vers un blog pointe vers une page changeant périodiquement, avec des « permaliens » pour des entrées spécifiques, et un avertissement pour chaque changement. Un lien RSS est donc bien plus puissant que le favori ou le simple lien vers une autre page web.

RSS signifie aussi que les navigateurs web ne servent plus seulement à voir des pages. Certains agrégateurs de contenu, tels que Bloglines, sont basés sur le web, mais d'autres sont des applications résidentes et d'autres encore permettent à leurs utilisateurs de s'abonner à des flux RSS sur des dispositifs portables.

RSS n'est désormais plus seulement utilisé pour afficher les actualités des blogs, mais aussi pour toute sorte de données régulièrement mises à jour : cours de la bourse, météo, disponibilité de photos. Cette utilisation revient à l'une des origines du phénomène : RSS est né en 1997 de la rencontre de la « Really Simple Syndication » (ndt : la syndication vraiment simple) de Dave Winer, utilisée pour signaler les mises à jour de blogs, et de la « Rich Site Summary » (ndt : sommaire de site riche) de Netscape qui permettait à ses utilisateurs de créer des pages personnelles avec des flux de données régulièrement mis à jour. Netscape perdit de son intérêt pour cette technologie qui fut reprise par le pionnier du blog Userland, la société de Winer. Nous percevons cependant encore dans la dernière version de RSS l'héritage de ces deux parents.

Mais RSS est seulement une partie de ce qui rend le blog si différent d'une page web ordinaire. Citons la remarque de Tom Coates sur la signification des permaliens :
« Cela peut sembler n'être aujourd'hui qu'un élément anodin, mais c'était en réalité ce qui a fait que les weblogs, jusqu'alors un simple moyen de publier facilement du contenu, sont devenus cette extraordinaire fatras de communautés entremêlées. Pour la première fois, il est devenu assez simple de pointer vers un article très spécifique et d'en débattre. Des discussions se sont créées. Des sessions de chat se sont déroulées. Et, naturellement, les amitiés se sont nouées et renforcées. Le permalien fut la première - et la plus réussie - des tentatives de bâtir des ponts entre les blogs. »

De bien des manières, la combinaison de RSS et des permaliens ajouta à HTTP, le protocole du web, des caractéristiques de NNTP, le protocole de Usenet. La blogobulle peut être vue comme une nouvelle voie de communication de particulier à particulier équivalente à celle qu'offre Usenet depuis les débuts d'internet. Les blogueurs ne se contentent pas d'échanger des liens, ils peuvent aussi via les mécanismes des trackbacks (suivi des traces) voir qui les a liés à leur page et répondre soit par un lien réciproque soit par des commentaires.

Il est très intéressant de noter que les liens à double-sens furent un des buts des premiers systèmes hypertextes comme Xanadu. Les puristes de l'hypertexte ont salué l'arrivée des trackbacks comme une étape décisive sur le chemin de l'hyperlien à double-sens. Mais il faut noter que ces trackbacks ne sont pas à proprement parler à deux sens, ils s'avèrent plutôt être (potentiellement) des liens unidirectionnels symétriques créant un effet bidirectionnel. La différence paraît subtile mais en pratique, elle est considérable. Les réseaux sociaux tels que Friendster, Orkut ou encore LinkedIn, qui requièrent un accord de la personne sollicitée pour établir une connexion n'ont pas la souplesse du web. Comme le note Caterina Fake, cofondatrice du système de partage de photos Flickr, l'attention n'est réciproque que de manière accidentelle (Flickr permet donc de visualiser des listes, n'importe qui pouvant s'abonner au flux RSS de photos d'un autre utilisateur. L'accès est notifié mais n'a pas à être approuvé).

Si pour une part essentielle, le web 2.0 est une affaire d'intelligence collective (faire du web une sorte de cerveau global), la blogobulle est l'équivalente du dialogue mental permanent qui réside dans nos pensées superficielles, la voix que nous entendons tous en nous. Cela n'est certes pas nécessairement le reflet de la structure profonde de notre esprit qui est en grande partie faite d'inconscient, mais plutôt celui de notre pensée consciente. Et en tant que reflet de la pensée et de l'attention, la blogosphère a commencé à produire un effet des plus puissants...

Premièrement, parce que les moteurs de recherche utilisent les liens pour proposer des pages pertinentes et que les blogueurs, la population la plus prolifique en liens, ont désormais un rôle presque disproportionné dans les résultats des recherches. Deuxièmement, parce que la communauté des blogueurs se réfère souvent à elle-même, les blogs renvoyant vers d'autres blogs et renforçant ainsi leur visibilité. La « caisse de résonance » du web tant décriée est donc aussi un amplificateur.

Si ils n'étaient qu'un amplificateur, les blogs seraient toutefois assez inintéressants. Mais à la manière de Wikipédia, ils exploitent eux aussi l'intelligence collective pour mieux filtrer le contenu. C'est là que ce que James Suriowecki appelle la « sagesse des foules » entre en jeu : tout comme le PageRank de Google produit des résultats meilleurs qu'une analyse individuelle des documents, l'attention collective de la blogosphère sait retenir des informations plus pertinentes que n'importe quel autre filtre. 

Alors que les grands medias se contentent de voir chaque blog comme un concurrent, ils tardent à faire l'amer constat que la compétition se déroule pour eux contre la blogobulle dans son ensemble. Il ne s'agit pas juste d'une guerre entre des sites mais entre des modèles économiques. Le monde du web 2.0 est aussi le monde de que Dan Gillmor désigne par l'expression « nous, les médias », un monde dans lequel ceux qui n'étaient jusque là qu'auditeurs reprennent à quelques personnes réunies dans une arrière-salle le pouvoir de choisir ce qui est important ou non.

La puissance est dans les données

Toutes les applications web d'importance sont liées à une base de données spécialisée : la base d'exploration Google, l'index de Yahoo, la base de produits Amazon, la base d'utilisateurs d'eBay, la base de cartes de MapQuest, la base de chansons disponibles de Napster. Comme me le signalait Hal Varian l'année dernière, « le SQL est le nouveau HTML ». La gestion de base de données est le coeur de métier des sociétés du web 2,0, à tel point qu'on donne parfois à leurs applications le nom d' « infoware » plutôt que software (ndt : « infogiciel » plutôt que logiciel).

Ces faits m'amènent à ce qui est pour moi la question centrale : qui possède les données ?

Dans l'univers d'internet, on a déjà voir pu un certain nombre de cas dans lesquels le contrôle des données amène dans un premier temps la domination du marché puis le profit. Le monopole sur l'enregistrement des noms de domaine qu'un décret gouvernemental (ndt : il s'agit bien sûr du gouvernement des Etats-Unis) avait offert à Network Solutions (plus tard repris par Verisign) fut par exemple l'une des premières sources de revenus de l'Internet. Puisque nous avons vu que l'avantage stratégique du contrôle des API n'avait plus vraiment de sens sur le web, cela signifie que l'élément de domination des marchés se trouve dans les données. C'est d'autant plus vrai lorsqu'elles sont difficiles à créer et susceptibles d'être entretenues par un réseau d'utilisateurs.

Regardez les licences d'utilisation de la base de données sur chaque carte servie par MapQuest, , maps.yahoo.com, maps.msn.com, ou maps.google.com, et vous verrez "Maps copyright NavTeq, TeleAtlas," ou avec le nouveau satellite d'imagerie, "Images copyright Digital Globe." . Ces sociétés ont fait des investissements considérables dans leurs données (NavTeq dit investir chaque année 750 millions de dollars dans leur base d'adresses et de directions. Digital Globe a dépensé 500 millions de dollars pour lancer son propre satellite et améliorer l'imagerie basée sur les satellites gouvernementaux). NavTeq est allé si loin pour imiter Intel que cela se retrouve jusque dans leur logo : les voitures embarquant des systèmes de navigations portent en effet l'inscription « NavTeq Onboard » (ndt : à comparer avec le fameux « Intel Inside »). Les données sont bel et bien le nouvel « Intel Inside », le composant essentiel de systèmes dont l'infrastructure est largement open source ou tout du moins collaborative.

La situation d'Amazon est cependant plus contrastée. Tout comme ses concurrents (BarnesandNoble.com par exemple), sa base de données d'origine provient du fournisseur de registre ISBN RR Bowker. Mais à la différence de MapQuest, Amazon améliore sans cesse ses données, en ajoutant du contenu provenant des éditeurs par exemple. Plus important encore, ils encouragent les utilisateurs à évaluer les données, de telle sorte qu'après 10 ans, c'est Amazon et non plus Bowker, qui est devenu la référence en matière ressources bibliographiques pour les universitaires et les libraires. Amazon a aussi introduit son propre système d'identifiant, le «  ASIN », qui correspond à l'ISBN lorsqu'il est présent et crée un code équivalent lorsqu'il n'existe pas. En un mot, Amazon s'est véritablement doté d'une politique de gestion des données mais aussi des fournisseurs de celles-ci.

Imaginez que MapQuest ait fait la même chose : amener les utilisateurs à évaluer les cartes, ajouter d'autres niveaux d'informations. Il aurait certainement beaucoup plus difficile pour ses adversaires d'entrer sur le marché simplement en achetant une licence à un fournisseur de données.

L'arrivée récente de Google Maps fait de ce marché un véritable laboratoire de la compétition entre la vente d'applications et la vente de données. Le modèle de service léger de Google conduit à la création de nombreux services sous la forme de « mashups » reliant Google Maps avec d'autres services de la toile. Housingmaps.com de Paul Rademacher, qui combine Google Maps avec les données de Craiglist pour créer un outil de recherche de logement interactif est un excellent exemple de ces possibilités.

Evidemment, ces mashups ne sont pour le moment que des expérimentations mais les premiers projets professionnels devraient bientôt suivre. Malgré tout, on peut déjà dire que pour une partie des développeurs, Google a pris la place de Navteq en tant que fournisseur de données en se plaçant en tant qu'intermédiaire privilégié. On peut s'attendre à voir les premières batailles entre fournisseurs de données et fournisseurs de logiciels éclater dans les années qui viennent, quand tous auront compris l'importance des données dans l'univers web 2.0.

La course pour la possession de données stratégiques a déjà commencé : positionnement, identités, calendriers d'événements, identifiants de produits... Dans bien des cas, là où il y a un coût pour construire une base de données, il y a l'opportunité de créer un support pour des services à valeur ajoutée avec une source unique de données. Souvent, le gagnant sera la société qui atteindra la première une masse critique de données par agrégation des utilisateurs et convertira cet avantage en services.

Dans le domaine de l'identité par exemple, Paypal, 1-click d'Amazon et les millions d'utilisateurs des systèmes de communication peuvent tous sembler légitimes pour construire une base de données d'identités à l'échelle du réseau (dans cette optique, la récente tentative de Google d'utiliser les numéros de téléphones en tant qu'identifiants dans les comptes Gmail est peut-être une étape vers l'intégration des téléphones). Pendant ce temps, des start-up comme Sxip explorent le potentiel d'identités fédérés, dans la quête d'une sorte de « 1-click distribué » qu'apporterait un sous-système du web 2.0 dédié à l'identité. Dans le domaine des calendriers, EVDB est une tentative de construire le plus grand calendrier partagé du monde à partir d'un système de participation de type wiki. Bien que le juge de paix reste le succès d'une approche ou d'une start-up particulière dans le domaine, il est clair que les standards et les solutions dans ces domaines qui sauront transformer des données brutes en des sous-systèmes de confiance du « système d'exploitation internet » rendront possibles une nouvelle génération d'applications.

Un autre point d'importance doit être précisé au sujet des données : les aspects de confidentialité et de droit des utilisateurs sur leurs données. Dans la plupart des premières applications web, le copyright n'était appliqué que de manière très approximative. Amazon, par exemple, dit respecter les droits de auteurs des critiques faites sur son site mais en l'absence d'application concrète, n'importe qui peut recopier une critique et la reposter ailleurs. Cependant les sociétés ayant pris conscience que le contrôle des données est un avantage stratégique décisif, on peut s'attendre de leur part à une réaction sur le sujet.

Comme la montée du logiciel propriétaire a conduit au mouvement du logiciel libre, il est envisageable de voir le mouvement « des données libres » s'opposer peu à peu à l'univers des données propriétaires. On peut en voir les premiers signes dans des projets ouverts comme Wikipedia, la licence Creative Commons ou encore dans des projets tels que GreaseMonkey qui permet à l'utilisateur de s'approprier un peu plus les données envoyées par les pages web en en contrôlant l'affichage.

La fin des cycles de release

Comme cela a été dit dans la discussion opposant Netscape à Google, une caractéristique définissant l'ère internet du logiciel est que celui-ci est proposé en tant que service et non en tant que produit. Ce fait amène nombre de changements fondamentaux dans le modèle d'affaire des sociétés de logiciels :

1- les traitements deviennent le coeur de métier. A l'expertise de Google ou de Yahoo ! Dans le développement dans leurs produits, doit correspondre une expertise dans les opérations du quotidien. Le passage d'un logiciel-produit à un logiciel-service est à ce point fondamental que le logiciel ne peut plus fonctionner s'il n'est pas maintenu à une échelle quotidienne. Google doit continuellement parcourir le web et mettre à jour ses indices, filtrer le « spam link » et autres tentatives d'influencer ses résultats, continuellement et dynamiquement répondre à des centaines de millions de requêtes asynchrones d'utilisateurs, tout en leur faisant correspondre des publicités adaptés à leur contexte.

Ce n'est donc pas par hasard que le système d'administration de Google, ses techniques de mise en réseau, d'équilibrage des charges sont des secrets peut-être mieux gardés encore que ses algorithmes. La réussite de Google dans l'automatisation de ces processus est probablement un facteur décisif dans leur avantage sur leurs concurrents en matière de coûts.

Ce n'est pas non plus par hasard que des langages de script tels que Perl, Python, PHP et maintenant Ruby jouent un rôle aussi important dans les entreprises du web 2.0. Perl fut décrit de manière célèbre par Hassan Schroeder, le premier webmaster de Sun, comme le « robinet du web ». Les langages dynamiques (souvent appelés langages de script et méprisés par les ingénieurs de l'ère logiciel-produit) sont un outil de choix aussi bien pour les administrateurs réseaux et systèmes que pour les développeurs d'application élaborant des systèmes dynamiques en perpétuel changement.

2- Les utilisateurs doivent être traités comme des co-développeurs, en référence aux pratiques de l'open-source (même si le logiciel dont il est question ne doit pas forcément être open source). Le dicton de l'open-source « livrer tôt et livrer souvent » se transforme en une position encore plus radicale, « la bêta perpétuelle », dans laquelle le produit est développé avec de nouvelles fonctionnalités apparaissant de manière mensuelle, hébdomadaire voire quotidienne. Il n'y a donc rien d'étonnant à voir des services tels que Gmail, Google Maps, Flickr, del.icio.us, et autres porter un logo « bêta » depuis déjà un bon moment.

L'observation en temps réel du comportement de l'utilisateur dans le but de voir quelles sont les nouvelles fonctionnalités utilisées, devient donc un nouvelle compétence centrale. Un développeur web d'un grand service en ligne dit à ce sujet : « Nous mettons deux ou trois nouvelles fonctionnalités quelque part sur le site chaque jour, si elles ne sont pas utilisées, nous les retirons. Si elles sont appréciées, nous les implémentons partout ailleurs sur le site. »

Cal Henderson, le principal développeur de Flickr, a révélé récemment qu'il déployait une nouvelle version (ndt : plus exactement un nouveau « build ») de son application toute les demis-heures. C'est là un modèle de développement radicalement différent ! Même si toutes les applications web ne vont pas aussi loin que Flickr, la plupart a un cycle de développement tout à fait différent de l'ère du PC et du client-serveur. C'est pour cette raison qu'un récent éditorial de Zdnet concluait que Microsoft ne parviendrait pas à l'emporter face à Google :
« Le business model de Microsoft dépend de la remise à niveau que chacun fait sur son PC tous les deux ou trois ans. Celui de Google ne dépend que de la capacité des utilisateurs à se servir des nouvelles fonctionnalités qui leur sont proposées. »

Alors que Microsoft a démontré une capacité incroyable à apprendre de et finalement surpasser la concurrence, il n'est plus ici question de temps. La concurrence demandera cette fois à Microsoft (et par extension à toutes les sociétés de logiciel existantes) de devenir une société complètement différente. Les sociétés web 2.0 natives bénéficient d'un avantage naturel, celui de ne pas avoir de vieux schémas (avec les modèles d'affaires et les revenus correspondants) derrière lesquels s'abriter.

Des modèles de programmation légers

Après que le principe des services web se fut popularisé, de grandes compagnies se sont lancées dans l'aventure en proposant des ensembles complexes de services conçus pour créer de véritables environnements de développement pour applications distribuées.

Mais tout comme le web avait réussi en passant outre une grande partie de la théorie de l'hypertexte, préférant le pragmatisme à une conception idéale, RSS devint peut-être le service web le plus déployé du fait de sa simplicité, alors que la complexité des web services des grandes sociétés condamna ceux-ci à un déploiement limité.

De la même manière, les services web d'Amazon furent fournis sous 2 formes : la première adhérant au formalisme de SOAP (Simple Object Access Protocol), la seconde se contentant de fournir un flux de données XML via HTTP, un modèle plus simple désormais connu sous le terme de REST (Representational State Transfer). Alors que les connexions B2B (comme celles reliant Amazon et ToysRUs par exemple) utilise SOAP, Amazon rapporte que 95% des usages de ses web services se font via REST.

C'est la même quête de simplicité qui peut être vue dans d'autres services web « organiques ». La récente sortie de Google Maps en constitue un bon exemple. L'interface de Google Maps bâtie sur les principes d'AJAX a rapidement été décryptée par quelques hackers, qui ont alors utilisé ces données pour bâtir de nouveaux services.

Les données relatives à la cartographie était déjà disponibles via quelques fournisseurs tels qu'ESRI, MapQuest ou encore Microsoft MapPoint. Mais Google Maps a bouleversé cet univers du fait de sa simplicité. Alors que les expérimentations d'utilisation de web services demandaient jusque là un contrat entre les intéressés, le fait de laisser les données aisément accessibles a permis à quelques bidouilleurs de réutiliser ces données de manière créative.

Il y a là plusieurs enseignements à en tirer :

1- Mettre en place des modèles de progammation légers permettant la création de systèmes faiblement couplés. La complexité des services web « corporate » est faite pour des systèmes fortement couplés. A contrario, la plupart des applications web les plus intéressantes demeure faiblement couplé, voire fragile. La façon de penser web 2.0 est très différente des visions classiques des systèmes d'informations !

2- Pensez syndication, pas coordination. Les services web simples tels que RSS ou ceux basés sur l'architecture REST cherchent avant tout à laisser des données à disposition, pas à contrôler ce qui se passe à l'autre bout de la connexion. Cette idée est fondamentale vis-à-vis du paradigme même d'Internet dans la mesure où c'est une transposition du principe du « end-to-end » (ndt : principe fondamental de l'Internet Protocol stipulant que l'interprétation des données a lieu à chaque extrémité de la chaîne d'informations).

3- Une conception faite pour être « bidouillable » et « remaniable ». Les systèmes tels que le web, RSS et AJAX ont un point commun : les barrières pour les réutiliser sont très faibles. La plupart des logiciels utiles sont open source, et même quand ils ne le sont pas, ils sont assez peu protégés du point de vue de la propriété intellectuelle. L'option « voir la source » des navigateurs a rendu possible à n'importe qui la possibilité de copier la page de quelqu'un d'autre ; RSS a été conçu pour renforcer les possibilités de l'utilisateur de voir le contenu qu'il désire quand il le désire et non selon le bon vouloir d'un fournisseur d'informations ; les services web les plus puissants sont ceux qui permettent le plus facilement de les utiliser dans des buts pour lesquels ils n'ont pas été conçus. La phrase « certains droits réservés » qui a été popularisé par la licence Creative Commons pour s'opposer à la célèbre « tous droits réservés » est assez représentative de cet esprit.


L'innovation est dans l'assemblage

Les modèles d'affaires « légers » ont une affinité naturelle avec les modèles de programmation et de connections légers. L'état d'esprit web 2.0 n'hésite pas à réutiliser l'existant : un nouveau service tel que housingmaps.com a été élaboré simplement en reliant 2 services existants. Housingmaps.com n'a pas (encore) de modèle d'affaires, mais plusieurs services à petite échelle, Google AdSense (ou peut-être Amazon ou même les deux) lui apporte l'équivalent d'un modèle de rémunération.

Ces exemples donnent un aperçu d'un autre principe du web 2.0, que nous appelons « innovation par l'assemblage ». Quand les composants de base deviennent abondants, il est possible de créer de la valeur en les assemblant de manière nouvelle ou plus efficace. Tout comme la révolution du PC a apporté de nombreuses opportunités d'innovation dans l'assemblage du hardware et a permis à des sociétés comme Dell faisant une science de cet assemblage de vaincre des sociétés dont le modèle d'affaires reposait sur l'innovation dans la production de composants, nous pensons que le Web 2.0 apportera des opportunités pour des sociétés d'entrer dans la compétition simplement en intégrant et en assemblant des services fournis par d'autres.

Le logiciel se libère du PC

Une autre des caractéristiques du web 2.0 qui mérite d'être mentionnée est le fait de ne plus être limité à la plate-forme PC. Le dernier conseil que le développeur Dave Stutz donna à Microsoft fut : « Les logiciels utiles qui se libéreront d'une plate-forme spécifique seront des vecteurs de fortes marges pour un bon moment ».

Bien entendu, n'importe quelle application web peut être vue comme un logiciel indépendant d'une plate-forme spécifique. Après tout, même la plus simple des applications web implique au moins deux ordinateurs : l'un hébergeant le serveur web, l'autre le navigateur. Or comme nous l'avons déjà expliqué, le développement du web en tant que plate-forme pousse cette idée jusqu'à des applications synthétisant des services apportés par de nombreux ordinateurs.

Là encore, comme de nombreuses parties du web 2.0, l'aspect « 2.0 » n'est pas dans la nouveauté, mais plutôt dans la pleine réalisation du véritable potentiel de la plate-forme web, celle-ci devant nous guider pour comprendre comment concevoir applications et services.

A ce jour, iTunes est le meilleur exemple de ce principe. Cette application va sans cesse d'un appareil portable à un système web massif, le PC servant uniquement de mémoire locale et de station de contrôle. Il y avait déjà eu plusieurs tentatives de mettre du contenu venu du web dans des dispositifs portables, mais le couple iPod/iTunes est la première conçue pour être véritablement multi-plate-forme. TiVo est un autre bon exemple de ce phénomène.

Itunes et TiVo offrent également la démonstration de quelques autres principes du web 2.0. Elles ne sont pas des applications web en elles-mêmes, mais elle tire parti de la puissance de la plate-forme web, en faisant une partie permanente et pratiquement invisible de leurs infrastructures. La gestion de données est très clairement le coeur de leur offre. Ce sont des services, pas des applications packagées (bien que dans le cas d'iTunes, cela puisse être utilisé en tant qu'application packagée pour manipuler des données locales). De plus, TiVo et iTunes montrent une utilisation naissante de l'intelligence collective, même si dans chacun des cas, leurs expérimentations sont entrées en guerre avec les lobbies de la propriété intellectuelle. La seule limite se trouve dans l'architecture de participation d'iTunes, bien que la récente apparition du podcasting change quelque peu la donne de ce point de vue.

Il s'agit de la partie du web 2.0 dont nous attendons les changements les plus importants, dans la mesure où de plus en plus d'appareils pourront être connectés à la nouvelle plate-forme que constitue le web. Quelles applications deviendront possibles quand nos téléphones et nos voitures ne se contenteront plus d'utiliser des données mais en émettront ? Le suivi du trafic routier en temps réel, le « flash mobs » (ndt : un groupe de personnes qui ne se connaissent pas, se réunit pendant quelques minutes -grâce à un message SMS ou email- pour accomplir au même moment une action dénuée de sens, puis se disperse) et le journalisme citoyen ne sont que quelques uns des signes précurseurs des possibilités du web de demain.

Enrichir les interfaces utilisateur

Dès le navigateur « Viola » de Pei Wei en 1992, le web a été utilisé pour délivrer des « applets » et d'autres types de « contenus actifs » à l'intérieur du navigateur. L'introduction de Java en 1995 était aussi motivée par cet objectif. JavaScript puis le DHTML permirent d'apporter de manière plus légère intelligence côté client et richesse d'interface. Il y a de cela plusieurs années, Macromedia lança le terme « Rich Internet Applications » (qui a été repris par le projet Open Source Lazlo) pour mettre en lumière les possibilités de Flash vis à vis des applications (et plus seulement des contenus multimédias).

Cependant le potentiel de richesse d'interface du web ne fut jamais exploité par les grandes applications, jusqu'à ce que Google lance Gmail, rapidement suivi par Google Maps : des applications web possédant un niveau d'interactivité équivalent à un logiciel PC classique. La technologie utilisée par Google pour cela fut baptisée AJAX dans un article de Jesse James Garrett de l'entreprise de design web Adaptive Path. Il écrivait alors :

« Ajax n'est pas une technologie, il s'agit de plusieurs technologies, se développant chacune de leur côté, combinées ensemble pour donner des résultats aussi nouveaux que puissants. Ajax comporte :

- une présentation basée sur les standards XHTML et CSS

- un affichage dynamique et interactif grâce à DOM (Document Object Model)

- un système d'échange et de manipulation de données utilisant XML et XSLT

- un mécanisme de récupération de données asynchrone utilisant XMLHttpRequest JavaScript pour lier le tout »

Ajax est aussi un élément clé des applications web 2.0 tels que Flickr (qui appartient désormais à Yahoo!), les applications de 37signal basecamp et backpack et bien entendu les applications de Google comme Gmail ou Orkut. Nous entrons dans une période sans précédent d'innovation dans l'interface à mesure que les développeurs deviennent capables de réaliser des applications web aussi riches que les applications locales classiques.

Il est intéressant de noter que bien des possibilités explorés aujourd'hui existaient depuis maintenant quelques années. A la fin des années 90, Microsoft et Netscape avaient une vision des possibilités qui sont désormais exploitées mais leur bataille au sujet des standards rendit difficile la création d'applications multi-navigateurs. C'est seulement lorsque Microsoft eut gagné cette guerre que le seul navigateur restant devint de facto le standard et que ces applications devinrent possibles. Heureusement, lorsque Firefox relança la concurrence sur le marché des navigateurs, les blocages au sujet des standards ne se reproduisirent pas dans les mêmes proportions.

Nous nous attendons à voir apparaître de nombreuses applications web au cours des prochaines années, certaines seront entièrement nouvelles, d'autres seront des ré implémentations d'applications PC existantes. C'est d'autant plus inévitable que chaque changement de plate-forme crée aussi l'opportunité d'un changement de leadership pour les acteurs d'un marché logiciel donné.

Gmail a déjà apporté plusieurs innovations intéressantes dans les applications e-mail en combinant les forces du web (accessible de n'importe où, capacités de recherches avancées) avec une approche ergonomique proche des interfaces PC habituelles. Les applications clientes essaient donc de grignoter des parts de marché en ajoutant de nouvelles fonctionnalités telles que la messagerie instantanée. Sommes-nous encore loin du client de communication complètement intégré incluant le meilleur de l'e-mail, de la messagerie instantanée et du téléphone portable tout en utilisant la voix sur IP pour ajouter encore plus de richesse à l'interface du nouveau client web ? En tout cas, le compte à rebours est lancé.

Il est assez facile d'imaginer comment le web 2.0 ré implémentera le carnet d'adresses. Un carnet d'adresses web 2.0 pourra d'une part traiter un ensemble de contacts mémorisés comme le fait par exemple un téléphone. Parallèlement à cela, un agent de synchronisation web, dans le style de Gmail, se souviendra de chaque message envoyé ou reçu, de chaque adresse e-mail ou numéro de téléphone utilisé et s'appuiera sur des heuristiques de réseaux sociaux pour décider quelles alternatives offrir en cas de recherches infructueuses. Si il ne trouve pas de réponse, le système élargira alors le périmètre du réseau social dans le lequel il effectue sa requête.

Le traitement de texte du web 2.0 permettra l'édition de données collaborative de type wiki et plus seulement celle de documents indépendants. Mais il pourra aussi offrir l'édition de document riche comme Microsoft Word ou OpenOffice savent le faire. Writely est un excellent exemple d'une telle application, bien que sa portée soit encore assez limitée.

Mais la révolution web 2.0 ne s'arrêtera pas là. Salesforce.com a montré comment le web pouvait être utilisé pour délivrer le logiciel comme un service, à l'échelle d'applications d'entreprises telles que la CRM.

L'opportunité pour de nouveaux arrivants d'exploiter pleinement le potentiel du web 2.0 entrainera la création d'applications qui apprennent de leurs utilisateurs en s'appuyant sur une architecture de participation et qui se démarqueront non seulement par leur interface mais aussi par la richesse des données partagées qu'elles offriront.

Le coeur de métier des sociétés du web 2.0

A travers les 7 principes évoqués plus haut, nous avons souligné quelques uns des principaux traits du web 2.0. Chaque exemple abordé démontre un ou plusieurs principes clé, mais laisse en général les autres de côté. Terminons donc en résumant ce que nous pensons être le coeur de métier des sociétés du web 2.0 :

- des services, pas un package logiciel, avec des possibilités d'économie d'échelle

- un contrôle sur des sources de données uniques, difficiles à recréer, et dont la richesse s'accroit à mesure que les gens les utilisent

- considérer les utilisateurs comme des co-développeurs

- tirer partie de l'intelligence collective

- toucher le marché jusque dans sa périphérie à travers la mise en place de services « prêts à consommer »

- libérer le logiciel du seul PC

- offrir de la souplesse dans les interfaces utilisateurs, les modèles de développements ET les modèles d'affaires

La prochaine fois qu'une société clame « ceci est web 2.0 », confrontez-la à la liste ci-dessus. Plus elle marque de points, plus elle est digne de cette appellation. Rappelez-vous néanmoins que l'excellence dans un domaine vaut mieux quelques paroles pour chacun des sept.

Source : http://www.eutech-ssii.com/ressources/1

Annexe 2 : exemples de services revendiquant l'approche Web 2.0

http://fr.wikipedia.org/wiki/Accueil (Wikipédia) : production collaborative de contenu (encyclopédique)

http://web2logo.com/ Liste visuelle de sites web 2.0

http://www.web2list.com/ Liste textuelle de sites web 2.0

http://fr.chainki.org/index.php?title=Web_2.0 Le wikipedia du lien

http://www.myspace.com/ Réseau social / Espaces privés

Google Docs : suite bureautique en ligne

http://www.facebook.com/ Réseau social / Espaces privés

http://www.hi5.com/ Réseau social / Espaces privés

http://www.twitter.com/ Réseau social / Espaces privés

http://www.flickr.com/ Partage d'images

http://www.youtube.com/ Partage de vidéos

http://www.dailymotion.com/ Partage de vidéos

http://www.wat.tv/ Portail multimédia pour partager vidéos, photos et favoris

http://earth.google.com/ Cartographie

http://maps.google.fr/ (Google maps) : géolocalisation

http://del.icio.us/ Gestion et partage de favoris

http://blogmarks.net/ Gestion et partage de favoris

http://www.nowpublic.com/ Journalisme citoyen

http://www.agoravox.fr/ AgoraVox Le média citoyen

http://www.wikio.fr/ Création de pages d'actualités personnelles pour suivre l'information (des sites de presse et des blogs) qui vous intéresse.

http://www.jobmeeters.com/ Site de recrutement par cooptation

http://www.meebo.com/ Messagerie instantanée

http://www.Netvibes.com Agrégateur personnel de flux RSS

http://www.linkedfeed.com Agrégateur personnel de flux RSS

http://ziki.com/ Visibilité sur le net

http://www.rememberthemilk.com/ Pense-bête. Gérer ses tâches.

http://ajax.parish.ath.cx/translator/ Traducteur intelligent

http://script.aculo.us/ Programmes Ajax

http://www.sproutliner.com/ Gestion de tâches

http://blockrocker.com/ Annonces géolocalisées

http://www.findmycover.com/ Recherche de visuels de pochettes de CD, DVD...

http://baebo.francisshanahan.com/ Moteur de recherche

http://www.formassembly.com/time-tracker/ Gestion de tâches

http://www.tagworld.com/ Logiciel social

http://www.webezz.net/ Création de site Web

http://www.squarespace.com/ Création de site Web

Google page creator : service gratuit de création de pages web (Google)

Second Life : univers virtuel dans lequel on peut créer son avatar.

Annexe 3 : exemple de fichier CSS

body {

background:#FFCCFF;

color:#03F;

font-size:10px;

font-family:Verdana;

}

a:link {

color:#FF6666;

text-decoration:none;

font-weight:normal;

}

a:hover {

color:#FFFFFF;

text-decoration:underline;

font-weight:bold;

}

a:visited {

color:#9900CC;

text-decoration:underline;

font-weight:normal;

}

a:active {

color:#CC6699;

text-decoration:none;

font-style:italic;

}

h1 {

font-family:Verdana;

font-size:14px;

color:#3333CC;

text-decoration:underline;

font-weight:bold;

}

h2 {

font-family:Verdana;

font-size:12px;

color:#009933;

text-decoration:underline;

font-style:italic;

}

Annexe 3 : exemple de contenu XML

<?xml version='1.0' encoding='ISO-8859-1' ?>

<!-- extrait de Tartuffe de Molière -->

<dialogue>

<situation>acte I, Scene 1 : madame pernelle et flipote sa servante,elmire, mariane, dorine, damis, cléante.</situation>

<replique>

<personnage>madame pernelle</personnage>

<texte>Allons, Flipote, allons, que d'eux je me délivre.</texte>

</replique>

<replique>

<personnage>elmire</personnage>

<texte>Vous marchez d'un tel pas qu'on a peine à vous suivre.</texte> </replique>

<replique>

</dialogue>






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il y a des temps ou l'on doit dispenser son mépris qu'avec économie à cause du grand nombre de nécessiteux"   Chateaubriand