Télécharger le mémoire

Transcription

Télécharger le mémoire
Mémoire de Maîtrise
L'impact du web 2.0 sur les acteurs socio-économiques d'Internet
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
2
Université de Paris 13 / Villetaneuse
UFR Sciences de l’Information et de la Communication
MASTER 1 SIC 2006/2007
MEMOIRE DE MAITRISE
L'impact du web 2.0 sur les acteurs socio-économiques d'Internet
Benjamin Renault
Directeur : Pierre Barboza
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Table des matières
Les points abordés dans cette analyse
3
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Introduction
Première Partie : Etats des lieux des technologies et concepts Web 2.0..................p. 7
1. Définitions du web 2.0
2. Typologie des principaux sites web 2.0
3. Evolutions probables
Conclusion
Seconde Partie : Impact du web 2.0 sur les stratégies de communication..............p. 32
1. Modèles économiques
2. L’évolution du e-marketing / e-Commerce
3. L’utilisation des communautés peut il servir une stratégie marketing ?
4. La publicité web 2
5. Evolutions probables des stratégies de communication sur Internet
Conclusion
Troisième Partie : Le web 2.0, du point de vue des concepteurs-réalisateurs.........p. 57
1. Web Agencies
2. Services multimédia d’une entreprise
3. Chercheurs & Artistes
Conclusion
Quatrième Partie : L’influence sur l’utilisateur : la net-campagne 2007.................p. 78
Introduction
1. Analyse des sites officiels des principaux candidats
2. Le web 2.0 au service de la communication politique
3. La réappropriation du débat par les citoyens au travers d’outils web 2.0
Conclusion
Conclusion générale. ....................................................................................p. 97
Bibliographie..................................................... .........................................p. 100
Annexes......................................................................................................p. 106
4
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Introduction
Les problématiques de cette étude
5
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Les médias ont toujours eus une énorme influence sur les citoyens. A chaque
révolution technologique, les experts ont prédit un changement en profondeur des
relations sociales et économiques. Comme l’énonce Mc Luhan, « les effets d’un médium
sur l’individu ou sur la société dépendent du changement d’échelle que produit chaque
nouvelle technologie, chaque prolongement de nous-mêmes, dans notre vie»1. Or,
Internet est le médium qui a véritablement transformé les notions d’échelles, permettant
à un Indien de vendre ses produits en Amérique Latine, à un artiste de faire participer
des internautes du monde entier à son œuvre ou à un homme politique de diffuser son
message à des populations habituellement rétives. Le web 2.0, dont nous allons expliciter
les concepts et philosophies dans la première partie de cette étude, prône la mise en
collaboration et la participation collective comme créatrice du contenu informationnel sur
la toile. Les exemples sont nombreux, mais afin de fixer les idées nous pouvons par
exemple citer les plates formes très connues comme Youtube ou Dailymotion qui
permettent à l’internaute lui-même de décider des informations disponible sur un portail
web.
Comment expliquer cet engouement, cet avènement des nouvelles technologies
de l’information et de la communication ? Comment décrypter et faire la part entre mode
et nouvelles relations de l’individu au monde et aux autres ? Blogs, flux RSS, wiki,
podcasts font désormais partie de notre vocabulaire mais quel est leur impact sur les
différents acteurs sociaux, culturels et économique du web ? Le web 2.0 se pose comme
chantre de la réappropriation d’un outil par ses utilisateurs, et les mailles de la toile se
mêlent peu à peu au tissu social. En parallèle de la vie réelle, et sans véritablement
bouleverser les relations du quotidien, Internet propose désormais de créer une infinité
de communautés et de participer ensemble à la création d’un avenir meilleur. Quelles
sont les fausses promesses et les vrais rêves qu’apporteront ces innovations au sein de la
communauté de professionnels et des utilisateurs d’Internet ?
Nous étudierons dans un premier temps les concepts sous jacents et les
définirons, en détaillant les différents types de services proposés et estampillés « web
2 », ainsi que leurs évolutions probables. Puis nous analyserons l’effet qu’ont eu ces
évolutions sur les concepteurs et les marketers qui élaborent et travaillent en amont de
la réalisation. La collaboration peut-elle devenir une arme de vente ? Dans un troisième
temps, fort de notre étude précédente nous nous attacherons à analyser en quoi le
travail des réalisateurs, artistes et chercheurs se trouve bouleversé par ces nouvelles
technologies. Enfin, afin d’analyser les modifications sur l’expérience qu’a l’utilisateur luimême de ces services, nous prendrons l’exemple de la campagne présidentielle en
France. Les équipes de campagne des différents candidats ont énormément utilisé les
outils web 2.0. Or chacun en a utilisé une facette à sa manière, et nous verrons en quoi
ceux-ci se sont révélés novateurs et influents ou au contraires redondants et inutiles.
Cette étude nous permettra enfin de conclure sur cette nouvelle tendance, qu’elle
soit vue comme une simple mode ou une véritable révolution. Nous pourrons ainsi
analyser si la collaboration est viable dans notre société et en quoi le web 2.0 influence
notre quotidien. Afin d’élargir le champ des connaissances, il sera également inclus en
Annexe 10 le rapport du stage que j’ai effectué en 2007 dans une jeune agence de
communication parisienne. Celle-ci utilise le web 2.0 dans le cadre de campagnes
publicitaires. Ce stage se terminant au mois d’aout 2007, cette annexe sera implémentée
au mois de septembre, dans une seconde version de cette étude.
1
MAC LUHAN, Marshall, Pour comprendre les médias, Paris, Editions HMH, 1968, 404p
6
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Première Partie
7
Etats des lieux des technologies et concepts Web 2.0
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Table des Matières
1. Définitions du web 2.0
a. Historique
b. Les technologies et concepts utilisés par le web 2.0
c. Le concept Web 2.0, du point de vue technologique
d. Point de vue social
2. Typologie des principaux sites web 2.0
a. Les plates formes de types « Réseau social »
b. Les interfaces de partages de documents audiovisuels
c. Les RIA
d. Les applications composites, ou Mashups
e. Les espaces personnalisés en lignes
3. Evolutions probables
a. Les développements futurs des grandes entreprises du multimédia
a. Les pôles R&D dédiées au web 2.0 des grandes institutions publiques
b. La recherche communautaire
Conclusion
« Flickr constitue selon moi une des choses les plus importantes qui soit arrivée
récemment à la photographie »
- André Gunthert
« Le Web 2.0 n'est pas un ‘big bang’ mais une succession de ‘small bangs’ »
- Mike Sahver
« Le Web 2.0 c'est utiliser le web comme il a été conçu pour être utilisé. Les tendances
que nous distinguons sont simplement la nature inhérente du web qui émerge des
mauvaises pratiques qui lui ont été imposées pendant la bulle [Internet] »
- Paul Graham
8
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
1. Définitions du web 2.0
a. Historique
Le web 2.0 ne connaît pas encore de réelle définition. La première personne à
avoir utilisé cette nouvelle expression fut Tim O’Reilly, ce qui fait de lui son ‘fondateur’.
O’Reilly s’est abstenu de définir formellement ce qu’était le web 2.0 Il s’est contenté de
donner des exemples de qui en était et de ce qui n’en était pas, lors d’un premier
brainstorming avec Medialive International. De manière simple, le web 2.0 se veut une
nouvelle manière de concevoir l’Internet, qui ne serait plus réalisé par des spécialistes
mais où chacun, dans un esprit de collaboration participerait à la mise en place d’un flux
d’information. Nous détaillerons bien sûr ces idées dans la suite de cette étude.
Ainsi, à l’issue de ce brainstorming, les conférenciers ont différenciés les sites et
services dits ‘web 1.0’ de ceux estampillées ‘web 2.0’. Par exemple les équivalents des
sites personnels sont les blogs, l’équivalent de mp3.com est Napster, etc... Ces
différences ne se sont pas arrêtées aux sites seuls mais également aux grandes familles
de services liées aux web. Par exemple la spéculation sur les noms de domaines, opérées
pendant les années 1990, a fait place au marché grandissant du référencement, les
systèmes de gestion de contenu (encyclopédies en ligne) ont été progressivement
remplacés par des wiki. Ceux-ci, popularisé par Wikipedia permettent aux membres d’un
groupe social, une entreprise par exemple, de proposer des définitions aux termes
utilisés par le groupe sans en référer à un rédacteur centralisé. Cette première prise de
conscience par des chercheurs des évolutions possibles du web sont présentées en
annexes, Tim O’Reilly ayant publié un article qui concentre les idées et concept de base.
Nous avons vu que cette idée d’un web 2.0 n’a jamais eu de réelle définition par
les instances supérieures, comme le W3C2. Celui-ci tente de poser des barrières et
d’établir des standards contrôlant Internet. Nous allons ainsi explorer les différentes
voies évoquées par les premières conférences sur ce sujet afin de mieux réussir à le
cerner. Tout d’abord nous explorerons le point de vue technologique afin comprendre ce
qui différencie deux services en apparence identiques. Puis nous étudierons l’aspect
social qui en découle.
b. Les technologies et concepts utilisés par le web 2.0
Afin de mettre en place ces services collaboratifs, ces nouvelles technologies,
stratégies et méthodes de réalisation, les développeurs et concepteurs multimédias ont à
leur disposition un certain nombre de nouveaux langages de programmation, tels que
l’AJX ou le XML que nous allons tout d’abord décrire. Ces langages sont utilisée par les
machines pour communiquer entre elles, et de nouvelles architectures sont mises en
place comme REST et SOAP. Enfin ces architectures permettent l’émergence de concepts
jusqu’ici inconnu comme les flux RSS, les applications Internet riches et les mashups.
Nouveaux langages
- AJAX
AJAX n’est pas à proprement parler un langage, mais consiste en l’utilisation
conjointe du XML, des CSS et de JavaScript. Un des principaux avantages de son
utilisation est la possibilité de pouvoir rafraîchir seulement certaines parties de la page,
et non la totalité à chaque fois qu’une donnée évolue. C’est l’AJAX qui permet la mise en
place des Applications Internet Riches et de la plupart des nouvelles formes de navigation
2
W3C : World Wide Web Consortium
9
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
sur Internet. Néanmoins son utilisation n’est pas plébiscitée par toute la communauté
des développeurs, en raison notamment de sa difficulté à être appréhendé et de sa non
prise en compte des standards de navigation et d’accessibilité.
- CSS
Les feuilles de styles en cascades (Cascading styles sheets, CSS) sont le système
aujourd’hui standardisé de mise en page des pages web, utilisés par la majorité des
concepteurs web. Elles leurs permettent de mettre en place une mise en page spécifique
pour le site web de façon centralisée en un seul fichier. En créant un fichier CSS, ceux-ci
peut définir l’aspect de chacune des balises du site, ou créer leurs propres styles
spécifiques qu’ils donneront par exemple aux titres, au texte etc... (cf. Annexe 3 :
Exemple de fichier CSS)
- Ruby on rails
Dérivé de Ruby, un langage de programmation proche du Python, Ruby on Rails
en est la déclinaison adaptée au web. Il s’agit d’un langage serveur, comme PHP, qui
permet de créer des interfaces très facilement et très rapidement, au contraire de PHP
qui nécessite de longues heures de développements. Parfaitement adaptée aux exigences
des nouveaux services qui doivent bénéficier d’une grande réactivité, son essor est
grandissant dans la communauté. Ainsi Fred Cavazza en dresse une critique positive sur
son blog : «Ce langage présente un intérêt dans la mesure où il est extrêmement rapide
à mettre en œuvre. Concrètement, il vous permet de développer beaucoup plus vite,
donc de faire preuve de beaucoup plus de réactivité dans la maintenance et l'évolution de
votre site. Idéal pour faire du prototypage rapide, c'est à dire dans une configuration
projet où le site est développé / testé / modifié plusieurs fois selon un principe de cycles
itératifs. Certains appellent ça de l'eXtreme Programming, moi j'appelle plutôt ça de la
conception centrée sur les utilisateurs (à condition que ces derniers soient impliqués dans
les multiples étapes de test). » 3
- XML
XML est un standard d’ordonnancement de données. Il permet à l’utilisateur de
séparer totalement les données de la mise en forme. A travers un système de balise
paramétrable par le développeur et une architecture parent-enfant (en arborescence),
l’utilisation de XML permet d’avoir les mêmes données qu’une base de données de type
MySQL par exemple, directement exploitable dans la page. Son utilisation est souvent
conjointe à celle des feuilles de styles XSL. (cf. Annexe 4 : Exemple de fichier XML)
- XSL
Un fichier XSL (eXtending Stylesheet Language) est une feuille de style CSS
améliorée. Ce format permet la création de template (modèles de pages) qui, utilisées
avec les données d’un fichier XML permettent l’affichage d'une page web complète. Les
feuilles de styles XSL étendent l’effet des CSS à la création de calques ou de tableaux
contenant un certain type d’information. De plus les développeurs peuvent programmer
sommairement certains aspects, grâce à une syntaxe fonctionnelle, permettant de créer
des boucles afin d’automatiser certaines mises en page. On aura ainsi un fichier XML
3
CAVAZZA, Fred, (2005, Mars) « Techniques de développement web : une révolution en cours ? »
Sur Fredcavazza.net. Consulté le 30/03/07.
http://www.fredcavazza.net/index.php?2005/03/30/632-techniques-de-developpement-web-une-revolution-encours
10
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
contenant les articles d’un journal, une feuille de style XSL positionnant cet article dans
la page, et une feuille de style CSS gérant l’aspect du texte. Les possibilités sont
nombreuses, et c’est à travers ces trois standards que le web 2.0 prend toute son
ampleur. En effet cette séparation des contenus et des contenants des pages web, qui
centralisait à l’origine toutes les informations sur un seul fichier, permet une bien
meilleure implémentation, une meilleure réactivité, mais facilite également beaucoup la
mise en place de systèmes dynamiques.
L’utilisation de feuilles de styles XSL n’est pas réservée aux seuls sites Internet.
On trouve ainsi des portails TV, des versions auditives destinées aux malvoyants, etc...
(cf. Annexe 5 : Exemple de fichier XSL)
Nouvelles architectures réseaux
- REST
L’architecture REST est un concept peu connu, mais fondateur de cette évolution
du web. REST est une technologie développée par Roy T. Fielding en 2000 dans sa thèse
« Architectural Styles and the Design of Network-based Software Architectures ». REST
est un modèle définissant l’architecture du web, bâtie sur quatre principes
fondamentaux. Connaître l’URI (l’URI est l’identifiant de ressource Internet,
généralement une adresse web) doit suffire pour accéder à l’information, le protocole
HTTP doit être à même de fournir toutes les informations, chaque opération doit être
auto suffisante et les standards hypermédias doivent être utilisés. Cette architecture
n’est pas limitée aux sites Internet, elle est de plus en plus utilisée par les développeurs
pour faire communiquer des machines entre elles. En effet, elle reste simple,
compréhensive par des systèmes très différents. Les technologies tendant de plus en plus
à communiquer entre elles, et à diffuser de l’information sur Internet, le choix d’un tel
standard n’est pas anodin. Roy Fielding défend son idée grâce aux avantages que son
utilisation confère. Citons entre autres une communication moindre avec les serveurs,
évitant ainsi leur surcharge, le respect des normes HTTP (à la différence de SOAP son
principal concurrent), et le fait que l’utilisation de l’URI comme identifiant permet la mise
en place de serveurs cache, déchargeant encore la bande passante de l’utilisateur. En
contrepartie, les données étant toutes chargées localement, c’est la bande passante du
réseau de l’entreprise qui peut être surchargée. Par exemple, les services d’Amazon et de
Flickr sont bâtis sur des architectures REST.
- SOAP
SOAP est l’autre standard d’architecture utilisé par les nouveaux services web.
Développé par Microsoft et IBM, son utilisation est recommandée par le W3C. Le
protocole SOAP différencie l’enveloppe de l’information, et un modèle de données
contenant les informations à transmettre. Google est un exemple de service Internet
utilisant une architecture SOAP.
Nouvelles applications
- Applications Internet Riches
Les applications Internet Riches font parties intégrantes des avancées induites par
le web 2.0. Nous en expliciterons les spécificités dans une partie ultérieure, néanmoins
en voici quelques aspects. Ces applications sont des sites web comme les autres, mais
auxquelles les nouvelles armes données aux développeurs ont permis d’implémenter des
fonctions proches de celles des logiciels de bureau existant sur le marché. On trouve des
11
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
logiciels de montage vidéo, de création graphique, etc... La principale composante de ces
applications consiste en l’utilisation du langage AJAX.
Ainsi l’utilisation de techniques déjà anciennes permet de faire évoluer les
possibilités offertes par Internet. Mais ces applications peuvent elle vraiment remplacer
les applications de bureau ? A niveau de fonctionnalités équivalent, c’est peu probable,
mais quelle proportion d’utilisateurs utilise la totalité des fonctionnalités du logiciel
Microsoft Word ? On parle souvent de la règle des 80/20 selon laquelle 80% des
utilisateurs utiliseraient moins de 20% des fonctionnalités des logiciels bureautiques.
Ainsi une application web 2.0 reprenant les principales fonctions des logiciels de mise en
forme, d’accès totalement gratuit et permettant de sauvegarder son travail dans un
format standard pourrait concurrencer le marché des logiciels ‘off-line’. Le problème
étant toujours la rémunération, le modèle économique associé à ces outils gratuits
restant souvent bancal.
Aux logiciels bureautiques en ligne s’ajoutent les applications gérant le stockage
de données en ligne, comme Flickr (stockage de photos), Gmail (messagerie), Del.ico.us
(sauvegarde des signets), permettant ainsi de s’affranchir des contraintes habituelles de
la sauvegarde de données sur disque dur, et permettant de retrouver son espace de
travail à n’importe quel endroit. On peut tout à fait imaginer un mélange de ces deux
types d’application permettant de travailler un document bureautique quel que soit
l’endroit où on se trouve, voire de travailler en groupe sur un projet à deux endroits
totalement différents.
Installation requise
Séparation
données/IHM
Multi plateformes
Données en ligne
Ergonomique
Performante
Applis
HTML
Applis
RIA
Applis
bureau
Non
Non
Oui
Non
Oui
Oui
Oui
Oui
Non
Non
Oui
Oui
Oui
Oui
Non
Non
Oui
Oui
Source : Kap-it.fr
Le tableau ci-dessus résume les différences et point communs entre site html 1.0,
RIA et application traditionnelle de bureau. Tous les avantages sont ainsi en faveur des
RIA qu’elles soient en rapport avec la modularité, l’ergonomie ou la performance
générale.
- Commentaires
La notion de web 2.0 prend également en compte les commentaires, au sens
large. Lorsqu’un internaute met à disposition une information, les autres visiteurs du site
peuvent de plus en plus souvent laisser des commentaires pour réagir à l’article. Ces
commentaires agissent comme des créateurs de réseaux sociaux car ils sont souvent à
l’origine de débats. Ils s’apparentent aux forums mais diffèrent en plusieurs points. Tout
d’abord le forum n’est en soi qu’une suite de commentaires, il n’y a pas d’article en
rapport. Bien sûr le premier message peut être apparenté à une information, mais elle ne
se différencie pas dans la structure du site des autres commentaires. De plus, il est
souvent obligatoire de s’identifier, d’appartenir à la communauté pour poster sur un
12
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
forum. Or les commentaires des blogs, des journaux et de la plupart des sites ne
nécessitent qu’une identification sommaire (un surnom le plus souvent).
- Mashups
Un grand nombre d’interfaces web 2.0 mettent à disposition des développeurs
indépendants des fragments de leur codes sources. En utilisant ces fragments les
développeurs peuvent mixer différents services entre eux afin de créer une nouvelle
application composite. C’est le cas d’Amazon, Flickr ou Google, qui ont donné lieu à de
nombreuses applications nouvelles, comme la Flickr Clock ou Veni Vidi Wiki, exemples
que nous analyserons plus loin.
- RSS
RSS est l’acronyme de ‘Really Simple Syndication’. La syndication de contenu
permet aux informations d’un site web d’être disponible non seulement sur le site en luimême mais également dans un tout autre contexte. Par exemple sur un portail
d’information telle que la page d’accueil personnalisée de Google, on trouve les flux RSS
de différents journaux d’information.
- Taggage & folksonomie
Le taggage est un anglicisme servant à décrire un nouveau type de mot clé, non
plus défini par le webmaster lorsqu’il met à disposition l’information, mais par l’utilisateur
lui-même pour décrire son ajout à la communauté. L’exemple le plus parlant en est le
site de vidéos en ligne, Youtube. Lorsque l’internaute met en ligne une vidéo, il choisit
lui-même quelques mots clés en rapport. Le site web regroupe les mots clés semblables
et affiche ainsi les thèmes les plus populaires. Le plus souvent sur une page où la taille
de caractère des différent mots clés correspond au nombre de fois où ce mot clé a été
choisi pour décrire un vidéo. Cette mise en page est appelée « nuage de tags » (cf
Annexe 6 : Exemple de page de tags). Le taggage est étroitement lié à la notion de
‘folksonomie’. Celle-ci dérive de la taxinomie (science du classement) et de l’anglais ‘folk’
(peuple). Par l’utilisation des tags, les contenus sont classés par l’utilisation lui-même et
non plus par un administrateur qui gérerait lui-même l’indexation. Face à la profusion des
contenus, ce genre de classement n’est plus possible. Dans ces conditions le choix d’une
arborescence dynamique sans cesse renouvelée a été fait, permettant d’organiser une
recherche transversale, intuitive. La subjectivité est annulée par la taille de la
communauté, plus celle ci est grande et plus l’avis de chacun est compensé par les
autres et le classement atteint ainsi l’objectivité.
c. Le concept Web 2.0, du point de vue technologique
La caractéristique du web 2.0 est qu’il utilise des technologies déjà existantes et
éprouvées, et donc ne constitue pas en soi une révolution technologique mais une
succession d’évolutions. La principale contrainte des développeurs étant le parc de
navigateurs installés sur les machines des internautes, leur souci a toujours été de
développer des applications accessibles aux plus grands nombre. Ainsi la dernière version
du langage HTML date de 1999, la recommandation CSS date de 1998, etc...
Le concept de Web 2.0 comprend une avancée technologique en matière de
langages de programmation (XML, AJAX ...), mais également une nouvelle manière de
concevoir les applications web. L’idée principale est de mettre l’internaute au centre du
site, comme pourvoyeur d’information. De même que les sites dynamiques ont permis
aux webmasters de faciliter les mises à jour, le web 2.0 donne à l’internaute la liberté de
13
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
mettre lui même en ligne les informations qu’il souhaite diffuser, de les indexer selon son
bon vouloir, etc...
Grâce à ces avancées technologiques, se développent des sites Internet non
seulement imaginé comme des pourvoyeurs d’informations, mais également comme des
logiciels informatiques à part entière. C’est la différence majeure entre web 1.0 / 1.5 et
web 2.0. Les technologies Web 2.0 incluent un grand nombre d’infrastructures, pas
seulement limitées au seul navigateur. Ses ramifications s’étendent aux logiciels de
serveurs, de syndication du contenu, aux protocoles de messagerie, etc...
Du point de vue du développement à proprement parler, le but avoué est la
normalisation progressive mais totale des façons de programmer. Le W3C n’émet pas des
normes au sens européen du terme, mais recommande des standards industriels. A sa
tête se trouve un comité composé de gestionnaires du MIT (USA), de l’INRIA (France), de
l’ERCIM (Europe) et de l’université Keio (Japon). Le W3C ne donne pas d’ordres, il énonce
juste ses recommandations.
De manière très technique, un site pourra être appelé 2.0 s’il obéit à un certain
nombre de règles. Le W3C tente de normaliser et d’imposer ces règles aux concepteurs.
Ces règles sont donc : l’utilisation de CSS, ainsi que d’un balisage XHTML le plus simple
et ordonné possible. L’utilisation des nouveaux langages, tels qu’AJAX (AJAX n’est pas à
proprement parlé un nouveau langage mais une utilisation conjointe de CSS, Javascript
et XML, afin de ne recharger les pages Internet partiellement.) L’utilisation (syndication /
agrégation) des flux RSS pour permettre à l’internaute de suivre les actualités du site en
temps réel.
En résumé, le web 2.0 apporte d’un coté à l’utilisateur : moins de clics pour
accéder et donner l’information (utilisation du drag & drop), plus d’information visibles
sur un écran (utilisation de calques mouvants), et moins de temps de chargement
(utilisation de scripts AJAX ne mettant à jour que certaines parties de la page), et d’un
autre coté à la machine : grâce à l’utilisation d’architecture plus flexibles (séparation XML
/ XSL), des protocoles de communication standardisés et plus ouverts (REST et SOAP), et
enfin une interopérabilité beaucoup plus poussée, (grâce notamment à la syndication via
RSS).
Le principal écueil induit par l’utilisation (excessive) des technologies web 2.0,
AJAX en particulier, est d’ordre ergonomique. En effet le rafraîchissement d’une seule
partie de la page rend caduque l’utilisation des boutons ‘précèdent’ et ‘suivant’ qui
doivent être rajoutés dans le site en lui-même, ce qui peut s’avérer déstabilisant. De plus
la barre d’adresse ne change pas, enlevant la possibilité de mettre en favori une partie
du site. De plus le référencement des sites web 2.0 pose également problème, comme
nous le verrons plus loin.
d. Point de vue social
Après avoir défini le web 2.0 d’un pont de vue technique nous nous attacherons
maintenant à définir les termes qui représentent le web 2.0 du point de vue
communicationnel et social, qui bien qu’indissociable de la technique nous intéressera
plus dans cette étude.
L’apparition de ces nouveaux standards donne lieu à une modification en
profondeur des réseaux sociaux sur Internet. La possibilité pour l’internaute de mettre en
ligne des informations sur des sites publics, conjointement avec d’autres utilisateurs
permet aux contenus d’évoluer très rapidement. A l’image des forums, des communautés
se créent sur les blogs les plus actifs.
14
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Internet a toujours été avant tout un réseau à visée commerciale, même si un
courant humaniste a été porté par certains de ses utilisateurs. La révolution induite au
niveau social est bien sûr la création de contenus par les internautes eux-mêmes. De
plus le web 2.0 peut à mon avis réconcilier ces deux courants, commerciaux et
philosophiques en donnant les outils de la création aussi bien à l’un qu’à l’autre. Les
internautes ne sont plus consommateurs passifs, mais bien acteurs qui participent à
l’échange d’information. Le terme de communauté, souvent utilisé dans les années 1990,
est sans doute trop fort, mais il est indéniable qu’avec les nouvelles technologies se
développent de nouvelle façon d’accéder à l’information. Ce phénomène est expliqué
entre autres par la plus grande technophilie des internautes, de plus en plus d’utilisateurs
d’Internet ayant un bonne maîtrise de l’outil informatique, mais également par la
généralisation des accès à haut débit qui permet à chacun de rester plus longtemps
connecté et donc de ne plus aller sur Internet dans une posture de recherche rapide
d’information mais également en tant que pourvoyeur de cette information.
Comme l’énonce Patrice Flichy dans son « Imaginaire de l’Internet »4, pour la
première fois des informaticiens, des stratèges en communication et, nous le verrons
dans la fin de cette étude, des hommes et femmes politiques se retrouvent sur un pied
d’égalité. Chacun peut désormais modeler l’Internet pour lui donner la forme et l’utilité
qu’il désire. Internet devient un média capable d’abreuver l’internaute de n’importe quel
type d’information, que celle-ci soit musicale, visuelle ou littéraire. Dans ces conditions,
le web 2.0 devient véritablement une partie de la vie des citoyens, et non plus seulement
un outil dont on se sert pour effectuer une recherche spécifique. Des études de même
nature avaient eu lieu lors de l’apparition d’autres nouvelles technologies de
communication, comme la radio, promettant que les liens sociaux allaient se retrouver
bouleversés. Ce n’a jamais été le cas, mais peut on dire que ca ne le sera pas non plus
avec l’arrivée du web 2.0 ? Les bouleversements sont déjà la, sur toutes les facette de la
communication, artistique, économique, politique, etc...
15
Les principes clés énoncés par O’Reilly et Bettelle durant les premières
conférences et brainstorming ont été les suivants, caractéristiques selon eux des
applications Web 2.0. Tout d’abord les données doivent être des « connaissances
implicites » 5 c'est-à-dire que chaque donnée étant connue par un internaute, le partage
des connaissances amène le chercheur à avoir accès à n’importe quelle donnée
susceptible de l’intéresser. Ainsi cette « architecture de
la participation » 6 est
intrinsèquement liée au web 2.0. C’est la création d’un réseau humain qui est au cœur
des évolutions d’Internet, réseau humain qui doit se superposer au réseau technique déjà
ancien, car c’est de ce dernier qu’Internet tirera tout son potentiel.
A l’origine, en 2003, c’est surtout l’aspect technologique qui caractérisait
l’appellation web 2.0, le but étant de faire évoluer l’Internet en mettant à disposition de
l’internaute de nouvelles applications lui permettant de personnaliser sa pratique de ce
média. Ici, le modèle économique rejoint celui des autres produits qui tendent à être de
plus en plus personnalisables. (Téléchargement de sonneries sur téléphone portable,
tuning,...) Comme expliqué plus haut, ce sont surtout les flux RSS qui permettent
d’afficher sur une même page des informations provenant de multiples sources
(Netvibes) ainsi que la mise en place d’espace collaboratifs (Wikipedia) qui sont les plus
utilisés. La meilleure illustration du web 2.0 est, selon les observateurs qualifiés,
l’explosion des blogs. Aidée par une architecture technique telle que celle développé plus
haut, ceux-ci permettent à un simple internaute lambda de créer son propre site, et
4
FLICHY, Patrice, L’imaginaire d’Internet, Paris, La découverte, 272p
5
O’REILLY, Tom, “What is web 2.0 : Design Patterns and Business Models for the Next Generation of Software”.
Sur oreillynet.com. Consulté le 20/02/07.
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html
6
O’REILLY, Tom, Op. Cit.
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
surtout de pouvoir avoir un retour direct sur ses articles grâce au système du
commentaire.
L’internaute devient ainsi à la fois acteur spectateur et commentateur. La
démarche n’est plus commerciale, le but est uniquement le partage d’idées et de
documents, du moins dans l’idée des premiers analystes. « Le Web 2.0 serait donc le
Web par le peuple, pour le peuple »7. Programmeur et essayiste, Paul Graham n’hésite
pas parler de « démocratie du web 2.0 »8. De même les technologies utilisées pour
arriver à ces résultats sont la plupart du temps issues de l’informatique libre, et donc
gratuites. La triple casquette de l’internaute le rend capable de créer son propre site
personnalisé, grâce à des outils de type Myspace.
Mais cet engouement est à mettre en parallèle avec celui pour le web 1.0 des
années 1990-2000 et l’explosion de la bulle économique due à la spéculation massive.
Beaucoup d’analystes craignent donc l’explosion d’une « bulle 2.0 » comme nous le
verrons plus loin.
2. Typologie des principaux sites web 2.0
C’est cette idée de contenu modifiable et enrichissable par l’internaute lui-même
et non plus par le webmaster qui est au cœur des modèles web 2. Diverses applications
de ce principe sont possibles, nous allons ici en dresser une typologie, qui comprend cinq
grandes familles de services novateurs. Tout d’abord les interfaces permettant de créer
des espaces personnels sur Internet, et ainsi d’enrichir son réseau social. Les plus
célèbres sont Myspace et Skyblog. Le web 2.0 est un espace de partage, de mise en
commun de contenus, nous l’avons vu plus haut. Nous allons dans un deuxième temps
présenter deux des plus célèbres interfaces de partage et de mise en ligne de vidéos et
de photos, Dailymotion et Flickr. Les nouvelles technologies permettent aux développeurs
de créer des véritables logiciels en ligne et Google en propose les plus innovantes et
abouties. Nous les étudierons dans une troisième partie. Ces RIA peuvent donner lieu à
des mélanges, des mashups, qu’après avoir étudiés plus haut, nous allons exemplifier
dans une quatrième partie. Enfin la masse d’informations qui est mise en ligne par
l’énorme quantité de contributeurs anonymes peut sembler trop grande. C’est pourquoi
les internautes font de plus en plus appel à des agrégateurs regroupant sur une même
page des « widgets » résumant les informations disponibles sur un site. Netvibes en est
l’exemple le plus représentatif, c’est celui que nous détaillerons dans une dernière partie.
a. Les plates formes de types « Réseau social »
Myspace
Myspace est un site créé aux Etats Unis dont la fonction première est la création
de réseaux sociaux entre ses membres. Les membres enregistrés ont ainsi accès à un
espace web paramétrable leur permettant de créer leur propre page personnelle. Fondé
par Tom Anderson et Chris DeWolfe, son énorme succès en Amériques a intéressé Rupert
Murdoch, propriétaire du groupe News Corp, qui l’a acheté en juillet 2005 pour 580
millions de dollars. En juillet 2006 il était le site web à posséder le plus d’utilisateurs
enregistrés, 90 millions.
7
D., S. (20006, Mai) « Qu'est-ce que le Web 2.0 ? » Sur lefigaro.fr.
Consulté le 12/03/07.
http://www.lefigaro.fr/high-tech/20060510.WWW000000358_qu_est_ce_que_le_web_.html
8
GRAHAM, Paul (2005, Nov.) « Web 2.0 » Sur paulgraham.com.
Consulté le 15/03/07.
http://www.paulgraham.com/web20.html
16
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Myspace est une plate forme permettant à chacun de créer son propre espace sur
Internet et de se faire connaître de la communauté. Grâce à un système de messagerie
permettant aux membres de communiquer directement grâce à l’interface du site, et
d’ajouter des amis en visitant leurs pages personnelles, il permet très facilement et
rapidement de se constituer un réseau de connaissances. Les pages personnelles des
différents membres permettent d’afficher des articles de types blogs, c'est-à-dire des
textes, des photos, des vidéos, et surtout des compositions musicales. On assiste ainsi à
une augmentation de la création de Myspace de groupes de musiques, souvent au
détriment des sites traditionnels. En effet grâce aux systèmes d’ajout de contact, les fans
des groupes présents peuvent se sentir important en ajoutant comme amis les membres
de leur groupe favoris.
L’exemple le plus célèbre est celui du groupe TTC, qui a créé son Myspace et a
basé toute sa communication sur Internet par ce média. Cette stratégie inédite lui a
permis de créer un buzz sur ses membres et de gagner en popularité très rapidement
sans disposer au début de site web. Les premiers fans du groupes ont ainsi pu faire
partie des ‘amis’ des membres, faire écouter les chansons à leur propre communauté et
faire connaître de plus en plus ce groupe, qui aujourd’hui bénéficie d’une popularité
grandissante.
Skyblog
Skyblog est la plus populaire des plateformes d’hébergement de blogs en France
auprès des jeunes. Lancé en décembre 2002 par la radio française Skyrock, il dérive
légèrement des plates formes habituelles de blogs par sa simplicité. Son succès
indéniable est maintenant utilisé pour des campagnes publicitaires, les films ayant pour
cible les adolescents ouvrant des skyblogs en plus de leur site publicitaire habituel. Les
différences avec les interfaces plus traditionnelles comme Blogspot se situent au niveau
technologique mais également social.
Fin mai 2006, on comptait environ 4 800 000 Skyblogs alors que seuls 2 900 000
comptes Skyrock étaient ouverts. Ainsi une personne a souvent plusieurs blogs. Les
travaux d’Hélène Delaunay-Téterel ont révélé que 97% des skybloggeurs étaient des
jeunes de 12 à 18 ans mais surtout que 60% étaient des filles. (Source : d’Hélène
Delaunay-Téterel, doctorante à France Télécom R&D 9)
Du point de vue technologique, les habituelles fonctions de syndications RSS des
commentaires sont absentes. Cette absence peut sûrement être mis au compte du fait
que les flux RSS permettent à l’utilisateur de ne pas revenir sur le site et donc de ne plus
être exposés a la publicité, ce qui serait préjudiciable à la plate forme. Néanmoins son
ancienneté et le succès qu’il rencontre la rende incontournable. La mise en page et la
création d’un Skyblog est très simple : il suffit de se créer un compte Skyrock et de
mettre en page puis en ligne ses articles. Les contenus diffèrent également des blogs
traditionnels. La plupart étant créés par des adolescents, on trouve peu de blogs sérieux,
mais plus généralement des photos de proches, des poèmes, etc... Le style d’écriture est
souvent de type SMS, c’est à dire peu respectueux des règles grammaticales et
orthographiques française. L’utilisation de ce langage est à mettre au crédit des
utilisateurs, qui font partie d’une communauté plus jeune et ayant ses propres codes
linguistiques, on assiste ainsi de la part des rédacteurs de blogs plus ‘sérieux’ à un rejet
des skyblogs. Le but de tout skybloggeurs est la popularité au sein de la communauté,
mesurable par le nombre de visites, mais surtout de commentaire l’expression « lâche
tes com’ » (laisse un commentaire) revenant souvent. Skyblog est une plateforme
commerciale, elle dispose donc d’un certain nombre d’outils payants à destination des
9
FRANCOUD, Renaud (2006, Juin) “Upfing 06 : le phénomène Skyblog”. Sur Internet Actu
Consulté le 30/03/07.
http://www.Internetactu.net/?p=6481
17
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
utilisateurs. On peut ainsi accroître sa popularité en envoyant un message SMS ou vocal,
par téléphone mobile via un numéro surtaxé permettant d’afficher en page d’accueil un
message et un lien vers son Skyblog. La publicité est également omniprésente sous
forme de bannière ou de liens commerciaux, type Google Adsense. Les images et les
articles sont hébergés en interne, mais les vidéos proviennent des serveurs Youtube et
Google vidéo. La mise en page est très rigide, le rédacteur n’ayant accès qu’à une
quinzaine de templates différents, mais aucune action sur le code source. Néanmoins,
l’aspect communautaire prend le dessus ici, et nous verrons que les internautes ont
réussi de manière très intéressante à retourner la rigidité originelle à leur propre
avantage. Skyblog est ainsi un parfait exemple de l’appropriation de l’outil technologique
par une communauté. En effet sa simplicité a forcé les utilisateurs à trouver des
manières de mettre en page de façon plus personnalisée leurs blogs, on assiste ainsi à
une véritable communauté qui propose de télécharger des codes sources de mise en
page utilisable dans son blog.
On retrouve souvent l’expression ‘EntreNet’ pour définir ces plates formes ou les
technologies reste majoritairement web 1.0 mais où l’aspect social et communautaire est
totalement web 2.0. Skyblog propose plusieurs outils de classification et de classement
des meilleurs blogs. Le but d’un skybloggeur est souvent de faire partie de ces top,
affichés en première page afin d’augmenter sa popularité. La page d’accueil de Skyblog
présente en premier lieu, juste en dessous du logo, de la publicité annonçant clairement
son statut commercial, et à but lucratif. On a ensuite plusieurs encarts présentant les
Skyblogs stars, les publicités envoyées par SMS, une interface de recherche simple sur
les contenus des skyblogs (pas de gestion des tags), ainsi qu’une sélection de skyblogs
officiels.
Ainsi, malgré quelques lacunes au niveau technologique, cette plate-forme
popularise de façon énorme le web 2.0 et les concepts qui y sont rattachés. Elle bénéficie
d’une assise très forte et permet ainsi également de montrer à ses détracteurs qu’un
modèle économique basé sur un site communautaire 2.0 est parfaitement viable.
b. Les interfaces de partages de documents audiovisuels
Dailymotion
Dailymotion est un site web français permettant de partager et de visionner des
vidéos diverses et variées. Il est semblable en ceci à Youtube, mais va plus loin dans
l’utilisation du web 2.0, notamment dans la gestion des tags. Ce genre de site a un
succès certain, Dailymotion compte plus de 9 millions de pages vues par jour, en faisant
le premier site indépendant en janvier 200710.
Dailymotion a été créé en février 2005 par deux développeurs travaillant à
l’origine dans une société d’hébergement, Benjamin Bejbaum et Olivier Poitrey. Son
capital de départ était de 250 000 euros, apporté par des investisseurs individuels. En
septembre 2006 les deux créateurs ont révélés que deux fonds d’investissement, Atlas
Ventures et Partech International ont levés 7 millions d’euros, levée de fonds la plus
importante de l’année 2006 pour le web 2.0 français.
Dailymotion utilise comme la plupart de ces outils la technologie flash, mais à la
différence de Youtube, il se démarque par une interface multilingue et un moteur
d’encodage développé en interne.
10
Collectif (2007) « Dailymotion » Sur Wikipedia
Consulté le 20/02/07.
http://fr.wikipedia.org/wiki/Dailymotion
18
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Ce type de site est exemplifie tout à fait le caractère ‘démocratique’ du web 2.0.
En effet l’auteur du site ne met à disposition aucun contenu, aucune information. C’est
l’utilisateur lui même qui ajoute les vidéos qu’il veut faire partager.
La page d’accueil du site comporte plusieurs encarts, mis en page de façon
typiquement ‘web 2.0’. Le style graphique souvent semblable de ces sites fera d’ailleurs
l’objet d’une partie ultérieure de cette étude. Le premier outil de recherche est la
recherche simple sur des mots clés, les fameux tags. Lorsqu’on entre un mot clé dans ce
champ, le site effectue une recherche sur les tags entrés par l’uploadeur de la vidéo.
Jusqu’ici le principe est le même que pour un moteur de recherche normal. Mais lors de
l’affichage de la page des résultats, un encart nous présente les ‘hot tags’. Des mots clés
connexes classés de manière visuelle par ordre de popularité. C’est la que les tags
deviennent vraiment un nouveau mode d’utilisation d’Internet, la classification se faisant
par les internautes eux mêmes sans action d’un quelconque modérateur. (En dehors des
vidéos classées X ou à caractère raciste). Ces tags se retrouvent en page d’accueil sous
la forme d’un encart intitulé également ‘hot tags’ et mis en forme toujours selon un code
couleur précis correspondant à leur popularité. Lors du clic sur un de ces liens on accède
à une page contenant les vidéos connexes à ce mot clé. On peut ensuite préciser sa
recherche en ajoutant d’autres tags afin de réduire le nombre de résultats. Cette
recherche intuitive correspond aux balbutiements du web sémantique, en effet ces tags
permettent d’isoler des ontologies (concepts) plutôt que de simples mots clés. En effet
dans un moteur de recherche classique, type Google, l’application ne recherche pas les
mots clés ayant des sens s’approchant, mais uniquement des orthographes proches, lors
d’une faute de frappe par exemple.
D’autres outils de recherche existent également. Afin de renforcer l’aspect
communautaire et de fidéliser les utilisateurs, il est possible de créer sa propre page
présentant ses vidéos, mais également de créer des groupes, des chaînes (assimilable à
des chaînes de télévision) Ces classifications sont affichées sur la page d’accueil sous la
forme d’une sélection des vidéos dans chaque catégories, des membres affichées de
façon aléatoire ainsi que des partenaires. Dailymotion met ainsi à disposition de ces
partenaires (Le Monde, Itélé, ...) des espaces leur permettant de mettre en ligne des
vidéos (interviews, etc...)
Flickr
Flickr est un site web de diffusion et de partage d’images. Il est gratuit mais
certaines fonctionnalités sont payantes. Flickr est une interface totalement web 2, elle
utilise de façon complète les fonctionnalités offerte par les tags et exploite très bien le
concept de folksonomie. Flickr est une interface souvent utilisée par les blogueurs pour
faire partager leurs albums photos. C’est un des sites les plus symboliques du web 2, qui
a dépassé en février 2006 les 100 millions de photos. Mis en ligne en 2004, il a été
développé par Ludicorp, une société canadienne fondée en 2002. A l’origine, il s’agissait
d’un ensemble d’outils développé pour un jeu multi-joueurs sur Internet : Game
Neverending, qui a finalement été abandonné. Il consistait en un chat room dédiée au
partage des photos, mais a ensuite évolué vers le téléchargement et le classement des
photos. En 2005, Ludicorp a été rachetée par Yahoo, et ses serveurs ont été transférés
aux Etats-Unis, assujettissant ses contenus aux lois américaines. L’interface de Flickr
utilise AJAX, permettant à l’utilisateur de gérer ses photos en rajoutant des tags, titres et
descriptifs automatiquement sans recharger la page.
Les sites de partages de photos existent depuis les débuts d’Internet, Flickr se
distinguant par plusieurs différences caractéristiques de son offre. Tout d’abord le fait
que par défaut les photos publiées sont publiques, même si chaque utilisateur peut créer
des groupes ayant des accès différents à ses photos. Ensuite, la possibilité pour
l’utilisateur de marquer les photos uploadées de tags lui permettant de décrire l’objet de
19
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
ses photographies. Et enfin le service dispose d’un grand nombre d’outils permettant de
fidéliser les utilisateurs et développe un certain nombre d’applications gratuites, telles
qu’un navigateur intégrant des outils permettant de faciliter l’envoi d’images. Une autre
fonctionnalité intéressante est la possibilité de rajouter des notes sur sa photo. Ainsi il
est possible de dessiner un cadre autour d’un élément de la photo (par exemple un
bateau dans une crique) et d’ajouter un commentaire lisible par l’internaute lors d’un
survol sur cette partie de la photo (par exemple ‘c’est moi’). Le résultat de ces
caractéristiques uniques est que 80% des photos sont publiques, que la moitié est
balisée de mots clés et que plusieurs dizaines de milliers d’utilisateurs participent à une
communauté bâtie autour de Flickr. L’essentiel est ici de montrer ses photos, la page
d’accueil, le blog et les flux RSS présentant les dernières photos, les plus populaires ou
les plus insolites. Flickr dispose d’un système de tags abouti, qui fonctionne de la même
façon que celui de Dailymotion, nous ne le détaillerons donc pas ici. Il propose tout de
même quelques fonctionnalités supplémentaires comme la possibilité de s’abonner aux
flux RSS de chaque tag, permettant ainsi à l’internaute de se tenir au courant des
nouvelles images en ligne mais également d’afficher les images d’un même thème sur un
autre site, en respectant la licence de l’auteur. En effet Flickr est attaché à défendre le
droit des créateurs d’image et a donc mis en place un système de licence Creative
Commons régi par l’utilisateur lui-même. Creative Commons est une licence de droit
d’auteur qui est de plus en plus utilisée dans le monde de l’informatique libre mais
également lors de la distribution d’œuvres numériques. Elle permet de donner un certain
nombre de droits à l’internaute téléchargeant l’œuvre, en fonction de la volonté de son
auteur. Son objectif est d’encourager la circulation des œuvres sur Internet de manière
licite et d’encourager les internautes à mieux respecter le droit, mais elle ne prévoit
aucune rémunération pour l’auteur. L’interface permet de gérer les groupes ayant accès
à ses photos et de gérer les droits d’accès en lecture des différents groupes.
Les développeurs ont intégrés un certain nombre d’outils innovants, comme par
exemple le ‘badge’. Cette petite bannière, intégrable sur n’importe quel site web (le code
source est donné), permet d’afficher de manière aléatoire en flash ou en html des photos
de son propre compte ou de n’importe quel utilisateur, selon certains tags à définir. Il
permet ainsi de montrer des images en rapport avec un thème et de proposer un lien
vers la galerie de photos de son choix. A cela s’ajoute toujours le bouton ‘blog this’
permettant d’afficher directement sur son blog n’importe quelle photo issue de Flickr.
Les développeurs ont également mis à disposition des programmeurs
indépendants les API (interfaces de programmation ouvertes) leur permettant de créer
une infinité d’applications ou d’extensions. Comme par exemple Flickr Graph permettant
de visualiser les réseaux sociaux au sein de la communauté, la Flickr Clock affichant
l’heure avec des photos ou d’autres mashups.
L’aspect communautaire est présent à travers la possibilité donnée aux
utilisateurs de se regrouper en communautés qui regroupe des internautes d’un milieu
donné. On trouve ainsi des communautés d’utilisateurs d’une marque d’appareil photo,
de photographes d’un thème précis, ou des regroupements par styles,... Ce sont ces
regroupements qui font la force de Flickr, en effet une photographie d’une fleur n’a que
peu de valeur en soi, mais c’est le fait que plusieurs photographes vont confronter leurs
clichés pour en discuter et faire ainsi vivre la communauté qui rend cette plateforme
vivante. Caterine Fake, cofondatrice de Flickr, défini ainsi le terme de “culture de la
générosité” : “Les gens ressentent le besoin d’attirer l’attention des autres et de leur
prêter attention en retour ; ils aiment cela. J’appelle cela la “culture de la générosité”.”11
On retrouve dans Flickr l’esprit des skyblogs et Myspace, la popularité au sein de
la communauté. Celle-ci est mesurée au travers du nombre de pages vues et par le
11
GUILLAUD, Hubert, (2007, Mai) «Inside FlickR» Sur Internet Actu. Consulté le 04/05/07
http://www.Internetactu.net/?p=6472
20
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
nombre de commentaires laissés par les visiteurs. Flickr propose également un accès
payant pour 25$ par mois, permettant à l’utilisateur ‘pro’ de bénéficier d’un nombre de
photo illimité à uploader, de la disparition des publicités, et l’archivage permanent des
photos haute résolution, l’interface permettant de poster différentes résolutions
d’images.
La flexibilité de la folksonomie donne lieu à des pratiques nouvelles sur Internet,
et sur Flickr en particulier. En effet lorsque un tag devient populaire (‘hot’) les utilisateurs
cherchent à mettre en ligne des photos reprenant ce thème, ou à retagger leurs
anciennes photos afin d’y inclure ces termes populaires. Mais ils doivent également
réfléchir sur comment faire sortir leur contribution du lot, toujours pour en accroître la
popularité. Le choix de l’orthographe est un critère important de même que celui de la
formulation. Ainsi pour une photo noir et blanc, le choix du tag B&W (black and white –
noir et blanc) qui est le nom d’une communauté d’amateurs du noir et blanc ne touchera
pas le même public que le simple ‘noir et blanc’.
Chaque utilisateur peut ainsi se créer un réseau d’amis, de connaissances,
permettant de témoigner de son influence dans ce « jeu de reconnaissance sociale »12.
Pour Thomas Hawk, animateur de deux blogs consacrés à la photographie : « Les tags,
les contacts et les groupes ont une importance équivalente. Les tags ont un rapport avec
l’avenir de la recherche d’image. Tagguer quelque chose signifie l’identifier. Les contacts,
eux, sont le côté social de Flickr. Sans contacts, Flickr ne pourrait pas marcher. Pour
beaucoup de gens, vous ajouter à leur liste de contact signifie qu’ils apprécient votre
travail et souhaitent continuer à le regarder dans le futur. C’est le signe d’une admiration
mais aussi un moyen pour découvrir d’autres parcours. Quant aux groupes, ils sont une
extension naturelle des forums que l’on trouve ailleurs sur le web : beaucoup de ceux-ci
ont bien sûr pour propos la photographie, mais ce n’est pas le cas de tous les groupes. Il
y a aussi des groupes sur la politique, la religion, le voyage… Des sujets qui posent
parfois quelques soucis de modération d’ailleurs, comme sur n’importe quel forum ».13
Le principal écueil de Flickr est sa difficulté à convaincre les professionnels, ce
pour plusieurs raisons. Tout d’abord pour des questions techniques, ceux-ci préférant
travailler avec des fichiers en haute résolution, dont la qualité est située bien au delà des
standards Flickr. De plus on assiste à un sentiment de « dépossession ». En effet, la
qualité des photographes amateurs ne peut être comparée à celles des professionnels,
néanmoins ceux-ci rencontrent un succès certain. Dans ce cas les photographes vivant
de leur art peuvent se sentir quasiment humiliés par le succès d’amateurs enclins à
partager gratuitement des photos, alors qu’eux même tirent leurs ressources de la
publication de leurs clichés. Pour Luc Pérénom, photographe professionnel, les outils
amateurs ne doivent se mélanger avec ceux destinés aux professionnels, qu’ils soient
acheteurs ou vendeurs : “Vu la profusion d’images numériques aujourd’hui, je ne pense
pas qu’un professionnel, qui doit savoir montrer la valeur ajoutée de son travail, doive
utiliser les mêmes outils que les amateurs. Flickr propose une interface relativement
pauvre, peu dédiée à l’usage professionnel. L’espace d’échange est vite limité : les
commentaires tournent vite en rond à se congratuler les uns les autres. Sans compter
que la photographie est une démarche personnelle, indépendante par définition. C’est sa
vision qu’on a besoin de pousser au bout, pas les avis des uns et des autres.” 14
Afin de mieux comprendre le point de vue des professionnels sur Flickr, il semble
intéressant de laisser ici la parole à un photographe qui est justement mis en contact
avec ce genre d’outils au travers de son activité professionnelle. (L’entretien est
disponible entièrement en Annexe 9).
12
13
14
GUILLAUD, Hubert, Op. Cit.
Ibid
Ibid
21
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
[...]
B.R. Est ce que cette profusion de photos sur Internet valorise votre travail
que vous pouvez présenter comme plus abouti que celui qu’on trouve
habituellement ou est ce que au contraire, vous vous sentez menacé par ces
amateurs qui pourrait essayer de vous prendre des parts de marchés ?
F.R. Je ne pense pas que ca dévalorise, l’impact est peu important. Dans le
domaine du travail proprement dit, les agences de toute façon n’utilisent pas
d’amateurs. Mais le web 2.0 est pris en compte aussi par des interfaces très
professionnelles comme Adobe qui propose aux acheteurs de ses logiciels de
mettre en ligne leurs travaux afin de faire parler d’eux et de donner leur
coordonnées à d’autres acheteurs. Il y a donc tout de même des initiatives
qui permettent de différencier les amateurs des professionnels en n’autorisant
que les adhérents à des associations de professionnels et en empêchant ainsi
les mélanges. La grosse différence est que le professionnel ne vend pas ses
photos, mais se vend lui-même comme au travers d’un book. La encore, c’est
le business qui gère le tout, il est de toute façon normal qu’Adobe gagne de
l’argent avec ca. La solution est donc à mon avis de différencier les outils
utilisés par les professionnels d’une part et les amateurs d’autre part.
B.R. Pour en revenir à Flickr, qui peut être directement lié à votre activité,
quelle est votre sentiment par rapport à ce genre d’interface qui met sur un
pied d’égalité professionnels et amateurs ?
F.R. Je l’ai connu par les blogs, et je ne pense qu’il soit utilisé par les
professionnels, qu’ils soient vendeurs ou acheteurs. Je ne sais pas par qui
c’est utilisé, en tant qu’utilisateur je trouve en premier lieu que l’interface ne
fait pas du tout professionnelle.
B.R. Ah ? Elle est pourtant tout à fait dans l’esprit web 2.0
F.R. Je trouve que ce n’est pas très convivial, on voit que c’est du tout fait, ca
a l’air très compliqué, beaucoup d’information sur la page, on ne comprend
pas bien qui est qui, qui fait quoi, etc. Peut être qu’avec le mode d’emploi....
Par exemple le système des tags : je ne sais pas comment ca marche.
Paradoxalement un logiciel comme Aperture, spécialement étudié pour les
professionnels dispose d’une fonction de mise en ligne automatique sur Flickr.
Je suis allé aussi sur d’autres interfaces du même genre, SmugMug et
Phanfare par exemple.
B.R. Ce genre d’interface n’a donc pas vraiment d’influence sur votre travail.
On ne vous a jamais demandé si vous étiez sur Flickr ou mis en concurrence
avec des photos issues de cette plate forme ?
F.R. Non pas vraiment. Je pense que c’est très bien pour les amateurs, ils
n’ont de toute façon rien à perdre. Il y a justement un blog sur lequel je vais,
un formateur qui utilise Flickr comme moyen de promotion. Il ne vit pas de la
photo, mais utilise ce genre de plateformes. Il défend à la fois le professionnel
et l’amateur dans ses blogs. Ce genre dé débat me rappelle celui des CD sans
droit qu’on pouvait acheter et dont on s’apercevait qu’en fait la qualité n’était
pas au rendez vous. Mais il est vrai que je ne suis pas vraiment dans un
créneau de vente en ligne de photos sur des banques. Un photographe
comme Pérénom qui défend une vision artistique et qui possède un blog y a
d’ailleurs rédigé un article dénigrant Flickr. Comme lui je m’imagine dans la
peau d’un pro qui rechercherait des photos, je ne trouverai pas de travail de
qualité. Une navigation rapide me montre que la qualité est très faible. En
22
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
bref, je ne pense pas que Flickr soit positif ou négatif pour le marché, son
influence n’est pas énorme. L’effet que ca me fait est que la profusion de
photos rend impossible la recherche d’une photo précise. Et pour un vendeur
je ne pense pas que ce soit intéressant. Il existe des interfaces spécialement
étudiées pour eux, qui sont donc potentiellement plus intéressantes.
[...]
La réticence des professionnels s’explique ainsi par deux raisons. Le coté noncommercial, excluant toute forme de rémunération, et l’aspect amateuriste constaté.
Convaincre les professionnels sera donc la prochaine étape de cette start-up, ainsi que
l’ajout de certaines fonctions encore en développement comme la reconnaissance
automatique des lieux et des personnes sur les photos. (Déjà disponible sur riya.com).
c. Les RIA
Google propose en plus de son célèbre moteur de recherche un certain nombre
d’applications disponibles en ligne, permettant de disposer d’une interface de mail très
avancée, d’effectuer des travaux bureautiques, ou de disposer de cartes géographique
très complètes.
Gmail est un service de messagerie mis en place par Google, et offrant de très
nombreuses fonctionnalités, semblables a celles des logiciels téléchargeables, comme
Outlook. C’est une des plus utilisées des Application Internet Riches. A la différence des
autres webmails (Hotmail, Yahoo ! mail, etc...) L’utilisateur dispose d’une capacité de
stockage augmentant en permanence d’environ 3 gigaoctet. Il peut également regrouper
les messages et réponses d’un unique interlocuteur en conversations lui permettant de
mieux suivre et retrouver tout le fil d’une conversation par mail, classer ses messages en
les rangeant dans une page spéciale, trier et filtrer les messages, les spam, etc... Le
système reconnaît également les raccourcis clavier, par exemple en tapant Ctrl+S, le
message
est
sauvegardé.
L’interface
dispose
également
d’une
vérification
orthographique, d’une fonction de chat, de syndication via RSS, d’affichage de nouvelles
du web, et d’une quantité étonnante de services connexes, comme l’utilisation du service
via téléphone portable, sur le Wap. L’interface est encore une fois bâtie en AJAX, ce qui
permet l’utilisation des raccourcis claviers dans le navigateur. Depuis 2007, il intègre
même un logiciel de chat de type MSN, à l’origine développé séparément, Google talk.
Gmail utilise des logiciels lui permettant d’analyser le contenu des messages
envoyés et d’adresser des publicités en encart en rapport avec le contenu des messages.
Ces fonctionnalités font débat, et sont particulièrement intéressantes car elles
correspondent a des aspects marketing du web 2.0.
Google Docs est une application en ligne ouverte en 2006, et exemplifiant tout à
fait la possibilité qu’auraient les applications Internet riches de remplacer les suites
bureautique habituelles. En effet il y est possible d’importer et de modifier n’importe quel
document Microsoft Office, Open Office,... Toujours grâce à une interface en AJAX, les
modifications sont automatiquement sauvegardées et mises a jour, permettant ainsi un
travail collaboratif dont la portée est très importante. Grâce à ce système plusieurs
personnes peuvent travailler en même temps sur un même document à des kilomètres
de distance et sans communiquer par téléphone ou par mail pour se rendre compte de
l’avancement de chacun. A l’origine uniquement tableur, il est également devenu logiciel
de traitement de texte lors de l’acquisition de Writely (développé par Upstartle) par
Google.
23
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Google Maps est l’exemple même des fonctionnalités offertes par le web 2.0
puisqu’il reprend exactement l’interface du logiciel de bureau Google Earth, mais en
l’adaptant à une interface web. Basé sur une base de données contenant les photos
satellites de tous les endroits de la planète ainsi que des cartes très complètes, Google
Maps est une application qui permet la création de très nombreux mashups. En effet les
API de cette plate forme sont ouvertes aux développeurs indépendants, ce qui leur
permet de rajouter sur ces cartes d’autres contenus comme l’emplacement d’une
entreprise, ou des revendeurs d’un produit. Les possibilités offertes sont énormes et ne
sont limitées que par l’imagination des concepteurs. C’est bien la l’intérêt du web 2.0 qui
rend l’outil de création sur Internet accessible à tous, ne posant plus de barrières
techniques à l’imagination.
d. Les applications composite, ou Mashups.
Veni Vidi Wiki
Ce service novateur exemplifie tout à fait les possibilités offertes par les mashups.
Encore confidentiel et peu connu, cette application issue de Google Maps est une
ressource de voyage qui renouvelle le style du guide de voyage sur Internet auparavant
rédigé et utilisé comme un guide papier.
L’interface utilise Google Maps pour afficher des cartes du monde, et les
internautes peuvent ajouter des points d’intérêts à certains endroits et rédiger des
articles, insérer des vidéos Dailymotion ou Youtube. Ainsi le guide planétaire se crée de
façon collaborative. Il n’existe aucun remplissage de la base préalable, c’est uniquement
l’internaute qui va donner du sens ou non à cette nouvelle application. Développée par
une française, ce guide compte environ 400 références sur toute la planète.
Les mashups issus de Flickr
Un des credo des développeurs de Flickr a toujours été de laisser une partie de
leur code source accessible aux internautes. Le fait de permettre à ces développeurs de
créer des applications innovantes sur le squelette de leur interface a permis à Flickr de
bénéficier d’une grande popularité, et à donner lieux à de très nombreuses applications
composites que nous allons étudier ici. Le code source de Flickr à d’ailleurs été optimisé
pour pouvoir être souple et permettre le développement d’applications annexes. Ainsi les
développeurs ont prévu des packages permettant d’intégrer les éléments Flickr au Flash,
au PHP ou à d’autres langages de programmation en usage sur Internet. Les
développeurs qui veulent réaliser un mashups peuvent ainsi jouer sur les tags, les noms
d’utilisateurs, la popularité, et bien sûr, les photos elles-mêmes. Ces développements
peuvent donner lieu à des créations artistiques, des jeux, des outils de e-commerce, ou
des moyens de propagande. Le web 2.0 permet donc ici à chacun d’utiliser le même outil
et d’en faire une œuvre ou un service différent, ce qui est à mon sens la réelle révolution
induite par les nouvelles technologies.
- Retrievr
Retrievr est une nouvelle façon de concevoir la recherche documentaire sur
Internet. En effet il permet à l’utilisateur de rechercher des photos ressemblant à un
croquis dessiné par ordinateur. Créée par Christian Langreiter, cette application effectue
une recherche dans la base de données Flickr en se basant sur les couleurs et les formes
dessinées. Le tout se fait en temps réel, une modification du dessin apportant
immédiatement d’autres résultats. Même si l’utilité en est réduite, il sera ainsi toujours
plus rapide et facile de taper un mot clé, ce service prouve que l’imagination devient
24
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
désormais la seule barrière à la création, qui aurait pu imaginer que de tels outils
puissent exister ?
- Spell
La encore, Spell est plus une performance qu’un réel outil. Flickr accueillant un
grand nombre de photographies d’objet en forme de lettres, son créateur à eu l’idée de
développer une application qui écrit des mots entrées auparavant par l’utilisateur sous
forme de photos.
- Tagnautica
A la différence des deux premiers, ce mashups dénote une réelle utilité en plus de
créer une œuvre esthétiquement aboutie. La première action de l’utilisateur consiste à
entrer un mot clé. Ce mot clé sera recherché dans la base de données de Flickr et les
tags qui lui sont le plus proches seront affichés dans un anneau graphique autour du tag
original. Cet anneau est composé de plusieurs photographies correspondant à chaque
tag. Chaque tag est un nœud permettant d’explorer l’univers et les photos de Flickr, la
taille de chaque nœud étant proportionnelle à l’importance de ce tag. Le clic sur un de
ces nœuds commande la création d’un nouvel anneau, en rapport avec ce dernier. Ce
mashup a été écrit par Mario Kingeman, le créateur entre autres de Clockr, une horloge
utilisant des photos pour dessiner les nombres. On a ici typiquement une rencontre entre
un outil utile et une œuvre presque artistique, du moins conceptuelle.
- Fastr
Cette application fait partie des jeux qui peuvent être développés en utilisant les
API Flickr. Ce jeu de rapidité cherche quelques images ayant un tag en commun et les
affiche sur une page web. Le but pour l’utilisateur est de deviner quel est ce tag
commun, le plus vite possible. Créé par Scott Reynen, ce jeu permet également de se
comparer aux autres joueurs via un classement des meilleurs scores.
e. Les espaces personnalisés en lignes
Netvibes
Netvibes est un service de page d’accueil personnalisable. Créé par Pierre
Chappaz et Tariq Krim, ce portail français a désormais une antenne à Londres. Netvibes
est lancé en septembre 2005, et offre le même style de service que les pages d’accueil
Google. L’utilisateur peut ainsi ajouter à sa page des « widgets » ou modules lui
permettant d’afficher des informations d’autres sites, ou de blogs. Ainsi cette application
est parfaitement web 2.0 : elle ne propose par elle-même aucun contenu, mais
paradoxalement est plus fournie que la plus énorme des bases de données. Netvibes
utilise les flux RSS pour se remettre à jour de façon automatique, et la plupart des sites
disposent d’un bouton « add to Netvibes » permettant à l’internaute de s’abonner à ce
flux. Les services vont encore plus loi puisque grâce à l’utilisation de l’AJAX, on a
également des widgets qui indiquent l’heure ou permettent de noter des informations sur
un calendrier virtuel. Lauréat du prix spécial du Jury des 9e clics d’or en 2006, Netvibes
met également à disposition des développeurs des fragments de son API, espérant ainsi
drainer de nouveaux talent et disposer d’innovations constantes.
Ainsi grâce à ce genre d’application, l’espace de travail devient virtuel et le bureau
se déplace avec l’utilisateur. Les employés étant de plus en plus mobiles, le web 2.0
25
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
participe à la mise en place de nouvelles manières de travailler, et s’inscrit dans une
démarche qui va au delà du monde des nouvelles technologies.
Del.ico.us
Dans la même idée de disponibilité de l’information, où que soit l’internaute, se
trouve également Del.ico.us un service permettant de sauvegarder ses favoris et de
pouvoir y accéder en ligne depuis n’importe quel ordinateur. L’avantage en est certain, et
se rapproche de la modularité constatée dans le monde des grandes entreprises ou de
plus en plus d’espace de travail ne sont plus fixes mais temporaires et changent tous les
jours. A cela s’ajoutent des fonctionnalités permettant de noter de s’informer sur les liens
préférés de ses amis ou des autres membres de la communauté. Le tout s’apparentant à
l’idée de « social bookmarking ».
A travers cette typologie, forcément incomplète, le web 2.0 apparaît non plus
comme une simple idée de collaboration entre internautes, mais comme une galaxie de
nouveaux services. Les évolutions induites par les nouvelles technologies permettent
d’imaginer un grand nombre de nouvelles applications et relations entres les différents
acteurs d’Internet. Que ceux-ci soient stratèges économiques, concepteurs, artistes,
chercheurs ou politiciens, le web 2.0 apporte à sa façon de nouvelles façons de travailler.
C’est dans ces conditions que nous allons continuer cette étude, on explorant tout
d’abord les évolutions probables et les recherches en cours chez les grands groupes.
3. Evolutions probables
a. Les développements futurs des grandes entreprises du
multimédia
26
Adobe
L’une des principales innovations à l’étude dans les laboratoires Adobe, déjà
disponible et utilisée dans une moindre mesure, concerne une solution de développement
permettant de développer des Applications Internet Riches en Flash, appelée Flex. Créée
en 2004 par Macromédia, puis reprise par Adobe en 2006 lors du rachat de son
concurrent, cette technologie est l’une des plus prometteuses. Flex travaille
conjointement avec deux langages : MXML qui est un dérivé du XML développé par
Macromédia, et ActionScript 3.0 qui est la prochaine version du langage de
programmation en Flash. Pour être visualisable, Flex nécessite l’installation du lecteur
Flash sur la machine cliente, dont le taux de pénétration est estimé à 97 %, selon les
chiffres fournis par Adobe. Ainsi Flex est moins universel qu’AJAX par exemple qui est
compris par 100% des navigateurs, mais permet de réaliser de véritables applications
modernes, beaucoup plus performantes que les applications AJAX souvent lourdes et
complexes à gérer.
Les avantages de Flex sont nombreux, tout d’abord, au contraire d’AJAX, il s’agit
d’une technologie développée par une grande entreprise spécialisée dans les applications
Internet bénéficiant d’une expérience de plus de 15 ans. A ce titre, l’environnement de
développement est complet et mature, AJAX étant issu du monde de l’informatique libre,
il est forcément plus anarchique, ce qui peut être tout de même un avantage à certains
égards. Afin de profiter au mieux de ces possibilités, Adobe prépare également un ‘client
riche’ appelé Apollo. Apollo est une machine virtuelle, un lecteur universel qui permettra
de s’affranchir du navigateur Web pour exécuter des applications Flex, Swf, Ajax, HTML,
CSS, PDF... L’objectif d’Adobe est ici clairement de viser de nouvelles fonctionnalités web
2.0, pour pouvoir intégrer les animations Flash dans des sites 2.0 souvent statiques
graphiquement.
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Techniquement, Apollo se compose d’un lecteur Flash, d’un lecteur PDF, et d’un
navigateur Internet totalement fonctionnel. Chaque page web qui y est affichée peut être
vue comme un objet Flash, on peut ainsi la faire pivoter, la rendre transparente, etc...Le
développeur créant une application Flex va ainsi pouvoir faire distribuer en plus d’une
version web, une version téléchargeable et exécutable sous Apollo de son produit,
proposant ainsi un véritable logiciel de bureau. Un système de communication devrait
également être implémenté, permettant ainsi à l’application Flex de communiquer sur le
web avec des animations flash classiques mais également des animations flash Lite,
disponibles sur téléphones portables.
Afin de garder sa mainmise sur le marché, et face à la concurrence potentielle du
WPF/E de Microsoft, Adobe a décidé de rendre Apollo disponible gratuitement. Les
applications en cours de développement pour cette plate forme comptent par exemple un
clone d’Itunes, le célèbre jukebox audio et vidéo d’Apple, ou une copie du Photoshop
d’Adobe permettant de disposer de beaucoup des fonctionnalités de ce logiciel
directement sur son navigateur. Adobe espère également s’affranchir des contraintes des
navigateurs web et des plates formes différentes, qui sont souvent un frein, certaines
fonctionnalités avancées de l’HTML ne donnant pas le même comportement d’un
navigateur à l’autre. Avec Apollo, les applications web auront la même place que les
applications de bureau sans toutefois les remplacer. En effet des applications
professionnelles comme Photoshop ou Illustrator doivent être optimisées pour chaque
système et nécessite une véritable installation. Les cibles sont plutôt des applications
web 2.0 comme Youtube, ou Google Vidéo.
Le concurrent principal de Flex est WPF/E, une technologie en développement par
Microsoft. Il s’agit également d’une application permettant de développer des RIA ainsi
que des RDA (Rich Desktop Application). Quelques exemples sont en lignes, par exemple
des applications permettant de consulter des journaux tels que le Times sans passer par
un navigateur.
Mozilla
Xul est un projet de la fondation Mozilla. Il permet de décrire des interfaces
graphiques via un fichier XML spécifique. A chaque objet graphiques sont associés des
événements (clics souris, appui sur une touche de clavier) pour lesquels le développeur
écrit du code. L’avantage est que, de même que pour la séparation XML/CSS, on a ici
une manière réutiliser la même structure d’un environnement à l’autre ou d’une
application en l’autre en changeant les éléments graphiques.
Dans le même temps, des développeurs utilisent le code source de Firefox afin d’y
adjoindre des fonctionnalités d’achats de produits en ligne ou de contenus modifiables
par les internautes eux mêmes. Le but étant de faire du navigateur un logiciel complet
qui va encore plus loin dans la personnalisation et permet de réaliser des actions très
différentes de manière très simple. Par exemple, The Coop est une fonctionnalité sous
forme de plug-in téléchargeable pour Firefox permettant à une communauté de voir et de
s’informer sur ce qu’est en train de faire un autre membre de son groupe. Les utilisateurs
pourront voir les photos de leurs amis, en cliquant dessus accéder à un certain nombre
d’informations, comme les dernières photos envoyées à Flickr, ou les derniers
commentaires laissés sur des blogs.
Ce nombre important de développement en cours dans les grandes firmes sur le
thème du web 2.0 et de la création de communauté montre bien que celui-ci est plus
qu’un simple coup marketing comme l’énoncent certains. Ses possibilités et son potentiel
sont réellement énormes tant au niveau de la stratégie marketing que de l’expérience
utilisateur.
27
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
b. Les pôles R&D dédiées au web 2.0 des grandes institutions
publiques
Les grandes organisations publiques sont très intéressées par les possibilités que
leurs offrent les technologies Web 2.0. Nous allons ici nous intéresser aux recherches et
développements menées en ce sens par France Télécom et le groupe EDF / GDF.
France Télécom
Les acteurs de l’Internet ont jusqu'à maintenant exclus les opérateurs et
fournisseurs d’accès du mouvement Web 2.0. France Télécom, par le biais de se filiale
Orange étudie en ce moment les rôles qu’il pourrait jouer dans cette course à
l’innovation. L’un de ces rôles pourrait être celui d’un opérateur de services convergents,
permettant à l’internaute de disposer de services de contenus, de vie pratique et de
communication accessible sur Internet mais également sur téléphone portable voire sur
télévision.
Le phénomène des mashups intéresse tout particulièrement Orange, qui suit
l’exemple de Google, d’EBay et d’Amazon qui ont ouvert leurs API (interfaces de
programmation) aux développeurs. Cette ouverture permet à ces derniers de créer des
outils mettant en valeur les technologies de ces grands groupes. Orange pourrait ainsi
ouvrir l’api des blogs Orange afin de développer de nouvelles formes de communication
entre les différents membres d’une communauté sociale. Par exemple l’utilisation des flux
RSS des blogs pourrait être une alternative à l’email pour informer les différents
membres d’un groupe de travail conjointement.
Mais c’est surtout dans la convergence des moyens de communication que France
Télécom se pose en leader. En effet fort de sa double casquette de fournisseur Internet
et mobile, il espère devenir un vecteur d’accélération de cette initiative.
Un autre des exemples de l’intérêt que montre France Télécom, et surtout
Orange, au web 2.0 est Pikeo. Conçu par les équipes américaines basées à San Francisco
de France Télécom R&D, Pikeo est un service de partage de photos, du même type que
Flickr, encore en beta. La valeur ajoutée par Orange étant la géolocalisation sur une
carte du monde des photos, tout d’abord grâce à un taggage par l’utilisateur puis via les
GPS de ses futurs photophones qui seront disponibles fin 2007. De plus, à la différence
de Flickr, Pikeo utilise pleinement les technologies Flex 2, permettant ainsi par exemple à
l’internaute d’uploader des dossiers entiers sur son compte, et pas seulement des photos
une à une. De plus, il utilise une gestion des tags légèrement améliorée en séparant
ceux-ci en trois catégories, selon qu’ils fassent référence à des lieux des personnes, ou à
des objets. En parallèle à ce concurrent de Flickr, Orange développe via Next.com,
l’entité rattachée à la conception d’application 2.0, des plates formes d’échange de
vidéos, de fichiers musicaux, etc... Ainsi, les directeurs marketing espèrent développer
tout un écosystème de services basé sur les technologies web 2.0 s’appuyant sur les
réseaux de téléphones portables.
EDF / GDF
Ayant réalisé mon stage de licence au sein d’une filiale d’EDF dont l’activité est
tout à fait tournée vers les nouvelles applications du web, il me semble intéressant d’en
faire ici une description. L’entreprise Edelia est un projet d’EDF R&D visant à développer
de nouvelles formes de services sur Internet, accessible pour les clients, en vue de se
préparer à l’ouverture du marché de l’énergie, courant 2007.
Edelia est une jeune start-up créée il y a 2 ans par EDF. Evoluant sur le marché
des téléservices, le cœur de son offre disponible depuis l’automne 2005 repose sur la
fourniture aux particuliers, professionnels et gestionnaires de patrimoine de services de
28
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
suivi et de maîtrise des consommations d’énergie (eau, gaz, électricité) ; Les services
Edelia reposent également sur la sécurité des biens (télésurveillance) et les services à la
personne (maintien à domicile, téléassistance). Edelia compte profiter de l’ouverture du
marché de l’électricité en 2007 pour fidéliser les clients d’EDF. Le maître mot de la
société Edelia est l’éco-responsabilité, j’ai donc été tout au long de mon stage en contact
avec les notions de développement durable, d’environnementalisme et de domotique.
En 2006, Edelia commence à multiplier les opérations de marketing et de
communications, la plupart orientée web. C’est dans ce contexte que je suis engagé par
Mr Tonneau, en tant qu’assistant réalisateur multimédia. Edelia est la dénomination
commerciale d'EDEV TéléServices, une jeune PME, filiale des Groupes EDF et Crédit
Mutuel créée le 1er février 2005, résultat de plus de cinq ans de recherche et de
nombreuses rencontres avec des acteurs passionnés et motivés. EDEV TéléServices se
positionne sur le marché des téléservices aux particuliers et petits professionnels
(artisans, commerçants) en proposant une offre innovante, baptisée Edelia. Son métier
combine deux rôles d’agrégation, une agrégation technique : opérateur du parc
d’équipements installés chez ses clients et une agrégation commerciale : conception des
offres, gestion de la relation commerciale et animation des réseaux de distribution.
Edelia s’appuie sur des systèmes technologiquement éprouvées et
maintenant normalisées pour y adjoindre une passerelle fixe, la passerelle Edelia, sorte
de compteur intelligent qui, connecté au réseau Internet ou par liaison de téléphonie
mobile, va permettre un suivi permanent et une mise sous surveillance des
consommations quotidiennes. Les services inédits développés par Edelia apportent une
maîtrise complète de ses consommations d’énergie et d’eau.
La passerelle Edelia est plus que cela, elle est évolutive et va permettre d’ajouter
de nouvelles fonctionnalités à coût marginal, tout au long de sa durée de vie. Edelia
propose également en vente à distance de nombreux autres accessoires permettant
d’aider à la maîtrise de son énergie. Le principe de fonctionnement d’Edelia est simple
(l’architecture globale est décrite en annexe). Chaque compteur est équipé d’un capteur
qui va transmettre les informations de comptage par langage radio normalisée à la
passerelle Edelia qui peut être mutualisée sur un même site. La passerelle transmet
régulièrement les données collectées à la plate-forme Edelia qui délègue les traitements
à des « usines métier » (en fait des serveurs informatiques) puis agrège ces
informations, les mets en forme pour les restituer au client final gestionnaire sur un
espace sécurisé sur Internet ou bien au travers d’alertes (présomption de fuites d’eau,
surconsommation, etc.).
L’Energie box, véritable « compteur intelligent » résulte d’une innovation
technologique développée avec la société e-device, spécialisée dans l’intégration des
technologies Internet dans des équipements industriels. L’Energie Box bénéficie d’une
approche en design industriel qui lui permet de se fondre dans l’environnement quotidien
et en fait donc un objet « utile et utilisable », répondant en cela aux règles de
l’ergonomie. Son environnement technique suffisamment ouvert peut supporter la
plupart des standards de transmission agréés en Europe. Pour pouvoir s’installer dans la
plupart des logements compatibles avec l’offre Edelia, trois versions de l’Energie Box ont
été conçues :
- une version Ethernet (pour connexion à Internet et ADSL)
- une version RTC (pour connexion au réseau téléphonique)
- une version GSM/GPRS (pour les sites particulièrement isolés)
On a ainsi la création d’une interface d’objet intelligent qui se connecte au réseau
directement, sans intervention humaine. Les réseaux d’objets sont l’avenir sur lequel
travaillent un grand nombre de chercheurs, et ses applications pour le web 2.0 sont
également nombreuses. On peut ainsi imaginer de suivre directement via un flux RSS sur
son agrégateur son relevé de consommation ainsi que ceux de sa communauté afin de se
29
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
comparer aux autres et de voir comment les habitudes de chacun sont bonnes ou
mauvaises et les adapter à son propre quotidien. Ainsi l’équipe développe actuellement
des widgets intégrables sur Netvibes.
c. La recherche communautaire
Le web 2.0 bouleverse également les idées conceptuelles des développeurs. En
effet, de plus en plus de chercheurs imaginent passer par la collaboration, la participation
de chacun plutôt que par des algorithmes complexes. De même que pour la traduction
automatique ou la méthode statistique supplante peu à peu la méthode analytique, la
recherche communautaire gagne du terrain dans les recherches des spécialistes.
La traduction automatique rassemble deux méthodes, utilisées par les logiciels
développés à l’heure actuelle. Encore beaucoup utilisée, la méthode analytique est la plus
ancienne. Cette méthode est la première qui vient à l’esprit lorsqu’on pense à une
traduction automatique : il s’agit pour le logiciel de reconnaître les mots, et de les
traduire à chaque fois à la volée, en y adjoignant bien sûr les règles grammaticales
propres à chaque langue. La méthode statistique, au contraire, s’appuie sur de
gigantesques bases de données de traduction déjà effectuées par l’homme et recherche
des groupes de mots qui se rapprochent le plus des phrases à traduire. Par exemple,
pour la traduction de la phrase « l’enfant joue avec la balle », l’application ne cherche
plus à traduire chaque mot un par un mais recherche dans des bases de données, voire
même directement sur Internet, si quelqu’un n’a pas déjà traduit cette phrase dans la
langue cible. La méthode statistique permet donc d’obtenir des phrases que l’on sait
correctes, ainsi que de choisir la bonne phrase en fonction du contexte. Cette méthode,
beaucoup plus novatrice, n’est rendue possible qu’avec les progrès de la technologie qui
permettent de stocker des informations dans des serveurs dont la mémoire est de plus
en plus gigantesque.
La recherche communautaire utilise le même genre de méthodes en s’appuyant
sur les contributions des internautes pour délivrer les réponses censées être les plus
pertinentes. Les initiatives comme Digg sont tout à fait dans cette veine. Un grand
nombre de Digg-like sont utilisés sur Internet, ces interfaces permettent de noter des
articles de blog ou autres, afin faire remonter les plus pertinentes et d’augmenter leur
popularité. Ainsi Yahoo a créé Yahoo ! Answers une solution permettant à chacun de
poser une question à la communauté qui lui répondra. Chaque réponse sera notée par les
autres membres, permettant ainsi de voir se dégager la plus pertinente.
Les chercheurs ne sont pas pour autant trop enthousiastes, comme pour la
traduction statistique cette solution ne pourra être qu’une alternative aux algorithmes, de
par sa subjectivité l’humain ne pourra jamais être totalement digne de confiance. «Au
final, il est probable que la recherche par algorithme et les différents types de systèmes
de recherche communautaire fusionneront en une solution hybride, qui réussira très bien
à satisfaire des besoins d'informations très divers»15, explique sur son blog Chris
Sherman, éditeur du site SearchEngineWatch. De plus Jason Calcanis, directeur de
Netscape.com ajoute : «Je ne pense pas qu’ [elle] soit réalisable. [...] Si la recherche
communautaire ne produit pas de résultats nettement meilleurs que ceux des recherches
Google, personne ne l'utilisera.»16 La principale difficulté étant à mon avis la réactivité de
l’humain par rapport à la surinformation disponible sur Internet. L’information ne va-telle pas finalement trop vite pour l’humain ?
15
Elinor Mills (2006, aout) « Web 2.0: la recherche communautaire se passe d’algorithme » Consulté le
20/03/07.
http://www.zdnet.fr/actualites/Internet/0,39020774,39363000,00.htm
16
Ibid
30
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Conclusion
A travers ce premier état des lieux de ce qu’est le web 2.0 nous avons pu voir
que cet outil permet véritablement la réappropriation par l’utilisateur d’un outil
auparavant réservé aux seuls spécialistes. Les applications en sont nombreuses, et les
évolutions induites d’une part par les nouvelles possibilités technologiques et les
recherches sociologique laissent présager un grand nombre d’innovations. Dans ces
conditions, quel est l’impact du web 2.0 sur les acteurs, qu’ils soient concepteurs,
réalisateurs ou utilisateurs ? C’est l’étude qui nous intéressera désormais, nous allons
continuer tout d’abord par une analyse des changements qu’entraine l’apparition du web
2.0 sur les stratégies publicitaires et marketing sur Internet.
31
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Seconde Partie
Impact du web 2.0 sur les stratégies de communication
32
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Table des matières
1. Modèles économiques
a. L’évolution des modèles économiques entre web 1.0 et web 2.0
b. Les limites
2. L’évolution du e-marketing / e-Commerce
a. Le e-commerce 2.0
b. le blog de marque
3. L’utilisation des communautés peut il servir une stratégie
marketing ?
a. Crowdsourcing et pronétariat
b. CRM 2.0
4. La publicité web 2
a. Campagne Rich Media
b. Le placement produit sur les web 2.0
c. Campagnes 2.0
5. Evolutions probables des stratégies de communication sur
Internet
a. Second Life
b. Sur les blogs
c. Les agents virtuels comme arme marketing
Conclusion
« A powerful global conversation has begun. Through the Internet, people are
discovering and inventing new ways to share relevant knowledge with blinding speed. As
a direct result, markets are getting smarter—and getting smarter faster than most
companies. »
- Cluetrain manifesto
« You need to be part of the community you serve. »
- Tara Hunt
«Le web 2.0, c’est le rêve de tout publicitaire!»
- Maurice Levy
33
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
1. Modèles économiques
L’explosion de la bulle de l’Internet dans les années 2000 a conduit les différents
observateurs à la circonspection concernant la viabilité des services web 2.0. Les
avancées technologiques étant pour la plupart fixées, c’est maintenant l’aspect purement
financier de rétribution des services offerts qui est au cœur des problématiques des
entreprises dont l’activité est axée sur le web 2.0. Néanmoins cette circonspection est
souvent mise de coté lors de la vente de grosses plates-formes leader d’un service,
comme Youtube ou Myspace, racheté à leurs fondateurs par de grands groupes médias
pour des sommes astronomiques. C’est dans ces conditions que nous allons explorer les
aspects marketing et économiques du web 2.0.
La plupart des sites étant rétribués via l’ajout de publicité, le modèle économique
est basé sur l’audience. Dans ces conditions, l’audience doit être phénoménale pour
permettre à l’entreprise d’engranger des bénéfices. Le but est donc de réussir à faire
valoir sa différence afin d’attirer le plus d’internautes possibles. Certains sites de
partages de vidéos, comme Revver, proposent ainsi à leurs adhérents de les rémunérer
lorsqu’ils mettent en ligne des fichiers. Même si les sites web 2.0 sont globalement moins
chers à développer que les anciens portails, il est clair qu’un tel système n’est guère
viable et ne peut fonctionner que pour le leader du service en question.
Ainsi, on dégage trois modèles économiques, plus ou moins intéressants. Tout
d’abord l’e-publicité, déjà présente depuis les débuts d’Internet, mais dont certaines
évolutions vont tout à fait dans le sens du web 2.0, par leur caractère sémantique d’une
part et technologique d’autre part. Un deuxième modèle est celui dit « transactionnel »,
souvent utilisé dans les grands sites de partage ou de réseau social. Ce modèle propose
une version allégée de la plate forme, gratuite et une version payante permettant de
bénéficier de l’intégralité des services. Enfin le troisième modèle n’en est pas réellement
un. En effet, de nombreuses start-up ne sont créées que pour être vendues à court
terme, dans un système dit de « marque blanche ». La baisse des coûts de créations et
de développement permettant de réaliser plusieurs projets avant de réussir à attirer un
grand groupe.
a. L’évolution des modèles économiques entre web 1.0 et
web 2.0
e-Publicité 2.0
La première évidence qui saute aux yeux lors d’un rapide survol des différentes
interfaces 2.0 est que si les services offerts sont totalement nouveaux, le modèle
économique est encore très orientée web 1.0, et pour une grande majorité, axé sur la
publicité dont le revenu est calculé au clic. La différence majeure concerne le coût de
développement de ces grandes plates formes. Il est clair que le fait de laisser l’internaute
remplir le site lui-même représente une économie énorme, dans la mesure où les
webmasters n’ont plus besoin d’engager du personnel pour entrer l’information, comme
sur les grands portails. Ainsi, les vendeurs d’espace publicitaire peuvent baisser leur prix,
et donc le volume présent doit être multiplié. Ainsi, ce système entre dans un cercle
vicieux, la surenchère des différents concurrents les rendant à terme de moins en moins
viables. Il existe encore peu de publicité participative, néanmoins quelques contres
exemple viennent changer la donne.
Il existe ainsi une forme de publicité sur Internet explicitement décrite par Tim
O’Reilly lors de sa définition du web 2.0 et développée par Google : Google Adsense.
D’après la page d’accueil de Google Adsense, « Google Adsense est un moyen facile et
rapide pour les éditeurs de sites Web de toutes tailles d’afficher des annonces Google
pertinentes sur les pages de contenu de leur site et de gagner de l’argent. Les annonces
34
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
sont en rapport avec ce que vos visiteurs recherchent sur votre site — ou correspondent
aux centres d’intérêts des visiteurs que votre site attire. Vous aurez donc la possibilité à
la fois de générer des revenus et d’enrichir le contenu de vos pages. C'est aussi un
moyen pour les éditeurs de sites Web de fournir à leurs visiteurs des services de
recherche Google sur le Web et sur leurs sites et de percevoir une rémunération en
échange de l'affichage d'annonces Google sur les pages de résultats de recherche. » 17
Ainsi, les Adsense de Google analysent le contenu des sites web où ils sont
affichés, et affichent une publicité en rapport avec le site, permettant ainsi d’avoir un
ciblage plus efficace. De plus, ce système ne cède pas à la surenchère, et est considéré
comme peu intrusif, en effet il ne s’agit que de texte, et non pas d’une animation criarde
comme c’est souvent le cas. Dans le cas des interfaces Gmail, les scripts analysent même
les e-mails que s’échangent les internautes, affichant ainsi des publicités en rapport avec
leur conversation. Adsense s’appuie sur un ensemble de mot clés déclencheurs, mot clés
achetés par les annonceurs pour voir s’afficher leur publicité. A cela s’ajoute une
fonctionnalité qui rend ce service totalement web 2.0 : en effet, non seulement le robot
de Google, Mediapartner, recherche des mos clés, mais il réussit également à saisir le
contexte de la page afin d’être plus performant.
Ainsi la phrase « Python vous permettra facilement de développer des applications
multi plateformes » comporte plusieurs expressions principales dont le sens peut varier
selon le contexte. Python peut être un animal, ou un langage informatique. Développer
est une notion d’informatique, mais également sportive ou morale. Enfin application
multi-plateformes est une notion totalement informatique. Le point commun est donc
l’informatique, thème que Mediapartner est capable non pas de comprendre, mais au
moins de reconnaître.
L’autre source de revenu qui peut être apporté à un service web et qui relève du
web 2.0 est celle qui consiste à sponsoriser des liens spécifiques sur les outils de
recherches communautaires. Ces outils, que nous avons étudié plus haut et qui
permettent d’effectuer des recherches en s’aidant des expériences d’autres utilisateurs.
Ainsi la communauté par son étendue permet de gagner en pertinence et d’améliorer le
service rendu. On peut donc imaginer des ajouts de lien contextuel, qui seront affichés
dans les résultats de recherches. Mais l’idée même de communauté freine cette idée. En
effet les membres de celle-ci ont souvent une aversion pour tous types de publicité ce qui
risque de faire fuir les visiteurs du site. Les webmasters peuvent également envisager de
revendre leurs fichiers, permettant ainsi de disposer d’une base de prospects dotée
d’informations très nombreuse. Mais ce genre de modèle ne peut marcher que tant qu’il
n’est pas revendiqué par un site. Dans le cas contraire, la communauté le boycottera
aussitôt. Dans ces conditions l’application de ce modèle économique semble difficile, il
existe néanmoins.
Service gratuit / abonnement premium
Le deuxième modèle économique présent sur les sites communautaires et de
partages, est celui de type « abonnement premium ». Il s’agit des sites pour lesquels un
service de base est gratuit, mais où il faut payer pour avoir accès au maximum des
possibilités. Ce modèle s’appuie souvent également sur de la publicité, qui disparaît lors
de l’achat d’un abonnement premium.
Ces systèmes sont d’autant plus intéressants qu’ils sont souvent destinés à des
professionnels, plus facilement enclins à dépenser de l’argent pour un service de qualité.
Il est clair qu’une plate forme comme Skyblog vendrait peu de ces abonnements. Ainsi
les interfaces payantes sont souvent moins populaires que leurs équivalent gratuits mais
plus rentables, en effet les bénéfices sont beaucoup plus fixes qu’avec la publicité,
17
Google Inc « Pour en savoir plus sur Adsense » Consulté le 30/03/07.
https://www.google.com/adsense/login/fr/?hl=fr
35
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
forcément aléatoire et fluctuante. LinkedIn est ainsi un bon exemple. Peu connu du grand
public, il s’agit d’un service permettant aux cadres de tisser des réseaux sociaux orientés
business. Il s’agit donc d’une variante professionnelle de MySpace. LinkedIn propose
donc une version gratuite, simple, de son interface, mais fait par exemple payer les
annonces de recrutement.
De la même façon, de nombreuses start-up web 2.0 mise sur ce modèle
économique dit «transactionnel». Environ un quart des utilisateurs de Flickr ont par
exemple souscrit à l’abonnement ‘Pro’. Pour 25 $ par an, celui-ci permet à l’utilisateur de
bénéficier du maximum des possibilités offertes par les serveurs de Flickr, à savoir un
stockage, une bande passante, un nombre de photos illimités. A cela s’ajoute une
navigation exempte de toute publicité. Ainsi Flickr devient une plate forme qui engrange
des bénéfices de deux façons complémentaire, à la fois basé sur la publicité Yahoo, qui
est semblable aux Adsense Google, Flickr étant désormais une filiale du groupe Yahoo, et
un modèle transactionnel lui permettant de stabiliser son chiffre d’affaires.
b. Les limites
La bulle 2.0
Le problème qui se pose aux grands sites 2.0 comme MySpace et Youtube est de
réussir à transformer leur énorme popularité en bénéfices nets. Leur rachat par de
grands groupes médias, stratégie dite de « service en marque blanche », qui ont enrichi
leurs fondateurs va même dans le sens d’une bulle de spéculation qui a toutes les
chances d’éclater. Les deux exemples des ces plates formes novatrices rachetée
respectivement pour 650 millions de dollars et 1.65 milliard est particulièrement édifiant,
en effet ils correspondent à environ 1000 fois le total de leurs pertes mensuelles. De plus
MySpace a un revenu annuel d’environ 200 millions de dollars pour un milliard de pages
vues par jours. Ce qui correspond au vingtième du chiffre d’affaire de Yahoo, avec un
nombre équivalent de pages visitées, d’après le New York Times18. Néanmoins certaines
différences avec l’éclatement de la bulle 1.0 peuvent laisser espérer que 2007 ne verra
pas encore l’e-économie s’effondrer. En effet à l’époque les entreprises réelles ne
rachetaient pas des virtuelles, mais on observait le contraire : AOL rachetant Warner,
etc. On observe aujourd’hui plutôt une diversification et une injection de capitaux dans le
web par des groupes déjà riches et solidement installées. Le rachat de Youtube par
Google permet ainsi à une gigantesque régie publicitaire d’accéder à une audience
mondiale. La deuxième différence est le cout de développement. Comme évoqué
précédemment, celui-ci a énormément baissé, la faillite d’une startup 2.0 est donc
beaucoup moins grave pour son PDG qui peut presque en démarrer une autre tout de
suite.
Ainsi, l’éclatement d’une bulle 2.0 ne semblerait pas venir d’un parallèle avec
l’effondrement de la net-économie des années 90, qui à force de spéculation s’est
retrouvée totalement en faillite. Mais il existe d’autres facteurs qui peuvent rendre
inquiets les spécialistes, comme par exemple la difficulté d’attirer des annonceurs sur un
portail contenant des informations et des contenus totalement hétérogènes car mis en
ligne par les internautes. Ainsi le Cout Pour Mille (CPM : le cout de la visualisation de
1000 bannières de publicités) est très inférieur sur les espaces web 2.0 que sur les
grands portails médias où le contenu est à l’avance connu des annonceurs. L’arrivée du
micro-marketing, c'est-à-dire le marketing à portée des très petites entreprises, grâce
notamment aux Adsense et Adwords Google, a permis aux pourvoyeurs de ces services
de recueillir d’énormes bénéfices. Mais les grands groupes, dont le budget publicité ne
18
HANSELL, Saul (2006, Avr.) « For Myspace, making friends was easy. Big profit is tougher.»
Sur NYTimes.com. Consulté le 12/04/07.
http://www.nytimes.com/2006/04/23/business/yourmoney/23myspace.html?ex=1303444800&en=68144371c
2be06ac&ei=5088&partner=rssnyt&emc=rss
36
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
s’est pas vraiment orienté sur le web, n’ont pas suivi le mouvement, entrainant une
baisse de la croissance de ce secteur. Ainsi l’augmentation du nombre d’annonceurs et
l’illusion de l’expansion du marché pourrait conduire à une recette globale en baisse. En
effet le marché de la publicité est tiré vers le haut par de grands comptes qui dépensent
énormément dans leur moyens de communication vers l’utilisateur, Internet y compris.
Que se passe-t-il si au lieu d’utiliser les moyens traditionnels du web, ceux-ci préfèrent
prendre en compte les solutions beaucoup moins chères offertes par l’e-pub 2.0 ?
Or le web 2.0, encore jeune, va évoluer. D’abord caractérisé par un mouvement
gratuit collaboratif entre internautes, il s’est vu ajouter une dimension produit, business
et enfin devra trouver un moyen de stabiliser son activité afin de réussir dans la durée et
bien sûr de monétiser et de dégager une valeur ajoutée à son activité.
Le problème des droits d’auteurs dans les sites de partages
Le web 2.0, vu comme un formidable moyen de partager des créations originales
ou des informations, se heurte de plus en plus au problème du droit d’auteur. En effet il
est possible sur Dailymotion par exemple d’accéder à des contenus sous copyright
comme des épisodes de grandes séries à succès. Dans ces conditions, quelles sont les
solutions qui peuvent être apportée afin de satisfaire d’un coté les auteurs, et de l’autre
de ne pas faire fuir les utilisateurs, l’audience restant le seul moyen d’attirer les
annonceurs et donc de faire survivre le site ? Youtube a ainsi été récemment assigné en
justice par la chaîne américaine NBC, qui exigeait le retrait de certains extraits de ses
émissions à succès. La solution pourrait constituer en des partenariats avec ces grands
groupes médias, autorisant Youtube à utiliser sa force de frappe pour diffuser des
émissions entières mais entrecoupées de publicité. Ce faisant, on opérera par contre un
réel retour en arrière dans le concept même de web 2.0. Le pourvoyeur d’informations ne
sera plus libre mais surveillé, et les contenus mis en avant car plus lucratifs seront ceux
payés par des annonceurs pour être affichés. Le web 2.0 est il condamné à disparaître,
au même titre que Napster par exemple ? Napster qui a d’ailleurs également essayé de
se transformer en système légal lorsqu’il s’est vu interdire son offre de téléchargements
gratuits.
2. L’évolution du e-marketing / e-Commerce
D’un point de vue marketing l’essor de l’Internet collaboratif peut être très
intéressant pour les agences et les marketers chargés de vendre ou de communiquer sur
un produit ou un service. Le placement produit dans les interfaces générées par les
utilisateurs est un concept très intéressant pour les commerciaux. L’e-Commerce
collaboratif, et le pinko-marketing vont également en ce sens. Enfin la relation client est
également en pleine évolution grâce au web 2.0. Le CRM (Customer Relationship
Management) est aujourd’hui à la veille de devenir un CRM 2.0, en utilisant les
techniques de crowdsourcing. C’est sont ces aspects marketing plus qu’économiques qui
vont maintenant nous intéresser.
a. Le e-commerce 2.0
Les évolutions du e-commerce et l’influence du marketing collaboratif s’expliquent
par l’importance grandissante de l’effet Long Tail (Longue Traîne en français).
La longue traine (ou longue queue) est un concept bien connu des statisticiens. Il
s’agit en fait d’une expression utilisée pour la première fois en 2004 par Chris Anderson
dans le magazine Wired afin de décrire le modèles économiques des grandes boutiques
en ligne comme audible, Amazon ou eBay. En effet il s’est attaché à observer et
démontrer que les ventes des articles les plus demandés par les internautes, étaient
37
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
globalement moins élevées que le total des ventes des articles les moins demandés, qui
sont beaucoup plus nombreux. De cette idée découle plusieurs effets. Le facteur clé
déterminant l’existence ou non d’une longue traine est le cout de stockage. En effet, si
les couts sont faibles il devient plus intéressant de diversifier son offre mais quand ceuxci augmentent, il vaut mieux se concentrer sur les produits les plus vendus. L’arrivée
d’Internet, permettant de faire baisser énormément les cours de stockage à donc vu se
développer un grand nombre de boutique en lignes basées sur la longue traine. Dans ces
conditions, afin de diversifier encore plus l’offre, la création d’objets personnalisés est
devenue plus rentable que la standardisation. De plus le marché de niches devient de
plus en plus important. En effet, il devient plus intéressant de satisfaire beaucoup de
petites fractions du marché, plutôt qu’un seul énorme. En effet, sur les secteurs très
concurrentiels, le marché est saturé, surtout sur Internet. En revanche les niches, après
avoir été très peu considérées, permettent un profit élevé. En effet la facilité de
communication sur Internet permet de toucher un plus grand nombre de personne,
rendant une niche sur Internet plus intéressante que jamais.
Parallèlement à ce rejet de la standardisation, la publicité classique, dirigée de
l’annonceur vers le spectateur perd du terrain. Celui-ci est de plus en plus habitué et
enclin à éviter le message publicitaire. Cette situation peut être un désavantage mais
peut être également bénéfique pour l’entreprise si elle agit sur le « bouche à oreille
positif »19. C’est à dire en déguisant de la publicité comme un message informatif diffusé
entre utilisateurs eux-mêmes, ce qui est une utilisation des aspects communautaire du
web 2.0. Selon Frank Jacob et Martin Oetting, tous deux professeurs en Marketing à
l'Université de Berlin, les marques doivent apprendre à interagir avec leurs clients, a
dialoguer via les espaces publics présent, que ce soient les blogs ou les plateformes de
partage communautaires. Ainsi Opel a mis à la disposition de 8 bloggeurs indépendants
une Corsa afin qu’ils l’évaluent et en fasse des commentaires sur le blog créé pour
l’occasion par la marque.
E-commerce collaboratif
La mode est aujourd’hui la personnalisation, la contribution de l’internaute est de
plus en plus utilisée par les boutiques en lignes. Des exemples se retrouvent dans tous
les secteurs, de l’agroalimentaire avec par exemple Danette qui proposait de voter pour
choisir la prochaine saveur sur un site Internet plutôt que via des études de marché, au
prêt à porter, illustré notamment par Levis qui proposait à l’internaute de personnaliser
et de commander en ligne son propre modèle de pantalon.
Nous allons explorer et analyser ici deux exemples de marketing participatif, dans
deux domaines et deux échelles totalement différentes. Tout d’abord le site web de tshirt Lafraise.com et ensuite la boutique en ligne Amazon.
- Lafraise.com
Plus qu’une simple boutique en ligne, Lafraise.com est un site communautaire
composé de graphistes. Ces graphistes peuvent dessiner des modèles de T-shirts
originaux qui, s’ils sont choisis, seront vendus sur la boutique. Créée par Patrice Cassar
en 2003, son succès a été certain, et cette start-up est maintenant filiale du groupe
allemand Spreadshirt. De plus des partenariats avec Celio ont été engagés, permettant
aux t-shirts Lafraise d’être distribués dans les enseignes du groupe.
19
BENARD, Vincent (2000, Oct) « L’expérience utilisateur, clé du succès des sites Internet » Sur Veblog.
Consulté le 12/04/07.
http://www.veblog.com/fr/2000/0813-userexperience.html
38
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Son succès est du à plusieurs élément, parfaitement mis en avant par son
créateur. Tout d’abord l’aspect communautaire très présent, qui a dès le début contribué
à attirer des graphistes amateurs et professionnels sur cette plateforme, et à se voir
soutenue par la blogosphère. Chaque t-shirt est imprimé en série limitée, augmentant
ainsi l’effet de buzz et d’originalité de chaque modèle. Les modèles proposés étant très
nombreux, la collection peut se permettre de changer très souvent, attirant ainsi les
acheteurs pour plusieurs achats. Chaque graphiste reçoit 1000 euros en échange de la
cession temporaire de ses droits d’auteurs sur son visuel, dans le cas où celui-ci est
retenu et imprimé.
La force de Lafraise est d’avoir tout à fait compris les implications du web 2.0 et
d’avoir retournée à son avantage ses aspects sociaux. En effet, grâce à ce système,
l’entreprise s’assure un vivier de créateurs, qui sont toujours très facilement enclins a
travailler gratuitement si à la clé se trouve la possibilité même infime de gagner les
fameux chèques de 1000 euros. De son coté, le PDG n’a pas besoin de faire travailler des
professionnels, forcément plus cher. On retrouve ici la même problématique qu’avec
Flickr, en ce sens où des amateurs prennent la place des professionnels. Ce concept,
appelé également auto-marketing existe depuis quelque temps déjà mais est un pionnier
dans sa version web. Il y apporte en effet une nouvelle dimension, tant par la réactivité
et le peu d’acheteurs potentiels nécessaire pour le rendre rentable.
D’un point de vue marchand, la promesse du web 2.0 est donc de rendre
l’internaute à la fois contributeur et bénéficiaire. L’interaction ne se fait plus entre le site
web et les utilisateurs mais entre les utilisateurs eux même, le site web n’assurant en fait
que le minimum d’activité.
- Amazon.com
Après avoir développé les commentaires de utilisateurs ainsi que le filtrage
collaboratif, du type ‘les internautes ayant achetés ceci ont également acheté cela’,
Amazon.com propose en version beta plusieurs outils clairement orientés vers le
marketing collaboratif. Ces outils sont pour l’instant réservés à la version américaine du
site, nous allons ici les analyser.
La stratégie du Groupe Amazon est clairement de faire participer le plus possible
l’acheteur ou le visiteur à l’enrichissement de la description du produit ainsi qu’a sa
promotion. A travers des fonctionnalités d’upload de vidéos, de photos, ainsi que d’autres
contenus multimédias par les utilisateurs et acheteurs eux-mêmes, le distributeur
s’assure ainsi une campagne marketing ayant un plus fort impact puisqu’elle est relayée
par des sources indépendantes et non reliées directement au produit. A cela s’ajoutent
même des guides d’achats ainsi que des appréciations d’utilisateurs experts, autant de
services qui seraient payant s’ils étaient réalisés en interne par la boutique.
Ces fonctionnalités sont d’ores et déjà en place sur la version américaine, mais
d’autres innovations sont encore en phase de test. Par exemple la création d’une
Amapédia, c'est-à-dire un wiki des produits Amazon, ainsi qu’une interface de discussion
(Customer Discussions) plus avancée et similaire aux commentaires des blogs. Amazon
augmente ainsi son image de marque et utilise pleinement les aspects collaboratifs du
web 2.0, non plus dans une démarche de création de réseaux sociaux mais bien de vente
et de promotion de ses produits.
Pinko Marketing
Le pinko marketing est une nouvelle vision du marketing, tourné vers Internet.
Encore balbutiant, c’est une idée développée par Tara Hunt.
39
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
- Tara Hunt & le Cluetrain Manifesto – les origines
Tara Hunt est une jeune marketeuse créatrice de l’agence Citizen Agency, en
collaboration avec Chris Messina. Célébrée dans le milieu de la publicité et des stratégies
de marques comme « marketeuse 2.0 », son projet actuel, le pinko marketing, est un
exemple de son style tout à fait novateur. Dotée d’une solide expérience, autant dans les
grandes industries que dans les nouvelles technologies ou le non-lucratif, elle est
l’héritière du Cluetrain Manifesto, ou manifeste des évidences. Cet essai, écrit en 1999
par Rick Levine, Christopher Locke, Doc Searls, et David Weinberger est fondamental
dans la genèse du marketing adapté au web 2.0 (cf. Annexe 2 : le Clue Train Manifesto).
La thèse développée par ses auteurs en 95 chapitres est que l’Internet, à la différence
des autres médias ne doit pas être utilisé pour des campagnes de masse. Au contraire,
les stratégies doivent privilégier les contacts humain / humain.
Les 95 chapitres se subdivisent en plusieurs parties bien distinctes permettant
d’appréhender au mieux les évolutions du marketing. A l’origine, le commerce prenait
place dans des places de marché, où la conversation était importante dans l’acte de
consommation. Internet permet selon les auteurs de se réapproprier l’outil humain et
donc de revenir aux sources du commerce. De plus les hypermédias permettent de
s’affranchir des contraintes hiérarchiques habituelles, en reliant les informations entre
elles sans obliger l’internaute à suivre un chemin préétabli. La connexion entre les
nouveaux marchés et les compagnies est également en passe de changer radicalement.
En effet, les NTIC, qui permettent d’améliorer la connexion marché /consommateur,
créent également une meilleure communication à l’intérieur même de l’espace de
l’entreprise.
Les auteurs s’attachent ensuite à examiner l’impact que ces changement vont
avoir sur les marques et comment celles-ci vont devoir évoluer pour que leurs marchés
continuent à être rentable. Ainsi, avec l’émergence des achats virtuels, les entreprises
vont devoir se réapproprier l’outil de communication avec le client potentiel. Dans cette
optique, les stratégies de mass média ne peuvent plus être utilisées, mais doivent être
personnalisée pour chaque client, ou catégories de client.
Le succès de cet ouvrage a été très peu important, étant peut être trop en avance
sur son temps. Néanmoins 7 ans plus tard, il devient indispensable et est donc repris par
Tara Hunt dans son nouveau projet, le pinko marketing.
- La thèse du pinko marketing
Encore au stade de recherche, mais avec une communauté très active en France,
le pinko marketing est une notion dont l’idée principale est que le consommateur va
désormais choisir de la vie ou de la mort de produits. Dans ces conditions se dégagent
déjà quelques avantages et inconvénients. Tout d’abord la grande force d’innovation des
marques adoptant cette stratégie, un contact constant avec les utilisateurs et enfin le fait
que les produits correspondent tout à faits aux attentes de utilisateurs, puisqu’ils en sont
eux même les créateurs. L’exemple de Lafraise peut donc d’une certaine manière être
attaché au pinko marketing, même s’il n’en embrasse pas tout à fait tous les tenants et
aboutissants. Malheureusement le pinko marketing possède également quelques
inconvénients inhérents. Sa courbe de croissance est souvent lente, il est difficile pour
une activité de démarrer, et peu de moyens de rémunérations lui sont associés, ce qui
conduit à un principe du tout ou rien qui se retrouve souvent dans les entreprises web
2.0.
Afin d‘être totalement pinko, l’entrepreneur de demain doit satisfaire à un certain
nombre de règles. Son activité doit tout d’abord être lancée sans aucun moyen extérieur,
et le service doit être proposé gratuitement, afin de tester l’assentiment des utilisateurs.
40
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Si celui-ci est obtenu, il doit ensuite laisser grandir son activité, puis appliquer un
business model rémunérateur du type de ceux énoncés plus haut.
La pyramide pinko (source La voie du Pinko)
De même que Tim O’Reilly pour le web 2.0, Tara Hunt a préféré énoncé un certain
nombre de principe plutôt qu’une réelle définition pour exposer ses idées. Selon elle,
l’idée directrice concerne la direction du message : en effet la plupart des stratégies de
vente partent de consommateurs experts qui attirent petits à petits les amateurs. Au
contraire, la nouvelle pyramide de l’influence sera dirigée d’abord vers un grand nombre
d’amateurs, consommateurs gratuits, qui amèneront des experts, qui paieront pour un
service professionnel. Sa deuxième idée directrice est que le marketer doit faire partie de
la communauté où il désire vendre son produit et en être son meilleur avocat, tout en
restant totalement authentique. Le pinko marketing est particulièrement adapté à la
conquête des marchés de niches, qui sont friandes de produits personnalisés, non
standardisés. Enfin, elle rejoint les idées du mouvement open source en prônant
l’utilisation et la redistribution des processus de développement créés par les utilisateurs.
Tara Hunt applique ainsi les thèmes collaboratifs du web 2.0 au marketing ce qui
rend sa démarche particulièrement intéressante. En effet selon elle, le pinko sonne le
glas du directeur marketing, maître unique du message et du marché, mais ouvre la
porte à la création, qu’elle soit professionnelle ou amateure. Le marketer ne doit plus
suivre un plan média gravé dans le marbre mais s’adapter en permanence aux évolutions
du marché, celle-ci étant particulièrement rapides sur Internet. A l’origine, les marketers
utilisaient des stratégies de bases de données pour diffuser leur message à des clients
potentiels sur Internet. Désormais les clients peuvent eux même êtres maitres de
l’information, ils peuvent s’abonner, lire, agréger des flux RSS, et sont particulièrement
rétifs à toute forme de publicité intrusive. (cf. Annexe 7 : Cartographies du marketing &
Annexe 8 : Les différences de l’interaction client-vendeur)
« Vos consommateurs sont incroyablement brillants et remarquablement créatifs.
Ils créeront un contenu génial qui valorisera mieux votre marque que vous ne pourriez le
faire -- si ce que vous faites est en quelque sorte bien. » 20
20
BENARD, Vincent, Op. Cit.
41
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Le pinko marketer existe donc à travers sa communauté, chaque message de
celle-ci doit être prise en compte, ce n’est plus le client qui est à l’écoute du vendeur,
mais le vendeur qui doit revenir à l’écoute de son client, que son message soit positif ou
négatif. L’aspect très intéressant du pinko marketing est son double discours. En effet,
sous couvert d’open source, de collaboration, il réussit à occulter le fait qu’il est avant
destiné au profit de l’entreprise et non pas à quelque avancée sociale ou communautaire.
Directeur Marketing
PinkoMarketeur
Stratégie, marketing, recherche achat
d'espace, gestion de projet, management
du développement de marque, publicité et
promotion
Crée des utilisateurs passionnés en
écoutant, observant et en faisant partie de
la communauté... une connaissance innée
dont nous aurons bientôt besoin.
Se concentre sur les livrables : coût par
clic, média-planning, dans un budget
donné - ROI
Aide votre communauté à se bouger les
fesses = proche de 0 € / migrer votre
budget publicitaire sur l'amélioration de
votre produit = pas de prix
Etudie les marchés-cibles, collectionne
Hmm, il parle aux personnes. (Pas trop
plein de données consommateurs, prédit
les tendances de marché, conduit des tests difficile, car il en connaît beaucoup
qualitatifs d'utilisateurs et des études de
personnellement)
réaction des consommateurs
Utilise des mots comme : usagers,
consommateurs, cible, acheteur et
utilisateur pour décrire les clients.
Utilise des mots comme Tara, Lion, JeanChristophe, Laurence, Sunir, Pierre-Philippe,
Alex, Mattis, David, Tariq, Mathieu, Eve,
Joseph, Pierre, Nathalie pour décrire les
membres de sa communauté
Ne sait pas faire de beaux tableaux dans
un wiki
Est un utilisateur passionné de tableaux
dans les wiki
Source http://www.wikiservice.at/fractal/wikidev.cgi?FR/PinkoMarketing/
Ce premier tableau résume mieux que n’importe quel discours les différences
entre un directeur marketing traditionnel et un PinkoMarketeur. Le ton est lui-même
différent, le PinkoMarketeur n’étant plus professionnel de la vente mais membre d’une
communauté. Ainsi le discours est familier, même si ce tableau provient du site officiel et
non d’une initiative d’un amateur.
42
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Commandements
Commentaire
Porte-parole de sa
communauté
Un PinkoMarketeur est Avocat de sa communauté. Il parle
pour sa communauté à son entreprise (pas l'inverse)
Construction de la
marque
Un PinkoMarketeur sait que les marques d'aujourd'hui ne sont
pas construites dans les salles de conseil, les agences de pub
ou les sessions de brainstorming
Planification et
changement
Un PinkoMarketeur planifie peu à l'avance, mais change
souvent le plan.
Implication et
communautés de niche
Un PinkoMarketeur n'insulte pas l'avenir et sait s'impliquer
dans les communautés de niches, car ce sont celles qui
démarrent les révolutions
Récompense des
membres fidèles
Un PinkoMarketeur récompense les membres de sa
communauté qui se tiennent à ses cotés, en leur rappelant
l'importance qu'ils sont importants à ses yeux
Implication personnelle
Un PinkoMarketeur s'implique dans sa communauté en
donnant de sa personne
Utilisation de son offre
Un PinkoMarketeur est client utilisateur de son offre
Marche arrière
Un PinkoMarketeur sait quand faire marche arrière
Utilisation des outils
disponibles
Un PinkoMarketeur apprend à utiliser les outils disponibles
Humour
Un PinkoMarketeur ne se prend jamais lui-même au sérieux
Petites attentions
Un PinkoMarketeur sait que de multiples petites attentions
pour sa communauté produisent de plus grandes choses
Donner plus que ses
promesses
Un PinkoMarketeur sait que s'il promet 10, il lui faudra donner
20
Source http://www.wikiservice.at/fractal/wikidev.cgi?FR/PinkoMarketing/GrillePinko
Ce second tableau résume les 12 commandements définis par Tara Hunt et Chris
Messina comme étant fondateurs d’une stratégie Pinko Marketing. A la lecture de ces
commandements, il est clair que ceux-ci nécessitent un réel business plan et pas
seulement quelques changements au sein de la stratégie. Il est également clair que la
pinko marketing est tout à fait dans la mouvance web 2.0.
43
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
La
France
Nespresso Mozilla
Fraise
Inter
1 Porte-parole de sa communauté
4
5
2
4
4
2 Construction de la marque
2
5
2
5
3
3 Planification et changement
4
5
2
4
3
4 Implication et communautés de niche 4
4
1
4
3
5 Récompense des membres fidèles
3
5
2
3
2
6 Implication personnelle
4
5
2
4
3
7 Utilisation de son offre
4
5
3
4
4
8 Marche arrière
3
5
2
4
3
9 Utilisation des outils disponibles
4
5
2
4
4
10 Humour
4
5
2
3
4
11 Petites attentions
3
5
3
3
4
12 Donner plus que ses promesses
4
5
1
4
2
Source http://www.wikiservice.at/fractal/wikidev.cgi?FR/PinkoMarketing/GrillePinko
Commandements
Google
Le tableau ci-dessus résume les notes données par les analystes à différents sites,
en fonctions de leurs utilisations des différents commandements pinko. Ainsi, l’exemple
de Lafraise est le plus proche d’une stratégie pinko qui fonctionne tout à fait. Au contraire
le site de Nespresso qui est très institutionnel et rigide n’est pas du tout en accord avec
les théories du marketing 2.0.
b. le blog de marque
Le blog corporate
Le blog, figure emblématique du web 2.0 est de plus en plus utilisé par les
marques dans leurs stratégies corporate. Complétant les informations du site
institutionnel il permet d’établir une connivence avec le public, et ainsi peut être à
l’écoute de sa communauté. Les avantages d’une solution blog sont nombreux s’il est
utilisé en complément du site web, qui est la réelle vitrine de l’entreprise. Il permet par
exemple une ligne éditoriale plus souple et plus proche d’un segment de la population,
ainsi qu’une plus grande interactivité que sur le web traditionnel, habituellement plus
figé. D’un point de vue technique, il permet également d’avoir un trafic qualifié et
intéressé par la marque, redirigé depuis le site web, ainsi qu’un meilleur référencement
que la vitrine. Du point de vue financier, la mise en place d’un blog est rapide et peu
couteuse, elle peut donc être considérée comme la partie dynamique et actuelle d’un site
web qui peut être statique dans le temps et mis à jour beaucoup moins souvent.
Les blogs d’entreprise se divisent en deux types. Tout d’abord les blogs officiels,
où la marque apparaît clairement et utilise ses outils marketing visiblement et les blogs
officieux qui essayent de cacher leur affiliation afin de bénéficier de la crédibilité attribuée
aux bloggeurs. Ces blogs officieux restent néanmoins facilement identifiables.
La communication sur Internet d’une entreprise se trouve grandement facilitée
par l’usage des blogs. Tant du point de vue du rédacteur, pour qui la mise en place et
l’administration est très simple que de celui de l’utilisateur, maintenant familiarisé avec
ces nouvelles formes de contenus. Cette actualisation est peu intrusive, à la différence de
la newsletter, l’internaute qui a accès à l’information est donc uniquement celui qui est
intéressée par celle-ci. Cette information peut également être distillée aux journalistes
44
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
qui y trouveront matière à des articles beaucoup plus facilement et donc seront plus
enclins a parler de l’entreprise ce qui augmentera sa visibilité.
En parallèle de cette communication de l’entreprise vers ses clients, le blog de
marque officiel permet également un retour sur les produits ou services vendus par
l’entreprise.
La encore, Lafraise.com fait figure d’exemple. En effet Patrice Gassard, son
créateur et unique employé, utilise énormément le blog pour faire vivre sa communauté
et intègre l’espace de blog à part entière dans la boutique en ligne. Il peut ainsi juger
facilement de la popularité d’un produit et gérer son offre en fonction de la demande de
ses prospects, mais également rassurer les nouveaux arrivants quant au sérieux du site,
la plupart des commentaires étant positifs.
Le référencement, souvent problématique et difficile à appréhender, se trouve
grandement facilité par l’utilisation des blogs. En effet les contenus sont facilement
analysables par les robots, comportent un grand nombre de liens entrants et sortants
ainsi que de liens internes, qui sont autant de critères de calcul de l’algorithme du Page
Rank du leader actuel, Google.
Il existe des blogs de marques officiels émanant véritablement du pôle
communication de l’entreprise, mais également des blogs officiels rédigés par des
amateurs car ils sont passionnés par l’esprit de la marque, souvent dans le secteur
automobile. Par exemple, NetFlix, un loueur de DVD en ligne possède un blog non officiel
mais qui revendique totalement sa filiation.
Le blog est également un outil à privilégier pour les très petites entreprises,
qu’elles possèdent ou non un site web institutionnel, et ce pour plusieurs raisons. La
nature même des TPE rend caduque l’utilisation d’un webmaster à plein temps, par
manque de main d’œuvre principalement. Avec l’utilisation des blogs la visibilité sur
Internet peut être facilitée et accessible à n’importe quel membre de l’équipe. En effet,
pour ces entreprises, le blog professionnel dispose d’un très bon rapport effort fourni /
retour constaté. Souvent sous licence open source les blogs et hébergements sont
quasiment gratuits, et surtout esthétiquement de bonne qualité, ce qui n’est
majoritairement pas le cas des sites web réalisés en interne par un des membres de
l’équipe qui possède quelques notions de programmation. De même que les
problématiques graphiques et d’hébergement, le référencement est généralement assuré
par la plate forme.
Le blog peut donc être un outil particulièrement utile pour les professionnels. Au
travers de l’extrait d’entretien qui va suivre nous allons voir en quoi il influence les
habitudes des internautes professionnels et la vision que ceux-ci ont de cette forme de
communication sur le web. (L’entretien est disponible entièrement en Annexe 9)
[...]
B.R. En tant que photographe, avez-vous l’habitude d’utiliser les blogs, les
communauté etc..
F.R. Je ne sais pas si c’est lié à l’apparition de nouvelles technologies, mais je
vais de temps en temps sur les blogs lorsque je recherche des informations
sur des produits etc.
B.R. Avez-vous l’impression de faire partie d’une communauté ?
F.R. J’avais l’impression au début, beaucoup moins maintenant.
45
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
B.R. Pourquoi ?
F.R. Peut-être était-ce la nouveauté, ca fait environ un an que j’utilise ce
genre de portails d’information. Je ne sais pas si ca a un lien avec l’apparition
du nouvel outil, je rédigeais de temps en temps des commentaires, mais avec
le temps, je me suis aperçu que la qualité du blog dépend en fait grandement
de l’actualité. Je suivais les débats entre les pros et les antis Lightroom et
Aperture (2 logiciels de catalogage de photos) mais lorsque ce débat n’était
plus dans l’actualité beaucoup de blog sont devenus inintéressants et surtout
centré sur leur rédacteurs. Pas tous mais beaucoup. Maintenant que je
connais les informations que je désirais, je me suis beaucoup désintéressé de
l’aspect communautaire. Il y en tout de même 3 ou 4 que je visite tous les
jours, pour voir ce qui se passe, mais l’ensemble me touche peu, et reste axé
beaucoup sur les nouvelles technologies. Je n’ai pas vraiment l’impression
d’appartenir à une réelle communauté. Je l’ai eu à un certain moment, mais
sur la durée, Internet reste tout de même un moyen de communication
virtuel. Ceci dit, il y a quand même eu des avantages, j’ai appris beaucoup,
mais en ce moment, il y a peu de choses qui’ m’intéressent. Mon principal
regret est que la plupart de ces blogs sont tenus par des technophiles, plutôt
que par des artistes.
B.R. Ces rédacteurs de blogs sont plutôt des professionnels qui vivent de
leurs photos ou des amateurs ?
F.R. Moi je les vois plus comme des techniciens qui ont besoin de cette
publicité pour se faire connaitre. Comme par exemple des formateurs qui font
leurs blogs pour parler d’eux. Ce qui serait de toute façon aussi ma démarche
si j’ouvrais un blog.
B.R. Oui, en fait sous couvert de création de communauté, on parle surtout
de soi ?
F.R. L’avantage, malgré tout, c’est que c’est une forme d’exposition, c’est
toujours intéressant de se confronter à l’avis de chacun, après il faut réussir à
générer du trafic et à faire connaître son blog. Je le vois d’ailleurs, certains
répondent aux commentaires pour rajouter des liens vers leurs blogs. Ca fait
partie du jeu, mais ca fausse un peu la donne, je vois bien que certains
commentaires sont laissés uniquement pour faire parler de leurs auteurs.
B.R. Et sinon, par rapport à un site institutionnel, le blog est il mieux, moins
bien, complémentaire ?
F.R. Je pense que c’est bien en accompagnement. Ca dépend pour qui,
certains n’ont pas spécialement besoin d’un site dédié. Dans le monde de la
photo, certains sont seulement amateurs éclairés et n’ont pas forcément
besoin de payer pour ouvrir un site. Il est tout de même facile de repérer
ceux qui vivent de leurs photos, ceux qui sont amateurs étant souvent peu
talentueux. Souvent les blogs restent d’un niveau assez bas. Je ne suis pas
sur que de vrais artistes ouvrent leurs blogs.
[...]
Ainsi la rédaction des blogs peut être utilisée par une entreprise ou un
professionnel, mais l’écueil de la rédaction d’information pertinente est difficile à éviter.
Les blogs semblent plutôt utilisé par des technophiles et peinent à sortir de la
46
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
blogosphère pour être vraiment rédigés et utilisés par ceux qui ne sont pas familiarisés
avec celle-ci.
Le blog officieux
Les blogs officieux, qui cachent leur enseigne d’affiliation, sont un dérivé des
techniques de marketing viral souvent utilisés sur Internet. On peut citer par exemple les
campagnes Vichy (pourmapeau.fr) ou Celio (nousleshommes.fr). Le problème de ces
campagnes est que leur outil se retourne souvent contre eux. En effet, il est souvent très
facile de reconnaître à quelle marques ils se rapportent, justement parce qu’ils en font
l’apologie. L’internaute est alors rebuté par cette tentative, d’autant plus que les marques
essaient souvent de se camoufler sous une apparence journalistique. Un bon exemple de
ce ratage est la campagne Super Radin, réalisée pour Cetelem par l’agence Pékin. Ce site
cherchait à prouver aux futurs demandeurs de crédits que le crédit à la consommation
pouvait servir à financer des biens de consommation courante et pas seulement des
appartements ou des voitures. De ce coté, l’objectif didactique était rempli mais c’est la
tentative de buzz par le blog qui est avortée. La tentative de communication virale est
peu adaptée à ce type de blog, en effet les internautes se partagent volontiers des textes
ou des liens vers des contenus multimédias, mais plus difficilement des sites sur la
facilité d’obtenir un crédit, surtout un site appelé ‘super radin’. A fortiori cette campagne
qui cède à un effet de mode mais ne résulte pas d’une réelle stratégie comporte plusieurs
écueils dans sa réalisation.
Ainsi, le choix d’une campagne virale ne doit pas être automatique, et c’est
malheureusement souvent le cas dans les campagnes de blogs officieux. Plus que ces
derniers, les marketers se devraient de rejoindre la voie du journalisme de publicité, le
publi-rédactionnel.
47
Le publi-rédactionnel sur Internet
Une des premières campagnes intégrant les contenus publi-rédactionnels sur des
blogs a été celle de Radio France pour promouvoir ses podcasts. Campagne qui a fait
débat car elle a été relayée entre autres par Loïc Lemeur, un des plus influents bloggeurs
français. La publicité y est visible sur son blog sous la forme d’un billet spécial, dit ‘publiredac’, empêchant notamment la rédaction de commentaires. Ici survient encore l’eternel
débat de la différentiation entre publicité et information. De plus quid de la crédibilité de
l’auteur? Un membre aussi influent de la blogosphère qui se soumet à la dictature de la
publicité a entrainé un grand nombre de polémiques. Cette campagne pose donc la
question de savoir si le blog est adapté à un format de publicité sur Internet, et s’il est
intéressant pour l’entreprise de communiquer de cette manière. Incontestablement il est
plus intéressant pour l’’entreprise de se servir de la crédibilité déjà bien assise de
certains blogueurs plutôt que de créer son propre blog officieux, comme nous l’avons vu.
Néanmoins, le publi-rédactionnel a encore une mauvaise image de publicité déguisée. En
effet il est rédigé directement par l’annonceur. Afin de mieux toucher la blogosphère la
stratégie optimale est le test par des bloggeurs ou l’invitation à des événements. Ils
feront ensuite la promotion du produit eux mêmes dans le style et le ton qui leur est
propre et ne choqueront donc pas leurs visiteurs car ils garderont toujours la possibilité
de tenir des propos négatifs. Ces propos négatifs restent minoritaires et il est donc à mon
avis plus intéressant d’avoir quelques avis négatifs et beaucoup de positifs avec une
grande crédibilité, plutôt qu’une totalité d’avis positifs avec une mauvaise crédibilité. Les
marchés de niches étant constitués non pas d’une mais d’une multitude de petites
communautés, il n’est pas préjudiciable d’avoir quelques mauvais avis au sein de l’une
d’elles, à la différence du marché de masse.
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
3. L’utilisation des communautés peut-elle servir une
stratégie marketing ?
a. Crowdsourcing et pronétariat
Le crowdsourcing (littéralement ‘approvisionnement par la foule’) est un
néologisme décrivant un modèle économique inventé par Jeff Howe et Mark robinson en
Juin 2006 dans un article du magazine Wired. Il s’agit d’un système dérivé de
l’outsourcing (‘sous traitance’) qui ne fait pas travailler des prestataires étrangers moins
chers, mais des internautes, amateurs et prêt à être peu rémunérés. Il diffère du pinko
marketing qui est plus une stratégie de promotion, par ses implications plus axée sur
l’économie.
Concrètement, pour faire du crowdsourcing, l’entreprise doit déléguer un poste qui
est dévolu à un employé unique à un large groupe d’internaute qui répondra à un appel
sur Internet. Ceux-ci seront micropayés si leur travail est validé, mais travailleront
gratuitement dans le cas contraire. Ses implications directes en font donc un modèle
économique parfaitement représentatif du web 2.0. Ainsi la doctrine du crowdsourcing se
résume par le postulat selon lequel un grand nombre d’enthousiastes peut être plus
performant qu’un petit groupe de professionnels expérimentés. Ici encore, la longue
traine joue un rôle important, en effet chaque acteur a un rôle insignifiant mais le total
des compétences de la communauté est gigantesque.
Le crowdsourcing peut à terme devenir une menace pour les professionnels c’est
du moins ce que craignent certains photographes. Comme avec le débat autour de Flickr
et l’utilisation de photos d’amateurs. Ainsi on cite souvent l’exemple de Claudia Menashe
qui est fondateur. Cette journaliste cherchait en effet des clichés de la grippe aviaire.
Apres être entrée en négociation avec un professionnel qui lui proposait un tarif très bas,
600$ pour 4 clichés, elle à acheté 56 images pour une soixantaine de dollars sur
istockphotos.
Un des exemples les plus intéressants de crowdsourcing a été réalisé par Amazon.
Sur son interface Amazon Mechanical Turk, La célèbre boutique en ligne propose aux
internautes de réaliser des taches très répétitives mais impossible à réaliser par un
ordinateur. Impossible ou plus chères, la machine devenant plus couteuse que l’être
humain. Les taches se composent essentiellement de tris de photos, rémunérés quelques
centimes. En France, la plate-forme Wilogo propose à ses adhérents de réaliser des logos
pour des entreprises. Généralement, le nombre de propositions pour un client s’élève à
80 propositions. Le cout d’un tel appel d’offre est faramineux, mais ici il est quasiment
gratuit. Le graphiste choisi reçoit un chèque d’environ 300 euros, une somme
suffisamment importante pour attirer un amateur mais qui est d’une part ridicule par
rapport aux prix du marché, mais est également soumise à une commission de la part de
la plate-forme. Ce n’est pas le contributeur qui est gagnant mais bien l’entreprise. En
faisant miroiter un travail de chez soi, simple, les crowdsourceurs s’assurent des
pronétaires une main d’œuvre docile et totalement sous payée. Dans le cas de Wilogo, ils
s’appuient même sur la fierté du graphiste amateur de voir son travail choisi par une
entreprise. Les auteurs ont même poussé le système à son paroxysme en proposant de
retravailler toute la charte graphique du site, ce qui coute plusieurs milliers d’euros, en
proposant comme récompense, un baladeur MP3. Pourtant, selon Fred Cavazza « ce
genre d'initiative réellement remarquable et surtout révélatrice du réel potentiel du web
2.0 : des modèles participatifs avec redistribution des revenus »21. Il avoue lui même
pécher souvent par optimisme, néanmoins dans l’esprit ce type d’initiative peut être
intéressant par exemple avec Cambrian House. Cette start-up se décrit comme une
21
CAVAZZA, Fred (2006, Juillet) « Start-up + Crowdsourcing = Cambrian House » Sur fredcavazza.net.
Consulté le 02/05/07. http://www.fredcavazza.net/index.php?2006/07/19/1218
48
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
incubatrice de logiciels. Ils font appel à l’imagination des internautes pour avoir des idées
de concepts de logiciels. Des développeurs crowdsourcés développent les idées les mieux
notées par la communauté. Cambrian House se charge de la commercialiser et
redistribue les revenus à tous les maillons de la chaine. On a ainsi une entreprise qui
peut être dotée d’une grande force, mais n’employant aucun salariés.
Pronétariat
Le pronétariat est un néologisme qui découle de l’idée de crowdsourcing. Il s’agit d’une
contraction du prolétariat, qui désigne les ouvriers volontaires de l’Internet. Joël de
Rosnay définit les pronétaires comme « une nouvelle classe d’usagers des réseaux
numériques capables de produire, diffuser, vendre des contenus numériques non
propriétaires, en s’appuyant sur les principes de la ’’nouvelle nouvelle économie’’. » 22 Ils
se rapprochent ainsi des « pro-ams », les professionnels amateurs, qui utilisent les outils
professionnels accessibles facilement sur Internet.
b. CRM 2.0
Le CRM, (Customer Relationship Management, gestion de la relation client)
composante très importante du marketing relationnel, est en passe d’évoluer
radicalement grâce aux nouveaux outils du web 2.0. La création de communauté en ligne
permet de recueillir des informations sur les prospects très facilement. Cette gestion de
la relation cliente est facilitée par de nombreux logiciels aidant à fidéliser les clients. Ces
logiciels utilisent de plus en plus les technologies du web 2.0, en termes de convivialité et
de puissance d’une part, mais également du point de vue participatif en mettant les
clients au cœur de la stratégie CRM de l’entreprise. Ainsi, l’ancien outil maitre du CRM
sur Internet, la newsletter est totalement repensée grâce à l’ajout de flux RSS au site de
l’entreprise. Ceux-ci permettent de faire vivre le site et d’informer instantanément les
clients sur la vie de la marque et les nouveaux produits disponibles.
De même, la CRM sur Internet a également comme mission de suivre l’évolution
du compte d’un client, par exemple lors d’une commande sur une boutique en ligne. La
encore les flux RSS permettent de s’affranchir des alertes mails.
LA VRM : Vendor Relationship Management
Le VRM est un nouveau cap de la relation client qui inverse la relation clientvendeur. Il permettra à l’avenir (il s’agit encore d’un concept en développement) au
client de disposer des même armes que le vendeur en lui permettant de choisir son
propre vendeur, et non plus d’être choisi par lui. Ainsi il reprend une idée forte du
cluetrain manifesto :
« Nous ne sommes pas des sièges ou des yeux ou des utilisateurs finaux ou des
consommateurs. Nous sommes des êtres humains et vous n'avez pas les moyens de nos
ambitions. A vous de jouer. » 23
Des ébauches de VRM existent cependant déjà dans l’e-tourisme avec des services
comme l’éco-comparateur mis en place par voyages-sncf.com. Ce service compare les
offres des différentes agences de voyages qu’elles soient aérienne ou ferroviaires et
22
23
DE ROSNAY, Joël, La révolte du pronétariat, Paris, Fayard, 2006, 250p
LOCKE, Christopher & LEVINE, Rick & SEARLS, Doc, The Cluetrain Manifesto: The End of Business As Usual,
New York, Perseus Books Group, 2001, 190p
49
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
propose le meilleur prix au client. Néanmoins il est encore sommaire et ne prend pas en
compte les différentes cartes de fidélités, habitudes de voyage, etc.
Ainsi le VRM contournerait les intermédiaires, mais la principale difficulté à sa
mise en place sont les politiques commerciales des différents acteurs concurrentiels qu’il
mettrait en compétition.
FeedBack 2.0
FeedBack 2.0 est logiciel de CRM en ligne utilisant pleinement les apports du web
2.0. En effet il propose de créer des communautés permettant à tout membre de
l’entreprise de s’informer sur les suggestions et les innovations proposée par ses clients.
Ainsi les prospects, ou par extension toute personne intéressée par la vie de
l’entreprise peut laisser des commentaires, des suggestions d’amélioration, qui seront
évaluées et notées par la communauté dans son ensemble et pas uniquement par une
instance centrale. Il s’agit d’une application facilitant le dialogue et permettant dans un
premier temps de l’initier. L’utilisation des technologies AJAX, RSS, ainsi que des tags
pour la navigation en fait une application Rich Media résolument moderne. L‘avantage
par rapport au blog est que la communauté s’anime d’elle même et ne nécessite pas du
webmaster d’ajouter du contenu pour en faire discuter les clients.
Feedback possède évidement des outils permettant de motiver les clients à être
actifs, comme des systèmes de notation récompensant les membres qui donnent le plus
de commentaires, etc.
4. La publicité web 2
50
a. Campagne Rich Media
Les nouvelles technologies web 2.0, et surtout la généralisation du haut débit,
permettent aux annonceurs de faire appels à des campagnes Rich Media, définies par
Sonia Mamin, directrice France de DoubleClick, comme le « web 2.0 de l’e-pub ». Le Rich
Media correspond à l’utilisation dans les bannières publicitaires des technologies Flash
principalement. Ainsi les nouvelles campagnes de publicité sur Internet intègrent des
vidéos, des minis jeux, ainsi que des interactions avec des robots comme pour cette
campagne Pages Jaunes qui proposait de chatter avec un internaute virtuel, qui vantait
les mérites du site. Concrètement, la bannière se présente comme une fenêtre de chat,
avec un certain stef71 qui interpelle l’internaute : « Salut, je viens de Montpellier et toi
? ». Si l’internaute engage la conversation, il répond par quelques généralités avant de
rediriger automatiquement l’internaute vers le site www.pagesjaunes.fr. Dans cet
exemple, la conversation du robot est plus que sommaire, mais il est possible d’imaginer
une bannière publicitaire capable de réagir en fonction des réponses de l’internaute, et
ainsi de le convaincre. On peut également imaginer des bannières publicitaires qui
utilisent des vidéos et des interfaces Dailymotion par exemple, afin de ne pas déstabiliser
l’internaute et de relier la bannière à un service qu’il connaît utilise et apprécie.
En plus d’ajouter des contenus interactifs, la différence entre campagne de
publicité textuelle et Rich media concerne la possibilité de cibler exactement ce dont a
besoin l’internaute. A l’origine ces e-publicité permettaient seulement à l’annonceur de
disposer d’un lien vers son site. On a maintenant la possibilité d’afficher des boutons, des
formulaires permettant de cibler la partie du site de l’annonceur susceptible de
correspondre aux besoins de l’internaute.
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
b. Le placement produit sur les web 2.0
Une troisième voie possible consiste non plus à faire payer l’utilisateur pour un
service mais l’annonceur, à la source. Ainsi MySpace a commencé à proposé aux régies
publicitaires un type de compte payant afin de créer le MySpace d’un produit bien
spécifique. De même, nous avons déjà vu que des annonceurs peuvent payer pour
bénéficier d’un espace ‘Skyblog Officiel’. Ce système de publicité est à rapprocher du
publi-rédactionnel déjà présent dans la presse écrite. Ce phénomène tend à devenir une
véritable arme marketing qui s’invite sur les pages des membres influents de la
blogosphère, et non plus seulement sur les plates formes de réseaux sociaux centralisant
des centaines de blogs.
Le placement produit peut également être intéressant sur des interfaces de
partage, de type Flickr, Dailymotion ou Youtube. La problématique sera ici d’attirer les
annonceurs sans faire fuir les utilisateurs. L’arrivée de publicité sur Youtube après une
longue période où elle était absente des contenus vidéo pourrait ainsi être vécue comme
très négative par les internautes. Ainsi Dailymotion a choisi, à la différence de Youtube
ne pas retenir cette solution sans l’accord de l’utilisateur. L’autre désavantage de cette
méthode est présent du coté des annonceurs, parfois peu enclins à être associés à des
vidéos dont le contenu peut friser le ridicule ou être même classée comme infamant, ou
contraire à l’éthique de la marque.
Malgré tout ce placement produit présente plusieurs avantages pour les
annonceurs. Tout d’abord le format vidéo permet de reprendre les thèmes abordés dans
une campagne télévisuelle plus classique, limitant ainsi encore une fois les couts de
production. De plus de récentes études ont montré que les internautes qui veulent avant
tout visualiser un contenu divertissant et qui doivent patienter devant une publicité sont
plus concentrés sur le message qui est transmis et donc sont plus réceptifs à toute forme
de publicité. Ainsi la mise en interaction de marques, produits ou services avec des
communautés semble être le modèle économique le plus viable car il fait appel à des
fonds non pas donnés par l’utilisateur, qui sera toujours rétifs à payer pour un service sur
Internet, mais par l’annonceur lui-même, qui au contraire a besoin de la visibilité que lui
offre les réseaux sociaux du web 2.0.
Le placement produit passe également par des développements de skyblogs de
films. En effet ceux-ci supplantent parfois les sites officiels pour les films dont la cible est
celle qui créée et à l’habitude de visiter des skyblogs. Ceux-ci présentent généralement
des photos du tournage ainsi que des articles sur les différents personnages. Certains
hébergent les bandes annonces. On a donc ainsi un glissement de la publicité qui passe
d’un secteur dédié, le site officiel, à une infiltration directement dans les habitudes de
navigation des internautes. Ces blogs ouvrent également la porte à de nouvelles
manières de communiquer. Le blog étant une interface gratuite, le recours à une agence
de réalisation web est parfois caduque, comme nous le verrons dans la troisième partie
de cette étude.
c. Campagnes 2.0
La publicité sur Internet est donc d'une part en évolution du point de vue
technologique avec l'arrivée de campagne Rich Média mais également sociologique. En
effet les espaces de collaboration associés au web 2.0 ont permis un essor de plus en
plus grand des campagnes de marketing viral, basées sur la communication entre les
membre d'un groupe social. Les membres deviennent donc eux même des vecteurs de
communication de la marque, avec comme principal avantage de toucher un public plus
large à un cout moindre.
51
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Le marketing viral se subdivise en deux catégories. La première joue sur l'effet
original de la campagne, souvent un jeu original pour que le message se diffuse
d'internaute à internaute, et est appelée "exponentielle". La seconde au contraire,
s'appuie sur l'utilisation massive des bases de données de clients potentiels et est donc
plus ciblée. Nous l'avons vu avec l'étude du pinko marketing, les marchés de niches se
développent de plus en plus. Les annonceurs doivent donc cibler de plus en plus leurs
campagnes en fonctions des communautés visées. Nous allons ici étudier quatre
stratégies qui exemplifient chacun des aspects du web 2.0 et en font une force. Tout
d'abord nous analyserons la campagne Yahoo qui utilise une vidéo virale pour cibler une
ciblé spécifique : les PME. Nous nous attacherons ensuite à une campagne McDonalds qui
utilise comme contenus des vidéos envoyées par les utilisateurs. Nous ferons l'étude
d'une campagne d'Advergaming réalisée pour Orangina et enfin analyserons un exemple
particulièrement novateur et s’apparentant au media-advocacy, celui des enfants de Don
Quichotte.
Campagne Yahoo
Les PME et à fortiori les TPE sont typiquement l’exemple de la longue traine qui
peut être appliqué au search marketing (achat de mot clés à des moteurs de recherche
pour apparaître dans les liens commerciaux). En effet il existe de très nombreuses
catégories de petites entreprises : plombiers, fleuristes, etc. La plupart des grands
groupes comme eBay, achètent des centaines de milliers de mots clés différents, alors
que Yahoo mise sur environ 15 mots clés par mois pour chacune de ces TPE. Néanmoins
leur nombre fait leur force, nous sommes donc totalement dans l’exemple d’un marché
de niche. Ces entreprises, souvent absentes des campagnes des grands groupes ont été
intégrées comme cible prioritaire de la campagne « Tout le monde vous trouve sur
Internet », incitée par Yahoo. La plupart de ces société possédent un site Internet simple
mais communiquent peu en ligne, souvent par méconnaissance des possibilités offertes
par le search marketing. Ainsi, Yahoo a utilisé trois vidéos virales, destinées à être
diffusées à un large nombre d’utilisateurs, sur un site très simple. Ces vidéos présentent
un boucher et un garagiste qui n’utilisent pas les services Yahoo et donc rivalisent de
mauvaises initiatives pour communiquer sur Internet. Le site contient également un
témoignage sérieux d’un utilisateur professionnel de Yahoo Search Marketing qui en
montre les avantages. Ces vidéos sont de plus présentes sur la plate forme Youtube,
permettant une visibilité encore meilleure et un visionnage par des prospects qui serait
rebutés par l’aspect très commercial du site original. La diffusion du message s’appuie
sur l’envoi massif d’e-mailing ainsi que sur la création de bannières présentes sur les
portails dédiés aux TPE/PME.
Campagne McDonald’s
La chaine de restauration rapide McDonald’s n’en est pas à son coup d’essai en
termes de campagne Internet riche. Le web 2.0 est souvent au menu des campagnes de
l’agence
Duke
qui
réalise
les
projets
pour
McDonald’s.
Avec
le
site
« facilecommemcdo.com », la marque se conforte dans l’idée qu’Internet est un bon
vecteur de communication sur la marque. Le but de ce site est d’encourager les
internautes à envoyer des vidéos sur le thème « i’m loving it », slogan choisi en 2003. La
campagne est full media, c'est-à-dire relayée autant sur la presse qu’à la télévision et à
la radio, mais afin de cibler plus précisément la tranche des 15 / 24 ans, l’annonceur a
décidé d’ouvrir un site dédié. Il propose donc aux jeunes internautes de créer son propre
film présentant des astuces permettant de rendre la vie plus facile et de l’envoyer ensuite
sur le serveur où il sera noté par la « communauté ». L’objectif est clairement de créer
une connivence entre la marque et son client, en lui donnant la parle, toujours avec
l’impression finale pour le consommateur de se sentir valorisé. Les vidéos les mieux
notées gagnent de petits cadeaux, afin d’encourager la motivation de internautes. De
plus McDonald’s a développé un concours en partenariat avec MCM afin de diffuser les
meilleurs films à la télévision.
52
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Comme Yahoo, McDonald’s a utilisé également la viralité pour diffuser sa
campagne, mais utilise certains aspects de crowdsourcing car c’est l’internaute lui-même
qui réalise la campagne. Ce qui est particulièrement intéressant ici, le site ayant attiré
plus de 465 000 visiteurs, d’après le Journal du Net 24.
Campagne Orangina
Une des dernières campagnes d’Orangina annonce la création d’une nouvelle
école, sup d’Orangina, un site web dont la promotion a été faite sur tous les médias
traditionnels. Le but est de nous inciter à rejoindre la plus « secouée » des universités
virtuelles afin d’obtenir le diplôme de « meilleur buveur d’Orangina du monde ».
Bruno Walther, président de Draft FCB qui gère le compte Orangina le décrit
comme "Un mélange entre second life, Youtube et Messenger"25. En effet ce site très
riche propose tout d’abord trois mini jeux, le concours d’entrée. Concours d’entrée qui
peut être ‘séché’ afin de ne pas rebuter les internautes désirant accéder directement à
l’interface. Après le concours d’entrée, l’internaute est invité à se créer un avatar, la
encore la plate forme dispose de développements informatiques avancés, puisqu’elle
permet d’envoyer une photo de soi et d’y découper son visage afin de l’intégrer à un
personnage. Une fois arrivées au campus, il est possible d’assister à des cours, de relever
des défis ou de réaliser des vidéos qui seront, comme pour McDonald’s, notées par la
communauté et récompensées lors de la clôture de la campagne, le 7 mai 2007.
L’aspect communautaire est renforcé par une interface chat, toujours présente,
ainsi qu’un tableau d’honneur présentant l’avatar du « major de la promo », enjoignant
ainsi chacun à le battre. Lorsqu’un internaute atteint 15 000 point, il obtient son diplôme,
qui lui sera envoyé par courrier à son adresse. Ainsi Orangina contourne la frilosité des
internautes à laisser leur adresse réelle sur des sites publicitaires en proposant un lot qui
sera envoyé par courrier. Draft FCB a donc combiné plusieurs aspects publicitaires qui
innovent de par leur utilisation du web 2.0. En effet l’Advergaming est un concept déjà
souvent utilisé dans les campagnes à destination des jeunes mais ici, le marketing
participatif en fait un outil qui est très efficace, et renforce l’attachement à la marque.
Les enfants de Don Quichotte
L’association des enfants de Don Quichotte a très vite compris et assimilé les
avantages d’une campagne à caractère virale sur Internet. Conçu comme une
superproduction hollywoodienne, l’action sociale a bénéficié d’un plan média largement
axé sur l’utilisation des nouvelles technologies, Internet en particulier.
Une grande part de la communication sur Internet de l’association se fait par le
biais de plates formes d’échanges de vidéos, sur les sites Youtube et Dailymotion. Ces
interfaces sont très connues des jeunes et des technophiles, milieu à priori plutôt aisé et
donc cible numéro 1 de l’effet de culpabilisation recherchée par les Enfants de Don
Quichotte. Ces plates-formes permettent de diffuser très facilement des vidéos, et
reprennent donc les interviews ainsi que des clips réalisé par l’association. L’autre
avantage est la facilité avec laquelle il est possible de rajouter une telle vidéo sur son
blog personnel. Ainsi, la encore, Internet est utilisé au maximum afin de diffuser auprès
du plus grand nombre les informations sur l’association et ce, à moindre coût.
24
Collectif (2006, Juin) « McDo fait appel au contenu généré par les internautes”. Sur le Journal du Net.
Consulté le 05/04/07.
http://www.journaldunet.com/0702/070221-campagne-communication-macdonald-facilecommemacdo.shtml
25
BIGER, Odile (2007, janv.) « Advergaming avec Orangina : quand la pub devient un jeu... » Sur Marketing et
Convergence. Consulté le 12/04/07.
http://www.marketing-et-convergence.com/article-5212588.html
53
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
L’association dispose également d’un MySpace, un espace personnel sur le site de
« social networking » Myspace.fr. Ce site permet de créer une page personnelle.
Habituellement utilisée pour des particuliers ou des groupes de musique, il permet ici de
se faire connaître des internautes habitués de ce site. Il permet également à l’internaute
d’ajouter à ses amis l’incarnation d’Augustin Legrand sur Internet, ce qui lui donne un
sentiment d’importance et le rend ainsi encore plus à même de transmettre le message à
sa propre communauté. En effet MySpace permet d’ajouter à ses contacts personnels
l’association en elle-même, afin, par exemple de lui laisser des commentaires sur l’action.
5. Evolutions probables des stratégies de communication sur
Internet
Fort de cette étude des stratégies de communication appliquées au web 2.0 nous
pouvons maintenant nous attacher à réfléchir sur les possibilités d’évolution des
campagnes sur ce média en mutation.
Second Life
Second life est un jeu vidéo en ligne qui permet à des joueurs de se retrouver
dans un monde virtuel totalement libre. Semblable à World Of Warcraft ou à d’autres
jeux de ce genre il se distingue par le fait qu’il n’a aucun but. Sa seule utilité est la
création d’une seconde vie, virtuelle celle-là. Chaque joueur peut imaginer, construire et
créer des objets, des bâtiments, etc. Or les agence de publicité utilisent de plus en plus
cet espace pour créer des tests marketing mais également des campagnes virtuelles.
Second Life attire de plus en plus d’investisseurs, qui utilisent la mixité des internautes
ainsi que la liberté d’expression pour créer des études marketing au sein des joueurs. Les
agences peuvent ainsi tester leurs campagnes pour évaluer son impact dans le monde
virtuel d’abord puis dans le monde réel. Mais certaines entreprise utilisent complètement
Second Life comme outil de vente, comme IBM qui a ouvert des magasins où les
internautes peuvent acheter des ordinateurs, les payer via l’interface du jeu et les
recevoir chez eux. Des marques de vêtements y ouvrent des filiales pour tester la
popularité de leurs styles et des partis politiques y créent des antennes. Dans ces
conditions, on voit se développer de véritables stratégies de business adaptées au monde
virtuel.
En effet, pour convaincre les acheteurs virtuels, il faut user de stratagèmes
différents de ceux employés dans le monde réel. De nouveaux métiers ainsi que de
nouveaux canaux de vente sont donc en train naître, et sont amenés à se développer
dans un futur proche. Ainsi Peter Yellowlees, dans l’édition imprimée du quotidien The
Economist, définit Second Life comme un monde de la longue traine : « Economiquement
parlant, c'est aussi un monde différent car contrairement au "vrai" monde où il y a peu
d'objet vendu en grande quantité, SL offre beaucoup d'objets en petite quantité. Un
monde de la longue queue autrement dit... »26
Les moyens de faire sa propre publicité sur Second Life sont nombreux. Tout
d’abord il est possible de réaliser une image vantant son produit et de la coller sur un des
bâtiments virtuels ou sur un panneau d’affichage. Des outils de search marketing sont
également présents, moyennant un abonnement on peut inscrire un mot clé qui sera
affiché lors de recherches. Certaines agences de publicités sont mêmes spécialisées dans
l’implantation clés en main sur Second Life. En France on peut citer Uzik, un studio de
création qui a créé et implanté le QG de campagne de José Bové sur Second Life.
26
LASSARD, Martin (2006, Oct.) « Marketing virtuel pour monde virtuel ». Sur Zéro Seconde.
Consulté le 10/04/07.
http://zeroseconde.blogspot.com/2006/10/marketing-virtuel-pour-monde-virtuel.html
54
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Sur les blogs
Le web lobbying est une des corollaires du pouvoir grandissant des blogs que nous
étudierons également sous l’angle de la campagne présidentielle dans la dernière partie
de cette étude. En effet de plus en plus de bloggeurs influents se sont vu proposer des
contrats de sponsoring, les rémunérant pour tester et approuver des produits. Ainsi une
marque se servira de cette expertise pour faire du « web lobbying ». Des agences de
relations publiques misent déjà sur ce nouveau mode de communication comme
BuzzLemon ou BuzzParadise, des agences spécialisées dans le marketing viral. Leur
démarche consiste en l’identification des blogueurs leader d’opinions d’une communauté
cible, appelés « trendsetters » (lanceurs de tendances). Ainsi lors de la création de la
chaine d’information en continu France 24, une douzaine de membres de la blogosphère
ont pu visiter en avant première les studios. Cette forme de cadeaux, d’avantages, donné
à un certain nombre les poussent ensuite à faire une critique positive du produit présenté
et à s’en faire le relais auprès de leurs communautés. Des phénomènes semblables ont
déjà été utilisés lors de campagnes réelles, mais avec le web 2.0 et l’explosion des
marchés de niche, elles prennent encore plus de sens.
La publicité s’investit également dans les blogs en reprenant l’idée des widgets
des interfaces d’agrégation de contenus, comme Netvibes. En développant des widgets
sponsorisés par des marques que les internautes pourront insérer sur leurs blogs, les
agences de publicité font d’une pierre deux coups. En développant des outils utiles,
capables de séduire aussi bien le webmaster que l’internaute ils espèrent ainsi réconcilier
l’utilisateur avec la publicité, souvent vécue comme nauséabonde. Ainsi la régie
publicitaire Microsoft Digital Advertising Solutions travaille à de nombreux gadgets
comme des indicateurs de force du vent, sponsorisés par Quicksilver, ou des kits
graphiques aux couleurs d’une marque permettant de personnaliser la mise en page de
son blog. Sur le front de la messagerie instantanée cette régie a même commencé à
développer des agents virtuels que les internautes pourront ajouter à leurs contacts
Windows Messenger et qui seront capable de soutenir une conversation ou un débat sur
un produit.
Les agents virtuels comme arme marketing
Les agents virtuels, humains de substitution, sont la dernière de ces nouvelles
armes marketing développées par les agences de communication web. Suivant l’exemple
de la régie Microsoft qui développe des robots capables de soutenir un discours sur MSN,
beaucoup d’entreprises se sont dotés de ces solutions. Les progrès de la recherche en
intelligence artificielle, appliquées au marketing rendent possible ce genre d’innovations.
Ainsi M6 a créé Skaaz, un projet encore en version bêta. Le Skaaz est un petit
personnage qui accompagne l’internaute, dialoguera avec lui, avec ses amis et
recherchera des informations sur Internet lorsqu’il ne saura pas répondre. Ce personnage
virtuel pourra ensuite prendre en compte ce qu’il a appris pour en faire profiter ses
véritables maitres, les marketers du groupe M6. Sur les sites de vente en ligne, des
vendeurs virtuels pourront être implémentés, afin de conseiller l’internaute plus
facilement et dans une relation paradoxalement plus humaine. Ikea a par exemple, sur
son site web, intégré une vendeuse virtuelle qui peut dialoguer avec les clients et leur
apporter son aide. L’humanisation du procédé de vente en ligne permettrait selon les
chercheurs en e-marketing de favoriser le processus de conversion du stade de prospect
à celui de véritable acheteur. De plus ce vendeur pourrait réduire encore plus les couts
en répondant aux interrogations des internautes sans que ceux-ci aient besoin de
solliciter le service client. Tout d’abord communiquant via des interfaces de chat, on peut
facilement imaginer dans un futur proche des dialogues via reconnaissance vocale, voire
des vidéos interactives rendant ces robots de plus en plus humains et persuasifs.
55
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Conclusion
Le web 2.0 apparaît donc comme novateur dans sa modification de la
communication sur Internet. De nouveaux concepts de marketing, de relation client sont
en marche, rendant le vendeur de plus en plus en prise avec sa communauté. La notion
phare est celle de la longue traine qui peut être utilisée dans tous les aspects sociaux du
web 2.0. La place de plus en plus importante des communautés et donc des marchés de
niche ouvre un panel énorme de perspectives. Le marketing participatif permet de faire
réaliser les spots de publicité par les internautes eux-mêmes. Ils deviennent ainsi
bénévoles de la campagne destinés à leur vendre des produits, ce qui est un tour de
force de la part des professionnels. Suivant les points de vue, ces nouvelles formes de
vente peuvent être perçues comme particulièrement intéressantes ou comme l’apogée du
cynisme, mais elles montrent que grâce au web 2.0, la création devient l’affaire de tous
et non plus seulement des professionnels. Le web 2.0, en mettant de nouvelles formes
de marketing au service des méthodes plus académiques comme la promotion de
produits ou le marketing direct, permet de rendre la publicité toujours plus moderne et
créative. Dans ces conditions, après avoir étudié les modifications qu’entraine le web 2.0
pour les concepteurs de stratégie sur Internet, nous allons nous intéresser à l’impact
qu’ont celles-ci sur les réalisateurs eux-mêmes, qu’ils soient développeurs, graphistes,
artistes ou chercheurs.
56
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Troisième Partie
Le web 2.0, du point de vue des concepteurs-réalisateurs
57
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Table des matières
1. Web Agencies
a. Design d’interface web 2.0
b. L’utilisation de plates formes automatisées de conception
c Le flash dans le web 2.0
2. Services multimédia d’une entreprise
a. Nouvelles Technologies
b. Le web 2.0 au service de la communication intra entreprise
.
3. Chercheurs & Artistes
a. Chercheurs
b. Art & web 2.0
Conclusion
58
«La perfection est atteinte, non pas lorsqu'il n'y a plus rien à ajouter, mais lorsqu'il n'y a
plus rien à retirer.»
- Antoine de Saint-Exupéry
“This "2.0" style is simple, bold and honest “
- Ben Hunt
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
1. Web Agencies
Les web agencies sont au cœur de la création de nouvelles interfaces. Dans ces
conditions comment l’arrivée du web 2.0 change-t-elle leur manière de travailler ? Nous
étudierons ici l’évolution des designs d’interfaces web puis l’impact de l’arrivée des
plates-formes automatisées de réalisation de sites. Enfin nous nous pencherons plus
avant sur l’utilisation de flash dans les sites web 2.0, et sur les avantages et
inconvénients de l’utilisation de cette technologie.
a. Design d’interface web 2.0
Le web 2.0 remet définitivement le design au cœur de la problématique de la
création. En effet, le parc de machines dont sont équipé les utilisateurs potentiels
deviennent de plus en plus performants, les accès haut débits se généralisent,
permettant ainsi aux designers de faire vivre leur imagination sans être bridés par
l’aspect technologique. De plus selon Benoît Drouillat, directeur artistique et président de
Designer Interactif, « Le web 2.0 permet vraiment d'expliciter la définition du design :
forme et fonction. »27
C’est sous cet angle que nous allons ici nous attacher à étudier les différentes
évolutions du design d’interface à l’aune du web 2.0. Tout d’abord nous étudierons les
critères qui font qu’une charte graphique devient ou non 2.0, notamment à travers les
écrits de Ben Hunt. Nous étudierons ensuite plus avant la problématique du logo 2.0 qui
semble s’affranchir des règles de création spécifiques et traditionnelles de ce type de
travail.
Le style 2.0
Si le terme de « webdesign 2.0 » est peut être trop fort, il est indéniable qu’il
existe de plus en plus une tendance graphique qui se retrouve très souvent dans les
chartes des sites web 2.0. Ben Hunt, consultant en design anglais identifie une quinzaine
de critères afin de montrer que ce style 2.0 est bien plus qu’une simple tendance mais
bien un courant graphique de design d’interface.
- Le maitre mot : la simplicité
Le maitre mot des chartes graphique 2.0 se doit d’être la simplicité. Ce style sobre
qui est souvent présent au départ, mais est ensuite noyé sous l’avalanche de contenus et
de surenchère doit être au cœur des problématiques des directeurs artistiques. Le web
2.0, de par le fait qu’il se caractérise par une mise en ligne de contenus très divers par
un grand nombre d’utilisateur différent peut avoir comme écueil potentiel la mauvaise
prise en compte de la vision forcement unique qu’a chaque utilisateur de la mise en
forme de son contenu. La simplicité est donc de mise, ce qui ne signifie pas forcément le
minimalisme. De plus les internautes étant très différents, et la plupart du temps non
familiarisés avec les usages en cours sur les NTIC, la navigation ainsi que les différentes
fonctions du site doivent être très facilement compréhensible, la cible n’ayant jamais
autant été tellement segmentée et éclatée. Ainsi le principe du rasoir d’Okham n’a jamais
été aussi vrai, « deux choses étant égales, la solution la plus simple est toujours la
meilleure »28. La simplicité permet également de mettre en avant les vrais objectifs du
site et donc d’éviter de tomber dans le piège souvent attribué au site 2.0, celui de
27
DROUILLAT, Benoit (2006, Déc) « Le web 2.0 selon Benoît Drouillat » Sur deuxzero.com. Consulté le
05/05/07
http://www.deuxzero.com/2006/12/le_web_20_selon_benoit_drouill.html
28
BIARD, Joël, « Guillaume d'OCKHAM, logique et philosophie », Paris, PUF, 1997, 128p
59
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
présenter un grand nombre de contenus, d’informations pour finalement n’avoir rien à
proposer d’intéressant. De plus les habitudes des internautes étant également en
évolution, capter leur attention est de plus en plus difficile. La plupart des études
évaluent environ à 30 seconde le temps que passe un internaute sur une page web. Dans
ces conditions celui-ci doit être capté directement à son arrivée sur l’interface, le bruit
visuel doit donc être réduit au minimum.
Ici doit être prise en compte la notion de rapport entre « data ink » et « non-data
ink ». En effet les informations graphiques peuvent être soit pourvoyeuses d’informations
ou soit uniquement décorative. Plus le rapport entre nombre de pixels décoratifs et
informatifs est faible plus la charte graphique est efficace. Ici encore simplicité ne veut
pas dire simpliste et il serait réducteur d’imaginer cette étude comme une apologie du
minimalisme. Au contraire, l’interface peut être extrêmement chargée et c’est justement
la le défi du designer que de convertir tout les contenus en éléments graphique ayant
une place définie et étant totalement pensés comme faisant partie d’un tout. L’utilisation
d’icones est donc déterminante. Moins utilisées que précédemment, mais ayant plus de
sens, les icones sont indispensables à un site web 2.0 qui se respecte. Les chartes
graphiques étant plus simples, plus aérée, elles laissent la place à des éléments iconiques
qui rendaient les pages anciennes beaucoup trop chargées.
La prolifération des start-up proposant des services web 2.0 oblige les créateurs
de sites à concevoir des interfaces où l’identité de la marque doit être très facilement
identifiable, afin que l’internaute se rappelle très bien le site et ne le confonde pas avec
un concurrent. Dans ces conditions les interfaces web 2.0 utilisent les logos de façon
beaucoup plus forte en les mettant très en avant dans leurs chartes.
De même, l’utilisation de couleurs fortes, qui donnent souvent un aspect acidulé
aux interfaces est intrinsèque au design 2.0. En effet les couleurs plus ternes restent
moins gravées dans la mémoire de l’internaute. L’utilisation d’une identité colorée forte
permet également de mettre en avant les parties les plus importantes du site,
permettant ainsi à l’utilisateur de faire son choix immédiatement dans les informations
qu’il veut avoir à l’œil lors de sa navigation. En effet les sites 2.0 ne se voient plus
comme des pourvoyeurs exhaustifs d’informations mais plutôt comme des points de
passages des différentes communautés, et donc cibles potentielles. La force des couleurs
acidulées réside dans le contraste avec des couleurs plus pâles ou plus sombres, qui
doivent être réservées pour les zones les plus étendues.
- Trois éléments qui font une charte graphique 2.0
Les évolutions technologiques liées à la généralisation du haut débit permettent
également aux designers de s’affranchir des à-plats de couleurs, souvent conseillés pour
les fonds ou les surfaces larges. On assiste désormais à une généralisation de trois
éléments, devenus caractéristiques des sites web 2.0. : L’utilisation massive des
dégradés, des réflexions, ainsi que des roues dentelées comme écussons. Il est
intéressant de remarquer que lors de l’ouverture d’un site web la combinaison de ces
trois aspects nous fait immédiatement penser que le site est de la dernière génération et
qu’il doit faire partie de la nébuleuse web 2.0. Les dégradés, les réflexions, permettent
de rendre un sentiment de réalité, de solidité. Ils nous permettent également de relier les
éléments graphiques à des sensations du monde réel, par exemple les boutons brillants,
transparents rappellent l’eau, et donc la pureté. De plus les dégradés permettent de
casser la monotonie des gros à-plats de couleurs et donnent également une impression
de relief, de réalité, et permettent aussi de résoudre les problèmes liés à des contrastes
trop fort entre couleurs. Lorsqu’ils sont utilisés dans le fond des pages, ils permettent de
distancier le contenu par rapport au fond, permettant ainsi de mettre en avant
l’information.
60
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Un dérivé des dégradés, également très utilisé, est la réflexion. Ce reflet est placé
en dessous des éléments, comme s’ils étaient posés sur une table polie. Cet élément se
retrouve même sous les logos, ce qui va à l’encontre des règles traditionnelles, comme
nous le verrons ci-après. Il est à noter que la plupart de ces évolutions ont été initiées
par le site Apple.fr, souvent cité en exemple comme faisant montre d’un design très
abouti. Malheureusement cette reconnaissance professionnelle apporte de moins en
moins d’originalité. Certains concepteurs se contentant d’adapter le style ‘aqua’
popularisé par le système Mac Os X.
Les écussons dentelés sont un des seuls éléments qui ne soit pas présent sur le
site Apple. Ils sont pourtant très utilisés pour mettre en avant une information, et sont
instantanément reconnus par l’utilisateur, comme les autocollants annonçant une
promotion sur un article. Ils sont donc a double tranchant, permettant de promouvoir un
produit mais le comparant peut être par la même à un produit ‘discount’ dont la qualité
serait moindre.
Ainsi, le style 2.0 se définit par une charte simple, ainsi qu’une identité graphique
représentative de la marque et mettant en avant très fortement les noms, les slogans et
les logos. Ces règles de création sont dépendantes des nouvelles philosophies marketing,
mais pas seulement. En effet l’évolution technologique a permis également de faire
évoluer la création graphique sur Internet.
- Les évolutions technologiques au service de la création
graphique
Les interfaces web 1.0 utilisaient généralement tout l’écran pour afficher de
l’information. Les évolutions technologiques liées à la taille de l’écran ont permis aux
designers de s’affranchir de cette contrainte et de réaliser des interfaces placée dans la
page, mais laissant des marges conséquentes. La plupart de sites sont maintenant
centrés, ce qui renforce l’aspect simple, pratique souvent recherché par les sites web 2.0.
Cette simplicité est également retrouvée dans la mise en page du site.
D’interfaces fortement délimitée, avec beaucoup de colonnes, issues du monde de la
presse, les designers sont passés à de moins en moins de colonnes. Ici la création
s’affranchit totalement de celle des magazines et des journaux dans laquelle elle puisait
souvent son inspiration.
La taille des bandeaux supérieurs s’est également beaucoup agrandie, permettant
de marquer encore plus l’identité de la marque ou du produit et de centraliser les
éléments graphiques décoratifs. La taille maximum des images, autant du point de vue
des kilo-octets que de la résolution est augmentée par la généralisation du haut débit et
des écrans en 1024x768. Une séparation très claire entre le contenu informel et la
représentation graphique de la marque permet également à l’internaute de bien séparer
les contenus et donc de piocher l’information qu’ils désirent sans se sentir dirigé. De plus
il démarre l’expérience par une représentation très forte de l’identité du site. Cette
attitude forte, simple, honnête est tout à fait dans l’esprit 2.0.
La taille du texte est également de plus en plus grande toujours pour les mêmes
raisons. L’augmentation de la taille des écrans permet de mettre en avant plus de
contenus, de faciliter la lecture de l’internaute. Le phénomène de zappage sur Internet
oblige également les créateurs à attirer l’œil de l’utilisateur, ce qui est possible en
utilisant des écussons, des logos plus gros, mais également en augmentant la taille du
texte. De même que pour l’utilisation de couleurs acidulées, les textes de grande taille ne
fonctionnent que grâce aux contrastes avec les textes plus petits. En effet il serait
illusoire de penser qu’utiliser un corps de 14 ou 16 point sur tous le site augmenterait le
nombre de visiteurs. Comme pour l’édition papier, les gros titres, les promotions doivent
être mises en avant, au détriment des textes moins importants. Les titres des articles,
61
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
dans les blogs par exemple, suivent également une tendance très présente dans les sites
2.0, caractérisée par l’utilisation d’une typographie à empâtement de type ‘Georgia’ ou
‘Times New Roman’ dans un corps très large, 16 ou 18 points. Ici le texte devient
graphique, ces fontes étant assez complexe.
Il est donc clair que les évolutions technologiques sont ici au service de la création
graphique, les designers ayant pu s’affranchir des contraintes très fortes liées au web
1.0. De plus, dans la mise en page comme dans le style graphique, il est clair que c’est la
simplicité qui doit prédominer. L’ergonomie ne déroge pas à cette règle.
- Ergonomie & utilisabilité
L’ergonomie web 2.0 est grandement facilitée par les nouveaux standards
graphiques mis en œuvre. La navigation et l’accessibilité sont de plus en plus au cœur
des préoccupations des designers. Ainsi les menus de navigations sont visibles en
permanence, et sont clairement identifiables comme tels. Les sites collaboratifs étant
souvent très riches en contenus hétéroclites, à destination de communautés et groupes
sociaux très différents, la navigation doit permettre à l’internaute de savoir où il se
trouve, où il peut aller et quel sont ses options. Graphiquement, les menus se
désolidarisent de plus en plus des contenus, de par leur coloris, leurs contours, etc.
Il a été souvent séparé l’esthétique de l’ergonomique, l’un se faisant souvent au
détriment de l’autre, et le web 2.0 est à mon avis l’application d’une réunification de ce
lien trop souvent brisé. En réunissant les fonctions de directeurs artistiques et de
développeurs, les concepteurs multimédias ont désormais toutes les cartes en mains
pour réaliser des interfaces belles mais également facilement utilisable. Ainsi, Thérèse
Migan du groupe SQLI, parle de deux approches qui sont amenées à se retrouver,
« l’idéal artistique » qui révèle l’expression personnelle du concepteur, et « l’idéal de
l’ingénierie » qui fournit des solutions aux utilisateurs. »29
Il est clair à mon avis qu’il existe une relation très forte, même si elle a été
souvent niée entre esthétique et utilisabilité. Les travaux de Kurosu et Kashimura30 le
prouvent dès 1995, en s’intéressant aux guichets automatiques des banques nippones.
Ces études ont pour résultat un coefficient de corrélation de 0,59 (0 : aucune relation,
1 : corrélation parfaite) entre la perception qu’ont les utilisateurs de la facilité à utiliser le
produit et leur perception de l’esthétique. Là encore on a opposé à cette étude des
facteurs culturels qui ont été balayés par Tractinsky qui, en 1997, pensait trouver dans
des cultures plus tournées vers l’action que l’esthétique un facteur de corrélation plus
faible. Il n’en était rien. En 2004, Tractinsky décide d’approfondir ses recherches et de les
appliquer aux sites web, et met en lumière l’existence d’une esthétique classique,
regroupant les notions de beau, propre clair, mais également d’une esthétique
expressive, qui regroupe les dimensions originale et créatives. L’esthétique classique
étant celle qui se rapproche le plus de l’utilisabilité 31.
D’une manière générale, l’ergonomie devient de plus en plus importante pour les
graphistes et les développeurs. Depuis les débuts d’Internet, forcément légèrement
anarchique, il est observable de plus en plus souvent une standardisation tant du point
des vue des langages que de l’ergonomie. Cette standardisation ainsi que la prise en
29
MIGAN, Thérèse, (2006, Sept.) « Ergonomie et graphisme des sites Web : un renouveau des questions
esthétiques». Sur Ergonomic garden. Consulté le 20/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2006/09/26/12-ergonomie-et-graphisme-dessites-web-un-renouveau-des-questions-esthetiques
30
Ibid.
31
Ibid.
62
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
compte grandissante des problématique d’accessibilité rend ainsi beaucoup plus facile la
navigation et de plus en plus rares les ergonomies fantaisiste.
- Accessibilité
L’une des problématiques majeures qui est au cœur des solutions apportée par les
web agency concerne de plus en plus l’accessibilité des sites web aux personnes soufrant
d’un handicap. Que celui-ci soit moteur, visuel ou auditif, le concepteur web se doit
d’intégrer des solutions afin de permettre à chacun de jouir du service proposé. Dans ces
conditions le web 2.0 change-t-il la donne, et quelles sont les solutions proposées ?
Le web 2.0 étant par essence un service qui est proposé au plus grand nombre, et
particulièrement à un grand nombre de minorités qui forment la longue traine,
l’accessibilité des sites web à chacun prend une dimension beaucoup plus importante. Or,
en parallèle des travaux du W3C afin de généraliser l’utilisation de solutions permettant
par exemple aux navigateurs en mode texte d’interpréter des sites web 2.0, force est de
constater qu’avec l’arrivée de nouveaux standards, dont AJAX est le plus représentatif,
l’accessibilité n’est pas au cœur des problématique. AJAX est un bon exemple car il est
souvent cité comme étant l’avenir des langages de développement sur Internet, or son
utilisation du JavaScript ainsi que de nombreux modules s’imbriquant les uns dans les
autres rend très difficile son interprétation par des navigateurs textuels.
Le web 2.0 force ici le concepteur à se tourner vers d’autres projets, souvent issus
de l’informatique libre, comme Hijax par exemple, qui est un dérivé d’AJAX mais qui
prend en compte ces problématiques. Dans ces conditions, on observe bien que
l’évolution des technologies et des marchés force chacun à se forger sa propre
expérience et à aller chercher des savoirs par lui-même. Or c’est par cet exemple qu’est
pointée toute la problématique inhérente au web 2.0. En effet celui-ci offre des services
professionnels permettant aux amateurs de réussir à développer n’importe quel contenu
et à en faire sa propre création, mais qui restera toujours fruit de la réflexion d’un
amateur. Les solutions professionnelles seront donc toujours réalisés par des
professionnels, et c’est la toute l’illusion du web 2.0.
Le logo web 2.0
- Analyse
La création graphique appliquée au web 2.0 échappe à un certain nombre de
règles traditionnelles, l’exemple le plus frappant étant celui du logo, a fortiori dans la
création de l’icotype, la partie graphique du logo. Les raisons en sont multiples, mais
viennent souvent du fait que de plus en plus de concepteur multimédias engagés dans
les agences de communication ne sortent plus d’écoles d’art mais de formation plus
généralistes.
Ainsi selon le sémioticien Jacques Fontanille, « le logo désigne (…) une identité,
mais par la combinaison d’inscriptions alphabétiques lisibles, de figures iconiques et de
symboles, il s’efforce aussi de la décrire, d’en fixer les traits principaux. En outre, la
personne dont il engage la responsabilité est une personne morale et collective. Mais le
logo fait encore autre chose, que la signature ne fait pas : il problématise et invente au
moins en partie l’identité de la personne morale. Comme il ne peut tout dire de la
collectivité qu’il désigne, il transforme cette identité en un problème, problème auquel il
63
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
apporte une solution »32. Ainsi le logo n’est pas seulement un moyen mnémotechnique
de se souvenir d’une marque ou d’un produit mais doit également représenter les
problématiques intrinsèques à l’entreprise le tout de manière schématique. Or il est
frappant de constater qu’une majorité de logos de sites web 2.0 sont d’une part très
semblables mais ne semblent pas porter en eux de questionnements identitaires ou de
schéma culturel fort.
Beaucoup de logos, comme par exemple Skype ou Wilogo se résume à l’utilisation
du texte, agrémentée d’un léger travail sur les contours, mais restent souvent dans une
optique de dénomination. Par exemple le logo Skype utilise majoritairement le bleu,
couleur adaptée pour un service high tech, novateur. Ce logo reste bloqué à la diffusion
d’un message de type ‘nous somme une entreprise proposant un service novateur’.
Fig 1. Logo de l’entreprise Wilogo
Au contraire, le logo de Wilogo est blanc et rouge, et ne comporte que le nom de
l’entreprise. Le blanc est l’addition de toutes les autres couleurs, afin de créer la pureté.
Ainsi le blanc résume l’esprit Wilogo, à savoir le fait que des talents très différents,
combinés ensemble créent la perfection. Le mot ‘Wi’, consonance positive porte donc le
nom du site, de la communauté, mais également sa signification. Le vocable ‘logo’ est en
rouge, couleur chaude par excellence, liée à la passion, la conquête, et principalement
utilisée pour la publicité. Ainsi la communauté crée la perfection, des logos où la raison
se dispute à la passion. On a ainsi un logo 2.0 qui est porteur d’une identité très forte, et
dont l’identité 2.0 est renforcée par l’utilisation des dégradés ce qui lui donne un effet
moderne.
Une autre catégorie de logos 2.0 ajoute au travail typographique un élément
décoratif rappelant le nom de l’entreprise. C’est le cas de Myspace, qui rajoute quelques
personnages stylisés afin de donner au texte une illustration permettant de mieux saisir
l’identité de la marque. Ainsi les logotypes des grands groupes, ayant à leur disposition
de vrais graphistes semblent tout à fait en accord avec les règles de création. Néanmoins
la multiplication des start-up et la facilité avec laquelle il est possible de mettre un site en
ligne et de démarrer son entreprise font que bien souvent le logo est réalisé par des non
spécialistes. Dans ces conditions, les éléments graphiques rajoutés en plus du texte n’ont
pour fonction que de répéter visuellement le discours typographique.
Fig 2. Logos Fruitcast & 3bubbles
32
PIGNIER, Nicole, (2007, Avr.) « Les logos du web 2.0 vus par une sémioticienne ». Sur Designers Interactifs.
Consulté le 20/04/07.
http://www.designersinteractifs.com/site/index.php?2007/04/07/76-les-logos-du-web-20-vus-par-unesemioticienne
64
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
C’est le cas par exemple de Fruitcast, un moteur de recherche de podcasts. Le
logo consiste en une tranche de pastèque, accolée au nom de la marque. On a ici une
référence à l’acidulé, à la vitamine, qui certes donne une connotation positive à la
marque mais ne renseigne en rien sur son activité, qui est simplement décorative. On a
également l’exemple de la société 3 Bubbles, créatrice de communautés de veille
technologique. Le logo consiste en 3 bulles de bandes dessinées, mis en forme selon les
principes du style 2.0. Ainsi comme l’énonce Nicole Pignier, sémioticienne, « En aucun
cas l’identité ne se pose ; elle se montre toute faite, sans enjeu ni problématique et
satisfaite de son jeu de mots. »33 L’important semble ainsi de montrer l’appartenance au
mouvement web 2.0, ressenti comme supérieur à la création d’une identité de marque.
Ce choix peut être également intelligent, dans le sens où c’est justement le fait d’avoir
une identité visuelle 2.0 qui peut permettre à l’entreprise de se démarquer et de se
définir comme pourvoyeuse d’un service nouveau même si celui-ci reste très simple. Un
moteur de recherche de podcasts, comme Fruitcast par exemple, n’est pas vraiment un
exemple de service novateur, sa seule originalité étant qu’il recherche des contenus 2.0.
Nicole Pignier est à ce propos particulièrement négative : « Le manque de recherche
graphique, plastique, souligne une déficience identitaire sans aucun doute, pour la
plupart des logos du web 2.0. »34.
65
Fig 3. Logo de la fondation Wikipedia
Ce constat péjoratif ne s’étend donc pas aux plates formes plus professionnelles
mais plutôt à la profusion de jeunes start-up. Par exemple le logo Wikipedia, qui n’utilise
pas les effets de reflets est un bon exemple de réussite d’un logotype. Il consiste en un
globe en forme de puzzle dont chaque pièce contient une lettre d’un alphabet différent. Il
est facile d’y repérer les notions de communauté, dont chaque pièce simple assemblée et
articulée avec les autres dessine la forme parfaite, le globe. Le globe renvoie également
à l’image de la Terre, suggérant l’idée que la communauté s’étend sur la planète entière.
Le choix des caractères présents sur le logo n’est également pas anodin, l’oméga grec est
un symbole très fort, en mathématique par exemple c’est celui de l’univers des possibles.
Le globe n’est néanmoins pas complet, ce qui laisse entendre que le travail n’est pas fini,
qu’il reste des connaissances à explorer, et enjoint l’utilisateur à rejoindre la
communauté et à partager ses connaissances. Les couleurs, gris foncé sur gris clair
soulève une idée de cohésion, de continuité, rassurant ainsi l’internaute. Néanmoins, cet
icotype s’éloigne des règles traditionnelles de création de logos. En effet d’un graphisme
stylisé, simplifié, on passe de plus en plus à des logos complexes, où les surfaces sont
texturées.
A travers cette analyse, il est clair que les logotypes peuvent véhiculer un grand
nombre de concepts et d’empreintes de l’entreprise ou de la marque. C’est bien ces
valeurs qui sont souvent peu véhiculées par les logos des sites 2.0, certes de second
plan, mais qui forment la majorité des sites à l’heure actuelle. Ce phénomène pouvait
33
PIGNIER, Nicole, Op. Cit
34
Ibid
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
exister également dans les années précédentes, sur les sites traditionnels, néanmoins la
facilité qu’à tout à chacun de créer son interface web, son blog, lui fait souvent croire que
la création d’un logo peut être laissé à des amateurs, d’où le succès des solutions
crowdsourcing, comme par exemple Wilogo. Les déficiences apparentes des logos web
2.0 peuvent également être attribuées aux différences criantes que ceux-ci ont avec les
règles traditionnelles de création de logotypes.
- Différences avec les règles traditionnelles
A l’origine destinée à l’édition papier le logotype se devait d’obéir à des règles
précises. Néanmoins, avec l’arrivée du web 2.0 qui devient un média à part entière et,
nous l’avons vu, s’affranchit des règles d’écritures de la presse écrite, Internet devient un
espace où les règles traditionnelles du graphisme sont en bouleversement. Dans ces
conditions, le manque d’inspiration qui est pointé par les sémioticiens de l’image
imprimée existe il vraiment ? Le web 2.0 n’a-t-il pas créé ses propres règles graphiques
de création, dont l’étude est encore balbutiante ? En effet, ces sites rendent le
consommateur, la communauté, actrice de ses propres services. Or le phénomène de
longue queue rend les communautés de plus en plus diverses et de ce fait, de plus en
plus spécifiques. Il est donc difficile de choisir un logotype qui correspondrait à un
consommateur type, c’est plus un style graphique identifié comme 2.0 qui permettrait de
rassembler le plus de consommateurs potentiels.
De plus l’évolution des technologies permet l’utilisation d’une palette de couleurs
beaucoup plus large. En effet, les logos des années 1980 à 2000 se devaient d’utiliser de
nombreux à-plat de couleurs et de limiter le nombre de couleurs à 2 voire 3. Ceci afin de
tenir compte des performances des imprimantes et des quadrichromies beaucoup moins
fines. Or la plupart des sites développées à l’heure actuelle ont une durée de vie plutôt
courte, et communiquent essentiellement via le web, très peu sur support papier. Il est
donc possible de s’affranchir de la sacro-sainte règle du ‘pas de dégradé dans un logo’
afin de créer une révolution graphique. Le web 2.0 apparaît ainsi comme non seulement
une évolution du point de vue technologique et social mais également créatif. Ces
dégradés sont d’ailleurs porteurs d’une des notions les plus marquantes du web 2.0, celle
de fluidité, de continuité dans le flux des informations. Dans les nouveaux logotypes web,
pas ou peu de contrastes, et une impression de légèreté, renforcée par les effets de
reflets souvent utilisés.
Ce changement, voire ce bouleversement, des règles de création des icotypes,
peut donc être attribué à un changement de la construction de la marque en tant que
telle. En effet, comme l’énonce Naomi Klein35, le logo est le langage qu’a la marque pour
communiquer non pas sur un produit mais sur sa philosophie. Dans ces conditions,
l’évolution psychologique des mentalités se ressent également sur Internet, et ne
constitue pas forcément un recul du talent des créateurs graphiques.
b. L’utilisation de plates formes automatisées de conception
L’arrivée de nouvelles technologies web amène également une nouvelle
problématique pour les web agency. Les plates formes de conception automatisées,
qu’elles soient tournées vers les sites (comme les CMS) ou les blogs (comme Wordpress,
par exemple) vont-elles participer à plus ou moins brèves échéance à l’effondrement du
marché ? Encore minoritaires et peu utilisées par les professionnels, celles-ci sont
promises à évoluer et à permettre à chacun de disposer d’un site ou d’un blog de qualité
professionnelle. Les web agency doivent elle donc dans ce cas se spécialiser dans la
35
KLEIN, Naomi, No logo : la tyrannie des marques, Paris, J’ai Lu, 2004, 573p
66
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
création de sites à la chaine en utilisant ces CMS ou au contraire tenter d’endiguer ce
flot ? Nous répondrons à ces interrogations dans la suite de cette étude.
CMS
Les CMS (Content Management System, Systèmes de Gestion de Contenu) ont
des avantages très nombreux. D’une part ils permettent de mettre en place très
rapidement et facilement des sites web complets et totalement administrables. La plupart
du temps gratuits, ils répondent ainsi aux attentes des entreprises désirant disposer
d’une communication sur Internet à moindre cout, à fortiori celles qui proposent des
services web 2.0, car comme nous l’avons vu, le principal objectif sera d’avoir de faibles
couts de production afin de pouvoir rester viable avec peu d’investissement de départ. La
tentation est donc grande, souvent pour les web agency elle mêmes, de proposer à leurs
client des solutions CMS open source. Elles peuvent ainsi se spécialiser dans les aspects
graphiques, ergonomiques, et utiliser des solutions techniques ayant fait leur preuves.
Les CMS sont le plus souvent très personnalisables du point de vue graphique, à
condition de rester dans un schéma de navigation sous forme de menus et de rubriques,
donc assez traditionnel. Pour les sites plus complexes, elles sont bien sûr le plus souvent
insuffisantes, mais c’est généralement la simplicité que recherchent les clients.
Le web 2.0 mettant l’internaute lui-même au cœur de la rédaction des contenus
du site et de la démarche de mise à disposition de l’information, le CMS est au premier
abord un mauvais choix pour ce genre de sites, et ce à plusieurs égards.
Tout d’abord, s’il est vrai que les CMS sont particulièrement intéressant pour les
webmasters ayant en charge des sites institutionnels dont les contenus sont fixés et
réfléchis par des comités éditoriaux, il est clair que la plupart des sites 2.0 étant basé sur
la création d’un service nouveau, ce n’est pas un outil standardisé qui sera utile aux
réalisateurs de l’interface. Dans ces conditions, la spécificité de ces interfaces rend
caduque l’utilisation des CMS. De plus, l’autre avantage des systèmes de gestion des
contenus est la facilité pour le webmaster de mettre à jour les contenus du site. La
encore, la philosophie propre au web 2.0 veut que ces contenus soit créés et mis à jour
directement par les utilisateurs. Il est donc ici démontré que les CMS ne sont pas très
intéressant dans la création de sites dédiés à un service web 2.0. Néanmoins il faut
concéder qu’il existe des solutions open sources permettant de copier un service existant,
comme Digg ou de.ico.us grâce à une plate forme de conception automatisée. Ces
interfaces, comme Pligg, sont intéressantes dans le sens où elles peuvent être mises en
place très rapidement et ne sont qu’une partie du site qui peut être réalisé ensuite par
les développeurs eux-mêmes.
Au contraire, il existe un point où les systèmes de gestion de contenu sont
réellement intéressant et permettent à la web agency de créer une réelle valeur ajoutée
par rapport à leurs services et à leurs concurrents. Dans le cas de la création de blogs,
en compléments d’un site institutionnel, des solutions comme Wordpress ou Dotclear
permettent de mettre en place des systèmes très performants, facilement
personnalisable par l’agence de communication afin d’en faire un produit spécifique à
l’entreprise. Ces plates formes très complètes, dotées de très nombreux plugins
permettent de s’affranchir d’un développement laborieux et complexe, tout en réalisant
d’un autre coté une interface institutionnelle complète, le tout à moindre cout. Ainsi
l’agence peut ne pas baisser ses prix tout en proposant un avantage certains par rapport
à ses concurrent ainsi qu’un ancrage total dans les nouveaux avantages du web
communautaire, déjà énoncés plus haut.
Le dernier extrait d’entretien que nous allons utiliser concerne l’utilisation des CMS
par un professionnel qui pourrait en avoir besoin de la cadre de sa communication sur
Internet. Nous allons donc pouvoir observer quelle est véritablement la réputation qu’ont
67
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
les systèmes automatisés sur ceux qui ne sont pas forcément immergés dans les
nouvelles technologies.
[...]
B.R. Et maintenant en tant que professionnel, qui a besoin d’une visibilité sur
Internet que pensez vous des CMS, vous qui n’avez pas de compétences pour
créer un site, pensez vous que ce genre de solutions peut être intéressante ?
La encore on rejoint le débat du professionnel contre l’amateur, les utilisez
vous ?
F.R. Réellement, non. Je les utilise en fait pour créer des sous parties
complémentaires à mon site professionnel, mais je ne pense pas qu’on puisse
faire un site uniquement la dessus. Ce genre de logiciels est quand même
assez limité. Je ne connais pas tout, peut être que des solutions existent sans
que je les connaisse. Ca a quand même l’intérêt de mettre en ligne très
rapidement des contenus. Mais dès qu’on veut un peu sortir des sentiers
battus, un vrai site est nécessaire. C’est un peu le problème de l’informatique.
On peut tout faire, mais jusqu'à un certain point. L’Internet c’est pareil, un
amateur ne pourra jamais être au niveau d’un professionnel.
[...]
Le flash dans le web 2.0
L’utilisation du Flash a souvent été vu comme lourde, statique et peu adaptée à la
création de sites web 2.0. Or les nouvelles fonctionnalités apportées par le Flash
Remoting par exemple ont permis d’ajouter aux sites de première génération des
fonctionnalités tout à fait adaptée aux nouvelles attentes des internautes. On trouve ainsi
de plus en plus de blogs, de sites communautaires en Flash. Nous allons ici analyser un
exemple de site web 2.0 réalisé en full flash, c'est-à-dire sans html et en percer les
avantages et limites.
Il existe de plus en plus de sites communautaires en Flash. De par son aspect
ludique il est souvent utilisé pour des campagnes publicitaires, comme celle réalisées par
l’INPES afin de sensibiliser les jeunes aux méfaits du tabac, ou de la consommation
abusive de sucre. Le site Toxic Corp est une campagne ironique (Le slogan a d’ailleurs
fait débat au sein de la blogosphère : « Le tabac tue un fumeur sur deux. L’industrie du
tabac compte sur vous pour les remplacer ») destinée à la lutte contre le tabac. Celui-ci
permet de s’inscrire dans la communauté et de discuter avec les autres connectés. Il
permet au personnage de se promener dans une usine de fabrication de cigarette et de
s’informer sur les différents poisons présents. Grâces à des contenus Rich Médias
(Vidéos, textes, etc...) L’internaute peut s’informer de façon différente et en sortant du
cadre moraliste habituellement donné par les publicités traditionnelles. L’aspect
communautaire lui permet également d’une part de discuter avec les autres utilisateurs,
mais l’utilisation de Flash rend les discussions beaucoup plus réalistes. En effet c’est
lorsqu’il s’approche avec son personnage, comme dans un jeu vidéo, que le jeune
internaute peut voir l’avatar de l’autre membre, qu’il peut ensuite démarrer une
conversation. Le site est réellement mis en avant par le Flash lui même, en effet cet
ajout d’interactivité lui permet de toucher plus facilement les jeunes. Bien sûr c’est
également le ton particulièrement cynique et décalé qui rend cette campagne novatrice,
mais l’ajout d’une composante graphique et ludique est également un vecteur du
message. La où le flash montre ses limites c’est dans la pérennité de ces solutions. En
effet, particulièrement adapté pour des campagnes ou des communautés ayant une
durée de vie limité, force est de constater que sur la durée, le choix de la création d’un
site flash peut être mauvais. En effet, à chaque fois que l’internaute veut se connecter à
68
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
sa communauté il doit passer par des interfaces aux temps de chargement plus lourds.
Ainsi l’interactivité est en premier lieu un avantage, il est en effet intéressant de se
promener avec son avatar. Elle devient par la suite un poids, une fois la surprise passée
on trouve souvent plus pratique de naviguer via des hyperliens. D’ailleurs ce site datant
d’environ un an est maintenant totalement vide.
Dans la même lignée, le site de rencontres Lovelee.com est un des rares réalisé
en flash. Il s’écarte des écueils généralement constatés dans les autres sites développés
avec cette technologie. En effet les composants graphiques sont très légers en termes de
kilooctets, permettant aux contenus de s’afficher très rapidement. De plus les modules
ne se mettent à jour que partiellement, on a toujours une partie de l’écran qui est
statique. Enfin il intègre une navigation possible par l’url ce qui fait souvent défaut aux
sites flash et AJAX. L’utilisateur peut ainsi garder en favoris certaines parties ce qui est
universellement reconnu comme facilitant le retour des internautes sur le site.
Au travers ces exemples, il est clair qu’un site 2.0 peut tout à fait être réalisé en
full flash. Néanmoins, l’avantage de la réalisation de sites avec cette technologie, comme
l’implémentation d’animation et d’éléments graphiques plus complexes peut desservir la
navigation, la plupart des internautes préférant privilégier la facilité d’accès, et la rapidité
de navigation, à l’esthétique. En dehors de ce point, et sous réserve de bien doser la
complexité, le choix d’une technologie flash pour un site communautaire peut être très
intéressant, notamment par la possibilité d’adjoindre de nombreux contenus Rich Médias
au site.
2. Services multimédia d’une entreprise
Dans les entreprises dont l’activité est basée ou non sur l’exploitation d’un service
Internet, comment est-il possible de migrer de solutions web 1.0 vers la proposition de
services 2.0 ?
Si le blog semble à première vue une des meilleurs solutions afin de moderniser la
communication Internet, les services multimédias des entreprises se doivent de réfléchir
à des concepts novateurs. C’est à ces problématiques que nous répondront ici. Les
évolutions que peut apporter à son offre une entreprise en prenant en compte le web 2.0
sont de deux types. Tout d’abord les évolutions technologiques, comme l’utilisation des
flux RSS ou de l’AJAX, et ensuite les applications des nouveaux services au sein même de
l’entreprise.
a. Nouvelles Technologies
Les deux aspects qui sont à mon avis les plus intéressant pour une entreprise du
point de vue 2.0, et que les services multimédias se devraient d’ajouter à tout site sont
les flux RSS d’une part, mais également une de leurs applications : les widgets. D’une
manière générale l’application des technologie web 2.0 les plus élémentaires, comme
XHTML ou les CSS, sont également très importantes mais ne sont de toute façon pas
sujettes à débats. Il est clair que ces langages sont l‘avenir du développement de sites
web.
Les flux RSS sont un plus non négligeable, car ils permettent de tenir au courant
les clients de toutes les évolutions du site. Les sites des grands quotidiens sont ici
parfaitement exemplaires. En effet, ils ont immédiatement pris en compte cet outil et
permettent à l’internaute de se tenir informé et de revenir toujours sur le même site
suivant sa sensibilité et ses préférences. En s’intégrant sur les lecteurs RSS ou les pages
d’agrégateurs, ils permettent de générer un trafic certains. Les entreprises comme les
plates formes de ventes en lignes se devraient d’utiliser de tels outils afin de permettre
aux clients de suivre l’évolution de leur site préféré et de créer une envie d’acheter. A la
69
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
différence de la newsletter, souvent survolée, le flux RSS fait partie d’une réelle
démarche volontaire de l’internaute de s’informer sur la vie de l’entreprise.
Malheureusement ces outils sont encore peu utilisés, les deux plus grandes plates formes
de vente en ligne, Amazon et eBay ne proposant pas encore de flux RSS de news. Une
entreprise française fait ici figure de précurseur, il s’agit du site ‘Vente Privée’ proposant
d’acheter à prix soldés des objets d’une certaine marque pendant une courte période,
environ deux jours. Ce site propose en effet à ses utilisateurs de télécharger un widget
lui permettant de suivre les ventes en cours directement sur son bureau d’ordinateur. Il
permet ainsi à l’entreprise d’être présent à tout moment à l’esprit de son utilisateur. Or,
à la différence de la refonte d’un site web en utilisant de nouvelles technologies, le flux
RSS présente l’avantage certain de ne pas modifier l’architecture totale du site. Il suffit
juste de mettre en place et de prévoir un employé qui sera chargé de sa mise à jour
constante.
Nous l’avons vu plus haut, l’ajout d’un blog corporatif est également une
manipulation simple et dotée d’un très bon rapport entre l’effort fourni et le retour des
internautes. La difficulté pour les entreprise à migrer un site entier en web 2.0 est donc
réelle mais l’ajout de certaine technologies permet facilement de se voir accorder un
label ‘web 2.0’ très intéressant du point de vue marketing.
b. Le web 2.0 au service de la communication intra entreprise
Le web 2.0 a bien entendu des implications très importantes dans la
communication de l’entreprise vers son client, mais peut également être le moteur de
l’activité et de la communication au sein même de celle-ci. Ainsi certaines entreprises
utilisent des plates formes de blogs, des wikis, etc.
Ainsi comme nous l’avons vu avec les logiciels de CRM 2.0, les intranets peuvent
être grandement améliorés par l’utilisation d’outils collaboratifs et communautaires. Ainsi
la possibilité offerte par les services web 2.0 d’échanger, de communiquer très facilement
et surtout sans réelle perte de concentration pour le travail, à la différence du téléphone
par exemple, est très utile et doit donc être mise en place par les concepteurs web au
sein même de l’entreprise. A la différence de l’intranet où c’est encore une pyramide 1.0
de l’information qui est de mise, c'est-à-dire d’un administrateur vers ses administrés,
l’application 2.0 dédiée à l’entreprise fait participer chacun, quel que soit son niveau
hiérarchique. Il est également un bon indicateur de l’influence qu’a chacun sur ses
collègues en dehors de sa position hiérarchique. Les utilisateurs d’un blog ou d’un wiki ne
sont également plus réunis uniquement par leur affectation mais aussi par leur gouts
personnels ce qui permet ici encore à un observateur de prendre en compte les capacités
de chacuns.
70
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Fig 4. Différence entre les formes de communication en entreprise. (Source : innovationcreators.com)
Le graphique ci-dessus montre ainsi que les conversations basées sur les blogs
ainsi que les documents collaboratifs rédigés dans des wikis dédiés permettent d’avoir un
retour asynchrone, ce qui facilite la réflexion sur un sujet au contraire du téléphone qui
force à répondre très rapidement. De plus l’interruption du ‘flux du travail’ est minime, et
l’information est réutilisable par tous, via des taggage, et n’est plus cantonnée à ceux qui
en font la demande expresse.
71
Le web 2.0, à travers tous ces aspects est donc une composante critique qui
devrait être prise en charge par les entreprises. Néanmoins, en dehors des sociétés déjà
intégrées dans ce milieu, les théories et les technologies du web 2.0 ont souvent du mal
à se faire une place au sein de l’entreprise. Dans ces conditions c’est bien aux
concepteurs eux-mêmes d’informer sur ces nouvelles capacités, souvent méconnues et
taxées de difficultés de développement. Ce qui est paradoxal, car la philosophie du web
2.0 est bien justement de rendre l’outil aux utilisateurs et en plus le réserver aux seuls
développeurs ou professionnels au sen large.
3. Chercheurs & Artistes
a. Chercheurs
Les nouvelles technologies Internet vont plus loin que celles liées au web.
L’intelligence ambiante, par exemple va à terme permettre de développer de nouvelles
applications et services, et permettre d’articuler Internet au cœur de la vie de chacun.
Nous allons ici dresser un état des lieux de la recherche en cours, et des perspectives qui
sont offertes.
Intelligence ambiante
L’intelligence ambiante est un concept qui regroupe plusieurs technologies. Afin de
ne plus centrer l’utilisation des machines vers l’utilisateur, les chercheurs ont développé
des objets autonomes, capables d’interagir directement avec leurs environnements. Ces
objets se connecteront automatiquement au réseau Internet mais ne limiteront plus
l’expérience de l’utilisateur à son seul écran. Celui-ci pourra ainsi recevoir des
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
informations audibles et voir communiquer différents objets entre eux. C’est le cas par
exemple du lapin Nabaztag qui peut lire des mp3, des flux RSS et les restituer
directement sous forme sonore.
Ainsi, Internet ne serait plus un réseau de personnes et de serveurs, mais un
réseau d’objet, communiquant entre eux dans un espace virtuel numérique. Après les
mondes virtuels, comme Second Life, l’Internet se fera donc acteur principal de la vie
quotidienne. Cette technologie serait possible par l’utilisation, entre autres de puces
RFID, permettant de tracer chaque objet à chaque instant, ce qui suppose un très gros
investissement qui est actuellement, plus que l’état de la recherche, le principal frein à la
création de ces réseaux d’objets.
Ses objets sont aussi tributaires de la notion de réseau pervarsif, ou ubiquitaire,
dont les implications et les technologies sont actuellement en phase d’élaboration dans
les laboratoires des chercheurs de l’Internet. Cette conception des réseaux tend à créer
une couverture de l’espace international totale. Ainsi la création d’un réseau pervarsif
permettrait à chacun de se connecter en wifi, où qu’il soit sur la planète. Ce concept
rejoint les idées de communauté et de collaboration du web 2.0, en effet un FAI français
propose actuellement à ses clients d’accueillir une antenne relais afin de propager le
réseau, en échange d’un accès Internet gratuit. Ce type d’initiative montre bien que les
aspects collaboratifs se retrouvent dans tous les aspects du web 2.0 ce qui en fait, au
delà d’une technologie, une philosophie, un courant de pensée.
L’un des outils déjà en mis en place et qui préfigure ce que sera l’intelligence
ambiante à terme est le lapin Nabaztag. Ce lapin bionique se connecte au réseau wifi de
la maison, et est ainsi capable de donner la météo, d’informer de l’arrivée d’un mail ou
de jouer des mp3. Il peut également détecter les autres Nabaztag à portée,
communiquer avec eux, ou communiquer avec d’autres lapins situés à n’importe quel
endroit de la planète. Cet objet communicant est ainsi à la fois relié à des machines et à
l’homme. Il communique avec celui-ci de façon parlée ou avec un système de diodes. La
société qui le commercialise, Violet, est spécialisée dans les objets de design
communicants qui restent pour l’instant assez gadgets mais qui sont promis à un brillant
avenir. Afin d’encourager la création de contenus pour son lapin, Violet d’ailleurs ouvert
l’API du Nabaztag afin de permettre à ses utilisateurs de construire leurs propres
fonctionnalités.
L’informatique ubiquitaire va également au delà des gadgets technologiques. On
peut ainsi imaginer une maison dont les éclairages sont automatisés, un réfrigérateur
connecté à Internet qui fait les courses automatiquement, un système de diagnostic
médical automatique des occupants, etc... L’informatique, et particulièrement l’Internet,
se détacherait de l’écran pour s’insérer dans chaque aspect de la vie. Le concept de
technologie calme est également important ici. En effet afin de mieux s’intégrer à la vie
quotidienne de chacun, la technologie se doit de devenir la moins intrusive possible et
effectuer ses opérations de manière autonome. Le parallèle entre ces nouvelles
technologies et le web 2.0 est réel. Par exemple avec la plateforme uBike, qui utilise ces
technologies de réseaux d’objet pour proposer un service web 2.0. Encore à l’étape de la
recherche, le but est de permettre aux cyclistes d’utiliser des objets novateurs leur
permettant de recueillir un grand nombre de statistiques et de s’évaluer par rapport à la
communauté d’utilisateurs. L’objectif de son concepteur, Olivier Liechti (Chercheur en
Informatique à l’IICT, Suisse) est de « de concevoir un service innovant, de construire un
système permettant de le réaliser (en assurant les qualités de service requises) et
finalement de l’évaluer auprès d’une communauté d’utilisateurs importante. »36
36
LIECHTI, Olivier ( 2007, Fev.) “uBike: le Web 2.0 au service des cyclo-sportifs” Sur Maguro.
Consulté le 20/05/07.
http://maguro.iict.ch/blog/?p=14
72
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
A travers ce service, il espère ainsi mêler informatique ubiquitaire et intelligence
collective pour proposer à ses utilisateurs des fonctions personnelles (basées sur ses
propres aptitudes), collaboratives (utilisées conjointement par un même groupe) et
communautaire (qui seront utilisée par l’ensemble des abonnés). La recherche
fondamentale en informatique rejoint ainsi les problématiques web 2.0, montrant que les
réseaux d’objet sont un avenir très probable du web comme nous le concevons.
Web Sémantique
L’autre grande évolution induite par le web 2.0, et qui sera mise en place dans un
web ‘3.0’ est le web sémantique. En effet, aujourd’hui le web est dit ‘syntaxique’ car les
informations sont stockées sous forme de chaîne de caractères et non par rapport à leur
sens. Par exemple une recherche sur Google des mots clés ‘amour’ et ‘love’ ne renvoie
pas du tout les mêmes résultats alors que le sens de ces deux mots est le même. La
volonté des chercheurs en informatique travaillant sur les nouvelles possibilités d’Internet
est donc de créer des systèmes permettant de recherche l’information par rapport à son
sens, et non plus par rapport aux caractères formant le mot. Des initiatives de ce genre
existent déjà, sous formes de moteur de recherche par exemple (kartoo.com) Le web
sémantique fonctionne selon les protocoles du web, il n’est en rien une avancée
technologique mais une utilisation différente des technologies existantes. Les documents
réalisés par le web sémantique sont un ensemble de métadonnées, c'est-à-dire de
données qui décrivent d’autres données. Ces documents ne sont pas utilisables
directement, mais traités par des logiciels qui restituent les informations selon leur sens
et leur contexte.
Le web sémantique est basé sur le langage RDF, qui est un modèle de graphe
permettant de classer les informations en triplets : {sujet, objet, prédicat} obéissant à la
théorie des ensembles. RDF est un système de classification de l’information utilisé par
un grand nombre de bases de données d’information, telles que Wikipedia. Ce langage
sert de base au RDFS, langage d’ontologie utilisée également par le web sémantique.
Une ontologie en informatique est un ensemble de concepts qui peuvent être structurées,
organisées.
Les chercheurs s’appliquent à utiliser le web 2.0 pour développer de nouvelles
applications, mais l’innovation est également de mise dans le monde de l’Art, les netartistes utilisant de plus en plus souvent le web 2.0 pour créer des œuvres novatrices.
b. Art & web 2.0
L’exemple de la création des logos sur Internet pointe la problématique de l’aspect
artistique de la création sur Internet, et ce à deux niveaux. Tout d’abord, si le net-art
existe bel et bien, peut il être appliqué au web 2.0, et ainsi utilisé par les concepteurs
multimédias dans la création de sites web novateurs ? De plus, la création graphique sur
Internet telle qu’elle est pratiquée à l’heure actuelle par les agences peut elle être
assimilée à de l’art ou ne suit elle que les modes, comme nous l’avons vu dans le cas du
logo ?
Le Net Art 2.0
L’Art utilisant le multimédia est particulièrement novateur et moderne. Il existe de
nombreuses œuvres dont le concept et la réalisation se rapprochent de ceux véhiculés
par le web 2.0, en particulier par l’utilisation de technologies existantes afin de créer des
‘mashups artistiques’. Ainsi la Google House, créée par Marika Dermineur et Stéphane
Degoutin utilise des images répertoriées par Google afin de créer une maison virtuelle.
73
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Marika Dermineur, Conceptrice et Développeuse en flash et PHP de l’œuvre,
travaille sur les nouvelles problématiques liées à la création artistique par l’utilisation des
nouvelles technologies. Membre du collectif Incident.net, une plate forme expérimentale
dédiée au Net Art, elle est également enseignante à l’université de Rennes. Stéphane
Degoutin est quant à lui chercheur, designer, mais pas artiste. C’est bien la qu’est la
différence entre les arts numériques et traditionnels. La création d’une œuvre passe par
une connaissance technique pointue, et les créateurs ne sont que peu souvent issus des
circuits des arts appliqués habituels. Ils sont souvent chercheurs avant d’être artiste ce
qui joue un rôle dans leurs créations.
Fig 5. La Google House
En effectuant une recherche, par exemple ‘bed room’ dans l’interface de l’œuvre
celle-ci va « pécher » sur Google les photos en rapport et construit en temps réel une
« maison planétaire » à l’image de chacun des internautes. En effet c’est l’utilisateur luimême qui devient créateur de l’œuvre, démarche tout à fait dans la lignée du web 2.0.
Les pièces de la maison Google se construisent ainsi, suivant un algorithme précis, et des
outils permettent de zoomer ou dézoomer afin de voir la fresque dans son ensemble.
Ainsi la note d’intention des artistes précise que «Googlehouse est une sorte de miroir
déformant du moteur de recherche d'images Google. Ce qui nous a intéressés, c'est la
position centrale des moteurs de recherche qui permettent et contrôlent l'accès à
l'information sur l'Internet, y compris aux images intimes et anonymes trouvées sur les
nombreux sites persos.»37 Ainsi l’internaute peut visiter des maisons situées à des
kilomètres de chez lui de façon anonyme, et avoir l’impression de s’introduire en douce
chez ses voisins.
Ainsi les moteurs web 2.0 deviennent terrains de jeux pour les artistes, leurs
permettant d’innover et de créer des œuvres originales. L’œuvre garde également en
mémoire les recherches effectuées par d’autres internautes, permettant de s’informer sur
les thèmes qui intéressent d’autres amateurs d’art. L’art quitte également le terrain de la
galerie ou du musée pour s’inviter directement chez l’internaute, il devient à cet égard
presque pinko. En effet c’est l’internaute lui même qui crée son œuvre, et qui la reçoit
directement chez lui. Chacun a donc sa propre vision du phénomène, vision d’autant plus
personnelle que l’algorithme est aléatoire et peut créer des pièces gigantesques ou
minuscules.
37
DEMINEUR, Marika & DEGOUTIN, Stéphane (2003, Avr.) « Google House ». Sur googlehouse.net. Consulté le
10/04/07.
http://wwww.googlehouse.net
74
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
L’équipe à l’origine de la Googlehouse a réitéré en 2005 dans la création basée sur
le moteur de recherche de Google. En dotant la plate forme « what are you » d’un
vocabulaire de 500 tendances passées, elle permet de créer à l’infinité de styles de vie.
Elle associe ainsi deux mots sur l’écran comme « punk » et « gigolo » ou
« révolutionnaire » et « décadent ». Lorsque l’internaute clique sur le mot ainsi formé, il
est aussitôt remplacé par un autre. Mais quand il reste statique un certain temps,
métaphore du temps qui passe et du code vestimentaire qui prend de l’importance dans
la vie, la page change. A travers une recherche Google sur les deux mots clés associés,
et souvent antinomique, les auteurs mettent en contraste deux concepts et affichent
donc les images rapportées et référencées par Google pour arriver par exemple à la
superposition d’une musicien rock et d’une nonne. Le tout est accompagné d’une
musique dont le style correspond à celui d’un des mots. Là encore c’est l’internaute qui
décide du devenir de l’œuvre, qui choisit quelle sera l’opposition qu’il veut explorer, de
manière aléatoire certes, mais en gardant un contrôle limité. Les créateurs décrivent leur
œuvre ainsi :
« Les créateurs [de mode], experts en marketing et bureaux de style ne produisent, à
grands frais, que deux nouvelles tendances par an. What Are You?, grâce à sa base de
données de plus de 500 tendances passées, présentes et à venir, génère instantanément
250.000 combinaisons. Il est donc en mesure de produire les tendances des 125.000
prochaines années (soit jusqu’en 127005). Cette confrontation des différentes étiquettes
sociales vise à épuiser toutes les tendances possibles. La juxtaposition de clichés ainsi
produite interroge leur zone d'influence respective et leur marge d'impossible
détermination. »38
Cette œuvre, par son utilisation de l’internaute lui-même s’inscrit donc tout à fait
dans le web 2.0, de plus l’utilisation de technologies déjà développées afin d’en faire une
œuvre originale ouvre la voie à des mashups beaucoup plus évolués que ceux existants
qui sont souvent peu originaux. Les mashups issus de Flickr, s’ils ne dépendent pas d’une
démarche véritablement artistique pour la plupart sont également intéressants. Ils
pointent également le fait que la création artistique n’est plus réservée aux seuls artistes.
En effet la facilité de développement permet de faire passer des messages et des idées
de façon graphique sans posséder de talents pour les Beaux Arts. Dans ces conditions
quelle est la légitimité de ces artistes amateurs ? Leur œuvre peut elle être considéré
comme relevant de l’art ? Selon la définition de Wikipedia, « Philosophiquement, l'art se
définit par sa dimension esthétique : il est une création d'œuvres visant à susciter une
appréciation esthétique positive, c'est-à-dire à plaire et à toucher la sensibilité par leur
seule forme, par leur seule apparence. »39 Philosophiquement l’art peut donc être conçu
par n’importe qui ayant conscience de créer et ayant une idée, une pensée à développer.
Néanmoins, il est à mon avis illusoire de vouloir rendre artistique des exemples
d’applications technologiques dont l’effet est beau, des œuvres comme la Flickr Clock par
exemple restant simple voire simpliste au niveau du message qu’elles tentent de
véhiculer. A la différence de la Googlehouse, dont le graphisme et la réalisation peuvent
sembler dépassés, mais qui sont clairement l’objet d’une recherche et d’une volonté de
faire passer un message.
Une autre tendance du Net Art n’a pas pour prétention de rendre l’utilisateur
acteur de l’œuvre même si l’interactivité est présente. L’enjeu est aussi de faire vivre
l’esprit communautaire, et Ali Miharbi, artiste turc en est un exemple. Son œuvre
38
DEMINEUR, Marika & DEGOUTIN, Stéphane & WAGON, Gwenola (2005, Nov.) « What Are You ? ». Sur Hawaï
Cowboy. Consulté le 10/04/07.
http://hawaiicowboy.free.fr/info.html
39
Collectif (2007) « Art », Sur Wikipedia.
Consulté le 03/03/07
http://fr.wikipedia.org/wiki/Art
75
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
maîtresse, intitulée « Reversing The Conditions » présente une carte du monde dont les
grandes villes sont symbolisées par des arobases. Lors du survol avec la souris il est
affiché le nombre d’habitants à l’origine, en 2002, et le nombre d’habitants actuels. Lors
du clic, l’internaute peut envoyer une bombe afin de tuer 100 personnes. Cette œuvre
symbolise la guerre que se livrent les grandes puissances, guerre technologique qui se
joue entre autre sur Internet. La réalisation est intéressante dans le sens où c’est une
œuvre pérenne qui se construit petit à petit au fur et à mesure que les internautes
visitent le site, depuis déjà 5 ans. Petit à petit les populations baissent, l’auteur se sert ici
des internautes, artistes eux-mêmes en tant que communauté à la différence qu’ici il ne
leur est pas apporté l’œuvre. Au contraire, en apportant sa pierre à l’édifice, l’internaute
construit petit a petit l’œuvre dans son ensemble. Le parallèle est ici facile avec le
crowdsourcing, non plus appliqué à l’entreprise mais à l’art. Le pronétaire devient ainsi le
pinceau de l’artiste et se réapproprie les outils marketings.
Fig 6. Reversing The Conditions
A travers ces études nous pouvons déduire que l’art 2.0 se définit par une
utilisation de concepts marketings, appliquée à la création artistique. C’est donc un
détournement, une forme de révolte des artistes par rapport à l’ordre établi. C’est ici que
le web 2.0 prend à mon sens tous sont intérêt. En effet il donne à chacun les outils de
création, le laissant libre d’en faire ce qu’il veut, une entreprise, une œuvre d’art ou un
programme inutile. L’utilisation des outils marketing se fait également directement par
les artistes, comme par exemple Christophe Bruno qui utilise les Adwords Google pour
faire passer des messages poétiques. En effet, en achetant des mots clés sur Google, il
dispose d’annonce lui permettant non plus de faire sa propre publicité mais de détourner
le système et d’en faire également une œuvre. Ainsi l’outil devenant très facile à
maitriser c’est le concept qui prend le dessus. A la différence des Beaux Arts où c’est
l’esthétique qui prime au premier abord, le web 2.0 est paradoxalement encore plus
porteur de philosophie. Se rapprochant ainsi des artistes non figuratifs dont la
philosophie n’est plus la recherche du beau, mais d’un symbole intéressant.
Le graphisme des sites réalisés par les agences web 2.0 est il de
l’art ?
L’art identifié comme tel ne pose ainsi plus de problèmes. Mais dans cette optique
de pouvoir donné à tout à chacun de pouvoir créer une œuvre graphique sur Internet,
qu’en est-il des sites designés par des directeurs artistiques web. Ceux-ci se différencient
des Net artistes par leur recherche plutôt du beau que de la symbolique. Néanmoins leur
76
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
travail peut il être considéré comme de l’Art ? La différence entre Net Artistes et Web
Designers est elle la même que celle qui se retrouve entre les peintres figuratifs et non
figuratifs ? C’est à cette problématique que nous apporterons ici une réponse.
Une simple recherche sur un moteur des mots clés ‘art’ et ‘webdesign’ ramène
quantité de résultats. La plupart étant des agences de communication se présentant
comme artistique. Force est de constater que plus celles-ci clament et revendiquent leur
coté artistique, plus la qualité de leur réalisation se fait médiocre. Partant du postulat
selon lequel une compagnie artistique, par exemple de danse moderne, devrait posséder
un site répondant à des recherches et des problématiques plus intéressante que celui
d’une entreprise lambda, j’ai donc recherché les agences spécialisée dans des créations
plus avant-gardistes. Par exemple, le site de la compagnie de danse Thor a été réalisé
par un « laboratoire de design digital » du nom de lab[au]. Il s’agit ici d’une réelle
agence artistique dont les compétences touchent au cinéma expérimental, à la danse et
au design multimédia. Leur démarche est tout à fait intéressante, et l’utilisation de l’art
dans le design d’interface est parfaitement maitrisée. Néanmoins elle a tendance à
s’enfermer dans le design de sites à consonance artistiques, dans ces conditions l’art a-til sa place dans la création plus commerciale, publicitaire par exemple ? D’une certaine
manière il est peut être plus consensuel de séparer l’art du marketing, mais le web 2.0,
est à mon avis intéressant parce qu’il mixe toutes les tendances afin de créer un média
nouveau.
L’exploration des annuaires des meilleurs sites, comme par exemple les Favorites
Website Awards est éclairant à ce sujet. Cette interface recense les sites ayant les
chartes graphiques les plus avancées et novatrices. En recherchant des sites web 2.0
parmi les gagnants, le plus intéressant semble être le projet réalisé par KDDI, société de
télécommunication japonaise. La difficulté consiste à trouver dans ces sites novateurs et
par certains rapports artistiques des aspects 2.0. Ici nous avons l’exemple d’une plate
forme qui utilise les compétences d’une communauté afin de créer une œuvre qui sera
observable par l’ensemble des internautes. Cette œuvre n’est pas commerciale à
proprement parler mais intervient dans la communication corporative de la société. Il
s’agit en fait d’une interface permettant à chacun d’uploader une vidéo. Cette vidéo peut
avoir été prise via un téléphone portable, KDDI étant un des leaders de la téléphonie sur
mobile au Japon. Lorsque l’utilisateur envoie une vidéo, celle ci se place à coté de toutes
celles envoyées par la communauté, et l’ensemble forme une image, chaque vidéo
prenant la place d’un pixel d’une énorme mosaïque qui forme également une vidéo. Ainsi
l’Art sert ici la communication corporative, et le message publicitaire de l’entreprise.
Conclusion
A travers cette étude des méthodes et de l’impact de l’arrivée du web 2.0 au sein
de la communauté des réalisateurs multimédia au sens large il apparaît que tout comme
pour les stratèges, ces nouvelles technologies entrainent nombres de controverses mais
finalement une façon de travailler et de réaliser des applications qui diffèrent peu de
celles qui s’appliquaient au web 1.0. A la différence des stratégies marketing, ou le web
2.0 apporte une réelle révolution, ici on assiste plutôt à une évolution des méthodes de
réalisations, même si le web 2.0 reste très intéressant notamment par la capacité qu’a
désormais tout à chacun d’utiliser un outil comme il le souhaite en faisant des
réalisations aussi différentes qu’une œuvre d’art ou une plate forme commerciale.
77
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Quatrième Partie
L’influence sur l’utilisateur : l’exemple de la net-campagne 2007
78
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Table des Matières
Introduction
1. Analyse des sites officiels des principaux candidats
a. Nicolas Sarkozy
b. François Bayrou
c. Ségolène Royal
d. Eléments communs
2. Le web 2.0 au service de la communication politique
a. Skyblogs et Myspace
b. Flickr et les interfaces de stockages de fichiers en lige
c. Le web 2.0 au service de l’information de l’utilisateur
3. La réappropriation du débat par les citoyens au travers d’outils
web 2.0
a. La multiplication des interfaces 2.0 dédiées à la campagne politique
b. La place de la blogosphère
Conclusion
« À mon sens, le web n’est pas en train de devenir coopératif à cause de quelques
innovations 2.0 ou de quelques manœuvres commerciales 2.0 mais parce que, en
mettant de plus en plus de gens en relation, il favorise la coopération durable. Le 2.0
serait une conséquence du web lui-même et de toutes les technologies
d’interconnexion »
- Thierry Crouzet
79
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Introduction
Afin d’exemplifier au mieux l’impact qu’a le web 2.0 sur l’expérience des
utilisateurs, nous allons maintenant nous intéresser à l’application de ces nouvelles
technologies dans la campagne présidentielle 2007. En effet cette campagne a vu un
fleurissement des techniques et des stratégies que nous avons étudiées dans les parties
précédentes. De plus, la mise en avant des contenus web n’a jamais été aussi présente.
Comme le note Mathieu Collet, rédacteur du blog Ergonomic Garden de l’agence SQLI,
« Le Web 2.0 est un concept qui s'étend dans de multiples secteurs d'activité
(immobilier, e-commerce, etc...) aussi bien pour les particuliers que pour les
professionnels et ce sous différentes formes. Plusieurs candidats à la présidence de la
république s'intègrent dans cette tendance et nous offrent des sites communautaires,
dotés de composants d'interfaces riches.» 40 L’étude de cette campagne nous permettra
de voir en quoi le web 2.0 a modifié les habitudes des internautes et quel pouvoir ont
détenu les blogs dans les résultats finaux de cette élection qui a vu le triomphe de la
communication.
Nous allons débuter notre étude par une analyse des sites web des principaux
candidats, Nicolas Sarkozy, François Bayrou, et Ségolène Royal. Nous étudierons ainsi
quels aspects de leur communication ont utilisé les méthodes pinko marketing, ou les
styles graphiques web 2.0 par exemple. Dans une seconde partie, nous étudierons la
manière dont les cabinets de communication ont utilisé les interfaces web 2.0 que nous
avons étudiées, comme Flickr, Dailymotion ou Skyblog. Nous nous attacherons ensuite à
l’analyse de la blogosphère et donc du pouvoir qu’ont eus les blogs officiels d’une part et
ceux rédigés par les militants eux-mêmes d’autre part. Enfin nous étudierons quelques
cas qui ont utilisés des communautés et le web collaboratif pour aboutir à des
applications encore jamais vues en politique, comme le « Sarkoming-out » par exemple.
1. Analyse des sites officiels des principaux candidats
La campagne présidentielle de 2007 n’est pas la première pour laquelle le web a
été un moteur. Déjà pour celle du référendum sur la constitution européenne en 2005,
l’impact des blogs notamment a été très fort et a mené à de très nombreuses
controverses. Néanmoins, en 2007 ce ne sont plus seulement des amateurs qui utilisent
des technologies et services web 2.0 pour faire passer leurs idées politiques mais bien les
équipes de campagnes des différents candidats qui les intègrent dans leur plan de
communication. Le succès en est certain, le site du candidat Sarkozy a d’ailleurs été
totalement submergé de demande de connexion, le rendant impossible à visiter les
premières heures de sa mise en ligne.
La campagne est désormais achevée, mais les sites des principaux candidats sont
encore en ligne. De quelle manière les équipes de communication web ont utilisé les
nouvelles stratégies et méthodes de réalisation web afin de proposer aux internautes des
expériences de navigation uniques ? Nous débuterons cette analyse par celle du site de
Nicolas Sarkozy, sarkozy.fr.
a. Sarkozy.fr
Le site Sarkozy.fr a été mis en ligne le 14 janvier 2007, au lendemain de son
intronisation comme candidat officiel de l’UMP. Ce site de nouvelle génération dispose
d’une certains nombre de services que nous détaillerons plus avant ici et qui comporte
40
COLLET Michael, (2007, Avr.) “Campagne présidentielle et politique 2.0”. Sur Ergonomic garden. Consulté le
30/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2007/04/20/53-campagne-presidentielle-etpolitique-20
80
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
entre autres une grande quantité de vidéos, présentées sous la forme de thématique sur
la « NS TV », mais également une boutique en ligne ou une interface de blog.
Certains de ses éléments se retrouvent sur d’autres sites officiels, comme les
vidéos, et d’autres sont spécifiques, comme le compte à rebours qui égrène les minutes
jusqu’au premier tour. Néanmoins les traitements et la place accordée à chaque élément
différent d’un candidat à l’autre et sont donc totalement réfléchis par ceux-ci.
Le site officiel n’est d’ailleurs qu’une composante de la stratégie Internet du
candidat. En effet, celle-ci s’articule autour de trois sites bien différents et dont la cible
est à chaque fois différente. Sur sarkozy.fr, les contenus sont plus formels, on peut
surtout s’informer sur le déroulement de la campagne, déplacements, et actions
entreprises par les cellules de militants, surtout par le biais des vidéos. En revanche
supportersdesarkozy.fr adopte une ligne éditoriale tout à fait différente en prenant
exemple sur les sites des supporters de football, en utilisant par exemple pour logo une
déclinaison d’un fanion du style de celui d’un club de football. Le dernier de cette
nébuleuse, debat-sarkozy.fr propose une émulation du système Digg, où les internautes
peuvent noter pour choisir la meilleure question à poser au candidat et à son équipe.
Dans une interview vidéo à l’hebdomadaire Marianne, François Delabrosse,
publicitaire en charge de la communication du candidat de l’UMP précise que le site web
est un socle majeur de la communication, très audiovisuel mais malgré cela différent de
la télévision et dont l’impact par rapport à celle-ci est bien sûr moindre. Il n’est pourtant
pas anodin et dispose de plusieurs avantages. Ainsi une campagne sur Internet peut être
très réactive par rapport à l’actualité, et communiquer directement vers l’utilisateur. Le
candidat peut ainsi réellement dialoguer et faire partie de sa communauté d’électeurs. De
plus l’Internet est un média beaucoup moins onéreux que la télévision. Avant la page
d’accueil du site officiel, on accède à un « splash screen » (écran publicitaire mis en
avant et précédant la page d’accueil) permettant de se rendre directement sur le blog
des 72 heures, dédiés au derniers instants de la campagne, ce qui rend compte
immédiatement de l’utilisation du web 2.0 comme pilier de la communication web du
candidat Sarkozy.
Style graphique & Ergonomie
Graphiquement, fort de notre étude précédente des sites web 2.0, nous pouvons
conclure que le but du concepteur graphique a été de donner une image de modernité.
Les principales recommandations et théories énoncées par Ben Hunt sont parfaitement
respectées. On peut ainsi voir un grand bandeau supérieur, dont la taille est
approximativement le quart de celui de la page, présentant des titres en gras, facilement
lisible ainsi que des portraits de grande taille. La navigation est immersive, même si l’on
peut noter de petites erreurs ergonomiques au niveau du menu déroulant dont les
rubriques, lorsqu’elles se déroulent, cachent certains autres éléments du menu. La mise
en page est réalisée sous forme de petits modules, avec des nuances de bleus différentes
selon le contenu proposé. De même l’utilisation de dégradés est très présente et les
effets de styles plastiques ou aqueux permettent immédiatement d’identifier le site
comme résolument moderne. A la différence par exemple du site officiel de l’UMP, réalisé
sous plate forme CMS EzPublish et dont le style est beaucoup plus académique, ancien.
Ici l’esthétique rend compte exactement du message que veut faire passer le président
de l’UMP, une rupture avec les anciennes idées de son parti, et un modernisme affiché.
Etant également président de l’UMP, la communication web du site institutionnel du parti
lui échoit aussi ce qui à mon avis rend compte d’une stratégie très fine afin de faire
inconsciemment comprendre et passer son message à l’internaute. Le web 2.0 se fait
donc outil au service des idées et son utilisation permet de symboliser des valeurs vécues
comme importantes par les cabinets de conseil en stratégies de communication.
81
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Les vidéos comme pilier de la campagne web
En ce qui concerne le site officiel, qui propose des contenus didactiques, il est
intéressant de constater que même les éléments graphiques comme le logo NS TV est
très proche de celui de Youtube. Tout en se démarquant, il rappelle inconsciemment à
l’internaute la philosophie de Youtube de proposer des vidéos divertissantes, amusantes
et donc qui véhiculent un message positif dans son subconscient.
Fig 7. Similitudes dans le style graphique des deux logos
Ces vidéos, dont le commentaire n’est pas l’objet de ce mémoire, sont très
nombreuses et réparties en chaines qui représentent autant de thématiques de
campagne du candidat. Il est à noter que l’internaute peut s’abonner à un flux RSS lui
permettant de visionner les dernières vidéos directement sur sont agrégateur préféré. Ce
flux RSS est également disponible pour les news et est particulièrement mis en avant. La
plupart des sites, comme par exemple ceux des grands quotidiens pourtant très
utilisateurs de flux RSS, ne les mettent pas en avant en haut de la page. Or, de cette
manière, le candidat montre qu’il connaît et utilise les nouvelles technologies ce qui lui
donne une image moderne. Le commentaire des vidéos n’est pas possible, par contre lors
d’une visualisation, il est possible de copier coller le lien Dailymotion directement sur son
blog ou son site, et de l’envoyer par mail à un de ses contacts. Ces fonctionnalités font
partie intégrante du processus de communication en permettant d’augmenter la portée
du discours de façon virale et de permettre à chacun de faire passer le message, en
faisant appel au pronétariat. Le pronétaire, surtout lorsqu’il est militant, est totalement
allié à la cause du candidat et sera enchanté de partager son discours avec les
internautes susceptibles de visiter son blog ou son site.
La parole donnée aux anonymes
La deuxième rubrique site, après la NS TV, est celle qui permet aux internautes de
s’adresser au candidat dans un premier temps et de débattre avec d’autres internautes
dans un second temps. Ces minis débats viendront alimenter la chaine dédiée de la NS
TV. Ainsi, après un processus de sélection, qui est normal compte tenu de l’enjeu de la
mise en ligne de ces vidéos, on assiste bien à une création de contenu par les internautes
eux-mêmes. Ce qui est là encore une utilisation de concepts 2.0 appliqués à la
communication politique. Le fait de mettre en scène des anonymes débattant entre eux
permettant de montrer que le candidat est proche de ses électeurs, et ainsi d’avoir une
influence sur l’expérience utilisateur. Dans la même lignée, la page ‘gagner ensemble’
permet d’accéder à une liste de commentaire élogieux sur le candidat. Ce qui diffère par
rapport à une campagne classique c’est bien la place donnée aux commentaires des
simples anonymes par rapport aux personnalités. Même si il est clair que les « peoples »
ont grandement joué un rôle dans cette campagne, sur Internet les enjeux sont
différents. Les avis des anonymes prennent les deux tiers de l’espace et sont beaucoup
plus nombreux que ceux des personnalités du monde du spectacle ou des autres
politiques. De plus ces derniers ne sont pas affichés en entier, il faut cliquer sur un lien
pour les lire. Les personnalités apparaissent donc comme caution morale, le poids d’un
82
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
anonyme étant moindre, néanmoins l’internaute peut voir des gens comme lui laisser des
avis dithyrambiques, ce qui le conforte dans son choix, quel qu’il soit. L’enjeu de cette
campagne a d’ailleurs toujours été non pas de convaincre les électeurs historiques, le
syndrome post 21 avril permettant d’éviter l’éparpillement des voix, mais bien de
convaincre les indécis, à fortiori au second tour. Or ces indécis se trouvent être constitué
de multiples communauté et groupe sociaux différents et les stratégies que nous avons
développées plus haut s’appliquent tout autant aux NTIC qu’à la communication en
général. En effet le concept de longue traine peut être utilisé aussi bien en
communication et marketing web qu’en politique. La multiplication des avis d’anonymes
qui deviennent portes paroles de leur propre communauté restreinte rend possible
l’universalité du discours du candidat.
Adaptation d’outils web 2.0 existants
Dans la même lignée de réutilisation d’outils 2.0, débat-sarkozy.fr est un Digg-like
c'est-à-dire une interface permettant de soumettre le contenu d’une news, ou ici d’un
commentaire de l’actualité qui mériterait d’être connu. Les internautes peuvent ensuite
cliquer pour voter pour un billet qui sera plus ou moins mis en avant selon un algorithme
prenant en compte le vote par rapport au temps, entre autres facteurs.
Les billets qui sont mis en avant ici sont des questions posées à Nicolas Sarkozy et
son équipe. Les questions les plus populaires leurs sont directement posées et ils
répondent ensuite sur l’interface du site. Chaque jour une question est donc mise en
avant, la réponse est également mise en ligne et les internautes inscrits peuvent la
commenter via les outils désormais habituels. L’équipe peut ainsi prendre la température
des sujets qui intéressent la communauté, et l’internaute peut de son coté se sentir pris
en compte lors de la rédaction du programme. Parallèlement à cela, l’obligation de
s’inscrire permet aux statisticiens de dresser un inventaire des différents types
d’internautes intéressés par les idées du candidat. On a donc ici la réutilisation d’un
service ayant fait ses preuves par l’équipe de campagne. Cette adaptation permet de
faire passer le message que l’équipe du candidat est elle-même au cœur de la
communauté des électeurs, ce qui est un des piliers de la théorie du pinko marketing.
Ainsi ce premier site officiel utilise avec parcimonie les principes du web 2.0,
préférant utiliser les technologies offertes que ses aspects communautaires. Néanmoins
certains éléments montrent que même ces aspects communautaires sont pris en compte
afin non pas de diffuser le message du candidat vers les militants mais au contraire de
rendre le candidat partie intégrante de sa communauté, exploitant ainsi les principes de
la pyramide marketing 2.0. Nous allons maintenant nous intéresser à la campagne web
de François Bayrou, radicalement différente et dont l’utilisation des technologies web 2.0
se fait dans un tout autre domaine.
b. François Bayrou
Les équipes stratégiques de communication web de l’UDF ont beaucoup utilisé la
philosophie collaborative du web 2.0 afin de porter le débat aux internautes. Cette
volonté se ressent beaucoup plus sur le site bayrou.fr que dans la stratégie du candidat
de l’UMP.
Au site officiel s’ajoute une nouvelle forme de militantisme, également éditée par
les instances supérieures du parti, et dénommée Sexy Centriste. Celui-ci est en fait un
site de rencontre sur le modèle de Meetic mais réservé aux centristes. Nous l’étudierons
dans un second temps, de par son accent beaucoup plus humoristique il est très éloigné
de la communication institutionnelle du candidat, mais évolue dans sa sphère d’influence
et est totalement inscrit dans la mouvance web 2.0. Il participe ainsi à l’évolution de
l’expérience de l’utilisateur, la problématique qui nous intéresse ici.
83
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Le site bayrou.fr : le parti pris d’en faire un blog plus qu’un espace
institutionnel
Lors de l’accès au site, il saute directement aux yeux une mise en page de type
blog, avec une succession d’articles, agrémentées de vidéos, et que l’utilisateur peut
directement commenter. Si le style graphique est beaucoup moins moderne, la structure
fait montre quant à elle d’une volonté de mettre l’internaute directement au cœur de la
campagne. Ainsi celui-ci peut commenter directement les discours du candidat centriste,
ceux-ci étant simplement modérés afin d’éviter de voir s’afficher des messages non
conformes à la charte de bonne conduite édictée par le site. A la différence de sarkozy.fr,
les éditeurs du site ont donc voulu ici plus qu’un site institutionnel et didactique créer un
espace de débat, ce qui est également un reflet de la volonté de François Bayrou de
s’afficher comme candidat ouvert, accessible et prêt à accepter le dialogue.
Ainsi le contenu est également différent, les vidéos sont beaucoup plus courtes,
pas plus d’une minute, et permettent de mettre l’accent sur des points qui justement
sont choisis pour amener les internautes à réagir. L’internaute lambda, dont l’attention
est souvent difficile à capter étant ainsi plus aisément amener à dialoguer avec les autres
utilisateurs. Cette image de blog se retrouve également dans le choix des outils associés,
on peut ainsi s’abonner aux flux RSS des articles, mais également intégrer des widgets à
sa page d’accueil Netvibes, Yahoo, ou Google. Afin de relayer son message sur les blogs
de ses militants, le webmaster met également à la disposition de l’internaute des
adresses de « trackback » lui permettant d’afficher directement sur son blog l’article sans
obliger ses visiteurs à visiter le site bayrou.fr dans son ensemble.
A priori plus attaché à une stratégie d’Internet participatif qu’à une volonté
d’afficher un style moderne, bayrou.fr semble donc plus miser sur la structure web 2.0
que sur son apparente modernité. En effet le style graphique est malheureusement peu
novateur et reprend des chartes qui font plus penser à une interface de la fin des années
1990 que du début du XXIe siècle. Boutons de grande taille, contraste très fort entre les
états normaux et survolé des liens, le tout faisant clairement penser à une plate forme
très institutionnelle. Or lors d’une vérification des crédits du site, il apparaît qu’il a été
totalement créé grâce à des logiciels gratuits et open source, le « front office » étant
fournit par une solution CMS. On voit tout à fait l’illustration de la différence intrinsèque
qui existe entre la solution du choix d’un CMS par rapport à celui d’une web agency
spécialisée, comme c’est le cas pour sarkozy.fr. Ce n’est pas forcément un défaut, le
candidat le précise lui même dans une de ses vidéos, « j'ajoute, pour les spécialistes,
que c'est un site qui a été fait à partir de logiciels Libres, des logiciels Open Source,
comme on dit, c'est à dire que c'est une vision du Web plus ouverte, plus interactive,
plus coopérative »41. Il est intéressant d’ailleurs de remarquer que la bataille qui a
toujours fait rage entre développeurs, garants d’une structure plus travaillée, et des
graphistes qui privilégient la forme sera toujours présente, même dans le discours
politique. Selon le site news.fr, la réalisation a été faite par 5 développeurs free-lance, il
n’est pas fait mention d’un directeur artistique attitré, même si pour un site de cette
importance il est inconcevable qu’un infographiste n’ait pas participé. Le choix d’un site
dont la charte n’est pas forcément à la pointe du progrès mais dont la structure est bien
rodée, et qui contrairement à celle de son concurrent n’a jamais été inaccessible est donc
également une manière de se démarquer de son adversaire principal.
Le résultat est donc un site qui semble avoir été réalisé par des professionnels qui
n’ont pas été évangélisés au dernier moment aux cotés clinquants du web 2.0, réalisé en
41
NITOT, Tristan (2007, Janv.) « Sortie du site bayrou.fr : vidéo et logiciels Libres » Sur Standblog. Consulté le
12/05./7
http://standblog.org/blog/post/2007/01/09/Sortie-du-site-bayroufr-:-video-et-logiciels-Libres
84
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
interne par les équipe de communication de l’UDF, au contraire de sarkozy.fr, dont le
concepteur est l’agence ZNZ.
Le choix de l’écriture hypertextuelle
Cette volonté de rejoindre les nouveaux standards de réalisation se ressent
également lors de l’affichage des textes. Le portrait de François Bayrou n’est pas un long
texte adapté d’un document papier, il s’agit d’une véritable œuvre hypertextuelle, le
texte étant quasiment entièrement composé de liens permettant à l’internaute de
s’informer sur certains des aspects de la vie de son candidat sans être obligé de lire les
autres aspects qui l’intéressent moins. Cette prise en compte des désirs de l’utilisateur
est une des composantes et des implications de la longue traine. En effet les
communautés cibles étant très différentes, surtout pour le candidat centriste qui
rassemble autant à droite qu’à gauche, le choix d’un hypertexte est particulièrement
judicieux. En effet l’hypertexte change totalement la donne de l’argumentation
traditionnelle.
De tout temps, l’argumentation a été linéaire, permettant au locuteur d’aller d’un
point A à un point B en passant par toutes les étapes de son discours afin de le structurer
au mieux et d’en faire circuler les idées principales à son interlocuteur. L’hypertexte
change la donne, car il permet de faire le lien entre des idées de façon non-linéaire,
laissant l’interlocuteur libre d’explorer plus avant chacune des branches de
l’argumentation. Ted Nelson, chercheur en hypermédias, définit l’hypertexte de la façon
suivante : « Il s'agit d'un concept unifié d'idées et de données interconnectées, et de la
façon dont ces idées et ces données peuvent être éditées sur un écran d'ordinateur. »42
Ainsi l’hypertexte se définit comme un système d’organisation de données spécifique. La
non-linéarité du flux d’information implique donc des changements notoires dans la
structuration de l’argumentation. Mais ce n’est pas le seul changement. En effet,
l’hypertexte permet de vérifier chaque point de l’argumentation, justement en cliquant
les liens. Ainsi le locuteur se doit de fournir des preuves de ses arguments, à chacune de
ses prises de postions. La deuxième différence avec les argumentations habituelles
concerne également le flux d’information. En effet, lors d’une argumentation classique, le
locuteur enferme son interlocuteur dans ses informations, c’est lui qui est le maitre de
son raisonnement. Au contraire de l’hypertexte, ou le lecteur devient lui même maitre de
sa lecture. Il peut arrêter l’argumentation pour suivre un lien apportant une information
supplémentaire sur un point sur lequel l’auteur aurait par exemple préféré de ne pas
s’appesantir.
De plus, c’est le lecteur qui choisit l’ordre de sa lecture, à la différence du livre
papier ou le cet ordre est voulu par l’auteur et auquel le lecteur ne peut se soustraire.
L’hypertexte permet ainsi au lecteur de se concentrer et d’approfondir certains aspects
de l’argumentation. Dans ces conditions, l’hypertexte se rapproche fortement du mode
de pensée humain. En effet, lors d’une réflexion, l’humain saute d’une idée à l’autre, sans
suivre d’ordre préétabli.
Les e-soutiens
Le site bayrou.fr comporte une des interfaces les plus ancrée dans le web 2.0. Il
s’agit d’un site intitulé «e-soutiens ». Très simple, la charte graphique se limite à un
bandeau d’une hauteur d’une centaine de pixels. La place est tout entière dédiée au
contenu, contenu totalement laissée à l’appréciation des internautes. Ceux-ci après s’être
identifiés peuvent très facilement créer une vidéo, un article ou uploader une image afin
de permettre de partager la bonne parole centriste. Hébergés sur Dailymotion ou
Youtube, les contenus sont laissés à l’appréciation des internautes qui ensuite
42
NELSON, Theodor, Literary Machines, New York, Paperback, 1994
85
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
peuvent les commenter. On y trouve ainsi tout les outils habituels de ce type de plate
forme, comme les nuages de tags, les groupes d’utilisateurs, et on touche ici du doigt
l’apport que peut avoir le web 2.0 et son impact sur l’utilisateur lambda. En effet, celuici, habitué à discuter sur Internet se retrouve soudain en contact avec un grand nombre
d’autres militants qui pensent comme lui, et lui permettent beaucoup plus facilement de
se découvrir une attirance pour le candidat et son programme. On trouve ainsi pêle-mêle
des interviews d’homme politiques, des clips vidéo de campagnes, des extraits de
journaux télévisés ou des parodies humoristiques animées sur les autres candidats.
Cette volonté de création de communauté est au cœur de sa stratégie de
campagne web. Même s’il est clair que le web ne fera pas l’élection, elle participe à
l’image du candidat et à sa popularité générale. Il est néanmoins à noter que ces sites
s’adressent à des internautes équipés de hauts débits Internet, donc plutôt issus de
milieux sociaux non défavorisés, et habitant en zone urbaine, beaucoup de zones rurales
étant encore limitées au bas débit. Or, si François Bayrou est populaire en province, il
s’est d’ailleurs beaucoup illustré comme candidat de la ruralité, c’est dans les grandes
métropoles, en particulier Paris, qu’il se doit d’aller cueillir des voix. De plus cette image
de père modèle peut lui valoir une certaine image de personnage désuet. La encore son
ancrage dans la modernité et l’utilisation des nouvelles technologies est une manière de
se détacher de cette image, et justement en privilégiant le haut débit il le fait devant une
cible jeune mais garde son aspect plus austère à ses électeurs traditionnels ce qui lui
permet de faire d’une pierre deux coups. Le web 2.0 est donc un enjeu tant pour
l’internaute qui peut faire partie intégrante du débat que pour le candidat qui peut
diversifier son discours.
François Bayrou apparaît donc comme un candidat qui utilise beaucoup et à bon
escient les nouvelles technologies web 2.0. Cela s’explique entre autres par son cheval
de bataille à savoir le fait que les médias traditionnels seraient totalement inféodés au 2
grands candidats de la gauche et de la droite. Sa communication se fait comme nous
l’avons vu sur ses sites officiels, mais il utilise également énormément la blogosphère, il
a par exemple fait des apparitions très remarquée dans des conférences comme celle du
« web3 » ou sur le poliTICshow, un blog vidéo.
c. Ségolène Royal
Initiatrice de l’idée de démocratie participative, Ségolène Royal se devait d’être la
candidate dont la campagne web intégrerait totalement les philosophies collaboratrices
de celui-ci. Ainsi chaque aspect de son site phare, « desirdavenir.org », comporte des
possibilités de notation, de commentaires... Il est à noter qu’à la différence du candidat
de l’UMP dont le site officiel est très moderne par rapport au site du parti, le site
« partisocialiste.fr » a également été remis à neuf au début de la campagne pour passer
à une interface totalement réalisée en AJAX et utilisant également beaucoup les concepts
web 2.0. Ce site est plus qu’un site de candidat, d’ailleurs le nom de domaine ne
mentionne pas son nom, mais un portail communautaire dont la candidate PS se voulait
l’animatrice. Ainsi elle parle directement à l’internaute via les articles. Après les sites de
Nicolas Sarkozy, dont le style est résolument moderne et la navigation, institutionnelle,
et celui de François Bayrou, pensé comme un blog amélioré, celui de Ségolène Royal
apparaît comme une troisième voie possible. En effet ce qui est frappant au premier
regard est l’absence de menu horizontal reprenant les différentes rubriques du site, au
contraire on peut observer un menu vertical proposant les grandes thématiques dotées
chacun d’une couleur et proposant une suite de liens correspondant aux différentes
rubriques. Les possibilités de commentaires sont présentes, elles vont même plus loin
que celles proposées par François Bayrou, puisqu’il est possible de commenter
directement les propositions du pacte présidentiel, alors qu’il n’est pas possible de le faire
pour les vidéos qui sont présentes. Celles-ci utilisent des solutions gratuites comme pour
bayrou.fr, celle qui a été retenue ici est Kewego, une émule de Dailymotion. L’impact
voulu est le même, en utilisant des techniques qui sont elles-mêmes utilisées par les
86
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
internautes pour leurs blogs, la candidate socialiste peut montrer d’une part qu’elle
maitrise l’outil et connaît ses usages et d’autre part qu’elle fait les choses elle-même, la
rendant plus proche de son électorat.
De l’importance des blogs : Ségoland
Le menu vertical propose donc les fonctionnalités habituelles, nous ne les
détaillerons pas ici, il est cependant à noter que sur ce site officiel, la candidate
communique sur les blogs de ses militants, en permettant à l’internaute de visualiser un
top 5 des plus populaires, directement sur la page d’accueil. Si pour la communication de
Nicolas Sarkozy, l’accent était mis sur une direction du candidat vers l’électeur, et si pour
celle de François Bayrou on assistait à une mise en communauté entre l’électeur et son
candidat, on a ici pour la candidate socialiste un cas de figure dans lequel elle s’efface
presque au profit de ses militants. Cette prise en compte très importante des blogs
amateurs est très intéressante pour notre étude.
Ain d’encourager l’internaute à créer son blog, l’équipe a mis à sa disposition une
interface tutorielle lui expliquant comment s’inscrire à un serveur blog, le mettre en
forme, et se faire référencer sur « desirdavenir.org ». Ainsi il existe une compétition
entre bloggeurs, compétition qui participe au phénomène de création de contenu et de
communautés, les blogs pouvant être notés et comme pour les interfaces commerciales
de type skyblogs c’est cette compétition entre internautes qui permet de motiver les
utilisateurs. Afin de faciliter le travail de ces pronétaires, l’équipe met à disposition de
bloggeurs un web kit très complet, qui contient des images et bannières, comme pour les
deux autres candidats, mais surtout une base de données de photographies de la
candidate hébergée sur Flickr, ainsi qu’une vidéothèque Dailymotion.
Le pronétariat au service d’un candidat
87
Ainsi, le pronétariat est au cœur du site « desirsdavenir.org », qui est par de
nombreux aspects un site plus communautaire qu’institutionnel. Pour l’internaute qui
utilise ce site, la différence est de taille et participe là encore à la communication du
candidat, là où Nicolas Sarkozy se veut ferme, travailleur, Ségolène Royal se veut
fédératrice et il est très intéressant de noter que le site web reflète les valeurs de chaque
candidat de façon très marquée.
A la création de blogs s’ajoute celui de la création de contenus, qui va encore plus
loin que les e-soutiens de François Bayrou. La partie e-militants du site web propose aux
utilisateurs de construire la quasi intégralité du site en envoyant des contenus Rich
médias, des vidéos, tract, articles, et créations numériques. Ces contenus sont notés via
le système Pligg, un CMS de Digg que nous avons évoqué précédemment. Les
pronétaires peuvent également participer à un concours de vidéo permettant de créer un
clip de campagne qui, s’il est choisi fera partie d’une campagne virale à destination de
350 000 militants. Les e-militants se divisent en plusieurs catégories permettant à
chacun d’avoir un rôle et de s’y tenir. Il peuvent ainsi devenir « colleurs d’affiche du
web », en cliquant sur les sondages en ligne plusieurs fois par jour et en copiant collant
des argumentaires pré-rédigés dans les forums politiques ; « tchatcheurs » en discutant
tous les jours sur les forums, « pivots» en relayant l’argumentaire à leurs proches,
« veilleurs » en surveillant les actualités des autres sites, « créateurs » en réalisant des
animation Flash ou des vidéos, « traceurs » en enregistrant les contenus audiovisuels
comme les podcasts. Tous ces postes possibles sont habituellement réservés à des
professionnels, salariés d’une équipe de communication. L’utilisation du crowdsourcing
permet donc ici de faire circuler les messages directement par les utilisateurs, l’exemple
est d’autant plus vrai que les militants politiques sont souvent de très bonne volonté, il
est donc facile de trouver des bénévoles qui sont réellement en prise avec leur
communauté et gagnent ainsi en crédibilité.
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
d. Eléments communs
Le mashup Google Maps : élément indispensable d’une campagne
web politique 2.0
L’autre grande nouveauté dans la création de sites web politique, est l’utilisation
faite de Google Maps sur les trois sites des candidats afin de représenter sur une carte
les différentes informations comme les bureaux de vote à l’étranger, mais aussi les
déplacements des candidats. Ainsi le site politique 2.0 n’est plus dépendant d’autres
plates formes utilisées précédemment comme celles des institutions gouvernementales
ou des préfectures ; il se suffit à lui même en utilisant des API open source pour
permettre à l’utilisateur d’accéder à tous les contenus directement, sans intermédiaires.
Avec comme changement que l’internaute accède à l’information en passant d’abord par
le message du candidat. Il est donc pris dans le plan de communication de A à Z, le web
2.0 en donnant l’ensemble des outils à un seul organe de communication lui permet de
gérer tout le cheminement de son prospect.
Dans le cas du candidat Sarkozy, ces mashups sont présents autant sur le site
officiel que sur les supporter de sarkozy.fr. Pour les français de l’étranger il se fait même
didactique car pourvoyeur d’une information utile aussi bien aux électeurs de droite que
de gauche, l’emplacement des bureaux de vote dans le monde. Comme Nicolas Sarkozy,
François Bayrou utilise un mashup Google Maps pour donner des informations sur la
localisation des principales antennes du parti. Il est intéressant de constater que les trois
principaux candidats ont tous utilisé cette technique mais pour donner des informations
différentes. Pour le candidat de l’UMP, ce sont les actions à entreprendre qui sont
localisées, alors que pour le centriste c’est l’organisation du parti qui est montrée.
Ségolène Royal utilise également cette technologie mais dans un but différent. Il est
présent sur son site une carte de France recensant les événements socialistes en projets.
Cette utilisation de la technologie Google a donc été jugée utile par les 3 candidats, son
apport est donc clair aux yeux de leurs équipes stratégiques respectives.
2. Le web 2.0 au service de la communication politique
Les sites officiels sont bien sûr la pierre angulaire de la communication web des
différents candidats. Néanmoins, il a été très important pour eux afin de s’intégrer à la
communauté d’utiliser les outils que celle-ci emploie elle-même. Les skyblogs, MySpace,
vidéos Youtube ont été grandement utilisés et participent à la modification des enjeux.
Modifications qui influent d’une part sur les communicants mais également sur les
utilisateurs, dont l’expérience change devant l’énorme quantité de contenus
argumentatifs disponibles. Nous allons maintenant étudier l’utilisation qui a été faite par
chacun des candidats de ces interfaces à travers quelques exemples représentatifs.
a. Skyblogs et Myspace
L’importance de l’utilisation des plates formes à destination des jeunes a très vite
été comprise par les équipes de campagnes des différents candidats. Ainsi on a vu
s’ouvrir des skyblogs officiels aux couleurs de Nicolas Sarkozy, Ségolène Royal et
François Bayrou. Les rédacteurs y ont adapté le langage des candidats pour leur donner
une image plus jeune, plus décontractée, et faire passer leur message à des internautes
qui ne sont pas forcément enclins à visiter des sites officiellement politiques. Ces blogs
étant affichés en première page de skyblog.com, ils bénéficient d’une promotion certaine.
L’ensemble de la blogosphère a réitéré ses doutes à l’égard du choix des skyblogs, taxant
les candidats de jeunisme. Ce qui peut être compréhensible à la lecture du texte de
présentation de Julien Dray « Si vous avez un peu de temps à me consacrer, ça
m’arrangerait. Ça m'éviterait d'être à côté de la plaque, et vous, ça vous évitera peut-
88
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
être de dire que les politiques ne vous demandent jamais votre avis. »43 Ce genre de
discours est clairement identifiable comme de la publicité pure avec pour cible les jeunes
qui pratiquent bien sûr le tutoiement et utilisent l’argot.
Les MySpace sont dans la même veine, il s’agit plus de réaliser un coup
publicitaire que de réellement faire avancer le débat. Pourtant l’utilisation de ces leaders
de la communication et de la création de réseaux sociaux joue un très grand rôle dans la
campagne. A l’instar des militants qui interpellent les clients du marché de quartier, le
MySpace joue le rôle de créateur de lien social entre le candidat et son électeur et de
plus grâce à l’utilisation de ces interfaces très visitées le candidat s’immisce dans les
habitudes d’utilisation de l’internaute.
b. Flickr et les interfaces de stockages de fichiers en lige
Une des évolutions majeures apportées par les nouvelles technologies web est la
possibilité de stocker des photos, des vidéos, des fichiers en ligne pour les mettre à
disposition du plus grand nombre. Le cas de Flickr est intéressant dans la mesure où il
est utilisé directement par les équipes de campagne pour héberger des photothèques
permettant au militant de puiser pour disposer d’un grand nombre de photos qui sont
d’une part de meilleurs qualité que celle qu’il trouverait lui même via un moteur de
recherche mais également travaillée et cadrée d’une manière conforme aux désirs de
l’équipe.
c. Le web 2.0 au service de l’information de l’utilisateur
Du coté de l’utilisateur le web 2.0 change également la donne. La possibilité de
s’informer via des canaux différents que ceux des médias, et rédigés non pas par des
journalistes mais par des amateurs éclairés permet à celui-ci de disposer d’un coté d’une
information à priori plus libre, moins soumis à la censure, mais en contrepartie plus
sujette à la subjectivité, la plupart des rédacteurs ou des contributeurs étant des
militants politiques engagés en faveur de tel ou tel candidat. Les partis ont d’ailleurs
souvent leurs propres comptes client sur ces interfaces comme le Parti Socialiste, de
même que les grands médias comme RMC. Ces comptes payant leur permettent
d’obtenir des fonctionnalités supplémentaires et d’être mis en avant par rapport aux
autres contributeurs. Face à une abondance de contenu énorme comment différencier le
vrai du faux ? Comme l’indique André Gunthert, directeur de la publication du laboratoire
d’histoire visuelle contemporaine, « la nouveauté représentée par la possibilité de
diffuser ou d'accéder aisément à des contenus vidéo a clairement constitué l'un des
apports historiques de cette campagne »44. Ces contenus vidéo se sont parfois même
invités directement sur les médias traditionnels comme avec l’exemple bien connu de la
vidéo montrant Ségolène Royal critiquant le travail des professeurs. Même si cet exemple
est peu représentatif, les chiffres de l’observatoire Vidéometre montrant que sur 12.000
vidéos ayant une pertinence politique, seulement 350 seront vues plus de 100 fois, il a
néanmoins le mérite d’exister. Comme l’indique là encore André Gunthert, les mesures
doivent de toute façon être différentes de celles des médias traditionnels, et prendre en
compte encore une fois la Longue Traine. La grande majorité des contenus ne sera que
peu visionnée, le choix étant beaucoup trop pléthorique, mais l’ensemble des visionnages
s’élève à 2 millions, sur l’ensemble des contenus politique pendant une semaine type
(chiffres Vidéometre).
43
DRAY, Julien (2004, Oct.) « Skyblog de Julien Dray » Sur Skyblog. Consulté le 13/05/07.
http://juliendray.skyrock.com/
44
GUNTHERT, André (2007, Avr.) « Petite géographie des vidéos de campagne » Sur ARHVi. Consulté le
14/05/07
http://www.arhv.lhivic.org/index.php/2007/04/10/365-petite-geographie-des-videos-de-campagne
89
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Les contenus proposés par les contributeurs qui sont anonymes et donc peuvent
être soit le fait des équipes de campagnes soit des militants, sont de trois type : les
copies de programmes déjà diffusés, les documents de propagandes réalisés pour
l’occasion et les captations d’événements précis par des amateurs. L’étude statistique
montre que la part la plus importante sont bien évidemment les captations souvenirs
d’un événement et les documents de propagande. Le journalisme citoyen est très peu
présent montrant bien que cette utilisation du web 2.0 sous couvert de grandeur et
d’élévation du débat démocratique est utilisée en premier lieu pour vendre le produit, ici
le candidat. Comme nous l’avons précédemment vu et cet exemple l’illustre tout à fait, il
existe bien deux courants, tout d’abord une vision humaniste et progressiste mais qui
peut être utilisée de la même façon par un tout autre courant plus axée sur des
stratégies proches du marketing. Les outils viraux, comme le buzz sont utilisés dans
n’importe quel domaine, et c’est la l’apport du web 2.0, outil au service d’une stratégie
qu’elle soit commerciale, artistique, voire même, pourquoi pas, politique.
Si le journalisme citoyen est peu présent quantitativement il représente tout de
même une part importante de la modification pour l’utilisateur de l’accès à
l’information. Ces interfaces rendent possible jour et nuit et à plusieurs reprises la
visualisation des argumentaires de chacun des camps. Ainsi le flux est coupé, à la
différence du débat télévisuel où chaque idée est immédiatement chassée par une autre.
De plus grâce aux outils Digg-like, présent déjà sur les sites officiels mais également sur
d’autres interface les contenus peuvent être jugés en fonction de leur pertinence
permettant à l’internaute, grâce au travail de tri collaboratif d’accéder à des contenus
insoupçonnés, disposant d’une faible couverture médiatique mais qui peuvent être au
contraire très pertinents. Là encore cette démarche participe à la création de lien social
entre militants qui peuvent débattre et commenter les contenus.
Le choix judicieux des tags est donc important afin de permettre à une vidéo
d’être classée parmi les numéros 1. Nous l’avons étudié plus haut, ces choix sont très
important et relèvent d’une véritable stratégie. Cette stratégie utilisée à bon escient a
ainsi permis à Marie George Buffet, candidate du parti communiste de voir une de ses
vidéos visionnée 500 000 fois, un chiffre très important pour cette candidate d’un petit
parti. L’internaute choisissant non pas en fonction du contenu mais du titre et des tags
associés, il s’agit donc de choisir les meilleurs mots clés, même si ceux-ci ne sont pas
représentatifs du contenu. Ainsi la vidéo de Marie George Buffet contient toutes les
orthographes possibles du mot clé ‘présidentielle’, ce qui lui a permis d’être présente sur
un grand nombre de pages de résultats.
Début novembre 2006 est postée sur Dailymotion une vidéo qui va vite défrayer
la chronique. Elle montre Ségolène Royal critiquer le travail des enseignants, et les
enjoignant à faire enfin les 35 heures, sous entendant que ceux-ci travaillent moins.
Cette vidéo commence à être le point de départ d’un buzz sur Internet et sera vite
diffusée en boucle sur les canaux de télévision traditionnels. Une semaine après sa mise
en ligne, la séquence atteint le million de visionnages. Dans ces conditions, le web 2.0
apparaît comme moteur de cet épisode de la campagne. Mais en quoi cet épisode plutôt
qu’un autre à recueilli autant de succès ?
Selon Constance Baudry, journaliste au Monde qui accorde un article au
phénomène « La vidéo de Ségolène Royal [est] largement commentée dans la
blogosphère ».45 Elle fait ensuite le parallèle avec les pouvoir des blogueurs dans les
prises de positions et sur la campagne en général. Dans le même temps, Versac,
président de la république des blogs, une communauté très influente, minimise cet
45
BAUDRY, Constance (2006, Nov.) « La vidéo de Ségolène Royal largement commentée dans la blogosphère »
Sur lemonde.fr. Consulté le 10/05/07.
www.lemonde.fr/web/article/0,1-0@2-823448,36-834033,0.html
90
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
impact, et observe que « les blogs n'ont pas véritablement fait émerger cette vidéo. Ce
sont, très rapidement, les journalistes et les media classiques qui se sont emparés de la
chose et ont fait gonfler cette bulle ».46 Il pointe ainsi la réelle importance du web 2.0 et
son pouvoir. La mise en avant de cet épisode n’est pas le fait d’une popularité chez les
internautes mais d’une nouvelle interaction entre médias traditionnels et nouveaux
médias. En effet il serait illusoire de penser que sous la pression de la blogosphère, et
des acteurs du web en général, l’actualité médiatique se trouverait bouleversée. En
revanche les journalistes peuvent se servir des contenus des contributeurs pour pointer
un point qui leur semble important, et sujet à polémique. Le contributeur anonyme
devenant ainsi investigateur à son insu au service des médias traditionnels. Ainsi la
popularité n’est intervenue sur cette vidéo que dans un second temps, après que
l’information ait été relayée par Le Monde. Néanmoins tout n’est pas si simple. En effet,
cet article a été publié dans la version électronique du Monde, qui plus est dans une
partie du site présentant l’information de façon proche à celle d’un blog. Dans ces
conditions peut-on encore parler de médias traditionnels ou l’article fait il partie
intégrante de la blogosphère ?
3. La réappropriation du débat par les citoyens au travers d’outils
web 2.0
a. La multiplication des interfaces 2.0 dédiées à la campagne
politique
La communication politique de cette campagne ne s’est pas fait uniquement avec
des outils existants et des sites officiels. La grande innovation de cette campagne, qui a
été apporté par la multiplication des outils web 2.0 est la création de très nombreux sites
à caractères communautaires et dont la philosophie est en rapport ave l’un ou l’autre
candidat, qu’ils soient humoristiques ou sérieux, tendres ou satyriques. La facilité avec
laquelle chacun peut concevoir une interface pourvoyeuse d’un service ou d’une
information a donné lieu à une réelle appropriation de la campagne par des amateurs que
nous allons étudier maintenant.
Le premier outil de communication web 2.0 développée pour l’occasion et que
nous allons étudier ici est le site sarkomingout.fr. Cette campagne réalisée par les
services de communication internes à la campagne Sarkozy s’apparente à du buzz
marketing. Elle permet à l’internaute d’envoyer un mail à dix de ses connaissances, lui
permettant de leur faire savoir qu’il vote pour le candidat de l’UMP, et pour quelles
raisons. Ceux-ci pourront ensuite bien sûr aller directement faire leur propre
Sarkomingout sur le site dédié. Ainsi on assiste à une expansion virale de la campagne,
qui permet de convaincre un grand nombre de personne sans passer par la
communication traditionnelle, ce qui permet de toucher une cible différente. Là encore le
concept est clairement web 2.0 par l’idée de communauté qu’il touche et les aspects de
viralité qu’il met en exergue. Cette utilisation des stratégies marketing par la
communication politique est rendue ainsi possible par l’apparition du web 2.0 qui balaye
les frontières qui étaient auparavant tracées entre communication institutionnelle,
publicitaire, politique... Les mêmes styles de sites peuvent être fabriqués avec comme
philosophie des idées très différentes, ce qui fait la richesse de ce nouvel outil au service
des idées. Dans le même lignée, le site «sexy centriste» propose aux jeunes UDF de se
rencontrer sur le modèles des célèbres Meetic ou Match.com. La différence étant l’aspect
communautaire apporté par l’appartenance à une mouvance qui permet d’engager la
46
VERSAC (2006, Nov.) « Quelques questions soulevées par "l'affaire de la vidéo" de Ségolène Royal » Sur
Versac.net. Consulté le 14/05/07.
http://vanb.typepad.com/versac/2006/11/quelques_questi.html
91
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
relation facilement. Cette interface utilise un CMS, Phorum. Ici encore le parti pris
graphique est très simple et apparaît clairement comme issu d’une interface automatisée.
Ce CMS est utilisé pour mettre en place des communautés, et plus rarement créer des
sites de rencontres mais son avantage est sa facilité de déploiement qui permet de ne
pas perdre d’argent si le succès n’est pas au rendez vous. Le web 2.0 est la encore un
pourvoyeur de services très divers, et les outils CMS permettent d’en réaliser un grand
nombre. Le premier mot affiché sur la page est ‘Mythique’, ce qui est un clin d’œil clair à
son grand frère. Complètement autonome et géré par les jeunes UDF, son interface est
des plus classiques mais est intéressante dans la mesure où ce genre d’initiatives n’avait
encore jamais été réalisé. La seule différence avec un site de rencontre habituel est la
possibilité de voir avec quels sujets la personne est en accord ou en désaccord et d’en
débattre avec elle. Le tout permettant bien sûr d’augmenter le buzz autour de François
Bayrou et d’augmenter sa visibilité.
Ces sites réalisés par les équipes de campagnes des candidats sont également
complétés par des sites satiriques et parodiques comme les blogs de Marie Ségolène ou
le blog Sarkostique. Grâce au web 2.0, des citoyens ne faisant pas partie de la
blogosphère, et c’est bien la toute la force de cet outil, ont pu créer leur propre interface,
l’héberger sur des plates formes gratuites et les mettre à jour grâce à des interfaces CMS
accessibles pour tous les utilisateurs quel que soit leurs niveaux de compétence. Cette
possibilité donnée au citoyen lambda d’ouvrir son propre blog sans faire expressément
partie intégrante de l’intelligentsia de la blogosphère est au cœur des innovations
qu’apporte le web 2.0, et l’exemple de la campagne politique sera suivi par beaucoup
d’autres secteurs, qu’ils soient économiques, citoyens ou artistiques.
Le web 2.0 peut également permettre de marier économie de marché et
communication politique comme avec le site Vox Populi. Celui-ci est une plate forme de
vente en ligne sur le modèle de Lafraise.com qui permet à des internautes d’acheter des
T-shirts annonçant leur préférence politique. Cette boutique est hébergé sur l’interface du
groupe Spreadshirt, déjà propriétaire de Lafraise.com. Son créateur explique qu’il est
« désormais plus facile de lancer ces produits grâce à Internet »47. En effet des groupes
comme Spreadshirt ou Comboutique proposent à leurs internautes d’ouvrir des boutiques
en ligne grâce à un outil de type CMS, qui permet de disposer très facilement d’une
interface hébergée sur les serveurs de l’entreprise. Moyennant une commission, des
graphistes peuvent ainsi vendre leurs créations sans s’inquiéter de la partie logistique et
de la fabrication, assurée par l’entreprise mère.
Des sites communautaires ont également été ouverts, changeant radicalement
l’expérience qu’a eue l’utilisateur dans sa recherche d’informations. Ainsi le Dauphiné
Libéré a mis en place « quelcandidat.com » un site permettant à une communauté de
lecteurs de se retrouver, de discuter, et de commenter les articles des journalistes. Ainsi
le web 2.0 permet une socialisation et une confrontation des idées dans un cercle plus
large. Précédemment réservées au cercle des proches, la discussion politique se fait
désormais entre internautes très différents. Le site Quel Candidat permet à chacun de
poster des articles ou des liens, comme sur son propre blog. Sa valeur ajoutée étant que
les journalistes professionnels sont au cœur de la relation avec les internautes ce qui
valorise l’outil et les discours qui y sonnnnnnnt tenus et fait montre d’une volonté pour le
Dauphiné Libéré d’être directement intégré à sa communauté. De plus le site comporte
un Digg-like permettant de noter et de faire remonter en haut de page les articles les
plus intéressants. On a donc ici l’exemple d’un site communautaire utilisant les dernières
innovations afin de faire sortir le web 2.0 de la sphère des internautes chevronnés, la
campagne présidentielle étant une occasion où chacun cherche à s’informer, ce qui
permet de toucher des publics qui n’étaient pas forcément familiarisés avec ces
possibilités offertes par les nouvelles technologies.
47
COUSIN, Capucine (2007, Mars) « Le marketing autour de la présidentielle 2007 gagne l’Internet » Sur
news.fr. Consulté le 10/05/07.
http://www.news.fr/actualite/business/0,3800001900,39367549,00.htm
92
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Dans la même lignée, Politique 2.0 se propose de « favoriser l’émergence d’un
véritable « cinquième pouvoir ». La participation au débat public en facilitant l’expression
directe individuelle du citoyen est [son] crédo. Pour conclure, c’est un média d’un
nouveau type qui place les blogs et les contenus générés par les utilisateurs au centre du
débat politique. »48 Cette interface qui ressemble à une émule de Netvibes permet de
recenser tous les contenus politiques sur Internet sur une seule page, grâce à une
interface en AJAX. Ainsi plus de 1000 blogs sont agrégés directement dans ses moteurs,
ainsi que des photos de Flickr et des vidéos de Dailymotion. Il se propose ainsi de
devenir un portail permettant à l’internaute de faire le tri dans l’énorme quantité
d’informations disponibles. Ici la campagne politique est l’occasion pour une web agency
de se faire connaitre, et de tester un service qui sera selon Jamin Rubio, son créateur,
vendu ensuite en marque blanche pour d’autres applications.
Les politiques ont également, en plus d’utiliser et de créer des interfaces web 2.0
pour faire passer leur message, fait appel à la blogosphère pour permettre de créer des
espaces de débats et de commentaires de leurs actions. Quel est le pouvoir de la
blogosphère sur les électeurs d’une part mais également sur les médias traditionnels ?
De plus quels peuvent être les avantages du blog en termes de communication
politiques ? Ce sont ces problématiques qui nous intéresseront maintenant.
b. La place de la blogosphère
L’utilisation de la blogosphère a été intense dans cette campagne. Qu’ils soient
officiels, comme dans le cas de la ségosphère, ou plus proche de la presse d’opinion, les
blogueurs ont été énormément sollicités par les équipes de campagnes des différents
candidats. Si pour l’utilisateur il représente une source d’information nouvelle et non
négligeable, quelle est véritablement son influence ? Ce nouveau média est il un
cinquième pouvoir comme le pense Thierry Crouzet, essayiste blogueur, ou n’a-t-il
qu’une influence toute relative comme le théorise Versac sur son site Versac.net ?
Les bloggeurs influents
Cette campagne a vu la naissance des « bloggeurs influents » dont l’avis est suivi chaque
jour par un grand nombre de lecteurs. Ceux-ci sont devenus les portes paroles des
citoyens internautes et ont véritablement permis de mettre un visage sur la blogosphère,
la rendant ainsi accessible d’une part aux candidats, d’autre part aux médias, mais
également à des internautes moins habitués à utiliser les blogs pour s’informer. Loïc Le
Meur, Versac ou Thierry Crouzet sont quelques uns de ces leaders d’opinion sur Internet.
A ces bloggeurs se sont ajoutés des journalistes traditionnels qui ont utilisé l’outil
Internet afin de disposer d’une plus grande liberté d’opinion. Karl Zéro, Jean Michel
Apathie ou Christophe Barbier sont les plus célèbres utilisateurs de technologies web 2.0,
mais il existe une communauté très large de journalistes traditionnels séduit par ce
nouveau mode de communication. Jacques Séguéla et Thierry Saussez, publicitaires très
connus et dont l’expérience en politique n’est plus à démontrer ont également tenu un
blog vidéo pendant cette campagne.
En quelques mois la blogosphère s’est donc vue enrichie d’un grand nombre de
nouveaux contenus politiques, transformant l’Internet en véritable encyclopédie du savoir
politique. Cet enrichissement des contenus a entrainé un surplus énorme de
fréquentation, une enquête de Médiamétrie indiquant que 5 millions d’internautes avaient
consulté des sites à caractères politiques en mars 2007, contre 1,5 millions en octobre
2006. Ici arrive le problème de la surinformation. En effet, cette masse d’information
48
Ohayon Ouriel (2007, Janv) « Politique2.fr: le web 2.0 s’installe dans les présidentielles » Sur Techcrunch.
Consulté le 12/05/07
http://fr.techcrunch.com/2007/01/13/politique2fr-le-web-20-sinstalle-dans-les-presidentielles/
93
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
nécessite des heures de consultations quotidienne pour l’internaute lambda, et c’est donc
la qu’interviennent d’une part les bloggeurs influent qui pointent des contenus
intéressants, mais également les médias traditionnels qui jouent le rôle de rassembleurs
autour d’une information.
L’influence de la blogosphère sur les électeurs
Guy Birenbaum, essayiste et blogueur, analyse l’action de François Bayrou comme
réellement participative. Au lieu de se contenter d’éditer des blogs, ses avatars discutent
et prennent part au débat directement sur les espaces dédiées. Il ainsi été interviewé
dans le poliTICshow, un vidéo blog, ce qui lui à permis d’être présent et apprécié au sein
de la communauté des blogueurs. Selon Quitterie Delmas, bloggeuse et animatrice de la
blogosphère UDF, celle-ci se compose d’environ 300 sites qui relaient le discours
centriste. Trois personnes gèrent cette animation, et accompagnent les blogueurs tout au
long de la campagne. Cette nébuleuse a eu une influence toute relative, la campagne
étant restée principalement aux mains des grands médias. Néanmoins la thèse de Thierry
Crouzet n’est pas à prendre à la légère. En effet il développe l’idée que le blog ne peut
être l’instrument d’une politique globale, mais que la nébuleuse dans son ensemble, qui
compte un nombre très important de blogs, peut à petite échelle passer d’une arme de
politique locale à un outil à l’influence certaine. En effet, une fois encore les principes de
la longue traine expliquent ce phénomène. Le grand nombre de blogs politique qui
chacun disposent d’un petit pouvoir rend l’ensemble plus important qu’un seul grand
journal national. De l’autre coté de l’argumentaire se trouve Versac, un blogueur très
influent, auteurs de nombreux articles repris par les médias, comme Marianne. Il nuance
ces propos dans ses propres articles et ne croie pas à l’existence de ce cinquième
pouvoir.
Parler d’un pouvoir est surement trop fort, l’Internet et à fortiori le web 2.0 jouent
à mon avis le rôle d’ « intensificateur ». Il a trop été souvent créé un antagonisme entre
Internet d’une part et les médias traditionnels de l’autre. Or ces deux médias ne sont pas
adversaires mais peuvent se nourrir l’un de l’autre. Plus qu’un cinquième pouvoir, le web
est un canal supplémentaire, qui utilise et est utilisé par les médias traditionnels comme
source d’informations et relais de celle-ci. L’exemple de la vidéo de Ségolène Royal à
Angers le prouve. André Gunthert l’énonce très clairement dans le documentaire « La
campagne du net » diffusé sur Arte, ainsi que sur son blog, « Dans cette économie,
Internet a joué un rôle majeur – non pour délivrer une information indépendante et
citoyenne, mais pour procurer à la machine médiatique un combustible toujours
renouvelé, un matériel nouveau et attrayant. Il a été le "sel de la terre", autrement dit
un puissant exhausteur de goût. Il n'a pas aidé les électeurs dans leur choix, mais a
exacerbé les enjeux de la campagne, intensifié ses effets, renforcé ses clivages. La
manifestation de cette intensification a été la surprise de ce scrutin: un taux de
participation exceptionnel, qui a également profité aux deux camps.[...] Au lieu d'une
campagne morne et jouée d'avance, comme celle de 2002, celle de 2007 a été
passionnante, pleine de rebondissements et de péripéties, de révélations en vidéo et
d'énigmes à résoudre sur les sentiers tortueux du web. Tous les blogueurs ont senti les
ailes d'Alain Duhamel leur pousser dans le dos. Tous les internautes, face à "Profs:
Ségolène en off", se sont sentis coiffés de l'auréole de PPDA. Suivant le modèle implicite
de Chouard, tous les acteurs, jusqu'aux plus modestes, ont nourri le débat politique d'un
investissement sans précédent. Cette appropriation résulte de l'affaiblissement des
organes légitimes – médias et sondeurs – et du rééquilibrage au profit de la
blogosphère. » 49 Ainsi il montre que l’outil blog s’il n’est pas en tant que tel un pouvoir
et un leader d’influence, participe à la réappropriation du débat par les électeurs qui font
49
GUNTHERT, André (2007, Avr.) « La vérité sur le rôle d'Internet dans la campagne» Sur ARHVi.
Consulté le 14/05/07
http://www.arhv.lhivic.org/index.php/2007/04/27/387-la-verite-sur-le-role-d-Internet-dans-la-campagne
94
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
eux mêmes la campagne et se désolidarisent à tort ou à raison des débats télévisés qui
voient s’affronter des politiciens entre eux. On a d’ailleurs vu dans cette campagne des
débats télévisés effectués par des citoyens normaux qui interrogeaient les politiques. Ici
la télévision reprend à son compte cette idée de collaboration, de participation.
L’influence de la blogosphère sur les médias traditionnels
L’exemple de la vidéo de Ségolène Royal pointe aussi le pouvoir qu’a la
blogosphère par rapport aux médias traditionnels, la encore en tant qu’intensificateur. En
effet cette blogosphère n’est accessible qu’à une fraction de la population, ainsi une
information très célèbre et qui circule énormément sur Internet peut être intéressante à
reprendre pour un grand quotidien dont le public est beaucoup plus large. Ainsi Le Monde
ne s’est pas épargné un travail d’investigation mais a du moins pu être capable de créer
une agitation, un remous dans la communauté et de s’en faire l’écho, pour rediriger
l’information à nouveau vers la blogosphère qui en a débattu. On assiste donc à une
relation où chaque acteur se nourrit de l’autre.
Dans le même ordre d’idée l’hebdomadaire Marianne a publié dans son numéro
521 un article sur les dessous de la campagne du candidat de l’UMP. Cet article avait
bénéficié d’une forte campagne, Jean François Kahn avait annoncé un article avec des
informations inédites, or il s’est avéré que la plupart de l’article s’était inspiré d’une vidéo
Dailymotion intitulée « Le vrai Sarkozy » dont le dossier a même emprunté le titre. Il ne
s’agit pas ici de faire un procès pour plagiat, mais il est intéressant de remarquer à
travers cet exemple que les grands médias peuvent tout à fait se servir d’une rumeur
courant sur Internet et dont la propagation est facilitée par les nouvelles plates formes
web 2.0. Ainsi, l’image « dangereuse » présentée aux lecteurs était connue et
commentée par une communauté réduite depuis des mois. On observe la encore un
phénomène d’intensification et de création de contenu très nombreux. De ces contenus
très nombreux s’élève forcement des contenus intéressants pour qui sait les reconnaître.
Ce phénomène est impliqué également dans la création d’un canal d’information
parallèle. Le fait d’utiliser ce genre d’enquête amène de plus de nouveaux internautes
désireux de s’informer sur des plates formes alternatives. Dans ces conditions, les
médias se doivent de remédier à leurs insuffisances et d’aller plus loin dans leurs
investigations. Dans le même ordre d’idée, les plates formes vidéos ont joué également
le rôle de moteurs, en donnant parois le « la » de l’actualité politique.
La blogosphère au service de la communication politique
Les sites consacrés à l'élection française forment une galaxie en expansion, dont
les frontières sont difficiles à cerner. Selon Loïc Le Meur, «blogueur» attitré de Nicolas
Sarkozy, il existe environ 1000 sites consacrés au candidat de droite. En ajoutant ceux
qui parlent de Ségolène Royal et des autres prétendants, ainsi que les nombreuses
plateformes de discussions électorales, la «webcampagne» compte sans doute plusieurs
milliers de sites. L’importance de cette blogosphère a largement été prise en compte en
tant qu’outil de communication politique. Utilisant les pronétaires comme de la main
d’œuvre de leur stratégie, la plupart des candidats proposent à ceux-ci des web kit leur
permettant d’arborer sur leurs blogs les couleurs de leurs candidats. On trouve ainsi
pêle-mêle des bannières animées, des animations, ainsi que des boutons et des logos à
insérer sur les sites. De cette manière un site militant pourra être facilement repéré
comme tel et les outils de communication développés par les agences seront utilisés et
répandus sur la toile.
En plus de cette utilisation des pronétaires, les candidats eux-mêmes investissent
le web en créant leurs propres espaces de discussion. Les blogs deviennent ainsi de réels
outils de communication politique, celui d’Alain Juppé en étant un exemple frappant. En
effet, exilé au Québec, c’est par son blog qu’il avait annoncé son retour. Ces blogs
95
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
peuvent également devenir des « think tank » (Groupes de réflexion et d'influence),
comme le « socialisme-et-democratie.net » de Dominique Strauss Kahn. De même la
boucle est bouclée avec l’invention des « meet-ups », importés des USA, et qui
permettent au candidat de rencontrer les internautes, invités à une conférence. Ces
soirées de réseautage ont largement été utilisées par Howard Dean, candidat démocrate
à l’investiture américaine, mais leur efficacité n’est pas vraiment avérée.
Ainsi les plates formes existantes du monde web 2.0 sont largement usitées en
communication politique, encore plus qu’elles peuvent l’être pour des opérations
marketing plus traditionnelles. Si on ne peut pas raisonnablement parler de cinquième
pouvoir en ce qui concerne les blogs, l’existence d’un rôle d’intensificateur et de prise de
conscience du lectorat est claire.
Conclusion
Que ce soit par le biais des sites officiels, de l’explosion des blogs dédiés ou
l’utilisation massives des services de partages de fichiers, le web 2.0 a été au cœur de la
campagne présidentielle, et son impact sur la population entière a pu être appréhendé
par le plus grand nombre. Ainsi la campagne présidentielle a pu permettre à ces
nouvelles philosophies s’extraire de leur carcan technologique et de s’inviter dans la
majorité des foyers français. Cet exemple a donc permis d’en percevoir l’impact sur des
internautes peu habitué à utiliser ces services et nouvelles possibilités offertes par le web
2.0.
Dans ces conditions, l’étude de la modification de l’expérience qu’a l’utilisateur
d’Internet au travers de la campagne nous permet de conclure sur ce qui sera son impact
dans les autres secteurs. Une réappropriation des outils et des débats sans passer par les
grands organes traditionnels qui sont utilisés avec circonspection en est la première
corollaire. Dans un second temps, le web 2.0 par les nouvelles technologies comme les
flux RSS ou l’AJAX, permet également à l’internaute de suivre les évolutions des débats
au cours du temps sans passer par les sites pourvoyeurs de ce flux informatif mais de les
avoir directement sur des sites agrégateurs comme Netvibes ou Politique 2.0. Sylvain
Besson, directeur de l’institut CSA, le résume parfaitement lors d’un entretien au Temps,
quotidien suisse : « [...] 15% des Français affirment qu'Internet est l'un des instruments
principaux dont ils se servent pour faire leur choix. Ce n'est plus marginal, ou limité à
quelques petits secteurs de la jeunesse urbaine comme c'était le cas en 2002. Bien sûr,
une victoire présidentielle n'est jamais due à un seul facteur. Mais, si le résultat final est
serré, Internet sera l'un des éléments qui pourront faire la différence. »50 Internet a
obligé les candidats à être plus en prise avec leurs communautés, comme cela avait été
préconisé par les marketers 2.0 et imaginé par les net artistes.
Le web est appelé à faire de plus en plus partie de la vie de tous les jours, et la
campagne américaine pour la présidentielle de 2008 sera surement riche en innovations.
Ainsi le candidat Barack Obama a déjà ouvert sa propre interface de type Myspace
permettant aux militants démocrates de se rencontrer, dans la lignée de Sexy centriste.
Hillary Clinton a quant à elle fait appel aux Yahoo Answers, une solution collaborative de
réponse à des questions posées en ligne, pour rédiger son programme sur l’aide sociale.
Ainsi le choix de l’angle de la politique nous a permis de comprendre en quoi les
stratégies et méthode de réalisation évoquées plus haut ont réellement impactées la
perception qu’a l’internaute de la toile. Fort de cette étude nous allons maintenant
pouvoir conclure sur l’impact qu’a eu le web 2.0 sur les différents acteurs d’Internet,
mais également ouvrir notre étude à ce qui reste encore à concevoir dans le futur.
50
BESSON, Sylvain (2007, Fev) « Présidentielle sous influence du Net ». Sur letemps.ch.
Consulté le 18/05/07.
http://www.letemps.ch/dossiers/dossiersarticle.asp?ID=199921
96
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Conclusion
Les réponses apportées par cette étude
97
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Le web 2.0 change en douceur le visage des relations personnelles et
professionnelles. Les nouvelles générations inventent leur propre manière d’être
ensemble, plus fluide, plus mobile, plus centrée sur l’individu. Cette volonté se retrouve
d’une part dans les théories marketing 2.0, comme le pinko marketing, dans les
nouvelles méthodes de réalisation, comme la prise en compte de plus en plus grande des
minorités et de l’accessibilité de celles-ci aux différents services, dans le monde de l’art
avec des œuvres qui se créent directement par l’utilisateur ou de la recherche avec des
applications qui permettent à une maison devenir intelligente et de satisfaire tous les
besoins des habitants. Enfin cette volonté de recentrer le service sur l’individu se
retrouve également dans le monde politique où la campagne 2007 a permis aux électeurs
de se réapproprier le flux informatif et de forcer les médias à sortir du débat stérile qui
était en vigueur auparavant.
Ainsi le web 2.0, devient véritablement un outil universel permettant à chacun de
créer n’importe quoi, de n’importe quelle qualité et dans n’importe quel secteur. En
donnant à l’internaute les moyens de parvenir à concrétiser son imagination, le web 2.0
lui permet d’utiliser ses services pour créer une œuvre d’art, pour vendre un produit, ou
pour permettre à un homme de diriger un pays. C’est à mon sens là que se trouve la
vraie révolution induite par ces technologies. L’Ajax, les flux RSS, ne sont que des
moyens de parvenir à cet outil de même que la collaboration ou la création de
communauté. Celle-ci peuvent être des leviers pour créer, pour concevoir, rendant ainsi
possible aux réseaux sociaux de se former aux quatre coins de la planète.
Notre problématique de départ était l’étude de l’impact qu’ont les nouvelles
technologies web 2.0 sur les différents acteurs du monde virtuel de la toile. Cette étude a
permis de montrer que cet impact est énorme, non pas en changeant d’un bloc toute les
idées précédentes mais en opérant de subtiles modifications des mentalités et des
philosophies et ce à tous les niveaux. Ainsi le web 2.0, par une succession de petites
percées devient une innovation majeure, que le futur va contribuer à encore faire
évoluer, le web 3.0 étant de plus en plus proche désormais. Comme l’énonçait Marshall
Mac Luhan en 1967, « La nouvelle indépendance électronique récrée le monde en un
village planétaire »51. Ce qui était vrai il y a 40 ans devient encore plus vrai maintenant,
Internet raccourcissant les distance d’une part entre les hommes mais également entre
les esprits faisant du professionnel l’égal en théorie de l’amateur, et l’artiste l’égal du
politicien.
Mc Luhan distinguait les médias « chauds » des médias « froids ». Les premiers
sont ceux qui diffusent un flux d’information très dense, laissant peu la place à
l’interprétation, comme la télévision. Celle-ci utilise un sens du spectateur, et lui donne
une « haute définition »52. Ce qui le rend tout à fait réceptif au message diffusé. Au
contraire le média froid est celui qui ne monopolise qu’un ou deux sens, comme le
téléphone, et qui permet de se distancier du message délivré. Dans ces conditions, le
web 2.0 rend l’Internet à la fois paroxysme du média chaud puisqu’il couvre toutes les
formes de communication possible, et leur donne cette haute définition, comme nous
l’avons vu. Or le web 2.0 est également un média particulièrement froid puisque
l’ensemble de son contenu est créé par l’utilisateur lui-même. C’est la encore ce qui en
fait plus qu’une simple mode, une réelle évolution, voire une révolution des modes de
communication. Révolution qui est d’ores et déjà à l’œuvre. En effet, il suffit de prendre
en compte la place grandissante de la collaboration dans les médias traditionnels pour
s’apercevoir que les philosophies 2.0 sont déjà ancrées dans notre quotidien. Débats
participatifs menés par des citoyens sur les grandes chaines hertziennes, prise en compte
grandissante de la blogosphère dans les quotidiens sont autant d’exemples qui le
montrent.
51
52
MAC LUHAN, Marshall, Pour comprendre les médias, Paris, Editions HMH, 1968, 404p
MAC LUHAN, Op. Cit.
98
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Il reste maintenant à ces philosophies de trouver leur équilibre et leur pérennité.
En entrant dans sa phase de maturité, le web 2.0 se donnera les capacités de remodeler
le monde de l’information. La participation de chacun donne à l’information brute de
moins en moins de valeur, les communautés en étant une source intarissable. C’est
l’enrichissement de celle-ci qui constituera l’enjeu majeur des prochaines années.
Néanmoins avant de parler de communauté mondiale, il s’agit pour les démocraties
occidentales d’aider à réduire la fracture numérique avec l’hémisphère sud, qui
représente le principal frein à la création du village global, tel que décrit par Mc Luhan.
99
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Bibliographie
Les ouvrages utilisés pour mener à bien cette étude
100
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Bibliographie
BEER, Günter, Web Design Index 6, Amsterdam, The Pepin Press, 2006, 368p
BENCHMARK GROUP, L’impact des RIA dans la banque et l’assurance, Benchmark Group,
2006, 40p
BERTRAND, Patrice, Conception d’applications web : efficacité et utilisabilité, Smile, 60p
CULNAERT, Eric, Regard sur une autre forme de communication personnelle pour le chef
d'entreprise : LE BLOG, 2006, 6p
DE ROSNAY, Joël, La révolte du pronétariat, Paris, Fayard, 2006, 250p
FLICHY, Patrice, L’imaginaire d’Internet, Paris, La découverte, 272p
GUIDWIRE Group, Blogging in the Enterprise, Guidwire Group, 2005, 14p
HEILBRUN, Benoit, Le logo, Paris, Presse Universitaires De France, 2006, 127p
HERVY, Etienne, (2003, mar.) « Nouveau logo de l’université de Venise, concours
international ». Etapes Graphiques, n°94, p. 42
JOUVE, Michèle, Communication et Publicité, Rosny, Bréal Editions, 1994, 302p
KLEIN, Naomi, No logo : la tyrannie des marques, Paris, J’ai Lu, 2004, 573p
LOCKE, Christopher & LEVINE, Rick & SEARLS, Doc, The Cluetrain Manifesto: The End of
Business As Usual, New York, Perseus Books Group, 2001, 190p
MAC LUHAN, Marshall, Pour comprendre les médias, Paris, Editions HMH, 1968, 404p
MALAVAL, Philippe & DECAUDIN, Jean Marc & BENAROYA, Christophe, Pentacom, Paris,
Pearson Editions, 2005, 760p
MULLER Charles, (2006, nov.) « Mondanités virtuelles ». Connecté, n°1, p. 21
MULLER Charles, (2006, nov.) « Web 2.0 : Le septième continent ». Connecté, n°1, p. 24
MARTIN, Michel, Blogs Podcast et Vidéoblogs, Paris, Campus Press, 2005, 260p
MILLS, Jason & DONNELLY, Daniel, Typography, Hamburg, Ginkgo Press, 1998, 192p
ORTE, Alberto, The Creator Studio #7: Sigles, Barcelone, La Habitaciòn ediciones, 2006,
100p
PERRY, Bruce-W, Ajax à 200%, Paris, O’Reilly Editions, 2006, 432p
PROULX, Serge & JAUREGUIBERRY, Francis, Internet, nouvel espace citoyen, Paris,
L'Harmattan, 2003, 249p
SCHAEFFER, Flora, Graphisme de Sites Web, Paris, Micro Application, 2006, 465p
SCHMITT, Christopher, CSS en action, Paris, O’Reilly, 2005, 262p
SERRA, Carlos, The Creator Studio #8: Pop!, Barcelone, La Habitaciòn ediciones, 2007,
100p
101
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
SQLI Agency, Méthode d’ergonomie web, SQLI, 2006, 56p
WALKER, Lisa & BLOUNT, Steve, Letterhead logo design, Düsseldorf, NIPPAN, 1992, 255p
WIEDEMANN, Julius, Web Design: Portfolio, Köln, Tashen, 2006, 190p
Webographie
AUFFRAY, Christophe (2006, Aout) « Le Web 2.0, vers une maturité d'ici deux ans ». Sur
le Journal du Net. Consulté le 12/04/07.
http://www.journaldunet.com/imprimer/0608/060825-gartner-techno-emergentes.shtml
BIGER, Odile, (2007, janv) “ Advergaming avec Orangina : quand la pub devient un
jeu... ». Sur Marketing et Convergence. Consulté le 01/05/07.
http://www.marketing-et-convergence.com/article-5212588.html
BIGER, Odile, (2006, dec.) “Le blog instrument de croissance et de dialogue». Sur
Marketing et Convergence. Consulté le 01/05/07.
http://www.marketing-et-convergence.com/article-4875119.html
BIGER, Odile, (2007, janv.) “Le marketing du sur mesure». Sur Marketing et
Convergence. Consulté le 01/05/07.
http://www.marketing-et-convergence.com/article-5267121.html
BIGER, Odile, (2006, dec.) “ Les nouvelles formes de placement produit». Sur Marketing
et Convergence. Consulté le 01/05/07.
http://www.marketing-et-convergence.com/article-4781184.html
102
BORDAGE, Frédéric (2007, Mars) « WEB 2.0 : Le glossaire 2007 » Sur Indexel. Consulté
le 30/03/07.
http://www.indexel.net/1_6_4788__3_/15/90/1/Web_2.0___le_glossaire_2007.htm
CAVAZZA, Fred (2005, Fev.) « Web 2.0 : une première définition ». Sur fredcavazza.net.
Consulté le 04/03/07.
http://www.fredcavazza.net/index.php?2005/08/24/808-web-20-une-premiere-definition
CALORE, Michael, (2006, Fev) « Ten Best Flickr Mashups ». Sur WebMonkey. Consulté le
01/03/07
http://www.webmonkey.com/webmonkey/06/08/index4a.html?tw=commentary
Collectif (2007) « Définition du web 2.0 », Sur Alaide.com.
Consulté le 03/03/07
http://www.alaide.com/dico.php?q=q=web+2.0&page=dico
Collectif (2007) « Web 2.0 », Sur Wikipedia.
Consulté le 03/03/07
http://fr.wikipedia.org/wiki/Web_2.0
Collectif (2007) « Crowdsourcing », Sur Wikipedia.
Consulté le 03/03/07
http://fr.wikipedia.org/wiki/Crowdsourcing
Collectif (2007) « AJAX », Sur Wikipedia.
Consulté le 03/03/07
http://fr.wikipedia.org/wiki/Ajax
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Collectif (2006, Jui.) “Google, Yahoo, Web 2.0, AOL, marketing viral...” Sur le Journal du
Net. Consulté le 30/03/07.
http://www.journaldunet.com/imprimer/ailleurs/ailleurs060728.shtml
Collectif (2006, Juin) « Web 2.0, eBay, Cross-Selling, Podcast Tim O'Reilly...”. sur le
Journal du Net. Consulté le 03/04/07.
http://www.journaldunet.com/imprimer/ailleurs/ailleurs060612.shtml
Collectif (2007, Avril) « Web La présidentielle et Internet”. Sur le Journal du Net.
Consulté le 03/05/07.
http://www.journaldunet.com/dossiers/presidentielle2007/index.shtml
COLLET Michael, (2007, Avr.) “Campagne présidentielle et politique 2.0”. Sur Ergonomic
garden. Consulté le 30/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2007/04/20/53campagne-presidentielle-et-politique-20
COLLET Michael, (2006, Nov.) “ Du Web 2.0 dans l'Intranet”. Sur Ergonomic garden.
Consulté le 30/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2006/11/22/31-du-web20-dans-l-intranet
D., S. (20006, Mai) « Qu'est-ce que le Web 2.0 ? » Sur lefigaro.fr.
Consulté le 12/03/07.
http://www.lefigaro.fr/hightech/20060510.WWW000000358_qu_est_ce_que_le_web_.html
DA SILVA, Géraldine, (2006, Nov.) “ Apport des composants riches dans les applications
métiers”. Sur Ergonomic garden. Consulté le 30/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2006/11/03/10-apportdes-composants-riches-dans-les-applications-metiers
DAVIDD, (2006) « Le Web 2.0 surchauffe et la bulle 2.0 gonfle ». Sur 1ere position.
Consulté le 10/04/07
http://www.1ere-position.fr/blog/traba.php?id=90
DEGOR, Stéphane (2006, Oct.) « Les agents virtuels : nouvelle arme du marketing
online » Sur Marketing Etudiant. Consulté le 25/05/07.
http://www.marketing-etudiant.fr/actualites/agents-virtuels-marketing-online.php
DEVAUX Guillaume, (2006, oct.) « Eyeka met du web 2.0 dans les mobiles ». Sur le
Journal du Net. Consulté le 10/04/07
http://www.journaldunet.com/imprimer/0610/061025-eyeka.shtml
DEVAUX, Guillaume, (2007, Avril) « Jacques Séguéla / Thierry Saussez : leurs points de
vue sur la cyber-campagne présidentielle ». Sur le journal du Net. Consulté le 20/05/07.
http://www.journaldunet.com/0704/070419-net-seguela-saussez-prise-elyseecampagne-presidentielle.shtml
DUPIN, Laurent (2007, Mai) « Web 2.0 et participation, piliers de la "Net campagne" de
la candidate Ségolène Royal». Sur Zdnet.fr. Consulté le 12/05/07.
http://www.zdnet.fr/entreprise/managementrh/collaboratif/0,50007183,39369202,00.htm
FIELDING, Roy, (2000) « Representational State Transfer (REST)”, Sur UCIrvine.
Consulté le 04/0307.
http://www.ics.uci.edu/%7Efielding/pubs/dissertation/rest_arch_style.htm
103
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
FRANCOU, Renaud (2006, Juin) « UpFing06 : Le phénomène Skyblog ». Sur Internet
Actu. Consulté le 20/03/07
http://www.Internetactu.net/?p=6481
FRERES PINKO (Les), (2007) « Pinko Marketing » Sur La voie du Pinko. Consulté le
25/04/07.
http://www.wikiservice.at/fractal/wikidev.cgi?FR/PinkoMarketing
GUILLAUD, Hubert, (2006, Juin) « La montée du crowdsourcing » Sur Internet Actu.
Consulté le 17/04/07
http://www.Internetactu.net/?p=6470
GUILLAUD, Hubert, (2007, Mai) « Web 2.0 : une implication toujours faible » Sur
Internet Actu. Consulté le 04/05/07
http://www.Internetactu.net/?p=7035
GUILLAUD, Hubert, (2006, Mai) « La nouvelle sagesse du web ou “l’esclavage 2.0″ ?»
Sur Internet Actu. Consulté le 12/05/07
http://www.Internetactu.net/?p=6447
HANSSON, David Heinemeier, « Ruby on Rails overview » Sur Rubyonrails.org. Consulté
le 15/03/07
http://www.rubyonrails.org
HEBI FLASH BLOG (2006, oct.) « Le web 2.0 en entreprise et ses barrières : publier,
échanger, partager ». Sur Hebi Flash blog. Consulté le 20/04/07.
http://www.hebiflux.com/blog/2006/10/08/le-web-20-en-entreprise-et-ses-barrierespublier-echanger-partager/
HEEN Didier (2006) « Net Marketing Communication Virale » Sur Virale.over-blog.com.
Consulté le 13/04/07.
http://net.com.virale.over-blog.com/
HERVOUET, Julien (2007, janv.) « Vers des formats publicitaires 2.0 » Sur La Wouat.
Consulté le 12/05/07.
http://www.wouat.com/2007/01/20/vers-des-formats-publicitaires-20/
HUNT, Ben (2006, Déc.) «Web 2.0 how-to design guide ». Sur Web Design From Scratch.
Consulté le 14/05/07.
http://webdesignfromscratch.com/web-2.0-design-style-guide.cfm
HUNT, Tara (2007) «Marketing in the post cluetrain era” Sur Pinko Marketing Wiki”.
Consulté le 20/04/07.
http://pinkomarketing.pbwiki.com/Marketing+in+the+Post-Cluetrain+Era
JEROME (2006, Mars) « Les publi-rédacs débarquent » Sur Studyblog. Consulté le
20/04/07.
http://studyblog.over-blog.com/article-2080905-6.html
K., Guillaume (2006, Juin) « Web 2.0 : vers une nouvelle définition ? » Sur Génération
Nouvelles Technologies. Consulté le 06/03/07.
http://www.generation-nt.com/web-nouvelle-definition-bulle-2-actualite-14653.html
LABRIET, Helene (2007, janv.) « 2007 sera une boucherie pour le Web 2.0 ». Sur 01net.
Consulté le 20/04/07.
http://www.01net.com/article/339707.html
104
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
LASSELIN, François (2006, juin) « Le web 2.0 est-il précieux pour l'entreprise ? ». Sur
Nalis. Consulté le 12/04/07
http://blog.nalis.fr/index.php?2006/06/18/26-le-web-20-est-il-precieux-pour-l-entreprise
LEJEUNE, Yannick, (2006, 21 nov.) « La lifecam de Zazon », Sur yannicklejeune.com.
Consulté le 15/04/07.
http://www.yannicklejeune.com/2006/11/la_lifecam_de_z.html
LEVY, Steven & STONE, Brad (2006) « The New Wisdom of the Web”. Sur Newsweek.
Consulté le 15/05/07.
http://www.msnbc.msn.com/id/12015774/site/newsweek/
MAILHES, Laetitia (2006, nov.) « Le Web 2.0 cherche encore sa voie commerciale ». Sur
lesechos.fr. Consulté le 30/04/07.
http://blogs.lesechos.fr/article.php?id_article=731
MIGAN, Thérèse, (2006, Dec.) « Ergonomie et graphisme des sites Web : Une explication
du lien esthétique/utilisabilité”. Sur Ergonomic garden. Consulté le 20/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2006/12/27/42ergonomie-et-graphisme-des-sites-web-une-explication-du-lien-esthetique-utilisabilite
MIGAN, Thérèse, (2006, Dec.) « Ergonomie et graphisme des sites Web : « Ce qui est
beau est utilisable ». Sur Ergonomic garden. Consulté le 20/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2006/10/19/25ergonomie-et-graphisme-des-sites-web-ce-qui-est-beau-est-utilisable
MIGAN, Thérèse, (2006, Sept.) « Ergonomie et graphisme des sites Web : un renouveau
des questions esthétiques». Sur Ergonomic garden. Consulté le 20/05/07.
http://www.sqliagency.com/blogs/ergonomicgarden/index.php?2006/09/26/12ergonomie-et-graphisme-des-sites-web-un-renouveau-des-questions-esthetiques
NIEUWBOURG, Philippe (2007, Avr.) «Google se lance dans le CRP professionnel avec
Etelos » Sur Stratégie & web 2.0. Consulté le 22/04/07.
http://strategieweb20.com/Google-se-lance-dans-le-CRM-professionel-avecEtelos_a270.html?PHPSESSID=339008c0af3133fa5b2fe0009cb08d20
O’REILLY, Tom, “What is web 2.0 : Design Patterns and Business Models for the Next
Generation of Software”. Sur oreillynet.com. Consulté le 20/02/07.
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html
PIGNIER, Nicole, (2007, Avr.) « Les logos du web 2.0 vus par une sémioticienne ». Sur
Designers Interactifs. Consulté le 20/04/07.
http://www.designersinteractifs.com/site/index.php?2007/04/07/76-les-logos-du-web20-vus-par-une-semioticienne
ROTROU Stéphane (2006, oct.) « Web 2.0, nouvelle donne pour la publicité et le
marketing » Sur le Journal du Net. Consulté le 15/04/07.
http://www.journaldunet.com/imprimer/tribune/061024-rotrou.shtml
VERRON, François, (2007, Fev.) « Bon, au final, le WEB 2.0, c'était du vent ? » Sur emarketing garden. Consulté le 12/04/07.
http://www.sqli-agency.com/blogs/emarketinggarden/index.php?2007/02/23/131-bonau-final-le-web-20-c-etait-du-vent
105
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Annexes
106
Aides à la compréhension et développements parallèles
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Annexe 1 : L’article fondateur du web 2.0, par Tim O’Reilly
Annexe 2 : Le Cluetrain Manifesto
Annexe 3 : Exemple de fichier CSS
Annexe 4 : Exemple de fichier XML
Annexe 5 : Exemple de fichier XSL
Annexe 6 : Exemple de nuage de tags
Annexe 7 : Cartographie du Marketing
Annexe 8 : Les différences de l’interaction client-vendeur
Annexe 9 : Transcription d’entretien
107
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Annexe 1 : L’article fondateur du web 2.0, par Tim O’Reilly
What Is Web 2.0
Design Patterns and Business Models for the Next Generation of Software
by Tim O'Reilly
09/30/2005
The bursting of the dot-com bubble in the fall of 2001 marked a turning point for the web. Many people
concluded that the web was overhyped, when in fact bubbles and consequent shakeouts appear to be a
common feature of all technological revolutions. Shakeouts typically mark the point at which an ascendant
technology is ready to take its place at center stage. The pretenders are given the bum's rush, the real success
stories show their strength, and there begins to be an understanding of what separates one from the other.
The concept of "Web 2.0" began with a conference brainstorming session between O'Reilly and MediaLive
International. Dale Dougherty, web pioneer and O'Reilly VP, noted that far from having "crashed", the web was
more important than ever, with exciting new applications and sites popping up with surprising regularity.
What's more, the companies that had survived the collapse seemed to have some things in common. Could it
be that the dot-com collapse marked some kind of turning point for the web, such that a call to action such as
"Web 2.0" might make sense? We agreed that it did, and so the Web 2.0 Conference was born.
In the year and a half since, the term "Web 2.0" has clearly taken hold, with more than 9.5 million citations in
Google. But there's still a huge amount of disagreement about just what Web 2.0 means, with some people
decrying it as a meaningless marketing buzzword, and others accepting it as the new conventional wisdom.
This article is an attempt to clarify just what we mean by Web 2.0.
In our initial brainstorming, we formulated our sense of Web 2.0 by example:
Web 1.0
DoubleClick
Ofoto
Akamai
mp3.com
Britannica Online
personal websites
evite
domain name speculation
page views
screen scraping
publishing
content management systems
directories (taxonomy)
stickiness
-->
-->
-->
-->
-->
-->
-->
-->
-->
-->
-->
-->
-->
-->
Web 2.0
Google AdSense
Flickr
BitTorrent
Napster
Wikipedia
blogging
upcoming.org and EVDB
search engine optimization
cost per click
web services
participation
wikis
tagging ("folksonomy")
syndication
The list went on and on. But what was it that made us identify one application or approach as "Web 1.0" and
another as "Web 2.0"? (The question is particularly urgent because the Web 2.0 meme has become so
widespread that companies are now pasting it on as a marketing buzzword, with no real understanding of just
what it means. The question is particularly difficult because many of those buzzword-addicted startups are
definitely not Web 2.0, while some of the applications we identified as Web 2.0, like Napster and BitTorrent, are
not even properly web applications!) We began trying to tease out the principles that are demonstrated in one
way or another by the success stories of web 1.0 and by the most interesting of the new applications.
1. The Web As Platform
Like many important concepts, Web 2.0 doesn't have a hard boundary, but rather, a gravitational core. You can
visualize Web 2.0 as a set of principles and practices that tie together a veritable solar system of sites that
demonstrate some or all of those principles, at a varying distance from that core.
Figure 1 shows a "meme map" of Web 2.0 that was developed at a brainstorming session during FOO Camp, a
conference at O'Reilly Media. It's very much a work in progress, but shows the many ideas that radiate out
from the Web 2.0 core.
For example, at the first Web 2.0 conference, in October 2004, John Battelle and I listed a preliminary set of
principles in our opening talk. The first of those principles was "The web as platform." Yet that was also a
rallying cry of Web 1.0 darling Netscape, which went down in flames after a heated battle with Microsoft.
What's more, two of our initial Web 1.0 exemplars, DoubleClick and Akamai, were both pioneers in treating the
108
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
web as a platform. People don't often think of it as "web services", but in fact, ad serving was the first widely
deployed web service, and the first widely deployed "mashup" (to use another term that has gained currency of
late). Every banner ad is served as a seamless cooperation between two websites, delivering an integrated
page to a reader on yet another computer. Akamai also treats the network as the platform, and at a deeper
level of the stack, building a transparent caching and content delivery network that eases bandwidth
congestion.
Nonetheless, these pioneers provided useful contrasts because later entrants have taken their solution to the
same problem even further, understanding something deeper about the nature of the new platform. Both
DoubleClick and Akamai were Web 2.0 pioneers, yet we can also see how it's possible to realize more of the
possibilities by embracing additional Web 2.0 design patterns.
Let's drill down for a moment into each of these three cases, teasing out some of the essential elements of
difference.
Netscape vs. Google
If Netscape was the standard bearer for Web 1.0, Google is most certainly the standard bearer for Web 2.0, if
only because their respective IPOs were defining events for each era. So let's start with a comparison of these
two companies and their positioning.
Netscape framed "the web as platform" in terms of the old software paradigm: their flagship product was the
web browser, a desktop application, and their strategy was to use their dominance in the browser market to
establish a market for high-priced server products. Control over standards for displaying content and
applications in the browser would, in theory, give Netscape the kind of market power enjoyed by Microsoft in
the PC market. Much like the "horseless carriage" framed the automobile as an extension of the familiar,
Netscape promoted a "webtop" to replace the desktop, and planned to populate that webtop with information
updates and applets pushed to the webtop by information providers who would purchase Netscape servers.
In the end, both web browsers and web servers turned out to be commodities, and value moved "up the stack"
to services delivered over the web platform.
Google, by contrast, began its life as a native web application, never sold or packaged, but delivered as a
service, with customers paying, directly or indirectly, for the use of that service. None of the trappings of the
old software industry are present. No scheduled software releases, just continuous improvement. No licensing
or sale, just usage. No porting to different platforms so that customers can run the software on their own
equipment, just a massively scalable collection of commodity PCs running open source operating systems plus
homegrown applications and utilities that no one outside the company ever gets to see.
At bottom, Google requires a competency that Netscape never needed: database management. Google isn't
just a collection of software tools, it's a specialized database. Without the data, the tools are useless; without
the software, the data is unmanageable. Software licensing and control over APIs--the lever of power in the
previous era--is irrelevant because the software never need be distributed but only performed, and also
because without the ability to collect and manage the data, the software is of little use. In fact, the value of the
software is proportional to the scale and dynamism of the data it helps to manage.
Google's service is not a server--though it is delivered by a massive collection of Internet servers--nor a
browser--though it is experienced by the user within the browser. Nor does its flagship search service even host
the content that it enables users to find. Much like a phone call, which happens not just on the phones at either
end of the call, but on the network in between, Google happens in the space between browser and search
engine and destination content server, as an enabler or middleman between the user and his or her online
experience.
While both Netscape and Google could be described as software companies, it's clear that Netscape belonged to
the same software world as Lotus, Microsoft, Oracle, SAP, and other companies that got their start in the
1980's software revolution, while Google's fellows are other Internet applications like eBay, Amazon, Napster,
and yes, DoubleClick and Akamai.
DoubleClick vs. Overture and AdSense
Like Google, DoubleClick is a true child of the Internet era. It harnesses software as a service, has a core
competency in data management, and, as noted above, was a pioneer in web services long before web services
even had a name. However, DoubleClick was ultimately limited by its business model. It bought into the '90s
notion that the web was about publishing, not participation; that advertisers, not consumers, ought to call the
shots; that size mattered, and that the Internet was increasingly being dominated by the top websites as
measured by MediaMetrix and other web ad scoring companies.
109
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
As a result, DoubleClick proudly cites on its website "over 2000 successful implementations" of its software.
Yahoo! Search Marketing (formerly Overture) and Google AdSense, by contrast, already serve hundreds of
thousands of advertisers apiece.
Overture and Google's success came from an understanding of what Chris Anderson refers to as "the long tail,"
the collective power of the small sites that make up the bulk of the web's content. DoubleClick's offerings
require a formal sales contract, limiting their market to the few thousand largest websites. Overture and Google
figured out how to enable ad placement on virtually any web page. What's more, they eschewed publisher/adagency friendly advertising formats such as banner ads and popups in favor of minimally intrusive, contextsensitive, consumer-friendly text advertising.
The Web 2.0 lesson: leverage customer-self service and algorithmic data management to reach out to the
entire web, to the edges and not just the center, to the long tail and not just the head.
Not surprisingly, other web 2.0 success stories demonstrate this same behavior. eBay enables occasional
transactions of only a few dollars between single individuals, acting as an automated intermediary. Napster
(though shut down for legal reasons) built its network not by building a centralized song database, but by
architecting a system in such a way that every downloader also became a server, and thus grew the network.
Akamai vs. BitTorrent
Like DoubleClick, Akamai is optimized to do business with the head, not the tail, with the center, not the edges.
While it serves the benefit of the individuals at the edge of the web by smoothing their access to the highdemand sites at the center, it collects its revenue from those central sites.
BitTorrent, like other pioneers in the P2P movement, takes a radical approach to Internet decentralization.
Every client is also a server; files are broken up into fragments that can be served from multiple locations,
transparently harnessing the network of downloaders to provide both bandwidth and data to other users. The
more popular the file, in fact, the faster it can be served, as there are more users providing bandwidth and
fragments of the complete file.
BitTorrent thus demonstrates a key Web 2.0 principle: the service automatically gets better the more people
use it. While Akamai must add servers to improve service, every BitTorrent consumer brings his own resources
to the party. There's an implicit "architecture of participation", a built-in ethic of cooperation, in which the
service acts primarily as an intelligent broker, connecting the edges to each other and harnessing the power of
the users themselves.
2. Harnessing Collective Intelligence
The central principle behind the success of the giants born in the Web 1.0 era who have survived to lead the
Web 2.0 era appears to be this, that they have embraced the power of the web to harness collective
intelligence:
•
•
•
•
•
Hyperlinking is the foundation of the web. As users add new content, and new sites, it is bound in to
the structure of the web by other users discovering the content and linking to it. Much as synapses
form in the brain, with associations becoming stronger through repetition or intensity, the web of
connections grows organically as an output of the collective activity of all web users.
Yahoo!, the first great Internet success story, was born as a catalog, or directory of links, an
aggregation of the best work of thousands, then millions of web users. While Yahoo! has since moved
into the business of creating many types of content, its role as a portal to the collective work of the
net's users remains the core of its value.
Google's breakthrough in search, which quickly made it the undisputed search market leader, was
PageRank, a method of using the link structure of the web rather than just the characteristics of
documents to provide better search results.
eBay's product is the collective activity of all its users; like the web itself, eBay grows organically in
response to user activity, and the company's role is as an enabler of a context in which that user
activity can happen. What's more, eBay's competitive advantage comes almost entirely from the
critical mass of buyers and sellers, which makes any new entrant offering similar services significantly
less attractive.
Amazon sells the same products as competitors such as Barnesandnoble.com, and they receive the
same product descriptions, cover images, and editorial content from their vendors. But Amazon has
made a science of user engagement. They have an order of magnitude more user reviews, invitations
to participate in varied ways on virtually every page--and even more importantly, they use user
activity to produce better search results. While a Barnesandnoble.com search is likely to lead with the
company's own products, or sponsored results, Amazon always leads with "most popular", a real-time
computation based not only on sales but other factors that Amazon insiders call the "flow" around
110
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
products. With an order of magnitude more user participation, it's no surprise that Amazon's sales also
outpace competitors.
Now, innovative companies that pick up on this insight and perhaps extend it even further, are making their
mark on the web:
•
•
•
•
•
Wikipedia, an online encyclopedia based on the unlikely notion that an entry can be added by any web
user, and edited by any other, is a radical experiment in trust, applying Eric Raymond's dictum
(originally coined in the context of open source software) that "with enough eyeballs, all bugs are
shallow," to content creation. Wikipedia is already in the top 100 websites, and many think it will be in
the top ten before long. This is a profound change in the dynamics of content creation!
Sites like del.icio.us and Flickr, two companies that have received a great deal of attention of late,
have pioneered a concept that some people call "folksonomy" (in contrast to taxonomy), a style of
collaborative categorization of sites using freely chosen keywords, often referred to as tags. Tagging
allows for the kind of multiple, overlapping associations that the brain itself uses, rather than rigid
categories. In the canonical example, a Flickr photo of a puppy might be tagged both "puppy" and
"cute"--allowing for retrieval along natural axes generated user activity.
Collaborative spam filtering products like Cloudmark aggregate the individual decisions of email users
about what is and is not spam, outperforming systems that rely on analysis of the messages
themselves.
It is a truism that the greatest Internet success stories don't advertise their products. Their adoption is
driven by "viral marketing"--that is, recommendations propagating directly from one user to another.
You can almost make the case that if a site or product relies on advertising to get the word out, it isn't
Web 2.0.
Even much of the infrastructure of the web--including the Linux, Apache, MySQL, and Perl, PHP, or
Python code involved in most web servers--relies on the peer-production methods of open source, in
themselves an instance of collective, net-enabled intelligence. There are more than 100,000 open
source software projects listed on SourceForge.net. Anyone can add a project, anyone can download
and use the code, and new projects migrate from the edges to the center as a result of users putting
them to work, an organic software adoption process relying almost entirely on viral marketing.
The lesson: Network effects from user contributions are the key to market dominance in the Web 2.0 era.
Blogging and the Wisdom of Crowds
One of the most highly touted features of the Web 2.0 era is the rise of blogging. Personal home pages have
been around since the early days of the web, and the personal diary and daily opinion column around much
longer than that, so just what is the fuss all about?
At its most basic, a blog is just a personal home page in diary format. But as Rich Skrenta notes, the
chronological organization of a blog "seems like a trivial difference, but it drives an entirely different delivery,
advertising and value chain."
One of the things that has made a difference is a technology called RSS. RSS is the most significant advance in
the fundamental architecture of the web since early hackers realized that CGI could be used to create databasebacked websites. RSS allows someone to link not just to a page, but to subscribe to it, with notification every
time that page changes. Skrenta calls this "the incremental web." Others call it the "live web".
Now, of course, "dynamic websites" (i.e., database-backed sites with dynamically generated content) replaced
static web pages well over ten years ago. What's dynamic about the live web are not just the pages, but the
links. A link to a weblog is expected to point to a perennially changing page, with "permalinks" for any
individual entry, and notification for each change. An RSS feed is thus a much stronger link than, say a
bookmark or a link to a single page.
RSS also means that the web browser is not the only means of viewing a web page. While some RSS
aggregators, such as Bloglines, are web-based, others are desktop clients, and still others allow users of
portable devices to subscribe to constantly updated content.
RSS is now being used to push not just notices of new blog entries, but also all kinds of data updates, including
stock quotes, weather data, and photo availability. This use is actually a return to one of its roots: RSS was
born in 1997 out of the confluence of Dave Winer's "Really Simple Syndication" technology, used to push out
blog updates, and Netscape's "Rich Site Summary", which allowed users to create custom Netscape home
pages with regularly updated data flows. Netscape lost interest, and the technology was carried forward by
blogging pioneer Userland, Winer's company. In the current crop of applications, we see, though, the heritage
of both parents.
111
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
But RSS is only part of what makes a weblog different from an ordinary web page. Tom Coates remarks on the
significance of the permalink:
It may seem like a trivial piece of functionality now, but it was effectively the device that turned weblogs from
an ease-of-publishing phenomenon into a conversational mess of overlapping communities. For the first time it
became relatively easy to gesture directly at a highly specific post on someone else's site and talk about it.
Discussion emerged. Chat emerged. And - as a result - friendships emerged or became more entrenched. The
permalink was the first - and most successful - attempt to build bridges between weblogs.
In many ways, the combination of RSS and permalinks adds many of the features of NNTP, the Network News
Protocol of the Usenet, onto HTTP, the web protocol. The "blogosphere" can be thought of as a new, peer-topeer equivalent to Usenet and bulletin-boards, the conversational watering holes of the early Internet. Not only
can people subscribe to each others' sites, and easily link to individual comments on a page, but also, via a
mechanism known as trackbacks, they can see when anyone else links to their pages, and can respond, either
with reciprocal links, or by adding comments.
Interestingly, two-way links were the goal of early hypertext systems like Xanadu. Hypertext purists have
celebrated trackbacks as a step towards two way links. But note that trackbacks are not properly two-way-rather, they are really (potentially) symmetrical one-way links that create the effect of two way links. The
difference may seem subtle, but in practice it is enormous. Social networking systems like Friendster, Orkut,
and LinkedIn, which require acknowledgment by the recipient in order to establish a connection, lack the same
scalability as the web. As noted by Caterina Fake, co-founder of the Flickr photo sharing service, attention is
only coincidentally reciprocal. (Flickr thus allows users to set watch lists--any user can subscribe to any other
user's photostream via RSS. The object of attention is notified, but does not have to approve the connection.)
If an essential part of Web 2.0 is harnessing collective intelligence, turning the web into a kind of global brain,
the blogosphere is the equivalent of constant mental chatter in the forebrain, the voice we hear in all of our
heads. It may not reflect the deep structure of the brain, which is often unconscious, but is instead the
equivalent of conscious thought. And as a reflection of conscious thought and attention, the blogosphere has
begun to have a powerful effect.
First, because search engines use link structure to help predict useful pages, bloggers, as the most prolific and
timely linkers, have a disproportionate role in shaping search engine results. Second, because the blogging
community is so highly self-referential, bloggers paying attention to other bloggers magnifies their visibility and
power. The "echo chamber" that critics decry is also an amplifier.
If it were merely an amplifier, blogging would be uninteresting. But like Wikipedia, blogging harnesses collective
intelligence as a kind of filter. What James Suriowecki calls "the wisdom of crowds" comes into play, and much
as PageRank produces better results than analysis of any individual document, the collective attention of the
blogosphere selects for value.
While mainstream media may see individual blogs as competitors, what is really unnerving is that the
competition is with the blogosphere as a whole. This is not just a competition between sites, but a competition
between business models. The world of Web 2.0 is also the world of what Dan Gillmor calls "we, the media," a
world in which "the former audience", not a few people in a back room, decides what's important.
3. Data is the Next Intel Inside
Every significant Internet application to date has been backed by a specialized database: Google's web crawl,
Yahoo!'s directory (and web crawl), Amazon's database of products, eBay's database of products and sellers,
MapQuest's map databases, Napster's distributed song database. As Hal Varian remarked in a personal
conversation last year, "SQL is the new HTML." Database management is a core competency of Web 2.0
companies, so much so that we have sometimes referred to these applications as "infoware" rather than merely
software.
This fact leads to a key question: Who owns the data?
In the Internet era, one can already see a number of cases where control over the database has led to market
control and outsized financial returns. The monopoly on domain name registry initially granted by government
fiat to Network Solutions (later purchased by Verisign) was one of the first great moneymakers of the Internet.
While we've argued that business advantage via controlling software APIs is much more difficult in the age of
the Internet, control of key data sources is not, especially if those data sources are expensive to create or
amenable to increasing returns via network effects.
Look at the copyright notices at the base of every map served by MapQuest, maps.yahoo.com, maps.msn.com,
or maps.google.com, and you'll see the line "Maps copyright NavTeq, TeleAtlas," or with the new satellite
112
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
imagery services, "Images copyright Digital Globe." These companies made substantial investments in their
databases (NavTeq alone reportedly invested $750 million to build their database of street addresses and
directions. Digital Globe spent $500 million to launch their own satellite to improve on government-supplied
imagery.) NavTeq has gone so far as to imitate Intel's familiar Intel Inside logo: Cars with navigation systems
bear the imprint, "NavTeq Onboard." Data is indeed the Intel Inside of these applications, a sole source
component in systems whose software infrastructure is largely open source or otherwise commodified.
The now hotly contested web mapping arena demonstrates how a failure to understand the importance of
owning an application's core data will eventually undercut its competitive position. MapQuest pioneered the web
mapping category in 1995, yet when Yahoo!, and then Microsoft, and most recently Google, decided to enter
the market, they were easily able to offer a competing application simply by licensing the same data.
Contrast, however, the position of Amazon.com. Like competitors such as Barnesandnoble.com, its original
database came from ISBN registry provider R.R. Bowker. But unlike MapQuest, Amazon relentlessly enhanced
the data, adding publisher-supplied data such as cover images, table of contents, index, and sample material.
Even more importantly, they harnessed their users to annotate the data, such that after ten years, Amazon, not
Bowker, is the primary source for bibliographic data on books, a reference source for scholars and librarians as
well as consumers. Amazon also introduced their own proprietary identifier, the ASIN, which corresponds to the
ISBN where one is present, and creates an equivalent namespace for products without one. Effectively, Amazon
"embraced and extended" their data suppliers.
Imagine if MapQuest had done the same thing, harnessing their users to annotate maps and directions, adding
layers of value. It would have been much more difficult for competitors to enter the market just by licensing the
base data.
The recent introduction of Google Maps provides a living laboratory for the competition between application
vendors and their data suppliers. Google's lightweight programming model has led to the creation of numerous
value-added services in the form of mashups that link Google Maps with other Internet-accessible data sources.
Paul Rademacher's housingmaps.com, which combines Google Maps with Craigslist apartment rental and home
purchase data to create an interactive housing search tool, is the pre-eminent example of such a mashup.
At present, these mashups are mostly innovative experiments, done by hackers. But entrepreneurial activity
follows close behind. And already, one can see that for at least one class of developer, Google has taken the
role of data source away from Navteq and inserted themselves as a favored intermediary. We expect to see
battles between data suppliers and application vendors in the next few years, as both realize just how
important certain classes of data will become as building blocks for Web 2.0 applications.
The race is on to own certain classes of core data: location, identity, calendaring of public events, product
identifiers and namespaces. In many cases, where there is significant cost to create the data, there may be an
opportunity for an Intel Inside style play, with a single source for the data. In others, the winner will be the
company that first reaches critical mass via user aggregation, and turns that aggregated data into a system
service.
For example, in the area of identity, PayPal, Amazon's 1-click, and the millions of users of communications
systems, may all be legitimate contenders to build a network-wide identity database. (In this regard, Google's
recent attempt to use cell phone numbers as an identifier for Gmail accounts may be a step towards embracing
and extending the phone system.) Meanwhile, startups like Sxip are exploring the potential of federated
identity, in quest of a kind of "distributed 1-click" that will provide a seamless Web 2.0 identity subsystem. In
the area of calendaring, EVDB is an attempt to build the world's largest shared calendar via a wiki-style
architecture of participation. While the jury's still out on the success of any particular startup or approach, it's
clear that standards and solutions in these areas, effectively turning certain classes of data into reliable
subsystems of the "Internet operating system", will enable the next generation of applications.
A further point must be noted with regard to data, and that is user concerns about privacy and their rights to
their own data. In many of the early web applications, copyright is only loosely enforced. For example, Amazon
lays claim to any reviews submitted to the site, but in the absence of enforcement, people may repost the same
review elsewhere. However, as companies begin to realize that control over data may be their chief source of
competitive advantage, we may see heightened attempts at control.
Much as the rise of proprietary software led to the Free Software movement, we expect the rise of proprietary
databases to result in a Free Data movement within the next decade. One can see early signs of this
countervailing trend in open data projects such as Wikipedia, the Creative Commons, and in software projects
like Greasemonkey, which allow users to take control of how data is displayed on their computer.
4. End of the Software Release Cycle
113
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
As noted above in the discussion of Google vs. Netscape, one of the defining characteristics of Internet era
software is that it is delivered as a service, not as a product. This fact leads to a number of fundamental
changes in the business model of such a company:
1.
Operations must become a core competency. Google's or Yahoo!'s expertise in product development
must be matched by an expertise in daily operations. So fundamental is the shift from software as
artifact to software as service that the software will cease to perform unless it is maintained on a daily
basis. Google must continuously crawl the web and update its indices, continuously filter out link spam
and other attempts to influence its results, continuously and dynamically respond to hundreds of
millions of asynchronous user queries, simultaneously matching them with context-appropriate
advertisements.
It's no accident that Google's system administration, networking, and load balancing techniques are
perhaps even more closely guarded secrets than their search algorithms. Google's success at
automating these processes is a key part of their cost advantage over competitors.
It's also no accident that scripting languages such as Perl, Python, PHP, and now Ruby, play such a
large role at web 2.0 companies. Perl was famously described by Hassan Schroeder, Sun's first
webmaster, as "the duct tape of the Internet." Dynamic languages (often called scripting languages
and looked down on by the software engineers of the era of software artifacts) are the tool of choice
for system and network administrators, as well as application developers building dynamic systems
that require constant change.
2.
Users must be treated as co-developers, in a reflection of open source development practices (even if
the software in question is unlikely to be released under an open source license.) The open source
dictum, "release early and release often" in fact has morphed into an even more radical position, "the
perpetual beta," in which the product is developed in the open, with new features slipstreamed in on a
monthly, weekly, or even daily basis. It's no accident that services such as Gmail, Google Maps, Flickr,
del.icio.us, and the like may be expected to bear a "Beta" logo for years at a time.
Real time monitoring of user behavior to see just which new features are used, and how they are used,
thus becomes another required core competency. A web developer at a major online service
remarked: "We put up two or three new features on some part of the site every day, and if users don't
adopt them, we take them down. If they like them, we roll them out to the entire site."
Cal Henderson, the lead developer of Flickr, recently revealed that they deploy new builds up to every
half hour. This is clearly a radically different development model! While not all web applications are
developed in as extreme a style as Flickr, almost all web applications have a development cycle that is
radically unlike anything from the PC or client-server era. It is for this reason that a recent ZDnet
editorial concluded that Microsoft won't be able to beat Google: "Microsoft's business model depends
on everyone upgrading their computing environment every two to three years. Google's depends on
everyone exploring what's new in their computing environment every day."
While Microsoft has demonstrated enormous ability to learn from and ultimately best its competition, there's no
question that this time, the competition will require Microsoft (and by extension, every other existing software
company) to become a deeply different kind of company. Native Web 2.0 companies enjoy a natural advantage,
as they don't have old patterns (and corresponding business models and revenue sources) to shed.
5. Lightweight Programming Models
Once the idea of web services became au courant, large companies jumped into the fray with a complex web
services stack designed to create highly reliable programming environments for distributed applications.
But much as the web succeeded precisely because it overthrew much of hypertext theory, substituting a simple
pragmatism for ideal design, RSS has become perhaps the single most widely deployed web service because of
its simplicity, while the complex corporate web services stacks have yet to achieve wide deployment.
Similarly, Amazon.com's web services are provided in two forms: one adhering to the formalisms of the SOAP
(Simple Object Access Protocol) web services stack, the other simply providing XML data over HTTP, in a
lightweight approach sometimes referred to as REST (Representational State Transfer). While high value B2B
connections (like those between Amazon and retail partners like ToysRUs) use the SOAP stack, Amazon reports
that 95% of the usage is of the lightweight REST service.
This same quest for simplicity can be seen in other "organic" web services. Google's recent release of Google
Maps is a case in point. Google Maps' simple AJAX (Javascript and XML) interface was quickly decrypted by
hackers, who then proceeded to remix the data into new services.
114
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Mapping-related web services had been available for some time from GIS vendors such as ESRI as well as from
MapQuest and Microsoft MapPoint. But Google Maps set the world on fire because of its simplicity. While
experimenting with any of the formal vendor-supported web services required a formal contract between the
parties, the way Google Maps was implemented left the data for the taking, and hackers soon found ways to
creatively re-use that data.
There are several significant lessons here:
1.
2.
3.
Support lightweight programming models that allow for loosely coupled systems. The complexity of the
corporate-sponsored web services stack is designed to enable tight coupling. While this is necessary in
many cases, many of the most interesting applications can indeed remain loosely coupled, and even
fragile. The Web 2.0 mindset is very different from the traditional IT mindset!
Think syndication, not coordination. Simple web services, like RSS and REST-based web services, are
about syndicating data outwards, not controlling what happens when it gets to the other end of the
connection. This idea is fundamental to the Internet itself, a reflection of what is known as the end-toend principle.
Design for "hackability" and remixability. Systems like the original web, RSS, and AJAX all have this in
common: the barriers to re-use are extremely low. Much of the useful software is actually open
source, but even when it isn't, there is little in the way of intellectual property protection. The web
browser's "View Source" option made it possible for any user to copy any other user's web page; RSS
was designed to empower the user to view the content he or she wants, when it's wanted, not at the
behest of the information provider; the most successful web services are those that have been easiest
to take in new directions unimagined by their creators. The phrase "some rights reserved," which was
popularized by the Creative Commons to contrast with the more typical "all rights reserved," is a
useful guidepost.
Innovation in Assembly
Lightweight business models are a natural concomitant of lightweight programming and lightweight
connections. The Web 2.0 mindset is good at re-use. A new service like housingmaps.com was built simply by
snapping together two existing services. Housingmaps.com doesn't have a business model (yet)--but for many
small-scale services, Google AdSense (or perhaps Amazon associates fees, or both) provides the snap-in
equivalent of a revenue model.
These examples provide an insight into another key web 2.0 principle, which we call "innovation in assembly."
When commodity components are abundant, you can create value simply by assembling them in novel or
effective ways. Much as the PC revolution provided many opportunities for innovation in assembly of commodity
hardware, with companies like Dell making a science out of such assembly, thereby defeating companies whose
business model required innovation in product development, we believe that Web 2.0 will provide opportunities
for companies to beat the competition by getting better at harnessing and integrating services provided by
others.
6. Software Above the Level of a Single Device
One other feature of Web 2.0 that deserves mention is the fact that it's no longer limited to the PC platform. In
his parting advice to Microsoft, long time Microsoft developer Dave Stutz pointed out that "Useful software
written above the level of the single device will command high margins for a long time to come."
Of course, any web application can be seen as software above the level of a single device. After all, even the
simplest web application involves at least two computers: the one hosting the web server and the one hosting
the browser. And as we've discussed, the development of the web as platform extends this idea to synthetic
applications composed of services provided by multiple computers.
But as with many areas of Web 2.0, where the "2.0-ness" is not something new, but rather a fuller realization
of the true potential of the web platform, this phrase gives us a key insight into how to design applications and
services for the new platform.
To date, iTunes is the best exemplar of this principle. This application seamlessly reaches from the handheld
device to a massive web back-end, with the PC acting as a local cache and control station. There have been
many previous attempts to bring web content to portable devices, but the iPod/iTunes combination is one of the
first such applications designed from the ground up to span multiple devices. TiVo is another good example.
iTunes and TiVo also demonstrate many of the other core principles of Web 2.0. They are not web applications
per se, but they leverage the power of the web platform, making it a seamless, almost invisible part of their
infrastructure. Data management is most clearly the heart of their offering. They are services, not packaged
applications (although in the case of iTunes, it can be used as a packaged application, managing only the user's
local data.) What's more, both TiVo and iTunes show some budding use of collective intelligence, although in
115
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
each case, their experiments are at war with the IP lobby's. There's only a limited architecture of participation
in iTunes, though the recent addition of podcasting changes that equation substantially.
This is one of the areas of Web 2.0 where we expect to see some of the greatest change, as more and more
devices are connected to the new platform. What applications become possible when our phones and our cars
are not consuming data but reporting it? Real time traffic monitoring, flash mobs, and citizen journalism are
only a few of the early warning signs of the capabilities of the new platform.
7. Rich User Experiences
As early as Pei Wei's Viola browser in 1992, the web was being used to deliver "applets" and other kinds of
active content within the web browser. Java's introduction in 1995 was framed around the delivery of such
applets. JavaScript and then DHTML were introduced as lightweight ways to provide client side programmability
and richer user experiences. Several years ago, Macromedia coined the term "Rich Internet Applications" (which
has also been picked up by open source Flash competitor Laszlo Systems) to highlight the capabilities of Flash
to deliver not just multimedia content but also GUI-style application experiences.
However, the potential of the web to deliver full scale applications didn't hit the mainstream till Google
introduced Gmail, quickly followed by Google Maps, web based applications with rich user interfaces and PCequivalent interactivity. The collection of technologies used by Google was christened AJAX, in a seminal essay
by Jesse James Garrett of web design firm Adaptive Path. He wrote:
"Ajax isn't a technology. It's really several technologies, each flourishing in its own right, coming together in
powerful new ways. Ajax incorporates:
•
•
•
•
•
standards-based presentation using XHTML and CSS;
dynamic display and interaction using the Document Object Model;
data interchange and manipulation using XML and XSLT;
asynchronous data retrieval using XMLHttpRequest;
and JavaScript binding everything together."
AJAX is also a key component of Web 2.0 applications such as Flickr, now part of Yahoo!, 37signals' applications
basecamp and backpack, as well as other Google applications such as Gmail and Orkut. We're entering an
unprecedented period of user interface innovation, as web developers are finally able to build web applications
as rich as local PC-based applications.
Interestingly, many of the capabilities now being explored have been around for many years. In the late '90s,
both Microsoft and Netscape had a vision of the kind of capabilities that are now finally being realized, but their
battle over the standards to be used made cross-browser applications difficult. It was only when Microsoft
definitively won the browser wars, and there was a single de-facto browser standard to write to, that this kind
of application became possible. And while Firefox has reintroduced competition to the browser market, at least
so far we haven't seen the destructive competition over web standards that held back progress in the '90s.
We expect to see many new web applications over the next few years, both truly novel applications, and rich
web reimplementations of PC applications. Every platform change to date has also created opportunities for a
leadership change in the dominant applications of the previous platform.
Gmail has already provided some interesting innovations in email, combining the strengths of the web
(accessible from anywhere, deep database competencies, searchability) with user interfaces that approach PC
interfaces in usability. Meanwhile, other mail clients on the PC platform are nibbling away at the problem from
the other end, adding IM and presence capabilities. How far are we from an integrated communications client
combining the best of email, IM, and the cell phone, using VoIP to add voice capabilities to the rich capabilities
of web applications? The race is on.
It's easy to see how Web 2.0 will also remake the address book. A Web 2.0-style address book would treat the
local address book on the PC or phone merely as a cache of the contacts you've explicitly asked the system to
remember. Meanwhile, a web-based synchronization agent, Gmail-style, would remember every message sent
or received, every email address and every phone number used, and build social networking heuristics to
decide which ones to offer up as alternatives when an answer wasn't found in the local cache. Lacking an
answer there, the system would query the broader social network.
A Web 2.0 word processor would support wiki-style collaborative editing, not just standalone documents. But it
would also support the rich formatting we've come to expect in PC-based word processors. Writely is a good
example of such an application, although it hasn't yet gained wide traction.
116
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Nor will the Web 2.0 revolution be limited to PC applications. Salesforce.com demonstrates how the web can be
used to deliver software as a service, in enterprise scale applications such as CRM.
The competitive opportunity for new entrants is to fully embrace the potential of Web 2.0. Companies that
succeed will create applications that learn from their users, using an architecture of participation to build a
commanding advantage not just in the software interface, but in the richness of the shared data.
Core Competencies of Web 2.0 Companies
In exploring the seven principles above, we've highlighted some of the principal features of Web 2.0. Each of
the examples we've explored demonstrates one or more of those key principles, but may miss others. Let's
close, therefore, by summarizing what we believe to be the core competencies of Web 2.0 companies:
•
•
•
•
•
•
•
Services, not packaged software, with cost-effective scalability
Control over unique, hard-to-recreate data sources that get richer as more people use them
Trusting users as co-developers
Harnessing collective intelligence
Leveraging the long tail through customer self-service
Software above the level of a single device
Lightweight user interfaces, development models, AND business models
The next time a company claims that it's "Web 2.0," test their features against the list above. The more points
they score, the more they are worthy of the name. Remember, though, that excellence in one area may be
more telling than some small steps in all seven.
Tim O'Reilly
O’Reilly Media, Inc., [email protected]
President and CEO
Copyright © 2007 O'Reilly Media, Inc.
117
Annexe 2 : Le cluetrain manifesto
95 thèses
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
Les marchés sont des conversations.
Les marchés sont constitués d'êtres humains, non de secteurs démographiques.
Les conversations entre humains sonnent de façon humaine. Elles sont menées sur un ton humain.
Que ce soit pour discuter d'information, d'opinions, de perspectives, d'arguments opposés ou humoristiques, la
voix humaine est typiquement ouverte, normale, et naturelle.
Les gens se reconnaissent entre eux grâce au son même d'une telle voix.
L'Internet permet des conversations entre êtres humains qui étaient tout simplement impossibles à l'ère des
masse-média.
Les hyperliens renversent la hiérarchie.
Au sein des marchés interconnectés, et des employés intraconnectés, les gens se parlent entre eux d'une
puissante nouvelle façon.
Ces conversations en réseau permettent à de puissantes nouvelles formes d'organisation sociale et d'échange
de connaissance, d'émerger.
Résultat, les marchés deviennent plus intelligents, plus informés, plus organisés. La participation à un marché
en réseau change les gens fondamentalement.
Les personnes dans un marché en réseau ont compris qu'elles obtiennent des informations et une aide bien
meilleures, les unes des autres que des vendeurs. Autant pour la rhétorique corporatiste pour ce qui est
d'ajouter de la valeur à des produits de base.
Il n'y a pas de secrets. Les marchés connectés en savent plus que les entreprises sur leurs propres produits. Et
que et que ce qu'ils découvrent soit bon ou mauvais, ils le répètent à tout le monde.
Ce qui se passe dans les marchés, se passe également parmi les employés. Une construction métaphysique
dénommée "L'Entreprise" est la seule chose qui les sépare.
Les entreprises ne parlent pas la même langue que ces nouvelles conversations en réseau. Pour leurs audiences
en ligne, les entreprises sonnent creuses, plates et littéralement inhumaines.
Dans quelques années à peine, l'actuelle voix homogène des affaires - le son des rapports de mission et des
brochures - semblera aussi forcée et artificielle que le langage du 18ème siècle à la cour de France.
Déjà, les entreprises maniant boniment et charlatanisme, ne parlent plus à personne.
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
17. Les entreprises qui supposent que les marchés en ligne sont les mêmes marchés que ceux qui regardaient leur
publicité à la télévision, se moquent d'elles-mêmes.
18. Les entreprises qui ne comprennent pas que leurs marchés sont désormais un réseau d'individus à individus,
plus intelligents par conséquence et très impliqués dans un dialogue, passent à côté de leur meilleure chance.
19. Les sociétés peuvent désormais communiquer directement avec leur clientèle. Si elles passent à côté, cela
pourrait être leur dernière chance.
20. Les entreprises doivent réaliser que les marchés rient beaucoup. D'elles.
21. Les entreprises devraient se détendre et se prendre un peu moins au sérieux. Elles ont besoin d'un sens de
l'humour.
22. Avoir le sens de l'humour ne signifie pas mettre des blagues sur le site web institutionnel. A l'inverse, cela
implique de grandes qualités, un peu d'humilité, du franc parler, et un véritable point de vue.
23. Les entreprises essayant de se positionner devraient avoir un positionnement. Dans l'idéal, il correspond à
quelque chose qui intéresse vraiment leur clientèle.
24. Les fanfaronnades ampoulées du genre "nous sommes en position pour devenir le principal fournisseur de XYZ"
ne constituent pas un positionnement.
25. Les entreprises doivent descendre de leur Tour d'Ivoire et parler avec les personnes avec lesquelles elles
espèrent instaurer une relation.
26. Les relations publiques ne parlent pas au public. Les entreprises ont profondément peur de leurs clients.
27. En s'exprimant dans un langage qui est distant, peu attrayant, arrogant, elles bâtissent des murs pour
maintenir à distance leurs clients.
28. La majorité des programmes marketing sont fondés sur la crainte que les clients puissent voir ce qui se passe
réellement à l'intérieur de l'entreprise.
29. Elvis le dit le mieux : "Nous ne pourrons pas continuer avec un esprit soupçonneux".
30. La loyauté à une marque est la version entrepreneuriale de ne rien faire, mais la rupture est inévitable - et
arrive vite. Parce qu'ils sont connectés, les marchés intelligents sont capables de réévaluer une relation en un
clin d'oeil.
31. Les marchés en réseau peuvent changer de fournisseurs du jour au lendemain. Les employés informés en
réseau peuvent changer d'employeurs en cours de déjeuner. Vos propres "réductions de personnel" nous ont
appris à nous poser la question : "la loyauté ? c'est quoi déjà ?"
32. Les clients informés recherchent des fournisseurs qui parlent leur langage.
33. Apprendre à parler d'une voie humaine n'est pas un truc de parloir. Cela ne s'apprend pas au cours d'une
quelconque conférence.
34. Pour parler d'une voie humaine, les entreprises doivent partager les centres d'intérêts de leurs communautés.
35. Mais avant tout, elles doivent appartenir à une communauté.
36. Les entreprises doivent se demander où s'arrête leur culture interne.
37. Si elle s'arrête avant que la communauté commence, elles n'auront aucun marché.
38. Les communautés humaines sont fondées sur le dialogue - sur des dialogues humains à propos de
préoccupations humaines.
39. La communauté du dialogue est le marché.
40. Les entreprises qui n'appartiennent pas à une communauté du dialogue sont condamnées.
41. Les entreprises font un culte de la sécurité, mais c'est pour brouiller les pistes. La plupart se protège moins de
leurs concurrents que de leur propre clientèle et de leur main d'oeuvre.
42. De même que dans les marchés en réseau, les personnes se parlent directement à l'intérieur de l'entreprise - et
pas uniquement à propos des règles et régulations, des directives du conseil d'administration, et des résultats
financiers.
43. Ces conversations ont lieu sur les intranets institutionnels aujourd'hui. Mais uniquement lorsque toutes les
conditions sont réunies.
44. les entreprises mettent généralement en place des intranets du haut vers le bas, pour diffuser les règlements
intérieurs et autres informations internes que les employés font de leur mieux pour ignorer.
45. les intranets ont naturellement tendance à devenir barbants. Les meilleurs sont construits de la base vers le
haut, par des individus engagés, coopérant dans le but de construire quelque chose avec plus de valeur.
46. Un Intranet sain organise les travailleurs dans tous les sens du terme. Son effet est bien plus radical que le
programme de n'importe quel syndicat.
47. Bien que cela terrifie les entreprises, elles ont également largement besoin d'intranets ouverts pour générer et
partager des informations critiques. Elles doivent résister à l'envie d'améliorer ou de contrôler ces conversations
en réseau.
48. Quand les intranets institutionnels ne sont pas bloqués par la peur et les règles juridiques, le type de
conversation qu'ils favorisent, résonnent remarquablement comme les conversations des places de marché en
réseau.
49. Les diagrammes organisationnels fonctionnaient dans une ancienne économie, où les plans pouvaient être
totalement compris au plus haut de la pyramide manageuriale et que des ordres de travail précis pouvaient
alors être donnés vers le bas.
50. Aujourd'hui, la charte organisationnelle est hyperliée, et non hiérarchique. Le respect pour la transmission de la
connaissance est bien plus fort que celui pour une autorité abstraite.
51. Le management du style commander-et-contrôler vient de et renforce la bureaucratie, la lutte du pouvoir et
une culture globale de la paranoïa.
52. La paranoïa tue le dialogue. C'est son but. Mais le manque de dialogue peut tuer une entreprise.
53. Il y a deux sortes de dialogues en cours. Un à l'intérieur de l'entreprise. Un avec le marché.
54. Dans la plupart des cas, aucun des deux ne se passe très bien. Pratiquement à chaque fois, la cause de l'échec
peut être ramenée à des notions obsolètes de l'autorité et du contrôle.
118
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
55. En tant que politiques, ces notions sont du poison. En tant qu'outils, elles ne marchent pas. L'autorité et le
contrôle rencontrent l'hostilité des employés intraconnectés et génère une méfiance parmi les marchés
interconnectés.
56. Ces deux conversations veulent dialoguer l'une avec l'autre. Elles parlent le même langage. Elles se
reconnaissent mutuellement.
57. Les entreprises intelligentes se pousseront et aideront l'inévitable à arriver plus vite.
58. Si la volonté de se mettre de côté était un critère d'évaluation du QI, alors très peu de sociétés seraient dans le
coup.
59. Aussi subliminal que cela soit sur le moment, des millions de personnes en ligne perçoivent maintenant les
entreprises comme à peine mieux que de pittoresques fictions légales qui font de leur mieux pour éviter que
ces conversations ne se croisent.
60. C'est du suicide. Les marchés veulent parler aux entreprises.
61. Malheureusement, la partie de l'entreprise à laquelle un marché connecté veut s'adresser, est généralement
cachée derrière un écran de fumée de boniments, d'un langage qui sonne faux, et qui généralement, l'est.
62. Les marchés ne veulent pas parler aux relations publiques et aux bonimenteurs. Ils veulent participer aux
conversations ayant cours de l'autre côté du mur d'enceinte de l'entreprise.
63. Se mettre à nu, être personnel. Nous sommes ces marchés. Nous voulons vous parler.
64. Nous voulons accéder à votre information interne, à vos plans, vos stratégies, vos meilleurs projets, votre
sincère connaissance. Nous ne nous contenterons pas d'une brochure en couleurs, d'un site web plein à craquer
de poudre aux yeux mais sans aucune substance.
65. Nous sommes également les travailleurs qui faisons fonctionner votre entreprise. Nous voulons parler aux
clients directement de notre propre voix et non selon des platitudes écrites dans un scénario.
66. En tant que clients, qu'employés, nous n'en pouvons vraiment plus d'obtenir notre information via des
télécommandes. Quel besoin avons-nous de rapports annuels impersonnels et des études de marchés de
troisième ordre pour nous présenter les uns aux autres ?
67. En tant que clients, qu'employés, nous nous demandons pourquoi vous n'écoutez pas. Vous avez l'air de parler
dans une autre langue.
68. Ce jargon autosuffisant que vous jetez alentours - dans la presse, à vos conférences - en quoi ça nous concerne
?
69. Peut-être que vous impressionnez vos investisseurs. Peut-être que vous impressionnez Wall street. Vous ne
nous impressionnez pas.
70. Si vous ne nous impressionnez pas, vos investisseurs en seront de leur poche. Est-ce qu'ils ne peuvent pas
comprendre cela ? S'ils le comprenaient, ils ne vous laisseraient pas nous parler ainsi.
71. Vos notions fatiguées du "marché" rendent vos yeux ternes. Nous ne nous reconnaissons pas dans vos
projections. Peut-être parce qu'on est déjà aller voir ailleurs.
72. Nous aimons beaucoup plus cette nouvelle place de marché. En fait, nous la créons.
73. Vous y êtes invités, mais c'est notre territoire. Laissez vos chaussures à l'entrée. Si vous voulez trinquer avec
nous, descendez de votre cheval !
74. Nous sommes immunisés face à la publicité. Laissez tomber.
75. Si vous voulez nous parler, dites-nous quelque chose. Et quelque chose d'intéressant, pour une fois.
76. On a des idées pour vous aussi : de nouveaux outils dont nous avons besoin, de meilleurs services. Des produis
que nous sommes prêts à payer. Vous avez une minute ?
77. Vous êtes trop occupés à faire des affaires pour répondre à nos emails ? Zut, désolé, on reviendra plus tard.
Peut-être.
78. Vous voulez notre argent ? nous voulons votre attention.
79. Nous voulons que vous arrêtiez votre trip, votre névrotique attention sur vous-même, venez faire la fête.
80. Ne vous inquiétez pas, vous pouvez encore gagner de l'argent. Enfin, à condition que ce ne soit pas votre seul
soucis.
81. Avez-vous remarqué que l'argent en soi, est un peu unidimensionnel et ennuyeux ? De quoi d'autre pourrait-on
parler ?
82. Votre produit ne marche plus. Pourquoi ? On aimerait interroger la personne qui l'a fait. Votre stratégie
d'entreprise n'a aucun sens. Nous aimerions en discuter avec votre PDG. Comment ça, elle n'est pas là ?
83. Nous voulons que vous preniez vos 50 millions de clients autant au sérieux, qu'un seul journaliste du Wall
street journal.
84. On connaît des gens dans votre société. Ils sont plutôt sympas en ligne. Vous en avez d'autres comme ça que
vous cachez ? Est-ce qu'ils peuvent sortir pour venir jouer ?
85. Lorsque nous avons des questions, nous nous tournons les uns vers les autres pour obtenir des réponses. Si
vous n'aviez pas une main si dure sur "vos gens" peut-être que nous nous tournerions vers eux.
86. Lorsque nous ne sommes pas occupés à être votre "cible de marché", la plupart d'entre nous sont vos gens.
Nous préférions discuter avec des amis en ligne, plutôt que de regarder l'heure. Cela diffuserait votre nom
d'une façon bien plus efficace que votre site web à un million de dollars. Mais vous nous dites que s'adresser au
marché, est réservé au service marketing.
87. Cela nous ferait plaisir que vous compreniez ce qui se passe ici. Ce serait vraiment bien. Mais ce serait une
grave erreur que de croire, que nous allons vous attendre.
88. Nous avons de meilleures choses à faire que de nous soucier de savoir si vous allez changer à temps pour
conquérir notre marché. Les affaires ne sont qu'une partie de nos vies. Elles semblent remplir complètement la
votre. Réfléchissez-y : qui a besoin de qui ?
89. Nous avons un vrai pouvoir et nous le savons. Si vous ne saisissez pas le concept, une autre équipe va
débarquer qui sera plus attentive, plus intéressante, plus sympa pour jouer avec.
90. Même dans le pire des cas, notre toute récente conversation est plus intéressante que la plupart des salons
professionnels, plus divertissante que n'importe quelle série télé, et certainement plus proche de la vie que les
sites web institutionnels que vous avons vus.
119
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
91. Notre allégeance va à nous-mêmes, à nos amis, à nos nouveaux alliés et connaissances, et même à nos
adversaires. Les entreprises qui n'ont pas de liens avec ce monde, n'y auront pas de futur non plus.
92. Les sociétés dépensent des milliards de dollars pour le bug de l'an 2000. Pourquoi n'entendent-elles pas la
bombe à retardement de ce marché ? Les enjeux sont bien plus importants.
93. Nous sommes à la fois à l'intérieur et à l'extérieur des entreprises. Les barrières qui délimitent nos dialogues
sont comme le mur de Berlin aujourd'hui, mais elles ne sont qu'un désagrément. Nous savons qu'elles finiront
par tomber. Et nous allons nous appliquer des deux côtés, à les faire tomber.
94. Pour les entreprises traditionnelles, les conversations en réseau peuvent sembler confuses, et désarçonnantes.
Mais nous nous organisons plus vite que vous ne le faites. Nous avons de meilleurs outils, d'avantages d'idées
neuves, et aucun règlement pour nous ralentir.
95. Nous nous éveillons et nous connectons les uns aux autres. Nous observons. Mais nous n'attendons pas.
Copyright © 1999 Levine, Locke, Searls & Weinberger.
[email protected]
All rights reserved.
Annexe 3 : Exemple de fichier CSS
.titre {
font-family: Georgia, "Times New Roman", Times, serif;
font-size: 13px;
color: #000000;
}
.texte {
font-family: Verdana;
font-size: 10px;
color: #000000;
}
.titreTexte {
font-family: Verdana;
font-size: 10px;
color: #000000;
font-weight: bold;
}
a {font-family: Verdana;
font-size: 10px;
color: #003399;
}
a.hover {
text-decoration:underline;
border:none;
}
120
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Annexe 4 : Exemple de fichier XML
<?xml version="1.0" ?>
<?xml-stylesheet type='text/xsl' href='style.xsl' ?>
<encart>
<news>
<date>
23/06/06
</date>
<img>
images/vvallee.jpg
</img>
<texte>
bla bla
</texte>
</news>
<news>
<date>
23/06/06
</date>
<img>
images/vnative.jpg
</img>
<texte>
bla
</texte>
</news>
</encart>
Annexe 5 : Exemple de fichier XSL
<?xml version='1.0'?>
<xsl:stylesheet xmlns:xsl="http://www.w3.org/TR/WD-xsl">
<xsl:template match="/">
<html>
<body>
<table border="1" cellspacing="0" cellpadding="3">
<tr bgcolor="#FFFF00">
<td>Titre</td>
<td>Artiste</td>
</tr>
<tr>
<td><xsl:value-of select="compilation/mp3/titre"/></td>
<td><xsl:value-of select="compilation/mp3/artiste"/></td>
</tr>
</table>
</body></html> </xsl:template>
</xsl:stylesheet>
121
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Annexe 6 : Exemple de nuage de tags
Annexe 7 : Cartographie du Marketing
122
Source : la voie du pinko
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
Annexe 8 : Les différences de l’interaction client-vendeur
123
Annexe 9 : Transcription d’entretien
Entretien réalisé le 28/05/07, avec un photographe qui utilise de manière
professionnelle le web 2.0, sans forcément en être conscient et qui a un point de vue sur
l’influence que peut avoir la collaboration sur son travail.
B.R. Bonjour, pouvez-vous vous présenter ?
F.R. Je m’appelle François Renault, je suis photographe, spécialisé en architecture,
portraits et paysage.
B.R. Dans le cadre de mon étude de l’impact qu’a le web 2.0 sur les professionnels, je me
propose de recueillir vos impressions sur ces nouvelles technologies et ce que vous
imaginez être son influence.
Dans un premier temps, êtes vous familiarisé avec ce vocabulaires, est ce que le « web
2.0 » évoque quelque chose pour vous ?
F.R. Et bien, justement, cette notion reste assez floue, qu’est ce qu’on regroupe en fait
sous le terme ‘web 2.0’ ?
B.R. Cette appellation regroupe plusieurs idées correspondant à une évolution des
standards sur Internet, tout d’abord évolution technologique avec l’apparition de nouveau
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
services mais surtout sociale avec une idée que le contenu n’est plus mis à disposition
par un administrateur mais par l’utilisateur lui-même. Ces modifications donnent lieu à
l’apparition de nouveaux services qui peuvent toucher votre activité professionnelle
comme la mise en ligne de travaux d’amateurs qui peuvent concurrencer les pros. En
tant que photographe, avez-vous l’habitude d’utiliser les blogs, les communauté etc..
F.R. Je ne sais pas si c’est lié à l’apparition de nouvelles technologies, mais je vais de
temps sur les blogs lorsque je recherche des informations sur de produits etc.
B.R. Avez-vous l’impression de faire partie d’une communauté ?
F.R. J’avais l’impression au début, beaucoup moins maintenant.
B.R. Pourquoi ?
F.R. Peut-être était ce la nouveauté, ca fait environ un an que j’utilise ce genre de
portails d’information. Je ne sais pas si ca a un lien avec l’apparition du nouvel outil, je
rédigeais de temps en temps des commentaires, mais avec le temps, je me suis aperçu
que la qualité du blog dépend en fait grandement de l’actualité. Je suivais les débats
entre les pros et les antis Lightroom et Aperture (2 logiciels de catalogage de photos)
mais lorsque ce débat n’était plus dans l’actualité beaucoup de blog sont devenus
inintéressants et surtout centré sur leur rédacteurs. Pas tous mais beaucoup. Maintenant
que je connais les informations que je désirais, je me suis beaucoup désintéressé de
l’aspect communautaire. Il y en tout de même 3 ou 4 que je visite tous les jours, pour
voir ce qui se passe, mais l’ensemble me touche peu, et reste axé beaucoup sur les
nouvelles technologies. Je n’ai pas vraiment l’impression d’appartenir à une réelle
communauté. Je l’ai eu à un certain moment, mais sur la durée, Internet reste tout de
même un moyen de communication virtuel. Ceci dit, il y a quand même eu des
avantages, j’ai appris beaucoup, mais en ce moment, il y a peu de choses qui’
m’intéressent. Mon principal regret est que la plupart de ces blogs sont tenus par des
technophiles, plutôt que par des artistes.
B.R. Ces rédacteurs de blogs sont plutôt des professionnels qui vivent de leurs photos ou
des amateurs ?
F.R. Moi je les vois plus comme des techniciens qui ont besoin de cette publicité pour se
faire connaitre. Comme par exemple des formateurs qui font leurs blogs pour parler
d’eux. Ce qui serait de toute façon aussi ma démarche si j’ouvrais un blog.
B.R. Oui, en fait sous couvert de création de communauté, on parle surtout de soi ?
F.R. L’avantage, malgré tout, c’est que c’est une forme d’exposition, c’est toujours
intéressant de se confronter à l’avis de chacun, après il faut réussir à générer du trafic et
à faire connaître son blog. Je le vois d’ailleurs, certains répondent aux commentaires
pour rajouter des liens vers leurs blogs. Ca fait partie du jeu, mais ca fausse un peu la
donne, je vois bien que certains commentaires sont laissés uniquement pour faire parler
de leurs auteurs.
B.R. Et sinon, par rapport à un site institutionnel, le blog est il mieux, moins bien,
complémentaire ?
F.R. Je pense que c’est bien en accompagnement. Ca dépend pour qui, certains n’ont pas
spécialement besoin d’un site dédié. Dans le monde de la photo, certains sont seulement
amateurs éclairés et n’ont pas forcément besoin de payer pour ouvrir un site. Il est tout
de même facile de repérer ceux qui vivent de leurs photos, ceux qui sont amateurs étant
souvent peu talentueux. Souvent les blogs restent d’un niveau assez bas. Je ne suis pas
sur que de vrais artistes ouvrent leurs blogs.
124
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
B.R. Et est ce que cette profusion de photos sur Internet valorise votre travail que vous
pouvez présenter comme plus abouti que celui qu’on trouve habituellement ou est ce que
au contraire, vous vous sentez menacé par ces amateurs qui pourrait essayer de vous
prendre des parts de marchés ?
F.R. Je ne pense pas que ca dévalorise, l’impact est peu important. Dans le domaine du
travail proprement dit, les agences de toute façon n’utilisent pas d’amateurs. Mais le web
2.0 est pris en compte aussi par des interfaces très professionnels comme Adobe qui
propose aux acheteurs de ses logiciels de mettre en ligne leurs travaux afin de faire
parler d’eux et de donner leur coordonnées à d’autres acheteurs. Il y a donc tout de
même des initiatives qui permettent de différencier les amateurs des professionnels en
n’autorisant que les adhérents à des associations de professionnels et en empêchant
ainsi les mélanges. La grosse différence est que le professionnel ne vend pas ses photos,
mais se vend lui-même come au travers d’un book. La encore, c’est le business qui gère
le tout, il est de toute façon normal qu’Adobe gagne de l’argent avec ca. La solution est
donc à mon avis de différencier les outils utilisés par les professionnels d’une part et les
amateurs d’autre part.
B.R. Pour en revenir à Flickr, qui peut être directement lié à votre activité, quelle est
votre sentiment par rapport à ce genre d’interface qui met sur un pied d’égalité
professionnels et amateurs ?
F.R. Je l’ai connu par les blogs, et je ne pense qu’il soit utilisé par les professionnels,
qu’ils soient vendeurs ou acheteurs. Je ne sais pas qui c’est utilisé, en tant qu’utilisateur
je trouve en premier lieu que l’interface ne fait pas du tout professionnelle.
B.R. Ah ? Elle est pourtant tout à fait dans l’esprit web 2.0
F.R. Je trouve que ce n’est pas très convivial, on voit que c’est du tout fait, ca a l’air très
compliqué, beaucoup d’information sur la page, on ne comprend pas bien qui est qui, qui
fait quoi, etc. Peut être qu’avec le mode d’emploi.... Par exemple le système des tags : je
ne sais pas comment ca marche. Paradoxalement un logiciel comme Aperture,
spécialement étudié pour les professionnels dispose d’une fonction de mise en ligne
automatique sur Flickr. Je suis allé aussi sur d’autres interfaces du même genre,
SmugMug et Phanfare par exemple.
B.R. Ce genre d’interface n’a donc pas vraiment d’influence sur votre travail. On ne vous
a jamais demandé si vous étiez sur Flickr ou mis en concurrence avec des photos issues
de cette plate forme ?
F.R. Non pas vraiment. Je pense que c’est très bien pour les amateurs, ils n’ont de toute
façon rien à perdre. Il y a justement un blog sur lequel je vais, un formateur qui utilise
Flickr comme moyen de promotion. Il ne vit pas de la photo, mais utilise donc ce genre
de plateformes. Il défend à la fois le professionnel et l’amateur dans ses blogs. Ce genre
dé débat me rappelle celui des CD sans droit qu’on pouvait acheter et dont on
s’apercevait qu’en fait la qualité n’était pas au rendez vous. Mais il est vrai que je ne suis
pas vraiment dans un créneau de vente en ligne de photos sur des banques. Un
photographe comme Pérénom qui défend une vision artistique et qui possède un blog y a
d’ailleurs rédigé un article dénigrant Flickr. Comme lui je m’imagine dans la peau d’un
pro qui rechercherait des photos, je ne trouverai pas de travail de qualité. Une navigation
rapide me montre que la qualité est très faible. En bref, je ne pense pas que Flickr soit
positif ou négatif pour le marché, son influence n’est pas énorme. L’effet que ca me fait
est que la profusion de photos rend impossible la recherche d’une photo précise. Et pour
un vendeur je ne pense pas que ce soit intéressant. Il existe des interfaces spécialement
étudiées pour eux, qui sont donc potentiellement plus intéressantes.
125
Renault Benjamin M1 SIC 2006/2007 - Sous la direction de Pierre Barboza
B.R. Et maintenant en tant que professionnel, qui a besoin d’une visibilité sur Internet
que pensez vous des CMS, vous qui n’avez pas de compétences pour créer un site,
pensez vous que ce genre de solutions peut être intéressante ? La encore on rejoint le
débat du professionnel contre l’amateur, les utilisez vous ?
F.R. Réellement, non. Je les utilise en fait pour créer des sous parties complémentaires à
mon site professionnel, mais je ne pense pas qu’on puisse faire un site uniquement la
dessus. Ce genre de logiciels est quand même assez limité. Je ne connais pas tout, peut
être que des solutions existent sans que je les connaisse. Ca a quand même l’intérêt de
mettre en ligne très rapidement des contenus. Mais dès qu’on veut un peu sortir des
sentiers battus, un vrai site est nécessaire. C’est un peu le problème de l’informatique.
On peut tout faire, mais jusqu'à un certain point. L’Internet c’est pareil, un amateur ne
pourra jamais être au niveau d’un professionnel.
B.R. Et bien merci à vous pour cet entretien.
126

Documents pareils