Outils d`analyse stratégiques et opérationnels en marketing

Transcription

Outils d`analyse stratégiques et opérationnels en marketing
Cahier de la Recherche de l’ISC Paris
CRISC N°18 :
Outils d’analyse stratégiques
et opérationnels en marketing
4ème trimestre 2007
ISBN 978-2-916145-10-5
1
Conseil scientifique
Liste des membres :
BRESSON Yoland, Professeur d'économie, ancien doyen, Université
Paris - Val de Marne Paris XII
CUMENAL Didier, Directeur de la recherche, professeur de
Management des Systèmes d'Information, Doctorat ès sciences de
gestion
ESCH Louis, Professeur de Finance, Directeur académique d'HEC
Liège, Université de Liège
HETZEL Patrick, Professeur à l’Université de Limoges
KUZNIK Florian, Recteur, économiste, Université d'Economie de
Katowice (Pologne)
MORIN Marc, Professeur en management des ressources humaines,
Doctorat d'Etat
PARIENTE Georges, Doyen de la recherche, professeur d'économie,
Doctorat d'Etat
PESQUEUX Yvon, Professeur titulaire de la chaire Développement
des Systèmes d'Organisation au CNAM
PORTNOFF André-Yves, Directeur de l'Observatoire de la Révolution
de l'Intelligence à Futuribles
REDSLOB Alain, Professeur d'économie, ancien doyen de la faculté
des Sciences Economiques de Paris II
ZEFFERI Bruno, Directeur Cegos Dirigeants
2
Comité de lecture
Liste des membres :
AGARWAL Aman, Professor of Finance and Director of Indian Institute of
Finance, Editor of Finance India
CHEN Kevin C., California State University, Editor, International Journal of
Business
CLARK Ephraïm, University of Middlesex, U.K.
DESPRES Charles, Directeur de l’International Institute of Management du
Conservatoire National des Arts et Métiers, Paris
DOMINGUEZ Juan Luis, Professeur titulaire de la Chaire Economie
Financière et Comptabilité, Faculté d’économie et sciences de l’entreprise,
Université de Barcelone, Espagne
JÂGER Johannes, Doyen de University of Applied Sciences, Vienne
(Autriche), Lecturer Fachochschule des bfi Wien Gesellschaft m.b.H.
KUMAR Andrej Professor, Holder of Chair Jean Monnet, Faculty of
Economics, University of Ljubljlna, Slovenia
PARLEANI Didier, Professeur de droit à l’Université de Paris 1 PanthéonSorbonne
PRIGENT Jean-Luc, Professeur de finance à l’Université de Paris Cergy
RYAN Joan, Professor of Global Banking and Finance at the European
Business School, London, Grande-Bretagne
SCHEINWBERGER Albert G., Professeur à l’Université de Constance,
Allemagne
3
CRISC déjà parus
Cahier n°1 : Finance
(Edité en avril 2002)
Cahier n°2 : Marketing
(Edité en septembre 2002)
Cahier n°3 : Economie
(Edité en mars 2003)
Cahier n°4 : Contrôle de gestion
(Edité en décembre 2003)
Cahier n°5 : Droit
(Edité en mai 2004)
Cahier n°6 : Ressources humaines
(Edité en juin 2004)
Cahier n°7 : Les NTIC
(Edité en septembre 2004)
Cahier n°8 : Microstructures et marchés financiers
(Edité en janvier 2005)
CRISC hors série
Actes de la 3ème Conférence Internationale de Finance – IFC 3
(mars 2005)
Cahier hors série n°1
Finance
Cahier hors série n°2
Bourse
Cahier hors série n°3
Formalisation et Modélisation
Cahier n°9 : International
(Edité en mai 2005)
4
Cahier n°10 : Marketing : études et décisions managériales
(Edité en septembre 2005)
Cahier n°11 : Actes du colloque de ressources humaines du 24
novembre 2005
« La responsabilité sociétale de l’entreprise : quel avenir pour
la fonction RH ? »
(Edité en janvier 2006)
Cahier n°12 : Stratégie
(Edité en mars 2006)
Cahier n°13 : Normes IFRS
(Edité en juillet 2006)
Cahier n°14 : Corporate Governance
(Edité en octobre 2006)
Cahier n°15 : Dynamique des organisations
(Edité au 1er trimestre 2007)
Cahier n°16 : Actes du colloque IFC 4
(Parution 2ème trimestre 2007)
Cahier n° 17 : Actes du colloque : « Entrepreneuriat, nouveaux
défis, nouveaux comportements »
(Parution 3ème trimestre 2007)
CRISC prochainement disponibles
Cahier n° 19 : Le management des systèmes d’information
(Parution 1er trimestre 2008)
5
Sommaire
PARIENTE Georges
p7
Doyen de la recherche de l’ISC Paris
Editorial
BOYER Sébastien
p 10
Agir en marketing : l’approche structurale
BOYER Sébastien et KAMIN Ronald
p 41
Study of Market Plasticity
CACHO-ELIZONDO Silvia et COM Morgane
p 54
Le blog dans la communication d’une marque corporative :
une illustration dans le secteur de la restauration
CAZALS François
p 73
Web 2.0 et Marketing
LOUSSAIEF Leïla
p 82
L’utilisation des modèles de causalité dans la recherche
en marketing
MAUFFRE Christian-Eric et BERGER Charles
p 96
Créateurs de maladies : fantasme ou réalité marketing
Le disease mongering face aux enjeux de santé
MORIN Marc
p 109
Le marketing des ressources humaines :
phénomène de mode ou nouvelle méthode de travail en GRH ?
MOTARD Stéphane
p 134
Le business case comme outil de positionnement de la DSI
et des Directions Opérationnelles au sein des instances
stratégiques de l’entreprise : l’exemple du projet CRM
TOURNESAC Yann
Les outils usuels d’évaluation de la rentabilité des salons
et des foires
6
p 172
Editorial
Georges PARIENTE
Docteur ès Sciences Economiques
Doyen de la recherche à l’ISC Paris
C’est à Leïla LOUSSAIEF, docteur en sciences de gestion, professeur
responsable du laboratoire REMAS (Recherche Marketing Stratégie) à
l’ISC Paris, que revient l’initiative et la coordination de ce CRISC n°18
entièrement écrit comme les précédents par les enseignants de l’ISC Paris.
L’article de Sébastien BOYER, diplômé de l’ENSAE, professeur de
marketing à l’ISC Paris, spécialiste de l’analyse de données et de la
segmentation marketing, porte sur l’approche structurale. Il explique que
les segmentations et les typologies ne doivent pas être seulement du
ressort des statisticiens et des chargés d’études et qu’elles ne doivent pas
non plus être dissociées de l’action envisagée. Il montre comment la
démarche par structuration permet de clarifier la problématique et
d’intégrer l’ensemble des paramètres pouvant agir sur la dynamique du
marché (caractéristiques socio-démographiques, styles de vie, bénéfices
perçus, relation au prix…).
En collaboration avec Morgane COM, diplômée ISC Paris et conceptrice
de blogs, Silvia CACHO-ELIZONDO, doctorante à HEC et professeur à
l’ISC Paris, jette la lumière sur l’utilisation des blogs comme moyen de
communication. A travers l’étude d’un cas dans le secteur de la
restauration, l’article examine l’ampleur du phénomène de la blogosphère
en France et met en valeur le rôle des blogs dans la stratégie de
communication de l’entreprise. Il en ressort que le blog est un moyen
efficace pour gérer la communication des changements stratégiques,
même si ce type de canal de communication peut parfois conduire
l’entreprise à faire face à certains risques.
Restant dans le même univers, François CAZALS, gérant-fondateur du
cabinet de conseil Distriforce, professeur et responsable pédagogique du
MBA Marketing relationnel et technologies de l’information à l’ISC Paris,
consacre sa réflexion aux apports du Web 2.0 au marketing. Nouvelle
étape de développement de l’Internet, le Web 2.0 s’appuie sur une rupture
technologique : la démocratisation des réseaux à haut débit. Cette dernière
7
s’accompagne d’une convergence numérique entre les différents terminaux
d’accès (téléphones fixes et mobiles, ordinateurs, organisateurs personnels
ou consoles de jeux). L’Internet devient ainsi social, communautaire et les
contenus générés par les internautes se développent fortement comme,
par exemple, dans les publications sur les blogs
.
Sébatien BOYER de nouveau, cette fois avec Ronald KAMIN, professeur
responsable de l’option de troisième année Marketing stratégie, nous
propose une étude originale de la plasticité d’un marché. A la différence de
l’analyse marketing classique qui se concentre sur les affinités sujet/objet,
l’espace de plasticité apparait comme un espace de potentialités de
changements et non plus comme un espace de positions.
L’article de Leïla LOUSSAIEF explique le fonctionnement des modèles de
causalité dans la recherche en marketing. L’intérêt de ces modèles est de
prendre en compte la différence entre les construits théoriques non
observés et leurs mesures empiriques, permettant ainsi de se rapprocher
davantage de la réalité. Se basant sur des équations structurelles, ces
modèles peuvent également être utilisés pour démontrer l’effet modérateur
d’une variable.
Docteur en pharmacie et enseignant à l’ISC Paris, Christian-Eric
MAUFFRE présente avec Charles BERGER, ESSEC, Docteur en
médecine, professeur de marketing de la santé à l’ISC Paris, un travail sur
le disease mongering (littéralement le fait de voir la maladie partout pour y
apporter un remède). L’article fait le point sur un phénomène considéré par
d’autres comme conjoncturel et parasitaire, relayant des critiques
fréquemment faites à l’industrie pharmaceutique. En analysant les
mécanismes sous-tendant l’irruption dans le paysage médical de nouvelles
pathologies et leurs réponses, le rôle des scientifiques, des patients et des
institutions, l’auteur met en valeur les facteurs de dérives et en mesure le
poids et le risque réel face aux enjeux de santé publique lorsqu’il s’agit de
vendre son traitement ou une molécule participant à ce traitement.
Le terme est proche de la notion de marchéage, création du besoin avant
de proposer le produit apte à le satisfaire. Le marketing utilise d’ailleurs la
mise en place d’une politique de marchéage propre à accroître la demande
de ces produits.
Marc MORIN, docteur en sciences économiques et en sciences des
organisations, professeur responsable du PREMA, Pôle de Recherche en
Entrepreneuriat et Management à l’ISC Paris, jette les ponts entre le
marketing et la gestion des ressources humaines. Il cherche ainsi à
explorer l’avenir possible des techniques de commercialisation applicables
par les entreprises. Ces dernières peuvent par exemple s’appuyer sur les
techniques marketing de segmentation et de ciblage pour attirer les
8
candidats au recrutement. Elles peuvent également mettre en place des
systèmes de rémunération « à la carte » basés sur une première approche
des « besoins - désirs » des salariés. L’article s’interroge sur les avantages
économiques mais aussi sur les freins à l’utilisation de ces techniques.
Docteur ès-sciences sociales et professeur de marketing à l’ISC Paris,
Stéphane MOTARD montre comment l’informatique a acquis un nouveau
statut au sein des instances stratégiques de l’entreprise depuis qu’elle a
gagné en ergonomie et en ouverture au client (via l’extranet notamment).
Les projets CRM permettent en effet aux DSI et aux Directions MarketingVente d’avoir un langage commun. De même, le business case donne à
ces directions un langage financier objectivant, leur donnant ainsi la
possibilité de s’identifier à des structures entrepreneuriales proches des
préoccupations stratégiques et temporelles des instances dirigeantes.
Enfin, Yann TOURNESAC, diplômé ISC, professeur d’entrepreneuriat à
l’ISC Paris nous présente une étude des outils financiers d’évaluation des
salons et des foires qui génèrent des budgets souvent importants pour des
durées de vie par nature très brève. Un cas concret, le salon Green Expo,
illustre la démonstration.
Toute l’équipe de ce CRISC espère que cette présentation de nouveaux
outils d’analyse stratégique et opérationnelle en marketing aura retenu
votre attention et reste, comme d’habitude, à l’écoute de vos remarques
critiques et suggestions.
Georges PARIENTE
Doyen de la Recherche
[email protected]
Les articles sont classés par ordre alphabétique des noms d’auteurs
.
9
Sébastien BOYER
Professeur à l’ISC Paris
ENSAE
Agir en Marketing : l’approche structurale
L’analyse quantitative par les segmentations et
typologies au service de l’action marketing
Abstract
All marketers have heard about (or used) segmentation or clustering. Buy
how many of them were actually part of the building process of this
strategic tool ? How many of them actually completed the intellectual path
which starts from the marketing problem and the acceptable range of
action, ending up with the choice of variables, the way to combine
segmentation criteria, etc… ?
Building segments and clusters is (wrongly) considered as the domain of
statisticians and researchers. We will show that, in reality, cutting a market
into groups, i.e. ‘structuring’ a market, is a fundamental act in marketing,
which cannot be separated from marketing action.
Going through a structuring process, with the help of segmentation and
clustering, means clarifying the marketing problem and following a course
which culminates in action that takes into account all parameters which
have an impact on market dynamics, not just one aspect or another
(demographics, lifestyle, perceived benefits, price relationship, etc.).
For complex strategic problems, in particular, it is the structural approach
that makes quantitative research fully actionable.
Keywords
Segmentation, typologie, structuration de marché, action marketing
10
Résumé
Tous les marketeurs ont entendu parler (ou ont utilisé) des segmentations
ou des typologies. Mais combien d’entre eux ont été réellement partie
prenante dans la construction de cet outil stratégique ? combien d’entre
eux ont déroulé le raisonnement qui part de la problématique marketing et
des actions possibles vers le choix des variables, la manière de combiner
les critères de segmentation, etc. ?
L’élaboration des segmentations et les typologies est, à tort, considérée
comme l’affaire des statisticiens et des chargés d’études. Nous montrerons
qu’en réalité, le découpage d’un marché, autrement dit sa « structuration »,
est un acte fondamental en marketing, indissociable de l’action envisagée.
Procéder par structuration, à l’aide de segmentations et de typologies, c’est
clarifier la problématique et s’acheminer vers une action qui prend en
compte l’ensemble des paramètres qui ont un impact sur la dynamique du
marché, et non simplement un aspect ou un autre (socio-démographie,
styles de vie, bénéfices perçus, relation au prix, etc.).
Pour les problématiques stratégiques complexes, en particulier, c’est
l’approche structurale qui rend les études quantitatives réellement
actionnables.
Mots-clés : Segmentation, typologie, structuration de marché, action
marketing
Plan
1. Qu’est-ce que « l’approche structurale » ?
2. Méthode de travail
2.a. Structurer : oui, mais sur quoi ?
2.b. La vision préalable du marché
2.c. Structure et ciblage : pas si simple…
2.d. Le recours à l’analyse multi-structures pour résoudre des
problèmes marketing complexes
3. Trois exemples d’analyse multi-structures
3.a. Cas simple : optimisation d’un ciblage socio-démographique
(âge)
3.b. Cas semi-complexe : campagne de communication d’une
enseigne physique et virtuelle
3.c. Cas complexe : comment une marque de masse peut-elle se
différencier en communiquant sur un produit hyper-banalisé ?
11
Introduction
Le but de cet article est d’exposer les principes d’un certain type d’analyse
quantitative, dont la particularité est d’être entièrement axée sur l’action
marketing. Ce type d’analyse est appelé « analyse marketing structurale »,
car on y a recours aux méthodes de structuration connues sous le nom de
segmentations et typologies (ici quantitatives), et d’une manière générale
à toutes les possibilités de groupement des individus considérés comme
appartenant au « marché » que l’on souhaite analyser.
Nous commencerons par montrer pourquoi l’utilisation des structures est
non seulement un fil conducteur pour analyser des données sans jamais
perdre de vue le problème marketing initialement posé, mais aussi une
aide à la formalisation de ce problème (Section 1).
Puis nous étudierons la méthode de travail (Section 2.) qu’implique cette
approche par les structures, et dont les quatre éléments principaux sont :
•
•
•
•
La connaissance des données qui servent d’ingrédients pour créer
des segmentations et des typologies
La vision préalable du marché, qui permet de dialoguer avec les
marketeurs et de dresser un inventaire des structures possibles
pour le marché étudié
La maîtrise du raisonnement marketing, qui permet notamment de
passer de la notion de segment à celle de cible
Le recours à l’analyse multi-structures pour résoudre des
problèmes marketing complexes
Enfin, nous terminerons par trois exemples de problématiques résolues par
l’analyse multi-structures (Section 3).
1. Qu’est-ce que « l’approche structurale » ?
Les segmentations et les typologies sont des techniques dont tous les
marketeurs connaissent l’existence, au moins à leur niveau le plus
élémentaire. En voici quelques exemples classiques:
•
•
•
•
•
•
12
Catégories d’âge : 15-24 ans, 25-34 ans, etc.
Classes sociales : A, B, C, D, E.
Segmentation du type PMG (Petits-Moyens-Grands), qui
catégorisent les consommateurs d’un marché selon la fréquence
d’utilisation ou la quantité de produit utilisée
Segmentation par vitesse d’adoption d’un nouveau produit :
Innovateurs, Leaders, Early Adopters, etc.
Segmentation ou typologie par bénéfices recherchés
Etc.
Il peut sembler paradoxal d’associer ainsi action marketing et techniques
de structuration. En effet, dans les schémas de pensée habituels, les
segmentations et les typologies sont plutôt du domaine du chargé d’études
ou du statisticien, pas du marketeur. Les segmentations, c’est de la
« cuisine », il n’y a qu’à « appuyer sur un bouton ». Bref, parler de
segmentation ou de typologie, ce serait s’égarer bien loin de l’action
marketing.
En réalité, il n’en est rien. Arrêtons-nous un instant sur un exemple simple,
pour ne pas dire générique : vous souhaitez accroître la part de marché de
votre marque. Votre marché, comme la plupart des marchés, est mûr,
saturé par l’offre ; il y a donc peu de chances que l’évolution de ce marché
soit « mécaniquement » favorable à votre marque, que ce soit par
croissance organique ou par redistribution interne. Autrement dit, pour
accroître votre part de marché, il va falloir influencer l’évolution de ce
marché dans un certain sens. Concrètement, cela signifie agir pour capter
des clients qui sont aujourd’hui des clients d’autres marques, ou/et capter
plus de non-clients que les autres marques. Parlons des clients des autres
marques. De quelles marques s’agit-il ? Et de quels clients ? Car, pour
chaque marque concurrente, on peut distinguer :
• Des clients qui sont fidèles à la marque, qui sont proches de la
marque et constituent son cœur de cible ;
• Des clients totalement routinisés, qui ne prêtent aucune attention à
cet acte d’achat et ne changeront pas de marque ;
• Des clients réceptifs, plus susceptibles de changer de marque.
Cette dernière population est celle qui nous intéresse. Mais est-elle
homogène ? Sans doute pas. Il faut la décomposer en différents types de
besoins, de motivations, de possibilités d’achat, etc. Donc, qu’on le veuille
ou non, on est déjà en train de raisonner par découpages successifs :
1. clients v. non-clients ;
2. clients fidèles v. clients routinisés v. clients réceptifs ;
3. types de clients réceptifs (ici, plusieurs possibilités
segmentation ou de typologie)
de
Bref, on est déjà en train de découper, donc de structurer, pour savoir
comment agir. Autrement dit, sur cet exemple de problème stratégique
simple, on comprend que la construction de groupes, qu’elle passe par une
segmentation, une typologie, ou une combinaison de ces méthodes, est un
acte analytique fondamental en marketing, et ce pour au moins 3
raisons :
13
•
•
•
Agir en marketing, c’est chercher à influer sur la situation d’un
marché. Il faut donc analyser cette situation. Or la pensée humaine
a naturellement tendance à catégoriser pour structurer son
environnement. Sans structurer, sans classer, il nous est difficile
d’analyser et de décider, surtout lorsque le champ d’analyse
comporte plusieurs dimensions. Lorsqu’il s’agit de nos relations
personnelles avec les autres, catégoriser les êtres humains est
hautement discutable. Mais en marketing, où nous devons réfléchir
1
et agir sur des masses d’individus , c’est la base-même du
discernement.
Le raisonnement structural est un mode d’analyse qui rapproche
de l’action en délimitant des périmètres qui correspondent à
chaque modalité d’action : on y construit des groupes parce qu’à
chaque groupe correspondra une stratégie particulière.
Toute action marketing (repositionner une marque, lancer un
nouveau produit, diversifier ses clients, etc.) se concrétise par un
acte de communication, ce qui sous-entend une « cible ». Pour
faire très court : agir en marketing, c’est cibler. Or la cible est, de
fait, une structure : elle différencie ceux qui sont concernés par le
message de ceux qui ne le sont pas (hors-cible). On peut décliner
cette notion plus souplement, la graduer : on aurait alors des cibles
prioritaires, des cibles secondaires, etc. : ce sont tout autant de
structures que l’on définit.
En réalité, l’utilisation des structures en analyse marketing va plus loin.
Prenons l’exemple d’un concept connu en marketing : les early adopters. Il
s’agit d’une notion que l’on peut définir avec un certain réalisme pour un
2
type de produit donné . Les études par lesquelles on tente de définir ce
groupe montrent tout d’abord que les early adopters se trouvent à la
convergence de 3 critères :
•
•
•
1
Besoin du nouveau produit (ou affinité, propension à s’identifier à
lui) ;
Niveau d’information suffisant ;
Réactivité par rapport à l’information reçue.
Le marketing dit « one-to-one » procède aussi d’une vision stratégique globale, même s’il se
traduit par des messages individuels. De plus, message « individuel » (un e-mail publicitaire,
par exemple) ne signifie pas nécessairement message « individualisé ». L’un des objectifs des
segmentations et typologies est d’ailleurs d’optimiser cette fameuse individualisation,
composante essentielle de la concrétisation du ciblage.
2
La notion d’early adopter est une notion locale et relative, pas généraliste : les early adopters
de l’informatique ne sont pas ceux des détergents. Il n’existe donc pas d’early adopters « tous
azimuts ».
14
Cette première approche des early adopters est donc, d’ores et déjà, à
l’intersection de 3 structures puisque, pour chaque critère, il faut identifier
les consommateurs éligibles. Mais ayant dit cela, on n’a défini que le
périmètre de cette notion : l’ensemble des early adopters potentiels. C’est
la structuration interne de ce périmètre qui revêt un caractère réellement
stratégique. Pour cela, il faut structurer cette population des early adopters
en la confrontant aux paramètres du marketing-mix. En clair, pour un
produit donné, certains groupes d’early adopters correspondent à certains
canaux de distribution, à certains niveaux de prix, etc. Il ne s’agit donc pas
seulement de savoir qui sont les early adopters ou combien sont-ils, mais
surtout de connaître leurs différents profils afin de déterminer
stratégiquement la « qualité » des early adopters, qui va définir le produit
aux yeux des autres consommateurs et influencer tout son cycle de vie.
Par les deux exemples précédents, on comprend que les structures, loin
d’être un détour théorique, font entrer dans une démarche concrète qui
permet de TOUCHER réellement la cible de conquête privilégiée que sont
les early adopters stratégiques, pas seulement d’en parler.
Il en va de même pour la notion, centrale en marketing, de
« concurrence ». Combien de fois entendons-nous des affirmations du
genre : « Notre concurrent, c’est la marque A. ». Pour un marketeur, c’est
une affirmation qui va de soi. Pour un analyste, ça ne veut rien dire, ce
n’est que le début d’une investigation. « Concurrent », oui mais :
•
•
•
•
•
Concurrent sur quel cible ou quel segment de marché ? Les
concurrents de la marque ne sont pas forcément les mêmes sur
tous les segments.
Quelle géométrie concurrentielle sur les différents segments ?
Mêmes produits sur des cibles différentes ? Produits différents
visant les mêmes cibles ?
La concurrence se limite-t-elle aux cœurs de cible des 2 marques,
ou existe-t-elle pour l’ensemble des clients de la marque ?
Sur quels éléments du mix cette concurrence se manifeste-t-elle ?
Mêmes territoires de communication ? Ou concurrence uniquement
sur les prix ?
Comment s’articule la segmentation des acheteurs de chaque
marque sur leur degré de fidélité et d’attachement à la marque ?
Comment ces deux segmentations se croisent-elles ? Où la
marque concurrente peut-elle être attaquée ? Qu’est-il permis
d’espérer dans cette situation ?
Pour répondre à ces questions complexes sur la réalité concrète de la
concurrence, il faut dépasser les limites de l’analyse quantitative ordinaire,
qui est essentiellement descriptive ou explicative. L’approche par les
15
structures permet une analyse de potentialités d’un marché, ce qui
constitue évidemment un apport-clé pour l’optimisation de l’action en
contexte concurrentiel.
Alors, « cuisine de statisticien » ? En un sens oui ; mais, comme toute
cuisine, elle peut être bonne ou mauvaise. Le savoir-faire du cuisinier est
certes essentiel, mais le cuisinier ne cuisine pas pour lui-même. En réalité,
les aspects statistiques ne constituent que le quatrième et dernier point
d’appui d’une bonne analyse par les structures. Plus précisément, la
démarche statistique doit se placer au service de 3 aspects primordiaux :
•
•
•
L’analyse et l’objectif marketing : que veut-on faire ? Avec quels
moyens ? Dans quel contexte concurrentiel ?
L’aspect « étude quantitative » : il faut que l’analyse structurale soit
basée sur une étude quantitative fiable (terrain, échantillonnage,
questionnaire, prise en compte des particularités de l’univers
interrogé, etc.)
Le contexte organisationnel : une bonne segmentation, c’est avant
tout une segmentation que l’organisation comprend et peut utiliser
(avec notamment la possibilité de la répliquer dans des études
ultérieures, quantitatives ou qualitatives)
Ce dernier point peut sembler superflu, et pourtant il n’est pas inutile de
rappeler que la meilleure segmentation du monde, statistiquement
impeccable, procédant d’une analyse marketing solide, basée sur une
étude fiable, etc. … n’est d’aucune utilité pour l’entreprise si les forces
internes ne se l’approprient pas durablement.
Le socle de l’approche par les structures, c’est bel et bien le raisonnement
marketing et sa traduction dans l’organisation. L’analyse par les structures
fait le lien entre l’expression d’une problématique marketing et les réponses
que l’on peut tirer de l’interrogation des consommateurs. Autrement dit,
pour beaucoup de problématiques stratégiques, c’est l’approche par
les structures qui rend les études actionnables.
Bref, l’analyse par les structures, c’est analyser pour agir. Nous tenterons
d’en démontrer la richesse et l’efficacité en expliquant les quatre éléments3
clés de la méthode de travail proposée par l’analyse structurale , puis en
exposant trois exemples de problématiques résolues par l’analyse multistructures.
3
Nous n’exposerons pas ici les méthodes statistiques de construction de segmentation ou de
typologie. Pour ces développements techniques, on consultera avec grand profit l’excellent
ouvrage : Data Mining, de Michael J.A. Berry et Gordon Linoff (InterEditions, Paris, 1997)
16
2. Méthode de travail
Bien souvent, la requête du marketeur est expéditive et lacunaire : « Nous
voulons une segmentation ».
Certes, l’essentiel est dit : l’analyste à qui s’adresse cette requête sait que
son rôle sera, en final, de proposer une structure. Mais l’analyste sait aussi
que les structures (segmentations et typologies) ne sont que des outils
s’inscrivant dans un processus souvent complexe de raisonnement
marketing. Autrement dit, savoir construire des segmentations et des
typologies, c’est bien, mais ce n’est pas très utile si l’on ne sait pas intégrer
ces outils en fonction de l’enjeu et du contexte. L’approche par les
structures suppose donc une certaine méthode de travail, et cette méthode
repose sur quatre éléments :
•
•
•
•
La connaissance des données qui servent d’ingrédients pour créer
des segmentations et des typologies
La vision préalable du marché, qui permet de dialoguer avec les
marketeurs et de dresser un inventaire des structures possibles
pour le marché étudié
La maîtrise du raisonnement marketing, qui permet notamment de
passer de la notion de segment à celle de cible
Le recours à l’analyse multi-structures pour résoudre des
problèmes marketing complexes
2.a. Structurer : oui, mais sur quoi ?
La question est vaste, on peut d’ailleurs la comprendre à 2 niveaux :
•
•
Un niveau théorique : théorie de la segmentation en marketing, qui
correspond au champ de recherche abondant intitulé ‘market
segmentation theory’ dans la littérature anglo-saxonne.
Un niveau pratique : quelles sont les possibilités offertes par les
études quantitatives pour segmenter ?
Le niveau théorique est passionnant, car il soulève de vraies questions, et
plus particulièrement la question fondamentale : doit-on décider sur quoi on
va structurer les sujets ? Autrement dit, ne peut-on pas trouver une
méthode qui permette de repérer des structures « naturelles » ou non
biaisées ?
17
Il faudrait idéalement consacrer un ouvrage entier à ces questions. Dans le
cadre de cet article, elles nous emmèneraient trop loin, car ce n’est pas
seulement la méthode statistique qui est en cause, mais également la
manière de collecter une information souvent déclarative. Contentons-nous
de mentionner que certains chercheurs, ayant constaté les faiblesses
conceptuelles des procédés courants de segmentations, se sont interrogés
sur d’autres possibilités de catégoriser les consommateurs. Ces débats ne
sont pas récents : il faudrait, par exemple, déterrer un papier de 1955 signé
George Kelly4 et analyser ce que ces propositions apportent vraiment.
Enfin, précisons que, malgré une idée assez couramment répandue, le
data mining n’a pas résolu ce problème. Tout d’abord, le fond technique du
data mining n’est pas autre chose qu’un corpus de méthodes connues et
traduites sous forme d’algorithmes ; il ne se situe donc pas au niveau
théorique de ce débat. Par ailleurs, le vrai data miner est celui qui connaît
bien ces algorithmes : « laisser faire la machine » ou « appuyer sur un
bouton » sont des mythes.
Revenons au niveau pratique. Les auteurs proposent différentes
classifications des angles de segmentation. Par exemple, Marsden et
5
Littler distinguent les segmentations qui se concentrent sur :
•
•
•
La manière dont les gens pensent (attitudes)
La manière dont les gens se comportent (usage)
La manière dont les gens sentent (émotions)
6
J.J. Lambin distingue :




Segmentation socio-démographique ou descriptive
Segmentation par avantages recherchés (différences dans les
systèmes de valeurs vis-à-vis du marché/produit/service étudié)
Segmentation comportementale
Segmentation socio-culturelle ou styles de vie
7
Schnaars distingue (non limitativement) :
•
4
Géographie (pays, région)
George A. Kelly (1955), The Psychology of Personal Constructs, Vol1 1 and 2, Norton, New
York.
5
David Marsden et Professor Dale Littler, Product Construct Systems: a Personal Construct
Psychology of Market Segmentation, European Advances in Consumer Research, Volume 2,
1995, Washington State University, Vancouver.
6
J.J. Lambin, Le Marketing Stratégique, Ediscience 1998. La lecture de l’intégralité du
Chapitre 6 est recommandée.
7
Steven P. Schnaars, Marketing Strategy, The Free Press 1997.
18
Socio-démo
Utilisation du produit
Qualités perçues du produit (ou de la marque)
•
•
•
8
Wind distingue :
•
•
•
•
•
•
•
Socio-démo
Socio-culturel, style de vie
Bénéfices recherchés
Utilisation du produit
Préférences
Sensibilité au prix
Fidélité à la marque
9
Snellman , étudiant la segmentation sous un angle historique, distingue :
•
•
•
•
•
Les segmentations géographiques
Les segmentations démographiques
Les segmentations orientées produits
o Par type d’usage
o Par type de bénéfice
Les segmentations comportementales
o Sur l’intention d’achat et la fidélité
o Sur les motivations et attitudes
Les segmentations psychographiques
o Personnalité
o Style de vie
La conclusion de cette énumération est qu’il existe plusieurs manières de
classer les variables de segmentation, mais que toutes ces manières
tournent autour des mêmes notions. Tout au plus peut-on synthétiser ces
approches par le formalisme suivant :
•
•
•
Stucturation des sujets, au travers de leurs caractéristiques
propres (socio-démographiques, socio-culturelles, etc.)
Stucturation des sujets, au travers de leurs relations sujet-objet
(les différents usages et attitudes)
Stucturation des objets (images de marque, bénéfices perçus,
etc.)
8
Yoram Wind, ‘Issues and Advances in Segmentation Research’, Journal of Marketing
Research, August 1978, pp. 317-337
9
Kaisa Snellman, From one segment to a segment of one – the evolution of market
segmentation theory, February 2000, Swedish School of Economics and Business
Administration Working Papers.
19
Mais, en pratique, le choix d’une approche de segmentation ne dépend pas
que de la problématique marketing. Un niveau de contingence, par
exemple, est la disponibilité de données adéquates. Problème que l’on
pourra contourner, dans certains cas, par des rapprochements entre
sources de données. Ces rapprochements peuvent aller de la simple mise
en parallèle de résultats à la réplication d’une question ou d’une
segmentation par modélisation, voire à la fusion lorsque celle-ci est
possible.
Par ailleurs, le choix d’une segmentation dépend aussi du destinataire de
l’outil. En effet, pour un chef de produit, une segmentation sur les bénéfices
recherchés fait sens. Pour des acteurs de la communication, une
segmentation combinant les besoins et les profils psychographiques est
pertinente. Pour un directeur commercial, une segmentation sur les
potentiels de vente ou de rentabilité est indispensable.
Autrement dit, il faut se reporter à l’intention première qui a suscité la
requête, comprendre comment et dans quel contexte la segmentation va
être utilisée dans l’entreprise. En réalité, derrière cette demande se
cachent presque toujours 3 souhaits fondamentaux :
•
•
•
structurer une vision marketing ;
identifier une cible ;
construire une stratégie pour l’atteindre.
Le dernier souhait (construire une stratégie pour atteindre une cible
particulière) relève du marketing « pur et dur », nous ne traiterons pas ici
cet aspect. La question de l’identification de la cible est évidemment un
point critique, et nous verrons dans la suite de cette partie en quoi la
structure (segmentation ou typologie) peut s’avérer suffisante ou
insuffisante pour déterminer une cible. Mais revenons au tout premier
souhait, qui est primordial : avant de structurer quoi que ce soit,
marketeurs et analystes doivent avant tout partager une même vision
du marché. Sans vision du marché, qui peut affirmer que l’on doit
structurer sur telle dimension ou telle autre ?
2.b. La vision préalable du marché
Nous avons vu précédemment que beaucoup de variables différentes
peuvent servir de base à une segmentation. L’analyste a-t-il, pour autant, le
choix ? Il est certes possible d’essayer plusieurs solutions et les comparer
à leur « tête » : un coup de segmentation sur les motivations, un coup de
segmentation sur les bénéfices, etc.
Mais la pratique est un peu différente, car deux cas peuvent se présenter :
20
•
•
Soit la problématique marketing impose, après raisonnement, de
segmenter sur un certain registre de variables.
Soit la problématique marketing impose, après raisonnement, de
prendre en compte une multitude de paramètres, contrainte qui va
se traduire par une combinaison de variables.
On voit donc que, dans les deux cas, on ne choisit pas arbitrairement :
chaque registre de variables correspond à un paramètre possible de la
problématique marketing. C’est pourquoi la construction d’une
segmentation passe nécessairement par une formalisation de la
problématique marketing. Cette formalisation est souvent interactive,
voire itérative. Idéalement, elle se traduit par un dialogue entre le
marketeur et l’analyste. Mais ce dialogue n’est possible que s’il s’appuie
sur une vision commune du marché. Cette vision commune apporte non
seulement un langage commun, mais elle permet aussi d’inventorier
l’ensemble des structures élémentaires qu’il est possible de construire sur
un marché.
L’une des manières d’arriver à une telle vision est de dresser le schéma
stratégique du marché.
Le schéma stratégique se place au niveau du client final et cherche à
dessiner l’histoire de sa rencontre avec le produit, de son origine à sa suite
(fidélisation, changement de comportement, propagation à d’autres
personnes). Ce schéma présente plusieurs utilités :
•
•
•
Dresser un schéma complet du déroulement d’une relation sujet–
objet sur le marché considéré ;
Situer l’ensemble des paramètres de l’action marketing par rapport
à ce déroulement ;
Repérer les segmentations qui seront utiles pour le diagnostic
stratégique.
Il n’est pas toujours nécessaire de recourir à une étude quantitative pour
dessiner ce schéma. Typiquement, une étude qualitative, ou même
l’expérience du marketeur est suffisante. En revanche, une étude
quantitative est nécessaire pour mettre des chiffres en face de chaque
événement.
Considérons un premier exemple de schéma stratégique : la « rencontre »
avec un parfum (de manière qualitative seulement, les chiffres
correspondants étant confidentiels) :
21
Propagations
Achat pour
offrir
Interactions
Imitation
de l'entourage
Publicit é,
notori é té,
promotions …
Actes
Rê ve
Cadeau
Réaction
de l'entourage
Désirs
Intention
d'achat
Essai
Pas d'utilisation
Achat /
Utilisation
( Ré-)achat
Arrê t de l'utilisation
Ruptures
Schéma stratégique de la « rencontre » avec un parfum
Ce schéma permet de situer l’ensemble des paramètres de l’action marketing pour la marque considérée :
•
•
•
•
•
•
•
•
Investissements publicitaires, canaux de communication
Positionnement du discours publicitaire
Promotions, niveau de prix
Echantillons
Fidélisation
Gamme de produits associés au parfum (produit « Corps », etc.)
Innovation technique, ingrédient-phare
Canaux de distribution
Le schéma permet également d’imaginer toutes sortes de segmentations :
•
•
•
•
•
•
•
Sur le niveau de connaissance du marché (comptage du nombre
de parfums connus, à partir de la mesure de notoriété)
Sur le profil socio-démographique et/ou psychographique
Sur le processus d’adoption du parfum actuel
Sur la stabilité, la fidélité
Sur les territoires de communication
Sur les interactions avec l’entourage
Etc.
Considérons un autre exemple issu d’une étude sur les traitements du
cholestérol. On y raconte aussi l’histoire d’une manière linéaire :
22
s
s
e
ède
ns
n
ède
anc n
n
rem tratio
atio
rem acte
res jectifs
iss atio
es
atio
situ
us
l
aut
s
b
des
nna situ
à l’ tion d et fr
alis
ica
es» des
d
t o ence riété
e la rs
e
eco opre
is
é
e
d
p
g
r
édic
e
s
és ivi m
s a erce
flu noto
m
n
lt
eu «mala gard
in
La a pr
s
u
in
p
io
s
a
ig
p
r
p
fic
s
re
su
ent Les
prè
La
L’o
La
Les Les
Dif
Le
de
Le
Le
Int
L’a
Le schéma stratégique est particulièrement important d’un point de vue
méthodologique :
1. Il présente une vision d’ensemble, évitant ainsi que l’on se focalise
« a priori » sur un seul aspect du problème, au risque de passer à
côté des relations avec d’autres aspects.
2. Il permet non seulement de distinguer, entre plusieurs possibilités
de segmentations, celles qui seront déterminantes pour répondre à
la question posée, mais aussi de repérer les variables qui joueront
un rôle essentiel lors de la validation de la segmentation, à savoir
les variables passives ou illustratives.
3. Il permet d’aborder la suite du processus : sélection des variables
actives et plan d’analyse
4. Il permet de mener (et de communiquer aux autres) le
raisonnement marketing qui justifie votre choix de segmentation.
2.c. Structure et ciblage : pas si simple…
Qu’il s’agisse d’une segmentation ou d’une typologie, vient toujours un
moment où, ayant « écrit la partition », il faut la « jouer » , c’est-à-dire :
•
•
Expliquer les spécificités de chaque segment / type
Expliquer en quoi la segmentation / typologie permet de répondre à
la question posée, donc déterminer une ou des cibles et
commencer à ébaucher la ou les stratégies correspondantes
A cette étape, l’analyste peut être confronté à certaines idées reçues sur
les caractéristiques d’une « bonne » segmentation ou typologie. Par
exemple, on estime souvent que les segments ne doivent pas être trop
nombreux ou trop petits. Ces idées reçues en révèlent une autre, plus
importante encore : l’amalgame entre segment et cible.
En réalité, les segments et les types sont rarement des cibles, et le
passage de l’un à l’autre n’est pas si simple. C’est pourquoi, à l’étape de la
segmentation, certains segments peuvent être de petite taille si l’analyse
et la réalité le justifient. L’important est de présenter une analyse
23
cohérente par rapport à la problématique marketing initiale. On précisera
ensuite que ces segments, étant de taille réduite, ne seront pas ciblés (ou
pas isolément), mais cela n’est pas une raison pour occulter leur existence.
Le problème, c’est que lorsqu’un chargé d’études ou un statisticien produit
une segmentation ou une typologie, puis présente les segments ou les
10
clusters obtenus à son client , celui-ci se met immédiatement à raisonner
en terme de cibles. Il pense qu’il peut choisir une cible ou une autre, et
baser sa stratégie là-dessus. Un tel raccourci s’avère le plus souvent faux.
Ce serait envisageable si le client et sa marque étaient seuls au monde, et
si le marché était totalement statique ou totalement élastique. Ces
conditions « idéales » ne sont jamais réunies.
On assiste donc, en présentation, à des raisonnements « par
correspondance » : ce segment-là correspond bien à notre image, « il nous
plaît bien ». Le fameux segment est alors promu au rang de cible sans plus
de formalité.
Il y a en réalité 2 cas. Soit la segmentation présentée est vraiment la
segmentation finale, le point d’orgue du raisonnement marketing. Auquel
cas il faut en tirer les conclusions stratégiques qui s’imposent, qui peuvent
11
être plus élaborées que de choisir une cible. Schnaars répertorie six
stratégies possibles à partir d’une segmentation :
•
•
•
•
•
•
Se concentrer sur le plus gros segment
A chaque segment son produit
Le même produit pour tous les segments
Se concentrer sur un petit segment
Créer un nouveau segment (par exemple, en redécoupant et en
assemblant des segments existants)
Fractionner en plus petits segments
Tout ceci est évidemment schématique et dépend de la problématique et
du contexte. Mais cette liste a le mérite de montrer qu’il n’y a pas qu’une
stratégie possible pour utiliser une segmentation.
Le deuxième cas, qui est finalement le plus fréquent, c’est que le
raisonnement marketing ne se termine pas avec les segments identifiés.
Le raisonnement marketing reste toujours en mouvement, et les
structures le servent jusqu’au bout. Autrement dit, il faut raffiner les
segments ou les types, en les croisant par d’autres paramètres. Il faut
optimiser un segment pour qu’il puisse devenir une cible. Et même, le plus
10
On parle ici de la segmentation finale, bien sûr, pas des éventuelles segmentations dites
« intermédiaires », qui servent de briques de construction de la segmentation finale.
11
Steven P. Schnaars, Marketing Strategy, The Free Press 1997.
24
souvent, la cible réelle est définie par croisement de plusieurs segments ou
types.
Cette distinction entre segment/type et cible, ainsi que les ressources
développées par le croisements de plusieurs structures, sont
caractéristiques de l’analyse multi-structures, dont nous poserons les
bases dans les pages suivantes.
2.d. Le recours à l’analyse multi-structures pour résoudre des
problèmes marketing complexes
La structuration est toujours un moyen, pas un but en soi. Une
segmentation ou une typologie peut apporter des réponses à beaucoup de
questions. Mais quelles questions ? Car il existe plusieurs niveaux de
questionnement en marketing.
A un premier niveau, les segmentations servent simplement la tendance
de la pensée humaine à catégoriser. Ce sont les « structures
naturelles » : catégories d’âge, tranches de revenu, classes sociales,
clients v. non-clients, acheteurs de telle marque v. non-acheteurs, etc.
Elles sont essentielles, mais sont typiquement des variables intermédiaires
à utiliser dans le cours du raisonnement. Elles ne permettent pas d’accéder
à une vision stratégique ou de trouver la solution à un problème marketing.
A un deuxième niveau, on construit des structures dans une intention de
synthèse : segmentations PMG, typologies, etc. Ces structures
synthétiques ne servent plus seulement le besoin de catégorisation de la
pensée humaine : elle propose une vision structurée pour l’entreprise sous
la forme d’un outil synthétique.
Ces 2 premiers niveaux relèvent de l’analyse structurale simple, qui permet
de répondre à des questions du genre :
•
•
•
•
•
•
•
Quels sont les segments qui génèrent le revenu le plus élevé ? Les
plus rentables ? Les moins rentables ?
Quels sont les segments qui n’achètent que notre marque ? Qui
achètent notre marque ainsi que d’autres ? Qui n’achètent pas
notre marque ?
Quels sont les différents niveaux d’usage sur le marché (PMG) ?
Quels sont les besoins de chaque segment ?
Quelle prestation devons-nous impérativement améliorer, et pour
qui ?
Vers quels canaux de distribution devons-nous faire un effort pour
gagner des parts de marché ?
Sur quels segments sommes-nous très présents ? pas assez
présents ? absents ?
25
•
•
•
•
Quel est notre niveau de notoriété dans les différents segments ?
Notre image ?
A quel mode de communication les différents segments sont-ils le
plus sensibles ?
Quel est le contrat de base pour l’ensemble des segments ? Les
« plus » pour chacun des segments ?
Peut-on distinguer plusieurs segments selon leur processus
d’achat ?
Il n’est pas rare que l’analyse quantitative s’arrête au niveau de l’analyse
structurale simple. C’est typiquement le niveau des segmentations et des
typologies dont on se sert pour réfléchir, pour structurer son environnement
commercial. S’il y a ciblage à partir de cette vision, on considère donc
(implicitement) que l’un des segments ou types identifiés est une cible à
part entière.
La vision structurée apportée par l’analyse structurale simple est utile, mais
là encore ce n’est qu’une étape intermédiaire, et non un résultat final, si
l’on doit résoudre des problèmes plus complexes. Un troisième niveau
d’analyse par les structures permet d’approcher (et parfois de résoudre)
des problèmes stratégiques : c’est l’analyse multi-structures.
Là encore, les questions de cadrage stratégique peuvent être plus ou
moins complexes. Certaines questions posées sont relativement explicites.
Elles mettent en jeu de multiples variables, mais on pressent assez bien le
raisonnement qui peut conduire à une réponse sensée, par exemple :
•
•
•
•
•
•
•
26
Quels sont les segments les plus fidèles à notre marque ? Ceux
qui risquent le plus de « switcher » ?
Quels sont les segments les plus réceptifs aux nouvelles offres du
marché ?
Quels sont les segments les plus sensibles aux promotions ?
Parmi ceux-ci, lesquels sont fidélisables ?
Peut-on construire une segmentation des grands profils
d’utilisateurs en prenant compte plusieurs paramètres : niveau
d’usage, type d’utilisation, motivations, besoins, etc.
Quels sont les segments que l’entreprise doit impérativement
garder ? Ceux que l’entreprise peut se permettre de perdre ? Ceux
qui doivent être « transférés » vers d’autres produits ?
Comment optimiser notre ciblage socio-démographique ?
Comment synthétiser en une seule segmentation l’ensemble des
paramètres socio-démographiques qui ont un impact sur l’acte
d’achat (sexe, âge, revenu, etc.) ?
L’analyse multi-structures est souvent pressentie comme une nécessité,
sans nécessairement être formalisée comme telle. Philip Kotler, dans son
12
récent livre intitulé « Ten Deadly Marketing Sins » , note tout d’abord que
la plupart des entreprises « peuvent améliorer notablement leur
segmentation du marché. (…) Trop souvent, elles arrêtent leur
segmentation au niveau démographique ou descriptif ». Cet appel implicite
à une multi-dimensionnalité des segmentations est ensuite précisé :
« D’abord, essayez de segmenter les individus de votre marché selon les
besoins ou les bénéfices recherchés. Puis essayez de trouver les
caractéristiques démographiques corrélées à ces besoins et à ces
bénéfices ».
Ce qui est une manière assez simple de poser le principe d’une
segmentation croisée des besoins et des profils socio-démo. C’est un
premier niveau d’analyse multi-structures, et pourtant Kotler en constate
déjà la rareté. Nous en verrons un exemple simple ci-après.
Le recours à l’analyse multi-structures est presque systématique dès qu’il
s’agit de répondre à des questions stratégiques complexes, questions qui
ont d’ailleurs des allures d’énoncé de problèmes de concours général de
mathématiques, car rien n’y est dit ou presque :
•
•
•
•
•
•
•
•
•
Quel est/sont le(s) « cœur(s) de cible » de notre marque ?
Quels sont les segments les plus difficiles à conquérir ? à
maintenir ?
Quels sont les segments qui devraient être intéressés par notre
nouveau produit ?
Peut-on identifier des segments selon leur niveau d’inertie et leurs
critères de changement potentiel de comportement ?
Peut-on identifier des segments selon le niveau d’intensité de la
concurrence ?Comment structurer notre clientèle actuelle (et
potentielle) pour accompagner le développement de nouveaux
produits ?
Notre produit est-il trop cher ? pas assez cher ?
Comment améliorer notre concept pour gagner des parts de
marché ?
Comment positionner notre marque pour gagner des parts de
marché ?
Comment structurer notre gamme pour optimiser notre chiffre
d’affaires ?
Nous sommes ici au cœur de l’analyse multi-structures, qui permet de
distinguer le possible de l’impossible, de mesurer les forces en
12
Ph. Kotler, Ten Deadly Marketing Sins, ed. Wiley
27
présence sur le marché, de situer par où le changement sur le marché
peut passer, ce qui régit l’interaction entre plusieurs aspects.
Dans un certain nombre de cas, l’analyse mono-structure suffit pour
répondre à des questions stratégiques : par exemple, une segmentation
13
classique basée sur les besoins peut faire l’affaire . Mais sur des marchés
saturés, sur des marchés pris dans la tourmente de processus complexes
de fragmentation, les choses ne sont pas si simples.
D’abord, les « besoins » n’expliquent pas tout. Sur certains marchés,
d’ailleurs, la notion-même de « besoin » est inopérante. Par ailleurs, sur
des marchés fortement concurrentiels, chacun a déjà fait sa segmentation
sur les besoins et cible déjà à peu près les mêmes clients. Il y a donc
besoin d’une approche structurale « de deuxième génération » pour se
différencier efficacement.
Au fond, la fameuse phrase « Nous voulons une segmentation », par son
côté étrangement lacunaire, n’exprime pas autre chose que cette
recherche un peu velléitaire « d’autre chose », d’une segmentation plus
« sioux », plus fine, plus astucieuse, plus lucide que la précédente ou que
celle du concurrent.
3. Trois exemples d’analyse multi-structures
L’analyse multi-structures n’est pas seulement une généralisation de
l’analyse mono-structure. C’est, comme on dit, un « changement de
paradigme ». La référence n’est plus l’observation, ni même la
compréhension des mécanismes de marché, qui sont bien sûr toutes deux
nécessaires, mais l’action finale.
Nous allons maintenant illustrer ce propos par trois exemples de
complexité croissante. Le premier exemple montre comment l’analyse
multi-stuctures permet, assez simplement d’ailleurs, de « toucher »
quantitativement une notion souvent évoquée en marketing : l’âge
psychologique. La finalité de cet exercice est, là aussi, une nécessité
quasi-générique : il s’agit d’optimiser un ciblage socio-démographique. En
cela, on y montre déjà comment l’analyse multi-structures permet de
passer d’un univers de groupes apparemment figés à un univers de
potentialités.
Le deuxième exemple traite des problèmes que rencontre une enseigne qui
possède à la fois des magasins physiques et un site marchand pour
communiquer à la fois vers les internautes et les non-internautes. Ce cas
déjà plus complexe illustre parfaitement comment l’analyse multistructures instrumentalise les techniques de segmentation et de
13
Voir le cas traité dans la presentation intitulée ‘An Introduction to Market Segmentation’,
Malcolm Mac Donald, téléchargeable sur le site http://www.marketsegmentation.co.uk.
28
typologie, les utilise en complément d’autres méthodes statistiques telles
que l’analyse multivariée, tout en associant un sens précis à chaque étape
technique au regard du problème marketing que l’on cherche à résoudre.
Le troisième exemple tente de débrouiller les fils d’une interrogation
apparemment insoluble : Comment une marque de masse vendant un
produit très banal (le yaourt nature) peut-elle se débanaliser sur ce produit
banal ? L’exemple ne vaut pas seulement comme exposé d’une démarche
marketing complexe, mais aussi comme illustration d’une spécificité de
l’analyse multi-structures, qui est d’approcher la résolution de problèmes
sans faire usage de concepts élaborés tels que la Brand Equity, Brand
Identity, etc. Il n’est donc pas nécessaire de maîtriser (ni d’y souscrire…) ce
type de concepts pour aborder cette analyse sur les marques.
3.a. Cas simple : optimisation d’un ciblage socio-démographique
(âge)
Prenons l’exemple d’un annonceur qui, commercialisant des produits pour
les jeunes, cible une catégorie définie socio-démographiquement : les 1534 ans. Une question de pose : peut-on optimiser cette cible ? c’est-à-dire
en redéfinir les contours pour mieux communiquer et concentrer la
pression média sur les seuls 15-34 ans qui sont réellement pertinents
comme cible pour ce produit ?
On pense ici à la notion d’âge « psychologique », reflet de la mentalité plus
ou moins « jeune » du sujet. On comprend intuitivement le concept, mais
comment mesurer cet âge psychologique de manière plausible ?
Pour cela, on a recours à des items socio-culturels, qui sont des phrases
sur lesquels chaque personne interrogée doit se prononcer sur une échelle
(généralement du type : Tout à fait d’accord, plutôt pas d’accord, plutôt pas
d’accord, pas du tout d’accord), par exemple :
•
•
•
•
J’aime prendre des risques
Ma famille est plus importante que mes amis
J’aime faire plusieurs choses à la fois (téléphoner en conduisant,
etc.)
Etc.
Or, il se trouve que beaucoup de ces items sont corrélés à l’âge. Il y a donc
des items plutôt « jeunes », d’autres plutôt « vieux ». Voici quelques
exemples de dimensions socio-culturelles qui entrent typiquement comme
composantes de l’âge psychologique:
29
•
Dimensions « jeunes » :
o Entertainment
o Rêve et imagination
o Carrière professionnelle
o Séduction
•
Dimensions liées à la « maturité » :
o Ingrédients naturels
o Valeurs familiales
o Recherche de la stabilité
o Respect des traditions
En procédant à une régression avec l’ensemble de ces items comme
14
variables explicatives, et l’âge réel en variable à expliquer, on obtient une
combinaison numérique des items socio-culturels qui est porteuse d’un
certain pouvoir prédictif de l’âge : cette combinaison numérique est appelée
« scoring d’âge psychologique ». Si une personne interrogée obtient un
scoring élevé, elle est plutôt « jeune dans sa tête ». Si le scoring est faible,
c’est le contraire.
Le graphique suivant permet de visualiser l’amplitude du scoring d’âge
psychologique pour un âge physique donné:
80
70
60
Psychological age scoring
50
40
30
20
10
0
10
20
30
40
50
60
70
80
Age
14
Si l’âge exact n’est pas disponible, on peut utiliser des tranches d’âge : 15-24 ans, 25-34
ans, etc. Auquel cas on n’utilisera pas la régression mais l’analyse discriminante pour
construire le scoring d’âge phychologique.
30
Par exemple, une personne âgée de 40 ans peut avoir un âge psychologique
de 60 ans… ou de 25 ans… De tels écarts impliquent des différences
importantes en termes d’aspirations et de valeurs.
Dans un second temps, on procède à une segmentation de ce scoring, par
exemple en 2 groupes. Puis on croise avec l’âge réel, lui aussi segmenté
en 2 groupes, d’où 4 cas de figure possibles :
•
•
Des situations normales :
o Des gens jeunes avec des opinions typiques de leur
catégorie d’âge
o Des gens d’âge murs avec des opinions typiques de leur
catégorie d’âge
Des situations contrastées :
o Des gens jeunes avec des opinions « mûres »
o Des gens d’âge murs avec des opinions « jeunes »
« Age psychologique »
Mûr
!
Mûr Jeune :
!
ils sont jeunes, mais leurs
attitudes sont celles de
personnes plus mûres
!
Jeune Jeune :
ils ne sont plus jeunes et
leurs attitudes correspondent
à leur âge
!
ils sont jeunes et leurs
attitudes sont jeunes
Mûr Mûr :
Jeune Mûr:
ils ne sont plus jeunes, mais
leurs attitudes sont restées
jeunes
Jeune
Jeune
Age physique
Mûr
Pourquoi utiliser l’âge psychologique ? Parce que le ciblage par les seules
socio-démo est notoirement insuffisant. On a donc besoin de dimensions
plus qualitatives. Pour cette raison, les médias ne se définissent plus
seulement par leur profil en termes de catégories d’âge et de proportion de
CSP+. Ils investissent dans des études médias-marchés (SIMM, TGI) qui
leur permettent de qualifier leur audience en termes de profil socio-culturel
et d’habitudes de consommation.
31
Considérons le tableau suivant, extrait d’une étude réelle où les 2 âges
(physique et psychologique) ont été segmentés en 3 groupes :
Ps ycho lo gical ag e (3 ca te go ri es )
Age (3
ca te go ri es )
To ta l
1 5 -34
3 5 -54
5 5+
1 5 -34
% tab le au
1 6,1%
% tab le au
1 7,2%
% tab le au
,4%
% tab le au
3 3,7%
3 5 -54
4,5%
2 5,3%
4,7%
3 4,5%
,3%
1 7,1%
1 4,3%
3 1,8%
2 0,9%
5 9,6%
1 9,5%
10 0,0%
5 5+
To ta l
On y constate que :
• La moitié des 15-34 ans ont un profil psychologique de 35-54 ans
• La moitié des 55 ans et + ont un profil psychologique de 35-54 ans
Les implications en termes d’optimisation de cibles sont énormes :
•
•
Si l’on cible l’ensemble des 15-34 ans pour commercialiser un
produit réellement « jeune », on a une déperdition d’au moins 50%,
correspondant à la partie de la cible dont l’âge psychologique ne
correspond pas à l’âge physique ciblé.
De même pour les 55 ans et +, dont une bonne moitié ne se
perçoivent certainement pas comme des « vieux », et ne seront
donc pas sensibles aux mêmes arguments commerciaux.
3.b. Cas semi-complexe : campagne de communication d’une
enseigne physique et virtuelle
Prenons l’exemple (bien d’actualité) d’une enseigne qui possède à la fois
des magasins physiques et un site marchand. Cette enseigne souhaite
s’adresser à la fois aux internautes et aux non-internautes dans une
campagne de communication, et elle souhaite connaître les orientations
optimales d’un discours qui soit :
•
•
32
adapté au profil socio-culturel des 2 populations (internautes et
non-internautes) ;
sans prédominance socio-démographique (ni spécifiquement
« jeune », ni CSP+, etc.)
Pour une requête aussi spécifique, il fallait une méthode spécifique. Nous
avons procédé de la manière suivante :
•
•
•
•
Etape 1 :
o Détermination de l’univers de l’étude : internautes + noninternautes susceptibles de le devenir
o Analyse des Correspondances Multiples d’une batterie
d’items socio-culturels
Etape 2 :
o Projection de la variable PMG des Internautes (nombre
d’heures passées sur Internet en moyenne chaque jour)
o Sélection des axes minimisant la distance entre les
niveaux d’utilisation d’Internet
Etape 3 :
o Typologie sur les axes sélectionnés
o Croisement des types avec les socio-démo habituelles
(âge, niveau de revenu, etc.)
o Elimination
des
types
trop
spécifiques
sociodémographiquement
Etape 4 :
o Etude du profil des types restants : caractéristiques
communes, différenciateurs
o Elaboration du cahier des charges du discours selon ces
caractéristiques communes et différenciateurs
o Détermination d’une cible correspondant à ce cahier des
charges
En apparence, nous parlons ici « cuisine ». En réalité, chaque étape
exprime une partie importante du raisonnement marketing :
•
La question posée relève des territoires de communication. Il y a
potentiellement deux manières d’approcher cette notion de
territoire.
o Soit on l’envisage en recherchant pour la marque une
différenciation fonctionnelle : bénéfices recherchés, offres
spéciales, etc. auquel cas il faut segmenter le marché sur
des critères d’usage.
o Soit on veut mener la bataille sur le terrain de l’image.
C’est l’option qui a été choisie ici, puisque l’on parle de
profil socio-culturel.
L’étape 1 permet d’obtenir la structure socio-culturelle de la
population considérée, sans poser le clivage Internautes v. non33
Internautes comme critère de différenciation a priori ; c’est le cadre
de l’action marketing envisagée.
34
•
Dans l’étape 2, on met de côté ce qui différencie les 2 populations,
puisque l’on souhaite s’adresser indifféremment à l’une ou à
l’autre. Nous procédons par sélection d’axes. Pourquoi ? Après
tout, nous aurions pu procéder par typologie sur l’ensemble des
axes factoriels, puis repérer les types sur lesquels les internautes
ne sont ni sur-représentés ni sous-représentés. Cette solution
aurait été moins adéquate pour deux raisons :
o Risque de travailler avec des types très « centraux », donc
très neutres socio-culturellement ;
o Risque de voir ces groupes sous-tendus par un profil
socio-démographique particulier.
Au lieu de commencer par une analyse factorielle pour en
sélectionner les axes qui rapprochent internautes et noninternautes, nous aurions pu passer par une comparaison des
profils socio-culturels des deux populations, ce qui aurait permis
d’identifier les points de convergence. Le résultat aurait été une
sélection de variables proche de celles qui contribuent le plus aux
axes que nous avons sélectionnés, mais en moins rigoureux,
puisque ne tenant pas compte des corrélations inter-variables. Par
ailleurs, sachant que nous devions réaliser une typologie, il aurait
fallu soumettre cette sélection de variables à une analyse factorielle
pour en extraire les axes principaux.
•
A l’étape 3, nous sommes sur le « terrain socio-culturel commun »
des internautes et des non-internautes. Mais, même sur ces
dimensions, la population n’est pas homogène. Il nous faut donc
connaître :
o les différences socio-culturelles qui sont susceptibles
d’apparaître sur ce terrain commun ; ici encore, nous ne
faisons pas intervenir la différence Internautes v. nonInternautes comme critère : ce qui nous intéresse, ce sont
les différences « naturelles » à l’intérieur du terrain
commun défini par les axes considérés.
o les clivages socio-démographiques que ces différences
socio-culturelles sont susceptibles d’entraîner (et
réciproquement), car nous voulons une campagne
généraliste, pas spécifiquement « jeune » ou « CSP+ »,
etc.
•
L’étape 4 est d’abord qualitative. Il n’y a pas de méthode
« scientifique » pour retenir ou écarter une caractéristique socioculturelle ou une autre. Le choix des dimensions à inclure dans le
cahier des charges s’opère dans un champ délimité par les étapes
précédentes, toutes quantitatives, mais le choix à l’intérieur de ce
cadre est libre. Une fois ce choix arrêté, la conclusion est
quantitative, puisqu’il y a détermination d’une cible en fonction de
plusieurs dimensions.
Le déroulé du raisonnement illustre plusieurs
caractéristiques de l’analyse multi-structures :
•
•
•
•
•
•
•
points tout à fait
Comment on peut utiliser l’analyse par les structures pour répondre
à une question qui n’est pas posée en termes de structures (la
question ne mentionne aucun besoin de segmentation ou de
typologie) ;
Comment il est possible de mener un raisonnement assez élaboré
sans jamais s’éloigner de la question initialement posée ;
Comment le raisonnement sur la problématique marketing se
traduit par des choix méthodologiques et statistiques ;
Chaque décision statistique a un sens logique, nous sommes ici
dans la « sémantique du chiffre » ;
La segmentation ou typologie n’est pas forcément le « mot de la
fin », l’outil qui permet de tout synthétiser. Ici, il s’agit d’une étape
intermédiaire.
Il n’y a pas de correspondance automatique entre types et cibles.
Dans cet exemple, la cible finale ne correspond à aucun des
groupes de la typologie.
La décision s’appuie sur une démarche quantitative élaborée, mais
elle n’est pas uniquement quantitative. Dans l’analyse multistructures, l’utilisation du matériel quantitatif sert à cadrer, à
construire un lien concret entre ce dont on parle et les gens que
cela concerne concrètement.
3.c. Cas complexe : comment une marque de masse peut-elle se
différencier en communiquant sur un produit hyper-banalisé ?
Comment une marque de masse vendant un produit très banal peut-elle se
débanaliser sur ce produit banal ? Ainsi pourrait-on résumer ce cas, mais
ce serait raconter l’histoire « à l’envers », car la question ne nous fut pas
posée en ces termes. Voici le contexte en quelques mots.
X. est une marque de yaourts (parmi les leaders). Connue initialement pour
ses yaourts nature (comme la plupart des marques de yaourts), X. a
considérablement accru son chiffre d’affaires en diversifiant ses produits
(comme la plupart des marques de yaourts) :
35
•
•
•
•
Crèmes desserts
Yaourts aux fruits
Yaourts 0%
Desserts tout prêts
A présent, X. enregistre une faiblesse concurrentielle sur son produit
d’origine, à savoir le yaourt-nature. D’où la question : comment reconquérir
des parts de marché sur le yaourt nature, et ce :
• sans cannibaliser les autres produits ;
• sans créer de nouveau concept-produit (option exclue à court
terme).
Question marketing simple… mais qui soulève plusieurs problèmes :
•
•
•
•
•
•
Tout d’abord, le yaourt nature est un produit hyper-banalisé, qui ne
fait guère rêver.
Le yaourt nature a, par définition, relativement peu d’attributs
extérieurs qui peuvent le différencier d’un yaourt nature d’une autre
marque. On adopte un yaourt nature en fonction de son goût ou de
sa consistance, ou en fonction de son prix. Le lancement du
fameux yaourt au bifidus a été une formidable astuce technique
pour créer une variante sur le yaourt nature. L’astuce a tellement
bien marché que, sans pourtant créer de nouveau concept (comme
le yaourt à boire), l’astuce s’est transformé en marque. Mais ce
coup-là ne marche pas forcément plusieurs fois.
Par ailleurs, l’étude des habitudes d’achat laisse apparaître une
forte routinisation sur une ou deux marques de yaourt nature, donc
peu de potentiel de changement de marque sur ce produit.
On peut jouer sur le « haut de gamme », à travers un produit
incarnant plus d’authenticité par son pack, son positionnement
publicitaire… mais c’est déjà fait. Une telle marque a déjà été
créée et déclinée sur plusieurs produits.
On peut jouer sur le prix, mais la stratégie n’est pas forcément
gagnante sur la durée, et ce n’est pas la politique du groupe.
On peut jouer sur la qualité intrinsèque du produit, sur la « vertu »
du yaourt nature. Mais en cette période de remise en cause des
produits sucrés à l’intention des enfants, cette communication
pourrait avoir un effet cannibalisateur sur d’autres produits de la
marque.
Décidément, la marge de manœuvre est bien étroite. Il s’agit du produit le
plus banal, portant le nom de la marque du groupe, sans possibilité de
décliner une nouvelle identité sur une nouvelle marque ou un nouveau
produit. Cette connivence marque centrale + produit d’origine est d’ailleurs
si bien ancrée chez les consommateurs que toutes les études qualitatives
36
montrent la correspondance entre l’image du yaourt nature et les valeurs
de la marque.
Et c’est précisément cette connivence qui va nous orienter pour l’analyse.
En effet, fort de ce constat d’impossibilité d’agir par une communication
centrée sur le produit, c’est cette connivence avec les valeurs de la marque
qui va nous guider pour trouver la cible, suivant un processus en deux
étapes :
Etape 1 : identification de la cible potentielle de conquête
La cible potentielle de conquête se définit comme la population ne
consommant pas (ou peu) de yaourts nature, mais dont on peut estimer, au
travers de certains critères statistiques, que sa « propension » à en
consommer est plus forte que la moyenne.
L’analyse permet de préciser ce « ne consommant pas (ou peu) ». En effet,
sur ce type de produits, les Gros consommateurs (soit environ 40% d’un
échantillon représentatif de Français âgés de 15 ans et plus) représentent
plus de 75% des ventes. On peut donc considérer, du point de vue de
l’action marketing, que la cible de conquête est définir à l’intérieur des
quelques 60% restants, c’est-à-dire les Petits et Moyens consommateurs
de yaourts nature.
Mais, par ailleurs, l’analyse montre que l’overlap entre les Gros
consommateurs des différents produits laitiers est fort. Autrement dit, si l’on
veut éviter le risque de cannibalisation entre produits, il faut combiner une
forte propension à consommer des yaourts nature et une faible propension
à consommer d’autres produits laitiers.
La définition de la cible de conquête (en langage courant) serait donc la
suivante : il s’agit de personnes :
• qui ne sont pas actuellement des Gros consommateurs de yaourts
nature ;
• mais dont les caractéristiques socio-démographiques et socioculturelles :
o ne sont pas en contradiction avec cette forte
consommation de yaourt nature ;
o rendent la forte consommation d’autres produits plus
improbable.
Pour traduire ces critères en structures, nous avons considéré l’ensemble
des variables socio-démographiques et socio-culturelles mises à notre
disposition, puis nous avons sélectionné les variables qui présentaient de
37
forts écarts de propension en faveur du yaourt nature et en défaveur
d’autres produits. Ces variables étaient les suivantes :
• sexe : le yaourt nature est situé du côté féminin
• âge : la propension à consommer certains produits laitiers varie
beaucoup par catégories d’âge
• situation familiale : le yaourt nature est situé, on s’en doute, du
côté des couples avec enfants.
• divers items socio-culturels que nous avons regroupés par
classification hiérarchique, d’où les thématiques suivantes :
Matérialisme,
Préoccupations
écologiques,
Bien-être,
Enracinement, etc.
Un scoring a été construit sur l’ensemble de ces variables discriminantes,
avec définition d’un seuil de manière à isoler la population dont la
probabilité d’être Gros consommateur de yaourts nature est la plus
15
élevée . Le tableau suivant représente le croisement entre la propension
et la consommation réelle :
Forte
propension
statistique
Faible
propension
statistique
TOTAL
Gros consommateurs
de Yaourts Nature
20%
21%
41%
Petits et Moyens
consommateurs de
Yaourts Nature
16%
43%
59%
TOTAL
36%
64%
100%
Ce tableau montre un lien satisfaisant entre la propension statistique et la
consommation réelle, puisque la probabilité d’être un Gros consommateur
de yaourt nature est de 56% (20% / 36%) parmi les individus à forte
propension, alors qu’elle n’est que de 33% (21% / 64%) parmi les individus
à faible propension. On pourrait obtenir un pouvoir discriminant plus
important en fixant un seuil plus élevé, mais pour des raisons d’effectif
statistique, il a paru souhaitable de conserver une taille correspondant à au
moins 15% pour la cible potentielle de conquête.
15
Plusieurs critères sont valides pour fixer le seuil : rapport de probabilité, effectif maximum
recherché, etc.
38
Il reste à vérifier que cette cible est synonyme non seulement de forte
propension à être Gros consommateur de Yaourts Nature, mais aussi
d’une faible propension à consommer d’autres produits laitiers, comme le
montre le tableau suivant :
Catégorie de produits
Indice Gros consommateurs
Yaourts Nature
Crèmes desserts
Yaourts aux fruits
Yaourts 0%
Desserts tout prêts
136
82
87
110
77
Or ce tableau montre que nous n’avons pas réussi à dissocier, par la
modélisation statistique, la forte consommation de Yaourts Nature et celle
de Yaourts 0%. On utilise donc le même procédé pour modéliser la
propension à être Gros consommateur de Yaourts 0%, puis on élimine les
individus à propension forte de la cible potentielle de conquête. La
structure finale est la suivante :
Forte
propension
statistique
Faible
propension
statistique
TOTAL
Gros consommateurs
de Yaourts Nature
17%
24%
41%
Petits et Moyens
consommateurs de
Yaourts Nature
15%
44%
59%
TOTAL
32%
68%
100%
Cible potentielle de conquête
39
Avec les indices de forte consommation :
Catégorie de produits
Indice Gros consommateurs
Yaourts Nature
Crèmes desserts
Yaourts aux fruits
Yaourts 0%
Desserts tout prêts
130
84
91
80
79
Etape 2 : identification de la cible utile de conquête
Nous avons ensuite recherché, en utilisant toutes les ressources offertes
par les questions socio-culturelles et de caractérisation des
consommateurs, à déterminer la part de la cible potentielle en affinité avec
les valeurs de la marque.
Pour cela, nous avons suivi une méthode de quantification d’un profil
qualitatif. Les scorings ont permis d’identifier 8% (parmi les 15% de la cible
potentielle de conquête) présentant un niveau d’affinité suffisant avec les
valeurs de la marque. Nous recommandions alors, pour cette cible, une
communication axée sur les valeurs de la marque mais conservant la
présence du produit d’origine comme incarnant ces valeurs.
Ce cas illustre plusieurs apports de l’analyse multi-structures pour des
problématiques complexes :
•
•
40
La réflexion est centrée sur les contingences de la situation :
o Au niveau marketing : ce qu’on peut faire, ce qu’on ne peut
pas faire
o Au niveau des structures : croisement de structures afin de
déterminer des potentialités
L’analyse permet de passer d’un niveau à l’autre de concepts
marketing : partant d’une problématique produit, on en vient à
raisonner au niveau de la marque, etc. Pour autant, la question de
départ (augmenter la PDM du Yaourt Nature) n’est jamais perdue
de vue : si la requête avait été d’identifier la cible la plus
intéressante pour communiquer les valeurs de la marque, la
réponse eût été bien différente.
Sébastien BOYER
Professeur à l’ISC Paris
ENSAE
Ronald KAMIN
Professeur à l’ISC Paris
Responsable de l’option Marketing stratégie
MBA de l’Université de Virginie
Study of market plasticity
Résumé
Les gens ont leurs habitudes, et le marketing ne peut pas se
permettre d'ignorer cette donnée, puisque son fondement-même
est la capacité d'influencer les consommateurs. Ainsi, quoique l'on
fasse en marketing, cela se ramène toujours à: essayer de
changer (conquête) les habitudes des gens ou essayer de les
préserver (fidélisation). Donc l'action marketing passe par une
évaluation de ce qui est possible, versus ce qui n'est pas possible,
en termes de capacité d'influence des comportements d'achat des
consommateurs, étant donné le tissu des habitudes existantes sur
le marché. Au vu de ce simple constat, nous introduisons le
concept de plasticité de marché, qui est une propriété de la
relation sujet-objet. "Plasticité" signifie que la relation sujetobject est plus ou moins « déformable », donc influençable par un
facteur extérieur. Tout d'abord, nous examinerons les fondamentaux de
la relation sujet-objet et introduirons la notion de champ des possibles.
Puis nous verrons comment l’habitude se situe au centre des paramètres
de l’action marketing. Enfin, nous introduirons les principes de l'analyse
dynamique de l’habitude et de la plasticité.
41
Abstract
People have their habits, and marketing cannot ignore that,
because its very basis is the ability to influence consumers. So,
whatever we do in marketing, it always comes back to: trying to
change (conquest) or trying to preserve (loyalty) people's habits.
Therefore, So, marketing action is about assessing what is
possible versus what is not possible, in terms of an ability to
influence the purchasing behavior of consumers, given the web of
existing habits that pervade the market. Based on this simple
fact, we introduce the concept of market plasticity, which is a
property of the subject-object relationship. It means that the
relationship between a person an object (product, brand) is more
or less “malleable” and therefore open to outside influence. First
of all, we will examine the basic principles of the subject-object
relationship and introduce the concept of 'field of possibles'. We then
look at how habit works as the core parameter for marketing
action. Finally, we introduce the principles behind the dynamic
analysis of habit and plasticity.
Introduction : the central role of habit in marketing actions
The ability to influence the actions of consumers is the basis of marketing.
If there were no such power, there would be no more marketing, since the
results of any marketing action would be a matter of chance.
Admittedly, this idea verges on the tautological. Nevertheless, the
marketing world is currently engaged in questioning the much-vaunted
16
“ability to influence" that is the very justification for any action . This
questioning is not a merely intellectual matter: the issue affects every
marketer who faces the need to act. So it is a real crisis of effectiveness,
i.e., a crisis concerning this ability to influence, which was thought to be
a settled and well-understood matter. In fact, we are now seeing that we
have perhaps not understood it all that well, now that times have changed
and our practices are being re-examined. Today's markets are saturated,
consumers are feeling harassed, and marketing campaigns are expensive.
Accordingly, marketing actions need to be made more efficient, by
16
See the invitation to the 2006 National Discussion Day organized by UDA-ADETEM [French
national advertisers and marketers associations]: “Just hiccups—or a serious malaise?
Marketing in general and marketing studies in particular are currently experiencing a crisis,
and this National Discussion Day, organized jointly by ADETEM and UDA, is designed to
outline the foundations for a rebuilding of the enterprise”.
42
•
•
•
•
Optimizing the campaign's objectives: to what extent can
consumers be influenced? Within what limits?
Optimizing the words: how can we exert an influence?
Optimizing target definition: who can we influence (in a given
direction)?
Optimizing the channels of communication: how can we make our
message heard by the people we really want to reach?
But these renowned consumers, they are simply us, our family, our friends,
and our colleagues. At our own personal level, therefore, we can observe
and measure to what extent this much-vaunted “ability to influence" is,
ultimately, presumptuous.
People have their habits, there are far too many products on offer, and
each message tends to obliterate the previous one. Admittedly, in rapidlygrowing markets (new technologies), it is reasonable to want to alter the
behavior of the many, since each new product is likely to create new habits.
However, in mature or even commonplace markets (detergents, yogurt,
etc.), how much can marketing actually claim to do? Yes, of course: there's
novelty. But one cannot conjure up a new thing every day and even
newness wears off. And moreover, who are the people who are going to
hear this message about novelty?
Nevertheless, marketing “works”, even in the most ordinary of markets.
Every marketer can testify to it: a product that is not backed up by
marketing inevitably sees its sales decline. Some brands are more
successful than others, and this is not just chance, so something is
indeed possible—but what, exactly?
So, basically, when we talk about marketing actions:
•
•
•
we are discussing what is possible versus what is not
possible...
… in terms of an ability to influence the purchasing
behavior of consumers …
… given the web of existing habits that pervade the
market.
To formalize this “web of existing habits”, we now introduce the concept of
market plasticity, which is a property of the subject-object relationship. To
understand it, consider the example of an ultra-commonplace purchase:
yogurt. For some people, this purchase is entirely without interest: they
always buy the same brand and the same product without thinking, period.
The transaction has become totally “routinized”, and the potential for feeling
differently about it is low. On the other hand, and for other subjects, there
43
may be the possibility of an emotional drive: for example, for certain
mothers the maternal dimension of yogurt may cause messages in this
area to be heard, and to lead to a change of brand.
In other words, there is not just one group of people who never change
their brands, and another group that changes all the time. It is all a matter
of degrees, and this relative quality of the subject-object relationship is
what we will call plasticity, meaning that the relationship is more or less
“malleable” and therefore open to outside influence.
The degree of plasticity is the conceptual expression of the following
phrase, which sums up the essential dynamic of a subject-object
relationship: “Habit is therefore contained within the region of opposition
17
and movement” .
This concept of plasticity represents a fundamental contribution, the
cornerstone of a practically-oriented analysis. It is the formal expression of
18
the question “what is possible?” (see the works of John A. Howard ).
However, traditional marketing analysis, particularly as regards the
positioning of brands, tends to concentrate more on subject-object
affinities. It even portrays affinity spatially (mapping of the proximity
between brands as projected into the subject’s space). The question “what
is possible?” enables us to go further and to introduce a new space: the
space of plasticity, which is no longer a positional space but a space
defining the potential for change.
Using quantitative analysis, we will then attempt to locate the various areas
of greater or lesser plasticity within a market. We are looking for answers to
the following questions: “Who is likely to change? Or not to change? And in
what direction?”
1. Examining the basic principles of the subject-object relationship:
the concept of a field of possibles
“Twelve seconds elapse between the moment when a consumer
approaches the shelf and the moment when the article is placed in the
cart”. These are the opening words of an article by Barbara E. Kahn
17
18
De l’Habitude [On Habit], by Félix Ravaisson, ed. Payot & Rivages, Paris, 1997; p. 111.
Buyer Behavior in Marketing Strategy, John A. Howard, Prentice Hall, 2nd Ed., 1994.
44
19
devoted to brand strategies and consumer behavior . This discussion also
states that the consumer “considers an average of only 1.2 brands”.
Of course, the accuracy of such figures is open to question. These are
averages; it all depends on the type of purchase, etc.—and how was such
an estimate obtained? And under what conditions, etc.? We can certainly
discuss the matter indefinitely.
But the bottom line is that even if the consumer takes 14 seconds instead
of 12, and considers 1.6 brands instead of 1.2, a number of conclusions are
inescapable:
•
•
•
•
Consumer choices are often rapid choices.
This rapidity is based on a certain memory, which predates the
20
present contact with the point of sale .
A quick decision relies on signs that are immediately identifiable—
and here we can foresee the importance of brands (and nonbrands).
At the moment of purchase the memory trace is influenced to a
greater or lesser extent by factors that belong to the point of sale.
The issue for the point of sale, therefore, is to establish an
immediate connection with the various representations in the
consumer's memory.
What then is this “memory trace” that seems to condition such a large part
of the buying act? Let us begin by saying that a memory trace is not only
mental: it is a combination of emotional, physical, social, situational, and
other factors. It is truly a sort of interior universe that we must endeavor
to understand, and that impacts upon the subject-object relationship. Thus,
what we call a “market” actually consists of a multitude of these interior
universes, i.e., subject-object relationships, which are more or less similar
or different. Studying the structure of this set of subject-object relationships
will enable us to build sound marketing strategies.
We can go beyond the previous findings: if the decision to purchase is
semi-instantaneous, then habit must play a major role. But in obeying this
habit, what are we trying to repeat? Or to avoid? Conversely, when we
break a habit, what are we trying to change?
19
Les Stratégies de Marque et le Comportement des Consommateurs [Brand Strategies and
Consumer Behavior], by Barbara E. Kahn, in Les Echos
http://www.lesechos.fr/formations/marketing/articles/article_4_5.htm)
20
Note: throughout this discussion, “point of sale” should be understood in its general sense. It
may be a physical point of sale (a store), an internet shopping site, or a mail-order catalogue.
45
To put it another way, the subject-object relationship immediately displays
two characteristics:
•
•
For each purchase, the subject considers only a limited number of
options: he or she does not “weigh” all of the products offered for
each choice. Thus for each subject, and before each purchase,
there is a field of possibles.
This field of possibles is made up of positive traces (favorable
valuations of objects acquired previously), negative traces
(dissatisfaction, low opinions), and a more or less strong
routinization resulting from these traces, from the subject's
personality (propensity to form habits or to change them), and from
the interest that the subject brings to this purchase (reactive or
extremely commonplace markets).
This concept of a field of possibles leads to a level of generalization that is
higher than our example of “12 seconds and 1.2 brands”. Indeed, this
concept applies to all types of purchase, including the less frequent ones,
e.g., a car. Admittedly, this purchase takes more than 12 seconds (we don't
stick a car in our shopping cart), but the principles that make up the field of
possibles remain valid: we generally consider a fairly limited number of
brands (in any event, certainly not all the makes of car available on the
market), and the state of satisfaction or dissatisfaction regarding our
current vehicle is a determining factor in the selection of the new
automobile.
Note also that this concept of a field of possibles is not restricted to the
consumer market. In the B-to-B market, the conditions surrounding the
purchase are of course quite different, and the service component is
usually much more important, but similar laws are in effect. The rep usually
comes to the buyer, rather than the buyer going to the shelves, but the
reaction of the potential buyer is often quick, and difficult to reverse. The
main motivation of this choice is again customer satisfaction, whether direct
or indirect (by propagation: forums, word of mouth); if someone tells me
that they like a particular make of computer, or if I have had a bad
experience with a supplier, the memory persists and the subsequent reflex
is immediate.
Since the concept of a field of possibles is the basis of the subjectobject relationship, a number of practical questions arise:
•
•
46
How is each subject’s field of possibles formed?
In what respect and how is it possible to influence it?
•
What must we look at in attempting to understand this
formation? What are the consequences as regards the method
of analysis?
As we attempt to answer these questions, our starting point for discussion
will be, naturally enough in view of the examples mentioned above, the
concept of habit—which is obviously at the center of the process of
compiling each subject's field of possibles.
2. Habit as the core parameter for marketing actions
We start with this concept of habit, which is simple enough, and easy to
understand on an everyday basis, and we have seen that it plays a central
role in all buying acts, whether they are for objects in the short-term
consumption cycle (FMCGs: food, toiletries, etc.) or the long-term one
(automobiles, technology, etc.).
The importance of habit is no longer in question. Besides the work of John
21
A. Howard , ACNielsen has recently conducted a study on this subject, as
part of its Winning Brands research program. Two important points emerge
22
from this study :
•
•
50% of buying decisions are dictated by habit; this habit is
expressed in a small number of “personal rules” that the subjects
build for themselves, and that influence most of their purchases;
But these rules are sometimes broken by the subjects themselves,
if only out of a desire for change, which leads to a development in
the subject’s purchasing behavior. In other words, habits are likely
to change at certain moments.
That excellent philosopher Félix Ravaisson was the first to draw our
attention to a fundamental truth: “Habit persists beyond the change that
23
produces it” . This observation emphasizes the fact that habit is a dynamic
process characterized by:
•
•
A trigger
A positive internalization
The memory trace that we discussed earlier is the result of this “positive
internalization”, because “habit does not only involve adaptation (...), it
21
Buyer Behavior in Marketing Strategy, John A. Howard, Prentice Hall, 2 nd Ed., 1994.
In MRNews, June 4, 2004 (Consumers ‘on auto-pilot’)
23
op. cit. p.30.
22
47
assumes a change in attitude”
least temporarily.
24
In other words, habit alters the being, at
This degree of formalization, although it may appear somewhat removed or
“high flown” with respect to our central concern (marketing actions),
actually enables us to better situate all the components that make up the
parameters of this action:
•
•
•
•
•
We can speak of positive internalization, because “in fact, there is
nothing that we can specifically conceive of, that we have not
already described to ourselves, in an imaginary space. And any
specific conception, by its very nature, must contain the more or less
25
obscure awareness of voluntary activity, of the personality” . In
other words, I need to find myself in this internalization. The
purchase must provide me with some content that reflects a certain
image of myself, that becomes an experience. In other words, the
prerequisite for positive internalization is either absence (this market
and this buying act are totally routinized, and are given very little
attention), or experience (experiential marketing).
We also see the important place occupied by the brand (or by the
line, if it is identified as such) as a unit in the acquisition and
perpetuation of a habit: “To constitute a real existence, where a habit
can take root, there must be a real unity; so there must be
something that, in this infinite material, in one form or another
26
constitutes the unity, the identity” .
The development of customer loyalty is the operation through
which a habit begins to repeat itself, possibly becoming periodic:
“Any compulsion whose attacks happen to occur at regular intervals
tends to become a periodic affection: the periodicity becomes an
intrinsic feature. All this represents a gradual exaltation of
27
spontaneity” . The contribution of this way of looking at the matter is
that it shows the development of customer loyalty as an obvious
feature, a potential inherent in the habit itself, and therefore an
absolute priority for marketing. Which brings us back to satisfaction,
or more generally to a positive experience that sustains the
positive internalization.
Achat
24
op. cit. p.31.
op. cit. pp. 56-57.
26
op. cit. p. 33
27
op. cit. p. 47
25
48
Périodicité
Répétition
Fidélisation
[Purchase/Repetition/Development of customer loyalty/periodicity]
Diagram 1: Convergence of habit on itself
•
•
•
•
One of the properties of habit is thus its tendency to be selfsupporting, simply because it reduces the effort that the subject has
to make: “Effort is diminished by the continuity and repetition of the
28
movement” . In other words, the perpetuation of the habit is fed by
the desire to avoid effort. Hence the importance of business
location as a force in this regard. Consider the example of the
McDonalds chain. They are everywhere today, or almost. And in
addition, you know what to expect, they're all the same. No need to
make an effort, and then “it's an outing”, so why look any further,
especially on a Sunday? And then “the children like it” (an argument
that expresses how much you care for your children, etc.).
The point of sale is all the more important in this force diagram
because the trigger itself can become a factor in the internalization:
“Habit has all the more force because the change that caused it is
29
prolonged, or repeats itself over again” . Where, once again, and as
so often before, we rediscover the fact that among the continuously
changing products that marketing presents, the point of sale offers
the only stable refuge for the consumer.
The outcome of this sequence, which includes habit and the
development of loyalty, may culminate in a state of the subject in
which the purchase concerned no longer raises any questions; “life
30
entails a conflict between receptivity and spontaneity” : this is the
ultimate in routinization.
For some subjects the result of this process is a limitation of the
field of possibles to a single brand (or several brands in the case of
a habit that oscillates between a number of complementary brands),
in a rigid manner because it does not involve any decision from the
subject: “The development of a thoughtless spontaneity, which
penetrates and establishes itself increasingly in the passivity of the
28
op. cit. p. 68
op. cit. p. 30
30
op. cit. p. 40
29
49
organization, outside and below the realm of the will, of personality,
31
and of consciousness.” .
There then occurs a phenomenon that is extremely important for
marketing actions: “In the sensibility, in the activity, there also
develops, through continuity and repetition, a sort of obscure activity
that increasingly informs the will, and hence the impression of
32
external objects” . In other words, the state of customer loyalty,
even of strong routinization, implies that the messages are no longer
received. This is a finding whose consequences in terms of public
relations and media planning are considerable: every day, masscommunication campaigns are attempting to influence targets made
up, at least in part, of routinized subjects who, by definition, will not
even hear the message. It is therefore essential to identify these
populations: this is the target-optimization problem.
•
3. Dynamic analysis of habit and plasticity
This routinization, this state of non-receptivity regarding any message and
any new product, is obviously something that is doubly relative:
•
•
On the one hand, several levels must be considered: for some
people, the routinization is total (acquired habit + no interest in a
commonplace buying act = no reason to change).
On the other hand, for some subjects, routinization itself leads to a
change in habits. In fact: “continuity and repetition must thus
progressively weaken feelings, as they weaken sensations, and
they progressively extinguish pleasure and pain, along with
33
feeling” .
In other words, in this “dying out of pleasure and pain”, we understand that
one of the properties of habit is that it “kills emotion”.
This finding leads to the identification of two possible situations: either a
certain kind of emotion is still available to the subject, or, on the contrary,
habit has taken the place of emotion just where it was already weak, i.e., in
a buying act that the subject regards as insignificant.
Diagram 1 showed the process of the convergence of a habit upon itself.
However, if such a process is to take place, there must be a cause at its
center. The circularity thus becomes a process of exchange: the state of
habituation is produced by its cause, and the habit in turn feeds this cause,
which sustains the circularity and thus the state of habituation.
31
op. cit. p. 75
op. cit. p. 71
33
op. cit. p. 99
32
50
La cause cr ée et ma intient l ’habitude
Cause de
l’habitude
Etat
d’habitude
L’état d ’habitude entretient la cause
[The cause creates and sustains the habit
Cause of habit
State of habituation
The habitual state supports the cause]
Diagram 2: Causal representation of habit
To talk about plasticity is to talk about the possibility of changing a habit,
and thus of divergence: at a certain moment the cycle is interrupted, and
the subject-object relationship develops into another cycle.
Divergence = changement d’habitude
Achat
Périodicité
Achat
Répétition
Fidélisation
[Divergence = change of habit
Purchase
Periodicity
Repetition
Development of customer loyalty]
Purchase
Diagram 3: The process of changing a habit
51
This divergence also has its cause, and the cause of the divergence is
connected to the cause of convergence. When we speak of the extinction
of pleasure, for example, we establish a link between these two causes:
pleasure was linked to a certain buying act, which produced a habit
(convergence); then this pleasure became worn out and ended, which
produced a different buying act, which in its turn became a different habit
(divergence).
So what counts is not so much the habit itself, but its cause, or more
precisely its many causes. Because it is clear that in certain cases the
development of a habit, i.e., its convergence or divergence, is produced by
the very experience of purchasing the product or the service:
•
•
•
•
A positive experience (satisfaction) reinforces the cause and
thereby the convergence (low plasticity);
A negative experience (dissatisfaction) reverses the cause and
provokes a divergence (high plasticity);
The wearing away of the positive experience (“extinction of
pleasure”) modifies the cause and thereby raises the possibility of
a divergence (increase in plasticity).
The absence of any experience (nonexistent pleasure) may,
depending on the subject, bring about either convergence (I
always buy the same thing, I'm not interested in changing) or
divergence (it doesn't matter to me, I don't even look at what I'm
buying).
These experimental aspects are at the heart of the dynamics of the subjectobject relationship. This said, we now find ourselves at the opposite end of
the traditional marketing adage: “The customer wants an 8 mm hole, not a
drill”. This saying is correct from the viewpoint of finality, but not from the
experiential viewpoint. It is true that many buying acts lend credence to the
experiential viewpoint: if it is not for the experience they provide, how can
we account for the purchases of four-wheel drive SUVs by city dwellers? Or
the purchase of lawn tractors for properties less than 1,000 m2 in area?
But two other parameters must still be introduced to complete the causal
diagram:
•
52
The subjects themselves:
o Their situation: age, stage of life, family situation, income
level, and type of social environment
o Their aspirations and limits: what they like, what is
unacceptable for them, etc.
o Their habits in terms of how stable or how fickle they may
be.
The way in which all of these parameters are reflected in
their relationship with the object in question: their
underlying customs and attitudes, i.e., the area of the
relationship between the subject and the experiential level.
The point of sale, which has the power to encourage (or
discourage) the purchase; it represents all of the factors that act “in
the moment” and can upset a well-established experiencesatisfaction relationship: it may be an opportunistic purchase, the
unavailability of a product, an illegible shelf label, etc. Note,
34
moreover, that the point of sale has its own experiential issues
o
•
Sujet
Divergence =
Achat diff érent
La cause conduit à une
convergence ou une
divergence
Cause de
l’habitude
Convergence =
Etat d’habitude
L’état d ’habitude entretient la cause
Point de vente
Subject
[Divergence =
Different purchase
The cause leads to a convergence or a divergence
Cause of
habit
Convergence =
State of habituation
The state of habituation supports the cause
Point of sale]
Diagram 4: Factors influencing the cause of a habit
34
Le marketing sensorial du point de vente [Sensory Marketing at the Point of Sale],
Coordinator: Sophie Rieunier, Dunod 2004.
53
Silvia CACHO-ELIZONDO
Professeur à l’ISC Paris
Doctorante HEC
Morgane COM
ISC Paris
Conceptrice de blogs
Le blog dans la communication d’une marque
corporative :
une illustration dans le secteur de la restauration
Résumé
Objectif : Le propos de cet article est, d’une part, d’étudier l’ampleur du
phénomène de la blogosphère en France et, d’autre part, de souligner le
rôle des blogs dans la stratégie de communication de l’entreprise.
Méthodologie : La méthodologie choisie pour illustrer le cadre conceptuel
proposé est celle d’une étude de cas. Le cas retrace les étapes et les
stratégies mises en place par une entreprise qui a lancé un blog pour
communiquer une nouvelle identité corporative intégrant un groupe de trois
marques indépendantes.
Contexte du cas : Le propriétaire de trois restaurants indépendants de la
Région lyonnaise prend la décision de créer une société juridique en vue
de lancer une petite chaîne de restaurants. Le directeur en charge de la
Communication souhaite intégrer les tendances du web interactif pour
54
communiquer ce changement d’identité et renforcer le positionnement de la
nouvelle marque corporative.
Apprentissages : Le cadre théorique et l’étude de cas attestent de
l’efficacité du blog en tant qu’outil pour gérer la communication des
changements stratégiques au sein de l’entreprise. Cependant, il faut aussi
tenir compte des risques auxquels l’entreprise peut se trouver confrontée
en choisissant ce type de canal de communication.
Mots clés :
Communication d’entreprise, Internet, services en ligne,
blogs, gestion de la marque, identité corporative
Abstract
Objective: The purpose of this article is to study the scope of the blog
phenomenon in France and to highlight the role of blogs in the corporate
communication strategy.
Methodology: In order to illustrate the conceptual framework, a case study
approach was chosen. The case shows the different stages and strategies
undertaken by a company that has launched a blog to communicate about
a new corporate identity which emerges from the creation of a holding
group composed of three already existing brands.
Context: The owner of three independent restaurants established in Lyon
(France) has taken the decision to create a legal entity to build up a small
restaurant chain. The manager in charge of the communication wants to
integrate the Web trends to promote this business identity change and to
reinforce the positioning of the new corporate brand.
Learnings: The theoretical frame and the case study reveal the efficacy of a
blog as an innovative tool to communicate corporate strategic changes.
Nevertheless, it is also important to take into account the potential risks that
a company could face by choosing this new communication channel.
Keys words : Corporate communication, online services, blogs, brand
management, corporate identity.
55
Introduction
L’adoption d’Internet à l’échelle mondiale et la pénétration du haut débit
dans les foyers et les entreprises marquent l’avènement d’une nouvelle ère
numérique caractérisée par l’instantanéité, la facilité d’échange de
l’information, l’interactivité, la collaboration et l’esprit communautaire. La
simplification technique et budgétaire contribue à faciliter et à accélérer
l’adoption des services en ligne. De ce fait, la progression de ces services
dans la stratégie de communication des entreprises ne cesse de
s’accroître, ce qui contribue au succès de nouvelles pratiques de
communication, telles que la création et l’utilisation des blogs.
L’expansion du phénomène blog illustre l’emprise du média Internet qui a
évolué du principe du web 1.0 au web 2.0. Alors que le web 1.0 se limitait à
un échange utilisateur-fournisseur, le principe du web 2.0 repose sur « le
participatif » caractérisé par l’échange communautaire et le dialogue. Le
web 2.0 permet aux internautes d’échanger, de co-créer, d’innover et
d’exercer un rôle d’influence dans le cyberespace.
Selon Technorati, la blogosphère mondiale comptait en mars 2007 plus
de 70 millions de blogs et enregistrait une augmentation de 120 000
blogs par jour. Cependant, il n'existe à ce jour aucune mesure officielle
permettant de comptabiliser les blogs. Les estimations prennent
essentiellement en compte les déclarations des sociétés éditrices et les
chiffres fournis par Technorati, le principal outil de recherche des blogs.
Cette nouvelle vague de canaux de communication place les entreprises
devant de nouveaux défis en termes de stratégie marketing et de gestion
de la marque corporative. Pour répondre à ces défis, les entreprises
doivent faire preuve d’une ouverture et d’une sensibilité à ces outils de
communication. Cet article positionne le blog comme un élément clé dans
la stratégie relationnelle de la marque corporative.
L’article comporte deux parties. La première partie propose un cadre
conceptuel autour de la communication d’entreprise, les services en
ligne et, plus précisément, le champ d’application des blogs
communiquant autour d’une marque. La deuxième partie illustre ce
cadre conceptuel à l’aide d’un cas pratique. Il s’agit de communiquer
une nouvelle identité corporative de trois restaurants indépendants qui
souhaitent s’associer sous une marque ombrelle tout en préservant les
spécificités de chaque entité. Ce cas, inspiré d’un cas réel, a été adapté
et modifié pour des raisons de confidentialité et dans un souci
d’éclairage académique.
56
La communication d’entreprise
Une entreprise communique pour différentes raisons : renforcer sa
notoriété, transmettre un changement, introduire une nouveauté ou faire
face à une situation de crise. Le message transmis doit apparaître
cohérent à travers tous les médias utilisés, tout en restant flexible et
perméable aux caractéristiques propres à chaque canal de
communication. Contrairement aux communications traditionnelles qui
ont une durée et une concentration géographique précises, les
communications établies dans le réseau virtuel offrent la possibilité
d’instaurer et d’entretenir un dialogue évolutif, sans contrainte horaire ni
géographique (Cacho-Elizondo, 2008).
Les services en ligne dans la stratégie de communication
Un service en ligne, ou e-service, est un service proposé via Internet,
centré sur le contenu et intégré aux autres processus de support client
de l’entreprise visant à renforcer la relation client-fournisseur (Ruyter et
al., 2001 cité par Cacho-Elizondo, 2005, 2008).
Les services en ligne représentent une nouvelle forme de services
marketing, à savoir une innovation dans le champ des outils de
communication. Ces services ont un avantage de coût et de pénétration
comparativement aux médias traditionnels. Parmi les services les plus
utilisés au sein de l’entreprise, nous retrouvons les sites web, les
newsletters, les forums et les blogs. Nous allons concentrer l’attention
sur l’utilisation des blogs dans la stratégie de communication de
l’entreprise.
Le concept de blog
Le blog est un site web interactif doté d’une publication de contenu
simple à actualiser Il peut être utilisé de manière personnelle ou
corporative. Dans leur livre Blog pour les Pros, Le Meur et Beauvais (2006)
développent l’idée que le blog est essentiellement un espace de
conversation. Le terme blog provient de l’association de web (toile) et log
(journal). Les blogs ou weblogs permettent aux utilisateurs d’afficher
facilement des informations diverses sous forme de textes, de liens et/ou
d’images, faisant l’objet de mises à jour régulières.
En 2005, le ministère de l’Éducation nationale a tenté de remplacer
le terme blog par bloc ou bloc-notes. Cette tentative a échoué, les blogs
francophones étant déjà répandus par millions sur la Toile (Le Monde, 4
avril 2007).
À la différence d’un carnet intime à usage personnel, un blog est un carnet
extime, c’est-à-dire accessible à tous (ou du moins à une population
disposant de l’autorisation d’accéder à cette information). Les affiches
57
publiées sont classées par sujet et par temps d’affichage. En d’autres
termes, les messages sont affichés par ordre inverse à la chronologie.
Il existe diverses déclinaisons des blogs : le blouquin désigne un
livre décliné sur un blog ou l’inverse, un blog publié dans un livre ; un mlog
est un blog adapté aux supports mobiles (ex. téléphone, PDA) ; un vlog est
un blog qui diffuse de la vidéo ; un flog est un blog qui publie
principalement des photographies.
L’évolution du marché des blogs en France
Selon Benchmark Group (octobre 2006), l’audience des blogs est
comparable à celle des grands médias d’information. En 2005, 6 millions
de Français avaient consulté un blog. En 2006, il existait en France 9
millions de blogs, dont 2,5 millions actifs (Technorati, Journal du Net, mars
2006). Ces estimations placent la France au quatrième rang mondial en
termes de nombre de blogs et à la première place en termes de nombre de
blogs par internaute. En 2007, plus de 4 millions d’internautes français ont
créé leur blog, soit deux fois plus qu’en 2006 (Médiamétrie, mars 2007).
Parmi les principales plates-formes de blogs dans l’Hexagone, nous
pouvons citer : Skyblog, Six-Apart, MSN Spaces, Over-blog, Blogger.
Skyblog est largement dominant sur ce marché. Toutefois, Six-Apart,
positionné dans le segment professionnel, héberge quelques-uns des
blogs le plus fréquentés, dont celui de Loïc Le Meur (PDG Europe de cette
plate-forme).
Tableau : Principales plates-formes de blogs en France
Audience
(en visiteurs
uniques)35
3,43 millions
Plate-forme
Nombre de blogs
Skyblog
4,40 millions
2,21 millions
Six-apart
plusieurs centaines de milliers
(12 millions dans le monde)
1,95 million
MSN Spaces
2,5 millions
(30 millions dans le monde)
1,81 million
Over-blog
200.000
1,14 million
Blogger
Plusieurs centaines de milliers
(environ 15 millions dans le monde)
Source : Journal du Net, Plates-formes, mars 2006.
35
58
Selon Médiamétrie/NetRatings, Panel Médiamétrie//NetRatings, Domicile et/ou lieu
de travail, Applications Internet exclues, octobre 2005.
Bien que le nombre de blogs explose, rares sont ceux qui sortent du lot.
Les blogs qui parviennent à se distinguer sont menés par la régularité de la
mise en ligne de l’information et la pertinence des messages. À la
36
différence d’un article de presse, la visibilité et le succès d’un billet
dépendent de l’intérêt porté par les internautes. Par conséquent, la visibilité
est directement corrélée à l’importance que l’internaute accorde à cette
source d’information. Celle-ci peut-être confortée par un processus de
fidélisation via l’abonnement à la newsletter et aux fils RSS. Par ailleurs, un
blog qui fait parler de lui facilite l’activation des processus de bouche-àoreille qui contribuent à élargir son audience tant que le blog est actif. En
effet, les blogs s’essoufflent rapidement et ont une durée de vie moyenne
d’environ 8 mois.
Blogs personnels versus blog d’entreprise
Il existe principalement deux types de blogs : les blogs personnels
et les blogs d’entreprise. Dans les blogs personnels, le blogueur est libre
d’imposer son style rédactionnel et ses valeurs sans aucune contrainte
institutionnelle. Dans le deuxième cas, même si le style du blogueur
exprime son point de vue personnel, au moins partiellement, il se doit de
respecter les valeurs affichées par l’entreprise et les consignes de
confidentialité imposées par les dirigeants. Bloguer au niveau professionnel
est donc moins spontané.
Dans le monde des affaires, la sauvegarde de certaines données est
souvent considérée comme un moyen de préserver l’avantage
compétitif de la firme. De ce fait, la conversation autour des sujets
sensibles pour l’entreprise peut être perçue comme dangereuse pour
certains agents de l’organisation. Par ailleurs, l’essor des blogs
institutionnels a commencé par les blog personnels des employés qui
conversaient à propos de leur travail. Ensuite, des entreprises comme
Microsoft, IBM et Adobe ont pris mesuré le potentiel offert par cet outil
et ont développé le comportement blogueur chez leurs employés.
Afin de délimiter les risques associés à l’appropriation des blogs par les
employés, certaines entreprises ont préféré faire appel à des blogueurs
indépendants. Pour ces entreprises, le recours à un blogueur externe à
l’entreprise donne à la communication une tonalité plus neutre, perçue
par le lecteur comme moins intrusive et commerciale.
36
Un billet est une information publiée sur un blog. Synonyme d'article ou de "note", il
peut se limiter à un simple lien ou à une photo, mais se compose le plus souvent
d'un texte court enrichi de liens externes et de photos. Les billets publiés peuvent
parfois être commentés par les visiteurs du blog (source : www.dicodunet.com).
59
La classification des blogs d’entreprise
Il est difficile de positionner un blog en utilisant un seul critère
d’évaluation ou en le plaçant au sein d’une seule classification statique
dans le temps. D’ailleurs, la nature même du blog comme moyen de
communication en fait un outil évolutif et pluriel.
Le contenu et la tonalité s’adaptent donc au contexte organisationnel,
au message à communiquer et au profil du blogueur qui le gère. Nous
allons à présent décrire un certain nombre de classifications de blogs
repérées à travers la revue de la littérature.
Tout d’abord, le tableau suivant propose une classification fondée sur le
type de communication, à savoir la communication interne (blog privé) ou
la communication externe (blog public). Cette classification permet de
distinguer les différentes cibles et le type d’accès aux billets (restreint ou en
libre accès). À la différence du blog privé, le blog public a un accès illimité
et peut, de ce fait, atteindre des cibles plus larges et plus variées, tant à
l’intérieur qu’à l’extérieur de l’entreprise. Un blog public a bien souvent un
objectif marketing implicite mais il peut couvrir d’autres aspects de
l’organisation et même des problématiques externes. L’Annexe 1 résume
les différentes utilisations des blogs au niveau externe et interne.
Tableau : Classification des blogs d’entreprise
Type de blog
Type de communication
Cibles
Privé
Interne
Employés
Actionnaires
Fournisseurs
VIP clients
Réseaux Internet
Intranet ,
38
Extranet
Limité
Accès
37
Public
Externe
Clients
Prospects
Presse
Organisations
Individus
Internet
Illimité
37
Un intranet est un réseau informatique utilisé à l’intérieur d’une entreprise ou de
toute autre entité organisationnelle utilisant les techniques de communication
d’Internet (IP, serveurs http) L’intranet constitue l’infrastructure technique du réseau
qui permet de développer les projets d’ingénierie des connaissances (source :
Wikipedia).
38
Réseau informatique du type Internet (donc essentiellement basé sur le protocole
IP) à caractère commercial, constitué des intranets de plusieurs entreprises qui
communiquent entre elles, à travers le réseau Internet, au moyen d'un serveur Web
sécurisé. Par extension, il désigne plus généralement les sites à accès sécurisé
permettant à une entreprise de n'autoriser sa consultation qu'à certaines catégories
d'intervenants externes, ses clients ou ses fournisseurs en général (source :
Wikipedia).
60
Une autre classification (Lee et al., 2006) identifie cinq types de blogs
d’entreprise : employé, groupe, exécutif, promotionnel et newsletter. Cette
classification prend en compte tant le profil de l’auteur que le contenu du
blog.
Blog employé : Blog du type personnel géré par un employé. Ces blogs
sont hébergés soit dans le site corporatif soit dans des sites commerciaux
indépendants, avec ou sans le soutien de l’entreprise. À titre d’illustration,
on peut citer les blogs des employés de Microsoft et d’IBM.
Blog de groupe : Blog du type collaboratif géré par un groupe de
personnes. En général, ces blogs traitent d’aspects techniques ou
commerciaux de l’entreprise dans lesquels les gestionnaires ont une
certaine expertise.
Blog exécutif : Blog orchestré par le directeur général ou par un cadre de
haut niveau. Deux exemples illustratifs de ce type de blog : aux USA, le
blog pionnier lancé en janvier 2005 par Bob Lutz (VP de General Motors) ;
en France, le blog de Michel-Édouard Leclerc (PDG du groupe Édouard
Leclerc) lancé la même année.
Blog promotionnel : Blog qui génère du buzz autour des produits ou des
événements sponsorisés par l’entreprise ou la marque. Ces blogs
manquent souvent de légitimité au sein de la communauté des blogueurs.
L’absence de voix humaine, la simulation de la véritable identité des
gestionnaires ou les propos purement commerciaux peuvent nuire à
l’image de l’entreprise, comme dans le cas de la marque Vichy. En effet,
dans l’inconscient collectif des internautes, le blog est associé à la
transparence.
Blog newsletter : Blog du type newsletter qui communique officiellement
sur l’entreprise ou la marque. Les sujets traités sont variés, allant des
actualités de l’entreprise aux informations sur les produits ou services.
Dans son livre Blog Marketing, Wright (2005) propose une
classification exclusivement fondée sur le profil du blogueur. Il distingue
sept grands types de blogueurs professionnels : a) le coiffeur, b) le
forgeron, c) le pont, d) la fenêtre, e) le panneau indicateur, f) le bistro et g)
le journaliste. Les caractéristiques de chaque profil sont décrites dans le
tableau suivant.
61
Tableau : Profils des blogueurs
(adapté de Wright, 2005)
Type de blogueur
Coiffeur
Forgeron
Caractéristiques
I.
Figure de l’expert, du spécialiste
ou du conseiller
II.
Connaissance des experts du
secteur
III.
Faculté de synthèse
IV.
Membre de l’entreprise
V.
Connaissance du secteur
d’activité
VI.
Capacité à mettre les individus
en relation
Pont
VII. Capacité d’influence et de
rapprochement
VIII. Membre de l’entreprise
Fenêtre
Panneau indicateur
IX.
Opinions façonnées en fonction
de son expérience
X.
Capacité à porter un regard
interne et externe sur l’entreprise
XI.
Neutralité, pas d’opinion
XII. Cible les informations sur son
secteur d’activité
XIII. Oriente le lecteur vers d’autres
sites plus complets
Bistrot
XIV. Génère des discussions
destinées à confronter divers
points de vue sur une question
donnée
XV. Privilégie l’objectivité et s’en
tient aux faits
Journaliste
62
XVI. Favorise le développement des
conversations autour d’une
thématique
L’exposition de la marque (corporative, produit ou service) au sein de la
communication est un autre critère de segmentation (KDPaine & Partners,
2007). Les blogs sont ici classés en fonction de la visibilité, du type
d’interaction, de la nature de la discussion, du message et du
positionnement de la marque.
Visibilité : Indique l’approfondissement de la discussion autour de la
marque. La marque est-elle mentionnée directement ou plutôt cachée ? La
marque Celio utilise un blog dans lequel la blogueuse donne ouvertement
son identité mais seul le logo constitue un rappel visuel à la marque (blog :
vousleshommes.blogs.com). Dans ce cas, la marque ne se situe pas dans
la thématique principale du blog.
Interaction : Précise le type d’interaction. Le blog est-il apparu pour
résoudre un problème (ex. packaging, logo, publicité), comparer différentes
marques ou demander l’avis du consommateur ou de l’utilisateur par
rapport à la marque et ses produits ?
Nature de la discussion : Identifie si la conversation est un véritable
dialogue avec un échange d’idées entre le consommateur et la marque ou
plutôt une émission unilatérale de messages sans faire nécessairement
référence à la marque.
Sentiment : Donne le ton de la conversation. La marque est-elle exposée
de manière positive ou négative ? Si le ton est positif, le lecteur aura
tendance à poursuivre la relation avec la marque ou à la recommander. Si
le ton est négatif, le lecteur sera moins motivé à poursuivre une relation
avec la marque. Si le ton est neutre ou équilibré, la conversation sur la
marque est seulement centrée autour de la discussion des faits.
Message : Identifie si les billets incluent un ou plusieurs messages clés de
la marque.
Position : Décrit la manière dont la marque est positionnée. Est-elle
positionnée de la manière souhaitée ou d’une manière moins souhaitée ou
prévisible pour le gestionnaire ?
Les applications autour de la gestion de la marque
Les entreprises adoptent de plus en plus l’utilisation des blogs pour
communiquer plus directement avec leurs clients. L’objectif est de faciliter
le dialogue et la proximité sans délivrer un message institutionnel formel et
rigide. En conséquence, la marque attribue au client un rôle actif dans les
processus de création de valeur. Dans cette perspective, on peut distinguer
dans la stratégie marketing différentes applications concrètes des blogs qui
vont au-delà de la synergie avec les médias traditionnels (LeMeur et
Beauvais, 2006).
63
Test de nouveaux concepts et produits
Le blog peut servir de marché test virtuel pour de nouveaux
concepts, tant à l’intérieur qu’à l’extérieur de l’entreprise. Dans cette
39
perspective, Danone a lancé le Home Use Blog (HUB) . Le HUB est une
40
méthode élaborée en concertation avec la société Repères pour tester
l’usage réel d’un produit par une communauté de blogueurs. François
Abiven, PDG de Repères, positionne le HUB comme un outil au service de
l’innovation qui permet : a) l’accès au vécu du produit et à son
appropriation par la communauté, b) l’observation de l’évolution des
dynamiques d’appréciation et d’usage du produit et c) l’implication de
l’équipe projet (société client, institut d’études, …) via un forum de
discussion associé.

Incubateur et promotion des idées au sein de la firme
Par l’intérêt qu’il suscite auprès des employés d’une entreprise, le blog
constitue un élément intégrateur ayant des retombées indirectes au niveau
interne. Par exemple, il peut contribuer au cours d’une réunion
commerciale à concrétiser de nouveaux projets ou à susciter des idées
novatrices.
Gestion de crises
Le blog est un instrument idéal de communication dans la gestion
de crise (internes et externes à l’entreprise). Ces crises concernent
souvent des situations dans lesquelles la marque doit répondre à des
boycotts, des problèmes de fabrication de produits ou même rassurer les
consommateurs et les employés sur la pérennité de la marque dans le
marché. Prenons comme exemple la crise traversée par Mattel en raison
des jouets défectueux. L’équipe gestionnaire de la marque aurait pu
imaginer la création d’un blog de crise pour faire face à cette situation et
répondre aux questions des clients concernés.
 Renforcement de l’identité de la marque
Le blog peut contribuer à une démarche de définition ou de renforcement
de l’identité de la marque. Pour cela, il faut homogénéiser cette identité
dans tous les médias et respecter les valeurs et les objectifs poursuivis. Le
blog apporte ainsi une cohérence à la communication globale de
l’entreprise. En augmentant la visibilité sur Internet, il devient un levier de
la notoriété et de l’image de la marque.
Au cours de certaines étapes de son cycle de vie, la marque peut connaître
des périodes de transition. Ces passages impliquent souvent des
changements au niveau de son positionnement, de sa gamme de produits,
39
Marque déposée par Danone Research, présentée au SEMO en novembre 2006.
40
Entreprise spécialisée dans les études marketing qualitatives et quantitatives sur mesure.
64
de son identité visuelle (ex. logo, nom) et de sa fabrication. Il peut aussi
s’agir de la fusion des marques ou de la création de nouvelles structures. À
la différence de la gestion d’une crise, dans laquelle se manifeste une
certaine inquiétude face aux conséquences négatives, la gestion d’un
changement stratégique impulsé par la marque implique généralement des
effets positifs. Cependant, ces transformations peuvent indirectement
engendrer des difficultés si la communication du changement n’est pas
bien orchestrée par l’équipe gestionnaire.
Lorsqu’une entreprise se lance dans un processus de création de blog,
elle engage une démarche qui dépasse la communication institutionnelle
traditionnelle. La reconnaissance du client comme pivot de valorisation de
la marque implique un partage plus étendu et réciproque des informations.
Cela représente une véritable transformation de la relation consommateurmarque, qui n’est pas sans risques car elle peut aussi encourager des
détournements de la marque.
Dans une seconde partie, nous allons illustrer l’utilisation d’un blog dans
l’introduction d’une marque corporative réunissant trois marques associées
à trois restaurants indépendants. Ces restaurants ont décidé de se
regrouper en créant une nouvelle entité organisationnelle. Ce changement
stratégique implique la formation d’une nouvelle identité corporative et une
nouvelle structure juridique. Cependant, chaque restaurant souhaite aussi
communiquer sur son positionnement particulier. Pour accompagner ce
changement, le directeur marketing de la nouvelle structure décide de
créer un blog qui appuiera le site officiel du groupe. Lors de cette création,
l’utilisation des blogs à des fins marketing n’était pas encore répandue
dans le secteur de la restauration en France.
Étude de cas
Contexte
Les trois restaurants se situent dans la ville de Lyon (France). Ils se
positionnent dans le même univers culinaire : la cuisine régionale
lyonnaise. Leur clientèle est une clientèle de gourmets à budget moyen qui
apprécient la cuisine traditionnelle des bouchons lyonnais. Les restaurants
appartiennent au même propriétaire et bénéficient d’une gestion
indépendante, chaque restaurant ayant son propre directeur. Le
propriétaire prend la décision de créer une société juridique afin de lancer
une petite chaîne de restaurants et de repositionner l’image de marque des
restaurants.
65
Cette nouvelle structure lance une marque ombrelle « XYZ », garante de
l’identité des trois restaurants « X », « Y » et « Z ». La centralisation des
budgets pour les services de communication et de marketing permet
d’uniformiser l’image des trois restaurants de la nouvelle marque
corporative. Elle permet également d’élargir l’offre globale en créant une
synergie entre les restaurants. L’un des bénéfices qui se dégage de cette
synergie est de permet des échanges de clients entre les différents
restaurants.
Marque ombrelle
Chaîne de restaurants
XYZ
Marque restaurant X
Marque restaurant Z
Marque restaurant Y
Stratégie de communication
Le directeur en charge de la communication souhaite intégrer les
tendances du web interactif pour communiquer ce changement d’identité et
asseoir ce repositionnement de marque. La chaîne permet de concevoir un
budget commun aux trois restaurants X, Y, Z pour investir dans des outils
contribuant à l’élaboration de stratégies de marketing et de communication
opérationnelle.
La communication de l’identité corporative s’inscrit dans le processus de
création de site institutionnel de la marque ombrelle « XYZ », d’achat d’un
logiciel d’eCRM (Customer Relationship Management) pour créer la
newsletter et suivre la relation à la clientèle et, enfin, de la mise en place
d’un blog doté d’un contenu éditorial en accord avec les valeurs de la
marque. Les différentes applications entrent dans une logique d’interaction
et ne sont pas lancées en même temps.
Partie visible de la communication Internet
NEWSLETT
ER
SITE
INTERNET
66
BLOG
CORPORAT
IF
Mises en place des outils de communication
En amont de la stratégie de communication, il est nécessaire de s’appuyer
sur un système de gestion de la relation à la clientèle. Le logiciel d’eCRM
servira de lien sous-jacent entre le site Internet, la newsletter et le blog.
eCRM
Le propriétaire décide d’investir tout d’abord dans un outil d’eCRM, qui
représente la part la plus lourde du budget. Cet outil permet la collecte et le
tri des bases de données, la création et le suivi de la newsletter. L’outil
eCRM constitue la partie invisible de la communication Internet qui va
servir à créer la valeur ajoutée de la stratégie de communication. C’est à
travers cet outil que s’effectue la collecte des coordonnées des clients (ou
clients potentiels) soit par la fiche de renseignements après relation
commerciale (opt in) soit par l’inscription à la newsletter via le site et le blog
(opt out). Cette base de données est exploitée a posteriori pour le suivi et
la fidélisation de la clientèle.
Site institutionnel
Un site institutionnel au nom de la marque ombrelle « XYZ » est ensuite
mis en place. Il présente les trois restaurants dans un langage institutionnel
et donne des informations générales sur ces restaurants (localisation,
carte, service). Le site possède plusieurs fonctionnalités : a) décrire les
différents services et produits proposés, b) véhiculer l’image, les valeurs et
la politique commune des restaurants « X », « Y » et « Z » et c) tenir la
clientèle au courant des dernières créations des restaurants à travers une
actualisation dynamique des informations. Cette régularité de mise en ligne
d’informations permet également le maintien du référencement naturel,
c’est-à-dire de la visibilité du site lors de la navigation sur le web et de son
classement dans les moteurs de recherche.
Blog de marque
Le directeur de la Communication prend l’initiative de créer un blog de la
marque ombrelle dont le contenu est lié à l’environnement du secteur
d’activité de l’entreprise. Le contenu et la forme du blog rappellent les
codes images et les valeurs de la marque corporative. Le blog est
positionné avec un nom significatif : Bouchons de Lyon « XYZ ». Le style
rédactionnel suit la logique du web participatif en adoptant un ton
décontracté et un contenu ouvert aux commentaires.
67
Newsletter
La newsletter est une lettre d’information rédigée sous forme de brèves et
dotée de liens hypertextes orientés vers les billets du blog. Assimilable à
un mail commercial, son contenu ne doit pas être purement promotionnel
mais doit fournir des informations instructives pour susciter le plus grand
nombre d’ouvertures.
Une case d’abonnement à la newsletter est présente sur le blog et le site,
qui propose à ses lecteurs de suivre son actualité par envoi sur leur boîte
e-mail. Les internautes intéressés remplissent un formulaire et indiquent
leurs coordonnées. Ce formulaire, établi par le logiciel de CRM, permet de
stocker les données recueillies et de les trier par cibles.
Après le lancement de chaque envoi de la newsletter, un reporting des différents
types de statistiques permet de connaître les réactions des abonnés, la date et
l’heure d’ouverture de la newsletter ou encore le pourcentage de clicks sur les
liens. Ce reporting fournit le moyen d’adapter les offres et les contenus en fonction
de la sensibilité des internautes. La newsletter associée par hyperliens au blog (lien
externe dirigé vers le blog) permet de constituer une base de données, d’accroître la
visibilité du blog et d’en améliorer le contenu. Elle permet également d’asseoir la
fidélité des clients d’une entreprise en intégrant directement leurs cordonnées à la
base de données et de prospecter des clients potentiels intéressés par l’univers du
blog.
Étapes de réalisation du blog corporatif de la marque ombrelle « XYZ »
L’équipe qui pilote le projet de communication corporative recherche le type de
blog le mieux adapté à cette communication de changement. Elle envisage tout
d’abord un blog exécutif personnel, puis un blog d’employé pour s’orienter, enfin,
vers un blog de marque. Dans ce processus, le blog sert de moyen de diffusion de
l’univers et des valeurs de cette marque-repère et s’inscrit dans une optique de
renforcement de la crédibilité, de la visibilité et de la notoriété. Doté d’une ligne
éditoriale informative, cet outil Internet a pour objectif de diffuser l’image de cette
entité unique à travers une publicité plus humaine fondée sur le bouche-à-oreille,
l’interactivité et la créativité. De plus, à la différence d’un site traditionnel, le
référencement naturel est réalisé plus simplement grâce à son actualisation, ses
liens externes, ses mots clés et sa réactivité.
- L’URL
Le nom du blog porte le nom de l’univers des restaurants
« Bouchons de Lyon XYZ ». L’URL comprend ainsi les mots clés en
rapport avec le contenu du blog.
http://www.bouchonsdelyon XYZ .com/blog/
68
- Le ton
Le ton doit suivre la tendance du web 2.0 qui se traduit par la transparence,
le naturel et la décontraction.
- La ligne éditoriale
La ligne éditoriale du blog repose sur un contenu thématique lié à l’univers
de la gastronomie. Ses rubriques informent les internautes clients
potentiels sur cet univers, en utilisant l’expertise des trois restaurants dans
ce domaine. Cela permet de diffuser indirectement l’image de cette marque
et de montrer ses valeurs directrices en intéressant les clients à des sujets
informatifs. Afin de suivre la logique du web 2.0, la ligne éditoriale du blog
propose un contenu informationnel non institutionnel.
Le contenu du blog ne se limite pas à présenter les restaurants. Il élargit
l’information à l’univers gastronomique des restaurants de la chaîne et de
la Région lyonnaise. La structuration s’effectue à travers des catégories
liées à un thème d’information. Les billets, terme utilisé pour définir un
article, animent les catégories. Les catégories sont actualisées par la
rédaction de billets. Ces billets apparaissent sur la page d’accueil dans
l’ordre inverse à la chronologie. Les billets précédents, stockés dans les
archives, constituent la mémoire de l’entreprise. Le blog Bouchons de Lyon
XYZ s’articule autour de cinq catégories :
- Produits du terroir
(informations
sur
les
produits utilisés en cuisine)
- Recettes des restaurants « XYZ »
(recettes de quelques
plats de la carte)
- Secrets du chef
(conseils pour réussir en
cuisine)
- Dans les cuisines…
(découverte de l’envers du
décor des restaurants)
- Dévoilez vos spécialités culinaires
(introduction
à
une
incitation participative).
La fonction commentaire offerte aux internautes sur chaque article réalisé
sur le blog permet la libre expression sur les sujets abordés. Chaque billet
est accompagné de la possibilité de laisser un commentaire pour recueillir
les opinions des internautes et des clients et les insérer dans une
communauté avec une forte inclination pour la culture gastronomique.
Ces commentaires constituent ainsi un moyen d’améliorer les services à la
clientèle en s’adaptant à ses attentes. Les rubriques fournissent également
l’occasion de proposer des liens externes vers le site institutionnel pour
obtenir des informations plus institutionnelles sur les trois restaurants.
69
Après six mois d’utilisation de ces outils, le directeur de la
Communication s’interroge sur les retombées de cette nouvelle marque
ombrelle en termes de positionnement. Il souhaite voir apparaître une
communauté de clients lecteurs, créer des retombées presse et faire
connaître la chaîne de restaurants et ses valeurs. La prochaine étape
consiste en une exploitation plus approfondie des outils de CRM et des
statistiques du blog afin de mieux cibler les actions marketing. Ces outils
suivent un cycle de renouvellement pour s’adapter à l’évolution de la
technique et aux comportements des internautes évoluant dans des
imaginaires en perpétuel devenir. La synergie entre les outils (ex. site,
blog, newsletter) permet de créer une chaîne de valeurs de la marque et
facilite la naissance de réseaux entre les clients, les employés, les
fournisseurs et, parfois, les contestataires.
Bibliographie
Cacho-Elizondo Silvia (2008), L’impact des services en ligne sur la relation
consommateur-marque, Thèse, Groupe HEC. Janvier 2008
(2005), Strengthening the brand community ties through online
th
marketing communications, 34 European Marketing Association
Conference Proceedings (EMAC), Bocconi University, Italy.
Com Morgane (2007), Blog Marketing, Mémoire, ISC Paris School of
Management.
Delahaye Paine Katie (2007), How do blogs measure up ?, Communication
World, September-October, 30-33.
Lee S., Hwang T. et Lee H. (2006), Corporate Blogging Strategies of the
Fortune 500 companies, Management Decision, 44(3), 316-334.
Le Meur Loïc et Beauveais Laurence (2006), Blogs pour les pros, ed.
Dunod, Paris.
Van Den Heuvel D., Weblog in Practice : How Smart Marketers are Using
Weblogs, AMA, www.blogsavant.com.
Wright J. (2006), Blog Marketing : Instaurez le dialogue avec
vos clients, Village mondial.
Autres sources
Measuresofsuccess.com
KDPaine.blogs.com
Journaldunet.com
Lemonde.fr
Médiamétrie.fr
70
KDPaine & Partners
Journal du net
Le Monde
Médiamétrie
Annexe 1 : Les différentes utilisations des blogs selon Arieanna Foley
(source : Wright, 2006, p.77)
Externe
Interne
Communication
Gestion et partage du savoir
Marketing
Outil d’administration
Complément
d’un
d’informations par courriel
bulletin Documentation interne
FAQ (foire aux questions)
Collaboration
Points de vue sur l’actualité du secteur
Archivage des idées
Présentation de l’offre, avec mise à Dialogue interne
jour régulière
Formation
Archivage dynamique (contrairement
aux courriels)
Journalisme interactif
Intelligence d’entreprise : savoir ce
que disent et pensent les employés et
dégager
les
tendances
correspondantes
Support de recherche
Réactions du public
Requêtes spécifiques / listes de veille
Intégration des sources d’information
Fidélisation :
favoriser
une
identification avec l’entreprise par
l’effet des interactions
Expression personnelle
Rapports de situation (savoir sur quoi
on travaille et avec qui) suivis par
chaque employé au moyen de son
intégrateur
Récits
Fixation descendante des objectifs
Service clients
Interaction et production ascendante
(bottom-up) des idées
Relations publiques
Création d’une culture d’entreprise
fondée sur la libre expression, l’esprit
de communauté et le partage du
savoir
Marketing viral
Sensibilisation / réforme sociale
Création d’une communauté
Mécanismes de vente
Diffusion plus rapide de l’information :
« Vous avez une idée mais ne trouvez
aucune oreille attentive ? Publiez, et
vous serez entendu et soutenu. »
Fidélisation : donner à la marque un Calendrier partagé
visage humain
Gestion du savoir (à grande échelle, Annonce des réunions
ourmedia.com)
Comptes rendus de réunions (au lieu
d’une transmission par courroie)
71
Tendance
Mise en commun de l’intelligence
marketing
GRC (Gestion de la relation clients)
Brainstorming sur la stratégie, les
fonctionnalités et les procédés
Collection des notes relatives à la
clientèle
Entraide
Comportement d’achat
Intelligence concurrentielle
Sondage
72
Capacité à segmenter les blogs par
individu ou par service, afin de faciliter
les abonnements
François CAZALS
Professeur de Marketing à l’ISC Paris
ESC Reims
Web 2.0 et Marketing
Résumé
Le paysage de l’Internet est actuellement complètement transformé par
une véritable révolution, nommée Web 2.0. Cette nouvelle étape de
développement du Web se caractérise logiquement par une rupture
technologique : la démocratisation des réseaux à haut débit
s’accompagne d’une convergence numérique entre les différents
terminaux d’accès (téléphones fixes et mobiles, ordinateurs, organisateurs
personnels ou consoles de jeux), et d’applications enrichies grâce à de
nouveaux standards de développement. Les comportements des
internautes sont naturellement modifiés par cette nouvelle donne
technique. Ainsi, l’Internet devient social, communautaire et les contenus
générés par les internautes se développent fortement, au travers de la
publication sur les blogs ou la réalisation de films sur de nouveaux sites de
partage de contenus multimédia.
Les fondements naturels du marketing sont évidemment affectés par cette
mutation. En effet, l’approche des consommateurs par l’intermédiaire du
canal Internet, dans un objectif de transaction ou de communication, doit
prendre en compte ces nouvelles conditions. Les contours d’un Mix
« Marketing 2.0 » iconoclaste nous semblent en découler assez
clairement. Quatre piliers structurent cette nouvelle approche : la
personnalisation de la relation, grâce à de nouvelles applications
individualisées enrichies, la participation, revendiquée par les internautes,
le partage, au travers de fonctionnalités communautaires innovantes et,
enfin, la permission, où le consentement actif et volontaire des internautes
est essentiel.
Au final, le marketing 2.0 accompagne probablement une évolution de
fond, vers une approche commerciale relationnelle, durable et fondée sur
la collaboration active des consommateurs.
Mots-clés
Web 2.0, convergence, Web social, marketing communautaire, blogs,
permission marketing
73
Abstract
The landscape of the Internet is now being totally transformed by a
veritable revolution, known as Web 2.0. This new stage in the development
of the World Wide Web is characterized, as might be expected, by a
technological shift: the democratization of high-bandwidth systems
accompanied by a digital convergence between the various access
terminals (land-line and cell phones, computers, personal digital assistants,
and game consoles), and improved applications, thanks to new
development standards. The behavior of internet users has inevitably been
altered by this new technical order. As a result, the Internet is becoming
more social and community-oriented, and the content created by internet
users is expanding rapidly, via blogs and the production of movies on new
public-access multimedia websites.
Traditionally-based marketing is of course affected by this transformation.
When approaching consumers by means of the Internet for the purpose of
selling or public relations, this new situation must now be taken into
account. The outlines of a new-generation, "Version 2.0”, Marketing Mix
can be discerned fairly easily. Four cornerstones support this new
approach: the personalization of the relationship, thanks to new
applications that have been customized and improved, participation,
demanded by internet users, sharing, through the use of innovative
community-oriented functionalities, and lastly permission, where the
voluntary and active consent of internet users is essential.
In the end, Marketing 2.0 will probably support a fundamental change in the
direction of a relational commercial approach, one that will be
sustainable, and based on the active collaboration of consumers.
Keywords
Web 2.0, convergence, social Web, community marketing, blogs, marketing
permission
« Le Web 2.0 est à la fois une plate-forme de développement et une
base de données planétaires. Il transforme le navigateur en machine
virtuelle, qui exécute des applications dont les composants sont distribués
sur de multiples serveurs. » C’est ainsi que commence le dossier Web 2.0,
1
de l’hebdomadaire 01 Informatique , du 4 mai 2007, et qui fait sa une en
couverture avec ce titre : « Dossier Web 2.0 – Une plate-forme de
développement planétaire ».
74
Une certitude : la notion est à la mode, et chacun y va de l’ajout de
l’indication « 2.0 » derrière un thème lié aux nouvelles technologies de
l’information et de la communication. Les exemples ne manquent pas :
Musique 2.0 de Borey Sok (éditions IRMA, avril 2007) ; Gutenberg 2.0 de
Lorenzo Soccavo (éditions M21, mars 2007) ; Marketing 2.0, ouvrage
collectif de l’ISC Paris (éditions Distriforce, juin 2007), rendent évidemment
compte, sur leurs thèmes de prédilection, de l’idée d’une véritable
rupture… en un mot, d’une « révolution ».
Historiquement, c’est Dale Dougherty, de la société O’Reilly Media
qui aurait inventé l’expression Web 2.0 en 2004. Tim O’Reilly lui-même l’a
popularisé un an plus tard, le 30 septembre 2005, dans un article qui fait
2
toujours référence : « Qu’est-ce que le Web 2.0 » . Néanmoins, l’idée ellemême reste assez polémique et mouvante, car le Web 2.0 n’est pas
nettement marqué par une véritable révolution technologique. Les
détracteurs indiquent, non sans raison, qu’il s’agit uniquement « d’un retour
3
aux fondamentaux du Web, une forme de concrétisation à retardement » .
Dans cet article, nous vous proposons donc d’explorer plus avant les
contours du Web 2.0, aussi bien d’un point de vue technologique que
sociologique, et de tracer ses premières perspectives (mais également ses
limites éventuelles) en matière de marketing.
Au plan technologique, pour commencer, trois catalyseurs ont créé
les conditions d’une véritable rupture, par rapport à l’Internet « première
génération ».
1. Le « haut débit » généralisé
Si nous considérons les trois dernières années, nous constatons que
les fournisseurs d’accès Internet ont réalisé, dans les principaux pays
développés, d’importants investissements d’infrastructures dans le
domaine des réseaux de télécommunication. La technologie DSL au
premier chef, mais également le câble (plus marginalement), permettent
dès aujourd’hui le développement de nouveaux usages des internautes,
notamment multimédias. Dans un horizon très proche, les réseaux utilisant
4
la fibre optique (« FFTH » ) offriront des débits bien supérieurs, jusqu’à 100
Mbit/s symétriques. Le phénomène s’accompagnant d’une compétition
féroce entre les différents intervenants, les conditions d’accès
économiques deviennent de plus en plus favorables pour les utilisateurs
finaux, favorisant naturellement une démocratisation des accès. Si nous
considérons le marché français en 2006, à titre d’exemple, près de 46 %
5
des foyers disposaient d’un accès Internet, dont 85 % en haut débit . Du
côté des entreprises, le bilan est encore plus saisissant, puisque 91 % des
PME sont connectées en haut débit, selon une étude réalisée par BNP
6
Paribas / Lease Group .
75
2. La convergence digitale
Le second phénomène essentiel pour comprendre la « nouvelle
révolution » de l’Internet tient, selon nous, à la réalité de la convergence
numérique. Conceptuellement, il s’agit de la possibilité offerte aujourd’hui
d’avoir accès à l’Internet par toutes les technologies, à tout moment et en
7
tout lieu. Traduit par l’acronyme « ATAWAD » en anglais (« Any Time, Any
Where, Any Devices »), la convergence marque la fusion de trois éléments.
L’information, autrefois accessible sous des supports physiques divers
(papier, cassettes, disques, photographies, films) est aujourd’hui
numérique. Les supports de stockage, disques durs ou mémoire flash,
contiennent maintenant des capacités très importantes, à des conditions
économiques très attractives. Le transport des données, enfin, est facilité,
tant au plan des réseaux de communication (avec et sans fil) que des
terminaux d’accès (ordinateurs, téléphones mobiles, consoles de jeux,
télévision…).
3. L’ouverture des standards technologiques
Le Web 2.0 constitue une nouvelle plate-forme de développement
planétaire, au sein de laquelle les données sont facilement accessibles,
utilisables et transformables à volonté, dans la mouvance naturelle du
monde de l’Open Source. La syndication des contenus est possible grâce
aux formats RSS et Atom. Les interfaces de programmation (APIs) sont
aujourd’hui très souvent publiques, permettant l’utilisation ou la création de
modules ou scripts transformables, et cela, sans restriction (Widgets,
8
Bookmarklets, Mashups). Comme le note très justement Loïc Haÿ , dans
9
son excellente synthèse « Dessine-moi le WEB 2.0 » , « Le Web acquiert
ainsi une dimension ludique inégalée : il prend la forme d’un immense jeu
de lego, où chacun peut imaginer de nouvelles constructions à partir des
briques disponibles… ».
10
« The Network is the Computer »
Au final, le Web 2.0 ouvre une nouvelle ère de l’Internet: celle où le
réseau devient le bureau de l’internaute. Les pages personnalisables, type
iGoogle, My Yahoo!, Windows Life, Netvibes ou Webwag, permettent ainsi
d’organiser de façon totalement personnalisée et flexible ses flux
d’information, tout en intégrant de très nombreux Widgets ou les
principales applications de productivité personnelle. Ainsi, la quasi-totalité
des applications bureautiques « classiques » (traitement de texte, tableur,
éditeurs de présentation de diaporamas, d’images, de vidéos, de pages
Web, applications de messagerie, bloc-notes, applications d’organisation
personnelle, etc) quitte le bureau local (« Desktop ») pour rejoindre ce
bureau Web (« Webtop »). De la même manière, le navigateur Internet
76
entame une évolution inéluctable pour devenir, progressivement, le
système d’exploitation du Web 2.0. Ainsi, Mike Schroepfer, vice-président
et responsable produit de Mozilla, affirme : « Firefox 3.0 exécutera des
applications Ajax en mode déconnecté, puis synchronisera les données
lors de la reconnexion ».
Mais c’est sans doute au plan sociologique que le Web 2.0
représente, paradoxalement, la plus grande rupture avec le Web
historique.
L’avènement des contenus autoproduits
La première manifestation réside dans la nouvelle capacité (et la
volonté évidente) des internautes à construire et produire des contenus
personnels. L’acronyme anglophone « User-Generated Content » (ou
UGC) désigne cette prise de pouvoir des amateurs dans la création de
contenus de toutes natures : textuels et audio-visuels. Il est vrai que le
Web 2.0 propose de nouveaux moyens très ergonomiques et simples
d’utilisation favorisant cette prise d’initiative de la part des internautes. En
premier lieu, le phénomène des blogs qui a permis l’émergence de
l’autoproduction de contenus par les internautes. L’étude présentée par
11
Sifry.com, en avril 2007 , réalisée à partir des données du portail référent
des blogs, Technorati, est édifiante : plus de 70 millions de blogs sont
apparus sur Internet en 4 ans, pour générer un nouvel univers : la
blogosphère ! En France, en particulier, le phénomène prend des
proportions importantes, pour les plus jeunes, via le succès de la plateforme Skyblog (plus 6 millions de comptes !), mais également dans le
débat démocratique. Lors de la récente campagne pour les élections
présidentielles, tous les grands partis politiques ont largement utilisé le
« phénomène blog » pour diffuser leurs messages, et le blogueur français
le plus connu, Loïc Le Meur, a même défrayé la chronique en affirmant son
engagement idéologique pour le nouveau président de la République, via
12
son blog, évidemment . Le développement est également foudroyant dans
le domaine de la réalisation de vidéos numériques sur le Web. D’ailleurs, le
slogan de la plate-forme emblématique YouTube est très explicite :
« Broadcast yourself ! » (Diffuse-toi toi-même !).
La collaboration collective
La seconde manifestation sociale des internautes qui caractérise le
Web 2.0 repose sur leur participation collective pour créer, enrichir et
organiser du contenu. Ce phénomène, nommé « Crowdsourcing », en
anglais, est typique des wikis, ces sites Web de partage de connaissance,
dont Wikipedia est l’emblème. Ainsi, le Web 2.0 permet de tirer parti de
l’intelligence et de l’altruisme collectifs. Ce phénomène prend tout son
77
sens, lorsque les internautes enrichissent les contenus du web en les
qualifiant, par une évaluation ou un vote, ou par la « folksonomie ». La
logique est d’attribuer des marqueurs sémantiques (ou tags) qui
permettront de décrire un contenu, textuel ou audio-visuel. Ces mots-clés
peuvent ensuite être regroupés et représentés sous forme de nuages
sémantiques (ou « tag cloud »). Cette approche a été popularisée, en
13
France, par Jean Véronis , professeur d’université spécialisé dans le
domaine des technologies du langage, à l’université d’Aix-en-Provence.
Les réseaux sociaux
Le modèle du Web initial s’inverse aujourd’hui complètement avec la
révolution Web 2.0. L’internaute n’agit plus seulement « sur » le réseau,
mais également « en » réseau, au travers de nouveaux cercles relationnels
virtuels, mais très actifs. On parle alors de « social networking ». Cette
nouvelle approche communautaire concerne aussi bien les domaines des
loisirs (avec l’exemple emblématique de MySpace), que le champ
professionnel (Viadeo ou LinkedIn) et même celui des relations
amoureuses (Meetic). Ceci amène évidemment de nouvelles interrogations
14
sur l’identité numérique de chaque internaute, qui construit, sur le long
terme sa réputation et son influence, dans le meilleur des cas, mais
« fossilise » également ses zones d’ombres sur la toile…
Sociologie 2.0
Au final, le Web 2.0 semble surtout structurer de façon différente, et
nouvelle, les comportements des internautes. L’institut d’études Forrester
propose une nouvelle modélisation sociale des internautes, reprise de
15
manière synthétique sur son blog . Celle-ci envisage une échelle
participative constituée de six grands groupes d’individus, élaborée par
rapport au niveau d’implication et de participation sur le Web. Elle permet
de dégager les typologies comportementales qui suivent.
> Les créateurs créent des sites Web, entretiennent des blogs et
éditent des contenus sur les plateformes multimédias.
> Les critiques postent des commentaires sur les blogs, ainsi que
des évaluations et des votes.
> Les collecteurs utilisent les flux RSS et marquent les pages avec
des tags.
> Les membres rejoignent des réseaux sociaux.
> Les spectateurs lisent des blogs et consultent des vidéos ou des
Podcasts en ligne.
> Les inactifs n’exercent aucune des activités précitées.
78
Il est clair que ces nouvelles attitudes, couplées aux facteurs
technologiques déjà décrits, offrent des champs d’opportunités nouveaux
en marketing.
16
Historiquement fondée sur les « 4P » du Marketing Mix de Mac
Carthy, le marketing traditionnel envisage une approche de la cible visée
qui repose sur quelques grands principes :
> La segmentation, ou découpage des populations-cibles par grands
sous-groupes homogènes pour lesquels une approche spécifique et
homogène peut être conçue, fonde la réflexion stratégique.
> Les éléments du Marketing Mix, évoqués plus haut, sont
intangibles.
> Le contact avec la cible est volontariste de la part du promoteur de
l’offre.
> Son objectif est toujours la transformation à court terme de la
transaction.
En synthèse, le « marketing 1.0 » pourrait être décrit comme un
marketing transactionnel de masse, structuré autour des « 4P », anonyme,
et essentiellement intrusif.
Le marketing 2.0
Il nous semble que le Web 2.0 crée de nouvelles conditions pour
redéfinir et inventer un « nouveau » marketing. Celui-ci pourrait être
également structuré autour d’un Marketing Mix révisé, aux « 4P »
iconoclastes.
Personnalisation
Le Web 2.0 offre une nouvelle opportunité à l’internaute : celle de
choisir pratiquement, sans restriction, ses contenus et ses services, ce qui
constitue une véritable innovation. Là où l’offre s’avérait intangible et
structurée par son promoteur dans le passé, elle devient flexible et peut
être adaptée au gré des besoins des cibles visées. La compréhension des
ressorts de la personnalisation ouvre évidemment de nouvelles
perspectives en matière de recherche marketing et de propositions d’offre
pour les organisations.
Participation
Le consommateur subit passivement, généralement, la « pression »
exercée par les promoteurs de produits, de services ou d’idées. Avec le
Web 2.0, l’internaute se voit offrir la possibilité d’interagir avec les
fournisseurs de produits, de services ou de contenus, ainsi qu’avec les
autres internautes. Il crée et fournit ses propres contenus, évalue et
structure ceux auxquels il est confronté. De nouveaux flux d’interactions
apparaissent ainsi, vers les promoteurs d’offres, évidemment, mais aussi
avec les autres internautes.
79
Partage
Là où le marketing traditionnel essaie de déterminer les segments
fondateurs de l’approche commerciale, le Web 2.0 voit apparaître des
groupes constitués par les internautes eux-mêmes, autour de thèmes
fédérateurs, dans une dynamique communautaire. Cette dimension sociale
permet une propagation « virale » de l’information, incontrôlée et
incontrôlable, pour le meilleur… ou pour le pire. La compréhension ou
l’animation de tels réseaux sociaux constituent évidemment un nouvel
enjeu critique du marketing.
Permission
Le Web 2.0 est un univers où rien n’est imposé, même plus la
technologie. L’internaute s’abonne à un flux d’information ou intègre un
Widget s’il le juge pertinent et intéressant ; s’en désabonne ou le supprime
sans difficulté, en cas de déception. Les comportements sont fondés sur
l’adoption volontaire et le consentement actif. Il est d’ailleurs intéressant de
17
noter que ce point a déjà été théorisé par Seth GODIN , dans son ouvrage
de référence : Permission Marketing (édition MAXIMA, septembre 2000).
C’est le règne de l’Opt-In, où l’adhésion volontaire et la liberté d’arrêter la
18
relation ont force de loi (comme en France, avec l’adoption de la Loi sur
la Confiance dans l’Économie Numérique, du 21 juin 2004).
19
Un nouveau paradigme
marketing
Au final, c’est l’essence même du marketing qui nous semble devoir
être affecté par le Web 2.0.
Au plan statistique, tout d’abord, la croissance des investissements
en e-communication semble un premier indicateur de cette révolution en
marche. En France, celle-ci aura été de + 48,2 %, à 1,7 milliards d’euros,
entre 2006 et 2005, selon l’étude annuelle TNS Media Intelligence/IAB.
Ceci représente déjà 8 % des investissements publicitaires globaux et la
tendance va se poursuivre très certainement les prochaines années.
Au plan conceptuel, ensuite, c’est l’ensemble du modèle marketing
traditionnel qui est bouleversé :
> La relation est personnalisée, et les produits, services et contenus
eux-mêmes deviennent personnalisables.
> La confiance se construit et se consolide au travers d’une relation
durable et consentie, fondée sur la participation active et la possibilité
toujours offerte de « faire marche arrière ».
L’internaute lui-même hiérarchise ses centres d’intérêt, qu’il partage
au sein de collectivités auto-générées
La « vertu commerciale » est récompensée, car rapidement
propagée par le réseau. À l’inverse, toute sous-performance ou « trahison
80
marketing » est immédiatement sanctionnée par une diffusion virale
négative.
Finalement, le marketing 2.0 ne serait que la nécessaire mutation du
marketing, dans le sens d’une relation durable et consentie, individualisée
et communautaire, avec une offre flexible et personnalisable, grâce au
support des évolutions du Web 2.0.
Notes
1
01 Informatique n°1903, du 4 mai 2007
2
http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web20.html
3
http://www.slideshare.net/loichay/dessinemoi-le-web-20/
4
FFTH :
Fiber
to
The
Home
http://www.journaldunet.com/diaporama/0607-fttx/1.shtml
5
Étude GFK-SVM de janvier 2007 :
http://www.svmlemag.fr/actu/sondage_exclusif_les_francais_misent_tout_s
ur_linternet
6
http://www.bplg.com/enquetes/pme-pmi_tic/
7
ATAWAD© est une marque déposée sous le n° 33 202 569 pour
désigner plusieurs produits et services notamment dans les domaines de
l’informatique, des télécommunications et des affaires.
8
http://www.ziki.com/people/loichay
9
http://www.artesi.artesiidf.com/repository/N41/N413442889/498629140.pdf
10
« The Network is the Computer » : Marque déposée de Sun
Microsystems, Inc.
11
http://www.sifry.com/alerts/archives/000493.html
12
http://loiclemeur.com/france/
13
Le blog de Jean Véronis : Technologies du langage http://aixtal.blogspot.com
14
http://www.fredcavazza.net/index.php?2006/10/22/1310-qu-est-ce-que-lidentite-numerique
15
http://blogs.forrester.com/charleneli/2007/04/forresters_new_.html
16
Product – Price – Place – Promotion (produit, prix, distribution,
communication)
17
Le blog de Seth GODIN : http://sethgodin.typepad.com/
18
http://www.internet.gouv.fr/information/information/dossiers/loi-pourconfiance-dans-economie-numerique-len/les-principales-dispositions-len41.html
19
http://www.amba.fr/definition-000209.html
81
Leïla LOUSSAIEF
Professeur de Marketing à l’ISC Paris
Docteur en Sciences de Gestion
Responsable du laboratoire REMAS
Recherche en Marketing et Stratégie
L’utilisation des modèles de causalité dans la
recherche en marketing
Résumé
L’article porte sur les modèles de causalité. Ces modèles sont de plus en
plus utilisés dans les recherches quantitatives en marketing. L’utilité de ces
modèles est de prendre en compte la différence entre les construits
théoriques non observés et leurs mesures empiriques, permettant ainsi
d’appréhender la réalité avec plus de précision.
Le test d’un modèle de causalité se fait généralement en cinq phases :
Vérification de la base de données, vérifications statistiques préalables à la
réalisation du test, spécification du modèle, identification du modèle et
estimation du modèle.
L’article décrit également comment prouver le rôle modérateur d’une
variable dans le cadre des modèles de causalité. En fonction de la nature
des variables indépendante et modératrice, les méthodes statistiques
utilisées ne sont pas les mêmes.
Abstract
This article focuses on structural models that are increasingly used in the
quantitative research in marketing. The main interest of these models is to
take into account the difference between the theoretical non-observed
concepts and their empirical measures, thus making it possible to grasp the
reality more accurately.
The test of a structural model is usually done in five phases: Checking the
database, statistical checking prior to the completion of the test, specifying
the model, identifying the model and estimating the model.
82
The article also explains how to highlight the moderator effect of a variable
in the context of structural models. Depending on the nature of the
independent and moderating variables, the statistical methods used are
different.
La présentation des modèles de causalité
Les modèles de causalité, plus techniquement appelés modèles
d’équations structurelles avec variables latentes et erreurs de mesure, sont
des méthodes statistiques de seconde génération et présentent les
avantages de ces méthodes (Valette-Florence, 1988) :
 elles introduisent la notion de variables latentes ou non observables ;
 elles permettent de spécifier la nature des relations entre ces variables
latentes et leurs mesures ;
 elles offrent également la possibilité de préciser le type de relations
envisagées entre les variables latentes ;
 elles sont capables d’analyser les inférences causales entre plusieurs
ensembles de variables explicatives et expliquées ;
 elles sont susceptibles d’utilisation confirmatoire.
Traditionnellement, les recherches en marketing considèrent, comme le
soulignent Steenkamp et Baumgartner (2000), qu’il existe une
correspondance parfaite entre le construit théorique et son
opérationnalisation : le construit est l’opérationnalisation. Au contraire, les
modèles d’équations structurelles introduisent, avec la notion de variable
latente, une distinction entre le construit théorique et sa mesure. L’utilité
des modèles d’équations structurelles est d’introduire une distinction claire
entre les construits théoriques non observés et des mesures empiriques
qui restent faillibles. Les mesures des construits théoriques sont
contaminées par des erreurs qui peuvent biaiser l’estimation des
paramètres du modèle. Les modèles d’équations structurelles permettent
une prise en compte de l’erreur, et, par conséquent, une estimation plus
fiable (Steenkamp et Baumgartner, 2000).
Le modèle général utilisé pour l’analyse de la causalité résulte de la
conjonction d’un modèle d’équations structurelles défini sur les variables
latentes et d’un modèle de mesure reliant les variables observées aux
variables latentes (Evrard et al., 2000). Les modèles de causalité concilient
donc à la fois des modèles de mesure et des modèles de structure. Cette
méthodologie permet au chercheur de tester des théories (à défaut de les
établir) en favorisant le passage d’une analyse exploratoire à une analyse
confirmatoire. Il s’agira ensuite d’évaluer l’adéquation de ces théories aux
données empiriques en vérifiant la qualité de leur ajustement.
Les principes de test des modèles de causalité
Le test d’un modèle de causalité se fait généralement en cinq temps :
83
1. Dans un premier temps, il s’agit de vérifier que la base de données ne
contient pas de valeurs manquantes.
2. Dans un deuxième temps, il faut opérer les vérifications statistiques
préalables à la réalisation des analyses en s’interrogeant notamment
sur la taille de l’échantillon et la normalité des variables. Cette phase
est également l’occasion de s’arrêter sur les échelles de mesure à
travers des analyses factorielles exploratoires (AFE) et/ou
confirmatoires (AFC). Les analyses exploratoires sont une réplication
des analyses effectuées à l’occasion de pré-tests d’échelles, mais avec
les données de l’enquête finale. Les analyses confirmatoires
permettent de valider l’utilisation des échelles de mesure ayant passé
le cap de l’exploratoire en en certifiant les qualités psychométriques.
3. Dans un troisième temps, le modèle est spécifié.
4. Dans un quatrième temps, le modèle est identifié.
5. Dans un cinquième temps, le modèle est testé. Si le test n’est pas
probant, il faut spécifier un nouveau modèle, l’identifier et le tester
(Etapes 4 et 5).
Ces cinq séquences peuvent être résumées dans la figure suivante :
Figure 1 - Les étapes de test d’un modèle de causalité
Etapes
Vérification de la base de
données
Vérifications statistiques
préalables
Spécification du modèle
84
Procédures
Eliminer les variables
manquantes
Taille de l’échantillon / AFE
Normalité des variables / AFC
Normalité / AFC
Normalité des variables / AFC
Utilisation du modèle issu du
cadre conceptuel
Identification du modèle
Fixation des contraintes égales à
1 et à 0
Test du modèle
Examen des indices d’ajustement
du modèle
1. La vérification de la base de données
Pour faire l’objet d’une analyse, la base de données ne doit pas comporter
de valeurs manquantes. Elle doit donc en être épurée.
2. Les vérifications statistiques préalables à la réalisation du test
du modèle
Il s’agit d’une part de vérifier la taille de l’échantillon et d’apprécier la
normalité des variables et d’autre part d'accomplir des analyses factorielles
exploratoires puis confirmatoires sur les échelles de mesure.
 La vérification de la taille de l’échantillon
La littérature n’apporte pas de recommandations claires sur le nombre
d’observations nécessaire pour estimer les paramètres d’un modèle
d’équations structurelles. Certains chercheurs préconisent cependant un
ratio minimum de l’ordre de cinq observations par paramètre à estimer
dans le cadre d’une distribution normale (Bentler et Chou, 1987). D’autres
proposent un degré d’exigence plus élevé avec un ratio de 6 pour 1
(Baumgartner et Homburg, 1996). Pour assurer une certaine stabilité des
paramètres, Evrard et al. (2000) préconisent de travailler dans tous les cas
avec des échantillons assez importants comprenant autour de 200 à 300
individus.
Quant au nombre de paramètres à retenir, il sera connu à la suite de
l’identification du modèle (Etape 4 du test du modèle).
 Les Analyses Factorielles Exploratoires (AFE)
Toutes les échelles servant à mesurer les variables faisant partie du
modèle à tester, et mesurées par plus d’un item, doivent être étudiées à
travers des AFE. Ces analyses ont pour objectif de vérifier la validité et la
fiabilité des instruments de mesure et de confirmer les analyses
exploratoires des pré-tests.
 La normalité des variables
L’examen de la normalité des variables peut se faire à travers deux
indicateurs : le coefficient de symétrie (Skewness) et le coefficient de
concentration (Kurtosis). Les seuils retenus sont de 2 pour le coefficient de
symétrie et de 7 pour le coefficient de concentration.
Lorsque les observations ne sont pas substantiellement non normales, les
méthodes de maximum de vraisemblance ou des moindres carrés
généralisés peuvent être employées (West et al., 1995, p. 74).
 Les Analyses Factorielles Confirmatoires (AFC)
Avant de procéder à l’étude des relations entre variables, il est nécessaire
d’explorer la liaison entre les variables observées - ou empiriques - et les
variables non observables ou latentes (Evrard et al., 2000).
En effet, lorsque plusieurs indicateurs d’un construit sont disponibles, il est
relativement simple d’évaluer la fiabilité et la validité de la mesure avant de
les utiliser dans le modèle de causalité. La procédure usuelle est de
spécifier un modèle d’AFC et de vérifier dans quelle mesure les indicateurs
85
permettent de rendre compte du construit en question (Steenkamp et
Baumgartner, 2000).
Chaque variable est considérée comme une variable latente et chaque
item comme une possibilité de mesure.
Les AFC sont conduites en respectant les mêmes principes que pour le
test d’un modèle de causalité (reflétant les liens entre variables) et donc,
en suivant la procédure exposée plus haut (cf. Figure 1).
Chaque variable est considérée comme une variable latente et chaque
item comme une possibilité de mesure de cette variable.
Seules les échelles comportant plus de trois items peuvent subir une AFC.
En effet, AMOS, le logiciel généralement utilisé pour conduire les analyses,
ne permet pas de confirmer la structure d’échelles en 2 ou 3 items : le
degré de liberté est alors égal à zéro et certains indices ne peuvent donc
pas être calculés.
3. La spécification du modèle
La spécification du modèle est destinée à déterminer les différents
concepts (ou variables latentes) influençant le modèle et les différentes
variables d’opérationnalisation permettant de mesurer ces variables
latentes. La spécification du modèle est basée sur la revue de littérature et
découle du cadre conceptuel défini dans la partie théorique de la
recherche. « La spécification exige que l’on s’appuie sur un corps
d’hypothèses issues d’études exploratoires. Il s’agit de confirmer, ou
d’infirmer, des intuitions étayées par l’exploration, non de s’y substituer »
(Evrard et al., 2000). Il s’agit donc d’une spécification a priori du modèle.
L’estimation des liens de causalité entre les concepts nécessite que soient
établies les équations permettant de relier les variables dépendantes aux
variables indépendantes. Le principe de l’analyse structurelle des matrices
de covariance est donné par la formule suivante :
Σ = ΛΦΛ’ + Ψ
Avec :
Σ : la matrice de covariance théorique estimée par le modèle
Λ : la matrice des reflets et sa transposée Λ’
Φ : la matrice de covariance des variables latentes exogènes
Ψ : la matrice des erreurs résiduelles
Concernant la forme générale des équations de structure et de mesure, le
modèle général se compose :
- d’un modèle de structure matérialisé par un système d’équations
structurelles reliant les variables latentes exogènes et les variables
latentes endogènes,
- de deux modèles de mesure reliant les variables latentes aux variables
observées qui leur correspondent respectivement (Evrard et al., 2000) .
86
On peut présenter le modèle à travers trois équations :
1. une première équation matérialisant le lien entre variables exogènes et
variables endogènes :
η = B η + Гξ + ζ
2. une deuxième équation traduisant le lien entre les variables exogènes
et leurs indicateurs :
X = Λx ξ + ε
3. une troisième équation reflétant le lien entre les variables endogènes et
leurs indicateurs :
Y = Λy η + δ
η est la matrice des variables latentes endogènes (ou variables
dépendantes) ;
ξ est la matrice des variables latentes exogènes (ou variables
indépendantes) ;
Г est la matrice des relations entre les variables exogènes et
endogènes ;
B est la matrice des relations entre les variables endogènes ;
ζ , ε et δ sont les résidus respectifs des variables latentes endogènes
(η) et des variables observées exogènes (X) et endogènes (Y). Λx et
Λy sont les coefficients qui décrivent l’effet des variables latentes sur
les variables observées.
Concernant la construction du modèle, il convient également de
s’interroger sur le sens des relations causales entre les variables latentes
et les variables observées (i.e. les variables de mesure). Ce choix doit se
faire à partir de considérations théoriques et conceptuelles.
Afin d’estimer les relations entre les variables, deux approches sont à la
disposition du chercheur :
- l’analyse des moindres carrés partiels (PLS) : « L’approche PLS est
une démarche itérative non linéaire suivant les moindres carrés partiels
qui minimise les variances résiduelles sous une contrainte du point fixe
[…] PLS est défini pour tenir compte des variances aussi bien au
niveau des variables observées qu’au niveau des variables latentes »
(Valette-Florence, 1988).
- l’analyse des structures de covariance (appelée également LISREL, du
nom du modèle LInear Strucutural RELationships, actuellement l’un
des plus utilisés en marketing) : Cette approche est originellement
définie pour la validation théorique et s’applique, de ce fait, grâce à une
théorie a priori bien spécifiée. Elle a principalement une orientation
causale (Valette-Florence, 1988). L’objectif est de trouver les
paramètres qui offrent le meilleur ajustement entre la matrice
« théorique » des covariances et la matrice réelle des données
empiriques.
87
L’analyse des structures de covariance est une des méthodes les plus
souples parmi celles de la deuxième génération. C’est de loin la plus
répandue de ces méthodes (Valette-Florence, 1988).
C’est cette deuxième approche (LISREL), plus souvent utilisée en
41
marketing, qui va être présentée. Le logiciel utilisé est AMOS 4.0 .
4. L’identification du modèle
Il s’agit de préciser les paramètres à calculer et de comparer leur nombre
aux données disponibles (Evrard, 1985). Il est nécessaire d’imposer
d’emblée des contraintes à certains paramètres. Il existe des conventions
d’usage permettant d’attribuer des valeurs spécifiques à certains
paramètres : fixer à 1, au moins, l’un des indicateurs mesurant chacune
des variables latentes, et à 0 les variances des indicateurs qui représentent
l’unique mesure d’une variable latente (Le Bon, 1998).
5. L’estimation du modèle
Estimer les modèles d’équations structurelles revient à évaluer la qualité de
l’ajustement entre les données empiriques et le modèle testé. L’évaluation
se fait sur la base d’un certain nombre d’indicateurs qui sont calculés par le
logiciel utilisé. Deux questions peuvent être posées à ce niveau :
1. Quels indicateurs retenir ?
2. Quels seuils choisir pour ces indicateurs ?
Afin de répondre à ces deux questions, nous allons présenter dans un
premier temps les différents indicateurs existants, dans un deuxième temps
les seuils à retenir pour ces indicateurs et dans un troisième temps les
indicateurs et les seuils généralement admis pour les études marketing.
Les indicateurs généralement utilisés dans le test des modèles
d’équations structurelles
Evrard et al. (2000) présentent une série d’indicateurs se situant à trois
niveaux de généralité décroissante : au niveau global, au niveau des
parties du modèle et au niveau de chaque paramètre.

- Au niveau global (c’est-à-dire pour l’ensemble du modèle)
Un critère global est proposé. Il s’agit de l’ « overall goodness of fit » qui
mesure l’écart entre les matrices S et Σ. Etant très sensible à la taille de
l’échantillon, ce critère gagne à être utilisé sur la base d’une approche
comparative plutôt qu’absolue.
Ce critère global peut être complété par d’autres critères formulés en
termes de variance expliquée. Il s’agit du GFI (« Goodness of Fit Index »)
et de l’AGFI (« Adjusted Goodness of Fit Index ») qui présente la même
évaluation que le GFI, mais au regard du degré de liberté. Un autre critère,
41
Le logiciel utilisé étant AMOS et non pas LISREL, l’utilisation de ce dernier terme comme
intitulé de la démarche constitue un abus de langage généralement admis.
88
étudiant cette fois-ci les résidus (c’est-à-dire les écarts entre résultats
calculés et données, qui reflètent l’influence des facteurs non pris en
compte dans le modèle) peut également être utilisé. Il s’agit du RMR
(« Root Mean Square Residual »). Ce dernier donne une indication de la
valeur moyenne des résidus du modèle évalués par la différence des
covariances estimées et des covariances observées sur les données
empiriques.
- Au niveau des parties du modèle
Pour chacune des trois parties principales du modèle (les deux modèles de
mesure et le modèle de structure), le coefficient de détermination peut être
calculé : il s’agit du coefficient de corrélation multiple au carré. Il
s’interprète comme le pourcentage de variance de la variable à expliquer
restitué par le modèle. Cet indicateur varie entre 0 et 1 et l’ajustement est
d’autant meilleur que le coefficient est proche de 1.
- Au niveau de chaque paramètre
Chaque paramètre peut faire l’objet d’un test partiel de signification. Deux
indicateurs peuvent être retenus : le coefficient Gamma et le test du CR.
• Coefficient Gamma : il permet d’apprécier l’importance de la
relation entre la variable explicative et la variable à expliquer. La
version standardisée de ce coefficient est préférable à la version
brute.
• Test du CR : il permet d’évaluer la significativité statistique globale
de la relation entre la variable explicative et la variable à expliquer.
Il teste la significativité du coefficient γ dans les modèles de
causalité. Le CR teste l’hypothèse H0 selon laquelle le poids de la
régression est nul.
Le niveau d’exigence le plus élevé consisterait à n’accepter le modèle
comme valide que si tous les paramètres sont significatifs et du signe
attendu. La question est de savoir maintenant les seuils à retenir pour
considérer que les indicateurs sont bons.
Les seuils généralement retenus dans le test des modèles
d’équations structurelles
Si les seuils à prendre en compte pour les indicateurs utilisés au niveau
des parties du modèle ainsi que des paramètres sont connus et
généralement admis, ceux utilisés pour apprécier la validité du modèle au
niveau global le sont beaucoup moins.
Le problème avec ces indices d’ajustement est qu’aucun d’entre eux ne
correspond à une distribution statistique : il n’existe par exemple aucune
mesure du risque d’erreur. La procédure est totalement empirique et n’est
pas codifiée. Il n’y a pas de validité affirmable en matière d’ajustement. Ces
indicateurs sont des heuristiques pures.

89
En général, plusieurs modèles peuvent être adaptés aux données. Des
simulations de différents modèles peuvent être faites pour voir lequel de
ces modèles peut être retenu.
Les indices ne représentent pas une vérité absolue permettant de statuer
définitivement sur la qualité d’un modèle théorique. Ils ont notamment été
développés pour que les avantages des une pallient les faiblesses des
autres (Baumgartner et Hombourg, 1996). Il n’existe pas de réel consensus
entre les auteurs sur ce qui constitue un bon ajustement (Tanaka, 1993).
Ces indices constituent cependant une bonne grille de lecture et
permettent au chercheur de réfléchir à la portée de ses constructions
théoriques.
 Les indicateurs et les seuils les plus fréquemment utilisés
Au niveau de l’ajustement global du modèle, trois indices sont
généralement choisis :
deux indices d’ajustement absolu : l’AGFI et le RMSEA
♦
♦
-
L’AGFI (Adjusted Goodness of Fit Index), formulé en termes
de variance expliquée, présente la même évaluation que le
GFI (Goodness of Fit Index) mais au regard du degré de
liberté.
Le
RMSEA
(Root
Mean
Squared
Error
of
Approximation) estime la manière dont le modèle approxime
la matrice de covariance de la population par degré de
liberté.
un indice d’ajustement incrémental : le TLI (ou NNFI)
Le TLI (Tucker Lewis Index) permet d’évaluer qu’un modèle
factoriel exploratoire estimé par une méthode de maximum de
vraisemblance représente une amélioration par rapport à un
modèle nul qui ne suppose aucune relation entre les variables. Cet
indice présente l’avantage d’être peu sensible à la taille de
l’échantillon.
Ces trois indicateurs sont souvent estimés sur la base des mêmes seuils
(Le Bon, 1998 ; Gonzalez, 2001 ; Loussaïef, 2002). Ces seuils sont
présentés dans le tableau suivant :
90
Tableau 1 - Seuils généralement choisis pour les indicateurs
d’ajustement global du modèle
Indicateurs
AGFI
TLI
RMSEA
Seuils choisis
0.8
0.9
42
0.08
En plus de ces trois indicateurs, un autre critère, celui du rapport entre le
Chi-deux et le nombre de degrés de liberté, est souvent intégré dans le
raisonnement au niveau global. Le Chi-deux permet de tester l’hypothèse
non nulle selon laquelle la matrice de variance estimée est statistiquement
différente de la matrice de covariance. Le rapport « Chi-deux/dl » doit être
supérieur à 2 (pour les échantillons de plus de 200 individus).
En ce qui concerne l’ajustement sur les deux autres niveaux, les
indicateurs fréquemment sélectionnés dans les travaux de recherche (Le
Bon, 1998 ; Gonzalez, 2001 ; Loussaïef, 2002) sont les suivants :
-
le Gamma standardisé
le test du CR
le coefficient de détermination
Ces indicateurs sont examinés dans l’ordre suivant :
D’abord, on examine le CR. C’est lui qui permet de savoir si la relation est
significative. Ensuite, on regarde le gamma standardisé pour connaître
l’importance de l’impact dans la relation en question. Enfin, on regarde le
coefficient de détermination pour savoir si l’item peut être gardé.
Quant aux seuils à prendre en compte, ils sont présentés dans le tableau
suivant :
Tableau 2 - Seuils habituellement choisis pour les indicateurs au
niveau des parties du modèle et de chaque paramètre
Indicateurs
Test du CR
Seuils choisis
Pas de seuil. Seule indication : le Gamma doit
être assez élevé pour expliquer,
du moins en partie, l’impact d’une variable sur une
autre.
> 1.96
Coefficient de détermination
> 0.5
Gamma standardisé
42
Signalons que pour le RMSEA, un seuil moins strict de 0.1 peut également être retenu.
91
Signalons qu’en ce qui concerne le test du CR, bien que le seuil retenu soit
celui généralement admis dans les recherches, il est possible de garder un
modèle même si ce seuil n’est pas respecté pour certaines variables. En
effet, ce test se base sur l’hypothèse selon laquelle les variables suivent
une distribution gaussienne. Or, comme c’est souvent le cas en marketing,
toutes les variables du modèle sont évaluées sur des échelles de Likert, ce
qui ne fait pas d’elles des variables complètement gaussiennes. Le test du
CR n’est donc qu’approximatif. Par conséquent, moyennant une certaine
incertitude, on peut considérer qu’un modèle est bon même si ce test n’est
pas significatif. Il faudrait cependant dans ce cas que les indices généraux
soient parfaitement satisfaisants.
Une fois les indicateurs et les seuils choisis, l’analyse peut être menée.
Qu’elle porte sur des AFC ou sur le test des modèles de causalité, la
démarche sera la même. Le modèle est spécifié, a priori, sur la base de la
réflexion théorique qui a déjà eu lieu. Il va ensuite être confronté aux
analyses sous AMOS. Ce logiciel calculera un ensemble d’indicateurs
parmi lesquels figurent ceux sur lesquels le choix a porté. Ces indicateurs
vont être regroupés en deux tableaux, selon qu’ils renseignent sur
l’ajustement au niveau global ou au niveau des paramètres. L’examen des
deux tableaux va se faire en deux temps :
Dans un premier temps, nous étudions les indicateurs d’ajustement au
niveau global pour vérifier que le modèle théorique s’ajuste bien aux
données empiriques. Deux cas de figure peuvent se présenter :
-
Les résultats sont satisfaisants. Dans ce cas, nous pouvons
regarder le deuxième tableau pour vérifier si les autres
indicateurs peuvent donner satisfaction.
Les résultats ne sont pas satisfaisants. Dans ce cas aussi, il
faudra regarder le second tableau mais dans le but, cette
fois-ci, de voir comment améliorer le modèle spécifié au
départ.
Dans un second temps, nous étudions le tableau reprenant les indices
d’ajustement pour les paramètres. Cette étape permet d’une part de voir si
les indicateurs respectent les seuils choisis et d’autre part d’apprécier
l’importance de la relation entre les variables explicatives et les variables à
expliquer. Ici aussi, deux possibilités peuvent se présenter :
- les résultats sont probants. Ceci permettra de décider de
garder l’échelle telle quelle dans le cas d’une AFC ou
d’appréhender l’importance des variables explicatives dans le
cas du test d’une relation de causalité.
92
-
les résultats ne sont pas probants. Dans ce cas, il faudra
proposer un modèle respécifié en éliminant les variables les
moins explicatives (Gamma standardisé très faible) et/ou
celles qui ne respectent pas les seuils pour le CR
43
2
(CR<1.96) ou le coefficient de détermination (R <0.5). La
proposition d’un modèle respécifié ne doit pas se faire sans
questionnements préalables. Hoyle et Panter (1995),
recommandent de « ne pas effectuer des modifications
théoriques post hoc suite à des tests de causalité si des
raisons claires et substantielles ne peuvent venir justifier ces
choix. Il s’agit d’éviter des modifications qui n’auraient pas de
sens au regard des phénomènes analysés ». Une
respécification de modèle a déjà été opérée dans le cadre
d’un exemple donné par Evrard et al. (2000).
Après l’élimination d’items ou de variables, il est utile de comparer le
nouveau modèle avec le modèle spécifié a priori afin de voir lequel des
deux est plus pertinent. Ceci revient à faire plusieurs simulations et à opter
pour le modèle qui s’ajuste le mieux aux données empiriques tout en ayant
un sens sur le plan théorique.
Une fois la respécification établie, toute la procédure indiquée ci-dessus
sera de nouveau appliquée.
Le test de l’effet de modération dans le cadre de l’utilisation des
modèles de causalité
Une variable modératrice est une variable de nature qualitative ou
quantitative qui affecte la force ou la direction de la relation entre la
variable dépendante et la variable indépendante (Baron et Kenny, 1986).
Ces deux chercheurs indiquent que « la modération implique que la
relation entre deux variables change en fonction de la variable modératrice.
L’analyse statistique doit mesurer et tester l’effet différentiel de la variable
indépendante en fonction de la variable modératrice ». On peut résumer
l’impact d’une variable modératrice de la façon suivante :
43
Avec une certaine souplesse pour le seuil de 1.96 pour les raisons que nous indiquions plus
haut en commentaire du tableau 2.
93
Figure 2 - Présentation d’un modèle avec variable modératrice (Baron
et Kenny, 1986)
X
a
Z
b
Y
c
X*Z
X est la variable indépendante, Y la variable dépendante et Z la variable modératrice.
Dans le but de prouver le rôle modérateur d’une variable, il est nécessaire
de montrer que l’interaction entre X et Z est significative. En fonction de la
nature des variables indépendante et modératrice, les méthodes
statistiques utilisées ne sont pas les mêmes.
Sauer et Dick (1993) proposent une méthode pour tester le rôle des
variables modératrices dans un modèle d’équations structurelles. Là
encore, on distingue deux cas selon la nature dichotomique ou continue de
la variable modératrice.
Variable
modératrice
dichotomique
On réalise une analyse multi-groupe, avec un groupe pour
chaque modalité de la variable modératrice. Plus
précisément, deux modèles d’équations structurelles sont
construits : un modèle où les paramètres des deux groupes
varient librement (modèle réel) et un modèle où les
paramètres des deux groupes sont contraints à être égaux
(modèle témoin). Dans le modèle témoin, il n’existe pas de
différence entre les groupes : la variable modératrice
n’influence pas les liens entre la variable indépendante et la
variable dépendante. On compare les modèles grâce à une
2
2
statistique dχ qui est la différence entre le χ des deux
modèles. Si cette statistique est significative, le rôle
modérateur est prouvé.
Variable
modératrice
continue
Une variable d’interaction X*Z est créée en multipliant la
variable modératrice Z par la variable dépendante X. On
teste deux modèles : un modèle où on inclut la variable
d’interaction et un modèle où on ne l’inclut pas. On compare
2
les deux modèles grâce à une statistique dχ qui est la
94
2
différence entre le χ des deux modèles. Si cette statistique
est significative, le rôle modérateur est prouvé. Les
variables en interaction doivent être normalement
distribuées.
Détail du test d’un effet de modération pour une variable modératrice
dichotomique
La démarche proposée par Sauer et Dick (1993) et appliquée par Homburg
et Giering (2001) s’opère en trois étapes :
 La première étape consiste à spécifier le modèle que l’on souhaite
tester et à déterminer un groupe pour chaque modalité du modérateur.
 La seconde étape consiste à spécifier deux modèles. Dans le premier
modèle, les paramètres des variables varient librement. C’est le
modèle réel. Le deuxième modèle est un modèle où l’on pose une
contrainte sur les paramètres : ils doivent être égaux dans les deux
groupes. C’est le modèle témoin.
 La troisième étape consiste à tester ces deux modèles et à calculer la
2
2
2
statistique dχ . La statistique dχ est la différence entre le χ du modèle
2
réel et le χ du modèle témoin. Les degrés de liberté de cette statistique
sont la différence entre les degrés de liberté du modèle réel et les
2
degrés de liberté du modèle test. Cette statistique suit une loi du χ . On
teste l’hypothèse H0 selon laquelle la variable modératrice n’a pas un
effet significatif sur la relation entre la variable indépendante et la
variable dépendante. Dans ce cas, le modèle réel, où les paramètres
varient librement, n’est pas meilleur que le modèle témoin où les
paramètres de chaque groupe sont égaux. On ne peut pas dire que les
paramètres des sous-groupes sont différents, et par conséquent, que
la variable modératrice a un impact sur le lien entre la variable
dépendante et la variable indépendante.
On peut tester la significativité de la différence concernant un même
paramètre dans les groupes en fixant uniquement ce paramètre dans
le modèle témoin.
Bibliographie
-Baron R.M. et Kenny D.A. (1986), "The moderator-mediator variable
distinction in social psychological research: Conceptual, strategic and
statistical considerations", Journal of Personality and Social
Psychology, 51, 6, 1173-1182.
-Baumgartner H. et Homburg A. (1996), "Applications of structural
equations modelling in marketing consumer research: A review",
International Journal of Research in Marketing, 13, 139-161.
-Evrard Y. (1985), "Validité des mesures de causalité en marketing",
Revue Française du Marketing, n°101, 17-32.
95
-Evrard Y., Pras B. et Roux E. (2000), "MARKET - Etudes et
recherches en marketing", Dunod, Paris.
-Gonzalez C. (2001), "Satisfaction du consommateur suite à la visite
d’un catalogue électronique : Impact de la lisibilité et de la stimulation",
Thèse de Doctorat, Université Paris IX Dauphine.
-Homburg C. et Giering A. (2001), "Personal characteristics as
moderators of the relationship between customer satisfaction and
loyalty – An empirical analysis", Psychology and Marketing, Vol. 18, n°
1, 43-66.
-Hoyle R. et Panter A. (1995), "Writing about structural equation
models", in Structural Equation Modeling : Concepts, Issues and
Applications, Hoyle R. ed, Sage Publications, 158-176.
-Le Bon J. (1998), "Contribution des vendeurs à l’intelligence
économique : Un essai d’explication de l’intention d’effort envers la
veille marketing et commerciale", Thèse de Doctorat, Université Paris
IX Dauphine.
-Loussaïef L. (2002), "La sensibilité du consommateur à l’origine
nationale perçue des marques : Une variable modératrice de l’effet de
l’image d’un pays sur la qualité perçue d’un produit", Thèse de
Doctorat, Université Paris IX Dauphine.
-Sauer P.L. et Dick A. (1993), "Using moderator variables in structural
equation models", Advances in Consumer Research, Summer, 20, 636640.
-Steenkamp J. et Baumgartner H. (2000), "On the use of structural
equations models for marketing modeling", International Journal of
Research en Marketing, 17, 195-200.
-Tanaka J. (1993), "Multifaceted conceptions of fit in structural equation
model", In Testing structural equation models, Bollen K. et Scott Long
ed., Sage Publications, 10-39.
-Valette-Florence P. (1994), "Les styles de vie-Bilan critique et
perspectives", Editions Nathan, Paris, 320 p.
-West S., Fich J. et Curra, P. (1995), "Structural equation with nonnormal variables : Problems and remedies", in Structural Equation
Modeling : Concepts, Issues and Applications, Hoyle R. ed, Sage
Publications, 56-75.
96
MAUFFRE Christian-Eric
Professeur de Marketing à l’ISC Paris
Docteur en Pharmacie
BERGER Charles
Professeur de Marketing, Communication à l’ISC Paris
ESSEC MBA, Docteur en Médecine
Créateurs de maladies :
fantasme ou réalité marketing
Le disease mongering face aux enjeux de santé
Résumé
En 2006, l’annonce de la première conférence internationale sur le disease
mongering, ( littéralement le fait de voir la maladie partout pour y apporter
un remède) a bénéficié d’une couverture médiatique exceptionnelle : la
santé, ce bien précieux entre tous, était manipulée par des créateurs de
maladies, soucieux de vendre des médicaments. Pire, la médicalisation de
la vie quotidienne, relayée par les abondantes communications vers les
consommateurs devenait une source inépuisable de manipulations, dans
une logique de profit. L’article fait le point sur un phénomène considéré par
d’autres comme conjoncturel et parasitaire, relayant les critiques
habituelles sur l’industrie pharmaceutique. L’analyse élargie des
mécanismes sous tendant l’irruption dans le paysage médical de nouvelles
pathologies et de leur réponse, le rôle des scientifiques, des patients et des
97
institutions permet d’isoler les facteurs de dérives, mais également d’en
mesurer le poids et le risque réel, face aux enjeux de santé publique.
Mots clés : disease mongering, médicalisation, Direct To Consumer,
prévention, essais thérapeutiques, information médicale, groupe de
patients, industrie pharmaceutique.
Abstract
In 2006, the announcement of the first international conference on DiseaseMongering (literally, the practice of finding disease everywhere in order to
supply a cure), received exceptional coverage from the media: health, the
most precious of all gifts, was being manipulated by the illness-creators,
with a view to selling their drugs. Even worse is the "medicalization" of daily
life, borne on a flood of announcements to consumers, and becoming an
inexhaustible source of profit-oriented manipulation. The article provides a
progress report on a phenomenon that many consider to be a consequence
of the economic situation and that merely repeats the usual criticisms of the
pharmaceutical industry. A wider discussion of the mechanisms
underpinning the incursion into the medical landscape of new pathologies
and their responses, and the roles of scientists, patients, and institutions,
enable the factors controlling these excesses to be identified, while also
measuring their real significance and danger as regards public-health
issues.
Keywords
disease mongering, medicalization, Direct-To-Consumer, prevention,
therapeutic trials, medical information, patient group, pharmaceutical
industry.
Le disease mongering, un concept d’actualité
Du titre accrocheur de la revue Prescrire « Fabriquer des maladies pour
vendre des médicaments » aux nombreux relais sur les blogs et sites santé
Internet, l’irruption sur la scène médiatique en 2006 du disease mongering
s’est faite avec une grande résonnance.(1) Au-delà des difficultés de
traduction, ce terme exprime le fait de voir la maladie partout, de s’en faire
le revendeur - le mot monger signifiant vendeur.(2) Plus précisément pour
l’industrie pharmaceutique, souvent citée lors des débats autour de ce
concept, il s’agit du développement ou de la promotion d’une maladie pour
vendre son traitement ou une molécule participant à ce traitement.(3)
Le terme est proche de la notion de marchéage, création du besoin avant
de proposer le produit apte à le satisfaire. La mercatique utilise d’ailleurs la
mise en place d’une politique de marchéage propre à accroître la demande
98
adressée à l’entreprise : c’est ce que l’on appelle le plan de marchéage,
appelé aussi marketing mix.
Le terme disease mongering a été forgé en 1992 par Lynn Payer(4) pour
désigner le marketing de nouvelles maladies par différents groupes
d’influence médicaux ou pharmaceutiques, soucieux de développer ou
créer une niche commerciale, en prenant exemple sur certaines phobies
sociales.(5) L’exemple le plus fréquemment utilisé est celui du trouble
bipolaire, dont la prévalence était estimée, il y a encore quelques années
aux Etats Unis à 0.1%. En épidémiologie, la prévalence d’une population
est calculée en rapportant à la population totale le nombre de cas de
maladies présents à un moment donné dans une population, que le
diagnostic ait été porté anciennement ou récemment.(6) Les chiffres les
plus récents parlent de 2.6 à 6.5%, avec une augmentation forte des
données concernant les enfants, mais uniquement aux Etats Unis. De
nombreux articles insistent de plus sur l’existence de livres pour enfants
popularisant le concept « Brandon and the bipolar bear » (7)
Le domaine du système nerveux central et ses troubles, régulièrement le
théâtre d’affrontements entre partisans de mouvements anti psychiatriques
ou scientologues et médecins a vu une large utilisation du terme disease
mongering pour discréditer l’approche neurobiologique et les traitements
mis en œuvre.
Si le terme de disease mongering date des années 1990, on ne peut
s’empêcher de faire le lien avec les propos tenus dans les années 1970
par Ivan Illich dans Nemesis Médicale (8) : « dans les pays développés,
l’obsession de la santé parfaite est devenue un facteur pathogène
prédominant. Le système médical, dans un monde imprégné de l’idéal
instrumental de la science, crée sans cesse de nouveaux besoins de
soins ». Illich pointait du doigt le système médical « qui prétend avoir
autorité sur les gens qui ne sont pas encore malades ».
Dans l’univers francophone, une autre référence souvent mentionnée est
Jules Romain avec la création du personnage de Knock dans la pièce
parue en 1923 « Knock ou le triomphe de la médecine », en particulier
pour la sentence « les gens bien-portants sont des malades qui
s’ignorent ».(9) Cependant, nous verrons plus loin que le message véhiculé
par la pièce est plus fort, « une ère médicale se crée », avec sa morale et
ses apôtres. Plus récemment, le disease mongering a connu un éclairage
plus important, la parution du livre de Jôrg Blech, en France en
2005 : « Les inventeurs de maladies, manœuvres et manipulations de
l’industrie pharmaceutique » dont le titre n’a pas manqué de susciter
curiosité médiatique et réactions vives sur les forums de discussion, en est
le meilleur exemple. (10)
En outre, la création et la tenue à Newcastle en Australie en avril 2006 d’un
colloque international sur le thème du disease mongering complétait la
démonstration médiatique : anglo-saxon et international achevant la
caution du concept.
99
Un environnement propice : Vieillissement, médicalisation et pauvreté
des pipe lines
La médicalisation de la vie quotidienne, principalement dans les pays
développés est un phénomène qui n’est pas récent, il a accompagné
l’élévation du niveau de vie et le vieillissement de la population. En outre
l’objectif dont parlait le Knock de Jules Romain de prévenir la maladie, s’est
trouvé secondé par la loi. En effet, depuis la fin de la seconde guerre
mondiale, le système de Sécurité Sociale en France étend à l’ensemble
des soins la gratuité, en adoptant un mode financement par répartition :
tous financent les maux de chacun. Médecine scolaire, médecine du
travail, vaccinations, une médecine préventive a bien vu le jour, relayée par
de nombreuses campagnes de communication, sur les fléaux à combattre,
les maladies à vaincre.
La contribution collective de la nation au financement de la santé
individuelle a créé une notion de morale – celle du « devoir du soigné ».
Chacun est en effet responsable devant tous de l’entretien de sa propre
santé et de celle de ses proches. Le parcours de soin devient obligatoire, le
médecin traitant remplace le référent. Dans un environnement à technicité
accrue, l’irruption de spécialités depuis les années 60 ophtalmologie,
orthodontie, imagerie médicale… balise ce nouveau parcours. Le patient,
même s’il devient de fait de plus en plus consommateur, n’est plus le
malade - sur lequel s’acharne le sort - mais un acteur d’un système de
santé, qui doit justifier de ses efforts pour prévenir ou éviter la maladie.
Cette culpabilité moderne se trouve d’ailleurs encadrée par la loi dans les
comportements concernant l’alcool ou le tabac.
Depuis quelques années, l’irruption de la notion de « principe de
précaution » dans le secteur de la santé publique exacerbe le débat. Erigé
en principe républicain, il renverse l’échelle des perceptions ; on interroge
maintenant l’activité de l’homme sur l’absence totale de risque en matière
de santé et non plus sur l’impact d’une mesure préventive sur l’activité. Le
citoyen est troublé, perdu même car normes, décisions ou procédures sont
souvent supportées par le « scientifiquement établi ».
Ainsi l’environnement est propice à l’émergence de concepts de santé
publique : la santé étant par nature le plus grand des biens désirables, les
progrès scientifiques et médicaux du XIXe et XXe siècle doivent
progressivement vaincre les causes de mortalité. Au-delà, on rejoint
l’analyse d’ Illich « chacun exige que le progrès mette fin aux souffrances
du corps, maintienne le plus longtemps possible la fraîcheur de la jeunesse
et prolonge la vie à l’infini ».(11)
La médicalisation des actes et des pratiques s’est traduite en parallèle par
une demande importante de traitement, ce que Faure appelle la
100
« demande sociale » de médicaments, remontant au XIXe siècle et qui
impose au médecin de prescrire. Ce phénomène, constaté par les
observateurs des systèmes de santé publique, repose sur la nécessaire
justification de l’acte diagnostic par une matérialisation de l’échange, la
prescription. Le phénomène connaît ensuite une tendance entropique au
fur et à mesure que les découvertes de thérapeutiques accompagnent un
approfondissement des éléments de diagnostic. L’exemple récent de la
communication de l’assurance maladie en France sur la consommation des
antibiotiques, symbolisé par le slogan « Les antibiotiques, c’est pas
automatique » traduit la demande du corps médical d’être accompagné par
une démarche des autorités de tutelle pour réduire la pression à la
prescription lors des pathologies hivernales.
L’accélération des échanges, le réseau mondial que constitue Internet ont
permis de créer une vaste circulation d’informations en particulier dans le
domaine de la santé. Chaque mois, un internaute français sur cinq consulte
au moins un site consacré à la santé, la forme ou la nutrition, le plus
souvent des femmes et des sujets ayant un niveau d'études et/ou de
revenus élevés. Même si la fréquence des recherches diminue avec l'âge,
la vie en milieu urbain tout comme l'ancienneté de l'utilisation d'Internet ou
de l'accès à domicile ou encore un état de santé dégradé, sont aussi des
facteurs qui tendent à augmenter les recherches sur la toile et donc
favorisent une forme d’interventionnisme auprès des prescripteurs.
La recherche médicale et pharmaceutique semble à l’heure actuelle à la
recherche d’un grand triomphe. Les traitements curatifs des grandes
pathologies comme le cancer et le SIDA tardent à apparaître, la part
grandissante des génériques ( 50% aux Etats Unis) indiquent que l’on
continue de prescrire des médicaments ayant plus de vingt ans
d’ancienneté.Une analyse faite dans le New England Journal of Medecine,
concernant les mises sur le marché par la FDA (Autorité de tutelle aux
Etats Unis) entre 1998 et 2002 mettait en évidence que 30 % des
nouveaux médicaments étaient de nouvelles molécules et que 14 %
apportaient un progrès thérapeutique jugé intéressant. Or le coût de mise
au point d’un nouveau médicament double tous les cinq ans atteignant
aujourd’hui un milliard de dollars US, il semble que l’industrie
pharmaceutique entre dans une phase de rendements décroissants, selon
les analystes financiers. La multiplicité des fusions ou des concentrations
du secteur est liée à la faiblesse des pipe-lines, réservoir des innovations
du futur. Selon certains experts, le dynamisme économique de l’industrie
pharmaceutique serait plus lié à une meilleure politique des brevets et au
choix d’investir sur des pathologies particulières que le qu’au résultat d’une
pure innovation. En effet, concernant les maladies infectieuses, le progrès
thérapeutique passe par la création de molécules susceptibles d’éviter les
résistances acquises par les agents infectieux. En outre, la mondialisation
des échanges s’est accompagnée d’une protection brevetaire accrue,
101
facteur permettant à l’industrie d’obtenir une meilleure protection des
résultats de ses recherches. Les grands espoirs de la génomique et des
biotechnologies tardent à trouver leurs applications, les programmes de
prévention des risques individualisés sont toujours dans les cartons.
L’industrie focalise ses actions court terme sur l’amélioration du service
rendu, l’innovation galénique et la prise en charge des facteurs de
risque.(12)
Enfin au niveau de la gestion de la dépense politique, on assiste en France
comme dans les autres systèmes de santé des pays développés à une
tendance à la réduction régulière du pourcentage des dépenses prises en
charge par l’assurance maladie pour « responsabiliser » les patients. En
effet, partout l’augmentation des dépenses de santé liée au vieillissement,
à la médicalisation et à la technicité accrue, à l’introduction de nouvelles
thérapeutiques coûteuses crée une pression permanente sur les équilibres
des systèmes de santé. Cependant, les mesures encourageant un patient
à différer une consultation peut présenter le risque d’un traitement en
deuxième intention à coût démultiplié. Ceci incite bien évidemment les
patients à vérifier que leur système d’assurance complémentaire couvre
bien le facteur risque. Or ces assurances complémentaires obligatoires
dans un nombre de plus en plus grand de pays fonctionnent sous le
principe de l’assurance : la cotisation devient fonction des risques contre
lesquels on veut ou on peut se garantir.
Le patient d’aujourd’hui et de demain devient donc extrêmement sensible à
la gestion préventive de sa santé, la société le responsabilise, les médias
l’informent et le sensibilisent, son environnement médical et social le
pousse à être proactif et la prise en charge de sa santé future se trouve lié
à ses choix immédiats. L’OMS ( Organisation mondiale de la Santé ) qui
dans sa convention définit la santé comme un état de complet bien être
physique mental et social, donne le nouveau champ d’intervention : l’ère du
préventif est ouvert…
Des intérêts nombreux : problématique des acteurs de l’univers de la santé
Le disease mongering pour certains auteurs comme Mikkel Borch –
Jacobsen ne serait pas propre à l’industrie pharmaceutique, en effet depuis
longtemps dans le champ psychiatrique, des champs ont émergés :
psycho-névroses pour Freud au vingtième siécle, neurasthénie pour Beard
au dix-neuvième siècle, troubles anxieux, stress et phobie sociale pour les
thérapeutes cognitivo-comportementalistes.(13) Certaines chapelles
médicales peuvent donc être tentées de fractionner l’univers psychiatrique
pour y développer des approches propres.
C’est à la suite d’une active campagne de lobbying politique des
associations de vétérans de la guerre du Vietnam qu’est apparu le
102
syndrome de stress post-traumatique dans la classification psychiatrique,
en le séparant de la dépression, du trouble panique et du trouble d’anxiété
généralisée.
Cet exemple montre bien le fait que des groupes de patients, loin d’être
uniquement des véhicules utilisés par les laboratoires, puissent trouver
dans la médiatisation une reconnaissance, qui permet à la fois que leur
maladie soit prise au sérieux et que le tiers payant prennent en charge les
frais souvent élevés de traitement.(14)
L’utilisation et le recours aux médias sont souvent cités comme l’outil le
plus performant pour les associations à la fois pour toucher les médecins et
les professionnels de santé et obtenir une écoute dans la société.
Une étude menée aux Etats Unis a montré que 49 % des 535 médecins de
famille interrogés avaient reçu une demande spécifique de leur patient à la
suite d’une campagne télévisé sur une pathologie ; La moitié de ces
demandes ont été jugées inadéquates avec le profil patient. 33% des
répondants ont considéré que la publicité a amélioré le rapport patientmédecin, confirmant le ressenti d’une forte pression des patients pour
obtenir des traitements non adaptés à leur pathologie ou détromper les
faux espoirs de thérapeutique miracle.
Les meilleurs résultats obtenus sont ceux concernant les conditions non
prises en charge : hypercholesterolémie, diabète et qui en fait rejoignent les
grandes campagnes de sensibilisation conduites en France ou en Europe.
Particularité américaine, l’intense promotion des statines (médicaments
destinés à traiter les taux élevés de cholestérol) est en train de bénéficier
aux noirs américains, qui présentent des taux de mortalité plus élevés de
40 % par rapport à la population blanche.
Le corps médical est souvent pointé du doigt pour son attitude passive face
à son environnement : industrie, patients, confrères. Il est vrai qu’une part
importante des dépenses de formation, de congrès ou de colloques
scientifiques repose sur le soutien de l’industrie. Pour des leaders travaillant
à l’hôpital, la nécessité de publier « Publish or perish », incite à
s’engouffrer dans toute nouvelle évaluation, de publier rapidement et de
relayer ensuite la publication afin d’obtenir une notoriété suffisante.
Cependant, ces mécanismes d’influences sont bien connus des médecins
et leur efficacité s’érode avec le temps. (15)
Le pouvoir des médias a pris de la force, comme l’a montré l’effet relais des
patients sur le médecin après une publicité télévisée. Les supports
scientifiques (revues et magazines médicaux) qui pourraient faire preuve selon
les médecins d’une plus forte dose de doute scientifique, sont largement lus
car ils sont un des meilleurs moyens d’information sur les nouveautés, dans un
univers en évolution permanente. De plus ils permettent aux médecins de
pouvoir faire face à la vague média grand public. En effet, la santé demeure un
103
sujet majeur
pour le consommateur. Le médecin, comme les autres
professionnels de santé doit connaître, savoir, conseiller et juger.
L’industrie pharmaceutique est souvent stigmatisée dans son rapport à la
santé, elle souffre d’un problème d’image, que les campagnes de
communication institutionnelle n’arrivent pas à gommer : elle fait des profits
dans le domaine sacré de la santé. Il est vrai que les rapports parfois flous
entretenus avec les médecins, les experts, voire les autorités d ‘évaluation des
médicaments aux Etats Unis accréditent l’idée véhiculée sur les blogs d’un Big
Pharma dominateur. La réalité est bien plus complexe et la réglementation qui
se met en place sur les essais, la communication et la promotion des
médicaments devrait fixer un cadre attendu par les différents acteurs.
Des exemples convaincants
Selon les spécialistes du disease mongering, les mécanismes de création sont
les suivants (3)
1/ Déterminer un champ favorable
- présenter des processus normaux de l’existence comme des problèmes de
nature médicale : chute de cheveux, tristesse
- présenter des problèmes personnels comme relevant d’un champ
pathologique : timidité devenant phobie sociale
- présenter des risques comme des maladies : abaisser les seuils sur
l’hypertension ou le cholestérol
- présenter des symptômes rares comme des maladies cachées de grande
ampleur : dysfonction érectile, déficit androgénique lié à l’âge, …
- présenter des symptômes légers comme indicateur de maladie grave : colon
irritable par exemple
2/ Mettre en place une méthodologie
- choisir le trouble, facilement reconnaissable par le grand public, touchant
différents aspects de la vie professionnelle ou affective, les symptômes
peuvent être discrets ou sévères
- communiquer sur le fait que les patients atteints méconnaissant leur
pathologie sont mal diagnostiqués ou mal soignés
- définir un cadre de recherche réel entourant la pathologie vraie, en utilisant
les découvertes scientifiques les plus récentes
- cautionner le phénomène en retrouvant dans l’antiquité ou chez des
personnages historiques la singularité de la pathologie
- faire démarrer la maladie de façon précoce, dans l’enfance ou pendant la
phase utérine
- associer le nec plus ultra de la science moderne, équipe anglo-saxonne,
modèle animal, imagerie médicale, articles et publications dans des revues
prestigieuses, marqueur biologique, échelle diagnostic… rendant l’analyse
précise difficile pour un non-spécialiste
104
- créer une association de patient, un site ou des blogs sur Internet, susciter
une conférence internationale sur le thème
3/ Mettre en place un médicament ou un traitement efficace.
Bien entendu, les différents acteurs de ce système ( industriels, association
de patients, médecins, fondation pour la santé, pouvoirs publics) peuvent
être à un moment ou un autre de bonne foi, en pensant réellement assurer
la promotion de la santé et assurer une approche préventive d’une maladie
perçue comme grave. Car la frontière est parfois floue entre pathologie
vraie et mise en place par un stratège d’une opération marketing.
Nous n’aborderons pas les tentatives possibles d’utiliser des problèmes
communs comme la ménopause, la diminution du désir sexuel chez la
femme (qui toucherait 43% des femmes selon certaines publications), les
jambes sans repos… ou la standardisation des comportements humains en
utilisant les classifications utilisées par les psychiatres, souvent cités dans
les articles sur le disease mongering car le problème est plus souvent celui
de l’interprétation et du relais médiatique que nous avons précisé plus haut.
Un exemple connu est celui du Zyprexa ( olanzapine), commercialisé pour
traiter les accès maniaques et bénéficiant du support d’une campagne
télévisée financée par Eli Lilly sur les troubles de l’humeur. A la même
période, le laboratoire effectuait des essais cliniques sur l’utilisation du
produit dans les troubles de l’humeur comme thymorégulateur. Ce terme ne
fait pas l’unanimité parmi les psychiatres, car il a décrit des produits utilisés
comme traitement des épisodes maniaques, puis étendu aux
antipsychotiques. Cependant, les essais cliniques semblent permettre
d’envisager cet usage sur le court terme. On assiste ensuite à un
glissement vers une prescription de longue durée où d’autres fabricants de
médicaments antipsychotiques ont entrepris les démarches pour faire
enregistrer la nouvelle utilisation à visée préventive. Les études qui sous
tendent la demande sont limitées aux formes les plus graves de la maladie,
un dixième des cas environ. L’analyse détaillée de l’étude ayant servi à
étayer la demande montre que l’essai n’a duré qu’un an et que les rechutes
à l’arrêt du traitement sont sans doute des symptômes de sevrage.
Il pourrait ne s’agir cependant que de simples et classiques problèmes de
méthodologie d’essais cliniques, la nécessité d’un essai complémentaire de
durée prolongée, avec de nouveaux critères de recrutements est
envisageable.
Le grand souci a été en fait l’augmentation énorme des diagnostics de
troubles bipolaires chez les enfants aux Etats Unis. (16) Des prescriptions
se font pour des enfants d’âge préscolaire, uniquement là-bas, car ces
troubles ne sont pas reconnus ailleurs, n’apparaissant que très rarement
avant l’adolescence. Le risque est grand souligne Healy car le diagnostic se
fait sur les dires des parents, sans pouvoir tenir compte du contexte de
longues journées de travail, du rejet des enfants « difficiles ». Est-ce que
les médicaments sont là pour faire face à un problème de comportement ?
105
Un phénomène conjoncturel, une conceptualisation marketing
L’irruption aux Etats Unis en 1997 des publicités pharmaceutiques visant le
consommateur ou DTC « Direct to Customer » a vu fleurir les publicités. Le
budget publicitaire du laboratoire Merck à l’époque du lancement du Vioxx (
anti inflammatoire) dépassait celui de Pepsi Cola avec 160 millions de $.
Limité aux Etats Unis et en Nouvelle Zélande, la possible extension du
phénomène au Canada et à l’Union européenne a fait se multiplier les
études d’impacts sur le sujet. Dans ces pays, le seul type de
communication possible est le soutien à des associations ou des
fondations. Ce nouveau type de relations est suivi en détail par le congrès
américain qui a remarqué une croissance de 20 % entre 2003 et 2004 pour
les 1.47 milliards de $ dépensés par les 33 sociétés pharmaceutiques pour
les soutiens aux professionnels « educational grants ».
Le formidable succès commercial du médicament Zyprexa ( Eli Lilly),
soutenu par un spot télévisé en 2002, encourageant les spectateurs à aller
sur un site Internet pour y répondre à un test sur les modifications et les
troubles de l’humeur, et à l’apporter à leur médecin pour en parler, a été
analysé en détail. Outre l’effort réel pour informer les personnes ne sachant
pas qu’elles souffrent d’une maladie psychiatrique grave, il existait un
risque de pousser les spectateurs à considérer toute fluctuation de l’humeur
comme symptôme d’une maladie grave, nécessitant un traitement
médicamenteux de longue durée. Or nous avons vu précédemment les
limites scientifiques de la généralisation systématique de ce type de
traitement.
Les réactions de l’opinion face à cette sensibilisation sont contrastées, en
effet une étude récente faite aux Etats Unis montre que 43 % des adultes
interrogés pensent que les dons de l’industrie pharmaceutique auprès des
associations de patients ou les fondations sont destinés à augmenter le
nombre d’utilisateurs de leurs médicaments, seul 21 % pensent qu’il s’agit
d’une implication réelle pour soutenir les projets supportés par les
associations. Les couvertures médiatiques sont moins favorables lors de la
présentation de projets de soutien à des associations et certains
journalistes scientifiques mentionnent le risque d’un effet de reflux massif
des soutiens aux fondations.
Conscientes de cet impact négatif, déjà des sociétés comme Bristol Myers
Squibb ou Pfizer s’imposent un moratoire afin que le médicament soit
mieux connu des médecins avant que la communication DTC débute.
(moratoire d’un an pour BMS, six mois pour Pfizer). Le congrès américain
travaille sur le projet d’un moratoire obligatoire de deux ans.
Ces éléments rejoignent les travaux de l’association des fabricants, qui ont
pris conscience du besoin de responsabilisation des fabricants et proposent
d’élargir l’aspect d’éducation et de formation des médecins et une rigueur
accrue dans les messages. Cette prise de conscience généralisée indique
106
bien un mouvement rapide, semblant laisser le disease mongering comme
un concept marketing d’une époque.
Phénomène à la mode, on trouve maintenant sur www.Newstarget.com un
moteur de création de maladies inspiré du DSM-IV de l’association
psychiatrique américaine, véritable outil de classification internationale,
utilisé par les psychiatres pour diagnostiquer et classer les troubles
psychiatriques ; Ce moteur, capable de produire plus de 73 000 noms de
maladies, est complété par un modèle linguistique avancé donnant des
détails sur la maladie inventée. On trouve ainsi le Somnambulisme avec
dysfonction érectile, le syndrome maniaque avec inquiétude réitérer
d’identité… Ce moteur resterait une blague de plus sur Internet, s’il n’avait
trouvé
une
illustration
étonnante.
En avril 2006, plusieurs journaux reprenaient l’information concernant Le
Trouble Dysphorique du Lundi Matin (TDLM) qui comme chacun sait
constitue un Problème Majeur de Santé Publique (PMSP) dans les pays
industrialisés. Ce formidable canular, poisson d’avril de nouvelle
génération, s’intéressait à la fatigue et la lassitude de celui qui retravaille un
lundi matin ! L’habillage pseudo-scientifique de l’ensemble, les références
fantaisistes et internationales ont permis aux auteurs de la farce de pointer
du doigt à la fois le manque d’esprit critique des journalistes et le
formalisme de la communication médicale. Cela marque aussi l’aspect très
conjoncturel du disease mongering comme concept.
Une prévention enfin considérée
Un résultat étonnant a suivi la publicité faite sur le nouveau vaccin
destiné à traiter le cancer du col de l’utérus. On s’est aperçu aux Etats Unis
que les femmes d’origine vietnamienne avait cinq fois plus de risque de
présenter ce type de pathologie, grâce aux interrogations suscitées auprès
des médecins traitants. Au niveau de l’OMS, la prévention fait partie des
projets majeurs pour le XXIe siècle, l’exemple de la lutte contre les
maladies cardiovasculaires l’illustre. L’OMS a défini les facteurs de risque,
les comportements à adopter (type de corps gras, augmentation de la
consommation des oméga 3, fruits et grains entiers, diminution des
aliments trop sucrés ou salés…). Les actions des pays démarrent :
diminution des quantités acceptables de sel dans les produits
manufacturés pour le Royaume Uni, basculement de l’huile de palme vers
l’huile de soja à l’île Maurice…
La médecine préventive a démontré son efficacité en France avec
la mise en place de grands programmes comme la vaccination.
Aujourd’hui, la prévention va passer autant par le relais des campagnes
nationales sur de grands thèmes, par exemple le dépistage du cancer du
sein, que par un meilleur diagnostic et traitement de pathologies
107
rencontrées en médecine de ville. Ainsi l’apparition de troubles de l’érection
chez l’homme entre 40 et 50 ans peut permettre une sensibilisation et un
traitement réduisant le risque de complications cardiovasculaires, cette
situation se trouvera gérée plus facilement en médecine de ville.
Conclusion
En 2006, l’annonce de la première conférence internationale sur le
disease
mongering,
bénéficiait
d’une
couverture
médiatique
exceptionnelle ; la santé, ce bien précieux entre tous était manipulée par
des créateurs de maladies, soucieux de vendre des médicaments. Pire, la
médicalisation de la vie quotidienne, relayée par les abondantes
communications vers les consommateurs devenait une source inépuisable
de manipulations, dans une logique de profit. L’analyse du mécanisme de
« création de maladie » met en évidence une stratégie marketing
particulière, optimisant les facteurs d’influences connus et s’appuyant sur la
rapidité actuelle des échanges pour obtenir une parfaite coordination du
mix media, ce qui explique en partie l’impact le plus important aujourd’hui
aux Etats Unis Le succès commercial est lié au fait que la maladie est
acceptée par la conscience collective, ce qui justifie que patients et
assurance maladie payent. Cependant, le disease mongering pourrait
n’être qu’un phénomène conjoncturel parasitaire, certes surfant sur un
besoin viscéral de « bien-être » de notre société, mais rapidement
déstructuré par les acteurs de santé : médecins prudents, patients informés
et journalistes critiques. Alors la politique de prévention, détection et prise
en charge, pourra s’affirmer, avec le soutien de ces mêmes acteurs et des
fondations pour la santé qui seront au XXIe siècle le relais des Etats.
Sources
www.diseasemongering.org/
en.wikipedia.org/wiki/Disease_mongering
bmj.bmjjournals.com
www.newstarget.com/disease_mongering.html
Bibliographie
1. Moynihan R, Henry D (eds). A Collection of Articles on Disease
Mongering. PLoS medicine, 2006. Fulltext.
2. Moynihan R, Heath I, Henry D. Selling sickness: the pharmaceutical
industry and disease mongering. BMJ 2002;324:886-91. PMID
11950740.Fulltext
108
3. Vince Parry, « The art of branding a condition », Medical Marketing &
Media, Londres, mai 2003
4. Lynn Payer, Disease-Mongers : How Doctors, Drug Companies, and
Insurers Are Making You Feel Sick, John Wiley & Sons, New York, 1994.
5. Moynihan R. Scientists find new disease: motivational deficiency
disorder. BMJ 2006;332:745. Extract.
6. Harris M, Chandran S, Chakraborty N, Healy D. The impact of mood
stabilizers on bipolar disorder: the 1890s and 1990s compared. Hist
Psychiatry. 2005 Dec;16(Pt 4 (no 64)):423-34.
7. Burton B. People are easily duped about new diseases, conference is
told. BMJ 2006;332(7547):932. Fulltext
8. Illich I, La Némésis Médicale, Seuil,1975
9. Romain J ,Knock ou le triomphe de la médecine , ,1923
10. Blech J,Les inventeurs de maladies :manœuvres et manipulations de
l’industrie pharmaceutique, 2005 Editions Actes Sud, ISBN 2-7427-5527-6
e
e
11. Faure O, Histoire et médicament au 19 et 20 siecles, ouvrage collectif
Ed Glyphe,2006
12. Pignarre P, Le grand secret de l’industrie pharmaceutique, La
Découverte, 2002
13. Borch-Jacobsen M,Usagers de thérapies et producteurs de maladies in
la psychothérapie à l’usage des usagers (colloque )13 Octobre 2006
14. Das AK, Olfson M, Gameroff MJ, Pilowsky DJ, Blanco C, Feder A,
Gross R, Neria Y, Lantigua R, Shea S, Weissman MM. Screening for
bipolar disorder in a primary care practice. JAMA. 2005 Feb 23;293(8):95663.
15. Healy D, le marketing de la santé mentale : la psychiatrie sous
l’emprise des labos New scientist via Courrier international 2006, 820.
16. Stephen Barlas and Psychiatric Times staff (2006-04-16). Psychiatric
Profession Current Target of Citizens Commission on Human Rights.
CCHR. Retrieved on 2007-06-03.
109
Marc MORIN
Responsable du Pôle de Recherche
Entrepreneuriat Management
Docteur d’Etat en sciences économiques,
Docteur en sciences des organisations
Le marketing des ressources humaines :
phénomène de mode ou nouvelle méthode de
travail en GRH ?
Résumé
L’article a pour objet d’apporter des éléments de réponse à la question de
savoir si le marketing des ressources humaines, expérimenté par plusieurs
entreprises en France depuis quelques années, participe davantage d’un
phénomène de mode, destiné pour l’essentiel à disparaître plus ou moins
rapidement, ou s’il s’agit d’un ensemble de techniques effectivement utiles
au directeur des ressources humaines. Auquel cas, le périmètre des tâches
qui est le sien, au sein des fonctions de gestion des ressources humaines
des firmes, tendra dans l’avenir à s’élargir pour inclure partiellement des
actions, et compétences, qui appartenaient plutôt jusqu’à présent à la
fonction de marketing.
Plusieurs facteurs lourds semblent en effet peser sur cette évolution
possible. Comme le montre une tendance actuelle à externaliser en tout ou
partie les fonctions de recrutement, nombre d’entreprises confient à des
organisations extérieures le soin d’organiser certains recrutements, mais
aussi celui d’en assurer les risques. Or, l’incertitude des recrutements
pourrait être accentuée demain du fait de plusieurs raisons économiques,
sociales, technologiques et institutionnelles convergentes. L’accélération
du progrès technologique ; la mondialisation et l’intensification de la
concurrence ; les changements de mentalités, allant de pair avec
l’affaiblissement de la « valeur – travail » et la baisse d’attractivité de
certains métiers et de certaines organisations ; le développement d’un
salariat multiculturel, renvoyant à des styles de vie socioculturels diversifiés
..., font ainsi partie des facteurs lourds qui rendent les stratégies
d’attraction, de motivation et de fidélisation des salariés potentiels, et des
salariés déjà intégrés, beaucoup plus complexes que par le passé. Le
vieillissement plus rapide des métiers et compétences, la rareté relative de
certains profils, les attentes des salariés modernes dont celles d’équité et
110
d’éthique ... impliquent alors la recherche active et offensive de profils et
compétences plus difficiles à découvrir, ainsi que des stratégies défensives
plus élaborées pour conserver ces derniers. Ce qui revient, compte tenu de
l’importance du capital humain comme facteur primordial de compétitivité
dans les entreprises modernes, à autoriser ou non des stratégies
permettant de gagner, voire simplement de conserver, les avantages
concurrentiels acquis.
L’objet de l’article est de chercher, sur cette base, à explorer l’avenir
possible des techniques de marketing applicables par les entreprises sur
des plans tout à la fois externe et interne. Pour s’adapter à ces évolutions,
les organisations pourraient en effet chercher à diminuer les coûts unitaires
du recrutement, et les incertitudes des procédures traditionnelles
correspondantes, par l’utilisation de techniques visant à attirer
massivement des candidats déjà « segmentés et ciblés ». D’un point de
vue interne, sur la base des sociogrammes permettant une première
approche des « besoins – désirs » des salariés, elles pourraient par
exemple mettre en place des systèmes de rémunération « à la carte ».
Après avoir défini le statut de ces nouvelles techniques, dans le champ des
outils couramment utilisés par le management des ressources humaines,
l’article s’interroge sur leurs utilités et avantages économiques respectifs
possibles, et sur les freins qui pourraient en affecter l’utilisation par les
entreprises.
Abstract
The article seeks to provide some answers to the question of whether the
marketing of human resources, attempted on a trial basis by a number of
French companies over the last few years, is more of a fashionable
phenomenon, essentially ephemeral in nature, or whether it comprises a
set of techniques of real use to a Human-Resources Manager. If so, the
scope of the tasks that fall under the HR Manager's responsibility, within a
firm's human-resources management functions, will in future tend to
expand to include some of the actions and skills that have hitherto
belonged to the marketing function.
In practice, several major factors appear to weigh upon this possible
development. As demonstrated by the current trend towards outsourcing all
or part of the recruiting function, many companies now entrust to outside
organizations the task of arranging certain recruitments, and also of taking
on its risks. In the near future, the uncertainties of recruiting could be
increased by the coming together of a number of economic, social,
technological, and institutional factors. The acceleration of technological
advances; the globalization and intensification of competition; changes in
people's attitudes, accompanied by a weakening of "work-value" and a
111
decline in the attractiveness of certain occupations and particular firms; the
development of a multicultural workforce reflecting diverse socio-cultural
lifestyles, etc., are all significant factors that are making it much more
complicated than in the past to design strategies to attract, to motivate, and
to retain potential employees—and also those already employed. The
accelerating obsolescence of occupations and skills, the relative scarcity of
certain career profiles, the expectations of modern employees especially
regarding fairness and ethics, etc., now imply an active and aggressive
search for hard-to-find profiles and skills, as well as more elaborate
defensive strategies to retain such employees. In view of the importance of
human capital as a fundamental factor in the competitiveness of modern
companies, this amounts to deciding whether or not to authorize the use of
strategies that enable the acquisition, or simply the retention, of the
associated competitive advantages.
The aim of the article is to examine, based on the preceding analysis, the
possible future of marketing techniques that companies might apply both
internally and externally. To adjust to these changes, the organizations
could in fact seek to reduce the unit costs of recruitment, and the
uncertainties of the corresponding traditional procedures, by using
techniques aimed at presenting overwhelming attractions to candidates
who are already “selected and targeted". From an internal point of view, on
the basis of sociograms providing a first approach to the "needs and
desires” of employees, they could for example establish "à la carte"
compensation systems. After defining the status of these new techniques
among the field of tools currently employed by human-resources
management, the article examines their respective possible usefulness and
benefits, and the disincentives that could affect their use by companies.
Introduction
La question que nous cherchons à éclairer dans cet article est de savoir si
le marketing des ressources humaines, d’apparition relativement récente
en France, et qui y a déjà concrètement donné lieu à plusieurs initiatives
concrètes de la part de diverses organisations, peut être considéré comme
fournissant un ensemble d’outils participant d’une mode, ou s’il s’agit,
véritablement, d’outils de nature à renouveler les méthodes généralement
utilisées par les fonctions de gestion des ressources humaines dans les
entreprises. Dans le premier cas, à l’instar de plusieurs outils de gestion,
présentés comme tels mais dont les capacités heuristiques et pratiques se
révèlent limitées, ces nouvelles techniques n’auront qu’une durée de vie
éphémère. Dans le second cas, les pratiques d’entreprises finiront par les
sélectionner comme pouvant être considérées comme des techniques
pertinentes pour attirer, intégrer et fidéliser les salariés. Et le métier même
112
de DRH, dont les tâches sont en général assez clairement définies par les
segments des sciences de gestion s’intéressant à la gestion des
ressources humaines, pourrait évoluer, dans la foulée, en intégrant de
nouvelles pratiques faisant appel aux techniques de marketing dans leurs
dimensions tout à la fois stratégiques et opérationnelles.
Pour avancer dans la formulation d’une réponse, ce texte sera organisé
selon trois grandes parties. Après avoir dégagé les grandes raisons
économiques et sociales qui peuvent conduire, depuis quelques années,
certaines organisations à pratiquer le marketing des ressources humaines,
la première partie aura recours à une typologie des grands outils de
psychosociologie qu’utilisent en l’occurrence les auditeurs en GRH. Elle
permettra de préciser la problématique du partage entre les outils en
gestion des RH, qui sont affectés de phénomènes de modes, et ceux qui
résistent à l’usage et au temps. La deuxième partie sera consacrée à
distinguer les principaux apports des techniques de marketing à la GRH.
Ainsi des techniques externes, qui visent à attirer des salariés potentiels en
segmentant le plus précisément possible les « cibles salariales », et des
techniques internes proposant de s’appuyer notamment sur des
sociogrammes salariaux afin, selon les « besoins – désirs » des individus,
de modeler les différents objets du rapport salarial (éléments de
rémunération, du contrat de travail ...) selon les profils obtenus.
La troisième partie de ce travail cherchera enfin à dégager les facteurs qui
peuvent freiner, ou au contraire accompagner, l’éventualité du
développement du marketing de la RH. La possibilité que ces techniques
revêtent des formes éphémères est à mettre en rapport avec une certaine
mythologie, développée par plusieurs firmes, qui en viennent à comparer
implicitement l’intérieur d’une organisation à un système dans lequel offres
et demandes salariales pourraient, en quelque sorte librement et sans
contraintes, se confronter les unes aux autres pour engendrer des
réformes convenant aux préférences des deux parties. L’utilité de ces
techniques doit être liée aux avantages économiques qu’elles peuvent
générer dans le contexte économique et socioéconomique actuel. Quant
aux formes externes de ces techniques, il s’agit notamment de la possibilité
de s’adresser massivement à un public de salariés potentiels en diminuant
les coûts unitaires du recrutement, et en réduisant par des positionnements
corrects l’incertitude des recrutements. Quant à leurs formes internes, ce
sont là des méthodes qui pourraient certainement permettre de dynamiser
les motivations dans un contexte économique où la qualité des produits est
manifestement devenue un instrument majeur de compétitivité des firmes.
113
Les grilles d’outils en audit et management des ressources humaines
et les spécificités du marketing des RH
Il est probable que, dans les années à venir, de nouveaux métiers vont se
créer et se développer dans le champ de la gestion des Ressources
Humaines (RH). Soit qu’ils fassent déjà partie des Fonctions de Gestion
des Ressources Humaines (FGRH) des firmes, et soient appelés à se
développer encore. Soit qu’ils apparaissent comme nouveaux, notamment
en empruntant éventuellement certaines pratiques, et partant certaines
compétences, à d’autres fonctions traditionnelles des entreprises. Les
actions de communication, internes et externes, qui entrent dans ce que
l’on nomme aujourd’hui le marketing des Ressources Humaines ou RH, en
font partie. Un des premiers ouvrages français, ouvrant la voie dans ce
domaine en respectant certains critères d’objectivité et de démonstration,
porte notamment en sous-titre l’intitulé « Attirer, intégrer et fidéliser les
salariés » (Liger, 2004).
L’auteur y met en particulier l’accent sur les effets du creux
démographique, entraînant des pénuries croissantes de personnels ; sur la
modification des valeurs – travail entre les générations, et le
développement notamment de valeurs individualistes contredisant
certaines valeurs de compétition sociale et d’effort ; et sur les images
négatives que revêtent certains métiers qui ne parviennent plus à attirer
suffisamment de candidats (p. 23). Il rappelle également que le marché du
travail européen, en particulier, est devenu de plus en plus concurrentiel, et
pose des problèmes de recrutement aux firmes françaises dans la mesure
même des rémunérations plus attrayantes pratiquées dans certains
secteurs par plusieurs entreprises de l’Union européenne (p. 13). La
définition qu’il donne du marketing de la RH est la suivante : « Cette
nouvelle approche de la relation salarié/entreprise consiste à considérer les
collaborateurs, présents ou potentiels, comme des clients, au sens le plus
noble. Il s’agit d’appliquer la logique et les techniques du marketing et de la
communication pour : - attirer des candidats, les recruter et bien les
intégrer, - fidéliser des collaborateurs impliqués. Et au final, grâce
notamment à des innovations sociales, des innovations d’organisation,
développer une relation durable et de plus en plus individualisée avec les
collaborateurs, faire de l’entreprise un employeur attractif, et de son nom
une véritable marque, associée à de vraies valeurs ... » (Liger, 2004, p.
10). On peut énoncer comme suit, en les développant et en y ajoutant nos
propres réflexions, les principales thèses défendues dans ce livre.
Le creux démographique, dans lequel la société française est entrée
depuis 2005 va en particulier, aussi bien dans les organisations privées
que publiques, exiger le développement de pratiques de recrutement
offensives en direction d’un public de candidats potentiels constitué de
114
générations plus jeunes. Les générations nouvelles, nées avec les rebonds
de la société de consommation, avec l’accélération de la mondialisation et
du progrès technologique (et en particulier celui des NTIC), mais aussi
avec la persistance d’un chômage de masse, et d’un taux important de
sous-emploi allant de pair avec la multiplication de contrats de travail
atypiques, rompant avec les normes du CDI (CDD, temps partiels, intérim
et contrats – stages subventionnés), forment de ce point de vue ce que l’on
appellerait, en marketing, un public, voire une « cible » spécifique. Ils se
caractérisent en effet, concernant la place relative que le travail occupe en
moyenne dans leur vie, selon la perception qu’ils en ont, par des valeurs a
priori sensiblement différentes de celles de leurs aînés. Certains auteurs
avancent l’idée d’« affaiblissement de la valeur - travail » pour exprimer
l’idée selon laquelle les générations les plus jeunes sont, en moyenne,
davantage demandeur d’un rééquilibrage entre la vie professionnelle et la
vie familiale. Ils tendent en ce sens à être plus nombreux à accorder
relativement moins d’importance à une vie professionnelle volontiers
centrée sur la recherche de davantage d’avoir et de statut, avec la
contrepartie de l’acceptation d’une certaine discipline au travail, voire du
stress de la compétition sociale, et a contrario davantage d’importance à la
vie personnelle fondée sur des valeurs différentes, en particulier de
proximité sociale, et d’expression des besoins et désirs personnels. Les
techniques de marketing permettraient alors notamment de renouveler,
dans leur direction les actions de la firme cherchant à rendre son
organisation et sa culture plus attractives.
Parallèlement, l’économie française est entrée globalement, depuis
approximativement 2005, dans une phase de creux démographique
extrêmement important. Lequel va entraîner, dans les années à venir, des
sorties massives des salariés des entreprises partant à la retraite.
Certaines études économiques font notamment état de départs allant, de
2005 à 2020 inclus, d’environ 90 000 personnes en moyenne annuelle, ce
qui diminuera d’autant la population active disponible. L’appel au
développement quantitatif de techniques de recrutement offensives va
donc être particulièrement puissant. D’autant plus que certaines
entreprises connaissent déjà, et connaîtront davantage pour plusieurs
raisons, dans certains secteurs d’activité, des pénuries de main d’œuvre et
de compétences très importantes.
L’intensification d’une part de la concurrence, notamment liée à la
mondialisation et à l’interpénétration croissante des économies, l’évolution
d’autre part des mentalités, qui va de pair avec un phénomène de
dévalorisation de certains métiers jugés notamment moins porteurs de
distinction sociale et d’avenir, contribuent en effet à brouiller en quelque
sorte le message de différenciation de certaines organisations. Les firmes
des mêmes secteurs d’activité éprouvent autrement dit, dans une société
115
tendant par ailleurs à être saturée de signes et de messages publicitaires
variés, des difficultés à se différencier les unes des autres en faisant valoir
les avantages spécifiques que peuvent offrir leurs métiers, leurs structures
et leurs cultures. L’image négative de certains métiers et certaines filières,
qui n’attirent plus (toutes choses égales par ailleurs et indépendamment en
particulier des problèmes de formation), va alors de pair, dans une société
caractérisée par le chômage de masse, avec le paradoxe de pénuries
importantes de forces de travail dans certains secteurs.
D’autres facteurs que ceux cités par P. Liger militent toutefois, à notre
sens, pour un renouvellement des techniques de recrutement qui passerait
notamment par le marketing des RH. L’accélération considérable du
progrès technique fait en particulier que le rythme d’apparition de métiers
nouveaux, et de disparition des métiers anciens, a augmenté durant ces
dernières années de façon spectaculaire. Des travaux économiques
reconnus font état aujourd’hui, en l’espace d’une année, d’environ 15 %
d’emplois créés et parallèlement d’environ 15 % d’emplois détruits. Ce qui
donne le chiffre, chaque jour ouvrable en France, d’environ 10 000 emplois
créés et 10 000 emplois détruits (Cahuc & Zylberberg, 2005, p. 19). La
logique de ces destructions est clairement liée aux poussées du progrès
technologique qui, pour se référer à la théorie des grappes technologiques
de J. Schumpeter, constitue un moteur essentiel des évolutions
économiques. Et ce, dans la mesure où la concurrence n’est pas
seulement alimentée par la recherche des prix les plus bas par les
entreprises, mais par le fait que certaines entreprises s’approprient plus
vite que d’autres, en étant rapidement imitées, des innovations
technologiques qu’elles transforment en innovations commerciales
rentables. Les NTIC, soit le mariage des trois technologies antérieurement
distinctes que sont les télécommunications, l’audiovisuel et l’informatique,
est de ce point de vue aujourd’hui un moteur concurrentiel qui, d’une
puissance exceptionnelle, constituent un défi pour la structure des emplois
et les institutions existantes qui ne s’y adaptent qu’avec retard. L’image des
métiers n’est donc pas seulement brouillée par la concurrence, et la
transformation des valeurs sociales. C’est le rythme d’évolution même du
progrès technique et des métiers, et le rythme d’adaptation des structures
organisationnelles et institutionnelles, qui sont aussi en cause. Il en résulte
un appel également très puissant à des procédures de recrutement qui
s’adapteraient au rythme d’obsolescence accélérée de certains métiers ou,
pour certains d’entre eux, aux manières de les exercer. Face à la rareté
relative de certaines franges de main d’œuvre, l’utilisation de techniques
offensives d’attraction à vocations plus massives pourrait, de ce point de
vue, être porteuse d’avantages économiques non négligeables pour les
firmes.
116
On peut par ailleurs considérer que, malgré l’importance du chômage,
l’augmentation des niveaux de vie, des niveaux d’éducation, des
sensibilités sociales, de la conscience politique ..., font que les attentes
globales des salariés et futurs salariés, à l’égard des entreprises, sont en
moyenne plus exigeantes et plus variées que par le passé. J. M. Peretti
met en particulier en évidence, dans les organisations actuelles, trois
attentes fondamentales de ces derniers (2003, p. 24 et suiv.). Celles
d’équité, les salariés étant sensibles aux rapports qu’ils perçoivent et jugent
comme équitables (légitimes) entre l’ensemble de leurs contributions et
celui de leurs rétributions. Chaque salarié élabore alors, selon la théorie de
l’équité déjà ancienne en sciences des organisations, un rapport
Contributions / Rétributions (C / R) pour lui-même. Puis, il le compare avec
ceux des autres salariés, à l’intérieur de l’organisation puis à l’extérieur de
celle-ci dans les structures appartenant au même secteur d’activité. Celles
d’employabilité, ces derniers revendiquant notamment des formations de
nature à leur permettre de conserver un état de compétences valorisables,
en un certain laps de temps, sur le marché du travail correspondant en cas
de perte d’emploi. Celles enfin d’éthique, qui entraînent en particulier, dans
certaines entreprises, le développement des accords et mesures de
Responsabilité Sociétale de l’Entreprise (RSE). Lesquels traduisent en
particulier le développement de nouvelles exigences en matière de
pratiques jugées éthiques de la firme (discrimination, pollution ...). Les
techniques de Marketing RH peuvent aussi, de cet autre point de vue, aider
à attirer et intégrer des candidats potentiels, a priori davantage réticents ou
critiques et qu’il est plus difficile de convaincre.
La question posée dans cet article est celle de savoir si le marketing des
RH, qui a déjà concrètement donné lieu à plusieurs initiatives de la part de
diverses organisations (en termes de publicités, d’événementiels, de
communication institutionnelle ...), peut être considéré comme un outil
participant d’une mode, ou comme une véritable technique innovante.
Dans le premier cas, il s’agira d’un outil éphémère. D’un usage en fait
superficiel, qui n’aura pas vraiment d’avenir car n’induisant pas des
pratiques allant dans le sens de réelles innovations et transformations en
profondeur des pratiques managériales des FGRH. Dans le second cas, il
s’agira d’un outil de nature à renouveler effectivement les méthodes,
généralement utilisées par les FGRH, pour attirer, intégrer et fidéliser les
salariés. Le temps et l’usage le sélectionneront en quelque sorte en tant
qu’outil efficient et pérenne. Ce qui implique dans cette hypothèse que le
DRH soit amené, dans les années à venir, à faire l’apprentissage et
l’acquisition de compétences qui relevaient davantage, jusqu’à présent,
des fonctions de marketing et de communication de la firme. Avant
d’examiner les implications de l’utilisation des méthodes de marketing sur
les techniques et pratiques de management de la RH, il convient tout
d’abord de se repérer parmi les différents outils utilisés par la FGRH, selon
117
leur portée en particulier scientifique eu égard au champ des sciences de
gestion.
Les grilles de référence
Les apports en particulier de la psychosociologie au management, et
singulièrement à la réflexion concernant la gestion des RH, et le
fonctionnement des FGRH dans les organisations, sont naturellement
nombreux. Plusieurs outils, que l’on peut classer selon leurs degrés
« d’opérationnalité immédiate », ou encore selon leurs capacités à
s’adapter en quelque sorte rapidement, dans des situations matérielles
variées, à la résolution de problématiques managériales concrètes, sont
clairement influencés par ces divers courants.
Dans le champ des sciences de gestion, certains auteurs ont considéré
que le poids même des instruments utilisés était considérable. De ce point
de vue, la conception dominante de la gestion des ressources humaines,
telle qu'elle est généralement véhiculée par les consultants et une large
frange de la littérature spécialisée (Brabet et alii., 1993), considère que la
GRH relève souvent d’un « modèle instrumental ». Que c’est, autrement
dit, l'entreprise en tant qu’instrument rationnel de production qui a en
quelque sorte modelé elle-même, pour une part déterminante, les outils
qu’elle utilisait afin de gérer concrètement les hommes et les forces de
travail dans l’organisation. Et que le modelage de ces outils, en produisant
des instruments qui étaient en quelque sorte sélectionnés dans la durée
par des utilisations exigeantes, produisait à terme des instruments plus ou
moins éphémères en fonction notamment de leurs distances conceptuelles
aux événements et phénomènes. Ces outils peuvent donc être classés eu
égard à leurs capacités heuristiques et explicatives. Les outils
psychologiques en particulier, qui sont régulièrement utilisés dans le
champ du management des ressources humaines, sont en ce sens des
outils qui correspondent en quelque sorte d’abord à l’épistémologie de
l’entreprise, appréciée à travers les exigences d’adaptation et de résolution
des problèmes managériaux pratiques de cette dernière.
Aubret & Gilbert proposent notamment, dans cette perspective, un
regroupement des apports de la psychologie et de la psychosociologie à
l’entreprise en trois catégories. Ce regroupement distingue, en allant en
quelque sorte du plus immédiat et du plus pratique, au plus théorique et
générique : - Les aides à la gestion opérationnelle, - Les instruments
d'analyse, - Les modèles normatifs.
118
Les aides à la gestion opérationnelle sont des instruments immédiatement
produits et façonnés par l'entreprise. En tant qu’outils ayant une vocation à
l’action immédiate, et à la différence des instruments d'analyse, ils sont
destinés à préparer directement les décisions opérationnelles, et ne sont
pas immédiatement tournés vers la cognition au sens large. Ou encore
vers la connaissance, et donc la compréhension et l’interprétation en
profondeur des diverses données et variables qui, pour l’essentiel,
composent et expliquent dans leur diversité les modèles organisationnels
de management de la RH. Essentiellement mis au point par les praticiens,
ces outils sont aussi fortement diffusés dans les entreprises, et
naturellement plus faciles à modifier dans la mesure où ils sont soumis,
plus que les autres, aux contraintes immédiates de l'action. De fait, ils
tendent à se renouveler assez vite dans le temps.
Les instruments d'analyse sont, quant à eux, consacrés à l'étude des
situations de gestion et regroupent les tableaux de bord, les méthodes de
diagnostic, les méthodes qui s'appliquent aux problèmes d'évaluation et de
choix ... N’étant pas destinés comme les premiers à agir directement sur
les situations, ils s'appliquent davantage au traitement des informations qui
va permettre, ensuite, la mise en place de plans d’action. Forgés la plupart
du temps par des consultants spécialisés, ils tendent à apparaître et
disparaître en fonction de l'évolution des besoins des entreprises, et aussi
de celle des offres commerciales des cabinets de conseil.
Les modèles normatifs, enfin, n'ont pas d'action directe et immédiate sur le
contexte. Pour autant, ils guident activement le gestionnaire en intervenant
plus généralement pour prescrire et structurer, y compris au plan
stratégique, et pour contrôler les plans et actes de gestion. Les modèles
normatifs, également nommés prescriptifs, sont en d’autres termes les plus
« chargés » en connaissances et les moins directement opératoires.
Conçus généralement par des enseignants-chercheurs, ou par des
consultants travaillant dans des organismes ayant une activité d'étude, ils
sont plus longs et plus difficiles à promouvoir. Mais leur cycle de vie est, en
même temps, plus étendu et ils tendent à influencer généralement, durant
une période de temps donnée et relativement étendue, les formes
moyennes de management.
Le tableau suivant permet d’établir une typologie de ces différents outils. Il
permet en même temps de distinguer les outils qui possèdent une forte
charge en connaissances au sens où, ayant en quelque sorte été
sélectionnés par plusieurs années d’applications, nécessairement
exigeantes au niveau des organisations, ils ont acquis un statut théorique
119
qui permet de les réutiliser dans des situations variées. Le propre des outils
et schémas d’explications durables étant en quelque sorte de ramasser un
grand nombre de faits, et phénomènes, en des temps et des lieux
différents. De découvrir des invariants, qui par définition ne se modifient
pas, a fortiori rapidement, d’une situation organisationnelle à une autre et
au moins à court terme. Ces explications accédent par là même, à travers
le jugement des diverses communautés scientifiques concernées, au rang
de modèles explicatifs « en profondeur ».
Exemples d'instruments de GRH faisant appel à la psychologie
Sousfonctions
Ensemble
de la GRH
Recrutement
Gestion des
carrières
Formation
Modèles
prescriptifs
Modèles d'analyse
prévisionnelle
des ressources humaines
Processus types
de recrutement
Instruments
d'analyse
Méthodes d'audit des
ressources humaines
Aide à la
gestion opérationnelle
Répertoire des métiers
Tests
Questionnaire d'embauche
Entretiens structurés
Essais professionnels
Parcours types
Schéma-type de définition
Fiche d'appréciation
Filières promotionnelles
des fonctions
d'un nouvel embauché
Demarches d'appréciation
du potentiel
Support d'appréciation
Méthodes d'evaluation
de l'entretien annuel
du personnel
Bilans de carrière
Plans de remplacement
Schémas des opérations
Méthodes d'analyse des
Support d'évaluation d'un stage
à mettre en œuvre pour
besoins de formation
élaborer un plan de
Méthodes d'évaluation des
formation
effets d'une formation
Modèles de régulation
Enquêtes d'opinions
Panoplie de supports d'information
sociale de l'entrerise
Méthodes de diagnostic
et communication check-list
de conflictualité
d'organisation d'une réunion,
Information,
communication
et relations
sociales
communication
Systèmes de suggestions
Hygiène,
Démarches sociotechniques
Méthodes d'analyse
sécurité et
d'introduction des
des conditions de travail
conditions
aménagements du temps Méthodes d'évaluation de
de travail
de travail
la charge de travail
guide d'entretien
Règles de sécurité
Schéma de rotation entre postes
dans une équipe de travail
Aubret J. & Gilbert P., Psychologie de la ressource humaine, PUF, 2002, 2 ème ed., p. 22.
Les deux premières catégories d’outils ci-dessus peuvent à notre sens,
dans certaines circonstances et en fonction en particulier de l’offre des
cabinets de conseil, de celle des membres des FGRH et des demandes
plus générales des entreprises, être sujettes à des effets de mode.
Régulièrement en effet les médias spécialisés se font les échos de telles
ou telles nouvelles méthodes, présentées comme étant a priori innovantes,
qui en fait disparaissent plus ou moins rapidement des usages et du
marché. Il peut notamment s’agir de la reprise d’outils anciens, en quelque
120
sorte enjolivés par des mots nouveaux et présentations attrayantes, mais
désormais non adaptés aux évolutions économiques et sociales des
organisations. Le rythme de leur disparition est en particulier conditionné
par les dysfonctionnements, et manques à gagner, auxquels donnent lieu
leur expérimentation en vraie grandeur. Et ce, de la part d’entreprises
supposant, en l’absence de preuves supplémentaires, que lesdits outils
peuvent les aider à gérer certains dysfonctionnements ou à améliorer leurs
fonctionnements.
Le marketing des RH, eu égard à la typologie ci-dessus, se caractérise par
un ensemble de techniques se situant en quelque sorte entre la catégorie
des instruments d’analyse et celle des modèles prescriptifs. Au-delà en
effet des aspects strictement opérationnels (ayant trait notamment aux
manières de toucher la cible), et de la façon d’analyser les choses (en
s’intéressant notamment aux motivations en profondeur voire à
l’inconscient du travailleur), il y a dans l’importation de certains outils de
marketing à la GRH de véritables éléments de méthode, et d’approche
prescriptive des rapports « souhaitables » du sommet stratégique d’une
organisation à son centre opérationnel, et à ses différentes composantes.
En ce sens, c’est l’histoire à venir des entreprises et des organisations qui
jugera du fait qu’il s’agit là, ou non, d’un terme à la mode, qui durera tant
que l’offre commerciale assurant sa promotion le soutiendra. Mais il y a
bien derrière l’expression de marketing des RH, qui sollicite l’attention de
certains médias spécialisés, une réalité technique et un mode de
management particulier en matière d’attraction, de motivation et de
fidélisation des salariés.
Les apports généraux de l’approche marketing
L’économie néo-classique standard conserve du consommateur une vision
traditionnelle de type tout à la fois mécanique, et fonctionnelle, qui
contraste avec la vision qu’en ont, dans le cadre de la gestion concrète, les
spécialistes de marketing. L’homo-oeconomicus est en effet un individu
qui, selon les grands postulats de l’économie standard sur les
comportements de ce dernier, établit systématiquement un classement
rationnel de ses préférences. Il sait donc toujours par là même ce qu’il
veut, et dans quel ordre il le veut (sa carte de préférences obéit en
particulier au principe mathématique de transitivité). Cet individu, construit
pour les besoins des modèles, n’est pas vraiment influencé par la publicité,
ou par les autres. Il est en effet censé choisir et décider en fonction de
« sa » carte de préférences, qu’il a, sans équivoque, construite
indépendamment des choix et préférences des autres (l’hypothèse de
mimétisme de l’économie institutionnelle de type conventionnaliste est par
121
exemple aux antipodes de ce modèle). L’homo-oeconomicus standard
recherche systématiquement, en outre, des optima. Il est en effet en
quelque sorte constamment tendu vers la recherche des solutions les
meilleures, qui satisfont au mieux ses préférences selon les contraintes qui
sont les siennes. Et il est enfin, ce qui n’est pas l’hypothèse la moins forte,
parfaitement informé. La vision développée par les hommes de marketing
est très différente. Notamment parce qu’ils revendiquent la notion de désir.
Du point de vue en effet de la psychanalyse, ou de la psychologie des
profondeurs, la notion de désir implique l’existence de rapports autrement
complexes aux objets et aux autres. Chez un individu doté notamment de
pulsions et d’une mémoire inconsciente des autres et des événements, qui
fondamentalement se « représente » et « perçoit » les phénomènes et les
objets d’un point de vue intensément social, à travers un regard
conditionné par son éducation et la présence des autres tout au long de
son développement biologique, l’objet de consommation ne saurait, en
particulier, être seulement consommé pour sa matérialité fonctionnelle. Audelà du besoin d’une chose, en fonction des caractéristiques strictement
utilitaires de celles-ci, l’objet est consommé pour ce qu’il représente. Plus
précisément, et en reprenant les distinctions magistrales introduites depuis
longtemps par J. Baudrillard (1970), l’objet est comme l’élément d’un
langage qui permet de s’adresser aux autres et de communiquer avec eux.
Il est utilisé pour « parler » à l’autre et aux autres. Dans les messages dont
le sens connoté est notamment celui de la différenciation sociale, l’objet est
par exemple utilisé de façon ostentatoire pour signifier le rêve et le désir
d’appartenir à une catégorie sociale supérieure, tout en se faisant valoir
soi-même comme remarquable et unique. L’utilisation courante en
économie du terme de besoin, comme l’a aussi montré J. Baudrillard,
revient plus généralement à considérer, de façon plus ou moins implicite,
non pas cet ordre de représentations comme participant à l’explication des
choix de consommation (et aussi de leur renouvellement accéléré), mais
l’ordre des besoins que l’on pourrait également qualifier de primaire dans la
typologie, par exemple, d’A. Maslow (1954).
Le marketing moderne a parfaitement intégré cette conception. Ainsi de
cette définition, émanant d’auteurs reconnus en sciences de gestion, dans
laquelle on peut remarquer que le mot « désir » est employé à la place du
terme besoin : « Le marketing peut se définir comme une démarche qui,
fondée sur l'étude scientifique des désirs des consommateurs, permet à
l'entreprise, tout en atteignant ses objectifs de rentabilité, d'offrir à son
122
marché cible un produit ou un service adapté » (Helfer J. P. & Orsoni J., p.
10). Pour répondre auxdits désirs exprimés par les segments de clientèle
potentielle, de la manière la plus ciblée et la plus précise possible, les
spécialistes de marketing utilisent naturellement plusieurs catégories
d’outils. Deux d’entre elles sont notamment importantes pour notre propos.
La première est constituée par les méthodes qui vont permettre, sur la
base d’un ensemble d’études, de cerner en quelque sorte le profil
comportemental de la cible. Il s’agit de repérer les principaux facteurs qui
sont, globalement, susceptibles de peser à nouveau dans l’avenir sur les
conduites d’achat. Entrent dans l’ensemble des études utilisées
préalablement, les enquêtes sociologiques menées en termes de classes
sociales, qui permettent de déduire certains comportements d’achat types
des origines et trajectoires socio-économiques des individus. Un certain
nombre d’attentes types des consommateurs, à l’égard des objets de
consommation, peuvent en effet être corrélées à l’appartenance initiale à
une classe, ainsi qu’aux trajectoires de vie sociale, et changements
éventuels de fractions de classe selon les stratégies de mobilité sociale
des acteurs. Les enquêtes sociologiques en termes de capitaux
économiques, sociaux et culturels au sens de P. Bourdieu entrent dans cet
ensemble d’études. De même, sur des bases d’observation différentes,
que les études sur les styles de vie socioculturels.
Le schéma suivant rend compte de ces facteurs d’achat en les classant
selon des « facteurs d’environnement », et des « facteurs individuels ». On
notera également qu’il le fait en considérant que ces facteurs jouent, sur
les comportements d’achat, « après » que ce qu’il nomme le « processus
de perception » d’un individu soit intervenu. C’est, autrement dit et
notamment, l’association et la combinaison complexes de la cognition du
sujet, et des facteurs environnementaux et individuels, qui va déclencher
son action d’achat :
123
Les facteurs explicatifs de l'achat
Facteurs d'environnement
Stimuli
Facteurs individuels
Processus de perception
Motivation
Culture
Classe sociale
Groupes sociaux
Expérience
Processus d'achat
Personnalité
Image de soi
Famille
Attitudes
Action
Marketing, Helfer J-P. & Orsoni J., Vuibert, 5 ème ed.,
1998, p. 96.
Cette première catégorie d’outils de marketing peut aisément être en
quelque sorte importée dans le champ de la GRH où l’on utilise d’ailleurs
déjà, essentiellement dans certaines grandes entreprises, des
sociogrammes internes. Ces derniers rendent compte en effet des
différentes caractéristiques sociales, voire individuelles des salariés, et
permettent d’en déduire chez eux certains comportements possibles au
travail, et certaines préférences en matière de rémunérations, de
conditions de travail ... Dans certaines organisations, les stratégies de
formation, et plus généralement les exercices de gestion prévisionnelle des
emplois et compétences (qui ont pour objectif d’organiser la mobilité
sociale interne de façon à conserver la motivation en intégrant / fidélisant
davantage les salariés), peuvent ainsi reposer sur la connaissance précise
de certaines attentes des salariés en fonction de facteurs sociaux et
individuels. Au-delà même du travail d’investigation et de veille permanente
que le DRH doit mener, à propos des compétences actuelles et potentielles
du capital humain qu’il doit manager, ce dernier doit par exemple, dans ces
cas, pouvoir évaluer autant qu’il est possible les désirs de mobilité sociale
ascendante interne des salariés. Les sociogrammes, plus encore dans une
organisation complexe d’une certaine taille, et quant à une population
124
salariée diversifiée, vont en ce sens l’aider à toutes sortes d’actions.
Qu’elles concernent le reformatage régulier des systèmes de
rémunérations, le suivi voire l’élaboration de nouveaux contrats de travail,
la logistique des temps et flux de travail ... Il est naturellement possible
d’aller plus loin dans cette voie (Cf. Infra).
La seconde catégorie d’outils utilisés par les spécialistes de marketing, que
nous retiendrons pour notre propos, s’intéresse plus généralement au
système de perception du sujet. Autrement dit, dans les termes de la
psychologie cognitive, elle s’intéresse à la façon avec laquelle les individus
filtrent l’information qu’ils perçoivent, la mettent en forme, selon certaines
cartes mentales notamment forgées durant le processus éducatif, et à la
façon avec laquelle ils agissent sur la base d’associations d’images et de
représentations formant leurs grilles de lecture de la réalité. Elle part en
somme, en rupture complète avec les schémas de l’économie standard,
d’un double principe méthodologique concernant les comportements.
D’une part, elle considère généralement que les conduites humaines et
sociales sont en quelque sorte guidées par des formes de codifications
socioculturelles et socioéconomiques. Ceci nous ramène à l’usage des
sociogrammes (Cf. Supra). D’autre part, elle suppose que le rapport que le
sujet entretient avec l’objet est autrement complexe que ne le suggère le
contenu traditionnel de la notion de besoin, lequel ramène implicitement les
rapports sujets - objets aux utilités fonctionnelles. Selon une distinction
classique, l’objet « vaut » en effet dans ses quatre dimensions marchande,
fonctionnelle, mais aussi symbolique et imaginaire.
Pour vendre par exemple une automobile et élaborer un message
publicitaire séduisant, le spécialiste de marketing part du principe que
l’« objet » automobile peut en quelque sorte avoir, pour un individu donné
appartenant à sa cible, une valeur, et en même temps des significations
distinctes dans ces différentes dimensions. La valeur marchande de l’objet
s’exprime en unités monétaires, et fluctue notamment selon les lois d’offre
et de demande du marché. Le sujet l’évalue en rapport de ses revenus, et
de la part de ces derniers qu’il destine à la consommation. La valeur
utilitaire de l’objet, que l’on comprend sur le registre du fonctionnel, renvoie
aux services réels que ladite automobile rend à un individu. Lesquels ne
sont pas forcément et totalement, sauf à se référer intégralement au
modèle dit d’équilibre général (qui renvoie en économie standard à la
situation de concurrence pure et parfaite et au thème du « consommateur –
125
souverain »), le reflet de sa valeur marchande (capacité de déplacements,
44
de transports d’objets, puissance, fiabilité, sécurité …) .
La valeur imaginaire de l’objet est quant à elle une valeur représentée, non
explicite, non matérielle, qui prend sens spécifiquement pour le sujet dans
l’ordre des représentations qu’il se fait de l’objet, et des usages sociaux
auxquels il donne lieu. Le sujet l’évalue en rapport de ses propres désirs,
de ses rêves, des fantasmes qui sont les siens. La valeur symbolique enfin
de l’objet se bâtit également sur la base d’une représentation que le sujet
se fait de ce dernier, mais, cette fois, dans l’ordre du collectif, du culturel.
Le sujet l’évalue en particulier en rapport de ses relations plus ou moins
institutionnalisées avec autrui, avec l’ensemble des autres, qui constituent
son rapport global à la société que la psychanalyse lacanienne nomme
aussi rapport à l’« Autre ». Dans nos sociétés, l’automobile est par exemple
souvent vécue comme signe de distinction et de prestige social. Eu égard à
certaines sociétés asiatiques, valorisant par exemple le bouddhisme, nos
sociétés tendent par ailleurs et plus globalement, dans cette perspective, à
valoriser socialement et culturellement la compétition pour l’obtention de
richesses matérielles, et d’un « avoir » que les philosophes et les
théologies opposent volontiers à l’« être ».
Sur le tableau suivant, il est important d’observer que les outils et concepts
décrits sont parfaitement intégrés à la démarche et à la méthodologie
générale du marketing, compris comme une pratique de management
envisagée dans ses phases à la fois stratégique et opérationnelle. Soit la
phase en amont, qui est plutôt celle de l’élaboration du concept, de la
planification, de la programmation des actions d’organisation et de
coordination du positionnement de l’objet. Puis la phase plus directement
opérationnelle, qui va, elle, s’efforcer de décliner l’ensemble des décisions
stratégiques et globalement le plan marketing dans diverses opérations
pratiques (entre lesquelles il faudra opérer des choix d’affectation des
ressources). L’objectif étant de permettre, en bonne probabilité, de toucher
la cible au mieux. La démarche de positionnement général du produit,
entendue comme la somme et la combinaison des opérations
chronologiques suivantes, est en ce sens un acte de management au sens
fort du terme puisque l’on peut notamment la décliner selon un
enchaînement classique d’opérations de planification, d’organisation, de
coordination et de contrôle. En particulier, pour que ledit ciblage fonctionne
au mieux, il est nécessaire que le travail de feed-back et de rétroactions ait
44
Le sujet évalue en outre la valeur utilitaire de l’objet, a contrario de l’économie orthodoxe,
en rapport avec diverses caractéristiques pesant sur la formation même de ses préférences
dont son lieu d’habitation, ses contraintes professionnelles …
126
globalement fait son œuvre. La segmentation de départ n’étant autrement
dit pas un exercice simple et évident, et divers événements pouvant
interférer en outre dans le temps pour affecter son équilibre (et notamment
l’évolution éventuellement assez rapide des comportements de la cible), un
jeu typiquement managérial d’essais et d’erreurs s’enchaîne, en boucles
successives, pour affiner constamment le ciblage :
L'élaboration
du
positionnement
Segment : Demande / Offre
Caractéristiques
du produit
de la marque
Attentes de la
demande
Positions
Evolution de la
concurrence
Positionnements possibles
exprimés en termes de
Valeur
économique
Prix
Valeur
d'usage
Technique
Valeur
psychologique
Imaginaire
Valeur
sociale
Symboles
Formulation synthétique et
évaluation des positionnements
Attentes / cibles - Objectifs Concurrence - Marque
Choix du positionnement
Produit ou Marque
- Maintien du positionnement actuel
- Repositionnement
- Positionnement nouveau
Evaluation du positionnement
dans les variables marketing
et le mix
Plan de marketing
Actions / Résultats
Baranger et alii (1998), op. cit., p. 123.
Par analogie avec la distinction entre les marketings stratégique et
opérationnel, il existe des schémas de politique de management des RH
127
stratégiques et opérationnels. L’importation du modèle ci-dessus de
positionnement des objets suggère que le DRH peut, en reformatant par
exemple les objets composant le système de rémunération général,
chercher à cibler plus précisément les différentes catégories de salariés,
dans la firme, en essayant de répondre à leurs besoins - désirs. Selon ce
raisonnement, les divers éléments de ce système de rémunération, mais
aussi plus généralement les formes des contrats et des conditions de
travail, sont autant d’« objets » à positionner dans l’organisation. Ces
objets, qui vont naturellement structurer la relation au travail et à
l’organisation des salariés, « valent » en particulier eux aussi dans les
quatre dimensions du marchand, de l’utilitaire, du symbolique et de
l’imaginaire.
Les utilités possibles du marketing de la ressource humaine pour le
management des RH et les facteurs favorables à son développement
Les techniques en externe
Sur la base de ce qui vient d’être énoncé, deux grandes utilités possibles
du marketing des RH, pour les FGRH, peuvent être distinguées. La
première est, en amenant le DRH à orienter certaines actions vers la
promotion de l’image globale d’une firme, d’essayer d’attirer grâce à ces
outils de nouvelles compétences et donc, plus généralement, de générer
de nouvelles potentialités dans la firme. Toute politique globale de GRH,
dans une firme, peut en effet être représentée en distinguant cinq
segments fondamentaux. Le concept dit de Personnel-Mix de E. Cohen fait
par exemple état des cinq dimensions de l’emploi, des rémunérations, du
développement, de l’information – communication, et des relations
professionnelles / paritaires (2001, p. 172). La version du concept de
Personnel-Mix de B. Martory & D. Crozet, plus en termes de contrôle de
gestion sociale, fait quant à elle état de quatre dimensions auxquelles
s’ajoute celle de la mesure des dysfonctionnements et coûts cachés dans
la firme (2005, p. 301). La dimension chez ces derniers de l’« image interne
et externe de la firme » recoupe, naturellement, celle de l’« information –
communication » chez E. Cohen (laquelle distingue en outre des systèmes
de circulation de l’information formels et informels).
On retrouve notamment, dans ces deux modélisations de la politique
globale d’une organisation en matière de GRH, et dans ce qui est commun
aux segments « image interne et externe », et « information –
communication », tout ce qui relève de l’attachement et des degrés
d’attachement du salarié à la culture de l’organisation. C’est-à-dire à
l’ensemble des pratiques et systèmes de pensée, ou de valeurs, qui sont
partagés à un moment donné du temps par les membres du groupe social
128
composant globalement l’organisation. La notion de partage, que l’on
retrouve dans toutes les définitions du terme de culture, y compris celle
célèbre d’Hofstede la définissant de manière courte comme une
« programmation mentale collective », est assurément essentielle. Et la
culture de l’organisation, comme l’indiquent la plupart des manuels de
gestion des ressources humaines, et nombre de travaux en sciences et
théorie des organisations, est déterminante dans le processus d’intégration
et de fidélisation des salariés.
Dans cet esprit, la valorisation de la culture de la firme à l’extérieur, par le
biais publicitaire, peut devenir un moyen de promouvoir l’image globale de
l’entreprise aux fins d’attirer, massivement, des candidats et salariés
potentiels et d’améliorer l’attractivité de celle-ci. Il est encore trop tôt,
compte tenu du nombre d’expériences réalisées ou en cours, pour évaluer
précisément en la matière l’efficacité d’une diffusion massive de messages
publicitaires sur l’attractivité des cultures organisationnelles. Mais des
mesures seront certainement faites dans l’avenir sur la base de divers
indicateurs existants, qui permettent déjà de le faire globalement pour
l’organisation (par exemple le nombre de départs de salariés de l’entreprise
au profit de la concurrence dans les six mois ou plus). L’efficacité des
messages publicitaires pourra probablement être testée en mettant en
relation la forme des messages, l’intensité et la durée de leur diffusion,
avec le nombre de salariés en l’occurrence effectivement embauchés
durant la même période, avec également le nombre de candidatures
attirées pour pourvoir un poste ... Ce que l’on peut avancer, aujourd’hui,
c’est qu’il est tout à fait possible que le marketing externe en RH engendre
des diminutions des coûts unitaires de recrutement, y compris de ses coûts
cachés, et donc parallèlement de ce que l’on pourrait appeler les coûts
d’incertitude de l’embauche.
On tend en effet, souvent, à sous-estimer l’importance des coûts d’une
procédure de recrutement totale, que l’auditeur met en particulier en
évidence à travers la méthode dite des coûts cachés. Laquelle cherche à
prendre en compte la totalité des coûts économiques et financiers directs,
mais aussi indirects, de ceux qui à travers diverses chaînes de réaction
sont difficilement voire non chiffrables, et naturellement les coûts
d’opportunité, dont notamment les « non production », et les « non création
de potentiels ». Aux frais de recrutement (coûts directs d’annonces, frais de
déplacement, honoraires des cabinets, coûts indirects représentatifs du
fonctionnement des services chargés du recrutement ...), s’ajoutent en effet
généralement des coûts d’intégration (temps perdu par les collègues,
supérieurs hiérarchiques et autres personnes pas seulement mesuré en
unités de salaires, manque à produire des personnels sollicités, démarches
administratives...), mais aussi les coûts engendrés par les erreurs
commises durant la phase d’apprentissage. Aux coûts de la formation de
129
base (si celle-ci est dispensée pendant la période qui suit l’embauche),
vont aussi s’ajouter les coûts de familiarisation avec la tâche (temps perdu
et manque à produire du fait de l’adaptation à l’entreprise, à ses
procédures, à ses collaborateurs et à la tâche elle-même), qui peuvent
entraîner la mobilisation d’autres personnels en renfort, dont le coût sera
de nouveau celui des salaires versés, de la non production, voire du
manque à innover ... On estime notamment, en règle générale, que le
nouvel arrivant dans une organisation n’atteint son niveau d’efficacité
maximum qu’à l’issue d’un certain délai. La montée en cadence étant
naturellement plus rapide dans le cas des métiers d’exécution, l’estimation
en moyenne de la croissance de la courbe d’efficacité, pour des postes
d’encadrement et de management, peut être telle qu’à 6 mois le nouvel
embauché est à 50 % de son efficacité, à 12 mois à 80 %, à 36 mois à 100
% (Martory & Crozet, 2005, p. 66).
Parallèlement, il est probable que les recrutements et la fidélisation des
salariés vont, dans les dix années à venir, entraîner des problématiques de
plus en plus complexes dans nombre d’entreprises éprouvant des
difficultés à les maîtriser. Fondamentalement, on peut en effet considérer
que ce que les économistes institutionnalistes nomment la confiance est au
cœur de la conclusion du contrat de travail. A l’intérieur de ce que l’on
nomme une situation d’informations asymétriques, et contrairement au
postulat de l’économie standard d’une information parfaite de chacun des
protagonistes, certains économistes ont en effet montré que l’incertitude,
sur ce que l’autre allait véritablement faire, affectait les deux parties. Aucun
des deux protagonistes n’est assuré, dans un cadre que la théorie des jeux
nomme de jeu non coopératif, de ce que l’autre remplira effectivement la
part du contrat à laquelle il s’est engagé initialement (Liebenstein, 1976).
De fait, le salarié ne sait pas en particulier si l’employeur lui constituera
effectivement un parcours de carrière, le rémunérant selon ses promesses.
Il ne connaît pas le véritable état de santé économique et financier de
l’entreprise, et peut douter éventuellement de sa capacité à demeurer aussi
rentable qu’il y paraissait, voire de sa pérennité. De son côté,
l’entrepreneur ignore la quantité et la qualité exactes de travail que
l’individu fournira. Celui-ci pouvant chercher à maximiser sa rétribution pour
une contribution minimale. Il ne sait pas non plus si les compétences du
futur salarié évolueront véritablement, selon les promesses de ce dernier,
et comment. La plupart des manuels de GRH confirment, dans la foulée de
ces faits stylisés qu’il y a, dans nombre de recrutements, une part quasi
incompressible de pari et d’intuition de la part du recruteur qui ne sait
jamais tout ce qu’il devrait savoir pour éliminer, en la matière, toute
incertitude.
Or, la convergence au moins des cinq facteurs cités au début de cet article
fait que, d’une manière générale, une tendance se développera dans
130
l’avenir qui imposera des recrutements tout à la fois rapides, portant sur
des profils plus difficiles à découvrir, et sur des individus difficiles à
convaincre et intégrer. Qu’il s’agisse de la mondialisation et de
l’intensification concurrentielle qu’elle suppose, de l’accélération du progrès
technique, et de l’augmentation du rythme de vieillissement des métiers, de
la diversification socioculturelle croissante de la société, des différences
d’attitude des jeunes générations, et de l’affaiblissement de la « valeurtravail » parallèlement au creux démographique actuel, l’incertitude de
l’employeur, plus ou moins conditionnée par l’incertitude du salarié
(particulièrement dans des contextes de fort chômage), ne peut que
s’accentuer. On observe au demeurant d’ores et déjà que nombre
d’entreprises, qui ne sont pas loin de posséder en interne les ressources
pour le faire, préfèrent pourtant externaliser la fonction recrutement en
laissant des cabinets extérieurs assumer eux-mêmes, et aussi assurer, les
risques d’embauches défaillantes. Aux coûts fonctionnels de la procédure
complète d’embauche tendront, ce faisant, à s’ajouter des coûts
d’incertitude plus élevés qui se matérialiseront dans des embauches non
satisfaisantes, voire contre-productives en fonction de l’augmentation des
taux d’échecs. Le coût d’une embauche non réussie s’analysant comme le
total des coûts de la procédure d’embauche menée à son terme, et des
manques à produire et à innover qui affectent globalement les résultats de
la firme.
De ces deux points de vue, les techniques du marketing RH externe, si
bien sûr l’opération de positionnement a été correctement effectuée, ont la
particularité d’attirer en masse des candidats en quelque sorte et
partiellement déjà pré-sélectionnés. Et ce, au moins dans l’ordre des
représentations, du fait de l’adéquation a priori réussie de l’objet, que
constitue l’organisation et sa culture, à leur profil psychologique. Ceci peut
participer à la réduction des coûts unitaires totaux des procédures de
recrutement. Eu égard aux annonces classiques dans les journaux et la
presse spécialisée, qui font partie des procédures – type et traditionnelles
de recrutement, ces méthodes tireraient précisément leur efficience, à
l’intérieur d’une population à la fois numériquement importante et
diversifiée, qu’il est difficile de toucher et de convaincre en fonction des
facteurs énoncés plus haut, d’une segmentation des cibles et d’un
positionnement de l’objet réussis. Les expériences menées ont, en ce
sens, toutes préalablement défini de façon précise, d’une part les
caractéristiques essentielles de la cible en termes d’âges, de sexes, de
niveaux de diplômes ..., d’autre part les « désirs – besoins » que l’on
supposait être les siens de manière à produire un message de séduction
45
ou concept adapté .
45
Dans la catégorie des événementiels, les salariés potentiels peuvent par exemple être
invités à des manifestations d’ordre sportif dans des stades où s’intercalent des entretiens
131
Une des conséquences de ce développement possible, au plan du
périmètre des tâches traditionnelles du DRH, pourrait donc être que celui-ci
apprenne en quelque sorte à faire la publicité de son organisation et de sa
culture. Qu’il apprenne d’une certaine façon à mieux vendre sa structure en
la présentant, aux nouveaux arrivants ou salariés potentiels, comme offrant
des rapports entre contributions et rétributions du travail, des contrats et
des conditions de vie au travail, parmi les plus attrayants et séduisants du
marché.
Les techniques en interne
La deuxième grande utilité possible du marketing de la ressource humaine,
pour le DRH, est de l’amener à considérer le salarié déjà intégré, à l’instar
de la définition énoncée plus haut, comme un « client » en interne. Ce qui
suppose de considérer en quelque sorte les éléments qui composent le
système de rémunération, l’organisation du travail et ses conditions de
déroulement, comme des « produits » qui doivent se façonner davantage
selon les besoins et désirs de ce dernier. Le DRH est alors amené, selon le
modèle qui précède, à positionner à la limite les différents éléments qui
composent son système de rémunération (salaires de base, périphériques
de rémunération financier, en nature ...), voire l’ensemble des contrats de
travail auxquels la firme a recours (Cdi, Cdd, temps partiels ...), et les
divers éléments qui composent les conditions de travail (flexibilité des
temps, automatisation des procédures, formes de certains locaux ...),
comme autant d’objets en quelque sorte globalement offerts par
l’entreprise. Au-delà des services supplémentaires offerts dans cet esprit
par certaines organisations à leurs salariés (gardes d’enfants, saunas,
aides à la programmation des vacances ...), les expériences les plus en
pointe sont surtout menées aux USA. En particulier les techniques
personnalisées dites de « cafeteria system ». Ainsi des fiches de paie « à
la carte », les salariés pouvant choisir la composition de leur système total
de rémunération, par exemple en préférant telle augmentation de
rémunération versée sous forme d’intéressement, sous forme de mutuelle
..., plutôt qu’en salaire de base. Ainsi de la possibilité, pour les salariés de
certaines firmes américaines, d’acheter et de vendre des jours de
vacances (Liger, 2004, p. 145). Ces techniques, hormis certaines
implications organisationnelles sur lesquelles nous allons revenir, sont
effectivement pour partie en mesure de permettre d’attirer, motiver et
d’embauche et opérations de pré-recrutement (c’est le cas en 2001 en France d’une
entreprise informatique qui invite ainsi 2500 élèves de grandes écoles d’ingénieurs (Liger, p.
97 et suiv.)). Certaines entreprises, pour recruter en masse divers saisonniers, parmi la
centaine de métiers qu’elles proposent dans leurs divers établissements, procèdent par des
clips diffusés dans les salles de cinéma ... L’internet est assurément un canal de diffusion
aujourd’hui prisé qui a en la matière un grand avenir.
132
fidéliser des salariés dont l’approche peut, toutes choses égales par
ailleurs, s’avérer plus difficile.
Certaines enquêtes font par exemple apparaître que les générations les
plus jeunes placent les valeurs du travail, et notamment l’idée de se
« réaliser dans le travail », nettement après les valeurs auxquelles
renvoient en particulier la famille, les loisirs, et les relations sociales. Dans
les termes du marketing RH, la question est alors pour le DRH de chercher
à mieux capter une cible en fonction notamment, dans ce cas de figure, de
la spécificité de ses projets de vie. Les moyens qu’il est possible d’utiliser
pour ce faire sont variés. Le compte capital-temps par exemple, dont le
principe est contenu dans la loi sur les 35 heures, peut en l’occurrence
faire partie d’un package offert par la firme pour attirer et fidéliser une
clientèle au sein de laquelle la sensibilité à la détention de davantage de
temps libre, en particulier pour se réaliser dans certains grands voyages
d’une durée excédant le quota légal ou conventionnel de congés payés
annuels, a notamment progressé. Diverses actions, allant dans le sens des
préférences a priori manifestées dans certaines enquêtes pour une plus
grande qualité de la vie au travail, ou contre la pesanteur de certaines
disciplines au travail, peuvent également être menées. L’aménagement
des formes de gouvernance, modérant certains aspects autoritaires des
modèles de pouvoir et de hiérarchie encore utilisés dans certaines firmes,
est, dans cet ordre d’idées, susceptible d’être vécu par les plus jeunes
comme un facteur d’attraction et de fidélité.
Plus généralement, ces techniques de modelage des systèmes de
rémunération s’inscrivent dans l’évolution historique de la FGRH. On
s’aperçoit en effet qu’entre le taylorisme, le fordisme et les modèles postfordiens actuels, ce qu’il était convenu d’appeler l’administration du
personnel, qui tendait plutôt à gérer le capital humain en masse, comme un
ensemble de forces de travail volontiers considérées comme
interchangeables, a fait progressivement place au « management des
ressources humaines » (Frombonne, 1993). Lequel tend à utiliser des
formes de gestion plus individualisées, tournées en particulier vers l’idée
fondamentale selon laquelle la qualité des produits, dans une société où la
mondialisation intensifie la concurrence par les prix, est un moyen de
stimuler les motivations afin d’obtenir et de conserver des avantages
compétitifs.
Un argument majeur, qui permet d’avancer que le marketing des RH peut
avoir en interne de l’avenir, malgré la possibilité qu’il soit utilisé par
certaines firmes dans des visées davantage idéologiques, est en effet que
la qualité des produits est devenue aujourd’hui un instrument majeur de la
compétitivité. La mondialisation va en effet de pair avec, de proche en
proche, une intensification des champs concurrentiels sur lesquels se
133
trouvent en moyenne les entreprises. La probabilité d’être concurrencé très
fortement, par des produits à bas prix venus de très loin, et sans que l’on
puisse toujours le prévoir précisément, augmente en ce sens à mesure que
la mondialisation s’accélère. Or, dans les pays industrialisés notamment,
les coûts du travail, qui sont la contrepartie de la régulation
socioéconomique générale des systèmes correspondants, interdisent
notamment de diminuer davantage les prix pour résister à la concurrence.
Depuis de nombreuses années, ce que rappellent en particulier certaines
commissions réunies lors des travaux préparatoires du XI ème Plan, la
qualité des produits est devenue un moyen essentiel pour parer à
l’intensification de la concurrence, conquérir et conserver certaines parts
de marché. Le marketing des RH, en tant que nouvelle technique
d’attraction-motivation-fidélisation, peut trouver sa place dans un tel
contexte.
On peut ajouter, au titre des avantages des techniques internes de
marketing des RH, le fait que les nouvelles formes de rapports salariaux
instituées peuvent aussi aller de pair avec l’évitement, pour la firme, d’un
certain nombre de dysfonctionnements, ou tout au moins leur prévention et
l’aplanissement de certaines de leurs conséquences. Il existe en effet, du
point de vue des tensions sociales et conflits qui peuvent traverser la firme,
bien d’autres formes d’expression des mécontentements que la grève.
L’auditeur juge en ce sens également la dégradation du climat social de
l’entreprise à l’augmentation éventuelle de ses taux de turn-over, à ses
baisses de productivité plus ou moins soudaines ne pouvant être référées
à des causes seulement matérielles, aux chutes de qualité coûteuses qui
grèvent les coûts des services après-vente ...
Les freins au développement du marketing des RH : la thèse de la
mode
En fonction de tout ce qui précède, le DRH peut effectivement être amené,
dans certaines entreprises, à devenir en quelque sorte davantage un
communicant afin de pouvoir mieux positionner réellement, dans
l’organisation, les objets de la rémunération, certains éléments des contrats
et conditions de travail, de manière à ce qu’ils adhèrent mieux aux profils
psychologiques des salariés. De ce point de vue, on peut soutenir l’idée
selon laquelle le marketing de la RH, en tant que technique de
compréhension des comportements et attentes au travail, a de l’avenir si
l’on considère en particulier qu’il y a là un outil de motivation puissant, et
que l’avenir économique de nombreuses firmes est notamment lié à une
qualité supérieure des produits vendus. Le fait de présenter la possibilité
de s’adresser au salarié comme s’il était un client de la firme présente,
134
toutefois, une série de limites concrètes qui peuvent faire penser qu’il y a
bien là un effet de mode et, dans le cadre de certaines offres commerciales
correspondantes, une tentative de persuasion idéologique. Le fait de
laisser entendre que le salarié peut, par l’émission de ses besoins et
désirs, formater par exemple le système de rémunération selon ses vœux,
participe en effet, si l’on en poursuit la logique jusqu’au bout, d’un effet de
déformation de la réalité des structures économiques, sociales et
organisationnelles contemporaines. D’abord, en surdéterminant en quelque
sorte le pouvoir des salariés dans l’entreprise, puis notamment en
méconnaissant certaines réalités du management et du fonctionnement
des organisations.
En premier lieu, la relation de travail salariée n’est pas une relation où les
deux contractants disposeraient de forces et puissances égales, pouvant
s’équilibrer au moment de la conclusion du contrat de travail et après celleci. Parallèlement à la détention par l’une des parties et selon les cas des
machines, des brevets, des bureaux, des terrains ..., qui conditionnent
globalement l’organisation du travail, l’autre partie accepte, lors de la
signature du contrat de travail, l’autorité de la première quant à la
coordination globale des comportements au travail. De nombreux
théoriciens des organisations, plus ou moins proches du champ
institutionnaliste en économie, revendiquent cette approche (Gazier, 1991).
En second lieu, l’analogie implicite avec un système d’offre et de demande
n’est, sur un plan à la fois technique et organisationnel, pas recevable.
Le système des prix, dans une structure de concurrence pure et parfaite
qui permet de comprendre la confrontation optimale d’offres et de
demandes, est en effet un système de coordination simultanée des offreurs
et des demandeurs au sens où il y a influence réciproque, permanente, et
contrepoids des pouvoirs des uns sur les autres. Les prix, selon qu’ils
montent ou descendent, sur un marché quelconque dans cette situation,
informent et influencent d’une part les demandeurs qui sont incités à ne
pas acheter ou à acheter. Les demandeurs, selon qu’ils sont plus ou moins
nombreux, font d’autre part varier à leur tour, et en même temps, les prix
par leurs comportements mêmes de défection ou d’achat. Et selon que les
prix montent ou descendent, ils incitent les producteurs à produire plus, ou
moins. Or, dans une firme, sauf à faire le postulat totalement irréaliste
selon lequel les membres de l’organisation seraient en relation entre eux à
travers des quasi prix, les salariés n’ont pas la possibilité d’informer le
sommet stratégique autrement que par l’alternative entre partir, ou prendre
la parole et revendiquer pour exprimer leur mécontentement du fait de la
forme de leurs rémunérations. Comme l’a montré A. O. Hirschman, ils ont
le choix entre Loyalty (rester), Exit (partir), ou Voice (prendre la parole
éventuellement grâce aux relais syndicaux) (1971). Il y a donc une
contradiction de fond à présenter implicitement le système par exemple de
135
rémunération d’une entreprise comme relevant d’une « offre », qui pourrait
couramment se modeler selon la « demande ». Et, à moins d’être relayée
par une prise de parole interne se traduisant notamment par des
dysfonctionnements coûteux infligés à l’entreprise, et sauf à supposer une
organisation dont la gouvernance serait tendue exclusivement vers la
réalisation des désirs de ses salariés, seule la défection et la sortie des
salariés est capable d’inciter suffisamment l’entreprise à remodeler son
offre compte tenu de la matrice prévisionnelle de ses gains et pertes. La
conception implicite du « salarié-souverain » se heurte, par ailleurs, à une
seconde catégorie de problèmes qui tient à certaines réalités
économiques, stratégiques et organisationnelles des entreprises.
Le système de rémunération de la firme ne peut en effet être formaté qu’à
l’intérieur d’un jeu permanent de contraintes. Il y a plusieurs manières en
GRH et en théorie des organisations de présenter ce problème. L’une
d’entre elles consiste à considérer que la firme doit formater son système
de rémunération à l’intérieur d’un triangle illustrant les trois contraintes
permanentes qui pèsent sur elle. Soit les contraintes financières de la
masse salariale, celles sociales de l’équité, celles extérieures de la prise en
compte des salaires pratiqués par la concurrence. D’autres présentations
font apparaître un jeu de contraintes plus complexe, mais ces trois
contraintes de base demeurent au cœur du modèle, et la logique
managériale consiste toujours à faire des choix dont certains par défaut et
sur la base de critères multiples et contradictoires (Cadin & alii, 2004, p.
234). La première contrainte, qui empêche de librement formater les
éléments de la rémunération selon la demande supposée des salariés, est
que les attentes sont souvent de nature à générer des glissements de la
masse salariale incompatibles avec les résultats et possibilités
prévisionnelles en la matière de la firme. Certains glissements, tels ceux
engendrés par ce qu’il est convenu d’appeler le Glissement Vieillesse
Technicité (GVT), sont en outre mécaniques. La deuxième contrainte tient
à l’équilibre des rapports contributions / rétributions des salariés. Les
stratégies accentuées d’individualisation des rémunérations peuvent avoir
la propriété d’étirer les inégalités internes (observables à travers la plus
grande déformation des écarts inter-déciles), et partant des différences
ressenties comme inéquitables et non légitimes par les salariés. Ce qui
tendra à générer en chaîne divers dysfonctionnements coûteux (grèves,
baisses de productivité, chutes de qualité ...), lesquels pourront surcompenser les gains obtenus en stimulant la productivité de ceux qui
veulent se détacher par leurs performances. La troisième contrainte tient
aux réactions de la concurrence qui, en pratiquant des augmentations de
salaires conséquentes, visant à attirer les salariés les plus productifs
(conformément à une des théories économiques du salaire dit d’efficience),
finissent par rendre les salaires proposés par la firme insuffisamment
attractifs. Ces trois contraintes, qui vont chacune de pair avec différentes
136
variables, dont certaines ne sont pas contrôlées par l’organisation, ne
permettent pas directement une modulation des formes de rémunération
offertes selon les vœux et attentes. On pourrait mettre aussi, en évidence,
les freins constitués par certaines formes de gouvernance dans la firme, et
par les stratégies de pouvoir de ses acteurs au sens de M. Crozier & E.
Friedberg (1977).
Conclusion
En ce début du XXI ème siècle, le marketing des RH entre dans la panoplie
des outils qui, si l’on considère que les grands modèles managériaux de la
ressource humaine correspondent en moyenne, et chacun, à des périodes
historiques assez faciles à isoler, vont de pair avec la période post-fordiste.
A partir d’une évolution naturellement limitée du métier de DRH, amené à
devenir partiellement un communiquant, voire davantage un psychologue
dans la firme, il s’agit de séduire et d’attirer par une communication
appropriée la « clientèle extérieure » potentielle, en présentant sous ses
meilleurs jours les structures et la culture de l’organisation, et de fidéliser
cette fois en interne la clientèle des salariés en lui permettant finalement de
davantage participer, sur le plan opérationnel, au management de la RH.
La fiche de rémunérations en quelque sorte à la carte intervient, en ce
sens, comme un nouvel outil participatif au même titre que la diminution de
certaines lignes hiérarchiques dans des organisations plus plates, que le
développement des périphériques de rémunération financiers du type
intéressement, que l’enrichissement des tâches et les suppléments
d’autonomie dans le travail accordés dans les entreprises apprenantes...
On ne possède pas encore à l’évidence suffisamment de recul sur cette
pratique, encore insuffisamment expérimentée, pour pouvoir bien discerner
son évolution probable. Pour ce qui est du marketing externe des RH, les
économies réalisées au plan des coûts d’organisation du recrutement nous
paraissent cependant constituer un argument fort poussant à son
développement. Pour ce qui relève du marketing interne des RH, le fait que
la qualité soit, de plus en plus, un enjeu majeur de la compétitivité pousse
clairement dans le sens de la recherche de techniques efficientes
permettant de stimuler les motivations. L’adaptation par exemple des
éléments de la rémunération aux profils des salariés constitue
certainement une de ces techniques. Certains précédents, comme celui
des cercles de qualité, indiquent toutefois que les nouvelles techniques en
la matière doivent être totalement assumées dans leurs conséquences par
le management, et les sommets stratégiques des entreprises. Ayant connu
un très fort développement dans les années 80, le nombre de cercles de
qualité en France a en effet connu, dans les années 90, une chute aussi
rapide que sa progression sur les raisons de laquelle les auditeurs sociaux
137
sont nombreux à s’accorder. Non seulement les incitations financières
n’ont pas suivi, mais l’écoute portée aux propositions des salariés n’a pas
été suffisante et, lorsqu’elle a été effective, elle n’a abouti qu’à des
changements mineurs de l’organisation et des conditions de travail. Le
marketing interne des ressources humaines est en ce sens une technique
naturellement séduisante. Son application effective risque de se heurter à
des contraintes économiques, organisationnelles et sociales majeures.
Bibliographie
Aubret J. & Gilbert P., (2002, 2 ème ed.), Psychologie de la ressource
humaine, PUF, Paris.
Baudrillard J., (1970), La société de consommation, Gallimard, Paris.
Brabet J. et al. (1993), Repenser la gestion des ressources humaines ?,
Economica, Paris.
Cadin L., Guérin F. & Pigeyre F. (2004, 2 ème ed), Gestion des
ressources humaines, pratique et éléments de théorie, Dunod, Paris.
Cahuc P. & Zylberberg (2005), Le chômage, fatalité ou nécessité ?,
Flammarion, Paris.
Cohen E., (2001), Dictionnaire de gestion, La découverte, Paris.
Crozier M. & Friedberg E. (1977), L’acteur et le système, Seuil, Paris.
Fombonne J., (1992), « Pour un historique de la fonction personnel », in
La Fonction ressources humaines, Weiss (direction), ed. D’Organisation,
Paris.
Gazier B. (1991), L’économie du travail et de l’emploi, Dalloz, Paris.
Helfer J. P. & Orsoni J., Marketing, Vuibert, Paris.
Hirschman A. O. (1970), Exit, voice and loyalty, Harvard University Press,
Cambridge.
Liebenstein H. (1976), Beyond Economic Man, Cambridge University
Press, Cambridge.
Liger P. (2004), Le marketing des ressources humaines. Attirer, intégrer et
fidéliser les salariés, Dunod, Paris.
Martory B. & Crozet. D. (2005, 6 ème ed.), Gestion des ressources
humaines, Dunod, Paris.
Martory B. (2003, 4 ème ed.), Contrôle de gestion sociale, Dunod, Paris.
Maslow A. (1954), Motivation and Personality, Harper & Row, New-York.
Peretti J-M., (2003, 8 ème ed.), Ressources humaines, Vuibert, Paris.
138
Stéphane MOTARD
Professeur de Marketing à l’ISC Paris
ESSEC MBA, Docteur ès Sciences Sociales
Le business case comme outil de positionnement
de la DSI et des Directions Opérationnelles au
sein des instances stratégiques de l’entreprise :
l’exemple du projet CRM
Synthèse
L’informatique étant devenue plus ergonomique et plus ouverte au client
(via l’extranet notamment), elle a acquis un nouveau statut au sein des
instances stratégiques de l’entreprise puisqu’elle est passée d’un rôle de
« support » à un rôle de « facteur différenciateur de l’offre sur le marché ».
Les projets CRM ont en effet consacré ce nouveau positionnement des DSI
et des Directions Vente-Marketing en leur permettant de s’exprimer d’une
voix commune quant à l’intérêt stratégique de l’informatique orientée
« métier ». Le business case a permis à ces directions de monter en
puissance auprès des instances dirigeantes car c’est via un langage
financier objectivant que ces Directions peuvent s’identifier à des structures
entreprenariales proches des préoccupations stratégiques et temporelles
des instances dirigeantes.
Mots-clés
Projet CRM, système d’information, business case
139
Summary
IT has become more ergonomic and more open towards customers (thanks
to Extranet structures), and got a new status inside of companies strategic
committees. Indeed, IT has evolved from a “tool” into a “differentiating
factor of offer on industrial markets”. CRM projects have enabled this new
positioning of IT Departments and Sales & Marketing Departments, which
now can express themselves through a unique message about strategic
impacts of functional software. The business case enabled these
departments to develop their strategic trumps inside of steering
committees. Thanks to the financial and objective language, these
departments can identify themselves to managing structures close to
strategic and operational issues of the CEOs.
Key words
CRM project, IT, business case
« Avec beaucoup de calculs on peut vaincre, avec peu c'est impossible.
46
Ceux qui ne font rien ont peu de chances de victoire ! »
Si le paradigme financier concerne l’ensemble des entreprises tant dans
leur finalité que dans leur mode de communication, il s’avère que le
dispositif argumentatif autour de la création d’un projet CRM reste quelque
47
peu lâche et évasif. « Investir, c’est un projet dans le projet » et peu
d’entreprises appréhendent cette nécessité de formaliser les projets,
notamment ceux qui apparaissent comme créateurs de valeur, tant dans
les modalités de leur réalisation que dans les résultats attendus. Cette
« légèreté » face au projet est une légèreté de confort : tandis que
l’entrepreneur va chercher des fonds pour créer son entreprise, le chef de
projet CRM, lui, peut se contenter d’une argumentation calquée sur les
tendances du moment pour obtenir un budget octroyé par l’entreprise.
Pourtant, la structuration actuelle de l’entreprise en business units,
l’évolution du management vers le mode projet et la transformation des
centres de coûts en centre de profit ont rationalisé et homogénéisé les
modes d’argumentation sur la valorisation financière, celle-ci s’inscrivant
ainsi dans la raison même de l’existence de l’entreprise. En effet, « le CRM
46
Sun Tzu, L'art de la guerre, (400-320 avant J.C.)
CORBEL, Jean-François, Management de projet, Eyrolles Editions d’organisation, 2°
édition, 2007, page 138
47
140
ne peut pas avoir pour seule finalité la satisfaction des clients car l’objectif
de cette politique est d’accroître les ventes et les profits de l’entreprise. Il
faudra de ce fait toujours mettre en parallèle le coût des programmes et
leur retour sur investissement et construire un business case …, c’est à
48
dire un calcul prévisionnel de la rentabilité des investissements. » C’est
cette nécessité d’accompagner l’idéal entreprenarial d’un raisonnement
financier visant à « rassurer » – car le socle même des économies de
marché reste fondamentalement la confiance – et de « fédérer » qui donne
son sens au business case comme outil de communication pour le chef de
projet. Cet outil de calcul de rentabilité prévisionnelle des projets apparaît
49
alors comme « un outil de rationalisation économique des décisions ».
1. Méthodologie
1.1. Les hypothèses
Les hypothèses permettant d’éclairer la problématique sont les suivantes :
1. H1 : « le business case inscrit le marketing dans la problématique
financière et stratégique de l’entreprise »
2. H2 : « le business case inscrit le marketing dans la problématique
managériale de l’entreprise »
3. H3 : « le business case inscrit le marketing dans la problématique
entreprenariale de l’entreprise »
Si cet article vise avant tout à faire œuvre de propédeutique pour la
question du rôle du business case dans le positionnement de la Direction
Marketing par la promotion des projets CRM, c’est une analyse de la
littérature existante et un éclairage par une étude de cas qui vont constituer
le socle de l’argumentation.
1.2. Objet de la présente étude
Tandis que le business plan est réalisé dans le cadre d’une création ou d’une reprise
d’entreprise, le business case est réalisé en amont d’un projet lors des phases
d’opportunité et/ou de faisabilité. Le business case, s’il procède de l’exercice
financier de valorisation n’en reste donc pas moins un outil puissant de
communication autour d’un projet, qu’il s’agisse de promouvoir celui-ci pour
faire valider son financement ou de fédérer les différents acteurs autour de la
nature des gains et des pertes attendues. Aussi prime-t-il davantage pour la nature
des postes qu’il décrit (modèle de gains, réduction de coûts, investissements
48
LENDREVILLE, LEVY, LINDON, Mercator, 8° Edition Dunod, 2006, page 887
MADERS, Henri-Pierre, GAUTHIER, Elizabeth, LE GALLAIS, Cyrille, Conduire un projet
d’organisation, Editions d’organisation, 3° édition, 2004, page 239
49
141
nécessaires) et les hypothèses qu’il pose (évolution du marché, impact sur les
clients) que pour la valeur scientifique de la valorisation.
1.3. Sur les différentes dimensions d’analyse des projets CRM
50
La plupart des ouvrages traitant des projets CRM et des projets SI en
général tendent à occulter les aspects financiers de l’argumentation au
profit des aspects techniques et fonctionnels. On note une prépondérance
de l’argumentation autour des outils de planning (GANTT, PERT…) et du
tableau prévisionnel des charges, tandis que les gains sont déclaratifs et
qualitatifs, leur mesure n’étant pas précisée. Le SI est donc
fondamentalement instrumentalisé et peu présenté comme un choix
51
stratégique , il s’affirme comme « document comprenant le rationnel
économique du projet – il signale pourquoi vous avez besoin du projet, sur
quelles options vous comptez travailler, comment vous le réaliserez et de
52
qui vous avez besoin pour cela » – et comme un outil efficace d’analyse
53
de potentiel de solution SI . Ce phénomène s’explique par la scission
historique et culturelle existant entre les Directions des Systèmes
d’Information (DSI), maîtres d’œuvre, d’avec les maîtrises d’ouvrage mais
également par un positionnement stratégique parfois peu favorable au vu
de celui des Directions Financières et surtout des Directions
Opérationnelles (Directions Métiers), lesquelles sont davantage impliquées
dans le processus de décision ainsi qu’au sein des instances de
gouvernance.
C’est via la modernisation des systèmes et les processus croissants
d’outsourcing que les DSI ont commencé à s’imposer comme promotrices
et génératrices d’une profitabilité nécessaire pour l’entreprise grâce à la
rationalisation des coûts et l’internationalisation de l’information mais grâce
également à la différenciation de plus en plus nécessaire des offres de
services et industrielles – les SI permettant l’ajout de fonctionnalités
informatiques novatrices.
Le choix du projet CRM pour appréhender ce sujet n’est pas anodin car
c’est via le métier du marketing que les DSI ont pu faire valoir leur capacité
à s’inscrire dans une argumentation stratégique portant sur les orientations
marketing-commerciales de l’entreprise, tandis qu’elles restaient en retrait
face aux expertises dans le cadre des systèmes comptables et des
systèmes d’information liés à la production (GPAO, SCM…).
50
SI = Système d’Information
DAYAN, Armand, Marketing B to B, Vuibert, 5° édition, 2002, page 36
52
BUTTRICK, Robert, Gestion de projets 3° Edition Village mondial, 2006, page 94
53
ITRG, Making the Case for Software Acquisition, ITRG, 2003, page 5
51
142
Les projets CRM, pionniers par leur orientation vers les problématiques
centrales de la stratégie (Qu’est-ce qu’un client ? Quelle valeur lui
apportons-nous ? Comment le fidéliser ?) et premiers projets orientés non
plus vers la rationalisation mais vers le développement, ont insufflé un
renouveau de culture financière dans l’entreprise auprès de nombreux
salariés. A travers l’argumentation sur la rentabilité des clients, sur le
besoin de pérenniser le chiffre d’affaires et de segmenter les clients,
l’entreprise a trouvé un nouveau terreau d’argumentation scientifique et
managériale fondé sur les capacités croissantes de la technologie
(architectures légères, réseaux, base de données puissantes, API…) à
soutenir les orientations stratégiques de l’entreprise.
C’est dans ce cadre que s’affirme la réalisation des premiers business
cases liés aux projets SI non plus considérés comme des projets subis et
nécessaires (dans les logiques d’urbanisation, de pérennisation et de mise
aux normes) mais comme des projets volontaristes issus du binôme DSIDirection opérationnelle.
1.4. SFA et CRM : un état des lieux des projets menés au sein des
entreprises
Les retours d’expérience sur les échecs des projets CRM insistent sur les
points suivants : (1) le décalage entre la théorie et la pratique, (une collecte
d'informations pléthoriques pour une exploitation décevante et un
découragement des forces de vente perdant du temps en tâches
administratives de mise à jour de bases de données clients), (2) l’approche
plus défensive qu'offensive (la plupart des projets ayant été davantage
suiveurs qu’innovants), (3) l'obsession de la technologie (au détriment des
aspects fonctionnels et organisationnels), (4) des équipements lourds (d’où
la difficulté à s'assurer d'un rapide retour sur investissement à l'échelle de
l'entreprise), (5) l'excès de personnalisation (à force de différencier les
individus dans des tiroirs bien étiquetés, on finit par toujours leur proposer
la même chose et par passer à côté de besoins qui ne se sont pas encore
exprimés spontanément).
Les années 1990-2001 ont consacré les projets d’implémentation d’ERP et
là où le politique dépasse l’économique, le business case n’a plus vraiment
sa place – ces projets ayant été portés par les contraintes de globalisation
et d’exigence de normalisation et de transparence financière et boursière.
Que ce soit une Direction Générale qui impose l’implémentation d’un outil
pour garantir la confiance de l’actionnariat dans les comptes de la société
ou pour suivre la tendance et rester à un niveau de technologie qui asseye
la crédibilité de la société ou bien une société qui réponde à la contrainte
d’un partenaire ou de l’état, ces situations récurrentes n’imposent plus la
143
nécessité de bâtir une argumentation fondée sur la contribution du projet à
la rentabilité de la société.
Ce sont ces situations qui différencient justement les projets métiers
54
55
56
(CRM , SCM , KM ) des projets de société (ERP), les premiers
répondant davantage à un besoin d’affinement de la stratégie marketing et
commerciale de l’entreprise.
1.5. Distinction entre business case, business plan et budget
Il est important, au sein de la présente étude, de distinguer le business
case du business plan et du budget. (1) Si le business case tend à
ressembler au business plan dans la forme (tableau de flux de trésorerie,
présentation didactique via les objectifs, risques et impacts), il se distingue
par son objet (projet dans une entreprise ou unité existante vs projet de
création/reprise d’entreprise), par son périmètre (analyse de la situation
différentielle via la gestion de scénarios d’ordre micro-économique vs la
projection dans l’avenir fondée sur des données macro-économiques), par
son portage (en interne au sein des instances vs à l’externe auprès des
banques, investisseurs, business angels, fonds privés) ainsi que par ses
orientations financières (choix entre approche comptable ou « trésorerie »
57
vs approche focalisée sur la trésorerie et le BFR ). (2) Si le business case
peut également se rapprocher du budget dans sa fin (prévision des
coûts/moyens/ressources à prévoir, modélisation des gains, document
donnant lieu à des arbitrages), il se distingue du budget par sa dimension
événementielle (ponctuel vs récurrent), par son mode d’élaboration
(unilatéral ou fédératif vs processuel – le processus budgétaire) et par son
orientation financière (choix entre approche comptable et/ou financière vs
approche strictement comptable).
2. Validation de H1 : « le business case inscrit le marketing dans la
problématique financière et stratégique de l’entreprise »
2.1. Le business case suppose des orientations financières fortes
2.1.1.
Le choix du principe de valorisation des flux
Deux modes de valorisation sont possibles lors de l’exercice de valorisation
des postes de gains et de pertes du business case : (1) le mode
comptable : les coûts sont alors des charges que l’on amortit
54
CRM = Customer Relationship Management
SCM = Supply Chain Management
56
KM = Knowledge Management
57
BFR = Besoin en Fond de Roulement (stocks + créances clients – créances fournisseurs)
55
144
(généralement sur 3 ans en linéaires), les charges amorties concernant les
58
investissements software
(licences et éventuellement les j*H de
59
60
paramétrage ), les investissements middleware
ainsi que les
61
investissements hardware , (2) le mode « trésorerie » : les coûts et les
gains sont alors des flux financiers, on considère que tout flux de trésorerie
doit être compté sur l’année de la dépense ou de la recette. Dans ce cas,
le seul exercice d’amortissement concernera l’évaluation du gain ou du
coût fiscal (IS) pour lequel il faudra évaluer l’assiette d’imposition, assiette
comptable prenant en compte le résultat brut – soit les recettes moins les
charges (dont les dotations aux amortissements).
L’avantage de la solution (1) est d’inscrire le projet dans une logique
d’investissement de l’entreprise, c’est à dire que l’ensemble des
investissements est amorti sous forme de charges de dotations, ce qui
62
63
implique un lissage de la courbe d’investissement ; les VAN et TRI sont
peu affectés par ce choix en période de taux de marché et d’actualisation
faibles. L’avantage de la solution (2) est qu’elle s’apparente au business
plan en ce sens que les indicateurs de rentabilité pourront être suivis et
pilotés, l’autre avantage est que cette solution s’inscrit dans une logique de
flux de trésorerie, logique de cash flow chère aux évaluateurs de société
64
ainsi qu’aux actionnaires puisque participant à la création d’EVA . La
seconde solution a également l’avantage, via une courbe d’investissement
fortement marquée, d’être « impactante » : elle montre clairement
l’importance de l’investissement et le flux de trésorerie induit, cela
responsabilise dès lors le sponsor du projet quant à son rôle d’assurer les
gains et de mettre en place des outils de suivi. En effet, la solution 2, étant
plus financière que comptable, a l’avantage de se référer à des flux
traçables de façon tangible - les charges comptables telles que les
dotations n’étant pas, elles, matérialisées par un flux monétaire.
2.1.2.
Le choix des indicateurs et du mode d’actualisation
Le retour sur investissement est communément calculé sur la base de trois
65
ratios principaux constituant le ROI : la VAN, le TRI et le payback. Si de
nombreux auteurs se réfèrent systématiquement à ces indicateurs-clés
58
Software = applications logicielles et progicielles
j*H (jours-hommes) externes ou internes car l’entreprise peut immobiliser sa masse
salariale impliquée sur l’adaptation du système via paramétrage ou développement spécifique
tant que le système n’est pas en production (« immobilisation en cours »)
60
Couche progicielle intermédiaire permettant aux applicatifs de communiquer entre eux
61
Hardware = tous les IT materiel (laptops, terminaux, clavier, périphériques, imprimantes,
serveurs, écrans)
62
VAN = Valeur Actuelle Nette
63
TRI = Taux de Rentabilité Interne
64
EVA = Economic Value Added® (Stern Stewart)
65
ROI = Return On Investment
59
145
jalonnant l’argumentation financière, d’autres comme André Deyrieux
(2003), dépassent la triple dimension financière « VAN/TRI/payback » pour
intégrer le projet informatique dans sa dimension de création de valeur
pour l’entreprise (l’EVA) sachant que le projet informatique devient alors
contributif non seulement pour le client mais également pour l’actionnaire,
l’EVA étant un résultat économique après rémunération de tous les
66
capitaux . Ce lien entre la raison d’être du projet CRM et la raison d’être
de l’entreprise s’accompagne d’un lien entre le projet et la capacité de
l’entreprise à l’assumer pleinement, c’est à dire à exploiter son
67
68
69
investissement : les approches TCO et TVO de Gartner , au-delà d’une
analyse classique coûts/bénéfices, estime la valeur future de l’application
(pour d’autres applications qui naîtront à terme), ainsi que la capacité de
l’entreprise à délivrer une réelle valeur sur la base de l’investissement
(tenant à des facteurs comme : l’alignement stratégique, la prise de
70
risques, le payback direct, l’architecture, les business process) .
La VAN est la somme des soldes actualisés soit la plus-value du projet à
valeur actuelle. Elle constitue un montant en euros et participe d’une
dimension commerciale et créatrice de valeur : la VAN est une somme
pouvant atteindre des millions d’euros, elle « étonne », elle « fait rêver »
puisqu’elle occulte l’hypothèse de durée et de qualité de la rentabilité. La
VAN est une promesse, un « gros lot ». On rappelle que VAN = Σ i=0àn Fi /
n
(1+r) (sachant que Fi = flux annuel de trésorerie de l’année « i » et r = taux
d’actualisation).
Le TRI est le taux de rentabilité du projet en pourcentage. Contrairement à
la VAN, il est plus difficile à appréhender car il est, dans le cas des projets
informatiques, tellement élevé qu’il en paraît « suspect » (des taux de
300% à 700% sont fortement imaginables – notamment lorsque des gains
proviennent de restructurations et bénéficient alors d’un impact « positif »
d’économie de coût de masse salariale). Le TRI correspond davantage à la
logique rationnelle de l’entreprise comme unité d’investissement car
pouvoir évaluer la rentabilité des projets permet au décideur de
hiérarchiser ses investissements et surtout de confronter ses
investissements opérationnels (pour accroître l’exploitation) à ses
investissements financiers (pour générer des produits financiers). En
66
STERN JM, STEWART GB & CHEW DH, The EVA Financial Management System, in
journal of applied corporate finance, summer 1995, vol 8, n°2, pages 43-45
67
TCO = Total Cost of Ownership soit le coût total d'utilisation de l'informatique
68
TVO = Total Value of Opportunity, ce ratio mesure la valeur économique de l'entreprise
générée par l'investissement informatique en tenant compte des problèmes d'incertitude liés
au temps d'appropriation et à la faculté de l'entreprise, selon son organisation, à convertir la
valeur potentielle d'un projet en valeur économique réelle.
69
GARTNER GROUP, Gartner Business Performance Framework™
70
DEYRIEUX, André, Le système d’information : nouvel outil de stratégie, Maxima, 2003,
page 29
146
revanche, certains inconvénients sont reprochés au TRI comme la
surévaluation (puisqu’il suppose que les flux positifs annuels sont réinvestis
au même taux alors qu’ils le seraient sûrement au taux du marché) et
l’impossibilité d’indépendance (il ne peut être un critère de choix à part
71
entière) . On rappelle que TRI = r  VAN = 0.
Le payback est le nombre d’années ou de mois au bout duquel on
récupère sa mise de fond. Cet indicateur intéresse typiquement le
Directeur Financier de l’entreprise puisque plus faible est le payback, plus
vite l’investissement se rentabilise et plus probable le gain en résulte. Le
payback est invariablement corrélé à la vision court termiste de l’entreprise
d’aujourd’hui et à sa conscience des risques. Son inconvénient majeur est
de privilégier la liquidité à la rentabilité, ce qui ne peut que nuire à la
création de valeur à long terme puisque l’exclusivité de cet indicateur laisse
supposer des taux d’actualisation infinis, et de limiter la création de valeur
72
à long terme .
Moins utilisé dans le cadre des business cases, l’indice de profitabilité
(somme des flux actualisés / dépense initiale) tend à privilégier les
incertitudes puisqu’il va favoriser les petits projets à grandes ambitions…
73
En revanche, l’intérêt de ce taux est qu’il renoue avec le suivi du ROCE
(cher aux actionnaires et aux investisseurs) sachant que ROCE = REX/AE
74
= REX/CA x CA/AE , c’est à dire : profitabilité et exploitation des capitaux.
En effet, l’indice de profitabilité indique que les investissements seront bien
exploités, c’est à dire pertinents par rapport à l’activité de l’entreprise.
Selon Buttrick (2006), « les bénéfices consistent à gagner plus d’argent, à
utiliser des ressources et des actifs existants plus efficacement et à rester
dans la course. Les motivations sont souvent définies par des mots tels
que « croissance », « efficacité », « protection », « demande ». Ils reflètent
75
l’éternel centre d’intérêt d’une entreprise. » Le business case devient le
lien entre la raison d’être du projet et la raison d’être de l’entreprise.
Le ROI fondé sur les trois critères « VAN, TRI et payback » gagne donc en
crédibilité puisqu’il devient le langage commun entre les business units
orientées vers le développement et les acteurs financiers – internes et
externes – cherchant à fiabiliser les investissements et à minimiser les
71
GILLET, Roland, Finance : Finance d'entreprise - Finance de marché - Diagnostic financier,
Dalloz, 2003, page 33
72
Ibid
73
ROCE = Return on Capital Employed
74
AE = Actif Economique
75
BUTTRICK, Robert, Gestion de projets, 3° Edition Village mondial, 2006, page 317
147
risques pris par l’entreprise afin de pallier le déséquilibre entre la nécessité
76
des projets et la limitation du capital et des ressources.
La question de ces indicateurs, notamment la VAN et le TRI, pose la
question du choix du taux d’actualisation, celui-ci déterminant le taux
de rentabilité, qui est assimilé (1) au coût de l’argent (coût d’opportunité du
77
capital), (2) au coût du financement, (3) à l’inflation, (4) au taux d’EBITDA
moyen du secteur, (5) à la rentabilité cible de l’entreprise, (6) à une
combinaison des items décrits ci-avant. Ces indicateurs étant pléthoriques,
on leur préfèrera l’assimilation du taux d’actualisation à un « taux de
78
préférence pour le présent sur le futur ». Le business case portant sur
plusieurs années (3, 5, 10), il est important d’actualiser les flux (1) soit au
niveau de chaque poste, (2) soit au niveau du solde. Il apparaît que 5 ans
constituent maintenant une durée maximale pour un business case
sachant que les solutions SI voient également leur durée de vie raccourcie
par des environnements instables et des langages fortement évolutifs.
L’actualisation « poste par poste » doit intégrer l’effet volume (tendance du
marché) et l’effet prix (inflation et tendance haussière/baissière) ; les
postes de masse salariale doivent être inflatés selon la politique RH de
l’entreprise, les postes d’achats et charges externes doivent être inflatés a
minima de l’inflation. Au niveau des coûts, les coûts ne seront pas inflatés
si la valorisation est comptable, tandis que si la valorisation est financière,
l’inflation portera sur les coûts récurrents sachant qu’en cas de coût
contractuel (maintenance, support, hot-line…), ce sont les règles de
révision de prix du contrat qui primeront.
D’autres indicateurs apparaissent dans certains ouvrages comme (1) la VE
(viabilité économique) = gains – coûts, (2) le ROI = ((variation des recettes
+ variations des économies – coûts de fonctionnement) x nombre d’années
/ coût de mise en place) x période, (3) le GER (gain d’efficacité relative) =
rendement prévu / rendement actuel x 100, (4) le rendement = résultat
79
financier / coûts de fonctionnement . Si ces indicateurs sont recevables, il
n’en résulte pas moins que seule la VAN constitue le ratio financier
consacré et communément admis.
Intervient également la probabilité de réalisation des gains : la valeur
d’un projet est certes sa contribution à la rentabilité de l’entreprise mais
76
WOODCOCK, Neil. Customer Management Scorecard : Managing CRM for Profit, Kogan
Page, Limited, 2003, page 163
77
EBITDA = Earnings before interests, taxes, dotation on Amortization
78
POULON, Frédéric, Economie générale 5ème Edition, Dunod, 2005, page 229
79
Conduire un projet d’organisation – Henri-Pierre Maders, Elizabeth Gauthier, Cyrille Le
Gallais, éditions d’organisation, 3° édition, 2004, page 239
148
c’est surtout la probabilité que les objectifs soient atteints qui va lui conférer
la crédibilité nécessaire pour le choix d’investissement. Le calcul de la
probabilité de réalisation peut être intuitif ou quantifié, l’idée principale étant
qu’il est toujours plus aisé d’atteindre les objectifs de réduction de coûts
que des objectifs d’accroissement du chiffre d’affaires (car les réductions
de coûts dépendent davantage des actions managériales tandis que les
augmentations de chiffre d’affaires sont tributaires du marché et autres
80
aléas externes), cette approche probabiliste rejoint la notion de TEI .
Pourtant, la mise en place de ces indicateurs achoppe sur l’exigence
d’empirisme : « en général, les entreprises parviennent assez bien à bâtir
des règles de calcul, trouver les bons indicateurs, démêler les chiffres et
les faire parler. En revanche, ce qui n'est pas suffisamment mesuré, ce
sont les gains qualitatifs : impact sur l'image de l'entreprise, amélioration du
climat social grâce à la réduction des conflits à gérer avec les clients, etc.
Les méthodes et indicateurs manquent encore pour y parvenir alors que le
81
besoin est criant. »
2.2. La problématique de la modélisation des gains
2.2.1.
La difficulté à classifier les gains
Tandis que les coûts inhérents à la mise en place d’un projet CRM au sein
d’une
entreprise
sont
relativement
identifiables
82
(licences/maintenance/développement/paramétrage/formation,
AMOA ,
83
MOE déléguée, coûts de restructuration ainsi que les coûts indirects
administratifs, le coût de l’effet d’expérience, le coût social, les coûts
d’embauche…), les gains, en revanche, sont bien plus complexes à
cerner puisque la plupart du temps en lien avec les problématiques
stratégiques de la valeur client, du réachat et du chiffre d’affaires lissé sur
le temps pour un client fidèle.
Les gains issus d’un projet CRM sont de différentes natures selon les
projets, les clients et les analystes. Plusieurs dimensions se détachent : (1)
tangibles / intangibles, (2) financiers / non-financiers, (3) quantitatifs /
qualitatifs. Il est à noter le caractère binaire du classement des gains : ils
80
TEI = Total Economic Impact. Au calcul traditionnel des coûts et des réductions de coûts
s'ajoutent celui des bénéfices métier et la prise en compte de la flexibilité. Le tout évalué au
travers du prisme de l'incertitude. Une fois le chiffre déterminé, il est réintroduit dans le calcul
du ROI classique.
81
http://www.journaldunet.com : Jérôme DELACROIX (Cooperatique) : "Les méthodes et
indicateurs manquent pour déterminer le ROI d'un projet CRM"
82
AMOA = Assistance à Maîtrise d’Ouvrage Déléguée (maîtrise d’ouvrage externalisée
auprès d’un Cabinet, elle « fait faire », c’est à dire pilote la réalisation du système et le recette)
83
MOE = Maîtrise d’œuvre (elle « fait », c’est à dire développe et teste le système)
149
sont calculables ou non. Ceci est relativement paradoxal pour plusieurs
raisons : (1) le terme « calculable » peut être appréhendé dans un sens
logique (A + B = C), scientifique (A + B = C, mais A n’est pas forcément
vrai ou seulement probable donc C n’est pas une réponse recevable) ou
éthique (A + B = C mais A ne doit pas être calculé), (2) le terme
« financier » est complexe à identifier car ce terme peut être admis dans sa
dimension comptable (frais financiers dans le compte de résultat) ou
« trésorerie » (flux financier), (3) le « qualitatif » peut être « quantitatif » à
l’heure où la pollution, la corruption… sont chiffrés par des organismes
internationaux, charge à l’entreprise d’investir en outils et en ressources
pour savoir poser ses hypothèses et, dès lors, parvenir à chiffrer le
qualitatif. Rappelons en effet que « les bénéfices tangibles sont souvent
ceux qui sont les plus difficiles à traiter… pour certains managers, tous les
bénéfices doivent être tangibles, et si un projet n’en a pas, alors il ne doit
84
pas être entrepris »
Apparaît également la classification des gains selon les axes « quantifié » /
« validé », ce qui présente l’avantage de différencier les moyens des
résultats et d’extraire le business case de son rôle d’outil de gestion vers
celui d’outil de pilotage managérial. Les gains sont alors : (1) les bénéfices
85
quantifiés et validés dans le cas financier (ventes additionnelles et CA de
nouveaux produits), (2) les opportunités identifiées, non quantifiées et/ou
validées (simplification de procédures douanières et réglementaires), (3)
les bénéfices quantifiés non financiers (taux de satisfaction client), (4) les
bénéfices non financiers non quantifiés (augmentation de l’efficacité
86
commerciale par motivation des vendeurs).
De même, « utiliser le terme de « bénéfices non-monétaires » dans une
pièce remplie d’examinateurs ne peut qu’affaiblir le soutien donné à votre
business case. « Non-monétaires » signifie que soit les bénéfices sont peu
probables, soit que personne ne sait quelle valeur financière leur accorder.
Certaines personnes estiment en fait que seuls les bénéfices
« monétaires » comme les épargnes de coûts, les coûts évités et les flux
de trésorerie en hausse constituent le dossier financier. Il est plus sage, je
crois, de considérer que toute contribution à un important objectif financier
87
est un bénéfice en soi, et appartient au business case. »
En fait, l’unique dimension qui permettrait de différencier les gains serait la
probabilité qu’ils surviennent. Cet exercice actuariel permettrait
d’identifier les gains probables (car liés à des actes managériaux comme le
licenciement, la restructuration, l’augmentation tarifaire, la substitution d’un
84
BUTTRICK, Robert, Gestion de projets, 3° Edition, Village mondial, 2006, page 320
CA = Chiffre d’Affaires
86
http://www.tracenews.info
87
Ibid.
85
150
coût par un autre moins élevé…), les gains moins probables (volumes
cibles, corrélation entre CA et fidélité…). Cette unique dimension
permettrait alors de simplifier la question du classement des gains
puisqu’un coefficient pondérateur minimiserait alors certains gains par leur
probabilité faible. Dans ce cas, les natures de gains n’auraient plus lieu
88
d’être et le débat managérial autour de la recevabilité du business case
deviendrait un « faux problème » ou, du moins, une question toute relative.
Outre la dimension de la probabilité, une autre dimension est applicable à
la réflexion sur la nature des gains : la proximité. En effet, les gains sont
plus ou moins imputables au projet, on peut alors parler de gains directs et
indirects voir de retombées positives. Ce niveau de causalité directe du
gain pourrait également donner lieu à l’exercice d’une pondération.
2.2.2.
La déclinaison des gains comme augmentation de recettes
Le business case évalue d’une part les impacts positifs du projet à
l’externe : (1) impacts sur la satisfaction client (le client est mieux servi,
mieux appréhendé, il est dès lors valorisé et apprécie l’entreprise ainsi que
la constance de son traitement d’après un esprit de justice et de justesse,
un client satisfait devient prescripteur et dès lors commercial de
l’entreprise), (2) impacts sur la valorisation de l’entreprise
(l’investissement dans un projet CRM rassure les investisseurs quant à
l’effort produit par l’entreprise en termes de dynamisme commercial et,
partant, de garantie de pérennité et de rentabilité), (3) impacts sur l’image
de l’entreprise alors renforcée par le projet (image de technicité, de
dynamisme, de réactivité au changement, d’entreprenariat) et d’autre part
les impacts positifs du projet en interne : (1) impacts sur la satisfaction du
personnel (le personnel se sent valorisé par le fait de participer à un
projet : sentiment d’être écouté et de bénéficier de ses résultats (d’où un
gain en efficacité et un sentiment de professionnalisation), (2) impacts sur
le management : possibilité de mettre des collaborateurs en situation de
contribution à un projet, d’encadrement d’où possibilité de détecter les
potentiels, (3) impacts sur l’image des Directions Marketing-Vente au
sein de l’entreprise (image renforcée par le projet : image de technicité, de
dynamisme, de réactivité au changement, d’entreprenariat).
Corrélativement, un projet CRM influe sur la valeur client par différents
biais : la pérennisation de la valeur client, la fidélisation (système de points,
liste de privilèges…), la rétention financière (compte client, facilités de
paiement), l’augmentation et l’amélioration des contacts avec les clients
(offres personnalisées). De plus, le projet CRM étoffe la valeur client
88
On entendra par « recevabilité », la recevabilité logique du business case mais pas
forcément sa capacité à être voté
151
(élargissement du périmètre d’achat du client via les offres modulaires et
intégrées, élargissement du potentiel d’achat du client et vise une
customisation de l’offre : offre personnalisée, reprise des données
historiques et caractéristiques, offre intégrée et modulaire, pricing réactif,
politique immédiatement appliquée par SI). L’ensemble de ces postes de
gains doit être considéré lors de l’exercice de modélisation et de chiffrage
du business case.
2.2.3.
La déclinaison des gains comme économies de coûts
Tout d’abord, lorsqu’un chiffre d’affaires additionnel est attendu (CA
additionnel dû à de l’up-selling, du cross-selling, un nouveau
positionnement prix, une amélioration du taux de pénétration, de
couverture ou de conversion…), il faut valoriser la marge qu’il rapporte
(puisque le CA additionnel va drainer, de fait, des coûts additionnels). La
marge valorisée sera (1) brute, (2) opérationnelle ou (3) nette (savoir si le
business case doit présenter un solde équivalent à une marge
89
commerciale, opérationnelle, brute, nette ou un EBE constitue un autre
axe d’orientation financière ; le plus important étant de choisir un indicateur
pertinent, intuitif et exploitable pour les opérationnels) et il s’agira de
mesurer les économies d’échelles potentiellement réalisables sur des
volumes plus importants (coûts variables liés au CA additionnel) ainsi que
les éventuels paliers supplémentaires de coûts fixes qui vont être franchis.
Ensuite, le calcul du CA additionnel se fonde sur une extrapolation à
partir de l’historique des ventes, lequel a pour principales
caractéristiques : (1) de ne se composer que de valeurs connues et
calculées, le business case se fondant sur du réel stable, (2) d’être
représentatif de ce que l’on cherche à calculer (différence entre entrée de
commande et vente), (3) d’être homogène dans le temps (stabilité des
méthodes de calcul et des périmètres), (4) de comprendre un nombre
minimal d’observations (dans une activité à forte saisonnalité, l’historique
doit être de 4 ou 5 ans, de 3 ans pour des prévisions à 6/12 mois). Les
calculs de base sont : (1) la moyenne (de préférence mensuelle en
contexte de forte saisonnalité, mieux vaut la coupler avec l’écart-type pour
analyse de significativité, est parfois préférée la médiane car plus
représentative du réel) et (2) la dispersion (variance, écart-type et
coefficient de variation : prévisions faciles pour un coefficient de variation
inférieur à 0,5).
Les analyses à effectuer sur l’historique avant tout calcul sont (1) la
détection des valeurs anormales (détection par intuition, par intervalle de
89
EBE = Excédent Brut d’Exploitation
152
confiance, par test de moyenne, par régression), (2) la correction des
valeurs anormales (correction humaine, par intervalle de confiance, par
reprise de valeur t-1), (3) la détermination d’une tendance (droite de
tendance par moyenne mobile ou par régression), (4) la détection des
saisonnalités (tests de saisonnalité, observation en t et t-1, correction de
jours ouvrables, calcul de la moyenne de la série corrigée des variations
saisonnières).
Les principes du lissage sont (1) la dévalorisation croissante de
l’information (plus une information est ancienne, moins il faut lui accorder
l’importance dans le calcul de la prévision), (2) la synthèse des
informations (mieux vaut effectuer des calculs prévisionnels sur un nombre
restreint de valeurs déjà condensées), (3) la réactualisation permanente
des paramètres (les paramètres sont repris selon la même périodicité que
celle de l’arrivée des informations). Corrélativement, peuvent être
appliquées les méthodes de lissage exponentiel telles que (1) le lissage
simple (formule simple mais défaillance lors de l’existence d’une tendance,
ce qui est courant dans les cycles économiques de vente), (2) le modèle
de Brown (lissage double : cette formule permet d’assimiler la notion de
tendance mais conserve l’écart temporel entre réalisation et prévision et
tend à amplifier fortement la tendance liée à la dernière observation), (3) le
modèle de Holt-Winters (modèle le plus utilisé dans la prévision des
ventes, le lissage de Holt-Winters présente l’avantage d’intégrer une
composante saisonnière et donc de réaliser le calcul de la prévision en un
90
seul traitement ).
Enfin, la méthode d’analyse de corrélation peut avoir lieu après les
simulations et permet de justifier les anticipations effectuées notamment au
niveau des gains potentiels, via (1) la corrélation (mettre en œuvre un
projet influe sur le niveau des ventes ; une causalité est donc à définir en
terme d’impact sur les volumes et dans le temps en tant que facteur
additionnel ou multiplicateur) et (2) le coefficient de corrélation linéaire qui
permet, non d’établir une causalité, mais pour le moins d’observer une
convergence des tendances (une corrélation est significative entre 0,7 et 1
et entre -0,7 et –1). Les tests de corrélation permettent, a posteriori,
d’évaluer la cohérence entre les coûts induits par un projet et
l’augmentation des ventes qui en découle (augmentation nette épurée de la
tendance globale hors projet).
La diversité des indicateurs de la performance financière du projet et des
méthodes d’évaluation des gains qui lui sont liées permet de valider, dans
90
EVANS, Michael, Practical Business Forecasting, Blackwell Publishing, 2002, page 203
153
le cas présent du projet CRM, l’implication du Marketing dans les
problématiques financières et stratégiques de l’entreprise (soit H1).
3. Validation de H2 : « le business case inscrit le marketing dans la
problématique managériale de l’entreprise »
3.1. Le business case comme multiplication des possibles
Le business case n’est pas une simple prouesse mathématique et
rhétorique, il constitue la somme des spéculations qui permettent au chef
de projet CRM d’accompagner le Comité Exécutif dans son exercice de
projection dans l’avenir, c’est à dire de visibilité sur la pérennité de
l’exploitation.
3.1.1.
La novation comme fondement du business case
La créativité est un principe de réussite du business case. Elle permet de
composer des scénarios divers au vu d’une situation donnée, or un bon
business case doit ouvrir l’univers des possibles afin de permettre aux
instances décisionnelles (1) de balayer l’ensemble des solutions pour
91
choisir la meilleure, (2) d’anticiper les gains, savings , risques et coûts
probables, (3) de faire des prévisions à long terme (en développant leur
esprit d’anticipation) et (4) de mieux définir les solutions pour mieux les
apprécier.
La novation passe par une ouverture cognitive de l’entreprise dans
son exercice de modélisation comme : (1) le « brainstorming », (2) le
« benchmarking », (3) la « veille technologique » (Business Intelligence,
Intelligence Economique). Elle constitue un des leviers de négociation qui
permet d’aboutir à un accord. En effet, la novation « procède d’une
transformation du problème, objet de la négociation, préfigurant ainsi les
92
conditions d’une résolution créative de la divergence. » il en résulte que
le business case, lorsqu’il est novateur, peut redéfinir les modalités
d’appréciation des projets par le Comité de Direction.
Le business case force également le chef de projet à « challenger » les
93
capacités de l’entreprise (« capabilities » dans le texte), c’est à dire ses
moyens, ses actifs. Le business case défie alors l’entreprise dans
91
savings = économies de coûts
BELLENGER, Lionel, La négociation, PUF, 1984, page 23.
93
Bligh, Philip, CRM Unplugged : Releasing CRM's Strategic Value, Hoboken, John Wiley &
Sons, Incorporated, 2004, page170
92
154
l’exploitation de son potentiel capitalistique et humain au service de
l’accroissement de son activité.
3.1.2.
La gestion de scénarios
L’élaboration du business case doit être déclinée selon différents
paramètres (les hypothèses). En effet, le business case s’inscrit dans la
tendance actuelle de gestion de scénarios. Apparue au sein des pratiques
managériales au fil de la complexification de l’environnement concurrentiel,
cette gestion de scénario répond aux théories du chaos, c’est à dire aux
principes d’autonomisation, de flexibilisation, de projection temporelle et
94
stratégique de l’entreprise , à la vision du manager comme « bricoleur /
95
arrangeur / ajusteur » , au principe de plasticité face à l’univers des
96
possibles
et aux théories évolutionnistes de l’entreprise post97
hiérarchique . Concomitamment, le Risk Management apparaît comme
une dimension incontournable du pilotage de l’entreprise – mais également
des projets SI – via les principes de la gestion de portefeuille de risques et
de gestion de crise. Le risque n’est plus un aléa effrayant mais un véritable
outil de différenciation en univers concurrentiel. Haimes (2005) distingue
notamment le risque technique (de ne pas atteindre les critères de
98
performances attendus) du risque programmatique (de dépasser le
budget ou de ne pas tenir le planning) liés aux projets SI.
Au-delà de cette déclinaison de l’avenir en différentes situations à affronter
(ou, du moins à appréhender), est apparue la notion de « scénario
catastrophe », lors de l’élaboration des business cases présentés aux
Comités de Direction afin de les rassurer quant à l’existence d’un plan de
sauvetage qui prouve la capacité de l’entrepreneur à se préparer au pire.
La logique de scénario permet de challenger les solutions potentielles tout
en rassurant les instances décisionnelles sur le fait que l’ensemble des
possibilités a bien été balayé.
3.2. L’approche pragmatique et opérationnelle du business case
94
LAZLO, Christopher & LANGEL, Jean-François, La dynamique du chaos, Editions
d’organisation, 1998, page 17.
95
BADOT, Olivier, Turbulence, chaos et décapitalisation sur le futur, in Stratégies
d’Incertitude, dirigé par Bernard Cova et Sylvain Ickham, Economica, 1996, page 55
96
PAILLARD, J, Réflexions sur l’usage du concept de plasticité en neurobiologie, in Journal
de Psychologie n°1, janvier-mars, 1976
97
MILLS, Quinn, L’entreprise post-hiérarchique, InterEditions, 1994, page 69
98
HAIMES, Yacov Y. Risk Modeling, Assessment, and Management, John Wiley & Sons,
Incorporated, 2005, page 596
155
Si le business case rassure car répondant aux exigences
épistémologiques de scientificité et d’éthique de recherche (qualité
des sources, jeu des hypothèses, analyse des scénarios), il ne constitue
pas pour autant une panacée au niveau managérial et surtout au niveau de
la réalisation du scénario choisi. En effet, « La rationalité de la décision ne
favorise ni la motivation, ni l’engagement des acteurs, mais à l’inverse
l’enthousiasme ne garantit pas le succès. Pris entre les exigences
contradictoires de la rationalité de la décision et de la rationalité de l’action,
le manager doit donc éviter, tout à la fois, de se fourvoyer par inadvertance
et de s’enliser faute d’énergie. Autrement dit, un processus de décision,
pour être effectif, doit articuler de façon équilibrée rationalité de la décision
99
et rationalité de l’action. »
3.2.1.
Les logiques comparatives et différentielles
Il est important de noter que le business case n’est ni une fin en soi, ni un
outil objectif permettant d’affirmer ce que va être la réalité. Le business
case ne vaut que s’il permet de comparer des situations : (1) soit comparer
la rentabilité des projets au sein d’un portefeuille de projets, (2) soit
comparer les différents scripts de réalisation d’un même projet (des
« variantes »). C’est lorsqu’il sert d’outil comparatif que le business case
gagne tout son sens puisque, les hypothèses et les modes de valorisation
étant similaires, les écarts deviennent plus exploitables que les résultats
eux-mêmes et deviennent des indicateurs permettant de piloter l’activité
projets (hiérarchiser les projets au sein du portefeuille, arbitrer entre des
solutions internes ou outsourcées).
Deux logiques différentielles sous-tendent l’élaboration du business case :
(1) la logique différentielle de gestion et (2) la logique différentielle de
situation. (1) Le business case se départit du compte de résultat puisqu’il
n’intègre pas l’ensemble des produits et charges de l’entreprise mais
uniquement le différentiel des produits et des charges induits par le projet
(les gains et les pertes supplémentaires), il en résulte que le business case
favorise l’analyse des charges et des produits d’exploitation (vs financiers
ou exceptionnels). (2) Le différentiel doit non seulement avoir lieu entre la
situation cible par rapport à la situation actuelle mais ce différentiel doit
perdurer dans le temps, ce qui suppose avant tout exercice d’élaboration
de business case, la valorisation du scénario « S0 » : « comment
évolueront les gains et les pertes si le projet n’a pas lieu ? » Toute
valorisation du scénario S sur x années sera donc le différentiel entre les
gains et les pertes de S – S0 sur les x années.
99
BRUNSSON, Nils, « Concevoir, dire et faire : Éloge de la déliaison », in CHARREIRE,
Sandra, Les grands auteurs en management, EMS Editions, 2002, page 186
156
En effet, les questions centrales de la logique différentielle perdurent : « Si
l’entreprise ne réalise pas ce projet, sa valeur économique de marché va-telle décroître et de combien ? Sa baisse de valeur va-t-elle se produire
100
dans six mois, un, deux, cinq ans ? On notera le caractère permanent de
ces questions qui rappellent que le changement devient l’unique
réponse pérenne que l’entreprise peut apporter à l’accélération des
évolutions du monde et des marchés sur lesquels elle intervient.
L’analyse différentielle correspond à la vision organiste et biologique de
l’entreprise. C’est en ce sens que Sharp (2002) énonce que la mesure du
101
ROI doit être une activité continue (« ongoing » dans le texte).
3.2.2.
de l’outil théorique à l’outil de pilotage
Le business case n’est ni « pur scientifiquement », puisque empirique et
pragmatique (il s’agit de produire de l’information probable en tentant de la
contextualiser au maximum à travers des hypothèses et des risques) ni «
figé temporellement » (il doit être réajusté au fil du temps, des événements
et des informations entrantes). Outil de communication et de préparation
de la décision, il doit être alimenté en informations, ce qui nécessite un
esprit de recherche et d’investigation auprès des autres services de
l’entreprise et auprès de sources externes.
Son suivi doit se faire de deux façons : via (1) le suivi des moyens et (2) le
suivi des résultats. (1) Le suivi des moyens doit vérifier qu’à isopérimètre
les mesures managériales ont été prises conformément à ce qui était prévu
dans le business case (augmentation ou réduction d’effectifs, négociation
des contrats (licences, maintenance, prestation), abandon des processus
antérieures et bonne application des processus cibles, nouveau
positionnement prix). (2) Le suivi des résultats doit vérifier que les
prévisions de gains et de pertes additionnels se réalisent. Via la
comptabilité analytique et via le lissage des effets volumes ou prix non
induits par le projet, le contrôleur de gestion doit pouvoir suivre la
contribution du projet à la rentabilité de l’entreprise. Le suivi des résultats
peut également être d’ordre qualitatif (enquête de satisfaction clients,
panier moyen, fidélisation, enquête de satisfaction salariés, notoriété…).
Dans ce cas, le même exercice de lissage des résultats sera à mener.
100
http://www.tracenews.info (Propos recueillis de Jean-Luc LEBASCLE Professeur au
Mastère International Logistique de l’ESSEC, Directeur Associé du Cabinet ASCA –
LOGINOV)
101
SHARP, Duane, E. Customer Relationship Management Systems Handbook, Boca Raton,
FL, USA: Auerbach Publishers, Incorporated, 101 http://www.tracenews.info (Propos recueillis
de Jean-Luc LEBASCLE Professeur au Mastère International Logistique de l’ESSEC,
Directeur Associé du Cabinet ASCA – LOGINOV)
2002, page 226
157
A noter que le pilotage et le suivi de la réalisation du business case
demeurent délicats – (1) la transversalité complexifie le suivi des gains
et le pilotage (les données concernant les coûts des investissements sont
connues du DSI, alors que les données relatives aux revenus ou à la
valeur du système d’information sont éparpillées dans un grand nombre de
102
processus et appartiennent aux business units ), (2) ces projets ne
cadrent pas avec la logique budgétaire (ils sont potentiellement décalés
par rapport aux exercices comptables et aux processus budgétaires), (3)
les entreprises menant plusieurs projets de front, il devient alors très
103
difficile d’isoler les gains liés au projet . Enfin, il apparaît que « les
critères quantitatifs de retour sur investissement ont malheureusement plus
été des éléments de justification du projet CRM, vite oubliés lors de la mise
104
en oeuvre. » le jeu entre théorie et pratique continue d’alimenter le doute
quant à l’exploitabilité du business case par les opérationnels.
La validation de l’hypothèse 2 s’inscrit dans la pensée du risk management
de Cleary (2006) qui lie fondamentalement risque, retour sur
investissement, innovation et incertitude et qui stipule que « la volonté
d’assumer des risques a tiré le progrès humain vers le haut mais la
capacité d’évaluer et de gérer correctement des risques n’est devenue une
105
préoccupation que depuis trois cents ans environ.
»
4. Validation de H3 : « le business case inscrit le marketing dans la
problématique entreprenariale de l’entreprise »
4.1. Le business case comme paradigme argumentatif
Un site Internet de prestations de formation pour élaborer des business
case pour des projets SI relate ceci : « Ceux qui participent à nos
séminaires Business Case nous parlent souvent des commentaires
acerbes qui leur sont faits : « Vous avez omis d’importantes unités de
coûts », « Votre dossier est presque entièrement fondé sur des bénéfices
non-monétaires », « Les résultats auxquels vous arrivez dépendent
106
d’affirmations hasardeuses et risquées » ».
102
DEYRIEUX, André, Le système d’information : nouvel outil de stratégie, Maxima, 2003,
page 24
103
DELAFARGUE, Bertrand, Repenser le pilotage de l'entreprise : Réconcilier la vision
stratégique et l'action, Paris, Maxima, 2006, page 75
104
SAINT CAST, Nicolas. Organiser sa relation client aujourd’hui : Le CRM nouvelle manière,
Maxima, 2003, page 67
105
CLEARY, Sean, Risques : Perception, évaluation, gestion, Maxima, 2006, page 18
106
http://fr.solutionmatrix.com
158
Cette énumération de reproches et de questions n’est pas sans rappeler le
processus d’évaluation scolaire d’un raisonnement hypothéticodéductif. Ce caractère didactique et scientifique du business case
s’affirme d’autant plus à travers l’exigence de la qualité et de la recevabilité
des données sources : l’ITRG (2003) qualifie l’établissement des gains
107
comme un travail précis, juste et exact
(« accurate » dans le texte),
réalisable (« attainable » dans le texte) et applicable à l’organisation.
4.2. Le business case comme levier politique et diplomatique
L’IRTG (2003) pose la question du moment propice pour la
108
présentation du business case face à un Comité Exécutif
en
expliquant que l’exposé du business case au début de la présentation tend
à « élever » le débat puisqu’il aura attrait aux problématiques marketing de
positionnement, de segmentation et de lancement produit tandis que
l’exposé en fin de présentation tend à mettre en avant la solution SI
préconisée pour le projet. Il en résulte une dimension politique et
diplomatique du business case qui, selon l’utilisation que le manager peut
en faire, va tantôt lui permettre de capter l’attention du Comité a priori en
l’abordant sur le thème de la création de valeur, tantôt lui permettre de
renforcer son argumentation a posteriori.
4.2.1.
Le business
transversalité
case comme acte
d’ouverture et
de
La transversalité nécessaire du business case force le chef de projet à
s’ouvrir aux autres Directions de l’entreprise. Les postes de gains et de
pertes doivent être discutés voire négociés, ce travail doit fédérer ou
définitivement mettre en lumière les dissensions afin de faciliter les
arbitrages. L’avantage de cet exercice est que plus les objectifs, les risques
et les postes de gains et de pertes vont être partagés et affinés par les
Directions, plus le périmètre du projet sera clair (ce qui n’est pas sans
conséquence sur sa probabilité d’aboutir) et plus l’adhésion et la mise en
production sera facilitée car portée par la ligne managériale.
C’est en ce sens que le business case est une approche structurante se
rapprochant de la normalisation ISO, puisque chaque poste de gains et/ou
de coût nécessitera un pilote dont le rôle sera de vérifier que les moyens à
déployer pour accompagner le projet et les résultats escomptés sont bien
là. En extrapolant, il est possible de re-situer le business case dans
107
108
ITRG, Making the Case for Software Acquisition, ITRG, 2003, page 4
Ibid
159
l’approche budgétaire six sigma comme préalable objectivant à toute
109
action d’amélioration au sein de l’entreprise.
4.2.2.
Le business case comme langage objectivant partagé
entre tous les maillons de la hiérarchie
Le business case se fonde sur les principes de la dialectique (hypothèse,
argumentation, résultat) et permet ainsi de donner toute une consistance et
un caractère imparable au discours managérial qui gagne en objectivité et
en universalité à quelque maillon hiérarchique que ce soit (associé,
directeur, manager, employé) et dans quelque domaine que ce soit
(opérationnel, managérial, social).
« L’accent mis sur la performance financière du système d’information
demande que le DSI endosse aujourd’hui un nouveau rôle. Aux États-Unis,
110
non seulement la majorité des CIO reportent aux CFO (Chief Financial
Officer) mais certaines entreprises mettent un financier au poste de CIO.
Une grande entreprise sur cinq n’hésite pas à créer la fonction de CFO du
département IT. Ceci dans le but affirmé de rationaliser les dépenses en
technologies de l’information, mais aussi d’améliorer la communication
111
entre le CIO et les business units. » Ce rapprochement entre SI et
Métiers s’inscrit dans un mouvement plus général de vulgarisation de
l’informatique au sein de la société. En spécifiant que 78% des
consommateurs sont susceptibles de cesser leurs achats au sein d’un
112
magasin victime d’intrusions informatiques , Mac Nulty (2007) met le
doigt sur un phénomène notable qui renforce les liens entre le
consommateur et l’entreprise : leur maturité par rapport à l’informatique en
général. L’informatique orientée vers les particuliers a désacralisé
l’avantage technologique que l’entreprise conservait sur le client, d’où le
besoin constant d’innover afin de préserver ses atouts différenciateurs pour
une entreprise sur son marché. Ce phénomène accentue le besoin de
hisser l’informatique à un niveau stratégique au-delà même des
questions de sécurité et de continuité de l’exploitation, c’est à dire comme
facteur différenciant et créateur de valeur pour l’offre et le client.
Le DSI devient donc un facilitateur d’innovation mais confie parfois le choix
final à une Direction Opérationnelle porteuse de cette innovation sur le
109
PILLET, Maurice, Six Sigma, Comment l’appliquer, Editions d’Organisation, 2004, page
411
110
CIO = Chief Information Officier
111
DEYRIEUX, André, Le système d’information : nouvel outil de stratégie, Maxima, 2003,
page 26.
112
McNULTY, Eric, Harvard Business Review sept.-07,vol 85 n°9, Boss, I think Someone
Stole Our Customer Data, Pages 37-50
160
marché : « l’important est d’amener les utilisateurs à élaborer une liste de
critères, à les hiérarchiser, et donc à effectuer un premier classement des
offres sur la base de données objectives : le DSI n’a plus la prérogative du
choix final. Grâce à cette approche méthodologique, les choix reviennent à
113
ceux qui vont mettre en oeuvre les projets, et les utiliser. »
Une limite à cette interaction entre les instances dirigeantes et les chefs de
projets est soulignée par Berdugo (2004) qui entrevoit la méfiance que
pourrait ressentir le dirigeant de l’entreprise face aux outils financiers
présentés par la DSI : « bien qu’utile, cet outil semble voué au
scepticisme : des dirigeants d’abord, habitués à voir l’informatique comme
un instrument, et des financiers ensuite, qui pourraient y voir une
114
manœuvre destinée à donner une fausse impression d’excellence. » Le
terme d’excellence fait d’ailleurs référence à la dimension sociale des
milieux financiers dont l’ésotérisme des méthodes et calculs est à mettre
en regard avec l’ésotérisme technique et technologique des DSI.
4.2.3.
Le business case comme outil de création d’entreprise
Si le business case et le business plan s’opposent sur certains aspects (Cf.
partie 1.4), il apparaît, en revanche, que ces deux pratiques managériales
répondent à la même exigence d’esprit entreprenarial : « S’il est important
ou très novateur par rapport au métier habituel de la firme, un projet
nouveau à l’intérieur d’une entreprise déjà existante impose les mêmes
115
exigences et contraintes qu’une création pure d’entreprise ». Cela
signifie que le stress et l’incertitude interviennent dans cet exercice de
projection temporelle en avenir incertain. Poulon (2005) analyse la fonction
du doute dans la décision d’investissement en opposant son caractère
impalpable et indéfinissable à l’exercice objectivant et scientifique du
business case : « la « fonction d’anticipation » des entrepreneurs est
fondamentale puisque c’est elle qui commande l’investissement. Mais
vouloir la connaître avec précision est une gageure, parce qu’elle nous
plonge au plus profond de l’incertitude qui pèse en réalité sur les
entrepreneurs quand, en leur âme et conscience, ils choisissent leurs
investissements en s’aidant finalement beaucoup moins de la raison que
de ce que Keynes appelait leurs « animal spirits », c’est-à-dire tout
simplement leur « flair ». La formation des anticipations est donc, par
nature, secrète, ancrée dans la subjectivité des entrepreneurs ; elle dépend
du tempérament propre de chacun : un entrepreneur ayant le goût du
risque ne fera point la même anticipation qu’un entrepreneur ayant peur du
113
BERDUGO, Alain (sous la direction de), Challenges pour les DSI : L’art du management
des systèmes d’information, Dunod, 2004, page 112
114
Ibid, page 108
115
MOSCHETTO, Bruno Laurent, Le Business Plan, Economica, 2001, page 19
161
116
risque. » d’où le rôle fondamental de la confiance dans l’appréciation et
la communication sur le business case de la part de tous les acteurs
concernés par cet exercice.
4.2.4.
Le business case comme socle de confiance
La mention suivante : « Après tout, le dossier est censé rendre confiante
votre équipe de management, faire en sorte qu’elle reconnaisse votre
117
projet comme étant une bonne décision financière » souligne bien le lien
financier-confiance. Confiance ayant trait à la foi (fiance) se rapproche du
« fiduciaire », de la « créance », c’est pourquoi le paradigme financier
scandant l’argumentation sur les projets managériaux devient légitime et
accepté. Selon Haimes (2005), le management doit créer un
environnement qui favorise la confiance car seul celle-ci permettra la libre
118
apparition des informations nécessaires à la maîtrise du risque .
Le capitalisme reste fondamentalement lié à la confiance (l’investissement
se porte là où il est sécurisé et les économies se développent via la
coordination des banques, assurances et bourses dans une logique de
création de valeur industrielle et financière) et l’entreprise reflète ce
schéma via la confiance organisationnelle qu’elle suppose pour
fonctionner. Cette confiance « ne tient que tant que le bilan des avantages
119
et des inconvénients de la participation à l’action collective est positif
»,
c’est à dire qu’elle est le lien entre l’acteur et l’organisation à laquelle il
adhère, d’où le système complexe de reconnaissance au sein de la
structure, du pouvoir et du désir, des croyances et symboles, d’où,
également, un acteur dont « la capacité de raisonnement est mise en
cause et en jeu par le processus conflictuel d’accès à la reconnaissance
120
sociale. »
Le projet n’est qu’une sous-partie de ce système qui vit de la confiance
qu’il suscite auprès des clients, des collaborateurs et des actionnaires. Le
langage joue alors un rôle clé dans la construction de l’entreprise comme
organe rationnel (logos, comme raison et langage) de la création de valeur
et de la réactivité de la structure en environnement instable : « un bon
système de communication doit pouvoir permettre aux membres du
116
POULON, Frédéric. Economie générale 5ème édition, Dunod, 2005, page 223
117
http://fr.solutionmatrix.com
118
HAIMES, Yacov Y, Risk Modeling, Assessment, and Management, John Wiley & Sons,
Incorporated, 2005, page 599
119
THUDEROZ, Christian, MANGEMATIN, Vincent & HARRISSON, Denis, La confiance,
approches économiques et sociologiques, Gaëtan Morin Editeur, 1999, page 50
120
SAINSAULIEU, Renaud, L’identité au travail, Presses de Sciences Po, 1988, page 343
162
121
groupe un contact rapide. » Le chef de projet doit faire sien ce langage
122
pour inspirer confiance – car le business case sécurise (« secure » dans
le texte) la Direction Générale et les actionnaires – mais également pour
avoir lui-même confiance en son auditoire, car c’est via ce langage que le
Comité de Direction aura tous les éléments pour pouvoir réagir
spontanément et donc honnêtement. Diego Gambetta (1999) insiste sur
123
cette réciprocité de la confiance (entre agents interagissants)
et le
business case apparaît alors comme un support de discussion entre un
entrepreneur et un investisseur.
L’implication de la Direction dans les projets et dans les business cases est
soulignée par Bouquin (2005) : « le dirigeant, en contrepartie, doit s’imprégner
des chiffres, du modèle économique qu’ils traduisent malgré le caractère ingrat
d’une telle tâche que « personne ne peut faire pour vous ». Cette implication
personnelle est aussi la meilleure garantie de la qualité des données qui
124
remontent à la direction.
Cette dimension de la confiance répond à celle de
125
l’indépendance : « le calcul du ROI doit se faire en toute indépendance ».
Ce maillage social du chef de projet CRM, du dirigeant et de l’actionnaire
confirme la Direction Marketing dans sa dimension managériale (H3).
5. Analyse du cas pratique « élaboration d’un business case dans le
cadre de l’implémentation d’un outil CRM dans un secteur
industriel mature »
5.1. Le contexte
126
La Société Laribert (1000 salariés) intervient dans le secteur de location
et d’entretien de matériel industriel à destination des acteurs industriels et
logistiques français (pour un CA d’environ 200 millions d’euros)
La force de vente s’élève à 45 commerciaux répartis sur 7 zones de vente,
chacune étant dirigée par un chef de vente. Le back-office commercial se
compose de 18 personnes.
La Direction Marketing compte 10 personnes dont 4 chefs de produits.
L’offre de location-maintenance du matériel est complexe puisqu’elle fait
intervenir bon nombres d’acteurs en transverse :
121
BERNOUX, Philippe, La sociologie des organisations, Editions du Seuil, 1985, page 121
ITRG. Making the Case for Software Acquisition, ITRG, 2003, page 5
123
BOUDON, Raymond, BESNARD, Philippe, CHERKAOUI, Mohamed, LECUYER, BernardPierre, Dictionnaire de Sociologie, Larousse, 1999, page 42
124
BOUQUIN, Henri (dirigé par), Harold Sidney Geneen : « Les chiffres vous rendent libre.
Libre de manager ! », in Les grands auteurs en contrôle de gestion, EMS Editions, 2005,
page 147
125
DISCAZEAUX, Olivier & EDOUARD, Renaud, « La hantise du retour sur investissement
gagne les fournisseurs », in « 01 Informatique », n° 1690, 6 septembre 2002
126
Le nom de la société est volontairement maquillé
122
163
•
•
•
•
•
•
•
•
•
Le vendeur, qui gère la relation avec le prospect ou le client,
construit l’offre et la chiffre
La ligne managériale de la vente (Directeur des ventes, Directeur
Commercial) qui peut octroyer des remises supplémentaires
La Direction Marketing qui peut conseiller le client sur l’optimisation
de son parc de matériel et la force de vente sur (1) l’outil adéquat
qu’il faut proposer au client, (2) l’obtention de remises
supplémentaires de la part du constructeur et (3) le chiffrage de
matériel hors-catalogue en cas d’ajout sur le produit vendu.
La Direction Occasion pour évaluer la valeur de reprise qui va
entrer en compte dans le contrat de location longue durée
La Direction SAV pour évaluer, au vu des conditions d’utilisation du
client, le montant mensuel à facturer au titre de la maintenance.
Le processus de vente dure en moyenne 3 mois.
5.2. Les constats
(1) La forte transversalité de l’offre est source de lenteurs dans le
processus d’avant-vente et de vente et le back-office commercial perd
beaucoup de temps en contrôle et en préparation des offres commerciales.
(2) Le processus d’offre étant manuel, il en résulte des erreurs (produits
non compatibles au sein d’une offre, mauvais report de prix) qui génèrent
un coût direct (erreurs de configuration technique à réparer au frais de la
société, offres signées avec des prix non-conformes avec ceux du
catalogue) et un coût indirect (perte de temps en « sur-contrôle » de la part
des vendeurs et du back-office et incapacité à obtenir des statistiques pour
le management commercial (ventes perdues, prix moyen des ventes
gagnées, analyse par région, par vendeur)), d’où un manque de données
objectives, ce qui complexifie l’encadrement des vendeurs et les relations
avec les constructeurs – lesquels apprécient les données quantifiées sur
leur marché.
(3) Les offres commerciales sont très hétérogènes d’une région à l’autre,
tant dans leur forme que dans leur contenu, ce qui est difficilement
justifiable face à des clients grands-comptes nationaux.
164
5.3. Réalisation du business case
5.3.1.
Sur le processus d’élaboration du business case
Le business case a été réalisé par le groupe suivant : le DSI (qui apportait
la méthode d’évaluation ainsi que les éléments de l’offre du prestataire
CRM pour la valorisation des coûts du projet), le Directeur Commercial, le
Directeur des Ventes et le Directeur Logistique (qui validait notamment les
économies de coûts). Il a été présenté au Comité de Direction par le DSI
qui a rappelé la méthode et par le Directeur Commercial qui a soutenu
l’argumentation autour du chiffrage des gains.
Cette co-animation est fondamentale puisque le Directeur opérationnel se
fait le porteur du projet, ce qui rassure le Comité de Direction quant à son
implication pour le faire aboutir et pour atteindre les objectifs prévus.
165
166
5.3.2.
•
•
•
Sur les principes de valorisation retenus
Actualisation : taux de 5% (fourni par le DAF)
Indicateurs-clés : VAN, TRI et payback (projet rentabilisé en 2
ans, ce qui s’inscrit dans la tendance générale des projets SI)
Modélisation des gains : (1) elle est fortement conservatrice
puisqu’elle ne concerne que les économies de coûts et ne chiffre
pas les marges additionnelles potentielles dues aux retombées du
CRM et de la base de données clients/offres qui permettra un
meilleur positionnement sur le marché ainsi qu’une communication
plus ciblée. (2) Les économies de coûts concernent les postes
subissant actuellement un surcoût (comme les erreurs
techniques dues à de mauvaises configurations).
5.3.3.
Sur la stratégie d’élaboration et de présentation du
business case
Il est à noter que la stratégie de construction du business case a été la
suivante :
•
•
Indiquer l’ensemble des postes de gains et mentionner leur nonchiffrage afin de montrer clairement au Comité de Direction la
volonté de ne pas spéculer sur une augmentation des
volumes de vente due à la mise en place du projet CRM dans la
mesure où la maturité du marché et le déclin industriel ne
présagent pas un potentiel de marché croissant (en revanche, la
fidélisation des clients et une meilleure préparation des opérations
de renouvellement de parc font partie intégrante des objectifs du
présent projet CRM).
Faire référence à un indicateur important pour le Comité de
Direction puisqu’en lien avec d’autres projets non-SI : le BFR (via
la réduction du coût financier grâce à la récupération d’une journée
de CA). Cette allusion montre l’implication de la DSI dans la
création de valeur (au sens de l’EVA).
Quelle limite du business case ? Une VAN de 300 M € pour des coûts
projets de 250 M€ indique qu’un euro investi rapporte 1,22 euros. Cela
peut paraître peu et le projet peut même paraître risqué, en revanche :
•
•
Les réductions de coûts étant conservatrices et raisonnables,
elles semblent atteignables à 100%
Le premier objectif tacite du projet est de relancer une dynamique
de la force de vente via un allègement des tâches à faible valeur
ajoutée pour un recentrage sur les tâches créatrices de valeur : (1)
réduction du temps administratif des vendeurs (préparation
167
•
manuelle des offres) au profit du temps de prospection,
visualisation des données clients et prospects à l’écran (car
l’ergonomie de l’ancien système les rebutait) pour une approche
plus stratégique et documentée du marché. (2) réduction du temps
administratif du back-office (préparation des devis sur un outil de
traitement de texte, vérification des prix indiqués par les vendeurs
en les comparant aux prix du catalogue) au profit d’une plus
grande réactivité au niveau des opérations de préparation des
machines, de facturation et de recouvrement (d’où la réduction de
BFR).
Le second objectif tacite du projet est de protéger l’entreprise en
automatisant les offres commerciales, ces dernières ne pouvant
plus être modifiées manuellement par des vendeurs qui
souhaiteraient
modifier
manuellement
certaines
clauses
contractuelles afin d’obtenir plus facilement la vente.
5.3.4.
Résultats
Les objectifs tacites sont atteints et cela de façon progressive. La réaction
des vendeurs et du back-office commercial a été très vive au départ
puisque ces deux populations se sont senties « dépossédées » : (1) les
vendeurs voyaient leur valeur ajoutée dans la relation informelle avec les
clients et dans le fait qu’ils devaient passer du temps à personnaliser l’offre
– l’automatisation des éditions et la nécessité de renseigner les bases de
données ont donc été vécues comme une « déresponsabilisation », (2) le
back-office voyait sa valeur ajoutée dans le contrôle, la mise en forme des
offres – l’automatisation les a donc effrayées, à tel point qu’une assistante
commerciale a dit : « on ne sert plus à rien, maintenant ». Force est de
constater que c’est l’implémentation de l’outil CRM qui a permis au
management de mesurer à quel point les collaborateurs se trompent sur la
valeur ajoutée que l’on attend d’eux (la régionalisation et le nomadisme
n’étant pas étrangers à ce phénomène d’incompréhension). Après 6 mois
d’utilisation, les collaborateurs ont oublié le temps de la gestion manuelle
des processus et passent systématiquement par l’outil SI. La satisfaction
croît, même si des évolutions sont encore nécessaires.
Au niveau du suivi du business case, les coûts du projet ont été
parfaitement maîtrisés tandis que les réductions de coûts sont attendues :
l’impact sur le BFR est très difficile à calculer et les membres du Comité de
Direction s’accordent à dire que ce gain était un « gain de principe ». En
revanche, le tableau de suivi des erreurs n’est pas encore mis en place par
la Direction Logistique et la restructuration des services n’est pas
envisagée.
168
Comment expliquer ce désintérêt a posteriori pour le suivi du business
case ? (1) Le projet CRM a généré une telle excitation parmi le
management qui découvre la force des statistiques sur un marché qu’il
n’était jamais parvenu à cerner avec un tel niveau de détail, que le Comité
de Direction se focalise davantage sur les résultats que sur le suivi de la
mise en place des moyens prévus pour atteindre les réductions de coûts.
La priorité est donc donnée au développement, cela signifie que le projet
CRM a lui-même redéfini le cadre d’analyse et de pilotage de la
Direction Commerciale. (2) L’accent est également mis sur l’implication
de la Direction Marketing qui se réaffirme comme une Direction Experte au
travers de son travail de paramétrage du système et sur la préparation des
tableaux de bord commerciaux pour aider les chefs de vente à manager
leurs vendeurs sur une base objective, l’engouement autour de l’outil CRM
comme moyen de professionnalisation fait que l’outil devient davantage
créateur de valeur au niveau managérial et analytique qu’au niveau
logistique et organisationnel. L’outil a redéfini les axes de création de
valeur pour l’entreprise.
Conclusion
La confirmation de H1, H2 et H3 permet de conclure à un nouveau
positionnement commun des DSI et des Directions Marketing (et
Métiers en général) via le business case qui les inscrit temporellement et
stratégiquement dans la dimension entreprenariale du Comité de Direction.
La financiarisation de la communication interne et la complexification des
indicateurs de rentabilité liés au projet atténuent les divergences sociales
et techniques (ésotérisme informatique, confinement des discussions
stratégiques au sein des instances de direction, rattachement systématique
de la DSI à la DAF sous l’appellation de « secrétariat général ») et
uniformisent ainsi le processus communicationnel d’élaboration de la
décision pour une entreprise plus réactive et performante.
La validation des hypothèses confirment également le rôle central de la
valeur et de l’exploitation des actifs au sein de l’entreprise : « le retour
sur investissement d’une solution CRM réside plus dans une combinaison
vertueuse
processus/performance
résultant
des
spécifications
organisationnelles et culturelles de l’entreprise que dans une grille de
calcul abstraite (les gains de temps estimés ne participent de la
construction du retour sur investissement que s’ils sont transformés en
travail productif !). Il s’agit plus d’une recherche de valeur que d’un retour
127
sur investissement au sens comptable de l’expression. »
127
SAINT CAST, Nicolas. Organiser sa relation client aujourd’hui : Le CRM nouvelle manière,
Maxima, 2003, page 67
169
L’étude de cas corrobore cette idée de l’importance de la méthode du business case
qui a le mérite de s’inscrire dans la logique de l’entreprise qui coordonne ses
ressources en fonction des objectifs et qui réagit donc favorablement à cet outil
argumentatif mais également l’idée que c’est la création de valeur qui donne son
sens au projet, même si parfois elle n’est pas là où on l’attend, à savoir dans le
management et les compétences. L’entreprise achoppe-t-elle alors une fois de
plus sur sa faiblesse face à l’argumentation sur ces deux leviers humains comme
créateur de valeur ? L’entreprise cherche-t-elle à se convaincre autrement en
argumentant sur le besoin d’investir sur les outils informatiques perçus comme des
facteurs de rationalisation ? La présente étude ne saurait répondre à cette question,
mais l’étude de cas insiste sur la remise en cause qui a été effectuée par le Comité
de Direction autour de la création de valeur sachant que c’est via l’implémentation
d’un outil CRM que ce sont développées les compétences techniques et
managériales des Directions Commerciales et Marketing.
Bibliographie
BADOT, Olivier, Turbulence, chaos et décapitalisation sur le futur, in
Stratégies d’Incertitude, dirigé par Bernard Cova et Sylvain Ickham,
Economica, 1996
BELLENGER, Lionel, La négociation, PUF, 1984
BERDUGO, Alain (sous la direction de), Challenges pour les DSI : L’art du
management des systèmes d’information, Dunod, 2004
BERNOUX, Philippe, La sociologie des organisations, Editions du Seuil,
1985
BLIGH, Philip, CRM Unplugged : Releasing CRM's Strategic Value,
Hoboken, John Wiley & Sons, Incorporated, 2004
BOUDON, Raymond, BESNARD, Philippe, CHERKAOUI, Mohamed,
LECUYER, Bernard-Pierre, Dictionnaire de Sociologie, Larousse, 1999
BOUQUIN, Henri (dirigé par), Harold Sidney Geneen : « Les chiffres vous
rendent libre. Libre de manager ! », in Les grands auteurs en contrôle de
gestion, EMS Editions,2005
BRUNSSON, Nils, « Concevoir, dire et faire : Éloge de la déliaison », in
CHARREIRE, Sandra, Les grands auteurs en management, EMS Editions,
2002
BUTTRICK, Robert, Gestion de projets 3° Edition Village mondial, 2006
CLEARY, Sean, Risques : Perception, évaluation, gestion, Maxima,2006
CORBEL, Jean-François, Management de projet, Eyrolles Editions
d’organisation, 2° édition, 2007
DAYAN, Armand, Marketing B to B, Vuibert, 5° édition, 2002
DELAFARGUE, Bertrand, Repenser le pilotage de l'entreprise : Réconcilier
la vision stratégique et l'action, Paris, Maxima, 2006
170
DEYRIEUX, André, Le système d’information : nouvel outil de stratégie,
Maxima, 2003
DISCAZEAUX, Olivier & EDOUARD, Renaud, « La hantise du retour sur
investissement gagne les fournisseurs », in « 01 Informatique », n° 1690,
6 septembre 2002
EVANS, Michael, Practical Business Forecasting, Blackwell Publishing,
2002
GILLET, Roland, Finance : Finance d'entreprise - Finance de marché Diagnostic financier, Dalloz, 2003
HAIMES, Yacov Y, Risk Modeling, Assessment, and Management, John
Wiley & Sons, Incorporated, 2005
ITRG, Making the Case for Software Acquisition, ITRG, 2003
LAZLO, Christopher & LANGEL, Jean-François, La dynamique du chaos,
Editions d’organisation, 1998
LENDREVILLE, LEVY, LINDON, Mercator, 8° Edition, Dunod, 2006
MADERS, Henri-Pierre, GAUTHIER, Elizabeth, LE GALLAIS, Cyrille,
Conduire un projet d’organisation, Editions d’organisation, 3° édition 2004
McNULTY, Eric, Harvard Business Review sept.-07,vol 85 n°9, Boss, I
think Someone Stole Our Customer Data
MILLS, Quinn, L’entreprise post-hiérarchique, InterEditions, 1994
MOSCHETTO, Bruno Laurent, Le Business Plan, Economica, 2001
PAILLARD, J, « Réflexions sur l’usage du concept de plasticité en
neurobiologie », in Journal de Psychologie n°1, janvier-mars, 1976
PILLET, Maurice, SIX SIGMA, Comment l’appliquer, Editions
d’Organisation, 2004
POULON, Frédéric, Economie générale 5ème Edition, Dunod,2005
SAINSAULIEU, Renaud, L’identité au travail, Presses de Sciences Po,
1988
SAINT CAST, Nicolas. Organiser sa relation client aujourd’hui : Le CRM
nouvelle manière, Maxima, 2003
SHARP, Duane, E. Customer Relationship Management Systems
Handbook, Boca Raton, FL, USA: Auerbach Publishers, Incorporated, 2002
STERN JM, STEWART GB & CHEW DH, « The EVA Financial
Management System », in journal of applied corporate finance, summer
1995, vol 8, n°2
SUN TZU, L'art de la guerre, (400-320 avant J.C.)
THUDEROZ, Christian, MANGEMATIN, Vincent & HARRISSON, Denis, La
confiance, approches économiques et sociologiques, Gaëtan Morin
Editeur, 1999
WOODCOCK, Neil. Customer Management Scorecard : Managing CRM
for Profit, Kogan Page, Limited, 2003
http://fr.solutionmatrix.com
http://www.afai.fr
http://www.journaldunet.com
http://www.tracenews.info
171
Yann TOURNESAC
Professeur d’Entrepreneuriat à l’ISC Paris
ISC Paris, Maîtrise d’anthropologie
Doctorant à l’Université Marc BLOCH de Strasbourg
Les outils usuels d’évaluation de la rentabilité
des salons et des foires
Résumé
La France accueille chaque année 14 millions de visiteurs et 100 000
exposants qui se répartissent sur les différents salons, foires et congrès
hexagonaux. Ce secteur particulier de la communication concerne plus de
400 opérateurs privés qui ont pour obligation un retour sur investissement
très rapide consécutif à la fragilité de l’événement même et des sommes
investies pour le produire. C’est l’évaluation de cette rentabilité qui est au
cœur de notre étude. L’objectif avoué est de dépasser la simple définition
de la rentabilité comme étant un résultat exprimé en unités monétaires
pour aborder d’autres modalités d’évaluation propres aux salons et aux
foires. Ces évaluations de l’organisateur pourront alors se faire en puisant
dans les informations internes à l’événement ou au contraire en sollicitant
une sous-traitance spécialisée. Nous conclurons cet article avec le cas
particulier d’un salon professionnel français qui s’est doté de ratios
efficaces malgré une dimension tout à fait modeste.
Abstract
French trade shows, public fairs and conferences welcome each year 14
million delegates and 100 000 exhibitors. The event market is managed by
more than 400 event organizers which all have the same objective which is
to get the quickest return on investment possible due to the unpredictable
nature of the event itself and the amount of investment necessary at the
beginning. ROI computation is therefore at stake but not only as far as
finance is concerned but also when one considers other quantity criteria
based on the specific nature of trade shows and public fairs. Such
enquiries can directly be lead by the event organiser with the help of its
own data but can also be done with the help of consultants. We will then
conclude with the example of a trade show and its specific use of ratios.
172
128
Le présent article se propose de faire un premier bilan des outils usuels
d’évaluation de la rentabilité des salons et des foires en France. Les
129
structures organisatrices
de ce type d’événements évaluent le plus
souvent leur performance générale à l’aide de ratios financiers
« classiques » empruntés à la gestion d’entreprise. Ces mêmes acteurs
vont aussi appliquer des ratios spécialisés et donc plus intimement liés à la
nature même de l’événement. Il s’agira pour nous d’étudier ces derniers
sans pour autant oublier l’apport des ratios classiques, « détournés » avec
réussite à des fins événementielles. Notre étude se porte sur les salons et
les foires pour deux raisons qui nous sont apparues logiques : la principale
tient au fait de la complexité budgétaire même de ces événements qui en
fait une source d’étude riche et cela peu importe la taille ou le chiffre
d’affaires dégagés. Leurs gestionnaires sont, de plus, des professionnels
rigoureux à la recherche d’une rentabilité qui viendra rémunérer avec
justesse des investissements très lourds. La seconde raison s’explique par
la disponibilité d’éléments chiffrés sur le marché et par une certaine
homogénéité des méthodes d’évaluation utilisées.
Le salon peut être défini comme un lieu de rencontre professionnel entre
un marché, ses prescripteurs et ses acheteurs avec pour matérialisation
principale des expositions de produits et services sur stands. Les foires,
quant à elles, répondent à la même définition à ceci prêt que les audiences
sont apparentées à des particuliers. Une autre différence de taille provient
de la possibilité ou non de réaliser des ventes directes sur site engendrant
une transaction monétaire utilisant les modalités de paiement classiques.
Nous nous proposons donc d’étudier deux grandes familles de ratios
financiers qui vont se distinguer par les techniques de collecte des
éléments chiffrés : les ratios qui sont appliqués sans recourir à des
prestataires extérieurs (se basant sur des données générées en interne) et
les ratios qui, au contraire, vont nécessiter une part de sous-traitance suite
à une mise en place d’études spécifiques avant, pendant et après
130
l’événement . Ces deux démarches vont logiquement induire une
différence d’approche entre les organisateurs qui vont pouvoir financer une
analyse complète de leur rentabilité événementielle et ceux qui se
limiteront aux informations directement disponibles sans autre démarche
131
que de les réunir en interne . Cette différence dans la démarche tient
aussi du professionnalisme plus ou moins marqué chez les organisateurs
128
Dans le cadre du doctorat en sciences de la gestion « Les techniques d’évaluation du
retour sur investissement par les agences qui organisent les événements et leurs
annonceurs ». Université Marc Bloch de Strasbourg
129
Au nombre de 424 selon la dernière étude de l’Anaé (2006)
130
Occurrence, Argus de la Presse…
131
Prestataires d’installation générale, de contrôle d’accès ou de restauration
173
français qui, dans leur grande diversité, n’ont pas tous pu ou souhaiter
mettre en place une vraie démarche d’analyse. Enfin, il convient d’ajouter
que les ratios ainsi étudiés présentent des variations de valeurs entre les
éditions N et N-1 de l’événement.
Les outils usuels d’évaluation de la rentabilité des salons et des foires qui
suivent sont pour la plupart utilisés pour élaborer la stratégie globale de
l’événement afin que ce dernier puisse atteindre les objectifs d’image, de
notoriété et de développement du chiffre d’affaires de ses annonceurs.
OUTILS DE MESURE DIRECTE GERES PAR L’ORGANISATEUR
Les outils de mesure suivants sont communément gérés en interne par
l’organisateur qui dispose de ses propres informations statistiques et
financières sans avoir besoin de recourir à des prestataires extérieurs. Ces
éléments chiffrés émanent pour la plupart des fournisseurs retenus pour le
salon ou la foire : le site d’exposition et l’installateur de stands pour leurs
informations architecturales et le fournisseur de contrôle d’accès pour les
statistiques concernant la nature et le nombre des visiteurs directs. A ceci,
il convient d’ajouter les statistiques générées par le service commercial de
l’événement qui gère la vente des prestations de l’événement et leur suivi
statistique.
A. Mesure de la rentabilité de l’occupation du site d’exposition en
fonction de la spécialisation des zones événementielles
La France compte deux millions de mètres carrés disponibles, 80 parcs
132
d’expositions professionnels et 120 centre de congrès . Ces sites
présentent des surfaces brutes d’exposition sur lesquelles les salons et les
foires installent les surfaces octroyées aux exposants ou annonceurs
(stands), les surfaces d’animation (zone de repos, forum d’information,
exposition thématique, etc.), les surfaces de congrès (salles pour accueillir
des plénières, des conférences et des ateliers) et les zones générales
(allées, dégagements de sécurité, entrées, sorties, accueil, etc.). Il convient
donc de mesurer les taux d’occupation au sol pour une gestion optimale
des espaces afin que l’organisateur gère au mieux la rentabilité d’un site
133
aux coûts d’exploitation très élevés . Il convient donc de diminuer les
132
Hall d’exposition, centre de congrès
Le développement en France des foires, salons et congrès. Rapport d’information de
l’Assemblée Nationale. Charié, J-P. N°2826, 2006.
133
174
surfaces « non payantes » au profit des surfaces « payantes » facturées
aux exposants.
A. 1. Mesure de la rentabilité des surfaces commerciales du site
d’exposition
A.1.1. Ratio d’évaluation du taux d’occupation général des surfaces du site
(Surface nette occupée année N) - (Surface nette occupée année N-1) /
(Surface brute événement année N) - (Surface brute événement année N1)
Les surfaces nettes correspondent aux surfaces vendues ou offertes par
l’événement et donc occupées réellement par les annonceurs (stand ou
toute autre formule d’animation valorisée en mètres carrés). Les surfaces
brutes correspondent à l’ensemble des surfaces exploitables
commercialement du site. Il conviendra donc de contrôler l’évolution du
taux d’occupation et de s’assurer que le pourcentage ainsi dégagé évolue
à la hausse lors de chaque événement. Le principal défaut de ce ratio vient
du fait qu’il ne mesure pas la rentabilité financière attenante car des
gratuités en mètres carrés peuvent être octroyées par le commercial en
charge des ventes de stands et autres surfaces d’animation.
A.1.2. Ratio d’évaluation du taux d’occupation moyen général des
annonceurs
(Surface nette occupée année N) - (Surface nette occupée année N-1) /
(Nombre d’annonceurs année N) - (Nombre d’annonceurs année N-1)
Ce ratio nous permet de contrôler l’évolution des mètres carrés par
exposant ou annonceur. Il n’est pas ici question d’impact financier mais
juste d’un indice qui pourra servir à la gestion organisationnelle de
l’événement car il s’agit des mètres carrés qui ont été réellement livrés à
l’exposant. De grandes disparités existent entre des événements
accueillant des exposants nécessitant de grandes surfaces (Mondial de
l’Automobile, Salon de la Machine Outil, etc.) et des événements qui ciblent
des fabricants ou distributeurs de services dont l’animation du stand se
limite à des prospectus et un écran plasma.
A. 2. Mesure de la rentabilité des zones d’animations et des zones
générales
Une zone d’animation est un espace mis à la disposition du visiteur afin
qu’il puisse s’informer, échanger et pourquoi pas se reposer. Cela peut
revêtir différents aspects : un forum de tendance sur un salon textile avec
175
une exposition de produits et des fiches techniques en self service, une
aire de repos sans message particulier autre qu’une invitation à s’asseoir et
à consommer les boissons mises à disposition par le sponsor, une
animation permanente qui présente un mur d’image diffusant un clip vidéo
en boucle ou encore un espace pour essayer des véhicules... Une zone
générale est quant à elle définie comme un espace de circulation ou de
station temporaire : un accueil de salon, des allées de circulation, un
passerelle au dessus d’un hall, le restaurant, le bar, les WC, un kiosque
d’information, etc. Evidemment, l’organisateur est libre d’associer à ces
zones des sponsors désireux d’élargir leur visibilité en devenant
« partenaire » de la zone en question. Le principe général appliqué dans
les salons et les foires est pourtant de ne pas associer de sponsors aux
zones générales sous peine de porter préjudice aux autres annonceurs de
l’événement. Malgré cela, les zones générales restent difficilement neutres
car elles offrent une visibilité très performante du fait de leur très grande
fréquentation.
A.2.1. Ratio d’évaluation de la fréquentation d’une animation et d’une zone
générale
(Fréquentation de la zone Z année N) - (Fréquentation de la zone Z année
N-1) /
(Audience directe événement année N) - (Audience directe événement
année N-1)
Ce ratio nous permet de vérifier l’attractivité de la zone en question sans
tenir compte de la nature de l’audience directe de l’événement. En tout état
de cause, un visiteur d’événement professionnel porte un badge et peut
être identifié à son arrivée sur la zone en question et sera peut-être l’objet
d’une lecture optique de badge. Quant au visiteur d’événement grand
public, le port du badge n’étant pas institué, il conviendra seulement de
procéder à un comptage. Toutefois, une étude peut être commandée pour
définir le ou les profils des visiteurs de la zone en question. Ce ratio devra
apporter l’indication d’une évolution positive en pourcentage. Cet indicateur
de fréquentation pourra ensuite être valorisé pour définir le prix de vente de
la prestation de sponsoring associé.
Par ailleurs, si nous nous soucions de la nature X des visiteurs, nous
pouvons contrôler si le visitorat global fréquentant la zone appartient bien à
notre cible. Le visiteur ciblé est qualifié d’utile de part son apport potentiel
d’affaires auprès de l’exposant.
(Fréquentation de la zone Z année N) - (Fréquentation de la zone Z année
N-1) /
176
(Audience directe avec nature X année N) - (Audience directe avec nature
X année N-1)
A.2.2. Ratio d’évaluation de la rentabilité coût / personne d’une animation
et d’une zone générale
(Coût de revient de la zone Z année N) - (Coût de revient de la zone Z
année N-1) /
(Audience directe zone Z année N) - (Audience directe zone Z année N-1)
Ce ratio permet d’évaluer le coût unitaire de chaque visite des zones en
question. Ainsi, l’organisateur pourra investir davantage dans ces zones ou
les modifier pour augmenter leur efficacité ou tout simplement les annuler.
Il convient de remarquer que ces zones sont autant de services gratuits à
destination des visiteurs et qu’il convient de satisfaire ces derniers pour
qu’ils reviennent ou mieux, qu’ils incitent d’autres personnes à venir. Si des
consommations sont réalisées par les visiteurs (prise de documents
imprimés ou même boissons en libre-service), il existera une notion
variable du coût de la zone. Par conséquent, si la zone en question
n’entraîne pas de consommation, nous ne parlerons ici que de coûts de
revient fixes. Comme pour le ratio présenté dans le chapitre A.2.1. , les
indices dégagés pourront aider au chiffrage des prestations de visibilité à
vendre aux annonceurs à associer à la zone en question. Ce ratio
s’exprime en valeur monétaire et doit bien évidemment diminuer chaque
année ou voir son chiffre d’affaires augmenter dans une proportion plus
importante.
A.2.3. Ratio d’évaluation de la rentabilité financière d’une animation
(Chiffre d’affaires de la zone Z année N) - (Chiffre d’affaires de la zone Z
année N-1) /
(Audience directe zone Z année N) - (Audience directe zone Z année N-1)
Ce ratio va nous permettre de mesurer la rentabilité de l’animation en
matière de chiffre d’affaires généré par le sponsor. Ceci peut devenir un
argument de vente dans une négociation avec un annonceur car il sera
possible de mettre en perspective la rentabilité de l’animation en question.
A. 3. Mesure de la rentabilité des zones de congrès au sein d’un salon ou
d’une foire
Il est question ici de la zone congrès constituée de salles accueillant des
conférences, des plénières et des ateliers. Ces espaces engendrent très
souvent un coût additionnel en fonction de la provenance de leurs
audiences : en effet, une audience internationale induit de la traduction et
177
un conférencier qui souhaite diffuser le contenu de son intervention sous
un format numérique ou vidéo doit pouvoir disposer des installations
nécessaires. Certains congrès bénéficient de « sponsors » ou
« partenaires » et pourront faire payer un droit d’accès aux congressistes.
A.3.1. Ratio d’évaluation de la rentabilité coût / personne d’une zone de
congrès
(Coût de revient de la zone Z année N) - (Coût de revient de la zone Z
année N-1) /
(Audience directe zone Z année N) - (Audience directe zone Z année N-1)
Ce ratio nous permet de dégager une rentabilité coût / personne pour
savoir si les efforts financiers d’aménagement et de décoration sont
récompensés par une audience large et ciblée. Ce ratio doit donner une
valeur monétaire associée à une personne, le congressiste, en ayant
comme objectif une diminution en valeur de congrès en congrès.
A.3.2. Ratio d’évaluation de la rentabilité financière d’une zone de congrès
(Chiffre d’affaires de la zone Z année N) - (Chiffre d’affaires de la zone Z
année N-1) /
(Audience directe zone Z année N) - (Audience directe zone Z année N-1)
Ce ratio nous permet de dégager une rentabilité par personne sachant
qu’un congrès bénéficie de financements. Ce ratio financier doit vérifier une
évolution à la hausse lors de chaque congrès en maîtrisant les deux
paramètres que sont le chiffre d’affaires et l’audience directe qui doivent
augmenter de concert.
A.3.3. Ratio d’évaluation du taux de fréquentation d’une zone de congrès
(Audience directe zone Z année N) - (Audience directe zone Z année N-1) /
(Nombre de place de la zone Z année N) - (Nombre de place de la zone Z
année N-1)
Ce ratio vient sanctionner le succès ou le non succès d’un congrès au
travers du taux de remplissage d’une conférence ou d’un atelier. Cet
indicateur s’exprime en pourcentage comme tout taux usuel de
remplissage de salle.
178
B. Mesure de la rentabilité de la stratégie de mobilisation des visiteurs
d’un salon et d’une foire
Il est évident ici que le salon professionnel et la foire se distinguent par
leurs approches opposées : alors que le premier optera pour une série
d’outils de marketing direct, le second choisira des stratégies de
134
communication davantage tournés vers les médias .
B. 1. Mesure du coût par contact
(Budget de communication année N) – (budget de communication année
N-1) /
(Audience directe année N) - (Audience directe année N-1)
Bien que l’on ne puisse pas imputer directement la venue d’un visiteur à
une campagne de communication événementielle utilisant la presse, la
radio, l’affichage, la télévision ou Internet, ce ratio nous aide à calculer
l’effort à produire pour faire venir un visiteur jusqu’à l’événement. Il
conviendra de vérifier que ce coût unitaire diminue chaque année nous
apportant ainsi des éléments attestant du bon choix des différents canaux
de communication.
Dans le cadre d’une campagne de marketing direct, nous pouvons étudier
l’impact des services employés ou des documents envoyés :
(Budget de la conception du documentation D envoyée année N) – (Budget
de la conception du documentation D année N-1) / (Audience indirecte
année N)-(Audience indirecte année N-1)
A nouveau, il demeure difficile d’isoler l’impact d’un document particulier
envoyé à une cible de potentiels visiteurs comme l’explique Srinath
135
Gopalakrishna dans son article. Toutefois, il existe des événements qui
utiliseront des méthodes de mobilisation limitées comme l’envoi de
demande de badge avec au choix le retour par courrier de cette dernière
ou l’inscription via Internet. Ce choix limité d’inscription permet de
circonscrire les causes d’échec ou de succès.
(Budget du service de marketing direct S utilisé année N) – (Budget du
service de marketing direct S utilisé année N) / (Audience indirecte année
N)-(Audience indirecte année N-1)
134
135
Radio, TV, presse, affichage, Internet
Do Trade Shows Pay Off ? Journal of Marketing, 59:3 (1995:July)
179
(Coût de l’outil de communication O année N) – (Coût de l’outil de
communication O année N-1) /
(Audience directe année N) - (Audience directe année N-1)
B. 2. Mesure de la nature et de la qualité de l’audience directe
En fonction de son appartenance ou non au groupe cible, le visiteur va
témoigner de l’efficacité de l’organisateur de l’événement. En effet, une
trop grande proportion de visiteurs « inutiles » va engendrer une perte de
temps auprès de l’annonceur. Ce visiteur « chronophage » deviendra
également un visiteur qui engendrera un coût pour l’organisation qui
distribue des documents en self service et qui en prévoira un nombre
limité.
(Audience directe année N) - (Audience directe année N-1) /
(Audience cible année N) - (Audience cible année N-1)
(Audience directe non ciblée année N) - (Audience directe non ciblée
année N-1)
(Audience directe année N) - (Audience directe année N-1)
Ces ratios pourront nous apporter des éléments de réponse quant au bon
choix des canaux de communication choisis par l’organisateur.
B. 3. Mesure des stratégies spécifiques de mobilisation
En matière de pré-enregistrements ou toute demande d’accréditation avant
l’événement, sur Internet ou en retournant un coupon réponse, les ratios
suivants seront autant d’indicateurs d’efficacité :
(Audience directe année N) - (Audience directe année N-1)
(Nombre de message adressés année N) – (Nombre de message
adressés année N-1) /
(Nombre d’accrédités année N) – (Nombre d’accrédités année N-1) /
(Nombre de demande d’accréditation année N) - (Nombre de demande
d’accréditation année N-1)
Ces évaluations concernent surtout les salons professionnels. Les
moyennes statistiques de la profession indiquent que sur 100 pré-inscrits
seuls 50 viendront réellement sur l’événement.
180
C. Mesure de la rentabilité de la vente d’un salon et d’un foire
Un salon comme une foire possède un catalogue complet de produits et de
services à vendre à leurs annonceurs. Nous pouvons citer deux grandes
familles de prestations à vendre : le stand (du plus au moins cher : stand
équipé, stand semi-équipé, espace nu) et les autres opérations de visibilité
(du plus au moins visible : présence sur les imprimés externes, affichage
sur site, parrainage d’événements ou de zones de l’événement, distribution
de documents et présence sur les imprimés internes).
C.1. Ratio d’évaluation du taux d’occupation réel facturé des surfaces du
site
(Surface nette facturée année N) - (Surface nette facturée année N-1) /
(Surface brute événement année N) - (Surface brute événement année N1)
Ce ratio permet de contrôler la rentabilité financière des mètres carrés
vendus et donc facturés aux annonceurs. Ces surfaces sont qualifiées de
« réelles » puisqu’elles se retrouvent sur une pièce comptable qui
authentifie la transaction. Il conviendra donc de chercher une évolution à la
hausse du pourcentage ainsi dégagé.
C.2. Ratio d’évaluation du taux moyen réel facturé des annonceurs
(Surface nette facturée année N) - (Surface nette facturée année N-1) /
(Nombre d’annonceurs année N) - (Nombre d’annonceurs année N-1)
Cet outil procure une approche financière et nous indique l’évolution du
montant financier réel engagé par les exposants. Il convient alors de faire
attention que chaque mètre carré soit bien réel, donc facturé et payé.
C.3. Ratio d’évaluation de la rentabilité de la vente
(Surface nette facturée année N) - (Surface nette facturée année N-1) /
(Surface nette livrée année N) - (Surface nette livrée année N-1)
Il convient de présenter ce ratio après les deux premiers même si l’on juge
ici l’efficacité de la force de vente. Après négociation, ce ratio fait donc état
de l’efficacité du vendeur et permet ainsi de contrôler le travail de ce
dernier. Il conviendra dans ce cas d’avoir une évolution positive du
pourcentage en mètres carrés d’une année sur l’autre car il convient
d’éviter d’émettre un nombre croissant de factures qui présentent l’octroi de
mètres carrés gratuits. La limite de cette étude provient du fait que certains
organisateurs vont choisir de facturer un nombre de mètres carrés fictifs
181
(donc inférieurs à la réalité) puisqu’une surface supérieure sera livrée avec
complaisance.
C.4. Ratio d’évaluation de la rentabilité au mètre carré
(Chiffre d’affaires lié aux surfaces nettes facturées année N) - (Chiffre
d’affaires lié aux surfaces nettes facturées année N N-1) / (Surface nette
facturée année N) - (Surface nette facturée année N-1)
Grâce à ce ratio, le salon ou la foire peut dégager un prix moyen au mètre
carré et voir son évolution. L’objectif est toujours le même : contrôler les
ventes du commercial afin que l’événement augmente sa rentabilité.
C.5. Ratio d’évaluation du taux de fidélisation des annonceurs
(Annonceurs nouveaux année N) - (Annonceurs nouveaux année N-1) /
(Annonceurs total année N) - (Annonceurs total année N-1)
(Annonceurs nouveaux année N) - (Annonceurs nouveaux année N-1) /
(Annonceurs anciens année N) - (Annonceurs anciens année N-1)
Un événement qui connaît un taux de rotation trop élevé de ses
annonceurs est considéré comme un événement dont les choix
stratégiques sont incertains. Par contre, le cas d’un salon ou d’une foire
itinérants peut être considéré comme différent car l’attrait de telle ou telle
région va engendrer des collaborations avec des annonceurs évoluant
avec le parcours géographique considéré.
D. Conclusions sur les outils de mesure directe gérés par
l’organisateur de salon et de foire
Comme nous venons de le voir, une série d’outils de mesure sont à
disposition des organisateurs de salons et foires. Les éléments chiffrés
sont tous directement à disposition de l’événement ou à collecter auprès
des prestataires choisis par l’organisation. Ces derniers ont pour obligation
de les communiquer dans le cadre d’un contrat de prestation (contrôleurs
d’accès) ou tout simplement pour facturer les dites prestations (location du
site d’exposition et fabrication de stands).
Mais tout ceci revient au final à l’étude de la mesure de la rentabilité des
stratégies marketing des organisateurs de salons et foires en France : il est
évidemment question de mesurer l’efficacité globale des stratégies
marketing mises en place pour servir au mieux son salon, sa foire et donc
au final les annonceurs qui ont misé sur l’événement en question.
182
La politique marketing de l’événement s’inscrit alors dans une logique de
marketing mix appliqué à l’événement et tout ce qui touchera à des
investissements apparentés à de la stratégie marketing seront de nature à
136
engendrer une augmentation de la marge nette de l’événement .
(Marge nette événement année N) - (Marge nette événement année N-1) /
(Budget marketing année N) - (Budget marketing année N-1)
Ainsi, ce dernier ratio offre une synthèse intéressante pour notre
démarche.
OUTILS DE MESURE INDIRECTE
Alors que les premiers outils énoncés dans le précédent chapitre peuvent
être créés et gérés par l’organisateur seul, le recours à des prestataires
extérieurs semble pourtant nécessaire pour les études en matière
d’analyse d’image, de notoriété et plus largement en matière de mesure
d’efficacité de la communication de l’événement. Il existe plusieurs
137
prestataires
dont les services proposent une série de prestations
permettant de chiffrer les équivalents publicitaires de rédactionnels médias,
de faire des analyses de contenu et de faire des études d’analyse de
notoriété et d’image. Il ne s’agira pas dans le présent chapitre d’étudier ces
méthodes d’évaluation mais d’évoquer en quoi les données chiffrées ainsi
obtenues par sous-traitance seront utiles pour l’organisateur d’événement.
A. Mesure de l’impact financier des relations presse de l’événement
(Budget RP année N) – (budget RP année N-1) /
(Equivalent publicitaire média année N) - (Equivalent publicitaire média
année N-1)
L’Argus de la Presse ainsi que ses concurrents peuvent établir un
équivalent publicitaire (en euros) des articles écrits dans l’ensemble des
différents supports de presse sélectionnés. Il en va de même pour les
passages à la radio et à la télévision. D’autres études pourront aborder le
contenu de ces rédactionnels. L’organisateur va ainsi pouvoir renseigner le
ratio en question après avoir retracé son budget affecté aux relations
presse. Ainsi, année après année, les efforts portés sur cette politique
seront analysés en pourcentage qui seront souhaités à la baisse.
136
Marketing Payback : Is your Marketing Profitable ? Shaw, R., Merrick, D. John Wiley &
Sons, INC. Harlow, 2005.
137
Argus de la Presse, Agence Occurrence
183
B. Mesure de l’impact financier de la campagne de communication
média de l’événement
(Budget de communication année N) – (budget de communication année
N-1) /
(Audience indirecte année N)-(Audience indirecte année N-1)
Les salons professionnels, en plus de leurs stratégies de marketing direct,
peuvent acheter des espaces publicitaires dans les supports médias les
concernant. Un budget affecté à la communication qui sera moindre que
celui d’un événement grand public qui sera dans l’obligation d’acheter des
espaces publicitaires dans les mass médias. Ainsi, il sera possible de
mesurer l’impact d’une campagne de communication auprès de l’audience
indirecte du salon ou de la foire, à savoir auprès des personnes ayant
entendu parler de l’événement via les médias.
C. Autres mesures de la notoriété et de l’image d’un événement
Un salon ou une foire vont pouvoir étudier leur image et leur notoriété
propres en faisant appel à des prestataires extérieurs afin de procéder à
138
des enquêtes telles que « omnibus » avec les indicateurs connus
que
sont le « top of mind », la notoriété spontanée, la notoriété assistée et la
notoriété prouvée. Dans le cadre d’une étude d’image, il sera question de
recueillir les appréciations, subjectivement données par les interviewés, à
propos des éléments désignés par le salon et sur une série de critères. On
pourra ensuite créer un profil d’image grâce à des études comparatives.
Mais il est vrai que le salon et la foire procèdent aussi à la mise en place
d’études comme celles-ci pour leurs propres annonceurs. Ainsi, les
enquêtes sont commercialisées en plus des autres prestations usuelles.
138
Gilardi, J.-C., Koehl, M, Koehl, J.-L. Dictionnaire de mercatique, Eds. Dicothèque Foucher,
Paris, 1995
184
APPLICATION PRATIQUE AU SALON PROFESSIONNEL GREEN EXPO
Pour illustrer les axes de réflexion précédents, nous avons pu bénéficier de
la collaboration du salon GREEN EXPO et de son directeur pour tester la
réalité de l’application des ratios et de l’absence significative d’autres.
GREEN EXPO, le salon international des terrains sportifs et des golfs, est
un salon professionnel qui existe depuis 1986. Chaque année, GREEN
EXPO met en relation les fabricants de produits et services destinés à
l’entretien des terrains sportifs et leurs utilisateurs finaux (intendants de
terrain, mécaniciens et jardiniers). Cet événement regroupe un salon de
135 exposants en moyenne et deux congrès sur des thèmes portant sur
l’entretien des terrains sportifs (plénières, conférences et ateliers). De 2
500 à 3 500 visiteurs professionnels viennent sur les 2,5 jours du salon et
cela en provenance de toute la France. Enfin, GREEN EXPO dégage un
chiffre d’affaires moyen de 450 000 euros HT chaque année pour une
marge nette de 15 %.
Nous porterons notre réflexion sur les six dernières éditions du salon à
savoir celles de 2002 (Deauville), 2003 (Bordeaux), 2004 (Montpellier),
2005 (Nantes), 2006 (Paris) et 2007 (Marseille).
Nous pourrions passer en revue l’ensemble des ratios déjà évoqués et
appliquer leur potentiel au salon GREEN EXPO mais nous nous proposons
plutôt d’amorcer une réflexion sur les outils de mesure qui sont utilisés et
ceux qui n’ont pas été retenus par l’organisateur.
Qu’en est-il de la mesure de la rentabilité de l’occupation du site
d’exposition en fonction de la spécialisation des zones événementielles ?
GREEN EXPO occupe une moyenne de 6 000 mètres carrés d’un seul
tenant. Cette surface totale est ensuite découpée en trois grands secteurs
accueillant les exposants sans oublier des sous parties destinées aux
zones d’animations. Les zones générales, quant à elles, sont réparties
pour le bon déroulement de l’événement. Le premier secteur mis en place
est celui qui est dénommé « entretien » à savoir l’ensemble des exposants
qui présentent des produits et services destinés à l’entretien des terrains
de sports (tonte, irrigation, construction, etc.). Le deuxième secteur du
salon est celui qui réunit toutes les solutions de gestion (contrôle d’accès,
billetterie, cartes à puce, restauration, etc.) et le dernier secteur présente le
matériel de jeu et les textiles sportifs présents dans les boutiques gérées
par les sites sportifs eux-mêmes (boutiques de stade ou boutiques Pro
Shop dans les golfs).
185
Concernant la mesure de la rentabilité des surfaces commerciales à savoir
l’utilisation des ratios présentés en A.1.1. et en A.1.2. , GREEN EXPO se
livre à l’évaluation suivante :
Taux d’occupation général des surfaces du site
2002/2003
2003/2004
2004/2005
2005/2006
+3.51 %
-5.62 %
+3.98 %
+5.12 %
2006/2007
+2.87 %
Commentaires : à part une baisse de rentabilité entre 2003 et 2004 liée au
site de Montpellier qui obligea le salon à diviser ses espaces sur deux
halls, GREEN EXPO gère de mieux en mieux son occupation de site en
laissant de moins en moins d’espaces non dédiés aux stands (et donc non
rémunérés).
Ratio d’évaluation du taux d’occupation moyen général des annonceurs
2002/2003
+1.53 %
2003/2004
+1.14 %
2004/2005
+3.78 %
2005/2006
+4.11 %
2006/2007
+2.57 %
Commentaires : l’évolution des indices est positive car l’évolution des
mètres carrés par exposant est en progression constante avec un
ralentissement en 2007 car le salon semble être arrivé à maturité. En effet,
chaque exposant a pris une surface au-delà de laquelle il sera désormais
difficile d’aller. De grandes disparités existent toujours entre les leaders du
marché comme Ransomes Jacobsen France qui achète plus de 300
mètres carrés lors de chaque édition et les plus petits stands qui sont en
moyenne de 9 mètres carrés. Pour compléter la compréhension de l’étude,
le salon présente un mètre carré moyen de 24,3 mètres depuis 2002.
Concernant la mesure de la rentabilité des zones d’animations et des
zones générales, GREEN EXPO ne s’est pas doté d’outils pour évaluer
l’efficacité d’une telle démarche au coût non négligeable. Les créations en
2003 d’une zone d’animation de 300 mètres carrés dédiée au jeu de golf
puis d’une zone de 500 mètres carrés pour les Trophées de l’Innovation en
2007 à Marseille n’ont donc pas été évaluées malgré des investissements
de 8 525,00 euros HT pour l’une et de 23 550,00 euros HT pour la
seconde. GREEN EXPO ne sait donc pas qui fréquente ces espaces et
encore moins si ces derniers sont rentables pour le salon et les sponsors
qui les financent.
186
Quant à la mesure de la rentabilité des zones de congrès au sein du salon,
GREEN EXPO s’est penché sur la question à l’occasion des trois dernières
éditions :
2004/2005
+ 3.25 %
2005/2006
+9.58 %
2006/2007
+10.57 %
La rentabilité coût / personne est en moyenne de 126,78 euros HT et son
évolution est conséquente comme les chiffres le montrent : en effet, les
commanditaires de l’événement exigent que l’organisateur mette à
disposition des salles de conférence de toutes les tailles pour accueillir
plénières et ateliers, voire de simples réunions de travail. Comme il n’y a
pas de chiffre d’affaires lié à l’espace congrès (ce sont des formations
continues subventionnées), aucun ratio en faisant l’état ne peut être
calculé.
Pour ce qui est de la mesure de la rentabilité de la stratégie de mobilisation
des visiteurs du salon, aucune mesure du coût par contact n’est effectuée
alors que le budget de communication est connu puisque budgété et que
l’audience directe est mesurée grâce aux services d’un prestataire de
contrôle d’accès. En reconstituant les données, nous découvrons un coût
moyen au visiteur de 5,25 euros HT depuis 2002 (gestion de l’accueil,
émission de badges, contrôles d’accès en divers points du salon, etc.). En
voici l’évolution :
Evolution du taux du coût par visiteur
2002/2003
+3.47 %
2003/2004
+5.87 %
2004/2005
+8.15 %
2005/2006
+9.39 %
2006/2007
+10.88 %
Nous remarquons une nette tendance à la hausse qui préfigure une
réunion de travail rapide pour trouver des solutions moins onéreuses.
Concernant l’impact d’un document de mobilisation spécifique envoyé à la
cible du salon pour déclencher une visite, GREEN EXPO n’a pu à ce jour
isoler et donc étudier l’impact d’une démarche marketing par rapport à une
autre faute de pouvoir isoler l’influence des autres documents utilisés.
La mesure de la nature de l’audience directe en fonction de son intérêt
pour le salon (audience inutile ou pas) est effectuée depuis 2002.
L’évolution des ratios de l’audience directe non ciblée par rapport à
187
l’audience ciblée tourne autour de 1 visiteur sur 100 et l’évolution est très
favorable :
2002/2003
+2.54 %
2003/2004
-1.56 %
2004/2005
-3.17 %
2005/2006
-6.74 %
2006/2007
-7.80 %
Cette évolution démontre une maîtrise et une exclusion des visiteurs non
souhaités sur le salon.
Concernant la mesure des stratégies spécifiques de mobilisation comme
l’envoi groupé d’emails ou de demandes d’accréditation, GREEN EXPO ne
se livre pas à ce type de calcul, faute d’une maîtrise réelle de la gestion
des retours de demande de badges. En effet, l’organisateur confie la saisie
des demandes à différentes personnes qui ne font pas de suivi particulier.
Par contre, une étude a été possible pour le nombre d’accrédités rapporté
au nombre de demande d’accréditation :
2002/2003
+8.87 %
2003/2004
+9.01 %
2004/2005
+10.63 %
2005/2006
+9.37 %
2006/2007
+14.21 %
Ceci démontre clairement une très bonne évolution de l’utilisation de
l’outil Internet mis en place depuis 2002 : GREEN EXPO propose à ses
visiteurs de s’inscrire en ligne et l’ergonomie de ce système d’inscription
avec la création d’une fiche et du badge à imprimer fonctionne très bien. Le
marché et ses acteurs jouent le jeu, année après année, malgré une cible
« rurale » liée à l’entretien des terrains de sports engazonnés.
Les outils de mesure de la rentabilité de la vente, quant à eux, sont les
premiers à avoir été mis en place afin que le directeur du salon puisse
contrôler le travail de son commercial.
L’évolution des surfaces facturées par rapport à la surface brute totale du
site est très favorable :
2002/2003
+2.22 %
2003/2004
+4.58 %
2004/2005
+9.74 %
2005/2006
+9.92 %
2006/2007
+10.01 %
Avec cette évolution étudiée, le directeur du salon a également souhaité
que le ratio qui évalue le taux de fidélisation des annonceurs soit suivi :
2002/2003
+1.04 %
188
2003/2004
+7.81 %
2004/2005
+4.69 %
2005/2006
+3.37 %
2006/2007
+9.51 %
Avec ces évolutions positives, le salon GREEN EXPO confirme la
fidélisation de ses exposants depuis 2002 soit un « noyau dur » de 85
structures sur une moyenne de 135.
En conclusion de l’utilisation des outils de mesure mis directement à
disposition de son organisateur, GREEN EXPO fait appel aux ratios qui
offrent les réponses les plus urgentes. Nous remarquons par ailleurs
qu’aucune réflexion sur d’autres outils de mesure n’a été mise à l’ordre du
jour, le directeur de l’événement manquant par ailleurs de temps… GREEN
EXPO est un salon professionnel organisé par un opérateur de petite taille
comme plus de 80 % du marché de l’événementiel et cette lacune dans
l’évaluation de la performance de son salon est monnaie courante. Il ne
sera donc pas question ici d’étudier l’évolution de la marge nette de
l’événement avec celle du budget marketing…
Enfin, GREEN EXPO ne faisant pas appel à des prestataires extérieurs
pour évaluer l’impact financier des relations presse de l’événement, aucune
information ne pourra être calculée pour découvrir l’équivalent publicitaire
et les informations de première main qu’elles pourront procurer pour
orienter les décisions en matière de communication, pourtant essentielles
quand on travaille dans des secteurs aussi différents (en matière de
supports surtout) que le golf, le football, le rugby et les hippodromes.
Quant à savoir si la notoriété et l’image de l’événement évoluent
favorablement, la question reste en suspend.
Bibliographie indicative
Gopalakrishna, S, “Do trade shows pay off ?” in Journal of Marketing,
n°59/3, 1995
Cavanaugh, S, “Setting objectives and evaluating the effectiveness of trade
shows exhibits” in Journal of Marketing, n°40/4, 1976.
Francisco, Robert J, “Selling at trade shows : avoid the herd instinct” in
Management Review, April, 1986
Shaw, R., Merrick, D. John, Marketing Payback : Is your Marketing
Profitable ? Wiley & Sons, INC. Harlow, 2005
Charié, J-P, Le développement en France des foires, salons et congrès.
Rapport d’information de l’Assemblée Nationale, N°2826, 2006
189
190

Documents pareils