Outils d`analyse stratégiques et opérationnels en marketing
Transcription
Outils d`analyse stratégiques et opérationnels en marketing
Cahier de la Recherche de l’ISC Paris CRISC N°18 : Outils d’analyse stratégiques et opérationnels en marketing 4ème trimestre 2007 ISBN 978-2-916145-10-5 1 Conseil scientifique Liste des membres : BRESSON Yoland, Professeur d'économie, ancien doyen, Université Paris - Val de Marne Paris XII CUMENAL Didier, Directeur de la recherche, professeur de Management des Systèmes d'Information, Doctorat ès sciences de gestion ESCH Louis, Professeur de Finance, Directeur académique d'HEC Liège, Université de Liège HETZEL Patrick, Professeur à l’Université de Limoges KUZNIK Florian, Recteur, économiste, Université d'Economie de Katowice (Pologne) MORIN Marc, Professeur en management des ressources humaines, Doctorat d'Etat PARIENTE Georges, Doyen de la recherche, professeur d'économie, Doctorat d'Etat PESQUEUX Yvon, Professeur titulaire de la chaire Développement des Systèmes d'Organisation au CNAM PORTNOFF André-Yves, Directeur de l'Observatoire de la Révolution de l'Intelligence à Futuribles REDSLOB Alain, Professeur d'économie, ancien doyen de la faculté des Sciences Economiques de Paris II ZEFFERI Bruno, Directeur Cegos Dirigeants 2 Comité de lecture Liste des membres : AGARWAL Aman, Professor of Finance and Director of Indian Institute of Finance, Editor of Finance India CHEN Kevin C., California State University, Editor, International Journal of Business CLARK Ephraïm, University of Middlesex, U.K. DESPRES Charles, Directeur de l’International Institute of Management du Conservatoire National des Arts et Métiers, Paris DOMINGUEZ Juan Luis, Professeur titulaire de la Chaire Economie Financière et Comptabilité, Faculté d’économie et sciences de l’entreprise, Université de Barcelone, Espagne JÂGER Johannes, Doyen de University of Applied Sciences, Vienne (Autriche), Lecturer Fachochschule des bfi Wien Gesellschaft m.b.H. KUMAR Andrej Professor, Holder of Chair Jean Monnet, Faculty of Economics, University of Ljubljlna, Slovenia PARLEANI Didier, Professeur de droit à l’Université de Paris 1 PanthéonSorbonne PRIGENT Jean-Luc, Professeur de finance à l’Université de Paris Cergy RYAN Joan, Professor of Global Banking and Finance at the European Business School, London, Grande-Bretagne SCHEINWBERGER Albert G., Professeur à l’Université de Constance, Allemagne 3 CRISC déjà parus Cahier n°1 : Finance (Edité en avril 2002) Cahier n°2 : Marketing (Edité en septembre 2002) Cahier n°3 : Economie (Edité en mars 2003) Cahier n°4 : Contrôle de gestion (Edité en décembre 2003) Cahier n°5 : Droit (Edité en mai 2004) Cahier n°6 : Ressources humaines (Edité en juin 2004) Cahier n°7 : Les NTIC (Edité en septembre 2004) Cahier n°8 : Microstructures et marchés financiers (Edité en janvier 2005) CRISC hors série Actes de la 3ème Conférence Internationale de Finance – IFC 3 (mars 2005) Cahier hors série n°1 Finance Cahier hors série n°2 Bourse Cahier hors série n°3 Formalisation et Modélisation Cahier n°9 : International (Edité en mai 2005) 4 Cahier n°10 : Marketing : études et décisions managériales (Edité en septembre 2005) Cahier n°11 : Actes du colloque de ressources humaines du 24 novembre 2005 « La responsabilité sociétale de l’entreprise : quel avenir pour la fonction RH ? » (Edité en janvier 2006) Cahier n°12 : Stratégie (Edité en mars 2006) Cahier n°13 : Normes IFRS (Edité en juillet 2006) Cahier n°14 : Corporate Governance (Edité en octobre 2006) Cahier n°15 : Dynamique des organisations (Edité au 1er trimestre 2007) Cahier n°16 : Actes du colloque IFC 4 (Parution 2ème trimestre 2007) Cahier n° 17 : Actes du colloque : « Entrepreneuriat, nouveaux défis, nouveaux comportements » (Parution 3ème trimestre 2007) CRISC prochainement disponibles Cahier n° 19 : Le management des systèmes d’information (Parution 1er trimestre 2008) 5 Sommaire PARIENTE Georges p7 Doyen de la recherche de l’ISC Paris Editorial BOYER Sébastien p 10 Agir en marketing : l’approche structurale BOYER Sébastien et KAMIN Ronald p 41 Study of Market Plasticity CACHO-ELIZONDO Silvia et COM Morgane p 54 Le blog dans la communication d’une marque corporative : une illustration dans le secteur de la restauration CAZALS François p 73 Web 2.0 et Marketing LOUSSAIEF Leïla p 82 L’utilisation des modèles de causalité dans la recherche en marketing MAUFFRE Christian-Eric et BERGER Charles p 96 Créateurs de maladies : fantasme ou réalité marketing Le disease mongering face aux enjeux de santé MORIN Marc p 109 Le marketing des ressources humaines : phénomène de mode ou nouvelle méthode de travail en GRH ? MOTARD Stéphane p 134 Le business case comme outil de positionnement de la DSI et des Directions Opérationnelles au sein des instances stratégiques de l’entreprise : l’exemple du projet CRM TOURNESAC Yann Les outils usuels d’évaluation de la rentabilité des salons et des foires 6 p 172 Editorial Georges PARIENTE Docteur ès Sciences Economiques Doyen de la recherche à l’ISC Paris C’est à Leïla LOUSSAIEF, docteur en sciences de gestion, professeur responsable du laboratoire REMAS (Recherche Marketing Stratégie) à l’ISC Paris, que revient l’initiative et la coordination de ce CRISC n°18 entièrement écrit comme les précédents par les enseignants de l’ISC Paris. L’article de Sébastien BOYER, diplômé de l’ENSAE, professeur de marketing à l’ISC Paris, spécialiste de l’analyse de données et de la segmentation marketing, porte sur l’approche structurale. Il explique que les segmentations et les typologies ne doivent pas être seulement du ressort des statisticiens et des chargés d’études et qu’elles ne doivent pas non plus être dissociées de l’action envisagée. Il montre comment la démarche par structuration permet de clarifier la problématique et d’intégrer l’ensemble des paramètres pouvant agir sur la dynamique du marché (caractéristiques socio-démographiques, styles de vie, bénéfices perçus, relation au prix…). En collaboration avec Morgane COM, diplômée ISC Paris et conceptrice de blogs, Silvia CACHO-ELIZONDO, doctorante à HEC et professeur à l’ISC Paris, jette la lumière sur l’utilisation des blogs comme moyen de communication. A travers l’étude d’un cas dans le secteur de la restauration, l’article examine l’ampleur du phénomène de la blogosphère en France et met en valeur le rôle des blogs dans la stratégie de communication de l’entreprise. Il en ressort que le blog est un moyen efficace pour gérer la communication des changements stratégiques, même si ce type de canal de communication peut parfois conduire l’entreprise à faire face à certains risques. Restant dans le même univers, François CAZALS, gérant-fondateur du cabinet de conseil Distriforce, professeur et responsable pédagogique du MBA Marketing relationnel et technologies de l’information à l’ISC Paris, consacre sa réflexion aux apports du Web 2.0 au marketing. Nouvelle étape de développement de l’Internet, le Web 2.0 s’appuie sur une rupture technologique : la démocratisation des réseaux à haut débit. Cette dernière 7 s’accompagne d’une convergence numérique entre les différents terminaux d’accès (téléphones fixes et mobiles, ordinateurs, organisateurs personnels ou consoles de jeux). L’Internet devient ainsi social, communautaire et les contenus générés par les internautes se développent fortement comme, par exemple, dans les publications sur les blogs . Sébatien BOYER de nouveau, cette fois avec Ronald KAMIN, professeur responsable de l’option de troisième année Marketing stratégie, nous propose une étude originale de la plasticité d’un marché. A la différence de l’analyse marketing classique qui se concentre sur les affinités sujet/objet, l’espace de plasticité apparait comme un espace de potentialités de changements et non plus comme un espace de positions. L’article de Leïla LOUSSAIEF explique le fonctionnement des modèles de causalité dans la recherche en marketing. L’intérêt de ces modèles est de prendre en compte la différence entre les construits théoriques non observés et leurs mesures empiriques, permettant ainsi de se rapprocher davantage de la réalité. Se basant sur des équations structurelles, ces modèles peuvent également être utilisés pour démontrer l’effet modérateur d’une variable. Docteur en pharmacie et enseignant à l’ISC Paris, Christian-Eric MAUFFRE présente avec Charles BERGER, ESSEC, Docteur en médecine, professeur de marketing de la santé à l’ISC Paris, un travail sur le disease mongering (littéralement le fait de voir la maladie partout pour y apporter un remède). L’article fait le point sur un phénomène considéré par d’autres comme conjoncturel et parasitaire, relayant des critiques fréquemment faites à l’industrie pharmaceutique. En analysant les mécanismes sous-tendant l’irruption dans le paysage médical de nouvelles pathologies et leurs réponses, le rôle des scientifiques, des patients et des institutions, l’auteur met en valeur les facteurs de dérives et en mesure le poids et le risque réel face aux enjeux de santé publique lorsqu’il s’agit de vendre son traitement ou une molécule participant à ce traitement. Le terme est proche de la notion de marchéage, création du besoin avant de proposer le produit apte à le satisfaire. Le marketing utilise d’ailleurs la mise en place d’une politique de marchéage propre à accroître la demande de ces produits. Marc MORIN, docteur en sciences économiques et en sciences des organisations, professeur responsable du PREMA, Pôle de Recherche en Entrepreneuriat et Management à l’ISC Paris, jette les ponts entre le marketing et la gestion des ressources humaines. Il cherche ainsi à explorer l’avenir possible des techniques de commercialisation applicables par les entreprises. Ces dernières peuvent par exemple s’appuyer sur les techniques marketing de segmentation et de ciblage pour attirer les 8 candidats au recrutement. Elles peuvent également mettre en place des systèmes de rémunération « à la carte » basés sur une première approche des « besoins - désirs » des salariés. L’article s’interroge sur les avantages économiques mais aussi sur les freins à l’utilisation de ces techniques. Docteur ès-sciences sociales et professeur de marketing à l’ISC Paris, Stéphane MOTARD montre comment l’informatique a acquis un nouveau statut au sein des instances stratégiques de l’entreprise depuis qu’elle a gagné en ergonomie et en ouverture au client (via l’extranet notamment). Les projets CRM permettent en effet aux DSI et aux Directions MarketingVente d’avoir un langage commun. De même, le business case donne à ces directions un langage financier objectivant, leur donnant ainsi la possibilité de s’identifier à des structures entrepreneuriales proches des préoccupations stratégiques et temporelles des instances dirigeantes. Enfin, Yann TOURNESAC, diplômé ISC, professeur d’entrepreneuriat à l’ISC Paris nous présente une étude des outils financiers d’évaluation des salons et des foires qui génèrent des budgets souvent importants pour des durées de vie par nature très brève. Un cas concret, le salon Green Expo, illustre la démonstration. Toute l’équipe de ce CRISC espère que cette présentation de nouveaux outils d’analyse stratégique et opérationnelle en marketing aura retenu votre attention et reste, comme d’habitude, à l’écoute de vos remarques critiques et suggestions. Georges PARIENTE Doyen de la Recherche [email protected] Les articles sont classés par ordre alphabétique des noms d’auteurs . 9 Sébastien BOYER Professeur à l’ISC Paris ENSAE Agir en Marketing : l’approche structurale L’analyse quantitative par les segmentations et typologies au service de l’action marketing Abstract All marketers have heard about (or used) segmentation or clustering. Buy how many of them were actually part of the building process of this strategic tool ? How many of them actually completed the intellectual path which starts from the marketing problem and the acceptable range of action, ending up with the choice of variables, the way to combine segmentation criteria, etc… ? Building segments and clusters is (wrongly) considered as the domain of statisticians and researchers. We will show that, in reality, cutting a market into groups, i.e. ‘structuring’ a market, is a fundamental act in marketing, which cannot be separated from marketing action. Going through a structuring process, with the help of segmentation and clustering, means clarifying the marketing problem and following a course which culminates in action that takes into account all parameters which have an impact on market dynamics, not just one aspect or another (demographics, lifestyle, perceived benefits, price relationship, etc.). For complex strategic problems, in particular, it is the structural approach that makes quantitative research fully actionable. Keywords Segmentation, typologie, structuration de marché, action marketing 10 Résumé Tous les marketeurs ont entendu parler (ou ont utilisé) des segmentations ou des typologies. Mais combien d’entre eux ont été réellement partie prenante dans la construction de cet outil stratégique ? combien d’entre eux ont déroulé le raisonnement qui part de la problématique marketing et des actions possibles vers le choix des variables, la manière de combiner les critères de segmentation, etc. ? L’élaboration des segmentations et les typologies est, à tort, considérée comme l’affaire des statisticiens et des chargés d’études. Nous montrerons qu’en réalité, le découpage d’un marché, autrement dit sa « structuration », est un acte fondamental en marketing, indissociable de l’action envisagée. Procéder par structuration, à l’aide de segmentations et de typologies, c’est clarifier la problématique et s’acheminer vers une action qui prend en compte l’ensemble des paramètres qui ont un impact sur la dynamique du marché, et non simplement un aspect ou un autre (socio-démographie, styles de vie, bénéfices perçus, relation au prix, etc.). Pour les problématiques stratégiques complexes, en particulier, c’est l’approche structurale qui rend les études quantitatives réellement actionnables. Mots-clés : Segmentation, typologie, structuration de marché, action marketing Plan 1. Qu’est-ce que « l’approche structurale » ? 2. Méthode de travail 2.a. Structurer : oui, mais sur quoi ? 2.b. La vision préalable du marché 2.c. Structure et ciblage : pas si simple… 2.d. Le recours à l’analyse multi-structures pour résoudre des problèmes marketing complexes 3. Trois exemples d’analyse multi-structures 3.a. Cas simple : optimisation d’un ciblage socio-démographique (âge) 3.b. Cas semi-complexe : campagne de communication d’une enseigne physique et virtuelle 3.c. Cas complexe : comment une marque de masse peut-elle se différencier en communiquant sur un produit hyper-banalisé ? 11 Introduction Le but de cet article est d’exposer les principes d’un certain type d’analyse quantitative, dont la particularité est d’être entièrement axée sur l’action marketing. Ce type d’analyse est appelé « analyse marketing structurale », car on y a recours aux méthodes de structuration connues sous le nom de segmentations et typologies (ici quantitatives), et d’une manière générale à toutes les possibilités de groupement des individus considérés comme appartenant au « marché » que l’on souhaite analyser. Nous commencerons par montrer pourquoi l’utilisation des structures est non seulement un fil conducteur pour analyser des données sans jamais perdre de vue le problème marketing initialement posé, mais aussi une aide à la formalisation de ce problème (Section 1). Puis nous étudierons la méthode de travail (Section 2.) qu’implique cette approche par les structures, et dont les quatre éléments principaux sont : • • • • La connaissance des données qui servent d’ingrédients pour créer des segmentations et des typologies La vision préalable du marché, qui permet de dialoguer avec les marketeurs et de dresser un inventaire des structures possibles pour le marché étudié La maîtrise du raisonnement marketing, qui permet notamment de passer de la notion de segment à celle de cible Le recours à l’analyse multi-structures pour résoudre des problèmes marketing complexes Enfin, nous terminerons par trois exemples de problématiques résolues par l’analyse multi-structures (Section 3). 1. Qu’est-ce que « l’approche structurale » ? Les segmentations et les typologies sont des techniques dont tous les marketeurs connaissent l’existence, au moins à leur niveau le plus élémentaire. En voici quelques exemples classiques: • • • • • • 12 Catégories d’âge : 15-24 ans, 25-34 ans, etc. Classes sociales : A, B, C, D, E. Segmentation du type PMG (Petits-Moyens-Grands), qui catégorisent les consommateurs d’un marché selon la fréquence d’utilisation ou la quantité de produit utilisée Segmentation par vitesse d’adoption d’un nouveau produit : Innovateurs, Leaders, Early Adopters, etc. Segmentation ou typologie par bénéfices recherchés Etc. Il peut sembler paradoxal d’associer ainsi action marketing et techniques de structuration. En effet, dans les schémas de pensée habituels, les segmentations et les typologies sont plutôt du domaine du chargé d’études ou du statisticien, pas du marketeur. Les segmentations, c’est de la « cuisine », il n’y a qu’à « appuyer sur un bouton ». Bref, parler de segmentation ou de typologie, ce serait s’égarer bien loin de l’action marketing. En réalité, il n’en est rien. Arrêtons-nous un instant sur un exemple simple, pour ne pas dire générique : vous souhaitez accroître la part de marché de votre marque. Votre marché, comme la plupart des marchés, est mûr, saturé par l’offre ; il y a donc peu de chances que l’évolution de ce marché soit « mécaniquement » favorable à votre marque, que ce soit par croissance organique ou par redistribution interne. Autrement dit, pour accroître votre part de marché, il va falloir influencer l’évolution de ce marché dans un certain sens. Concrètement, cela signifie agir pour capter des clients qui sont aujourd’hui des clients d’autres marques, ou/et capter plus de non-clients que les autres marques. Parlons des clients des autres marques. De quelles marques s’agit-il ? Et de quels clients ? Car, pour chaque marque concurrente, on peut distinguer : • Des clients qui sont fidèles à la marque, qui sont proches de la marque et constituent son cœur de cible ; • Des clients totalement routinisés, qui ne prêtent aucune attention à cet acte d’achat et ne changeront pas de marque ; • Des clients réceptifs, plus susceptibles de changer de marque. Cette dernière population est celle qui nous intéresse. Mais est-elle homogène ? Sans doute pas. Il faut la décomposer en différents types de besoins, de motivations, de possibilités d’achat, etc. Donc, qu’on le veuille ou non, on est déjà en train de raisonner par découpages successifs : 1. clients v. non-clients ; 2. clients fidèles v. clients routinisés v. clients réceptifs ; 3. types de clients réceptifs (ici, plusieurs possibilités segmentation ou de typologie) de Bref, on est déjà en train de découper, donc de structurer, pour savoir comment agir. Autrement dit, sur cet exemple de problème stratégique simple, on comprend que la construction de groupes, qu’elle passe par une segmentation, une typologie, ou une combinaison de ces méthodes, est un acte analytique fondamental en marketing, et ce pour au moins 3 raisons : 13 • • • Agir en marketing, c’est chercher à influer sur la situation d’un marché. Il faut donc analyser cette situation. Or la pensée humaine a naturellement tendance à catégoriser pour structurer son environnement. Sans structurer, sans classer, il nous est difficile d’analyser et de décider, surtout lorsque le champ d’analyse comporte plusieurs dimensions. Lorsqu’il s’agit de nos relations personnelles avec les autres, catégoriser les êtres humains est hautement discutable. Mais en marketing, où nous devons réfléchir 1 et agir sur des masses d’individus , c’est la base-même du discernement. Le raisonnement structural est un mode d’analyse qui rapproche de l’action en délimitant des périmètres qui correspondent à chaque modalité d’action : on y construit des groupes parce qu’à chaque groupe correspondra une stratégie particulière. Toute action marketing (repositionner une marque, lancer un nouveau produit, diversifier ses clients, etc.) se concrétise par un acte de communication, ce qui sous-entend une « cible ». Pour faire très court : agir en marketing, c’est cibler. Or la cible est, de fait, une structure : elle différencie ceux qui sont concernés par le message de ceux qui ne le sont pas (hors-cible). On peut décliner cette notion plus souplement, la graduer : on aurait alors des cibles prioritaires, des cibles secondaires, etc. : ce sont tout autant de structures que l’on définit. En réalité, l’utilisation des structures en analyse marketing va plus loin. Prenons l’exemple d’un concept connu en marketing : les early adopters. Il s’agit d’une notion que l’on peut définir avec un certain réalisme pour un 2 type de produit donné . Les études par lesquelles on tente de définir ce groupe montrent tout d’abord que les early adopters se trouvent à la convergence de 3 critères : • • • 1 Besoin du nouveau produit (ou affinité, propension à s’identifier à lui) ; Niveau d’information suffisant ; Réactivité par rapport à l’information reçue. Le marketing dit « one-to-one » procède aussi d’une vision stratégique globale, même s’il se traduit par des messages individuels. De plus, message « individuel » (un e-mail publicitaire, par exemple) ne signifie pas nécessairement message « individualisé ». L’un des objectifs des segmentations et typologies est d’ailleurs d’optimiser cette fameuse individualisation, composante essentielle de la concrétisation du ciblage. 2 La notion d’early adopter est une notion locale et relative, pas généraliste : les early adopters de l’informatique ne sont pas ceux des détergents. Il n’existe donc pas d’early adopters « tous azimuts ». 14 Cette première approche des early adopters est donc, d’ores et déjà, à l’intersection de 3 structures puisque, pour chaque critère, il faut identifier les consommateurs éligibles. Mais ayant dit cela, on n’a défini que le périmètre de cette notion : l’ensemble des early adopters potentiels. C’est la structuration interne de ce périmètre qui revêt un caractère réellement stratégique. Pour cela, il faut structurer cette population des early adopters en la confrontant aux paramètres du marketing-mix. En clair, pour un produit donné, certains groupes d’early adopters correspondent à certains canaux de distribution, à certains niveaux de prix, etc. Il ne s’agit donc pas seulement de savoir qui sont les early adopters ou combien sont-ils, mais surtout de connaître leurs différents profils afin de déterminer stratégiquement la « qualité » des early adopters, qui va définir le produit aux yeux des autres consommateurs et influencer tout son cycle de vie. Par les deux exemples précédents, on comprend que les structures, loin d’être un détour théorique, font entrer dans une démarche concrète qui permet de TOUCHER réellement la cible de conquête privilégiée que sont les early adopters stratégiques, pas seulement d’en parler. Il en va de même pour la notion, centrale en marketing, de « concurrence ». Combien de fois entendons-nous des affirmations du genre : « Notre concurrent, c’est la marque A. ». Pour un marketeur, c’est une affirmation qui va de soi. Pour un analyste, ça ne veut rien dire, ce n’est que le début d’une investigation. « Concurrent », oui mais : • • • • • Concurrent sur quel cible ou quel segment de marché ? Les concurrents de la marque ne sont pas forcément les mêmes sur tous les segments. Quelle géométrie concurrentielle sur les différents segments ? Mêmes produits sur des cibles différentes ? Produits différents visant les mêmes cibles ? La concurrence se limite-t-elle aux cœurs de cible des 2 marques, ou existe-t-elle pour l’ensemble des clients de la marque ? Sur quels éléments du mix cette concurrence se manifeste-t-elle ? Mêmes territoires de communication ? Ou concurrence uniquement sur les prix ? Comment s’articule la segmentation des acheteurs de chaque marque sur leur degré de fidélité et d’attachement à la marque ? Comment ces deux segmentations se croisent-elles ? Où la marque concurrente peut-elle être attaquée ? Qu’est-il permis d’espérer dans cette situation ? Pour répondre à ces questions complexes sur la réalité concrète de la concurrence, il faut dépasser les limites de l’analyse quantitative ordinaire, qui est essentiellement descriptive ou explicative. L’approche par les 15 structures permet une analyse de potentialités d’un marché, ce qui constitue évidemment un apport-clé pour l’optimisation de l’action en contexte concurrentiel. Alors, « cuisine de statisticien » ? En un sens oui ; mais, comme toute cuisine, elle peut être bonne ou mauvaise. Le savoir-faire du cuisinier est certes essentiel, mais le cuisinier ne cuisine pas pour lui-même. En réalité, les aspects statistiques ne constituent que le quatrième et dernier point d’appui d’une bonne analyse par les structures. Plus précisément, la démarche statistique doit se placer au service de 3 aspects primordiaux : • • • L’analyse et l’objectif marketing : que veut-on faire ? Avec quels moyens ? Dans quel contexte concurrentiel ? L’aspect « étude quantitative » : il faut que l’analyse structurale soit basée sur une étude quantitative fiable (terrain, échantillonnage, questionnaire, prise en compte des particularités de l’univers interrogé, etc.) Le contexte organisationnel : une bonne segmentation, c’est avant tout une segmentation que l’organisation comprend et peut utiliser (avec notamment la possibilité de la répliquer dans des études ultérieures, quantitatives ou qualitatives) Ce dernier point peut sembler superflu, et pourtant il n’est pas inutile de rappeler que la meilleure segmentation du monde, statistiquement impeccable, procédant d’une analyse marketing solide, basée sur une étude fiable, etc. … n’est d’aucune utilité pour l’entreprise si les forces internes ne se l’approprient pas durablement. Le socle de l’approche par les structures, c’est bel et bien le raisonnement marketing et sa traduction dans l’organisation. L’analyse par les structures fait le lien entre l’expression d’une problématique marketing et les réponses que l’on peut tirer de l’interrogation des consommateurs. Autrement dit, pour beaucoup de problématiques stratégiques, c’est l’approche par les structures qui rend les études actionnables. Bref, l’analyse par les structures, c’est analyser pour agir. Nous tenterons d’en démontrer la richesse et l’efficacité en expliquant les quatre éléments3 clés de la méthode de travail proposée par l’analyse structurale , puis en exposant trois exemples de problématiques résolues par l’analyse multistructures. 3 Nous n’exposerons pas ici les méthodes statistiques de construction de segmentation ou de typologie. Pour ces développements techniques, on consultera avec grand profit l’excellent ouvrage : Data Mining, de Michael J.A. Berry et Gordon Linoff (InterEditions, Paris, 1997) 16 2. Méthode de travail Bien souvent, la requête du marketeur est expéditive et lacunaire : « Nous voulons une segmentation ». Certes, l’essentiel est dit : l’analyste à qui s’adresse cette requête sait que son rôle sera, en final, de proposer une structure. Mais l’analyste sait aussi que les structures (segmentations et typologies) ne sont que des outils s’inscrivant dans un processus souvent complexe de raisonnement marketing. Autrement dit, savoir construire des segmentations et des typologies, c’est bien, mais ce n’est pas très utile si l’on ne sait pas intégrer ces outils en fonction de l’enjeu et du contexte. L’approche par les structures suppose donc une certaine méthode de travail, et cette méthode repose sur quatre éléments : • • • • La connaissance des données qui servent d’ingrédients pour créer des segmentations et des typologies La vision préalable du marché, qui permet de dialoguer avec les marketeurs et de dresser un inventaire des structures possibles pour le marché étudié La maîtrise du raisonnement marketing, qui permet notamment de passer de la notion de segment à celle de cible Le recours à l’analyse multi-structures pour résoudre des problèmes marketing complexes 2.a. Structurer : oui, mais sur quoi ? La question est vaste, on peut d’ailleurs la comprendre à 2 niveaux : • • Un niveau théorique : théorie de la segmentation en marketing, qui correspond au champ de recherche abondant intitulé ‘market segmentation theory’ dans la littérature anglo-saxonne. Un niveau pratique : quelles sont les possibilités offertes par les études quantitatives pour segmenter ? Le niveau théorique est passionnant, car il soulève de vraies questions, et plus particulièrement la question fondamentale : doit-on décider sur quoi on va structurer les sujets ? Autrement dit, ne peut-on pas trouver une méthode qui permette de repérer des structures « naturelles » ou non biaisées ? 17 Il faudrait idéalement consacrer un ouvrage entier à ces questions. Dans le cadre de cet article, elles nous emmèneraient trop loin, car ce n’est pas seulement la méthode statistique qui est en cause, mais également la manière de collecter une information souvent déclarative. Contentons-nous de mentionner que certains chercheurs, ayant constaté les faiblesses conceptuelles des procédés courants de segmentations, se sont interrogés sur d’autres possibilités de catégoriser les consommateurs. Ces débats ne sont pas récents : il faudrait, par exemple, déterrer un papier de 1955 signé George Kelly4 et analyser ce que ces propositions apportent vraiment. Enfin, précisons que, malgré une idée assez couramment répandue, le data mining n’a pas résolu ce problème. Tout d’abord, le fond technique du data mining n’est pas autre chose qu’un corpus de méthodes connues et traduites sous forme d’algorithmes ; il ne se situe donc pas au niveau théorique de ce débat. Par ailleurs, le vrai data miner est celui qui connaît bien ces algorithmes : « laisser faire la machine » ou « appuyer sur un bouton » sont des mythes. Revenons au niveau pratique. Les auteurs proposent différentes classifications des angles de segmentation. Par exemple, Marsden et 5 Littler distinguent les segmentations qui se concentrent sur : • • • La manière dont les gens pensent (attitudes) La manière dont les gens se comportent (usage) La manière dont les gens sentent (émotions) 6 J.J. Lambin distingue : Segmentation socio-démographique ou descriptive Segmentation par avantages recherchés (différences dans les systèmes de valeurs vis-à-vis du marché/produit/service étudié) Segmentation comportementale Segmentation socio-culturelle ou styles de vie 7 Schnaars distingue (non limitativement) : • 4 Géographie (pays, région) George A. Kelly (1955), The Psychology of Personal Constructs, Vol1 1 and 2, Norton, New York. 5 David Marsden et Professor Dale Littler, Product Construct Systems: a Personal Construct Psychology of Market Segmentation, European Advances in Consumer Research, Volume 2, 1995, Washington State University, Vancouver. 6 J.J. Lambin, Le Marketing Stratégique, Ediscience 1998. La lecture de l’intégralité du Chapitre 6 est recommandée. 7 Steven P. Schnaars, Marketing Strategy, The Free Press 1997. 18 Socio-démo Utilisation du produit Qualités perçues du produit (ou de la marque) • • • 8 Wind distingue : • • • • • • • Socio-démo Socio-culturel, style de vie Bénéfices recherchés Utilisation du produit Préférences Sensibilité au prix Fidélité à la marque 9 Snellman , étudiant la segmentation sous un angle historique, distingue : • • • • • Les segmentations géographiques Les segmentations démographiques Les segmentations orientées produits o Par type d’usage o Par type de bénéfice Les segmentations comportementales o Sur l’intention d’achat et la fidélité o Sur les motivations et attitudes Les segmentations psychographiques o Personnalité o Style de vie La conclusion de cette énumération est qu’il existe plusieurs manières de classer les variables de segmentation, mais que toutes ces manières tournent autour des mêmes notions. Tout au plus peut-on synthétiser ces approches par le formalisme suivant : • • • Stucturation des sujets, au travers de leurs caractéristiques propres (socio-démographiques, socio-culturelles, etc.) Stucturation des sujets, au travers de leurs relations sujet-objet (les différents usages et attitudes) Stucturation des objets (images de marque, bénéfices perçus, etc.) 8 Yoram Wind, ‘Issues and Advances in Segmentation Research’, Journal of Marketing Research, August 1978, pp. 317-337 9 Kaisa Snellman, From one segment to a segment of one – the evolution of market segmentation theory, February 2000, Swedish School of Economics and Business Administration Working Papers. 19 Mais, en pratique, le choix d’une approche de segmentation ne dépend pas que de la problématique marketing. Un niveau de contingence, par exemple, est la disponibilité de données adéquates. Problème que l’on pourra contourner, dans certains cas, par des rapprochements entre sources de données. Ces rapprochements peuvent aller de la simple mise en parallèle de résultats à la réplication d’une question ou d’une segmentation par modélisation, voire à la fusion lorsque celle-ci est possible. Par ailleurs, le choix d’une segmentation dépend aussi du destinataire de l’outil. En effet, pour un chef de produit, une segmentation sur les bénéfices recherchés fait sens. Pour des acteurs de la communication, une segmentation combinant les besoins et les profils psychographiques est pertinente. Pour un directeur commercial, une segmentation sur les potentiels de vente ou de rentabilité est indispensable. Autrement dit, il faut se reporter à l’intention première qui a suscité la requête, comprendre comment et dans quel contexte la segmentation va être utilisée dans l’entreprise. En réalité, derrière cette demande se cachent presque toujours 3 souhaits fondamentaux : • • • structurer une vision marketing ; identifier une cible ; construire une stratégie pour l’atteindre. Le dernier souhait (construire une stratégie pour atteindre une cible particulière) relève du marketing « pur et dur », nous ne traiterons pas ici cet aspect. La question de l’identification de la cible est évidemment un point critique, et nous verrons dans la suite de cette partie en quoi la structure (segmentation ou typologie) peut s’avérer suffisante ou insuffisante pour déterminer une cible. Mais revenons au tout premier souhait, qui est primordial : avant de structurer quoi que ce soit, marketeurs et analystes doivent avant tout partager une même vision du marché. Sans vision du marché, qui peut affirmer que l’on doit structurer sur telle dimension ou telle autre ? 2.b. La vision préalable du marché Nous avons vu précédemment que beaucoup de variables différentes peuvent servir de base à une segmentation. L’analyste a-t-il, pour autant, le choix ? Il est certes possible d’essayer plusieurs solutions et les comparer à leur « tête » : un coup de segmentation sur les motivations, un coup de segmentation sur les bénéfices, etc. Mais la pratique est un peu différente, car deux cas peuvent se présenter : 20 • • Soit la problématique marketing impose, après raisonnement, de segmenter sur un certain registre de variables. Soit la problématique marketing impose, après raisonnement, de prendre en compte une multitude de paramètres, contrainte qui va se traduire par une combinaison de variables. On voit donc que, dans les deux cas, on ne choisit pas arbitrairement : chaque registre de variables correspond à un paramètre possible de la problématique marketing. C’est pourquoi la construction d’une segmentation passe nécessairement par une formalisation de la problématique marketing. Cette formalisation est souvent interactive, voire itérative. Idéalement, elle se traduit par un dialogue entre le marketeur et l’analyste. Mais ce dialogue n’est possible que s’il s’appuie sur une vision commune du marché. Cette vision commune apporte non seulement un langage commun, mais elle permet aussi d’inventorier l’ensemble des structures élémentaires qu’il est possible de construire sur un marché. L’une des manières d’arriver à une telle vision est de dresser le schéma stratégique du marché. Le schéma stratégique se place au niveau du client final et cherche à dessiner l’histoire de sa rencontre avec le produit, de son origine à sa suite (fidélisation, changement de comportement, propagation à d’autres personnes). Ce schéma présente plusieurs utilités : • • • Dresser un schéma complet du déroulement d’une relation sujet– objet sur le marché considéré ; Situer l’ensemble des paramètres de l’action marketing par rapport à ce déroulement ; Repérer les segmentations qui seront utiles pour le diagnostic stratégique. Il n’est pas toujours nécessaire de recourir à une étude quantitative pour dessiner ce schéma. Typiquement, une étude qualitative, ou même l’expérience du marketeur est suffisante. En revanche, une étude quantitative est nécessaire pour mettre des chiffres en face de chaque événement. Considérons un premier exemple de schéma stratégique : la « rencontre » avec un parfum (de manière qualitative seulement, les chiffres correspondants étant confidentiels) : 21 Propagations Achat pour offrir Interactions Imitation de l'entourage Publicit é, notori é té, promotions … Actes Rê ve Cadeau Réaction de l'entourage Désirs Intention d'achat Essai Pas d'utilisation Achat / Utilisation ( Ré-)achat Arrê t de l'utilisation Ruptures Schéma stratégique de la « rencontre » avec un parfum Ce schéma permet de situer l’ensemble des paramètres de l’action marketing pour la marque considérée : • • • • • • • • Investissements publicitaires, canaux de communication Positionnement du discours publicitaire Promotions, niveau de prix Echantillons Fidélisation Gamme de produits associés au parfum (produit « Corps », etc.) Innovation technique, ingrédient-phare Canaux de distribution Le schéma permet également d’imaginer toutes sortes de segmentations : • • • • • • • Sur le niveau de connaissance du marché (comptage du nombre de parfums connus, à partir de la mesure de notoriété) Sur le profil socio-démographique et/ou psychographique Sur le processus d’adoption du parfum actuel Sur la stabilité, la fidélité Sur les territoires de communication Sur les interactions avec l’entourage Etc. Considérons un autre exemple issu d’une étude sur les traitements du cholestérol. On y raconte aussi l’histoire d’une manière linéaire : 22 s s e ède ns n ède anc n n rem tratio atio rem acte res jectifs iss atio es atio situ us l aut s b des nna situ à l’ tion d et fr alis ica es» des d t o ence riété e la rs e eco opre is é e d p g r édic e s és ivi m s a erce flu noto m n lt eu «mala gard in La a pr s u in p io s a ig p r p fic s re su ent Les prè La L’o La Les Les Dif Le de Le Le Int L’a Le schéma stratégique est particulièrement important d’un point de vue méthodologique : 1. Il présente une vision d’ensemble, évitant ainsi que l’on se focalise « a priori » sur un seul aspect du problème, au risque de passer à côté des relations avec d’autres aspects. 2. Il permet non seulement de distinguer, entre plusieurs possibilités de segmentations, celles qui seront déterminantes pour répondre à la question posée, mais aussi de repérer les variables qui joueront un rôle essentiel lors de la validation de la segmentation, à savoir les variables passives ou illustratives. 3. Il permet d’aborder la suite du processus : sélection des variables actives et plan d’analyse 4. Il permet de mener (et de communiquer aux autres) le raisonnement marketing qui justifie votre choix de segmentation. 2.c. Structure et ciblage : pas si simple… Qu’il s’agisse d’une segmentation ou d’une typologie, vient toujours un moment où, ayant « écrit la partition », il faut la « jouer » , c’est-à-dire : • • Expliquer les spécificités de chaque segment / type Expliquer en quoi la segmentation / typologie permet de répondre à la question posée, donc déterminer une ou des cibles et commencer à ébaucher la ou les stratégies correspondantes A cette étape, l’analyste peut être confronté à certaines idées reçues sur les caractéristiques d’une « bonne » segmentation ou typologie. Par exemple, on estime souvent que les segments ne doivent pas être trop nombreux ou trop petits. Ces idées reçues en révèlent une autre, plus importante encore : l’amalgame entre segment et cible. En réalité, les segments et les types sont rarement des cibles, et le passage de l’un à l’autre n’est pas si simple. C’est pourquoi, à l’étape de la segmentation, certains segments peuvent être de petite taille si l’analyse et la réalité le justifient. L’important est de présenter une analyse 23 cohérente par rapport à la problématique marketing initiale. On précisera ensuite que ces segments, étant de taille réduite, ne seront pas ciblés (ou pas isolément), mais cela n’est pas une raison pour occulter leur existence. Le problème, c’est que lorsqu’un chargé d’études ou un statisticien produit une segmentation ou une typologie, puis présente les segments ou les 10 clusters obtenus à son client , celui-ci se met immédiatement à raisonner en terme de cibles. Il pense qu’il peut choisir une cible ou une autre, et baser sa stratégie là-dessus. Un tel raccourci s’avère le plus souvent faux. Ce serait envisageable si le client et sa marque étaient seuls au monde, et si le marché était totalement statique ou totalement élastique. Ces conditions « idéales » ne sont jamais réunies. On assiste donc, en présentation, à des raisonnements « par correspondance » : ce segment-là correspond bien à notre image, « il nous plaît bien ». Le fameux segment est alors promu au rang de cible sans plus de formalité. Il y a en réalité 2 cas. Soit la segmentation présentée est vraiment la segmentation finale, le point d’orgue du raisonnement marketing. Auquel cas il faut en tirer les conclusions stratégiques qui s’imposent, qui peuvent 11 être plus élaborées que de choisir une cible. Schnaars répertorie six stratégies possibles à partir d’une segmentation : • • • • • • Se concentrer sur le plus gros segment A chaque segment son produit Le même produit pour tous les segments Se concentrer sur un petit segment Créer un nouveau segment (par exemple, en redécoupant et en assemblant des segments existants) Fractionner en plus petits segments Tout ceci est évidemment schématique et dépend de la problématique et du contexte. Mais cette liste a le mérite de montrer qu’il n’y a pas qu’une stratégie possible pour utiliser une segmentation. Le deuxième cas, qui est finalement le plus fréquent, c’est que le raisonnement marketing ne se termine pas avec les segments identifiés. Le raisonnement marketing reste toujours en mouvement, et les structures le servent jusqu’au bout. Autrement dit, il faut raffiner les segments ou les types, en les croisant par d’autres paramètres. Il faut optimiser un segment pour qu’il puisse devenir une cible. Et même, le plus 10 On parle ici de la segmentation finale, bien sûr, pas des éventuelles segmentations dites « intermédiaires », qui servent de briques de construction de la segmentation finale. 11 Steven P. Schnaars, Marketing Strategy, The Free Press 1997. 24 souvent, la cible réelle est définie par croisement de plusieurs segments ou types. Cette distinction entre segment/type et cible, ainsi que les ressources développées par le croisements de plusieurs structures, sont caractéristiques de l’analyse multi-structures, dont nous poserons les bases dans les pages suivantes. 2.d. Le recours à l’analyse multi-structures pour résoudre des problèmes marketing complexes La structuration est toujours un moyen, pas un but en soi. Une segmentation ou une typologie peut apporter des réponses à beaucoup de questions. Mais quelles questions ? Car il existe plusieurs niveaux de questionnement en marketing. A un premier niveau, les segmentations servent simplement la tendance de la pensée humaine à catégoriser. Ce sont les « structures naturelles » : catégories d’âge, tranches de revenu, classes sociales, clients v. non-clients, acheteurs de telle marque v. non-acheteurs, etc. Elles sont essentielles, mais sont typiquement des variables intermédiaires à utiliser dans le cours du raisonnement. Elles ne permettent pas d’accéder à une vision stratégique ou de trouver la solution à un problème marketing. A un deuxième niveau, on construit des structures dans une intention de synthèse : segmentations PMG, typologies, etc. Ces structures synthétiques ne servent plus seulement le besoin de catégorisation de la pensée humaine : elle propose une vision structurée pour l’entreprise sous la forme d’un outil synthétique. Ces 2 premiers niveaux relèvent de l’analyse structurale simple, qui permet de répondre à des questions du genre : • • • • • • • Quels sont les segments qui génèrent le revenu le plus élevé ? Les plus rentables ? Les moins rentables ? Quels sont les segments qui n’achètent que notre marque ? Qui achètent notre marque ainsi que d’autres ? Qui n’achètent pas notre marque ? Quels sont les différents niveaux d’usage sur le marché (PMG) ? Quels sont les besoins de chaque segment ? Quelle prestation devons-nous impérativement améliorer, et pour qui ? Vers quels canaux de distribution devons-nous faire un effort pour gagner des parts de marché ? Sur quels segments sommes-nous très présents ? pas assez présents ? absents ? 25 • • • • Quel est notre niveau de notoriété dans les différents segments ? Notre image ? A quel mode de communication les différents segments sont-ils le plus sensibles ? Quel est le contrat de base pour l’ensemble des segments ? Les « plus » pour chacun des segments ? Peut-on distinguer plusieurs segments selon leur processus d’achat ? Il n’est pas rare que l’analyse quantitative s’arrête au niveau de l’analyse structurale simple. C’est typiquement le niveau des segmentations et des typologies dont on se sert pour réfléchir, pour structurer son environnement commercial. S’il y a ciblage à partir de cette vision, on considère donc (implicitement) que l’un des segments ou types identifiés est une cible à part entière. La vision structurée apportée par l’analyse structurale simple est utile, mais là encore ce n’est qu’une étape intermédiaire, et non un résultat final, si l’on doit résoudre des problèmes plus complexes. Un troisième niveau d’analyse par les structures permet d’approcher (et parfois de résoudre) des problèmes stratégiques : c’est l’analyse multi-structures. Là encore, les questions de cadrage stratégique peuvent être plus ou moins complexes. Certaines questions posées sont relativement explicites. Elles mettent en jeu de multiples variables, mais on pressent assez bien le raisonnement qui peut conduire à une réponse sensée, par exemple : • • • • • • • 26 Quels sont les segments les plus fidèles à notre marque ? Ceux qui risquent le plus de « switcher » ? Quels sont les segments les plus réceptifs aux nouvelles offres du marché ? Quels sont les segments les plus sensibles aux promotions ? Parmi ceux-ci, lesquels sont fidélisables ? Peut-on construire une segmentation des grands profils d’utilisateurs en prenant compte plusieurs paramètres : niveau d’usage, type d’utilisation, motivations, besoins, etc. Quels sont les segments que l’entreprise doit impérativement garder ? Ceux que l’entreprise peut se permettre de perdre ? Ceux qui doivent être « transférés » vers d’autres produits ? Comment optimiser notre ciblage socio-démographique ? Comment synthétiser en une seule segmentation l’ensemble des paramètres socio-démographiques qui ont un impact sur l’acte d’achat (sexe, âge, revenu, etc.) ? L’analyse multi-structures est souvent pressentie comme une nécessité, sans nécessairement être formalisée comme telle. Philip Kotler, dans son 12 récent livre intitulé « Ten Deadly Marketing Sins » , note tout d’abord que la plupart des entreprises « peuvent améliorer notablement leur segmentation du marché. (…) Trop souvent, elles arrêtent leur segmentation au niveau démographique ou descriptif ». Cet appel implicite à une multi-dimensionnalité des segmentations est ensuite précisé : « D’abord, essayez de segmenter les individus de votre marché selon les besoins ou les bénéfices recherchés. Puis essayez de trouver les caractéristiques démographiques corrélées à ces besoins et à ces bénéfices ». Ce qui est une manière assez simple de poser le principe d’une segmentation croisée des besoins et des profils socio-démo. C’est un premier niveau d’analyse multi-structures, et pourtant Kotler en constate déjà la rareté. Nous en verrons un exemple simple ci-après. Le recours à l’analyse multi-structures est presque systématique dès qu’il s’agit de répondre à des questions stratégiques complexes, questions qui ont d’ailleurs des allures d’énoncé de problèmes de concours général de mathématiques, car rien n’y est dit ou presque : • • • • • • • • • Quel est/sont le(s) « cœur(s) de cible » de notre marque ? Quels sont les segments les plus difficiles à conquérir ? à maintenir ? Quels sont les segments qui devraient être intéressés par notre nouveau produit ? Peut-on identifier des segments selon leur niveau d’inertie et leurs critères de changement potentiel de comportement ? Peut-on identifier des segments selon le niveau d’intensité de la concurrence ?Comment structurer notre clientèle actuelle (et potentielle) pour accompagner le développement de nouveaux produits ? Notre produit est-il trop cher ? pas assez cher ? Comment améliorer notre concept pour gagner des parts de marché ? Comment positionner notre marque pour gagner des parts de marché ? Comment structurer notre gamme pour optimiser notre chiffre d’affaires ? Nous sommes ici au cœur de l’analyse multi-structures, qui permet de distinguer le possible de l’impossible, de mesurer les forces en 12 Ph. Kotler, Ten Deadly Marketing Sins, ed. Wiley 27 présence sur le marché, de situer par où le changement sur le marché peut passer, ce qui régit l’interaction entre plusieurs aspects. Dans un certain nombre de cas, l’analyse mono-structure suffit pour répondre à des questions stratégiques : par exemple, une segmentation 13 classique basée sur les besoins peut faire l’affaire . Mais sur des marchés saturés, sur des marchés pris dans la tourmente de processus complexes de fragmentation, les choses ne sont pas si simples. D’abord, les « besoins » n’expliquent pas tout. Sur certains marchés, d’ailleurs, la notion-même de « besoin » est inopérante. Par ailleurs, sur des marchés fortement concurrentiels, chacun a déjà fait sa segmentation sur les besoins et cible déjà à peu près les mêmes clients. Il y a donc besoin d’une approche structurale « de deuxième génération » pour se différencier efficacement. Au fond, la fameuse phrase « Nous voulons une segmentation », par son côté étrangement lacunaire, n’exprime pas autre chose que cette recherche un peu velléitaire « d’autre chose », d’une segmentation plus « sioux », plus fine, plus astucieuse, plus lucide que la précédente ou que celle du concurrent. 3. Trois exemples d’analyse multi-structures L’analyse multi-structures n’est pas seulement une généralisation de l’analyse mono-structure. C’est, comme on dit, un « changement de paradigme ». La référence n’est plus l’observation, ni même la compréhension des mécanismes de marché, qui sont bien sûr toutes deux nécessaires, mais l’action finale. Nous allons maintenant illustrer ce propos par trois exemples de complexité croissante. Le premier exemple montre comment l’analyse multi-stuctures permet, assez simplement d’ailleurs, de « toucher » quantitativement une notion souvent évoquée en marketing : l’âge psychologique. La finalité de cet exercice est, là aussi, une nécessité quasi-générique : il s’agit d’optimiser un ciblage socio-démographique. En cela, on y montre déjà comment l’analyse multi-structures permet de passer d’un univers de groupes apparemment figés à un univers de potentialités. Le deuxième exemple traite des problèmes que rencontre une enseigne qui possède à la fois des magasins physiques et un site marchand pour communiquer à la fois vers les internautes et les non-internautes. Ce cas déjà plus complexe illustre parfaitement comment l’analyse multistructures instrumentalise les techniques de segmentation et de 13 Voir le cas traité dans la presentation intitulée ‘An Introduction to Market Segmentation’, Malcolm Mac Donald, téléchargeable sur le site http://www.marketsegmentation.co.uk. 28 typologie, les utilise en complément d’autres méthodes statistiques telles que l’analyse multivariée, tout en associant un sens précis à chaque étape technique au regard du problème marketing que l’on cherche à résoudre. Le troisième exemple tente de débrouiller les fils d’une interrogation apparemment insoluble : Comment une marque de masse vendant un produit très banal (le yaourt nature) peut-elle se débanaliser sur ce produit banal ? L’exemple ne vaut pas seulement comme exposé d’une démarche marketing complexe, mais aussi comme illustration d’une spécificité de l’analyse multi-structures, qui est d’approcher la résolution de problèmes sans faire usage de concepts élaborés tels que la Brand Equity, Brand Identity, etc. Il n’est donc pas nécessaire de maîtriser (ni d’y souscrire…) ce type de concepts pour aborder cette analyse sur les marques. 3.a. Cas simple : optimisation d’un ciblage socio-démographique (âge) Prenons l’exemple d’un annonceur qui, commercialisant des produits pour les jeunes, cible une catégorie définie socio-démographiquement : les 1534 ans. Une question de pose : peut-on optimiser cette cible ? c’est-à-dire en redéfinir les contours pour mieux communiquer et concentrer la pression média sur les seuls 15-34 ans qui sont réellement pertinents comme cible pour ce produit ? On pense ici à la notion d’âge « psychologique », reflet de la mentalité plus ou moins « jeune » du sujet. On comprend intuitivement le concept, mais comment mesurer cet âge psychologique de manière plausible ? Pour cela, on a recours à des items socio-culturels, qui sont des phrases sur lesquels chaque personne interrogée doit se prononcer sur une échelle (généralement du type : Tout à fait d’accord, plutôt pas d’accord, plutôt pas d’accord, pas du tout d’accord), par exemple : • • • • J’aime prendre des risques Ma famille est plus importante que mes amis J’aime faire plusieurs choses à la fois (téléphoner en conduisant, etc.) Etc. Or, il se trouve que beaucoup de ces items sont corrélés à l’âge. Il y a donc des items plutôt « jeunes », d’autres plutôt « vieux ». Voici quelques exemples de dimensions socio-culturelles qui entrent typiquement comme composantes de l’âge psychologique: 29 • Dimensions « jeunes » : o Entertainment o Rêve et imagination o Carrière professionnelle o Séduction • Dimensions liées à la « maturité » : o Ingrédients naturels o Valeurs familiales o Recherche de la stabilité o Respect des traditions En procédant à une régression avec l’ensemble de ces items comme 14 variables explicatives, et l’âge réel en variable à expliquer, on obtient une combinaison numérique des items socio-culturels qui est porteuse d’un certain pouvoir prédictif de l’âge : cette combinaison numérique est appelée « scoring d’âge psychologique ». Si une personne interrogée obtient un scoring élevé, elle est plutôt « jeune dans sa tête ». Si le scoring est faible, c’est le contraire. Le graphique suivant permet de visualiser l’amplitude du scoring d’âge psychologique pour un âge physique donné: 80 70 60 Psychological age scoring 50 40 30 20 10 0 10 20 30 40 50 60 70 80 Age 14 Si l’âge exact n’est pas disponible, on peut utiliser des tranches d’âge : 15-24 ans, 25-34 ans, etc. Auquel cas on n’utilisera pas la régression mais l’analyse discriminante pour construire le scoring d’âge phychologique. 30 Par exemple, une personne âgée de 40 ans peut avoir un âge psychologique de 60 ans… ou de 25 ans… De tels écarts impliquent des différences importantes en termes d’aspirations et de valeurs. Dans un second temps, on procède à une segmentation de ce scoring, par exemple en 2 groupes. Puis on croise avec l’âge réel, lui aussi segmenté en 2 groupes, d’où 4 cas de figure possibles : • • Des situations normales : o Des gens jeunes avec des opinions typiques de leur catégorie d’âge o Des gens d’âge murs avec des opinions typiques de leur catégorie d’âge Des situations contrastées : o Des gens jeunes avec des opinions « mûres » o Des gens d’âge murs avec des opinions « jeunes » « Age psychologique » Mûr ! Mûr Jeune : ! ils sont jeunes, mais leurs attitudes sont celles de personnes plus mûres ! Jeune Jeune : ils ne sont plus jeunes et leurs attitudes correspondent à leur âge ! ils sont jeunes et leurs attitudes sont jeunes Mûr Mûr : Jeune Mûr: ils ne sont plus jeunes, mais leurs attitudes sont restées jeunes Jeune Jeune Age physique Mûr Pourquoi utiliser l’âge psychologique ? Parce que le ciblage par les seules socio-démo est notoirement insuffisant. On a donc besoin de dimensions plus qualitatives. Pour cette raison, les médias ne se définissent plus seulement par leur profil en termes de catégories d’âge et de proportion de CSP+. Ils investissent dans des études médias-marchés (SIMM, TGI) qui leur permettent de qualifier leur audience en termes de profil socio-culturel et d’habitudes de consommation. 31 Considérons le tableau suivant, extrait d’une étude réelle où les 2 âges (physique et psychologique) ont été segmentés en 3 groupes : Ps ycho lo gical ag e (3 ca te go ri es ) Age (3 ca te go ri es ) To ta l 1 5 -34 3 5 -54 5 5+ 1 5 -34 % tab le au 1 6,1% % tab le au 1 7,2% % tab le au ,4% % tab le au 3 3,7% 3 5 -54 4,5% 2 5,3% 4,7% 3 4,5% ,3% 1 7,1% 1 4,3% 3 1,8% 2 0,9% 5 9,6% 1 9,5% 10 0,0% 5 5+ To ta l On y constate que : • La moitié des 15-34 ans ont un profil psychologique de 35-54 ans • La moitié des 55 ans et + ont un profil psychologique de 35-54 ans Les implications en termes d’optimisation de cibles sont énormes : • • Si l’on cible l’ensemble des 15-34 ans pour commercialiser un produit réellement « jeune », on a une déperdition d’au moins 50%, correspondant à la partie de la cible dont l’âge psychologique ne correspond pas à l’âge physique ciblé. De même pour les 55 ans et +, dont une bonne moitié ne se perçoivent certainement pas comme des « vieux », et ne seront donc pas sensibles aux mêmes arguments commerciaux. 3.b. Cas semi-complexe : campagne de communication d’une enseigne physique et virtuelle Prenons l’exemple (bien d’actualité) d’une enseigne qui possède à la fois des magasins physiques et un site marchand. Cette enseigne souhaite s’adresser à la fois aux internautes et aux non-internautes dans une campagne de communication, et elle souhaite connaître les orientations optimales d’un discours qui soit : • • 32 adapté au profil socio-culturel des 2 populations (internautes et non-internautes) ; sans prédominance socio-démographique (ni spécifiquement « jeune », ni CSP+, etc.) Pour une requête aussi spécifique, il fallait une méthode spécifique. Nous avons procédé de la manière suivante : • • • • Etape 1 : o Détermination de l’univers de l’étude : internautes + noninternautes susceptibles de le devenir o Analyse des Correspondances Multiples d’une batterie d’items socio-culturels Etape 2 : o Projection de la variable PMG des Internautes (nombre d’heures passées sur Internet en moyenne chaque jour) o Sélection des axes minimisant la distance entre les niveaux d’utilisation d’Internet Etape 3 : o Typologie sur les axes sélectionnés o Croisement des types avec les socio-démo habituelles (âge, niveau de revenu, etc.) o Elimination des types trop spécifiques sociodémographiquement Etape 4 : o Etude du profil des types restants : caractéristiques communes, différenciateurs o Elaboration du cahier des charges du discours selon ces caractéristiques communes et différenciateurs o Détermination d’une cible correspondant à ce cahier des charges En apparence, nous parlons ici « cuisine ». En réalité, chaque étape exprime une partie importante du raisonnement marketing : • La question posée relève des territoires de communication. Il y a potentiellement deux manières d’approcher cette notion de territoire. o Soit on l’envisage en recherchant pour la marque une différenciation fonctionnelle : bénéfices recherchés, offres spéciales, etc. auquel cas il faut segmenter le marché sur des critères d’usage. o Soit on veut mener la bataille sur le terrain de l’image. C’est l’option qui a été choisie ici, puisque l’on parle de profil socio-culturel. L’étape 1 permet d’obtenir la structure socio-culturelle de la population considérée, sans poser le clivage Internautes v. non33 Internautes comme critère de différenciation a priori ; c’est le cadre de l’action marketing envisagée. 34 • Dans l’étape 2, on met de côté ce qui différencie les 2 populations, puisque l’on souhaite s’adresser indifféremment à l’une ou à l’autre. Nous procédons par sélection d’axes. Pourquoi ? Après tout, nous aurions pu procéder par typologie sur l’ensemble des axes factoriels, puis repérer les types sur lesquels les internautes ne sont ni sur-représentés ni sous-représentés. Cette solution aurait été moins adéquate pour deux raisons : o Risque de travailler avec des types très « centraux », donc très neutres socio-culturellement ; o Risque de voir ces groupes sous-tendus par un profil socio-démographique particulier. Au lieu de commencer par une analyse factorielle pour en sélectionner les axes qui rapprochent internautes et noninternautes, nous aurions pu passer par une comparaison des profils socio-culturels des deux populations, ce qui aurait permis d’identifier les points de convergence. Le résultat aurait été une sélection de variables proche de celles qui contribuent le plus aux axes que nous avons sélectionnés, mais en moins rigoureux, puisque ne tenant pas compte des corrélations inter-variables. Par ailleurs, sachant que nous devions réaliser une typologie, il aurait fallu soumettre cette sélection de variables à une analyse factorielle pour en extraire les axes principaux. • A l’étape 3, nous sommes sur le « terrain socio-culturel commun » des internautes et des non-internautes. Mais, même sur ces dimensions, la population n’est pas homogène. Il nous faut donc connaître : o les différences socio-culturelles qui sont susceptibles d’apparaître sur ce terrain commun ; ici encore, nous ne faisons pas intervenir la différence Internautes v. nonInternautes comme critère : ce qui nous intéresse, ce sont les différences « naturelles » à l’intérieur du terrain commun défini par les axes considérés. o les clivages socio-démographiques que ces différences socio-culturelles sont susceptibles d’entraîner (et réciproquement), car nous voulons une campagne généraliste, pas spécifiquement « jeune » ou « CSP+ », etc. • L’étape 4 est d’abord qualitative. Il n’y a pas de méthode « scientifique » pour retenir ou écarter une caractéristique socioculturelle ou une autre. Le choix des dimensions à inclure dans le cahier des charges s’opère dans un champ délimité par les étapes précédentes, toutes quantitatives, mais le choix à l’intérieur de ce cadre est libre. Une fois ce choix arrêté, la conclusion est quantitative, puisqu’il y a détermination d’une cible en fonction de plusieurs dimensions. Le déroulé du raisonnement illustre plusieurs caractéristiques de l’analyse multi-structures : • • • • • • • points tout à fait Comment on peut utiliser l’analyse par les structures pour répondre à une question qui n’est pas posée en termes de structures (la question ne mentionne aucun besoin de segmentation ou de typologie) ; Comment il est possible de mener un raisonnement assez élaboré sans jamais s’éloigner de la question initialement posée ; Comment le raisonnement sur la problématique marketing se traduit par des choix méthodologiques et statistiques ; Chaque décision statistique a un sens logique, nous sommes ici dans la « sémantique du chiffre » ; La segmentation ou typologie n’est pas forcément le « mot de la fin », l’outil qui permet de tout synthétiser. Ici, il s’agit d’une étape intermédiaire. Il n’y a pas de correspondance automatique entre types et cibles. Dans cet exemple, la cible finale ne correspond à aucun des groupes de la typologie. La décision s’appuie sur une démarche quantitative élaborée, mais elle n’est pas uniquement quantitative. Dans l’analyse multistructures, l’utilisation du matériel quantitatif sert à cadrer, à construire un lien concret entre ce dont on parle et les gens que cela concerne concrètement. 3.c. Cas complexe : comment une marque de masse peut-elle se différencier en communiquant sur un produit hyper-banalisé ? Comment une marque de masse vendant un produit très banal peut-elle se débanaliser sur ce produit banal ? Ainsi pourrait-on résumer ce cas, mais ce serait raconter l’histoire « à l’envers », car la question ne nous fut pas posée en ces termes. Voici le contexte en quelques mots. X. est une marque de yaourts (parmi les leaders). Connue initialement pour ses yaourts nature (comme la plupart des marques de yaourts), X. a considérablement accru son chiffre d’affaires en diversifiant ses produits (comme la plupart des marques de yaourts) : 35 • • • • Crèmes desserts Yaourts aux fruits Yaourts 0% Desserts tout prêts A présent, X. enregistre une faiblesse concurrentielle sur son produit d’origine, à savoir le yaourt-nature. D’où la question : comment reconquérir des parts de marché sur le yaourt nature, et ce : • sans cannibaliser les autres produits ; • sans créer de nouveau concept-produit (option exclue à court terme). Question marketing simple… mais qui soulève plusieurs problèmes : • • • • • • Tout d’abord, le yaourt nature est un produit hyper-banalisé, qui ne fait guère rêver. Le yaourt nature a, par définition, relativement peu d’attributs extérieurs qui peuvent le différencier d’un yaourt nature d’une autre marque. On adopte un yaourt nature en fonction de son goût ou de sa consistance, ou en fonction de son prix. Le lancement du fameux yaourt au bifidus a été une formidable astuce technique pour créer une variante sur le yaourt nature. L’astuce a tellement bien marché que, sans pourtant créer de nouveau concept (comme le yaourt à boire), l’astuce s’est transformé en marque. Mais ce coup-là ne marche pas forcément plusieurs fois. Par ailleurs, l’étude des habitudes d’achat laisse apparaître une forte routinisation sur une ou deux marques de yaourt nature, donc peu de potentiel de changement de marque sur ce produit. On peut jouer sur le « haut de gamme », à travers un produit incarnant plus d’authenticité par son pack, son positionnement publicitaire… mais c’est déjà fait. Une telle marque a déjà été créée et déclinée sur plusieurs produits. On peut jouer sur le prix, mais la stratégie n’est pas forcément gagnante sur la durée, et ce n’est pas la politique du groupe. On peut jouer sur la qualité intrinsèque du produit, sur la « vertu » du yaourt nature. Mais en cette période de remise en cause des produits sucrés à l’intention des enfants, cette communication pourrait avoir un effet cannibalisateur sur d’autres produits de la marque. Décidément, la marge de manœuvre est bien étroite. Il s’agit du produit le plus banal, portant le nom de la marque du groupe, sans possibilité de décliner une nouvelle identité sur une nouvelle marque ou un nouveau produit. Cette connivence marque centrale + produit d’origine est d’ailleurs si bien ancrée chez les consommateurs que toutes les études qualitatives 36 montrent la correspondance entre l’image du yaourt nature et les valeurs de la marque. Et c’est précisément cette connivence qui va nous orienter pour l’analyse. En effet, fort de ce constat d’impossibilité d’agir par une communication centrée sur le produit, c’est cette connivence avec les valeurs de la marque qui va nous guider pour trouver la cible, suivant un processus en deux étapes : Etape 1 : identification de la cible potentielle de conquête La cible potentielle de conquête se définit comme la population ne consommant pas (ou peu) de yaourts nature, mais dont on peut estimer, au travers de certains critères statistiques, que sa « propension » à en consommer est plus forte que la moyenne. L’analyse permet de préciser ce « ne consommant pas (ou peu) ». En effet, sur ce type de produits, les Gros consommateurs (soit environ 40% d’un échantillon représentatif de Français âgés de 15 ans et plus) représentent plus de 75% des ventes. On peut donc considérer, du point de vue de l’action marketing, que la cible de conquête est définir à l’intérieur des quelques 60% restants, c’est-à-dire les Petits et Moyens consommateurs de yaourts nature. Mais, par ailleurs, l’analyse montre que l’overlap entre les Gros consommateurs des différents produits laitiers est fort. Autrement dit, si l’on veut éviter le risque de cannibalisation entre produits, il faut combiner une forte propension à consommer des yaourts nature et une faible propension à consommer d’autres produits laitiers. La définition de la cible de conquête (en langage courant) serait donc la suivante : il s’agit de personnes : • qui ne sont pas actuellement des Gros consommateurs de yaourts nature ; • mais dont les caractéristiques socio-démographiques et socioculturelles : o ne sont pas en contradiction avec cette forte consommation de yaourt nature ; o rendent la forte consommation d’autres produits plus improbable. Pour traduire ces critères en structures, nous avons considéré l’ensemble des variables socio-démographiques et socio-culturelles mises à notre disposition, puis nous avons sélectionné les variables qui présentaient de 37 forts écarts de propension en faveur du yaourt nature et en défaveur d’autres produits. Ces variables étaient les suivantes : • sexe : le yaourt nature est situé du côté féminin • âge : la propension à consommer certains produits laitiers varie beaucoup par catégories d’âge • situation familiale : le yaourt nature est situé, on s’en doute, du côté des couples avec enfants. • divers items socio-culturels que nous avons regroupés par classification hiérarchique, d’où les thématiques suivantes : Matérialisme, Préoccupations écologiques, Bien-être, Enracinement, etc. Un scoring a été construit sur l’ensemble de ces variables discriminantes, avec définition d’un seuil de manière à isoler la population dont la probabilité d’être Gros consommateur de yaourts nature est la plus 15 élevée . Le tableau suivant représente le croisement entre la propension et la consommation réelle : Forte propension statistique Faible propension statistique TOTAL Gros consommateurs de Yaourts Nature 20% 21% 41% Petits et Moyens consommateurs de Yaourts Nature 16% 43% 59% TOTAL 36% 64% 100% Ce tableau montre un lien satisfaisant entre la propension statistique et la consommation réelle, puisque la probabilité d’être un Gros consommateur de yaourt nature est de 56% (20% / 36%) parmi les individus à forte propension, alors qu’elle n’est que de 33% (21% / 64%) parmi les individus à faible propension. On pourrait obtenir un pouvoir discriminant plus important en fixant un seuil plus élevé, mais pour des raisons d’effectif statistique, il a paru souhaitable de conserver une taille correspondant à au moins 15% pour la cible potentielle de conquête. 15 Plusieurs critères sont valides pour fixer le seuil : rapport de probabilité, effectif maximum recherché, etc. 38 Il reste à vérifier que cette cible est synonyme non seulement de forte propension à être Gros consommateur de Yaourts Nature, mais aussi d’une faible propension à consommer d’autres produits laitiers, comme le montre le tableau suivant : Catégorie de produits Indice Gros consommateurs Yaourts Nature Crèmes desserts Yaourts aux fruits Yaourts 0% Desserts tout prêts 136 82 87 110 77 Or ce tableau montre que nous n’avons pas réussi à dissocier, par la modélisation statistique, la forte consommation de Yaourts Nature et celle de Yaourts 0%. On utilise donc le même procédé pour modéliser la propension à être Gros consommateur de Yaourts 0%, puis on élimine les individus à propension forte de la cible potentielle de conquête. La structure finale est la suivante : Forte propension statistique Faible propension statistique TOTAL Gros consommateurs de Yaourts Nature 17% 24% 41% Petits et Moyens consommateurs de Yaourts Nature 15% 44% 59% TOTAL 32% 68% 100% Cible potentielle de conquête 39 Avec les indices de forte consommation : Catégorie de produits Indice Gros consommateurs Yaourts Nature Crèmes desserts Yaourts aux fruits Yaourts 0% Desserts tout prêts 130 84 91 80 79 Etape 2 : identification de la cible utile de conquête Nous avons ensuite recherché, en utilisant toutes les ressources offertes par les questions socio-culturelles et de caractérisation des consommateurs, à déterminer la part de la cible potentielle en affinité avec les valeurs de la marque. Pour cela, nous avons suivi une méthode de quantification d’un profil qualitatif. Les scorings ont permis d’identifier 8% (parmi les 15% de la cible potentielle de conquête) présentant un niveau d’affinité suffisant avec les valeurs de la marque. Nous recommandions alors, pour cette cible, une communication axée sur les valeurs de la marque mais conservant la présence du produit d’origine comme incarnant ces valeurs. Ce cas illustre plusieurs apports de l’analyse multi-structures pour des problématiques complexes : • • 40 La réflexion est centrée sur les contingences de la situation : o Au niveau marketing : ce qu’on peut faire, ce qu’on ne peut pas faire o Au niveau des structures : croisement de structures afin de déterminer des potentialités L’analyse permet de passer d’un niveau à l’autre de concepts marketing : partant d’une problématique produit, on en vient à raisonner au niveau de la marque, etc. Pour autant, la question de départ (augmenter la PDM du Yaourt Nature) n’est jamais perdue de vue : si la requête avait été d’identifier la cible la plus intéressante pour communiquer les valeurs de la marque, la réponse eût été bien différente. Sébastien BOYER Professeur à l’ISC Paris ENSAE Ronald KAMIN Professeur à l’ISC Paris Responsable de l’option Marketing stratégie MBA de l’Université de Virginie Study of market plasticity Résumé Les gens ont leurs habitudes, et le marketing ne peut pas se permettre d'ignorer cette donnée, puisque son fondement-même est la capacité d'influencer les consommateurs. Ainsi, quoique l'on fasse en marketing, cela se ramène toujours à: essayer de changer (conquête) les habitudes des gens ou essayer de les préserver (fidélisation). Donc l'action marketing passe par une évaluation de ce qui est possible, versus ce qui n'est pas possible, en termes de capacité d'influence des comportements d'achat des consommateurs, étant donné le tissu des habitudes existantes sur le marché. Au vu de ce simple constat, nous introduisons le concept de plasticité de marché, qui est une propriété de la relation sujet-objet. "Plasticité" signifie que la relation sujetobject est plus ou moins « déformable », donc influençable par un facteur extérieur. Tout d'abord, nous examinerons les fondamentaux de la relation sujet-objet et introduirons la notion de champ des possibles. Puis nous verrons comment l’habitude se situe au centre des paramètres de l’action marketing. Enfin, nous introduirons les principes de l'analyse dynamique de l’habitude et de la plasticité. 41 Abstract People have their habits, and marketing cannot ignore that, because its very basis is the ability to influence consumers. So, whatever we do in marketing, it always comes back to: trying to change (conquest) or trying to preserve (loyalty) people's habits. Therefore, So, marketing action is about assessing what is possible versus what is not possible, in terms of an ability to influence the purchasing behavior of consumers, given the web of existing habits that pervade the market. Based on this simple fact, we introduce the concept of market plasticity, which is a property of the subject-object relationship. It means that the relationship between a person an object (product, brand) is more or less “malleable” and therefore open to outside influence. First of all, we will examine the basic principles of the subject-object relationship and introduce the concept of 'field of possibles'. We then look at how habit works as the core parameter for marketing action. Finally, we introduce the principles behind the dynamic analysis of habit and plasticity. Introduction : the central role of habit in marketing actions The ability to influence the actions of consumers is the basis of marketing. If there were no such power, there would be no more marketing, since the results of any marketing action would be a matter of chance. Admittedly, this idea verges on the tautological. Nevertheless, the marketing world is currently engaged in questioning the much-vaunted 16 “ability to influence" that is the very justification for any action . This questioning is not a merely intellectual matter: the issue affects every marketer who faces the need to act. So it is a real crisis of effectiveness, i.e., a crisis concerning this ability to influence, which was thought to be a settled and well-understood matter. In fact, we are now seeing that we have perhaps not understood it all that well, now that times have changed and our practices are being re-examined. Today's markets are saturated, consumers are feeling harassed, and marketing campaigns are expensive. Accordingly, marketing actions need to be made more efficient, by 16 See the invitation to the 2006 National Discussion Day organized by UDA-ADETEM [French national advertisers and marketers associations]: “Just hiccups—or a serious malaise? Marketing in general and marketing studies in particular are currently experiencing a crisis, and this National Discussion Day, organized jointly by ADETEM and UDA, is designed to outline the foundations for a rebuilding of the enterprise”. 42 • • • • Optimizing the campaign's objectives: to what extent can consumers be influenced? Within what limits? Optimizing the words: how can we exert an influence? Optimizing target definition: who can we influence (in a given direction)? Optimizing the channels of communication: how can we make our message heard by the people we really want to reach? But these renowned consumers, they are simply us, our family, our friends, and our colleagues. At our own personal level, therefore, we can observe and measure to what extent this much-vaunted “ability to influence" is, ultimately, presumptuous. People have their habits, there are far too many products on offer, and each message tends to obliterate the previous one. Admittedly, in rapidlygrowing markets (new technologies), it is reasonable to want to alter the behavior of the many, since each new product is likely to create new habits. However, in mature or even commonplace markets (detergents, yogurt, etc.), how much can marketing actually claim to do? Yes, of course: there's novelty. But one cannot conjure up a new thing every day and even newness wears off. And moreover, who are the people who are going to hear this message about novelty? Nevertheless, marketing “works”, even in the most ordinary of markets. Every marketer can testify to it: a product that is not backed up by marketing inevitably sees its sales decline. Some brands are more successful than others, and this is not just chance, so something is indeed possible—but what, exactly? So, basically, when we talk about marketing actions: • • • we are discussing what is possible versus what is not possible... … in terms of an ability to influence the purchasing behavior of consumers … … given the web of existing habits that pervade the market. To formalize this “web of existing habits”, we now introduce the concept of market plasticity, which is a property of the subject-object relationship. To understand it, consider the example of an ultra-commonplace purchase: yogurt. For some people, this purchase is entirely without interest: they always buy the same brand and the same product without thinking, period. The transaction has become totally “routinized”, and the potential for feeling differently about it is low. On the other hand, and for other subjects, there 43 may be the possibility of an emotional drive: for example, for certain mothers the maternal dimension of yogurt may cause messages in this area to be heard, and to lead to a change of brand. In other words, there is not just one group of people who never change their brands, and another group that changes all the time. It is all a matter of degrees, and this relative quality of the subject-object relationship is what we will call plasticity, meaning that the relationship is more or less “malleable” and therefore open to outside influence. The degree of plasticity is the conceptual expression of the following phrase, which sums up the essential dynamic of a subject-object relationship: “Habit is therefore contained within the region of opposition 17 and movement” . This concept of plasticity represents a fundamental contribution, the cornerstone of a practically-oriented analysis. It is the formal expression of 18 the question “what is possible?” (see the works of John A. Howard ). However, traditional marketing analysis, particularly as regards the positioning of brands, tends to concentrate more on subject-object affinities. It even portrays affinity spatially (mapping of the proximity between brands as projected into the subject’s space). The question “what is possible?” enables us to go further and to introduce a new space: the space of plasticity, which is no longer a positional space but a space defining the potential for change. Using quantitative analysis, we will then attempt to locate the various areas of greater or lesser plasticity within a market. We are looking for answers to the following questions: “Who is likely to change? Or not to change? And in what direction?” 1. Examining the basic principles of the subject-object relationship: the concept of a field of possibles “Twelve seconds elapse between the moment when a consumer approaches the shelf and the moment when the article is placed in the cart”. These are the opening words of an article by Barbara E. Kahn 17 18 De l’Habitude [On Habit], by Félix Ravaisson, ed. Payot & Rivages, Paris, 1997; p. 111. Buyer Behavior in Marketing Strategy, John A. Howard, Prentice Hall, 2nd Ed., 1994. 44 19 devoted to brand strategies and consumer behavior . This discussion also states that the consumer “considers an average of only 1.2 brands”. Of course, the accuracy of such figures is open to question. These are averages; it all depends on the type of purchase, etc.—and how was such an estimate obtained? And under what conditions, etc.? We can certainly discuss the matter indefinitely. But the bottom line is that even if the consumer takes 14 seconds instead of 12, and considers 1.6 brands instead of 1.2, a number of conclusions are inescapable: • • • • Consumer choices are often rapid choices. This rapidity is based on a certain memory, which predates the 20 present contact with the point of sale . A quick decision relies on signs that are immediately identifiable— and here we can foresee the importance of brands (and nonbrands). At the moment of purchase the memory trace is influenced to a greater or lesser extent by factors that belong to the point of sale. The issue for the point of sale, therefore, is to establish an immediate connection with the various representations in the consumer's memory. What then is this “memory trace” that seems to condition such a large part of the buying act? Let us begin by saying that a memory trace is not only mental: it is a combination of emotional, physical, social, situational, and other factors. It is truly a sort of interior universe that we must endeavor to understand, and that impacts upon the subject-object relationship. Thus, what we call a “market” actually consists of a multitude of these interior universes, i.e., subject-object relationships, which are more or less similar or different. Studying the structure of this set of subject-object relationships will enable us to build sound marketing strategies. We can go beyond the previous findings: if the decision to purchase is semi-instantaneous, then habit must play a major role. But in obeying this habit, what are we trying to repeat? Or to avoid? Conversely, when we break a habit, what are we trying to change? 19 Les Stratégies de Marque et le Comportement des Consommateurs [Brand Strategies and Consumer Behavior], by Barbara E. Kahn, in Les Echos http://www.lesechos.fr/formations/marketing/articles/article_4_5.htm) 20 Note: throughout this discussion, “point of sale” should be understood in its general sense. It may be a physical point of sale (a store), an internet shopping site, or a mail-order catalogue. 45 To put it another way, the subject-object relationship immediately displays two characteristics: • • For each purchase, the subject considers only a limited number of options: he or she does not “weigh” all of the products offered for each choice. Thus for each subject, and before each purchase, there is a field of possibles. This field of possibles is made up of positive traces (favorable valuations of objects acquired previously), negative traces (dissatisfaction, low opinions), and a more or less strong routinization resulting from these traces, from the subject's personality (propensity to form habits or to change them), and from the interest that the subject brings to this purchase (reactive or extremely commonplace markets). This concept of a field of possibles leads to a level of generalization that is higher than our example of “12 seconds and 1.2 brands”. Indeed, this concept applies to all types of purchase, including the less frequent ones, e.g., a car. Admittedly, this purchase takes more than 12 seconds (we don't stick a car in our shopping cart), but the principles that make up the field of possibles remain valid: we generally consider a fairly limited number of brands (in any event, certainly not all the makes of car available on the market), and the state of satisfaction or dissatisfaction regarding our current vehicle is a determining factor in the selection of the new automobile. Note also that this concept of a field of possibles is not restricted to the consumer market. In the B-to-B market, the conditions surrounding the purchase are of course quite different, and the service component is usually much more important, but similar laws are in effect. The rep usually comes to the buyer, rather than the buyer going to the shelves, but the reaction of the potential buyer is often quick, and difficult to reverse. The main motivation of this choice is again customer satisfaction, whether direct or indirect (by propagation: forums, word of mouth); if someone tells me that they like a particular make of computer, or if I have had a bad experience with a supplier, the memory persists and the subsequent reflex is immediate. Since the concept of a field of possibles is the basis of the subjectobject relationship, a number of practical questions arise: • • 46 How is each subject’s field of possibles formed? In what respect and how is it possible to influence it? • What must we look at in attempting to understand this formation? What are the consequences as regards the method of analysis? As we attempt to answer these questions, our starting point for discussion will be, naturally enough in view of the examples mentioned above, the concept of habit—which is obviously at the center of the process of compiling each subject's field of possibles. 2. Habit as the core parameter for marketing actions We start with this concept of habit, which is simple enough, and easy to understand on an everyday basis, and we have seen that it plays a central role in all buying acts, whether they are for objects in the short-term consumption cycle (FMCGs: food, toiletries, etc.) or the long-term one (automobiles, technology, etc.). The importance of habit is no longer in question. Besides the work of John 21 A. Howard , ACNielsen has recently conducted a study on this subject, as part of its Winning Brands research program. Two important points emerge 22 from this study : • • 50% of buying decisions are dictated by habit; this habit is expressed in a small number of “personal rules” that the subjects build for themselves, and that influence most of their purchases; But these rules are sometimes broken by the subjects themselves, if only out of a desire for change, which leads to a development in the subject’s purchasing behavior. In other words, habits are likely to change at certain moments. That excellent philosopher Félix Ravaisson was the first to draw our attention to a fundamental truth: “Habit persists beyond the change that 23 produces it” . This observation emphasizes the fact that habit is a dynamic process characterized by: • • A trigger A positive internalization The memory trace that we discussed earlier is the result of this “positive internalization”, because “habit does not only involve adaptation (...), it 21 Buyer Behavior in Marketing Strategy, John A. Howard, Prentice Hall, 2 nd Ed., 1994. In MRNews, June 4, 2004 (Consumers ‘on auto-pilot’) 23 op. cit. p.30. 22 47 assumes a change in attitude” least temporarily. 24 In other words, habit alters the being, at This degree of formalization, although it may appear somewhat removed or “high flown” with respect to our central concern (marketing actions), actually enables us to better situate all the components that make up the parameters of this action: • • • • • We can speak of positive internalization, because “in fact, there is nothing that we can specifically conceive of, that we have not already described to ourselves, in an imaginary space. And any specific conception, by its very nature, must contain the more or less 25 obscure awareness of voluntary activity, of the personality” . In other words, I need to find myself in this internalization. The purchase must provide me with some content that reflects a certain image of myself, that becomes an experience. In other words, the prerequisite for positive internalization is either absence (this market and this buying act are totally routinized, and are given very little attention), or experience (experiential marketing). We also see the important place occupied by the brand (or by the line, if it is identified as such) as a unit in the acquisition and perpetuation of a habit: “To constitute a real existence, where a habit can take root, there must be a real unity; so there must be something that, in this infinite material, in one form or another 26 constitutes the unity, the identity” . The development of customer loyalty is the operation through which a habit begins to repeat itself, possibly becoming periodic: “Any compulsion whose attacks happen to occur at regular intervals tends to become a periodic affection: the periodicity becomes an intrinsic feature. All this represents a gradual exaltation of 27 spontaneity” . The contribution of this way of looking at the matter is that it shows the development of customer loyalty as an obvious feature, a potential inherent in the habit itself, and therefore an absolute priority for marketing. Which brings us back to satisfaction, or more generally to a positive experience that sustains the positive internalization. Achat 24 op. cit. p.31. op. cit. pp. 56-57. 26 op. cit. p. 33 27 op. cit. p. 47 25 48 Périodicité Répétition Fidélisation [Purchase/Repetition/Development of customer loyalty/periodicity] Diagram 1: Convergence of habit on itself • • • • One of the properties of habit is thus its tendency to be selfsupporting, simply because it reduces the effort that the subject has to make: “Effort is diminished by the continuity and repetition of the 28 movement” . In other words, the perpetuation of the habit is fed by the desire to avoid effort. Hence the importance of business location as a force in this regard. Consider the example of the McDonalds chain. They are everywhere today, or almost. And in addition, you know what to expect, they're all the same. No need to make an effort, and then “it's an outing”, so why look any further, especially on a Sunday? And then “the children like it” (an argument that expresses how much you care for your children, etc.). The point of sale is all the more important in this force diagram because the trigger itself can become a factor in the internalization: “Habit has all the more force because the change that caused it is 29 prolonged, or repeats itself over again” . Where, once again, and as so often before, we rediscover the fact that among the continuously changing products that marketing presents, the point of sale offers the only stable refuge for the consumer. The outcome of this sequence, which includes habit and the development of loyalty, may culminate in a state of the subject in which the purchase concerned no longer raises any questions; “life 30 entails a conflict between receptivity and spontaneity” : this is the ultimate in routinization. For some subjects the result of this process is a limitation of the field of possibles to a single brand (or several brands in the case of a habit that oscillates between a number of complementary brands), in a rigid manner because it does not involve any decision from the subject: “The development of a thoughtless spontaneity, which penetrates and establishes itself increasingly in the passivity of the 28 op. cit. p. 68 op. cit. p. 30 30 op. cit. p. 40 29 49 organization, outside and below the realm of the will, of personality, 31 and of consciousness.” . There then occurs a phenomenon that is extremely important for marketing actions: “In the sensibility, in the activity, there also develops, through continuity and repetition, a sort of obscure activity that increasingly informs the will, and hence the impression of 32 external objects” . In other words, the state of customer loyalty, even of strong routinization, implies that the messages are no longer received. This is a finding whose consequences in terms of public relations and media planning are considerable: every day, masscommunication campaigns are attempting to influence targets made up, at least in part, of routinized subjects who, by definition, will not even hear the message. It is therefore essential to identify these populations: this is the target-optimization problem. • 3. Dynamic analysis of habit and plasticity This routinization, this state of non-receptivity regarding any message and any new product, is obviously something that is doubly relative: • • On the one hand, several levels must be considered: for some people, the routinization is total (acquired habit + no interest in a commonplace buying act = no reason to change). On the other hand, for some subjects, routinization itself leads to a change in habits. In fact: “continuity and repetition must thus progressively weaken feelings, as they weaken sensations, and they progressively extinguish pleasure and pain, along with 33 feeling” . In other words, in this “dying out of pleasure and pain”, we understand that one of the properties of habit is that it “kills emotion”. This finding leads to the identification of two possible situations: either a certain kind of emotion is still available to the subject, or, on the contrary, habit has taken the place of emotion just where it was already weak, i.e., in a buying act that the subject regards as insignificant. Diagram 1 showed the process of the convergence of a habit upon itself. However, if such a process is to take place, there must be a cause at its center. The circularity thus becomes a process of exchange: the state of habituation is produced by its cause, and the habit in turn feeds this cause, which sustains the circularity and thus the state of habituation. 31 op. cit. p. 75 op. cit. p. 71 33 op. cit. p. 99 32 50 La cause cr ée et ma intient l ’habitude Cause de l’habitude Etat d’habitude L’état d ’habitude entretient la cause [The cause creates and sustains the habit Cause of habit State of habituation The habitual state supports the cause] Diagram 2: Causal representation of habit To talk about plasticity is to talk about the possibility of changing a habit, and thus of divergence: at a certain moment the cycle is interrupted, and the subject-object relationship develops into another cycle. Divergence = changement d’habitude Achat Périodicité Achat Répétition Fidélisation [Divergence = change of habit Purchase Periodicity Repetition Development of customer loyalty] Purchase Diagram 3: The process of changing a habit 51 This divergence also has its cause, and the cause of the divergence is connected to the cause of convergence. When we speak of the extinction of pleasure, for example, we establish a link between these two causes: pleasure was linked to a certain buying act, which produced a habit (convergence); then this pleasure became worn out and ended, which produced a different buying act, which in its turn became a different habit (divergence). So what counts is not so much the habit itself, but its cause, or more precisely its many causes. Because it is clear that in certain cases the development of a habit, i.e., its convergence or divergence, is produced by the very experience of purchasing the product or the service: • • • • A positive experience (satisfaction) reinforces the cause and thereby the convergence (low plasticity); A negative experience (dissatisfaction) reverses the cause and provokes a divergence (high plasticity); The wearing away of the positive experience (“extinction of pleasure”) modifies the cause and thereby raises the possibility of a divergence (increase in plasticity). The absence of any experience (nonexistent pleasure) may, depending on the subject, bring about either convergence (I always buy the same thing, I'm not interested in changing) or divergence (it doesn't matter to me, I don't even look at what I'm buying). These experimental aspects are at the heart of the dynamics of the subjectobject relationship. This said, we now find ourselves at the opposite end of the traditional marketing adage: “The customer wants an 8 mm hole, not a drill”. This saying is correct from the viewpoint of finality, but not from the experiential viewpoint. It is true that many buying acts lend credence to the experiential viewpoint: if it is not for the experience they provide, how can we account for the purchases of four-wheel drive SUVs by city dwellers? Or the purchase of lawn tractors for properties less than 1,000 m2 in area? But two other parameters must still be introduced to complete the causal diagram: • 52 The subjects themselves: o Their situation: age, stage of life, family situation, income level, and type of social environment o Their aspirations and limits: what they like, what is unacceptable for them, etc. o Their habits in terms of how stable or how fickle they may be. The way in which all of these parameters are reflected in their relationship with the object in question: their underlying customs and attitudes, i.e., the area of the relationship between the subject and the experiential level. The point of sale, which has the power to encourage (or discourage) the purchase; it represents all of the factors that act “in the moment” and can upset a well-established experiencesatisfaction relationship: it may be an opportunistic purchase, the unavailability of a product, an illegible shelf label, etc. Note, 34 moreover, that the point of sale has its own experiential issues o • Sujet Divergence = Achat diff érent La cause conduit à une convergence ou une divergence Cause de l’habitude Convergence = Etat d’habitude L’état d ’habitude entretient la cause Point de vente Subject [Divergence = Different purchase The cause leads to a convergence or a divergence Cause of habit Convergence = State of habituation The state of habituation supports the cause Point of sale] Diagram 4: Factors influencing the cause of a habit 34 Le marketing sensorial du point de vente [Sensory Marketing at the Point of Sale], Coordinator: Sophie Rieunier, Dunod 2004. 53 Silvia CACHO-ELIZONDO Professeur à l’ISC Paris Doctorante HEC Morgane COM ISC Paris Conceptrice de blogs Le blog dans la communication d’une marque corporative : une illustration dans le secteur de la restauration Résumé Objectif : Le propos de cet article est, d’une part, d’étudier l’ampleur du phénomène de la blogosphère en France et, d’autre part, de souligner le rôle des blogs dans la stratégie de communication de l’entreprise. Méthodologie : La méthodologie choisie pour illustrer le cadre conceptuel proposé est celle d’une étude de cas. Le cas retrace les étapes et les stratégies mises en place par une entreprise qui a lancé un blog pour communiquer une nouvelle identité corporative intégrant un groupe de trois marques indépendantes. Contexte du cas : Le propriétaire de trois restaurants indépendants de la Région lyonnaise prend la décision de créer une société juridique en vue de lancer une petite chaîne de restaurants. Le directeur en charge de la Communication souhaite intégrer les tendances du web interactif pour 54 communiquer ce changement d’identité et renforcer le positionnement de la nouvelle marque corporative. Apprentissages : Le cadre théorique et l’étude de cas attestent de l’efficacité du blog en tant qu’outil pour gérer la communication des changements stratégiques au sein de l’entreprise. Cependant, il faut aussi tenir compte des risques auxquels l’entreprise peut se trouver confrontée en choisissant ce type de canal de communication. Mots clés : Communication d’entreprise, Internet, services en ligne, blogs, gestion de la marque, identité corporative Abstract Objective: The purpose of this article is to study the scope of the blog phenomenon in France and to highlight the role of blogs in the corporate communication strategy. Methodology: In order to illustrate the conceptual framework, a case study approach was chosen. The case shows the different stages and strategies undertaken by a company that has launched a blog to communicate about a new corporate identity which emerges from the creation of a holding group composed of three already existing brands. Context: The owner of three independent restaurants established in Lyon (France) has taken the decision to create a legal entity to build up a small restaurant chain. The manager in charge of the communication wants to integrate the Web trends to promote this business identity change and to reinforce the positioning of the new corporate brand. Learnings: The theoretical frame and the case study reveal the efficacy of a blog as an innovative tool to communicate corporate strategic changes. Nevertheless, it is also important to take into account the potential risks that a company could face by choosing this new communication channel. Keys words : Corporate communication, online services, blogs, brand management, corporate identity. 55 Introduction L’adoption d’Internet à l’échelle mondiale et la pénétration du haut débit dans les foyers et les entreprises marquent l’avènement d’une nouvelle ère numérique caractérisée par l’instantanéité, la facilité d’échange de l’information, l’interactivité, la collaboration et l’esprit communautaire. La simplification technique et budgétaire contribue à faciliter et à accélérer l’adoption des services en ligne. De ce fait, la progression de ces services dans la stratégie de communication des entreprises ne cesse de s’accroître, ce qui contribue au succès de nouvelles pratiques de communication, telles que la création et l’utilisation des blogs. L’expansion du phénomène blog illustre l’emprise du média Internet qui a évolué du principe du web 1.0 au web 2.0. Alors que le web 1.0 se limitait à un échange utilisateur-fournisseur, le principe du web 2.0 repose sur « le participatif » caractérisé par l’échange communautaire et le dialogue. Le web 2.0 permet aux internautes d’échanger, de co-créer, d’innover et d’exercer un rôle d’influence dans le cyberespace. Selon Technorati, la blogosphère mondiale comptait en mars 2007 plus de 70 millions de blogs et enregistrait une augmentation de 120 000 blogs par jour. Cependant, il n'existe à ce jour aucune mesure officielle permettant de comptabiliser les blogs. Les estimations prennent essentiellement en compte les déclarations des sociétés éditrices et les chiffres fournis par Technorati, le principal outil de recherche des blogs. Cette nouvelle vague de canaux de communication place les entreprises devant de nouveaux défis en termes de stratégie marketing et de gestion de la marque corporative. Pour répondre à ces défis, les entreprises doivent faire preuve d’une ouverture et d’une sensibilité à ces outils de communication. Cet article positionne le blog comme un élément clé dans la stratégie relationnelle de la marque corporative. L’article comporte deux parties. La première partie propose un cadre conceptuel autour de la communication d’entreprise, les services en ligne et, plus précisément, le champ d’application des blogs communiquant autour d’une marque. La deuxième partie illustre ce cadre conceptuel à l’aide d’un cas pratique. Il s’agit de communiquer une nouvelle identité corporative de trois restaurants indépendants qui souhaitent s’associer sous une marque ombrelle tout en préservant les spécificités de chaque entité. Ce cas, inspiré d’un cas réel, a été adapté et modifié pour des raisons de confidentialité et dans un souci d’éclairage académique. 56 La communication d’entreprise Une entreprise communique pour différentes raisons : renforcer sa notoriété, transmettre un changement, introduire une nouveauté ou faire face à une situation de crise. Le message transmis doit apparaître cohérent à travers tous les médias utilisés, tout en restant flexible et perméable aux caractéristiques propres à chaque canal de communication. Contrairement aux communications traditionnelles qui ont une durée et une concentration géographique précises, les communications établies dans le réseau virtuel offrent la possibilité d’instaurer et d’entretenir un dialogue évolutif, sans contrainte horaire ni géographique (Cacho-Elizondo, 2008). Les services en ligne dans la stratégie de communication Un service en ligne, ou e-service, est un service proposé via Internet, centré sur le contenu et intégré aux autres processus de support client de l’entreprise visant à renforcer la relation client-fournisseur (Ruyter et al., 2001 cité par Cacho-Elizondo, 2005, 2008). Les services en ligne représentent une nouvelle forme de services marketing, à savoir une innovation dans le champ des outils de communication. Ces services ont un avantage de coût et de pénétration comparativement aux médias traditionnels. Parmi les services les plus utilisés au sein de l’entreprise, nous retrouvons les sites web, les newsletters, les forums et les blogs. Nous allons concentrer l’attention sur l’utilisation des blogs dans la stratégie de communication de l’entreprise. Le concept de blog Le blog est un site web interactif doté d’une publication de contenu simple à actualiser Il peut être utilisé de manière personnelle ou corporative. Dans leur livre Blog pour les Pros, Le Meur et Beauvais (2006) développent l’idée que le blog est essentiellement un espace de conversation. Le terme blog provient de l’association de web (toile) et log (journal). Les blogs ou weblogs permettent aux utilisateurs d’afficher facilement des informations diverses sous forme de textes, de liens et/ou d’images, faisant l’objet de mises à jour régulières. En 2005, le ministère de l’Éducation nationale a tenté de remplacer le terme blog par bloc ou bloc-notes. Cette tentative a échoué, les blogs francophones étant déjà répandus par millions sur la Toile (Le Monde, 4 avril 2007). À la différence d’un carnet intime à usage personnel, un blog est un carnet extime, c’est-à-dire accessible à tous (ou du moins à une population disposant de l’autorisation d’accéder à cette information). Les affiches 57 publiées sont classées par sujet et par temps d’affichage. En d’autres termes, les messages sont affichés par ordre inverse à la chronologie. Il existe diverses déclinaisons des blogs : le blouquin désigne un livre décliné sur un blog ou l’inverse, un blog publié dans un livre ; un mlog est un blog adapté aux supports mobiles (ex. téléphone, PDA) ; un vlog est un blog qui diffuse de la vidéo ; un flog est un blog qui publie principalement des photographies. L’évolution du marché des blogs en France Selon Benchmark Group (octobre 2006), l’audience des blogs est comparable à celle des grands médias d’information. En 2005, 6 millions de Français avaient consulté un blog. En 2006, il existait en France 9 millions de blogs, dont 2,5 millions actifs (Technorati, Journal du Net, mars 2006). Ces estimations placent la France au quatrième rang mondial en termes de nombre de blogs et à la première place en termes de nombre de blogs par internaute. En 2007, plus de 4 millions d’internautes français ont créé leur blog, soit deux fois plus qu’en 2006 (Médiamétrie, mars 2007). Parmi les principales plates-formes de blogs dans l’Hexagone, nous pouvons citer : Skyblog, Six-Apart, MSN Spaces, Over-blog, Blogger. Skyblog est largement dominant sur ce marché. Toutefois, Six-Apart, positionné dans le segment professionnel, héberge quelques-uns des blogs le plus fréquentés, dont celui de Loïc Le Meur (PDG Europe de cette plate-forme). Tableau : Principales plates-formes de blogs en France Audience (en visiteurs uniques)35 3,43 millions Plate-forme Nombre de blogs Skyblog 4,40 millions 2,21 millions Six-apart plusieurs centaines de milliers (12 millions dans le monde) 1,95 million MSN Spaces 2,5 millions (30 millions dans le monde) 1,81 million Over-blog 200.000 1,14 million Blogger Plusieurs centaines de milliers (environ 15 millions dans le monde) Source : Journal du Net, Plates-formes, mars 2006. 35 58 Selon Médiamétrie/NetRatings, Panel Médiamétrie//NetRatings, Domicile et/ou lieu de travail, Applications Internet exclues, octobre 2005. Bien que le nombre de blogs explose, rares sont ceux qui sortent du lot. Les blogs qui parviennent à se distinguer sont menés par la régularité de la mise en ligne de l’information et la pertinence des messages. À la 36 différence d’un article de presse, la visibilité et le succès d’un billet dépendent de l’intérêt porté par les internautes. Par conséquent, la visibilité est directement corrélée à l’importance que l’internaute accorde à cette source d’information. Celle-ci peut-être confortée par un processus de fidélisation via l’abonnement à la newsletter et aux fils RSS. Par ailleurs, un blog qui fait parler de lui facilite l’activation des processus de bouche-àoreille qui contribuent à élargir son audience tant que le blog est actif. En effet, les blogs s’essoufflent rapidement et ont une durée de vie moyenne d’environ 8 mois. Blogs personnels versus blog d’entreprise Il existe principalement deux types de blogs : les blogs personnels et les blogs d’entreprise. Dans les blogs personnels, le blogueur est libre d’imposer son style rédactionnel et ses valeurs sans aucune contrainte institutionnelle. Dans le deuxième cas, même si le style du blogueur exprime son point de vue personnel, au moins partiellement, il se doit de respecter les valeurs affichées par l’entreprise et les consignes de confidentialité imposées par les dirigeants. Bloguer au niveau professionnel est donc moins spontané. Dans le monde des affaires, la sauvegarde de certaines données est souvent considérée comme un moyen de préserver l’avantage compétitif de la firme. De ce fait, la conversation autour des sujets sensibles pour l’entreprise peut être perçue comme dangereuse pour certains agents de l’organisation. Par ailleurs, l’essor des blogs institutionnels a commencé par les blog personnels des employés qui conversaient à propos de leur travail. Ensuite, des entreprises comme Microsoft, IBM et Adobe ont pris mesuré le potentiel offert par cet outil et ont développé le comportement blogueur chez leurs employés. Afin de délimiter les risques associés à l’appropriation des blogs par les employés, certaines entreprises ont préféré faire appel à des blogueurs indépendants. Pour ces entreprises, le recours à un blogueur externe à l’entreprise donne à la communication une tonalité plus neutre, perçue par le lecteur comme moins intrusive et commerciale. 36 Un billet est une information publiée sur un blog. Synonyme d'article ou de "note", il peut se limiter à un simple lien ou à une photo, mais se compose le plus souvent d'un texte court enrichi de liens externes et de photos. Les billets publiés peuvent parfois être commentés par les visiteurs du blog (source : www.dicodunet.com). 59 La classification des blogs d’entreprise Il est difficile de positionner un blog en utilisant un seul critère d’évaluation ou en le plaçant au sein d’une seule classification statique dans le temps. D’ailleurs, la nature même du blog comme moyen de communication en fait un outil évolutif et pluriel. Le contenu et la tonalité s’adaptent donc au contexte organisationnel, au message à communiquer et au profil du blogueur qui le gère. Nous allons à présent décrire un certain nombre de classifications de blogs repérées à travers la revue de la littérature. Tout d’abord, le tableau suivant propose une classification fondée sur le type de communication, à savoir la communication interne (blog privé) ou la communication externe (blog public). Cette classification permet de distinguer les différentes cibles et le type d’accès aux billets (restreint ou en libre accès). À la différence du blog privé, le blog public a un accès illimité et peut, de ce fait, atteindre des cibles plus larges et plus variées, tant à l’intérieur qu’à l’extérieur de l’entreprise. Un blog public a bien souvent un objectif marketing implicite mais il peut couvrir d’autres aspects de l’organisation et même des problématiques externes. L’Annexe 1 résume les différentes utilisations des blogs au niveau externe et interne. Tableau : Classification des blogs d’entreprise Type de blog Type de communication Cibles Privé Interne Employés Actionnaires Fournisseurs VIP clients Réseaux Internet Intranet , 38 Extranet Limité Accès 37 Public Externe Clients Prospects Presse Organisations Individus Internet Illimité 37 Un intranet est un réseau informatique utilisé à l’intérieur d’une entreprise ou de toute autre entité organisationnelle utilisant les techniques de communication d’Internet (IP, serveurs http) L’intranet constitue l’infrastructure technique du réseau qui permet de développer les projets d’ingénierie des connaissances (source : Wikipedia). 38 Réseau informatique du type Internet (donc essentiellement basé sur le protocole IP) à caractère commercial, constitué des intranets de plusieurs entreprises qui communiquent entre elles, à travers le réseau Internet, au moyen d'un serveur Web sécurisé. Par extension, il désigne plus généralement les sites à accès sécurisé permettant à une entreprise de n'autoriser sa consultation qu'à certaines catégories d'intervenants externes, ses clients ou ses fournisseurs en général (source : Wikipedia). 60 Une autre classification (Lee et al., 2006) identifie cinq types de blogs d’entreprise : employé, groupe, exécutif, promotionnel et newsletter. Cette classification prend en compte tant le profil de l’auteur que le contenu du blog. Blog employé : Blog du type personnel géré par un employé. Ces blogs sont hébergés soit dans le site corporatif soit dans des sites commerciaux indépendants, avec ou sans le soutien de l’entreprise. À titre d’illustration, on peut citer les blogs des employés de Microsoft et d’IBM. Blog de groupe : Blog du type collaboratif géré par un groupe de personnes. En général, ces blogs traitent d’aspects techniques ou commerciaux de l’entreprise dans lesquels les gestionnaires ont une certaine expertise. Blog exécutif : Blog orchestré par le directeur général ou par un cadre de haut niveau. Deux exemples illustratifs de ce type de blog : aux USA, le blog pionnier lancé en janvier 2005 par Bob Lutz (VP de General Motors) ; en France, le blog de Michel-Édouard Leclerc (PDG du groupe Édouard Leclerc) lancé la même année. Blog promotionnel : Blog qui génère du buzz autour des produits ou des événements sponsorisés par l’entreprise ou la marque. Ces blogs manquent souvent de légitimité au sein de la communauté des blogueurs. L’absence de voix humaine, la simulation de la véritable identité des gestionnaires ou les propos purement commerciaux peuvent nuire à l’image de l’entreprise, comme dans le cas de la marque Vichy. En effet, dans l’inconscient collectif des internautes, le blog est associé à la transparence. Blog newsletter : Blog du type newsletter qui communique officiellement sur l’entreprise ou la marque. Les sujets traités sont variés, allant des actualités de l’entreprise aux informations sur les produits ou services. Dans son livre Blog Marketing, Wright (2005) propose une classification exclusivement fondée sur le profil du blogueur. Il distingue sept grands types de blogueurs professionnels : a) le coiffeur, b) le forgeron, c) le pont, d) la fenêtre, e) le panneau indicateur, f) le bistro et g) le journaliste. Les caractéristiques de chaque profil sont décrites dans le tableau suivant. 61 Tableau : Profils des blogueurs (adapté de Wright, 2005) Type de blogueur Coiffeur Forgeron Caractéristiques I. Figure de l’expert, du spécialiste ou du conseiller II. Connaissance des experts du secteur III. Faculté de synthèse IV. Membre de l’entreprise V. Connaissance du secteur d’activité VI. Capacité à mettre les individus en relation Pont VII. Capacité d’influence et de rapprochement VIII. Membre de l’entreprise Fenêtre Panneau indicateur IX. Opinions façonnées en fonction de son expérience X. Capacité à porter un regard interne et externe sur l’entreprise XI. Neutralité, pas d’opinion XII. Cible les informations sur son secteur d’activité XIII. Oriente le lecteur vers d’autres sites plus complets Bistrot XIV. Génère des discussions destinées à confronter divers points de vue sur une question donnée XV. Privilégie l’objectivité et s’en tient aux faits Journaliste 62 XVI. Favorise le développement des conversations autour d’une thématique L’exposition de la marque (corporative, produit ou service) au sein de la communication est un autre critère de segmentation (KDPaine & Partners, 2007). Les blogs sont ici classés en fonction de la visibilité, du type d’interaction, de la nature de la discussion, du message et du positionnement de la marque. Visibilité : Indique l’approfondissement de la discussion autour de la marque. La marque est-elle mentionnée directement ou plutôt cachée ? La marque Celio utilise un blog dans lequel la blogueuse donne ouvertement son identité mais seul le logo constitue un rappel visuel à la marque (blog : vousleshommes.blogs.com). Dans ce cas, la marque ne se situe pas dans la thématique principale du blog. Interaction : Précise le type d’interaction. Le blog est-il apparu pour résoudre un problème (ex. packaging, logo, publicité), comparer différentes marques ou demander l’avis du consommateur ou de l’utilisateur par rapport à la marque et ses produits ? Nature de la discussion : Identifie si la conversation est un véritable dialogue avec un échange d’idées entre le consommateur et la marque ou plutôt une émission unilatérale de messages sans faire nécessairement référence à la marque. Sentiment : Donne le ton de la conversation. La marque est-elle exposée de manière positive ou négative ? Si le ton est positif, le lecteur aura tendance à poursuivre la relation avec la marque ou à la recommander. Si le ton est négatif, le lecteur sera moins motivé à poursuivre une relation avec la marque. Si le ton est neutre ou équilibré, la conversation sur la marque est seulement centrée autour de la discussion des faits. Message : Identifie si les billets incluent un ou plusieurs messages clés de la marque. Position : Décrit la manière dont la marque est positionnée. Est-elle positionnée de la manière souhaitée ou d’une manière moins souhaitée ou prévisible pour le gestionnaire ? Les applications autour de la gestion de la marque Les entreprises adoptent de plus en plus l’utilisation des blogs pour communiquer plus directement avec leurs clients. L’objectif est de faciliter le dialogue et la proximité sans délivrer un message institutionnel formel et rigide. En conséquence, la marque attribue au client un rôle actif dans les processus de création de valeur. Dans cette perspective, on peut distinguer dans la stratégie marketing différentes applications concrètes des blogs qui vont au-delà de la synergie avec les médias traditionnels (LeMeur et Beauvais, 2006). 63 Test de nouveaux concepts et produits Le blog peut servir de marché test virtuel pour de nouveaux concepts, tant à l’intérieur qu’à l’extérieur de l’entreprise. Dans cette 39 perspective, Danone a lancé le Home Use Blog (HUB) . Le HUB est une 40 méthode élaborée en concertation avec la société Repères pour tester l’usage réel d’un produit par une communauté de blogueurs. François Abiven, PDG de Repères, positionne le HUB comme un outil au service de l’innovation qui permet : a) l’accès au vécu du produit et à son appropriation par la communauté, b) l’observation de l’évolution des dynamiques d’appréciation et d’usage du produit et c) l’implication de l’équipe projet (société client, institut d’études, …) via un forum de discussion associé. Incubateur et promotion des idées au sein de la firme Par l’intérêt qu’il suscite auprès des employés d’une entreprise, le blog constitue un élément intégrateur ayant des retombées indirectes au niveau interne. Par exemple, il peut contribuer au cours d’une réunion commerciale à concrétiser de nouveaux projets ou à susciter des idées novatrices. Gestion de crises Le blog est un instrument idéal de communication dans la gestion de crise (internes et externes à l’entreprise). Ces crises concernent souvent des situations dans lesquelles la marque doit répondre à des boycotts, des problèmes de fabrication de produits ou même rassurer les consommateurs et les employés sur la pérennité de la marque dans le marché. Prenons comme exemple la crise traversée par Mattel en raison des jouets défectueux. L’équipe gestionnaire de la marque aurait pu imaginer la création d’un blog de crise pour faire face à cette situation et répondre aux questions des clients concernés. Renforcement de l’identité de la marque Le blog peut contribuer à une démarche de définition ou de renforcement de l’identité de la marque. Pour cela, il faut homogénéiser cette identité dans tous les médias et respecter les valeurs et les objectifs poursuivis. Le blog apporte ainsi une cohérence à la communication globale de l’entreprise. En augmentant la visibilité sur Internet, il devient un levier de la notoriété et de l’image de la marque. Au cours de certaines étapes de son cycle de vie, la marque peut connaître des périodes de transition. Ces passages impliquent souvent des changements au niveau de son positionnement, de sa gamme de produits, 39 Marque déposée par Danone Research, présentée au SEMO en novembre 2006. 40 Entreprise spécialisée dans les études marketing qualitatives et quantitatives sur mesure. 64 de son identité visuelle (ex. logo, nom) et de sa fabrication. Il peut aussi s’agir de la fusion des marques ou de la création de nouvelles structures. À la différence de la gestion d’une crise, dans laquelle se manifeste une certaine inquiétude face aux conséquences négatives, la gestion d’un changement stratégique impulsé par la marque implique généralement des effets positifs. Cependant, ces transformations peuvent indirectement engendrer des difficultés si la communication du changement n’est pas bien orchestrée par l’équipe gestionnaire. Lorsqu’une entreprise se lance dans un processus de création de blog, elle engage une démarche qui dépasse la communication institutionnelle traditionnelle. La reconnaissance du client comme pivot de valorisation de la marque implique un partage plus étendu et réciproque des informations. Cela représente une véritable transformation de la relation consommateurmarque, qui n’est pas sans risques car elle peut aussi encourager des détournements de la marque. Dans une seconde partie, nous allons illustrer l’utilisation d’un blog dans l’introduction d’une marque corporative réunissant trois marques associées à trois restaurants indépendants. Ces restaurants ont décidé de se regrouper en créant une nouvelle entité organisationnelle. Ce changement stratégique implique la formation d’une nouvelle identité corporative et une nouvelle structure juridique. Cependant, chaque restaurant souhaite aussi communiquer sur son positionnement particulier. Pour accompagner ce changement, le directeur marketing de la nouvelle structure décide de créer un blog qui appuiera le site officiel du groupe. Lors de cette création, l’utilisation des blogs à des fins marketing n’était pas encore répandue dans le secteur de la restauration en France. Étude de cas Contexte Les trois restaurants se situent dans la ville de Lyon (France). Ils se positionnent dans le même univers culinaire : la cuisine régionale lyonnaise. Leur clientèle est une clientèle de gourmets à budget moyen qui apprécient la cuisine traditionnelle des bouchons lyonnais. Les restaurants appartiennent au même propriétaire et bénéficient d’une gestion indépendante, chaque restaurant ayant son propre directeur. Le propriétaire prend la décision de créer une société juridique afin de lancer une petite chaîne de restaurants et de repositionner l’image de marque des restaurants. 65 Cette nouvelle structure lance une marque ombrelle « XYZ », garante de l’identité des trois restaurants « X », « Y » et « Z ». La centralisation des budgets pour les services de communication et de marketing permet d’uniformiser l’image des trois restaurants de la nouvelle marque corporative. Elle permet également d’élargir l’offre globale en créant une synergie entre les restaurants. L’un des bénéfices qui se dégage de cette synergie est de permet des échanges de clients entre les différents restaurants. Marque ombrelle Chaîne de restaurants XYZ Marque restaurant X Marque restaurant Z Marque restaurant Y Stratégie de communication Le directeur en charge de la communication souhaite intégrer les tendances du web interactif pour communiquer ce changement d’identité et asseoir ce repositionnement de marque. La chaîne permet de concevoir un budget commun aux trois restaurants X, Y, Z pour investir dans des outils contribuant à l’élaboration de stratégies de marketing et de communication opérationnelle. La communication de l’identité corporative s’inscrit dans le processus de création de site institutionnel de la marque ombrelle « XYZ », d’achat d’un logiciel d’eCRM (Customer Relationship Management) pour créer la newsletter et suivre la relation à la clientèle et, enfin, de la mise en place d’un blog doté d’un contenu éditorial en accord avec les valeurs de la marque. Les différentes applications entrent dans une logique d’interaction et ne sont pas lancées en même temps. Partie visible de la communication Internet NEWSLETT ER SITE INTERNET 66 BLOG CORPORAT IF Mises en place des outils de communication En amont de la stratégie de communication, il est nécessaire de s’appuyer sur un système de gestion de la relation à la clientèle. Le logiciel d’eCRM servira de lien sous-jacent entre le site Internet, la newsletter et le blog. eCRM Le propriétaire décide d’investir tout d’abord dans un outil d’eCRM, qui représente la part la plus lourde du budget. Cet outil permet la collecte et le tri des bases de données, la création et le suivi de la newsletter. L’outil eCRM constitue la partie invisible de la communication Internet qui va servir à créer la valeur ajoutée de la stratégie de communication. C’est à travers cet outil que s’effectue la collecte des coordonnées des clients (ou clients potentiels) soit par la fiche de renseignements après relation commerciale (opt in) soit par l’inscription à la newsletter via le site et le blog (opt out). Cette base de données est exploitée a posteriori pour le suivi et la fidélisation de la clientèle. Site institutionnel Un site institutionnel au nom de la marque ombrelle « XYZ » est ensuite mis en place. Il présente les trois restaurants dans un langage institutionnel et donne des informations générales sur ces restaurants (localisation, carte, service). Le site possède plusieurs fonctionnalités : a) décrire les différents services et produits proposés, b) véhiculer l’image, les valeurs et la politique commune des restaurants « X », « Y » et « Z » et c) tenir la clientèle au courant des dernières créations des restaurants à travers une actualisation dynamique des informations. Cette régularité de mise en ligne d’informations permet également le maintien du référencement naturel, c’est-à-dire de la visibilité du site lors de la navigation sur le web et de son classement dans les moteurs de recherche. Blog de marque Le directeur de la Communication prend l’initiative de créer un blog de la marque ombrelle dont le contenu est lié à l’environnement du secteur d’activité de l’entreprise. Le contenu et la forme du blog rappellent les codes images et les valeurs de la marque corporative. Le blog est positionné avec un nom significatif : Bouchons de Lyon « XYZ ». Le style rédactionnel suit la logique du web participatif en adoptant un ton décontracté et un contenu ouvert aux commentaires. 67 Newsletter La newsletter est une lettre d’information rédigée sous forme de brèves et dotée de liens hypertextes orientés vers les billets du blog. Assimilable à un mail commercial, son contenu ne doit pas être purement promotionnel mais doit fournir des informations instructives pour susciter le plus grand nombre d’ouvertures. Une case d’abonnement à la newsletter est présente sur le blog et le site, qui propose à ses lecteurs de suivre son actualité par envoi sur leur boîte e-mail. Les internautes intéressés remplissent un formulaire et indiquent leurs coordonnées. Ce formulaire, établi par le logiciel de CRM, permet de stocker les données recueillies et de les trier par cibles. Après le lancement de chaque envoi de la newsletter, un reporting des différents types de statistiques permet de connaître les réactions des abonnés, la date et l’heure d’ouverture de la newsletter ou encore le pourcentage de clicks sur les liens. Ce reporting fournit le moyen d’adapter les offres et les contenus en fonction de la sensibilité des internautes. La newsletter associée par hyperliens au blog (lien externe dirigé vers le blog) permet de constituer une base de données, d’accroître la visibilité du blog et d’en améliorer le contenu. Elle permet également d’asseoir la fidélité des clients d’une entreprise en intégrant directement leurs cordonnées à la base de données et de prospecter des clients potentiels intéressés par l’univers du blog. Étapes de réalisation du blog corporatif de la marque ombrelle « XYZ » L’équipe qui pilote le projet de communication corporative recherche le type de blog le mieux adapté à cette communication de changement. Elle envisage tout d’abord un blog exécutif personnel, puis un blog d’employé pour s’orienter, enfin, vers un blog de marque. Dans ce processus, le blog sert de moyen de diffusion de l’univers et des valeurs de cette marque-repère et s’inscrit dans une optique de renforcement de la crédibilité, de la visibilité et de la notoriété. Doté d’une ligne éditoriale informative, cet outil Internet a pour objectif de diffuser l’image de cette entité unique à travers une publicité plus humaine fondée sur le bouche-à-oreille, l’interactivité et la créativité. De plus, à la différence d’un site traditionnel, le référencement naturel est réalisé plus simplement grâce à son actualisation, ses liens externes, ses mots clés et sa réactivité. - L’URL Le nom du blog porte le nom de l’univers des restaurants « Bouchons de Lyon XYZ ». L’URL comprend ainsi les mots clés en rapport avec le contenu du blog. http://www.bouchonsdelyon XYZ .com/blog/ 68 - Le ton Le ton doit suivre la tendance du web 2.0 qui se traduit par la transparence, le naturel et la décontraction. - La ligne éditoriale La ligne éditoriale du blog repose sur un contenu thématique lié à l’univers de la gastronomie. Ses rubriques informent les internautes clients potentiels sur cet univers, en utilisant l’expertise des trois restaurants dans ce domaine. Cela permet de diffuser indirectement l’image de cette marque et de montrer ses valeurs directrices en intéressant les clients à des sujets informatifs. Afin de suivre la logique du web 2.0, la ligne éditoriale du blog propose un contenu informationnel non institutionnel. Le contenu du blog ne se limite pas à présenter les restaurants. Il élargit l’information à l’univers gastronomique des restaurants de la chaîne et de la Région lyonnaise. La structuration s’effectue à travers des catégories liées à un thème d’information. Les billets, terme utilisé pour définir un article, animent les catégories. Les catégories sont actualisées par la rédaction de billets. Ces billets apparaissent sur la page d’accueil dans l’ordre inverse à la chronologie. Les billets précédents, stockés dans les archives, constituent la mémoire de l’entreprise. Le blog Bouchons de Lyon XYZ s’articule autour de cinq catégories : - Produits du terroir (informations sur les produits utilisés en cuisine) - Recettes des restaurants « XYZ » (recettes de quelques plats de la carte) - Secrets du chef (conseils pour réussir en cuisine) - Dans les cuisines… (découverte de l’envers du décor des restaurants) - Dévoilez vos spécialités culinaires (introduction à une incitation participative). La fonction commentaire offerte aux internautes sur chaque article réalisé sur le blog permet la libre expression sur les sujets abordés. Chaque billet est accompagné de la possibilité de laisser un commentaire pour recueillir les opinions des internautes et des clients et les insérer dans une communauté avec une forte inclination pour la culture gastronomique. Ces commentaires constituent ainsi un moyen d’améliorer les services à la clientèle en s’adaptant à ses attentes. Les rubriques fournissent également l’occasion de proposer des liens externes vers le site institutionnel pour obtenir des informations plus institutionnelles sur les trois restaurants. 69 Après six mois d’utilisation de ces outils, le directeur de la Communication s’interroge sur les retombées de cette nouvelle marque ombrelle en termes de positionnement. Il souhaite voir apparaître une communauté de clients lecteurs, créer des retombées presse et faire connaître la chaîne de restaurants et ses valeurs. La prochaine étape consiste en une exploitation plus approfondie des outils de CRM et des statistiques du blog afin de mieux cibler les actions marketing. Ces outils suivent un cycle de renouvellement pour s’adapter à l’évolution de la technique et aux comportements des internautes évoluant dans des imaginaires en perpétuel devenir. La synergie entre les outils (ex. site, blog, newsletter) permet de créer une chaîne de valeurs de la marque et facilite la naissance de réseaux entre les clients, les employés, les fournisseurs et, parfois, les contestataires. Bibliographie Cacho-Elizondo Silvia (2008), L’impact des services en ligne sur la relation consommateur-marque, Thèse, Groupe HEC. Janvier 2008 (2005), Strengthening the brand community ties through online th marketing communications, 34 European Marketing Association Conference Proceedings (EMAC), Bocconi University, Italy. Com Morgane (2007), Blog Marketing, Mémoire, ISC Paris School of Management. Delahaye Paine Katie (2007), How do blogs measure up ?, Communication World, September-October, 30-33. Lee S., Hwang T. et Lee H. (2006), Corporate Blogging Strategies of the Fortune 500 companies, Management Decision, 44(3), 316-334. Le Meur Loïc et Beauveais Laurence (2006), Blogs pour les pros, ed. Dunod, Paris. Van Den Heuvel D., Weblog in Practice : How Smart Marketers are Using Weblogs, AMA, www.blogsavant.com. Wright J. (2006), Blog Marketing : Instaurez le dialogue avec vos clients, Village mondial. Autres sources Measuresofsuccess.com KDPaine.blogs.com Journaldunet.com Lemonde.fr Médiamétrie.fr 70 KDPaine & Partners Journal du net Le Monde Médiamétrie Annexe 1 : Les différentes utilisations des blogs selon Arieanna Foley (source : Wright, 2006, p.77) Externe Interne Communication Gestion et partage du savoir Marketing Outil d’administration Complément d’un d’informations par courriel bulletin Documentation interne FAQ (foire aux questions) Collaboration Points de vue sur l’actualité du secteur Archivage des idées Présentation de l’offre, avec mise à Dialogue interne jour régulière Formation Archivage dynamique (contrairement aux courriels) Journalisme interactif Intelligence d’entreprise : savoir ce que disent et pensent les employés et dégager les tendances correspondantes Support de recherche Réactions du public Requêtes spécifiques / listes de veille Intégration des sources d’information Fidélisation : favoriser une identification avec l’entreprise par l’effet des interactions Expression personnelle Rapports de situation (savoir sur quoi on travaille et avec qui) suivis par chaque employé au moyen de son intégrateur Récits Fixation descendante des objectifs Service clients Interaction et production ascendante (bottom-up) des idées Relations publiques Création d’une culture d’entreprise fondée sur la libre expression, l’esprit de communauté et le partage du savoir Marketing viral Sensibilisation / réforme sociale Création d’une communauté Mécanismes de vente Diffusion plus rapide de l’information : « Vous avez une idée mais ne trouvez aucune oreille attentive ? Publiez, et vous serez entendu et soutenu. » Fidélisation : donner à la marque un Calendrier partagé visage humain Gestion du savoir (à grande échelle, Annonce des réunions ourmedia.com) Comptes rendus de réunions (au lieu d’une transmission par courroie) 71 Tendance Mise en commun de l’intelligence marketing GRC (Gestion de la relation clients) Brainstorming sur la stratégie, les fonctionnalités et les procédés Collection des notes relatives à la clientèle Entraide Comportement d’achat Intelligence concurrentielle Sondage 72 Capacité à segmenter les blogs par individu ou par service, afin de faciliter les abonnements François CAZALS Professeur de Marketing à l’ISC Paris ESC Reims Web 2.0 et Marketing Résumé Le paysage de l’Internet est actuellement complètement transformé par une véritable révolution, nommée Web 2.0. Cette nouvelle étape de développement du Web se caractérise logiquement par une rupture technologique : la démocratisation des réseaux à haut débit s’accompagne d’une convergence numérique entre les différents terminaux d’accès (téléphones fixes et mobiles, ordinateurs, organisateurs personnels ou consoles de jeux), et d’applications enrichies grâce à de nouveaux standards de développement. Les comportements des internautes sont naturellement modifiés par cette nouvelle donne technique. Ainsi, l’Internet devient social, communautaire et les contenus générés par les internautes se développent fortement, au travers de la publication sur les blogs ou la réalisation de films sur de nouveaux sites de partage de contenus multimédia. Les fondements naturels du marketing sont évidemment affectés par cette mutation. En effet, l’approche des consommateurs par l’intermédiaire du canal Internet, dans un objectif de transaction ou de communication, doit prendre en compte ces nouvelles conditions. Les contours d’un Mix « Marketing 2.0 » iconoclaste nous semblent en découler assez clairement. Quatre piliers structurent cette nouvelle approche : la personnalisation de la relation, grâce à de nouvelles applications individualisées enrichies, la participation, revendiquée par les internautes, le partage, au travers de fonctionnalités communautaires innovantes et, enfin, la permission, où le consentement actif et volontaire des internautes est essentiel. Au final, le marketing 2.0 accompagne probablement une évolution de fond, vers une approche commerciale relationnelle, durable et fondée sur la collaboration active des consommateurs. Mots-clés Web 2.0, convergence, Web social, marketing communautaire, blogs, permission marketing 73 Abstract The landscape of the Internet is now being totally transformed by a veritable revolution, known as Web 2.0. This new stage in the development of the World Wide Web is characterized, as might be expected, by a technological shift: the democratization of high-bandwidth systems accompanied by a digital convergence between the various access terminals (land-line and cell phones, computers, personal digital assistants, and game consoles), and improved applications, thanks to new development standards. The behavior of internet users has inevitably been altered by this new technical order. As a result, the Internet is becoming more social and community-oriented, and the content created by internet users is expanding rapidly, via blogs and the production of movies on new public-access multimedia websites. Traditionally-based marketing is of course affected by this transformation. When approaching consumers by means of the Internet for the purpose of selling or public relations, this new situation must now be taken into account. The outlines of a new-generation, "Version 2.0”, Marketing Mix can be discerned fairly easily. Four cornerstones support this new approach: the personalization of the relationship, thanks to new applications that have been customized and improved, participation, demanded by internet users, sharing, through the use of innovative community-oriented functionalities, and lastly permission, where the voluntary and active consent of internet users is essential. In the end, Marketing 2.0 will probably support a fundamental change in the direction of a relational commercial approach, one that will be sustainable, and based on the active collaboration of consumers. Keywords Web 2.0, convergence, social Web, community marketing, blogs, marketing permission « Le Web 2.0 est à la fois une plate-forme de développement et une base de données planétaires. Il transforme le navigateur en machine virtuelle, qui exécute des applications dont les composants sont distribués sur de multiples serveurs. » C’est ainsi que commence le dossier Web 2.0, 1 de l’hebdomadaire 01 Informatique , du 4 mai 2007, et qui fait sa une en couverture avec ce titre : « Dossier Web 2.0 – Une plate-forme de développement planétaire ». 74 Une certitude : la notion est à la mode, et chacun y va de l’ajout de l’indication « 2.0 » derrière un thème lié aux nouvelles technologies de l’information et de la communication. Les exemples ne manquent pas : Musique 2.0 de Borey Sok (éditions IRMA, avril 2007) ; Gutenberg 2.0 de Lorenzo Soccavo (éditions M21, mars 2007) ; Marketing 2.0, ouvrage collectif de l’ISC Paris (éditions Distriforce, juin 2007), rendent évidemment compte, sur leurs thèmes de prédilection, de l’idée d’une véritable rupture… en un mot, d’une « révolution ». Historiquement, c’est Dale Dougherty, de la société O’Reilly Media qui aurait inventé l’expression Web 2.0 en 2004. Tim O’Reilly lui-même l’a popularisé un an plus tard, le 30 septembre 2005, dans un article qui fait 2 toujours référence : « Qu’est-ce que le Web 2.0 » . Néanmoins, l’idée ellemême reste assez polémique et mouvante, car le Web 2.0 n’est pas nettement marqué par une véritable révolution technologique. Les détracteurs indiquent, non sans raison, qu’il s’agit uniquement « d’un retour 3 aux fondamentaux du Web, une forme de concrétisation à retardement » . Dans cet article, nous vous proposons donc d’explorer plus avant les contours du Web 2.0, aussi bien d’un point de vue technologique que sociologique, et de tracer ses premières perspectives (mais également ses limites éventuelles) en matière de marketing. Au plan technologique, pour commencer, trois catalyseurs ont créé les conditions d’une véritable rupture, par rapport à l’Internet « première génération ». 1. Le « haut débit » généralisé Si nous considérons les trois dernières années, nous constatons que les fournisseurs d’accès Internet ont réalisé, dans les principaux pays développés, d’importants investissements d’infrastructures dans le domaine des réseaux de télécommunication. La technologie DSL au premier chef, mais également le câble (plus marginalement), permettent dès aujourd’hui le développement de nouveaux usages des internautes, notamment multimédias. Dans un horizon très proche, les réseaux utilisant 4 la fibre optique (« FFTH » ) offriront des débits bien supérieurs, jusqu’à 100 Mbit/s symétriques. Le phénomène s’accompagnant d’une compétition féroce entre les différents intervenants, les conditions d’accès économiques deviennent de plus en plus favorables pour les utilisateurs finaux, favorisant naturellement une démocratisation des accès. Si nous considérons le marché français en 2006, à titre d’exemple, près de 46 % 5 des foyers disposaient d’un accès Internet, dont 85 % en haut débit . Du côté des entreprises, le bilan est encore plus saisissant, puisque 91 % des PME sont connectées en haut débit, selon une étude réalisée par BNP 6 Paribas / Lease Group . 75 2. La convergence digitale Le second phénomène essentiel pour comprendre la « nouvelle révolution » de l’Internet tient, selon nous, à la réalité de la convergence numérique. Conceptuellement, il s’agit de la possibilité offerte aujourd’hui d’avoir accès à l’Internet par toutes les technologies, à tout moment et en 7 tout lieu. Traduit par l’acronyme « ATAWAD » en anglais (« Any Time, Any Where, Any Devices »), la convergence marque la fusion de trois éléments. L’information, autrefois accessible sous des supports physiques divers (papier, cassettes, disques, photographies, films) est aujourd’hui numérique. Les supports de stockage, disques durs ou mémoire flash, contiennent maintenant des capacités très importantes, à des conditions économiques très attractives. Le transport des données, enfin, est facilité, tant au plan des réseaux de communication (avec et sans fil) que des terminaux d’accès (ordinateurs, téléphones mobiles, consoles de jeux, télévision…). 3. L’ouverture des standards technologiques Le Web 2.0 constitue une nouvelle plate-forme de développement planétaire, au sein de laquelle les données sont facilement accessibles, utilisables et transformables à volonté, dans la mouvance naturelle du monde de l’Open Source. La syndication des contenus est possible grâce aux formats RSS et Atom. Les interfaces de programmation (APIs) sont aujourd’hui très souvent publiques, permettant l’utilisation ou la création de modules ou scripts transformables, et cela, sans restriction (Widgets, 8 Bookmarklets, Mashups). Comme le note très justement Loïc Haÿ , dans 9 son excellente synthèse « Dessine-moi le WEB 2.0 » , « Le Web acquiert ainsi une dimension ludique inégalée : il prend la forme d’un immense jeu de lego, où chacun peut imaginer de nouvelles constructions à partir des briques disponibles… ». 10 « The Network is the Computer » Au final, le Web 2.0 ouvre une nouvelle ère de l’Internet: celle où le réseau devient le bureau de l’internaute. Les pages personnalisables, type iGoogle, My Yahoo!, Windows Life, Netvibes ou Webwag, permettent ainsi d’organiser de façon totalement personnalisée et flexible ses flux d’information, tout en intégrant de très nombreux Widgets ou les principales applications de productivité personnelle. Ainsi, la quasi-totalité des applications bureautiques « classiques » (traitement de texte, tableur, éditeurs de présentation de diaporamas, d’images, de vidéos, de pages Web, applications de messagerie, bloc-notes, applications d’organisation personnelle, etc) quitte le bureau local (« Desktop ») pour rejoindre ce bureau Web (« Webtop »). De la même manière, le navigateur Internet 76 entame une évolution inéluctable pour devenir, progressivement, le système d’exploitation du Web 2.0. Ainsi, Mike Schroepfer, vice-président et responsable produit de Mozilla, affirme : « Firefox 3.0 exécutera des applications Ajax en mode déconnecté, puis synchronisera les données lors de la reconnexion ». Mais c’est sans doute au plan sociologique que le Web 2.0 représente, paradoxalement, la plus grande rupture avec le Web historique. L’avènement des contenus autoproduits La première manifestation réside dans la nouvelle capacité (et la volonté évidente) des internautes à construire et produire des contenus personnels. L’acronyme anglophone « User-Generated Content » (ou UGC) désigne cette prise de pouvoir des amateurs dans la création de contenus de toutes natures : textuels et audio-visuels. Il est vrai que le Web 2.0 propose de nouveaux moyens très ergonomiques et simples d’utilisation favorisant cette prise d’initiative de la part des internautes. En premier lieu, le phénomène des blogs qui a permis l’émergence de l’autoproduction de contenus par les internautes. L’étude présentée par 11 Sifry.com, en avril 2007 , réalisée à partir des données du portail référent des blogs, Technorati, est édifiante : plus de 70 millions de blogs sont apparus sur Internet en 4 ans, pour générer un nouvel univers : la blogosphère ! En France, en particulier, le phénomène prend des proportions importantes, pour les plus jeunes, via le succès de la plateforme Skyblog (plus 6 millions de comptes !), mais également dans le débat démocratique. Lors de la récente campagne pour les élections présidentielles, tous les grands partis politiques ont largement utilisé le « phénomène blog » pour diffuser leurs messages, et le blogueur français le plus connu, Loïc Le Meur, a même défrayé la chronique en affirmant son engagement idéologique pour le nouveau président de la République, via 12 son blog, évidemment . Le développement est également foudroyant dans le domaine de la réalisation de vidéos numériques sur le Web. D’ailleurs, le slogan de la plate-forme emblématique YouTube est très explicite : « Broadcast yourself ! » (Diffuse-toi toi-même !). La collaboration collective La seconde manifestation sociale des internautes qui caractérise le Web 2.0 repose sur leur participation collective pour créer, enrichir et organiser du contenu. Ce phénomène, nommé « Crowdsourcing », en anglais, est typique des wikis, ces sites Web de partage de connaissance, dont Wikipedia est l’emblème. Ainsi, le Web 2.0 permet de tirer parti de l’intelligence et de l’altruisme collectifs. Ce phénomène prend tout son 77 sens, lorsque les internautes enrichissent les contenus du web en les qualifiant, par une évaluation ou un vote, ou par la « folksonomie ». La logique est d’attribuer des marqueurs sémantiques (ou tags) qui permettront de décrire un contenu, textuel ou audio-visuel. Ces mots-clés peuvent ensuite être regroupés et représentés sous forme de nuages sémantiques (ou « tag cloud »). Cette approche a été popularisée, en 13 France, par Jean Véronis , professeur d’université spécialisé dans le domaine des technologies du langage, à l’université d’Aix-en-Provence. Les réseaux sociaux Le modèle du Web initial s’inverse aujourd’hui complètement avec la révolution Web 2.0. L’internaute n’agit plus seulement « sur » le réseau, mais également « en » réseau, au travers de nouveaux cercles relationnels virtuels, mais très actifs. On parle alors de « social networking ». Cette nouvelle approche communautaire concerne aussi bien les domaines des loisirs (avec l’exemple emblématique de MySpace), que le champ professionnel (Viadeo ou LinkedIn) et même celui des relations amoureuses (Meetic). Ceci amène évidemment de nouvelles interrogations 14 sur l’identité numérique de chaque internaute, qui construit, sur le long terme sa réputation et son influence, dans le meilleur des cas, mais « fossilise » également ses zones d’ombres sur la toile… Sociologie 2.0 Au final, le Web 2.0 semble surtout structurer de façon différente, et nouvelle, les comportements des internautes. L’institut d’études Forrester propose une nouvelle modélisation sociale des internautes, reprise de 15 manière synthétique sur son blog . Celle-ci envisage une échelle participative constituée de six grands groupes d’individus, élaborée par rapport au niveau d’implication et de participation sur le Web. Elle permet de dégager les typologies comportementales qui suivent. > Les créateurs créent des sites Web, entretiennent des blogs et éditent des contenus sur les plateformes multimédias. > Les critiques postent des commentaires sur les blogs, ainsi que des évaluations et des votes. > Les collecteurs utilisent les flux RSS et marquent les pages avec des tags. > Les membres rejoignent des réseaux sociaux. > Les spectateurs lisent des blogs et consultent des vidéos ou des Podcasts en ligne. > Les inactifs n’exercent aucune des activités précitées. 78 Il est clair que ces nouvelles attitudes, couplées aux facteurs technologiques déjà décrits, offrent des champs d’opportunités nouveaux en marketing. 16 Historiquement fondée sur les « 4P » du Marketing Mix de Mac Carthy, le marketing traditionnel envisage une approche de la cible visée qui repose sur quelques grands principes : > La segmentation, ou découpage des populations-cibles par grands sous-groupes homogènes pour lesquels une approche spécifique et homogène peut être conçue, fonde la réflexion stratégique. > Les éléments du Marketing Mix, évoqués plus haut, sont intangibles. > Le contact avec la cible est volontariste de la part du promoteur de l’offre. > Son objectif est toujours la transformation à court terme de la transaction. En synthèse, le « marketing 1.0 » pourrait être décrit comme un marketing transactionnel de masse, structuré autour des « 4P », anonyme, et essentiellement intrusif. Le marketing 2.0 Il nous semble que le Web 2.0 crée de nouvelles conditions pour redéfinir et inventer un « nouveau » marketing. Celui-ci pourrait être également structuré autour d’un Marketing Mix révisé, aux « 4P » iconoclastes. Personnalisation Le Web 2.0 offre une nouvelle opportunité à l’internaute : celle de choisir pratiquement, sans restriction, ses contenus et ses services, ce qui constitue une véritable innovation. Là où l’offre s’avérait intangible et structurée par son promoteur dans le passé, elle devient flexible et peut être adaptée au gré des besoins des cibles visées. La compréhension des ressorts de la personnalisation ouvre évidemment de nouvelles perspectives en matière de recherche marketing et de propositions d’offre pour les organisations. Participation Le consommateur subit passivement, généralement, la « pression » exercée par les promoteurs de produits, de services ou d’idées. Avec le Web 2.0, l’internaute se voit offrir la possibilité d’interagir avec les fournisseurs de produits, de services ou de contenus, ainsi qu’avec les autres internautes. Il crée et fournit ses propres contenus, évalue et structure ceux auxquels il est confronté. De nouveaux flux d’interactions apparaissent ainsi, vers les promoteurs d’offres, évidemment, mais aussi avec les autres internautes. 79 Partage Là où le marketing traditionnel essaie de déterminer les segments fondateurs de l’approche commerciale, le Web 2.0 voit apparaître des groupes constitués par les internautes eux-mêmes, autour de thèmes fédérateurs, dans une dynamique communautaire. Cette dimension sociale permet une propagation « virale » de l’information, incontrôlée et incontrôlable, pour le meilleur… ou pour le pire. La compréhension ou l’animation de tels réseaux sociaux constituent évidemment un nouvel enjeu critique du marketing. Permission Le Web 2.0 est un univers où rien n’est imposé, même plus la technologie. L’internaute s’abonne à un flux d’information ou intègre un Widget s’il le juge pertinent et intéressant ; s’en désabonne ou le supprime sans difficulté, en cas de déception. Les comportements sont fondés sur l’adoption volontaire et le consentement actif. Il est d’ailleurs intéressant de 17 noter que ce point a déjà été théorisé par Seth GODIN , dans son ouvrage de référence : Permission Marketing (édition MAXIMA, septembre 2000). C’est le règne de l’Opt-In, où l’adhésion volontaire et la liberté d’arrêter la 18 relation ont force de loi (comme en France, avec l’adoption de la Loi sur la Confiance dans l’Économie Numérique, du 21 juin 2004). 19 Un nouveau paradigme marketing Au final, c’est l’essence même du marketing qui nous semble devoir être affecté par le Web 2.0. Au plan statistique, tout d’abord, la croissance des investissements en e-communication semble un premier indicateur de cette révolution en marche. En France, celle-ci aura été de + 48,2 %, à 1,7 milliards d’euros, entre 2006 et 2005, selon l’étude annuelle TNS Media Intelligence/IAB. Ceci représente déjà 8 % des investissements publicitaires globaux et la tendance va se poursuivre très certainement les prochaines années. Au plan conceptuel, ensuite, c’est l’ensemble du modèle marketing traditionnel qui est bouleversé : > La relation est personnalisée, et les produits, services et contenus eux-mêmes deviennent personnalisables. > La confiance se construit et se consolide au travers d’une relation durable et consentie, fondée sur la participation active et la possibilité toujours offerte de « faire marche arrière ». L’internaute lui-même hiérarchise ses centres d’intérêt, qu’il partage au sein de collectivités auto-générées La « vertu commerciale » est récompensée, car rapidement propagée par le réseau. À l’inverse, toute sous-performance ou « trahison 80 marketing » est immédiatement sanctionnée par une diffusion virale négative. Finalement, le marketing 2.0 ne serait que la nécessaire mutation du marketing, dans le sens d’une relation durable et consentie, individualisée et communautaire, avec une offre flexible et personnalisable, grâce au support des évolutions du Web 2.0. Notes 1 01 Informatique n°1903, du 4 mai 2007 2 http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web20.html 3 http://www.slideshare.net/loichay/dessinemoi-le-web-20/ 4 FFTH : Fiber to The Home http://www.journaldunet.com/diaporama/0607-fttx/1.shtml 5 Étude GFK-SVM de janvier 2007 : http://www.svmlemag.fr/actu/sondage_exclusif_les_francais_misent_tout_s ur_linternet 6 http://www.bplg.com/enquetes/pme-pmi_tic/ 7 ATAWAD© est une marque déposée sous le n° 33 202 569 pour désigner plusieurs produits et services notamment dans les domaines de l’informatique, des télécommunications et des affaires. 8 http://www.ziki.com/people/loichay 9 http://www.artesi.artesiidf.com/repository/N41/N413442889/498629140.pdf 10 « The Network is the Computer » : Marque déposée de Sun Microsystems, Inc. 11 http://www.sifry.com/alerts/archives/000493.html 12 http://loiclemeur.com/france/ 13 Le blog de Jean Véronis : Technologies du langage http://aixtal.blogspot.com 14 http://www.fredcavazza.net/index.php?2006/10/22/1310-qu-est-ce-que-lidentite-numerique 15 http://blogs.forrester.com/charleneli/2007/04/forresters_new_.html 16 Product – Price – Place – Promotion (produit, prix, distribution, communication) 17 Le blog de Seth GODIN : http://sethgodin.typepad.com/ 18 http://www.internet.gouv.fr/information/information/dossiers/loi-pourconfiance-dans-economie-numerique-len/les-principales-dispositions-len41.html 19 http://www.amba.fr/definition-000209.html 81 Leïla LOUSSAIEF Professeur de Marketing à l’ISC Paris Docteur en Sciences de Gestion Responsable du laboratoire REMAS Recherche en Marketing et Stratégie L’utilisation des modèles de causalité dans la recherche en marketing Résumé L’article porte sur les modèles de causalité. Ces modèles sont de plus en plus utilisés dans les recherches quantitatives en marketing. L’utilité de ces modèles est de prendre en compte la différence entre les construits théoriques non observés et leurs mesures empiriques, permettant ainsi d’appréhender la réalité avec plus de précision. Le test d’un modèle de causalité se fait généralement en cinq phases : Vérification de la base de données, vérifications statistiques préalables à la réalisation du test, spécification du modèle, identification du modèle et estimation du modèle. L’article décrit également comment prouver le rôle modérateur d’une variable dans le cadre des modèles de causalité. En fonction de la nature des variables indépendante et modératrice, les méthodes statistiques utilisées ne sont pas les mêmes. Abstract This article focuses on structural models that are increasingly used in the quantitative research in marketing. The main interest of these models is to take into account the difference between the theoretical non-observed concepts and their empirical measures, thus making it possible to grasp the reality more accurately. The test of a structural model is usually done in five phases: Checking the database, statistical checking prior to the completion of the test, specifying the model, identifying the model and estimating the model. 82 The article also explains how to highlight the moderator effect of a variable in the context of structural models. Depending on the nature of the independent and moderating variables, the statistical methods used are different. La présentation des modèles de causalité Les modèles de causalité, plus techniquement appelés modèles d’équations structurelles avec variables latentes et erreurs de mesure, sont des méthodes statistiques de seconde génération et présentent les avantages de ces méthodes (Valette-Florence, 1988) : elles introduisent la notion de variables latentes ou non observables ; elles permettent de spécifier la nature des relations entre ces variables latentes et leurs mesures ; elles offrent également la possibilité de préciser le type de relations envisagées entre les variables latentes ; elles sont capables d’analyser les inférences causales entre plusieurs ensembles de variables explicatives et expliquées ; elles sont susceptibles d’utilisation confirmatoire. Traditionnellement, les recherches en marketing considèrent, comme le soulignent Steenkamp et Baumgartner (2000), qu’il existe une correspondance parfaite entre le construit théorique et son opérationnalisation : le construit est l’opérationnalisation. Au contraire, les modèles d’équations structurelles introduisent, avec la notion de variable latente, une distinction entre le construit théorique et sa mesure. L’utilité des modèles d’équations structurelles est d’introduire une distinction claire entre les construits théoriques non observés et des mesures empiriques qui restent faillibles. Les mesures des construits théoriques sont contaminées par des erreurs qui peuvent biaiser l’estimation des paramètres du modèle. Les modèles d’équations structurelles permettent une prise en compte de l’erreur, et, par conséquent, une estimation plus fiable (Steenkamp et Baumgartner, 2000). Le modèle général utilisé pour l’analyse de la causalité résulte de la conjonction d’un modèle d’équations structurelles défini sur les variables latentes et d’un modèle de mesure reliant les variables observées aux variables latentes (Evrard et al., 2000). Les modèles de causalité concilient donc à la fois des modèles de mesure et des modèles de structure. Cette méthodologie permet au chercheur de tester des théories (à défaut de les établir) en favorisant le passage d’une analyse exploratoire à une analyse confirmatoire. Il s’agira ensuite d’évaluer l’adéquation de ces théories aux données empiriques en vérifiant la qualité de leur ajustement. Les principes de test des modèles de causalité Le test d’un modèle de causalité se fait généralement en cinq temps : 83 1. Dans un premier temps, il s’agit de vérifier que la base de données ne contient pas de valeurs manquantes. 2. Dans un deuxième temps, il faut opérer les vérifications statistiques préalables à la réalisation des analyses en s’interrogeant notamment sur la taille de l’échantillon et la normalité des variables. Cette phase est également l’occasion de s’arrêter sur les échelles de mesure à travers des analyses factorielles exploratoires (AFE) et/ou confirmatoires (AFC). Les analyses exploratoires sont une réplication des analyses effectuées à l’occasion de pré-tests d’échelles, mais avec les données de l’enquête finale. Les analyses confirmatoires permettent de valider l’utilisation des échelles de mesure ayant passé le cap de l’exploratoire en en certifiant les qualités psychométriques. 3. Dans un troisième temps, le modèle est spécifié. 4. Dans un quatrième temps, le modèle est identifié. 5. Dans un cinquième temps, le modèle est testé. Si le test n’est pas probant, il faut spécifier un nouveau modèle, l’identifier et le tester (Etapes 4 et 5). Ces cinq séquences peuvent être résumées dans la figure suivante : Figure 1 - Les étapes de test d’un modèle de causalité Etapes Vérification de la base de données Vérifications statistiques préalables Spécification du modèle 84 Procédures Eliminer les variables manquantes Taille de l’échantillon / AFE Normalité des variables / AFC Normalité / AFC Normalité des variables / AFC Utilisation du modèle issu du cadre conceptuel Identification du modèle Fixation des contraintes égales à 1 et à 0 Test du modèle Examen des indices d’ajustement du modèle 1. La vérification de la base de données Pour faire l’objet d’une analyse, la base de données ne doit pas comporter de valeurs manquantes. Elle doit donc en être épurée. 2. Les vérifications statistiques préalables à la réalisation du test du modèle Il s’agit d’une part de vérifier la taille de l’échantillon et d’apprécier la normalité des variables et d’autre part d'accomplir des analyses factorielles exploratoires puis confirmatoires sur les échelles de mesure. La vérification de la taille de l’échantillon La littérature n’apporte pas de recommandations claires sur le nombre d’observations nécessaire pour estimer les paramètres d’un modèle d’équations structurelles. Certains chercheurs préconisent cependant un ratio minimum de l’ordre de cinq observations par paramètre à estimer dans le cadre d’une distribution normale (Bentler et Chou, 1987). D’autres proposent un degré d’exigence plus élevé avec un ratio de 6 pour 1 (Baumgartner et Homburg, 1996). Pour assurer une certaine stabilité des paramètres, Evrard et al. (2000) préconisent de travailler dans tous les cas avec des échantillons assez importants comprenant autour de 200 à 300 individus. Quant au nombre de paramètres à retenir, il sera connu à la suite de l’identification du modèle (Etape 4 du test du modèle). Les Analyses Factorielles Exploratoires (AFE) Toutes les échelles servant à mesurer les variables faisant partie du modèle à tester, et mesurées par plus d’un item, doivent être étudiées à travers des AFE. Ces analyses ont pour objectif de vérifier la validité et la fiabilité des instruments de mesure et de confirmer les analyses exploratoires des pré-tests. La normalité des variables L’examen de la normalité des variables peut se faire à travers deux indicateurs : le coefficient de symétrie (Skewness) et le coefficient de concentration (Kurtosis). Les seuils retenus sont de 2 pour le coefficient de symétrie et de 7 pour le coefficient de concentration. Lorsque les observations ne sont pas substantiellement non normales, les méthodes de maximum de vraisemblance ou des moindres carrés généralisés peuvent être employées (West et al., 1995, p. 74). Les Analyses Factorielles Confirmatoires (AFC) Avant de procéder à l’étude des relations entre variables, il est nécessaire d’explorer la liaison entre les variables observées - ou empiriques - et les variables non observables ou latentes (Evrard et al., 2000). En effet, lorsque plusieurs indicateurs d’un construit sont disponibles, il est relativement simple d’évaluer la fiabilité et la validité de la mesure avant de les utiliser dans le modèle de causalité. La procédure usuelle est de spécifier un modèle d’AFC et de vérifier dans quelle mesure les indicateurs 85 permettent de rendre compte du construit en question (Steenkamp et Baumgartner, 2000). Chaque variable est considérée comme une variable latente et chaque item comme une possibilité de mesure. Les AFC sont conduites en respectant les mêmes principes que pour le test d’un modèle de causalité (reflétant les liens entre variables) et donc, en suivant la procédure exposée plus haut (cf. Figure 1). Chaque variable est considérée comme une variable latente et chaque item comme une possibilité de mesure de cette variable. Seules les échelles comportant plus de trois items peuvent subir une AFC. En effet, AMOS, le logiciel généralement utilisé pour conduire les analyses, ne permet pas de confirmer la structure d’échelles en 2 ou 3 items : le degré de liberté est alors égal à zéro et certains indices ne peuvent donc pas être calculés. 3. La spécification du modèle La spécification du modèle est destinée à déterminer les différents concepts (ou variables latentes) influençant le modèle et les différentes variables d’opérationnalisation permettant de mesurer ces variables latentes. La spécification du modèle est basée sur la revue de littérature et découle du cadre conceptuel défini dans la partie théorique de la recherche. « La spécification exige que l’on s’appuie sur un corps d’hypothèses issues d’études exploratoires. Il s’agit de confirmer, ou d’infirmer, des intuitions étayées par l’exploration, non de s’y substituer » (Evrard et al., 2000). Il s’agit donc d’une spécification a priori du modèle. L’estimation des liens de causalité entre les concepts nécessite que soient établies les équations permettant de relier les variables dépendantes aux variables indépendantes. Le principe de l’analyse structurelle des matrices de covariance est donné par la formule suivante : Σ = ΛΦΛ’ + Ψ Avec : Σ : la matrice de covariance théorique estimée par le modèle Λ : la matrice des reflets et sa transposée Λ’ Φ : la matrice de covariance des variables latentes exogènes Ψ : la matrice des erreurs résiduelles Concernant la forme générale des équations de structure et de mesure, le modèle général se compose : - d’un modèle de structure matérialisé par un système d’équations structurelles reliant les variables latentes exogènes et les variables latentes endogènes, - de deux modèles de mesure reliant les variables latentes aux variables observées qui leur correspondent respectivement (Evrard et al., 2000) . 86 On peut présenter le modèle à travers trois équations : 1. une première équation matérialisant le lien entre variables exogènes et variables endogènes : η = B η + Гξ + ζ 2. une deuxième équation traduisant le lien entre les variables exogènes et leurs indicateurs : X = Λx ξ + ε 3. une troisième équation reflétant le lien entre les variables endogènes et leurs indicateurs : Y = Λy η + δ η est la matrice des variables latentes endogènes (ou variables dépendantes) ; ξ est la matrice des variables latentes exogènes (ou variables indépendantes) ; Г est la matrice des relations entre les variables exogènes et endogènes ; B est la matrice des relations entre les variables endogènes ; ζ , ε et δ sont les résidus respectifs des variables latentes endogènes (η) et des variables observées exogènes (X) et endogènes (Y). Λx et Λy sont les coefficients qui décrivent l’effet des variables latentes sur les variables observées. Concernant la construction du modèle, il convient également de s’interroger sur le sens des relations causales entre les variables latentes et les variables observées (i.e. les variables de mesure). Ce choix doit se faire à partir de considérations théoriques et conceptuelles. Afin d’estimer les relations entre les variables, deux approches sont à la disposition du chercheur : - l’analyse des moindres carrés partiels (PLS) : « L’approche PLS est une démarche itérative non linéaire suivant les moindres carrés partiels qui minimise les variances résiduelles sous une contrainte du point fixe […] PLS est défini pour tenir compte des variances aussi bien au niveau des variables observées qu’au niveau des variables latentes » (Valette-Florence, 1988). - l’analyse des structures de covariance (appelée également LISREL, du nom du modèle LInear Strucutural RELationships, actuellement l’un des plus utilisés en marketing) : Cette approche est originellement définie pour la validation théorique et s’applique, de ce fait, grâce à une théorie a priori bien spécifiée. Elle a principalement une orientation causale (Valette-Florence, 1988). L’objectif est de trouver les paramètres qui offrent le meilleur ajustement entre la matrice « théorique » des covariances et la matrice réelle des données empiriques. 87 L’analyse des structures de covariance est une des méthodes les plus souples parmi celles de la deuxième génération. C’est de loin la plus répandue de ces méthodes (Valette-Florence, 1988). C’est cette deuxième approche (LISREL), plus souvent utilisée en 41 marketing, qui va être présentée. Le logiciel utilisé est AMOS 4.0 . 4. L’identification du modèle Il s’agit de préciser les paramètres à calculer et de comparer leur nombre aux données disponibles (Evrard, 1985). Il est nécessaire d’imposer d’emblée des contraintes à certains paramètres. Il existe des conventions d’usage permettant d’attribuer des valeurs spécifiques à certains paramètres : fixer à 1, au moins, l’un des indicateurs mesurant chacune des variables latentes, et à 0 les variances des indicateurs qui représentent l’unique mesure d’une variable latente (Le Bon, 1998). 5. L’estimation du modèle Estimer les modèles d’équations structurelles revient à évaluer la qualité de l’ajustement entre les données empiriques et le modèle testé. L’évaluation se fait sur la base d’un certain nombre d’indicateurs qui sont calculés par le logiciel utilisé. Deux questions peuvent être posées à ce niveau : 1. Quels indicateurs retenir ? 2. Quels seuils choisir pour ces indicateurs ? Afin de répondre à ces deux questions, nous allons présenter dans un premier temps les différents indicateurs existants, dans un deuxième temps les seuils à retenir pour ces indicateurs et dans un troisième temps les indicateurs et les seuils généralement admis pour les études marketing. Les indicateurs généralement utilisés dans le test des modèles d’équations structurelles Evrard et al. (2000) présentent une série d’indicateurs se situant à trois niveaux de généralité décroissante : au niveau global, au niveau des parties du modèle et au niveau de chaque paramètre. - Au niveau global (c’est-à-dire pour l’ensemble du modèle) Un critère global est proposé. Il s’agit de l’ « overall goodness of fit » qui mesure l’écart entre les matrices S et Σ. Etant très sensible à la taille de l’échantillon, ce critère gagne à être utilisé sur la base d’une approche comparative plutôt qu’absolue. Ce critère global peut être complété par d’autres critères formulés en termes de variance expliquée. Il s’agit du GFI (« Goodness of Fit Index ») et de l’AGFI (« Adjusted Goodness of Fit Index ») qui présente la même évaluation que le GFI, mais au regard du degré de liberté. Un autre critère, 41 Le logiciel utilisé étant AMOS et non pas LISREL, l’utilisation de ce dernier terme comme intitulé de la démarche constitue un abus de langage généralement admis. 88 étudiant cette fois-ci les résidus (c’est-à-dire les écarts entre résultats calculés et données, qui reflètent l’influence des facteurs non pris en compte dans le modèle) peut également être utilisé. Il s’agit du RMR (« Root Mean Square Residual »). Ce dernier donne une indication de la valeur moyenne des résidus du modèle évalués par la différence des covariances estimées et des covariances observées sur les données empiriques. - Au niveau des parties du modèle Pour chacune des trois parties principales du modèle (les deux modèles de mesure et le modèle de structure), le coefficient de détermination peut être calculé : il s’agit du coefficient de corrélation multiple au carré. Il s’interprète comme le pourcentage de variance de la variable à expliquer restitué par le modèle. Cet indicateur varie entre 0 et 1 et l’ajustement est d’autant meilleur que le coefficient est proche de 1. - Au niveau de chaque paramètre Chaque paramètre peut faire l’objet d’un test partiel de signification. Deux indicateurs peuvent être retenus : le coefficient Gamma et le test du CR. • Coefficient Gamma : il permet d’apprécier l’importance de la relation entre la variable explicative et la variable à expliquer. La version standardisée de ce coefficient est préférable à la version brute. • Test du CR : il permet d’évaluer la significativité statistique globale de la relation entre la variable explicative et la variable à expliquer. Il teste la significativité du coefficient γ dans les modèles de causalité. Le CR teste l’hypothèse H0 selon laquelle le poids de la régression est nul. Le niveau d’exigence le plus élevé consisterait à n’accepter le modèle comme valide que si tous les paramètres sont significatifs et du signe attendu. La question est de savoir maintenant les seuils à retenir pour considérer que les indicateurs sont bons. Les seuils généralement retenus dans le test des modèles d’équations structurelles Si les seuils à prendre en compte pour les indicateurs utilisés au niveau des parties du modèle ainsi que des paramètres sont connus et généralement admis, ceux utilisés pour apprécier la validité du modèle au niveau global le sont beaucoup moins. Le problème avec ces indices d’ajustement est qu’aucun d’entre eux ne correspond à une distribution statistique : il n’existe par exemple aucune mesure du risque d’erreur. La procédure est totalement empirique et n’est pas codifiée. Il n’y a pas de validité affirmable en matière d’ajustement. Ces indicateurs sont des heuristiques pures. 89 En général, plusieurs modèles peuvent être adaptés aux données. Des simulations de différents modèles peuvent être faites pour voir lequel de ces modèles peut être retenu. Les indices ne représentent pas une vérité absolue permettant de statuer définitivement sur la qualité d’un modèle théorique. Ils ont notamment été développés pour que les avantages des une pallient les faiblesses des autres (Baumgartner et Hombourg, 1996). Il n’existe pas de réel consensus entre les auteurs sur ce qui constitue un bon ajustement (Tanaka, 1993). Ces indices constituent cependant une bonne grille de lecture et permettent au chercheur de réfléchir à la portée de ses constructions théoriques. Les indicateurs et les seuils les plus fréquemment utilisés Au niveau de l’ajustement global du modèle, trois indices sont généralement choisis : deux indices d’ajustement absolu : l’AGFI et le RMSEA ♦ ♦ - L’AGFI (Adjusted Goodness of Fit Index), formulé en termes de variance expliquée, présente la même évaluation que le GFI (Goodness of Fit Index) mais au regard du degré de liberté. Le RMSEA (Root Mean Squared Error of Approximation) estime la manière dont le modèle approxime la matrice de covariance de la population par degré de liberté. un indice d’ajustement incrémental : le TLI (ou NNFI) Le TLI (Tucker Lewis Index) permet d’évaluer qu’un modèle factoriel exploratoire estimé par une méthode de maximum de vraisemblance représente une amélioration par rapport à un modèle nul qui ne suppose aucune relation entre les variables. Cet indice présente l’avantage d’être peu sensible à la taille de l’échantillon. Ces trois indicateurs sont souvent estimés sur la base des mêmes seuils (Le Bon, 1998 ; Gonzalez, 2001 ; Loussaïef, 2002). Ces seuils sont présentés dans le tableau suivant : 90 Tableau 1 - Seuils généralement choisis pour les indicateurs d’ajustement global du modèle Indicateurs AGFI TLI RMSEA Seuils choisis 0.8 0.9 42 0.08 En plus de ces trois indicateurs, un autre critère, celui du rapport entre le Chi-deux et le nombre de degrés de liberté, est souvent intégré dans le raisonnement au niveau global. Le Chi-deux permet de tester l’hypothèse non nulle selon laquelle la matrice de variance estimée est statistiquement différente de la matrice de covariance. Le rapport « Chi-deux/dl » doit être supérieur à 2 (pour les échantillons de plus de 200 individus). En ce qui concerne l’ajustement sur les deux autres niveaux, les indicateurs fréquemment sélectionnés dans les travaux de recherche (Le Bon, 1998 ; Gonzalez, 2001 ; Loussaïef, 2002) sont les suivants : - le Gamma standardisé le test du CR le coefficient de détermination Ces indicateurs sont examinés dans l’ordre suivant : D’abord, on examine le CR. C’est lui qui permet de savoir si la relation est significative. Ensuite, on regarde le gamma standardisé pour connaître l’importance de l’impact dans la relation en question. Enfin, on regarde le coefficient de détermination pour savoir si l’item peut être gardé. Quant aux seuils à prendre en compte, ils sont présentés dans le tableau suivant : Tableau 2 - Seuils habituellement choisis pour les indicateurs au niveau des parties du modèle et de chaque paramètre Indicateurs Test du CR Seuils choisis Pas de seuil. Seule indication : le Gamma doit être assez élevé pour expliquer, du moins en partie, l’impact d’une variable sur une autre. > 1.96 Coefficient de détermination > 0.5 Gamma standardisé 42 Signalons que pour le RMSEA, un seuil moins strict de 0.1 peut également être retenu. 91 Signalons qu’en ce qui concerne le test du CR, bien que le seuil retenu soit celui généralement admis dans les recherches, il est possible de garder un modèle même si ce seuil n’est pas respecté pour certaines variables. En effet, ce test se base sur l’hypothèse selon laquelle les variables suivent une distribution gaussienne. Or, comme c’est souvent le cas en marketing, toutes les variables du modèle sont évaluées sur des échelles de Likert, ce qui ne fait pas d’elles des variables complètement gaussiennes. Le test du CR n’est donc qu’approximatif. Par conséquent, moyennant une certaine incertitude, on peut considérer qu’un modèle est bon même si ce test n’est pas significatif. Il faudrait cependant dans ce cas que les indices généraux soient parfaitement satisfaisants. Une fois les indicateurs et les seuils choisis, l’analyse peut être menée. Qu’elle porte sur des AFC ou sur le test des modèles de causalité, la démarche sera la même. Le modèle est spécifié, a priori, sur la base de la réflexion théorique qui a déjà eu lieu. Il va ensuite être confronté aux analyses sous AMOS. Ce logiciel calculera un ensemble d’indicateurs parmi lesquels figurent ceux sur lesquels le choix a porté. Ces indicateurs vont être regroupés en deux tableaux, selon qu’ils renseignent sur l’ajustement au niveau global ou au niveau des paramètres. L’examen des deux tableaux va se faire en deux temps : Dans un premier temps, nous étudions les indicateurs d’ajustement au niveau global pour vérifier que le modèle théorique s’ajuste bien aux données empiriques. Deux cas de figure peuvent se présenter : - Les résultats sont satisfaisants. Dans ce cas, nous pouvons regarder le deuxième tableau pour vérifier si les autres indicateurs peuvent donner satisfaction. Les résultats ne sont pas satisfaisants. Dans ce cas aussi, il faudra regarder le second tableau mais dans le but, cette fois-ci, de voir comment améliorer le modèle spécifié au départ. Dans un second temps, nous étudions le tableau reprenant les indices d’ajustement pour les paramètres. Cette étape permet d’une part de voir si les indicateurs respectent les seuils choisis et d’autre part d’apprécier l’importance de la relation entre les variables explicatives et les variables à expliquer. Ici aussi, deux possibilités peuvent se présenter : - les résultats sont probants. Ceci permettra de décider de garder l’échelle telle quelle dans le cas d’une AFC ou d’appréhender l’importance des variables explicatives dans le cas du test d’une relation de causalité. 92 - les résultats ne sont pas probants. Dans ce cas, il faudra proposer un modèle respécifié en éliminant les variables les moins explicatives (Gamma standardisé très faible) et/ou celles qui ne respectent pas les seuils pour le CR 43 2 (CR<1.96) ou le coefficient de détermination (R <0.5). La proposition d’un modèle respécifié ne doit pas se faire sans questionnements préalables. Hoyle et Panter (1995), recommandent de « ne pas effectuer des modifications théoriques post hoc suite à des tests de causalité si des raisons claires et substantielles ne peuvent venir justifier ces choix. Il s’agit d’éviter des modifications qui n’auraient pas de sens au regard des phénomènes analysés ». Une respécification de modèle a déjà été opérée dans le cadre d’un exemple donné par Evrard et al. (2000). Après l’élimination d’items ou de variables, il est utile de comparer le nouveau modèle avec le modèle spécifié a priori afin de voir lequel des deux est plus pertinent. Ceci revient à faire plusieurs simulations et à opter pour le modèle qui s’ajuste le mieux aux données empiriques tout en ayant un sens sur le plan théorique. Une fois la respécification établie, toute la procédure indiquée ci-dessus sera de nouveau appliquée. Le test de l’effet de modération dans le cadre de l’utilisation des modèles de causalité Une variable modératrice est une variable de nature qualitative ou quantitative qui affecte la force ou la direction de la relation entre la variable dépendante et la variable indépendante (Baron et Kenny, 1986). Ces deux chercheurs indiquent que « la modération implique que la relation entre deux variables change en fonction de la variable modératrice. L’analyse statistique doit mesurer et tester l’effet différentiel de la variable indépendante en fonction de la variable modératrice ». On peut résumer l’impact d’une variable modératrice de la façon suivante : 43 Avec une certaine souplesse pour le seuil de 1.96 pour les raisons que nous indiquions plus haut en commentaire du tableau 2. 93 Figure 2 - Présentation d’un modèle avec variable modératrice (Baron et Kenny, 1986) X a Z b Y c X*Z X est la variable indépendante, Y la variable dépendante et Z la variable modératrice. Dans le but de prouver le rôle modérateur d’une variable, il est nécessaire de montrer que l’interaction entre X et Z est significative. En fonction de la nature des variables indépendante et modératrice, les méthodes statistiques utilisées ne sont pas les mêmes. Sauer et Dick (1993) proposent une méthode pour tester le rôle des variables modératrices dans un modèle d’équations structurelles. Là encore, on distingue deux cas selon la nature dichotomique ou continue de la variable modératrice. Variable modératrice dichotomique On réalise une analyse multi-groupe, avec un groupe pour chaque modalité de la variable modératrice. Plus précisément, deux modèles d’équations structurelles sont construits : un modèle où les paramètres des deux groupes varient librement (modèle réel) et un modèle où les paramètres des deux groupes sont contraints à être égaux (modèle témoin). Dans le modèle témoin, il n’existe pas de différence entre les groupes : la variable modératrice n’influence pas les liens entre la variable indépendante et la variable dépendante. On compare les modèles grâce à une 2 2 statistique dχ qui est la différence entre le χ des deux modèles. Si cette statistique est significative, le rôle modérateur est prouvé. Variable modératrice continue Une variable d’interaction X*Z est créée en multipliant la variable modératrice Z par la variable dépendante X. On teste deux modèles : un modèle où on inclut la variable d’interaction et un modèle où on ne l’inclut pas. On compare 2 les deux modèles grâce à une statistique dχ qui est la 94 2 différence entre le χ des deux modèles. Si cette statistique est significative, le rôle modérateur est prouvé. Les variables en interaction doivent être normalement distribuées. Détail du test d’un effet de modération pour une variable modératrice dichotomique La démarche proposée par Sauer et Dick (1993) et appliquée par Homburg et Giering (2001) s’opère en trois étapes : La première étape consiste à spécifier le modèle que l’on souhaite tester et à déterminer un groupe pour chaque modalité du modérateur. La seconde étape consiste à spécifier deux modèles. Dans le premier modèle, les paramètres des variables varient librement. C’est le modèle réel. Le deuxième modèle est un modèle où l’on pose une contrainte sur les paramètres : ils doivent être égaux dans les deux groupes. C’est le modèle témoin. La troisième étape consiste à tester ces deux modèles et à calculer la 2 2 2 statistique dχ . La statistique dχ est la différence entre le χ du modèle 2 réel et le χ du modèle témoin. Les degrés de liberté de cette statistique sont la différence entre les degrés de liberté du modèle réel et les 2 degrés de liberté du modèle test. Cette statistique suit une loi du χ . On teste l’hypothèse H0 selon laquelle la variable modératrice n’a pas un effet significatif sur la relation entre la variable indépendante et la variable dépendante. Dans ce cas, le modèle réel, où les paramètres varient librement, n’est pas meilleur que le modèle témoin où les paramètres de chaque groupe sont égaux. On ne peut pas dire que les paramètres des sous-groupes sont différents, et par conséquent, que la variable modératrice a un impact sur le lien entre la variable dépendante et la variable indépendante. On peut tester la significativité de la différence concernant un même paramètre dans les groupes en fixant uniquement ce paramètre dans le modèle témoin. Bibliographie -Baron R.M. et Kenny D.A. (1986), "The moderator-mediator variable distinction in social psychological research: Conceptual, strategic and statistical considerations", Journal of Personality and Social Psychology, 51, 6, 1173-1182. -Baumgartner H. et Homburg A. (1996), "Applications of structural equations modelling in marketing consumer research: A review", International Journal of Research in Marketing, 13, 139-161. -Evrard Y. (1985), "Validité des mesures de causalité en marketing", Revue Française du Marketing, n°101, 17-32. 95 -Evrard Y., Pras B. et Roux E. (2000), "MARKET - Etudes et recherches en marketing", Dunod, Paris. -Gonzalez C. (2001), "Satisfaction du consommateur suite à la visite d’un catalogue électronique : Impact de la lisibilité et de la stimulation", Thèse de Doctorat, Université Paris IX Dauphine. -Homburg C. et Giering A. (2001), "Personal characteristics as moderators of the relationship between customer satisfaction and loyalty – An empirical analysis", Psychology and Marketing, Vol. 18, n° 1, 43-66. -Hoyle R. et Panter A. (1995), "Writing about structural equation models", in Structural Equation Modeling : Concepts, Issues and Applications, Hoyle R. ed, Sage Publications, 158-176. -Le Bon J. (1998), "Contribution des vendeurs à l’intelligence économique : Un essai d’explication de l’intention d’effort envers la veille marketing et commerciale", Thèse de Doctorat, Université Paris IX Dauphine. -Loussaïef L. (2002), "La sensibilité du consommateur à l’origine nationale perçue des marques : Une variable modératrice de l’effet de l’image d’un pays sur la qualité perçue d’un produit", Thèse de Doctorat, Université Paris IX Dauphine. -Sauer P.L. et Dick A. (1993), "Using moderator variables in structural equation models", Advances in Consumer Research, Summer, 20, 636640. -Steenkamp J. et Baumgartner H. (2000), "On the use of structural equations models for marketing modeling", International Journal of Research en Marketing, 17, 195-200. -Tanaka J. (1993), "Multifaceted conceptions of fit in structural equation model", In Testing structural equation models, Bollen K. et Scott Long ed., Sage Publications, 10-39. -Valette-Florence P. (1994), "Les styles de vie-Bilan critique et perspectives", Editions Nathan, Paris, 320 p. -West S., Fich J. et Curra, P. (1995), "Structural equation with nonnormal variables : Problems and remedies", in Structural Equation Modeling : Concepts, Issues and Applications, Hoyle R. ed, Sage Publications, 56-75. 96 MAUFFRE Christian-Eric Professeur de Marketing à l’ISC Paris Docteur en Pharmacie BERGER Charles Professeur de Marketing, Communication à l’ISC Paris ESSEC MBA, Docteur en Médecine Créateurs de maladies : fantasme ou réalité marketing Le disease mongering face aux enjeux de santé Résumé En 2006, l’annonce de la première conférence internationale sur le disease mongering, ( littéralement le fait de voir la maladie partout pour y apporter un remède) a bénéficié d’une couverture médiatique exceptionnelle : la santé, ce bien précieux entre tous, était manipulée par des créateurs de maladies, soucieux de vendre des médicaments. Pire, la médicalisation de la vie quotidienne, relayée par les abondantes communications vers les consommateurs devenait une source inépuisable de manipulations, dans une logique de profit. L’article fait le point sur un phénomène considéré par d’autres comme conjoncturel et parasitaire, relayant les critiques habituelles sur l’industrie pharmaceutique. L’analyse élargie des mécanismes sous tendant l’irruption dans le paysage médical de nouvelles pathologies et de leur réponse, le rôle des scientifiques, des patients et des 97 institutions permet d’isoler les facteurs de dérives, mais également d’en mesurer le poids et le risque réel, face aux enjeux de santé publique. Mots clés : disease mongering, médicalisation, Direct To Consumer, prévention, essais thérapeutiques, information médicale, groupe de patients, industrie pharmaceutique. Abstract In 2006, the announcement of the first international conference on DiseaseMongering (literally, the practice of finding disease everywhere in order to supply a cure), received exceptional coverage from the media: health, the most precious of all gifts, was being manipulated by the illness-creators, with a view to selling their drugs. Even worse is the "medicalization" of daily life, borne on a flood of announcements to consumers, and becoming an inexhaustible source of profit-oriented manipulation. The article provides a progress report on a phenomenon that many consider to be a consequence of the economic situation and that merely repeats the usual criticisms of the pharmaceutical industry. A wider discussion of the mechanisms underpinning the incursion into the medical landscape of new pathologies and their responses, and the roles of scientists, patients, and institutions, enable the factors controlling these excesses to be identified, while also measuring their real significance and danger as regards public-health issues. Keywords disease mongering, medicalization, Direct-To-Consumer, prevention, therapeutic trials, medical information, patient group, pharmaceutical industry. Le disease mongering, un concept d’actualité Du titre accrocheur de la revue Prescrire « Fabriquer des maladies pour vendre des médicaments » aux nombreux relais sur les blogs et sites santé Internet, l’irruption sur la scène médiatique en 2006 du disease mongering s’est faite avec une grande résonnance.(1) Au-delà des difficultés de traduction, ce terme exprime le fait de voir la maladie partout, de s’en faire le revendeur - le mot monger signifiant vendeur.(2) Plus précisément pour l’industrie pharmaceutique, souvent citée lors des débats autour de ce concept, il s’agit du développement ou de la promotion d’une maladie pour vendre son traitement ou une molécule participant à ce traitement.(3) Le terme est proche de la notion de marchéage, création du besoin avant de proposer le produit apte à le satisfaire. La mercatique utilise d’ailleurs la mise en place d’une politique de marchéage propre à accroître la demande 98 adressée à l’entreprise : c’est ce que l’on appelle le plan de marchéage, appelé aussi marketing mix. Le terme disease mongering a été forgé en 1992 par Lynn Payer(4) pour désigner le marketing de nouvelles maladies par différents groupes d’influence médicaux ou pharmaceutiques, soucieux de développer ou créer une niche commerciale, en prenant exemple sur certaines phobies sociales.(5) L’exemple le plus fréquemment utilisé est celui du trouble bipolaire, dont la prévalence était estimée, il y a encore quelques années aux Etats Unis à 0.1%. En épidémiologie, la prévalence d’une population est calculée en rapportant à la population totale le nombre de cas de maladies présents à un moment donné dans une population, que le diagnostic ait été porté anciennement ou récemment.(6) Les chiffres les plus récents parlent de 2.6 à 6.5%, avec une augmentation forte des données concernant les enfants, mais uniquement aux Etats Unis. De nombreux articles insistent de plus sur l’existence de livres pour enfants popularisant le concept « Brandon and the bipolar bear » (7) Le domaine du système nerveux central et ses troubles, régulièrement le théâtre d’affrontements entre partisans de mouvements anti psychiatriques ou scientologues et médecins a vu une large utilisation du terme disease mongering pour discréditer l’approche neurobiologique et les traitements mis en œuvre. Si le terme de disease mongering date des années 1990, on ne peut s’empêcher de faire le lien avec les propos tenus dans les années 1970 par Ivan Illich dans Nemesis Médicale (8) : « dans les pays développés, l’obsession de la santé parfaite est devenue un facteur pathogène prédominant. Le système médical, dans un monde imprégné de l’idéal instrumental de la science, crée sans cesse de nouveaux besoins de soins ». Illich pointait du doigt le système médical « qui prétend avoir autorité sur les gens qui ne sont pas encore malades ». Dans l’univers francophone, une autre référence souvent mentionnée est Jules Romain avec la création du personnage de Knock dans la pièce parue en 1923 « Knock ou le triomphe de la médecine », en particulier pour la sentence « les gens bien-portants sont des malades qui s’ignorent ».(9) Cependant, nous verrons plus loin que le message véhiculé par la pièce est plus fort, « une ère médicale se crée », avec sa morale et ses apôtres. Plus récemment, le disease mongering a connu un éclairage plus important, la parution du livre de Jôrg Blech, en France en 2005 : « Les inventeurs de maladies, manœuvres et manipulations de l’industrie pharmaceutique » dont le titre n’a pas manqué de susciter curiosité médiatique et réactions vives sur les forums de discussion, en est le meilleur exemple. (10) En outre, la création et la tenue à Newcastle en Australie en avril 2006 d’un colloque international sur le thème du disease mongering complétait la démonstration médiatique : anglo-saxon et international achevant la caution du concept. 99 Un environnement propice : Vieillissement, médicalisation et pauvreté des pipe lines La médicalisation de la vie quotidienne, principalement dans les pays développés est un phénomène qui n’est pas récent, il a accompagné l’élévation du niveau de vie et le vieillissement de la population. En outre l’objectif dont parlait le Knock de Jules Romain de prévenir la maladie, s’est trouvé secondé par la loi. En effet, depuis la fin de la seconde guerre mondiale, le système de Sécurité Sociale en France étend à l’ensemble des soins la gratuité, en adoptant un mode financement par répartition : tous financent les maux de chacun. Médecine scolaire, médecine du travail, vaccinations, une médecine préventive a bien vu le jour, relayée par de nombreuses campagnes de communication, sur les fléaux à combattre, les maladies à vaincre. La contribution collective de la nation au financement de la santé individuelle a créé une notion de morale – celle du « devoir du soigné ». Chacun est en effet responsable devant tous de l’entretien de sa propre santé et de celle de ses proches. Le parcours de soin devient obligatoire, le médecin traitant remplace le référent. Dans un environnement à technicité accrue, l’irruption de spécialités depuis les années 60 ophtalmologie, orthodontie, imagerie médicale… balise ce nouveau parcours. Le patient, même s’il devient de fait de plus en plus consommateur, n’est plus le malade - sur lequel s’acharne le sort - mais un acteur d’un système de santé, qui doit justifier de ses efforts pour prévenir ou éviter la maladie. Cette culpabilité moderne se trouve d’ailleurs encadrée par la loi dans les comportements concernant l’alcool ou le tabac. Depuis quelques années, l’irruption de la notion de « principe de précaution » dans le secteur de la santé publique exacerbe le débat. Erigé en principe républicain, il renverse l’échelle des perceptions ; on interroge maintenant l’activité de l’homme sur l’absence totale de risque en matière de santé et non plus sur l’impact d’une mesure préventive sur l’activité. Le citoyen est troublé, perdu même car normes, décisions ou procédures sont souvent supportées par le « scientifiquement établi ». Ainsi l’environnement est propice à l’émergence de concepts de santé publique : la santé étant par nature le plus grand des biens désirables, les progrès scientifiques et médicaux du XIXe et XXe siècle doivent progressivement vaincre les causes de mortalité. Au-delà, on rejoint l’analyse d’ Illich « chacun exige que le progrès mette fin aux souffrances du corps, maintienne le plus longtemps possible la fraîcheur de la jeunesse et prolonge la vie à l’infini ».(11) La médicalisation des actes et des pratiques s’est traduite en parallèle par une demande importante de traitement, ce que Faure appelle la 100 « demande sociale » de médicaments, remontant au XIXe siècle et qui impose au médecin de prescrire. Ce phénomène, constaté par les observateurs des systèmes de santé publique, repose sur la nécessaire justification de l’acte diagnostic par une matérialisation de l’échange, la prescription. Le phénomène connaît ensuite une tendance entropique au fur et à mesure que les découvertes de thérapeutiques accompagnent un approfondissement des éléments de diagnostic. L’exemple récent de la communication de l’assurance maladie en France sur la consommation des antibiotiques, symbolisé par le slogan « Les antibiotiques, c’est pas automatique » traduit la demande du corps médical d’être accompagné par une démarche des autorités de tutelle pour réduire la pression à la prescription lors des pathologies hivernales. L’accélération des échanges, le réseau mondial que constitue Internet ont permis de créer une vaste circulation d’informations en particulier dans le domaine de la santé. Chaque mois, un internaute français sur cinq consulte au moins un site consacré à la santé, la forme ou la nutrition, le plus souvent des femmes et des sujets ayant un niveau d'études et/ou de revenus élevés. Même si la fréquence des recherches diminue avec l'âge, la vie en milieu urbain tout comme l'ancienneté de l'utilisation d'Internet ou de l'accès à domicile ou encore un état de santé dégradé, sont aussi des facteurs qui tendent à augmenter les recherches sur la toile et donc favorisent une forme d’interventionnisme auprès des prescripteurs. La recherche médicale et pharmaceutique semble à l’heure actuelle à la recherche d’un grand triomphe. Les traitements curatifs des grandes pathologies comme le cancer et le SIDA tardent à apparaître, la part grandissante des génériques ( 50% aux Etats Unis) indiquent que l’on continue de prescrire des médicaments ayant plus de vingt ans d’ancienneté.Une analyse faite dans le New England Journal of Medecine, concernant les mises sur le marché par la FDA (Autorité de tutelle aux Etats Unis) entre 1998 et 2002 mettait en évidence que 30 % des nouveaux médicaments étaient de nouvelles molécules et que 14 % apportaient un progrès thérapeutique jugé intéressant. Or le coût de mise au point d’un nouveau médicament double tous les cinq ans atteignant aujourd’hui un milliard de dollars US, il semble que l’industrie pharmaceutique entre dans une phase de rendements décroissants, selon les analystes financiers. La multiplicité des fusions ou des concentrations du secteur est liée à la faiblesse des pipe-lines, réservoir des innovations du futur. Selon certains experts, le dynamisme économique de l’industrie pharmaceutique serait plus lié à une meilleure politique des brevets et au choix d’investir sur des pathologies particulières que le qu’au résultat d’une pure innovation. En effet, concernant les maladies infectieuses, le progrès thérapeutique passe par la création de molécules susceptibles d’éviter les résistances acquises par les agents infectieux. En outre, la mondialisation des échanges s’est accompagnée d’une protection brevetaire accrue, 101 facteur permettant à l’industrie d’obtenir une meilleure protection des résultats de ses recherches. Les grands espoirs de la génomique et des biotechnologies tardent à trouver leurs applications, les programmes de prévention des risques individualisés sont toujours dans les cartons. L’industrie focalise ses actions court terme sur l’amélioration du service rendu, l’innovation galénique et la prise en charge des facteurs de risque.(12) Enfin au niveau de la gestion de la dépense politique, on assiste en France comme dans les autres systèmes de santé des pays développés à une tendance à la réduction régulière du pourcentage des dépenses prises en charge par l’assurance maladie pour « responsabiliser » les patients. En effet, partout l’augmentation des dépenses de santé liée au vieillissement, à la médicalisation et à la technicité accrue, à l’introduction de nouvelles thérapeutiques coûteuses crée une pression permanente sur les équilibres des systèmes de santé. Cependant, les mesures encourageant un patient à différer une consultation peut présenter le risque d’un traitement en deuxième intention à coût démultiplié. Ceci incite bien évidemment les patients à vérifier que leur système d’assurance complémentaire couvre bien le facteur risque. Or ces assurances complémentaires obligatoires dans un nombre de plus en plus grand de pays fonctionnent sous le principe de l’assurance : la cotisation devient fonction des risques contre lesquels on veut ou on peut se garantir. Le patient d’aujourd’hui et de demain devient donc extrêmement sensible à la gestion préventive de sa santé, la société le responsabilise, les médias l’informent et le sensibilisent, son environnement médical et social le pousse à être proactif et la prise en charge de sa santé future se trouve lié à ses choix immédiats. L’OMS ( Organisation mondiale de la Santé ) qui dans sa convention définit la santé comme un état de complet bien être physique mental et social, donne le nouveau champ d’intervention : l’ère du préventif est ouvert… Des intérêts nombreux : problématique des acteurs de l’univers de la santé Le disease mongering pour certains auteurs comme Mikkel Borch – Jacobsen ne serait pas propre à l’industrie pharmaceutique, en effet depuis longtemps dans le champ psychiatrique, des champs ont émergés : psycho-névroses pour Freud au vingtième siécle, neurasthénie pour Beard au dix-neuvième siècle, troubles anxieux, stress et phobie sociale pour les thérapeutes cognitivo-comportementalistes.(13) Certaines chapelles médicales peuvent donc être tentées de fractionner l’univers psychiatrique pour y développer des approches propres. C’est à la suite d’une active campagne de lobbying politique des associations de vétérans de la guerre du Vietnam qu’est apparu le 102 syndrome de stress post-traumatique dans la classification psychiatrique, en le séparant de la dépression, du trouble panique et du trouble d’anxiété généralisée. Cet exemple montre bien le fait que des groupes de patients, loin d’être uniquement des véhicules utilisés par les laboratoires, puissent trouver dans la médiatisation une reconnaissance, qui permet à la fois que leur maladie soit prise au sérieux et que le tiers payant prennent en charge les frais souvent élevés de traitement.(14) L’utilisation et le recours aux médias sont souvent cités comme l’outil le plus performant pour les associations à la fois pour toucher les médecins et les professionnels de santé et obtenir une écoute dans la société. Une étude menée aux Etats Unis a montré que 49 % des 535 médecins de famille interrogés avaient reçu une demande spécifique de leur patient à la suite d’une campagne télévisé sur une pathologie ; La moitié de ces demandes ont été jugées inadéquates avec le profil patient. 33% des répondants ont considéré que la publicité a amélioré le rapport patientmédecin, confirmant le ressenti d’une forte pression des patients pour obtenir des traitements non adaptés à leur pathologie ou détromper les faux espoirs de thérapeutique miracle. Les meilleurs résultats obtenus sont ceux concernant les conditions non prises en charge : hypercholesterolémie, diabète et qui en fait rejoignent les grandes campagnes de sensibilisation conduites en France ou en Europe. Particularité américaine, l’intense promotion des statines (médicaments destinés à traiter les taux élevés de cholestérol) est en train de bénéficier aux noirs américains, qui présentent des taux de mortalité plus élevés de 40 % par rapport à la population blanche. Le corps médical est souvent pointé du doigt pour son attitude passive face à son environnement : industrie, patients, confrères. Il est vrai qu’une part importante des dépenses de formation, de congrès ou de colloques scientifiques repose sur le soutien de l’industrie. Pour des leaders travaillant à l’hôpital, la nécessité de publier « Publish or perish », incite à s’engouffrer dans toute nouvelle évaluation, de publier rapidement et de relayer ensuite la publication afin d’obtenir une notoriété suffisante. Cependant, ces mécanismes d’influences sont bien connus des médecins et leur efficacité s’érode avec le temps. (15) Le pouvoir des médias a pris de la force, comme l’a montré l’effet relais des patients sur le médecin après une publicité télévisée. Les supports scientifiques (revues et magazines médicaux) qui pourraient faire preuve selon les médecins d’une plus forte dose de doute scientifique, sont largement lus car ils sont un des meilleurs moyens d’information sur les nouveautés, dans un univers en évolution permanente. De plus ils permettent aux médecins de pouvoir faire face à la vague média grand public. En effet, la santé demeure un 103 sujet majeur pour le consommateur. Le médecin, comme les autres professionnels de santé doit connaître, savoir, conseiller et juger. L’industrie pharmaceutique est souvent stigmatisée dans son rapport à la santé, elle souffre d’un problème d’image, que les campagnes de communication institutionnelle n’arrivent pas à gommer : elle fait des profits dans le domaine sacré de la santé. Il est vrai que les rapports parfois flous entretenus avec les médecins, les experts, voire les autorités d ‘évaluation des médicaments aux Etats Unis accréditent l’idée véhiculée sur les blogs d’un Big Pharma dominateur. La réalité est bien plus complexe et la réglementation qui se met en place sur les essais, la communication et la promotion des médicaments devrait fixer un cadre attendu par les différents acteurs. Des exemples convaincants Selon les spécialistes du disease mongering, les mécanismes de création sont les suivants (3) 1/ Déterminer un champ favorable - présenter des processus normaux de l’existence comme des problèmes de nature médicale : chute de cheveux, tristesse - présenter des problèmes personnels comme relevant d’un champ pathologique : timidité devenant phobie sociale - présenter des risques comme des maladies : abaisser les seuils sur l’hypertension ou le cholestérol - présenter des symptômes rares comme des maladies cachées de grande ampleur : dysfonction érectile, déficit androgénique lié à l’âge, … - présenter des symptômes légers comme indicateur de maladie grave : colon irritable par exemple 2/ Mettre en place une méthodologie - choisir le trouble, facilement reconnaissable par le grand public, touchant différents aspects de la vie professionnelle ou affective, les symptômes peuvent être discrets ou sévères - communiquer sur le fait que les patients atteints méconnaissant leur pathologie sont mal diagnostiqués ou mal soignés - définir un cadre de recherche réel entourant la pathologie vraie, en utilisant les découvertes scientifiques les plus récentes - cautionner le phénomène en retrouvant dans l’antiquité ou chez des personnages historiques la singularité de la pathologie - faire démarrer la maladie de façon précoce, dans l’enfance ou pendant la phase utérine - associer le nec plus ultra de la science moderne, équipe anglo-saxonne, modèle animal, imagerie médicale, articles et publications dans des revues prestigieuses, marqueur biologique, échelle diagnostic… rendant l’analyse précise difficile pour un non-spécialiste 104 - créer une association de patient, un site ou des blogs sur Internet, susciter une conférence internationale sur le thème 3/ Mettre en place un médicament ou un traitement efficace. Bien entendu, les différents acteurs de ce système ( industriels, association de patients, médecins, fondation pour la santé, pouvoirs publics) peuvent être à un moment ou un autre de bonne foi, en pensant réellement assurer la promotion de la santé et assurer une approche préventive d’une maladie perçue comme grave. Car la frontière est parfois floue entre pathologie vraie et mise en place par un stratège d’une opération marketing. Nous n’aborderons pas les tentatives possibles d’utiliser des problèmes communs comme la ménopause, la diminution du désir sexuel chez la femme (qui toucherait 43% des femmes selon certaines publications), les jambes sans repos… ou la standardisation des comportements humains en utilisant les classifications utilisées par les psychiatres, souvent cités dans les articles sur le disease mongering car le problème est plus souvent celui de l’interprétation et du relais médiatique que nous avons précisé plus haut. Un exemple connu est celui du Zyprexa ( olanzapine), commercialisé pour traiter les accès maniaques et bénéficiant du support d’une campagne télévisée financée par Eli Lilly sur les troubles de l’humeur. A la même période, le laboratoire effectuait des essais cliniques sur l’utilisation du produit dans les troubles de l’humeur comme thymorégulateur. Ce terme ne fait pas l’unanimité parmi les psychiatres, car il a décrit des produits utilisés comme traitement des épisodes maniaques, puis étendu aux antipsychotiques. Cependant, les essais cliniques semblent permettre d’envisager cet usage sur le court terme. On assiste ensuite à un glissement vers une prescription de longue durée où d’autres fabricants de médicaments antipsychotiques ont entrepris les démarches pour faire enregistrer la nouvelle utilisation à visée préventive. Les études qui sous tendent la demande sont limitées aux formes les plus graves de la maladie, un dixième des cas environ. L’analyse détaillée de l’étude ayant servi à étayer la demande montre que l’essai n’a duré qu’un an et que les rechutes à l’arrêt du traitement sont sans doute des symptômes de sevrage. Il pourrait ne s’agir cependant que de simples et classiques problèmes de méthodologie d’essais cliniques, la nécessité d’un essai complémentaire de durée prolongée, avec de nouveaux critères de recrutements est envisageable. Le grand souci a été en fait l’augmentation énorme des diagnostics de troubles bipolaires chez les enfants aux Etats Unis. (16) Des prescriptions se font pour des enfants d’âge préscolaire, uniquement là-bas, car ces troubles ne sont pas reconnus ailleurs, n’apparaissant que très rarement avant l’adolescence. Le risque est grand souligne Healy car le diagnostic se fait sur les dires des parents, sans pouvoir tenir compte du contexte de longues journées de travail, du rejet des enfants « difficiles ». Est-ce que les médicaments sont là pour faire face à un problème de comportement ? 105 Un phénomène conjoncturel, une conceptualisation marketing L’irruption aux Etats Unis en 1997 des publicités pharmaceutiques visant le consommateur ou DTC « Direct to Customer » a vu fleurir les publicités. Le budget publicitaire du laboratoire Merck à l’époque du lancement du Vioxx ( anti inflammatoire) dépassait celui de Pepsi Cola avec 160 millions de $. Limité aux Etats Unis et en Nouvelle Zélande, la possible extension du phénomène au Canada et à l’Union européenne a fait se multiplier les études d’impacts sur le sujet. Dans ces pays, le seul type de communication possible est le soutien à des associations ou des fondations. Ce nouveau type de relations est suivi en détail par le congrès américain qui a remarqué une croissance de 20 % entre 2003 et 2004 pour les 1.47 milliards de $ dépensés par les 33 sociétés pharmaceutiques pour les soutiens aux professionnels « educational grants ». Le formidable succès commercial du médicament Zyprexa ( Eli Lilly), soutenu par un spot télévisé en 2002, encourageant les spectateurs à aller sur un site Internet pour y répondre à un test sur les modifications et les troubles de l’humeur, et à l’apporter à leur médecin pour en parler, a été analysé en détail. Outre l’effort réel pour informer les personnes ne sachant pas qu’elles souffrent d’une maladie psychiatrique grave, il existait un risque de pousser les spectateurs à considérer toute fluctuation de l’humeur comme symptôme d’une maladie grave, nécessitant un traitement médicamenteux de longue durée. Or nous avons vu précédemment les limites scientifiques de la généralisation systématique de ce type de traitement. Les réactions de l’opinion face à cette sensibilisation sont contrastées, en effet une étude récente faite aux Etats Unis montre que 43 % des adultes interrogés pensent que les dons de l’industrie pharmaceutique auprès des associations de patients ou les fondations sont destinés à augmenter le nombre d’utilisateurs de leurs médicaments, seul 21 % pensent qu’il s’agit d’une implication réelle pour soutenir les projets supportés par les associations. Les couvertures médiatiques sont moins favorables lors de la présentation de projets de soutien à des associations et certains journalistes scientifiques mentionnent le risque d’un effet de reflux massif des soutiens aux fondations. Conscientes de cet impact négatif, déjà des sociétés comme Bristol Myers Squibb ou Pfizer s’imposent un moratoire afin que le médicament soit mieux connu des médecins avant que la communication DTC débute. (moratoire d’un an pour BMS, six mois pour Pfizer). Le congrès américain travaille sur le projet d’un moratoire obligatoire de deux ans. Ces éléments rejoignent les travaux de l’association des fabricants, qui ont pris conscience du besoin de responsabilisation des fabricants et proposent d’élargir l’aspect d’éducation et de formation des médecins et une rigueur accrue dans les messages. Cette prise de conscience généralisée indique 106 bien un mouvement rapide, semblant laisser le disease mongering comme un concept marketing d’une époque. Phénomène à la mode, on trouve maintenant sur www.Newstarget.com un moteur de création de maladies inspiré du DSM-IV de l’association psychiatrique américaine, véritable outil de classification internationale, utilisé par les psychiatres pour diagnostiquer et classer les troubles psychiatriques ; Ce moteur, capable de produire plus de 73 000 noms de maladies, est complété par un modèle linguistique avancé donnant des détails sur la maladie inventée. On trouve ainsi le Somnambulisme avec dysfonction érectile, le syndrome maniaque avec inquiétude réitérer d’identité… Ce moteur resterait une blague de plus sur Internet, s’il n’avait trouvé une illustration étonnante. En avril 2006, plusieurs journaux reprenaient l’information concernant Le Trouble Dysphorique du Lundi Matin (TDLM) qui comme chacun sait constitue un Problème Majeur de Santé Publique (PMSP) dans les pays industrialisés. Ce formidable canular, poisson d’avril de nouvelle génération, s’intéressait à la fatigue et la lassitude de celui qui retravaille un lundi matin ! L’habillage pseudo-scientifique de l’ensemble, les références fantaisistes et internationales ont permis aux auteurs de la farce de pointer du doigt à la fois le manque d’esprit critique des journalistes et le formalisme de la communication médicale. Cela marque aussi l’aspect très conjoncturel du disease mongering comme concept. Une prévention enfin considérée Un résultat étonnant a suivi la publicité faite sur le nouveau vaccin destiné à traiter le cancer du col de l’utérus. On s’est aperçu aux Etats Unis que les femmes d’origine vietnamienne avait cinq fois plus de risque de présenter ce type de pathologie, grâce aux interrogations suscitées auprès des médecins traitants. Au niveau de l’OMS, la prévention fait partie des projets majeurs pour le XXIe siècle, l’exemple de la lutte contre les maladies cardiovasculaires l’illustre. L’OMS a défini les facteurs de risque, les comportements à adopter (type de corps gras, augmentation de la consommation des oméga 3, fruits et grains entiers, diminution des aliments trop sucrés ou salés…). Les actions des pays démarrent : diminution des quantités acceptables de sel dans les produits manufacturés pour le Royaume Uni, basculement de l’huile de palme vers l’huile de soja à l’île Maurice… La médecine préventive a démontré son efficacité en France avec la mise en place de grands programmes comme la vaccination. Aujourd’hui, la prévention va passer autant par le relais des campagnes nationales sur de grands thèmes, par exemple le dépistage du cancer du sein, que par un meilleur diagnostic et traitement de pathologies 107 rencontrées en médecine de ville. Ainsi l’apparition de troubles de l’érection chez l’homme entre 40 et 50 ans peut permettre une sensibilisation et un traitement réduisant le risque de complications cardiovasculaires, cette situation se trouvera gérée plus facilement en médecine de ville. Conclusion En 2006, l’annonce de la première conférence internationale sur le disease mongering, bénéficiait d’une couverture médiatique exceptionnelle ; la santé, ce bien précieux entre tous était manipulée par des créateurs de maladies, soucieux de vendre des médicaments. Pire, la médicalisation de la vie quotidienne, relayée par les abondantes communications vers les consommateurs devenait une source inépuisable de manipulations, dans une logique de profit. L’analyse du mécanisme de « création de maladie » met en évidence une stratégie marketing particulière, optimisant les facteurs d’influences connus et s’appuyant sur la rapidité actuelle des échanges pour obtenir une parfaite coordination du mix media, ce qui explique en partie l’impact le plus important aujourd’hui aux Etats Unis Le succès commercial est lié au fait que la maladie est acceptée par la conscience collective, ce qui justifie que patients et assurance maladie payent. Cependant, le disease mongering pourrait n’être qu’un phénomène conjoncturel parasitaire, certes surfant sur un besoin viscéral de « bien-être » de notre société, mais rapidement déstructuré par les acteurs de santé : médecins prudents, patients informés et journalistes critiques. Alors la politique de prévention, détection et prise en charge, pourra s’affirmer, avec le soutien de ces mêmes acteurs et des fondations pour la santé qui seront au XXIe siècle le relais des Etats. Sources www.diseasemongering.org/ en.wikipedia.org/wiki/Disease_mongering bmj.bmjjournals.com www.newstarget.com/disease_mongering.html Bibliographie 1. Moynihan R, Henry D (eds). A Collection of Articles on Disease Mongering. PLoS medicine, 2006. Fulltext. 2. Moynihan R, Heath I, Henry D. Selling sickness: the pharmaceutical industry and disease mongering. BMJ 2002;324:886-91. PMID 11950740.Fulltext 108 3. Vince Parry, « The art of branding a condition », Medical Marketing & Media, Londres, mai 2003 4. Lynn Payer, Disease-Mongers : How Doctors, Drug Companies, and Insurers Are Making You Feel Sick, John Wiley & Sons, New York, 1994. 5. Moynihan R. Scientists find new disease: motivational deficiency disorder. BMJ 2006;332:745. Extract. 6. Harris M, Chandran S, Chakraborty N, Healy D. The impact of mood stabilizers on bipolar disorder: the 1890s and 1990s compared. Hist Psychiatry. 2005 Dec;16(Pt 4 (no 64)):423-34. 7. Burton B. People are easily duped about new diseases, conference is told. BMJ 2006;332(7547):932. Fulltext 8. Illich I, La Némésis Médicale, Seuil,1975 9. Romain J ,Knock ou le triomphe de la médecine , ,1923 10. Blech J,Les inventeurs de maladies :manœuvres et manipulations de l’industrie pharmaceutique, 2005 Editions Actes Sud, ISBN 2-7427-5527-6 e e 11. Faure O, Histoire et médicament au 19 et 20 siecles, ouvrage collectif Ed Glyphe,2006 12. Pignarre P, Le grand secret de l’industrie pharmaceutique, La Découverte, 2002 13. Borch-Jacobsen M,Usagers de thérapies et producteurs de maladies in la psychothérapie à l’usage des usagers (colloque )13 Octobre 2006 14. Das AK, Olfson M, Gameroff MJ, Pilowsky DJ, Blanco C, Feder A, Gross R, Neria Y, Lantigua R, Shea S, Weissman MM. Screening for bipolar disorder in a primary care practice. JAMA. 2005 Feb 23;293(8):95663. 15. Healy D, le marketing de la santé mentale : la psychiatrie sous l’emprise des labos New scientist via Courrier international 2006, 820. 16. Stephen Barlas and Psychiatric Times staff (2006-04-16). Psychiatric Profession Current Target of Citizens Commission on Human Rights. CCHR. Retrieved on 2007-06-03. 109 Marc MORIN Responsable du Pôle de Recherche Entrepreneuriat Management Docteur d’Etat en sciences économiques, Docteur en sciences des organisations Le marketing des ressources humaines : phénomène de mode ou nouvelle méthode de travail en GRH ? Résumé L’article a pour objet d’apporter des éléments de réponse à la question de savoir si le marketing des ressources humaines, expérimenté par plusieurs entreprises en France depuis quelques années, participe davantage d’un phénomène de mode, destiné pour l’essentiel à disparaître plus ou moins rapidement, ou s’il s’agit d’un ensemble de techniques effectivement utiles au directeur des ressources humaines. Auquel cas, le périmètre des tâches qui est le sien, au sein des fonctions de gestion des ressources humaines des firmes, tendra dans l’avenir à s’élargir pour inclure partiellement des actions, et compétences, qui appartenaient plutôt jusqu’à présent à la fonction de marketing. Plusieurs facteurs lourds semblent en effet peser sur cette évolution possible. Comme le montre une tendance actuelle à externaliser en tout ou partie les fonctions de recrutement, nombre d’entreprises confient à des organisations extérieures le soin d’organiser certains recrutements, mais aussi celui d’en assurer les risques. Or, l’incertitude des recrutements pourrait être accentuée demain du fait de plusieurs raisons économiques, sociales, technologiques et institutionnelles convergentes. L’accélération du progrès technologique ; la mondialisation et l’intensification de la concurrence ; les changements de mentalités, allant de pair avec l’affaiblissement de la « valeur – travail » et la baisse d’attractivité de certains métiers et de certaines organisations ; le développement d’un salariat multiculturel, renvoyant à des styles de vie socioculturels diversifiés ..., font ainsi partie des facteurs lourds qui rendent les stratégies d’attraction, de motivation et de fidélisation des salariés potentiels, et des salariés déjà intégrés, beaucoup plus complexes que par le passé. Le vieillissement plus rapide des métiers et compétences, la rareté relative de certains profils, les attentes des salariés modernes dont celles d’équité et 110 d’éthique ... impliquent alors la recherche active et offensive de profils et compétences plus difficiles à découvrir, ainsi que des stratégies défensives plus élaborées pour conserver ces derniers. Ce qui revient, compte tenu de l’importance du capital humain comme facteur primordial de compétitivité dans les entreprises modernes, à autoriser ou non des stratégies permettant de gagner, voire simplement de conserver, les avantages concurrentiels acquis. L’objet de l’article est de chercher, sur cette base, à explorer l’avenir possible des techniques de marketing applicables par les entreprises sur des plans tout à la fois externe et interne. Pour s’adapter à ces évolutions, les organisations pourraient en effet chercher à diminuer les coûts unitaires du recrutement, et les incertitudes des procédures traditionnelles correspondantes, par l’utilisation de techniques visant à attirer massivement des candidats déjà « segmentés et ciblés ». D’un point de vue interne, sur la base des sociogrammes permettant une première approche des « besoins – désirs » des salariés, elles pourraient par exemple mettre en place des systèmes de rémunération « à la carte ». Après avoir défini le statut de ces nouvelles techniques, dans le champ des outils couramment utilisés par le management des ressources humaines, l’article s’interroge sur leurs utilités et avantages économiques respectifs possibles, et sur les freins qui pourraient en affecter l’utilisation par les entreprises. Abstract The article seeks to provide some answers to the question of whether the marketing of human resources, attempted on a trial basis by a number of French companies over the last few years, is more of a fashionable phenomenon, essentially ephemeral in nature, or whether it comprises a set of techniques of real use to a Human-Resources Manager. If so, the scope of the tasks that fall under the HR Manager's responsibility, within a firm's human-resources management functions, will in future tend to expand to include some of the actions and skills that have hitherto belonged to the marketing function. In practice, several major factors appear to weigh upon this possible development. As demonstrated by the current trend towards outsourcing all or part of the recruiting function, many companies now entrust to outside organizations the task of arranging certain recruitments, and also of taking on its risks. In the near future, the uncertainties of recruiting could be increased by the coming together of a number of economic, social, technological, and institutional factors. The acceleration of technological advances; the globalization and intensification of competition; changes in people's attitudes, accompanied by a weakening of "work-value" and a 111 decline in the attractiveness of certain occupations and particular firms; the development of a multicultural workforce reflecting diverse socio-cultural lifestyles, etc., are all significant factors that are making it much more complicated than in the past to design strategies to attract, to motivate, and to retain potential employees—and also those already employed. The accelerating obsolescence of occupations and skills, the relative scarcity of certain career profiles, the expectations of modern employees especially regarding fairness and ethics, etc., now imply an active and aggressive search for hard-to-find profiles and skills, as well as more elaborate defensive strategies to retain such employees. In view of the importance of human capital as a fundamental factor in the competitiveness of modern companies, this amounts to deciding whether or not to authorize the use of strategies that enable the acquisition, or simply the retention, of the associated competitive advantages. The aim of the article is to examine, based on the preceding analysis, the possible future of marketing techniques that companies might apply both internally and externally. To adjust to these changes, the organizations could in fact seek to reduce the unit costs of recruitment, and the uncertainties of the corresponding traditional procedures, by using techniques aimed at presenting overwhelming attractions to candidates who are already “selected and targeted". From an internal point of view, on the basis of sociograms providing a first approach to the "needs and desires” of employees, they could for example establish "à la carte" compensation systems. After defining the status of these new techniques among the field of tools currently employed by human-resources management, the article examines their respective possible usefulness and benefits, and the disincentives that could affect their use by companies. Introduction La question que nous cherchons à éclairer dans cet article est de savoir si le marketing des ressources humaines, d’apparition relativement récente en France, et qui y a déjà concrètement donné lieu à plusieurs initiatives concrètes de la part de diverses organisations, peut être considéré comme fournissant un ensemble d’outils participant d’une mode, ou s’il s’agit, véritablement, d’outils de nature à renouveler les méthodes généralement utilisées par les fonctions de gestion des ressources humaines dans les entreprises. Dans le premier cas, à l’instar de plusieurs outils de gestion, présentés comme tels mais dont les capacités heuristiques et pratiques se révèlent limitées, ces nouvelles techniques n’auront qu’une durée de vie éphémère. Dans le second cas, les pratiques d’entreprises finiront par les sélectionner comme pouvant être considérées comme des techniques pertinentes pour attirer, intégrer et fidéliser les salariés. Et le métier même 112 de DRH, dont les tâches sont en général assez clairement définies par les segments des sciences de gestion s’intéressant à la gestion des ressources humaines, pourrait évoluer, dans la foulée, en intégrant de nouvelles pratiques faisant appel aux techniques de marketing dans leurs dimensions tout à la fois stratégiques et opérationnelles. Pour avancer dans la formulation d’une réponse, ce texte sera organisé selon trois grandes parties. Après avoir dégagé les grandes raisons économiques et sociales qui peuvent conduire, depuis quelques années, certaines organisations à pratiquer le marketing des ressources humaines, la première partie aura recours à une typologie des grands outils de psychosociologie qu’utilisent en l’occurrence les auditeurs en GRH. Elle permettra de préciser la problématique du partage entre les outils en gestion des RH, qui sont affectés de phénomènes de modes, et ceux qui résistent à l’usage et au temps. La deuxième partie sera consacrée à distinguer les principaux apports des techniques de marketing à la GRH. Ainsi des techniques externes, qui visent à attirer des salariés potentiels en segmentant le plus précisément possible les « cibles salariales », et des techniques internes proposant de s’appuyer notamment sur des sociogrammes salariaux afin, selon les « besoins – désirs » des individus, de modeler les différents objets du rapport salarial (éléments de rémunération, du contrat de travail ...) selon les profils obtenus. La troisième partie de ce travail cherchera enfin à dégager les facteurs qui peuvent freiner, ou au contraire accompagner, l’éventualité du développement du marketing de la RH. La possibilité que ces techniques revêtent des formes éphémères est à mettre en rapport avec une certaine mythologie, développée par plusieurs firmes, qui en viennent à comparer implicitement l’intérieur d’une organisation à un système dans lequel offres et demandes salariales pourraient, en quelque sorte librement et sans contraintes, se confronter les unes aux autres pour engendrer des réformes convenant aux préférences des deux parties. L’utilité de ces techniques doit être liée aux avantages économiques qu’elles peuvent générer dans le contexte économique et socioéconomique actuel. Quant aux formes externes de ces techniques, il s’agit notamment de la possibilité de s’adresser massivement à un public de salariés potentiels en diminuant les coûts unitaires du recrutement, et en réduisant par des positionnements corrects l’incertitude des recrutements. Quant à leurs formes internes, ce sont là des méthodes qui pourraient certainement permettre de dynamiser les motivations dans un contexte économique où la qualité des produits est manifestement devenue un instrument majeur de compétitivité des firmes. 113 Les grilles d’outils en audit et management des ressources humaines et les spécificités du marketing des RH Il est probable que, dans les années à venir, de nouveaux métiers vont se créer et se développer dans le champ de la gestion des Ressources Humaines (RH). Soit qu’ils fassent déjà partie des Fonctions de Gestion des Ressources Humaines (FGRH) des firmes, et soient appelés à se développer encore. Soit qu’ils apparaissent comme nouveaux, notamment en empruntant éventuellement certaines pratiques, et partant certaines compétences, à d’autres fonctions traditionnelles des entreprises. Les actions de communication, internes et externes, qui entrent dans ce que l’on nomme aujourd’hui le marketing des Ressources Humaines ou RH, en font partie. Un des premiers ouvrages français, ouvrant la voie dans ce domaine en respectant certains critères d’objectivité et de démonstration, porte notamment en sous-titre l’intitulé « Attirer, intégrer et fidéliser les salariés » (Liger, 2004). L’auteur y met en particulier l’accent sur les effets du creux démographique, entraînant des pénuries croissantes de personnels ; sur la modification des valeurs – travail entre les générations, et le développement notamment de valeurs individualistes contredisant certaines valeurs de compétition sociale et d’effort ; et sur les images négatives que revêtent certains métiers qui ne parviennent plus à attirer suffisamment de candidats (p. 23). Il rappelle également que le marché du travail européen, en particulier, est devenu de plus en plus concurrentiel, et pose des problèmes de recrutement aux firmes françaises dans la mesure même des rémunérations plus attrayantes pratiquées dans certains secteurs par plusieurs entreprises de l’Union européenne (p. 13). La définition qu’il donne du marketing de la RH est la suivante : « Cette nouvelle approche de la relation salarié/entreprise consiste à considérer les collaborateurs, présents ou potentiels, comme des clients, au sens le plus noble. Il s’agit d’appliquer la logique et les techniques du marketing et de la communication pour : - attirer des candidats, les recruter et bien les intégrer, - fidéliser des collaborateurs impliqués. Et au final, grâce notamment à des innovations sociales, des innovations d’organisation, développer une relation durable et de plus en plus individualisée avec les collaborateurs, faire de l’entreprise un employeur attractif, et de son nom une véritable marque, associée à de vraies valeurs ... » (Liger, 2004, p. 10). On peut énoncer comme suit, en les développant et en y ajoutant nos propres réflexions, les principales thèses défendues dans ce livre. Le creux démographique, dans lequel la société française est entrée depuis 2005 va en particulier, aussi bien dans les organisations privées que publiques, exiger le développement de pratiques de recrutement offensives en direction d’un public de candidats potentiels constitué de 114 générations plus jeunes. Les générations nouvelles, nées avec les rebonds de la société de consommation, avec l’accélération de la mondialisation et du progrès technologique (et en particulier celui des NTIC), mais aussi avec la persistance d’un chômage de masse, et d’un taux important de sous-emploi allant de pair avec la multiplication de contrats de travail atypiques, rompant avec les normes du CDI (CDD, temps partiels, intérim et contrats – stages subventionnés), forment de ce point de vue ce que l’on appellerait, en marketing, un public, voire une « cible » spécifique. Ils se caractérisent en effet, concernant la place relative que le travail occupe en moyenne dans leur vie, selon la perception qu’ils en ont, par des valeurs a priori sensiblement différentes de celles de leurs aînés. Certains auteurs avancent l’idée d’« affaiblissement de la valeur - travail » pour exprimer l’idée selon laquelle les générations les plus jeunes sont, en moyenne, davantage demandeur d’un rééquilibrage entre la vie professionnelle et la vie familiale. Ils tendent en ce sens à être plus nombreux à accorder relativement moins d’importance à une vie professionnelle volontiers centrée sur la recherche de davantage d’avoir et de statut, avec la contrepartie de l’acceptation d’une certaine discipline au travail, voire du stress de la compétition sociale, et a contrario davantage d’importance à la vie personnelle fondée sur des valeurs différentes, en particulier de proximité sociale, et d’expression des besoins et désirs personnels. Les techniques de marketing permettraient alors notamment de renouveler, dans leur direction les actions de la firme cherchant à rendre son organisation et sa culture plus attractives. Parallèlement, l’économie française est entrée globalement, depuis approximativement 2005, dans une phase de creux démographique extrêmement important. Lequel va entraîner, dans les années à venir, des sorties massives des salariés des entreprises partant à la retraite. Certaines études économiques font notamment état de départs allant, de 2005 à 2020 inclus, d’environ 90 000 personnes en moyenne annuelle, ce qui diminuera d’autant la population active disponible. L’appel au développement quantitatif de techniques de recrutement offensives va donc être particulièrement puissant. D’autant plus que certaines entreprises connaissent déjà, et connaîtront davantage pour plusieurs raisons, dans certains secteurs d’activité, des pénuries de main d’œuvre et de compétences très importantes. L’intensification d’une part de la concurrence, notamment liée à la mondialisation et à l’interpénétration croissante des économies, l’évolution d’autre part des mentalités, qui va de pair avec un phénomène de dévalorisation de certains métiers jugés notamment moins porteurs de distinction sociale et d’avenir, contribuent en effet à brouiller en quelque sorte le message de différenciation de certaines organisations. Les firmes des mêmes secteurs d’activité éprouvent autrement dit, dans une société 115 tendant par ailleurs à être saturée de signes et de messages publicitaires variés, des difficultés à se différencier les unes des autres en faisant valoir les avantages spécifiques que peuvent offrir leurs métiers, leurs structures et leurs cultures. L’image négative de certains métiers et certaines filières, qui n’attirent plus (toutes choses égales par ailleurs et indépendamment en particulier des problèmes de formation), va alors de pair, dans une société caractérisée par le chômage de masse, avec le paradoxe de pénuries importantes de forces de travail dans certains secteurs. D’autres facteurs que ceux cités par P. Liger militent toutefois, à notre sens, pour un renouvellement des techniques de recrutement qui passerait notamment par le marketing des RH. L’accélération considérable du progrès technique fait en particulier que le rythme d’apparition de métiers nouveaux, et de disparition des métiers anciens, a augmenté durant ces dernières années de façon spectaculaire. Des travaux économiques reconnus font état aujourd’hui, en l’espace d’une année, d’environ 15 % d’emplois créés et parallèlement d’environ 15 % d’emplois détruits. Ce qui donne le chiffre, chaque jour ouvrable en France, d’environ 10 000 emplois créés et 10 000 emplois détruits (Cahuc & Zylberberg, 2005, p. 19). La logique de ces destructions est clairement liée aux poussées du progrès technologique qui, pour se référer à la théorie des grappes technologiques de J. Schumpeter, constitue un moteur essentiel des évolutions économiques. Et ce, dans la mesure où la concurrence n’est pas seulement alimentée par la recherche des prix les plus bas par les entreprises, mais par le fait que certaines entreprises s’approprient plus vite que d’autres, en étant rapidement imitées, des innovations technologiques qu’elles transforment en innovations commerciales rentables. Les NTIC, soit le mariage des trois technologies antérieurement distinctes que sont les télécommunications, l’audiovisuel et l’informatique, est de ce point de vue aujourd’hui un moteur concurrentiel qui, d’une puissance exceptionnelle, constituent un défi pour la structure des emplois et les institutions existantes qui ne s’y adaptent qu’avec retard. L’image des métiers n’est donc pas seulement brouillée par la concurrence, et la transformation des valeurs sociales. C’est le rythme d’évolution même du progrès technique et des métiers, et le rythme d’adaptation des structures organisationnelles et institutionnelles, qui sont aussi en cause. Il en résulte un appel également très puissant à des procédures de recrutement qui s’adapteraient au rythme d’obsolescence accélérée de certains métiers ou, pour certains d’entre eux, aux manières de les exercer. Face à la rareté relative de certaines franges de main d’œuvre, l’utilisation de techniques offensives d’attraction à vocations plus massives pourrait, de ce point de vue, être porteuse d’avantages économiques non négligeables pour les firmes. 116 On peut par ailleurs considérer que, malgré l’importance du chômage, l’augmentation des niveaux de vie, des niveaux d’éducation, des sensibilités sociales, de la conscience politique ..., font que les attentes globales des salariés et futurs salariés, à l’égard des entreprises, sont en moyenne plus exigeantes et plus variées que par le passé. J. M. Peretti met en particulier en évidence, dans les organisations actuelles, trois attentes fondamentales de ces derniers (2003, p. 24 et suiv.). Celles d’équité, les salariés étant sensibles aux rapports qu’ils perçoivent et jugent comme équitables (légitimes) entre l’ensemble de leurs contributions et celui de leurs rétributions. Chaque salarié élabore alors, selon la théorie de l’équité déjà ancienne en sciences des organisations, un rapport Contributions / Rétributions (C / R) pour lui-même. Puis, il le compare avec ceux des autres salariés, à l’intérieur de l’organisation puis à l’extérieur de celle-ci dans les structures appartenant au même secteur d’activité. Celles d’employabilité, ces derniers revendiquant notamment des formations de nature à leur permettre de conserver un état de compétences valorisables, en un certain laps de temps, sur le marché du travail correspondant en cas de perte d’emploi. Celles enfin d’éthique, qui entraînent en particulier, dans certaines entreprises, le développement des accords et mesures de Responsabilité Sociétale de l’Entreprise (RSE). Lesquels traduisent en particulier le développement de nouvelles exigences en matière de pratiques jugées éthiques de la firme (discrimination, pollution ...). Les techniques de Marketing RH peuvent aussi, de cet autre point de vue, aider à attirer et intégrer des candidats potentiels, a priori davantage réticents ou critiques et qu’il est plus difficile de convaincre. La question posée dans cet article est celle de savoir si le marketing des RH, qui a déjà concrètement donné lieu à plusieurs initiatives de la part de diverses organisations (en termes de publicités, d’événementiels, de communication institutionnelle ...), peut être considéré comme un outil participant d’une mode, ou comme une véritable technique innovante. Dans le premier cas, il s’agira d’un outil éphémère. D’un usage en fait superficiel, qui n’aura pas vraiment d’avenir car n’induisant pas des pratiques allant dans le sens de réelles innovations et transformations en profondeur des pratiques managériales des FGRH. Dans le second cas, il s’agira d’un outil de nature à renouveler effectivement les méthodes, généralement utilisées par les FGRH, pour attirer, intégrer et fidéliser les salariés. Le temps et l’usage le sélectionneront en quelque sorte en tant qu’outil efficient et pérenne. Ce qui implique dans cette hypothèse que le DRH soit amené, dans les années à venir, à faire l’apprentissage et l’acquisition de compétences qui relevaient davantage, jusqu’à présent, des fonctions de marketing et de communication de la firme. Avant d’examiner les implications de l’utilisation des méthodes de marketing sur les techniques et pratiques de management de la RH, il convient tout d’abord de se repérer parmi les différents outils utilisés par la FGRH, selon 117 leur portée en particulier scientifique eu égard au champ des sciences de gestion. Les grilles de référence Les apports en particulier de la psychosociologie au management, et singulièrement à la réflexion concernant la gestion des RH, et le fonctionnement des FGRH dans les organisations, sont naturellement nombreux. Plusieurs outils, que l’on peut classer selon leurs degrés « d’opérationnalité immédiate », ou encore selon leurs capacités à s’adapter en quelque sorte rapidement, dans des situations matérielles variées, à la résolution de problématiques managériales concrètes, sont clairement influencés par ces divers courants. Dans le champ des sciences de gestion, certains auteurs ont considéré que le poids même des instruments utilisés était considérable. De ce point de vue, la conception dominante de la gestion des ressources humaines, telle qu'elle est généralement véhiculée par les consultants et une large frange de la littérature spécialisée (Brabet et alii., 1993), considère que la GRH relève souvent d’un « modèle instrumental ». Que c’est, autrement dit, l'entreprise en tant qu’instrument rationnel de production qui a en quelque sorte modelé elle-même, pour une part déterminante, les outils qu’elle utilisait afin de gérer concrètement les hommes et les forces de travail dans l’organisation. Et que le modelage de ces outils, en produisant des instruments qui étaient en quelque sorte sélectionnés dans la durée par des utilisations exigeantes, produisait à terme des instruments plus ou moins éphémères en fonction notamment de leurs distances conceptuelles aux événements et phénomènes. Ces outils peuvent donc être classés eu égard à leurs capacités heuristiques et explicatives. Les outils psychologiques en particulier, qui sont régulièrement utilisés dans le champ du management des ressources humaines, sont en ce sens des outils qui correspondent en quelque sorte d’abord à l’épistémologie de l’entreprise, appréciée à travers les exigences d’adaptation et de résolution des problèmes managériaux pratiques de cette dernière. Aubret & Gilbert proposent notamment, dans cette perspective, un regroupement des apports de la psychologie et de la psychosociologie à l’entreprise en trois catégories. Ce regroupement distingue, en allant en quelque sorte du plus immédiat et du plus pratique, au plus théorique et générique : - Les aides à la gestion opérationnelle, - Les instruments d'analyse, - Les modèles normatifs. 118 Les aides à la gestion opérationnelle sont des instruments immédiatement produits et façonnés par l'entreprise. En tant qu’outils ayant une vocation à l’action immédiate, et à la différence des instruments d'analyse, ils sont destinés à préparer directement les décisions opérationnelles, et ne sont pas immédiatement tournés vers la cognition au sens large. Ou encore vers la connaissance, et donc la compréhension et l’interprétation en profondeur des diverses données et variables qui, pour l’essentiel, composent et expliquent dans leur diversité les modèles organisationnels de management de la RH. Essentiellement mis au point par les praticiens, ces outils sont aussi fortement diffusés dans les entreprises, et naturellement plus faciles à modifier dans la mesure où ils sont soumis, plus que les autres, aux contraintes immédiates de l'action. De fait, ils tendent à se renouveler assez vite dans le temps. Les instruments d'analyse sont, quant à eux, consacrés à l'étude des situations de gestion et regroupent les tableaux de bord, les méthodes de diagnostic, les méthodes qui s'appliquent aux problèmes d'évaluation et de choix ... N’étant pas destinés comme les premiers à agir directement sur les situations, ils s'appliquent davantage au traitement des informations qui va permettre, ensuite, la mise en place de plans d’action. Forgés la plupart du temps par des consultants spécialisés, ils tendent à apparaître et disparaître en fonction de l'évolution des besoins des entreprises, et aussi de celle des offres commerciales des cabinets de conseil. Les modèles normatifs, enfin, n'ont pas d'action directe et immédiate sur le contexte. Pour autant, ils guident activement le gestionnaire en intervenant plus généralement pour prescrire et structurer, y compris au plan stratégique, et pour contrôler les plans et actes de gestion. Les modèles normatifs, également nommés prescriptifs, sont en d’autres termes les plus « chargés » en connaissances et les moins directement opératoires. Conçus généralement par des enseignants-chercheurs, ou par des consultants travaillant dans des organismes ayant une activité d'étude, ils sont plus longs et plus difficiles à promouvoir. Mais leur cycle de vie est, en même temps, plus étendu et ils tendent à influencer généralement, durant une période de temps donnée et relativement étendue, les formes moyennes de management. Le tableau suivant permet d’établir une typologie de ces différents outils. Il permet en même temps de distinguer les outils qui possèdent une forte charge en connaissances au sens où, ayant en quelque sorte été sélectionnés par plusieurs années d’applications, nécessairement exigeantes au niveau des organisations, ils ont acquis un statut théorique 119 qui permet de les réutiliser dans des situations variées. Le propre des outils et schémas d’explications durables étant en quelque sorte de ramasser un grand nombre de faits, et phénomènes, en des temps et des lieux différents. De découvrir des invariants, qui par définition ne se modifient pas, a fortiori rapidement, d’une situation organisationnelle à une autre et au moins à court terme. Ces explications accédent par là même, à travers le jugement des diverses communautés scientifiques concernées, au rang de modèles explicatifs « en profondeur ». Exemples d'instruments de GRH faisant appel à la psychologie Sousfonctions Ensemble de la GRH Recrutement Gestion des carrières Formation Modèles prescriptifs Modèles d'analyse prévisionnelle des ressources humaines Processus types de recrutement Instruments d'analyse Méthodes d'audit des ressources humaines Aide à la gestion opérationnelle Répertoire des métiers Tests Questionnaire d'embauche Entretiens structurés Essais professionnels Parcours types Schéma-type de définition Fiche d'appréciation Filières promotionnelles des fonctions d'un nouvel embauché Demarches d'appréciation du potentiel Support d'appréciation Méthodes d'evaluation de l'entretien annuel du personnel Bilans de carrière Plans de remplacement Schémas des opérations Méthodes d'analyse des Support d'évaluation d'un stage à mettre en œuvre pour besoins de formation élaborer un plan de Méthodes d'évaluation des formation effets d'une formation Modèles de régulation Enquêtes d'opinions Panoplie de supports d'information sociale de l'entrerise Méthodes de diagnostic et communication check-list de conflictualité d'organisation d'une réunion, Information, communication et relations sociales communication Systèmes de suggestions Hygiène, Démarches sociotechniques Méthodes d'analyse sécurité et d'introduction des des conditions de travail conditions aménagements du temps Méthodes d'évaluation de de travail de travail la charge de travail guide d'entretien Règles de sécurité Schéma de rotation entre postes dans une équipe de travail Aubret J. & Gilbert P., Psychologie de la ressource humaine, PUF, 2002, 2 ème ed., p. 22. Les deux premières catégories d’outils ci-dessus peuvent à notre sens, dans certaines circonstances et en fonction en particulier de l’offre des cabinets de conseil, de celle des membres des FGRH et des demandes plus générales des entreprises, être sujettes à des effets de mode. Régulièrement en effet les médias spécialisés se font les échos de telles ou telles nouvelles méthodes, présentées comme étant a priori innovantes, qui en fait disparaissent plus ou moins rapidement des usages et du marché. Il peut notamment s’agir de la reprise d’outils anciens, en quelque 120 sorte enjolivés par des mots nouveaux et présentations attrayantes, mais désormais non adaptés aux évolutions économiques et sociales des organisations. Le rythme de leur disparition est en particulier conditionné par les dysfonctionnements, et manques à gagner, auxquels donnent lieu leur expérimentation en vraie grandeur. Et ce, de la part d’entreprises supposant, en l’absence de preuves supplémentaires, que lesdits outils peuvent les aider à gérer certains dysfonctionnements ou à améliorer leurs fonctionnements. Le marketing des RH, eu égard à la typologie ci-dessus, se caractérise par un ensemble de techniques se situant en quelque sorte entre la catégorie des instruments d’analyse et celle des modèles prescriptifs. Au-delà en effet des aspects strictement opérationnels (ayant trait notamment aux manières de toucher la cible), et de la façon d’analyser les choses (en s’intéressant notamment aux motivations en profondeur voire à l’inconscient du travailleur), il y a dans l’importation de certains outils de marketing à la GRH de véritables éléments de méthode, et d’approche prescriptive des rapports « souhaitables » du sommet stratégique d’une organisation à son centre opérationnel, et à ses différentes composantes. En ce sens, c’est l’histoire à venir des entreprises et des organisations qui jugera du fait qu’il s’agit là, ou non, d’un terme à la mode, qui durera tant que l’offre commerciale assurant sa promotion le soutiendra. Mais il y a bien derrière l’expression de marketing des RH, qui sollicite l’attention de certains médias spécialisés, une réalité technique et un mode de management particulier en matière d’attraction, de motivation et de fidélisation des salariés. Les apports généraux de l’approche marketing L’économie néo-classique standard conserve du consommateur une vision traditionnelle de type tout à la fois mécanique, et fonctionnelle, qui contraste avec la vision qu’en ont, dans le cadre de la gestion concrète, les spécialistes de marketing. L’homo-oeconomicus est en effet un individu qui, selon les grands postulats de l’économie standard sur les comportements de ce dernier, établit systématiquement un classement rationnel de ses préférences. Il sait donc toujours par là même ce qu’il veut, et dans quel ordre il le veut (sa carte de préférences obéit en particulier au principe mathématique de transitivité). Cet individu, construit pour les besoins des modèles, n’est pas vraiment influencé par la publicité, ou par les autres. Il est en effet censé choisir et décider en fonction de « sa » carte de préférences, qu’il a, sans équivoque, construite indépendamment des choix et préférences des autres (l’hypothèse de mimétisme de l’économie institutionnelle de type conventionnaliste est par 121 exemple aux antipodes de ce modèle). L’homo-oeconomicus standard recherche systématiquement, en outre, des optima. Il est en effet en quelque sorte constamment tendu vers la recherche des solutions les meilleures, qui satisfont au mieux ses préférences selon les contraintes qui sont les siennes. Et il est enfin, ce qui n’est pas l’hypothèse la moins forte, parfaitement informé. La vision développée par les hommes de marketing est très différente. Notamment parce qu’ils revendiquent la notion de désir. Du point de vue en effet de la psychanalyse, ou de la psychologie des profondeurs, la notion de désir implique l’existence de rapports autrement complexes aux objets et aux autres. Chez un individu doté notamment de pulsions et d’une mémoire inconsciente des autres et des événements, qui fondamentalement se « représente » et « perçoit » les phénomènes et les objets d’un point de vue intensément social, à travers un regard conditionné par son éducation et la présence des autres tout au long de son développement biologique, l’objet de consommation ne saurait, en particulier, être seulement consommé pour sa matérialité fonctionnelle. Audelà du besoin d’une chose, en fonction des caractéristiques strictement utilitaires de celles-ci, l’objet est consommé pour ce qu’il représente. Plus précisément, et en reprenant les distinctions magistrales introduites depuis longtemps par J. Baudrillard (1970), l’objet est comme l’élément d’un langage qui permet de s’adresser aux autres et de communiquer avec eux. Il est utilisé pour « parler » à l’autre et aux autres. Dans les messages dont le sens connoté est notamment celui de la différenciation sociale, l’objet est par exemple utilisé de façon ostentatoire pour signifier le rêve et le désir d’appartenir à une catégorie sociale supérieure, tout en se faisant valoir soi-même comme remarquable et unique. L’utilisation courante en économie du terme de besoin, comme l’a aussi montré J. Baudrillard, revient plus généralement à considérer, de façon plus ou moins implicite, non pas cet ordre de représentations comme participant à l’explication des choix de consommation (et aussi de leur renouvellement accéléré), mais l’ordre des besoins que l’on pourrait également qualifier de primaire dans la typologie, par exemple, d’A. Maslow (1954). Le marketing moderne a parfaitement intégré cette conception. Ainsi de cette définition, émanant d’auteurs reconnus en sciences de gestion, dans laquelle on peut remarquer que le mot « désir » est employé à la place du terme besoin : « Le marketing peut se définir comme une démarche qui, fondée sur l'étude scientifique des désirs des consommateurs, permet à l'entreprise, tout en atteignant ses objectifs de rentabilité, d'offrir à son 122 marché cible un produit ou un service adapté » (Helfer J. P. & Orsoni J., p. 10). Pour répondre auxdits désirs exprimés par les segments de clientèle potentielle, de la manière la plus ciblée et la plus précise possible, les spécialistes de marketing utilisent naturellement plusieurs catégories d’outils. Deux d’entre elles sont notamment importantes pour notre propos. La première est constituée par les méthodes qui vont permettre, sur la base d’un ensemble d’études, de cerner en quelque sorte le profil comportemental de la cible. Il s’agit de repérer les principaux facteurs qui sont, globalement, susceptibles de peser à nouveau dans l’avenir sur les conduites d’achat. Entrent dans l’ensemble des études utilisées préalablement, les enquêtes sociologiques menées en termes de classes sociales, qui permettent de déduire certains comportements d’achat types des origines et trajectoires socio-économiques des individus. Un certain nombre d’attentes types des consommateurs, à l’égard des objets de consommation, peuvent en effet être corrélées à l’appartenance initiale à une classe, ainsi qu’aux trajectoires de vie sociale, et changements éventuels de fractions de classe selon les stratégies de mobilité sociale des acteurs. Les enquêtes sociologiques en termes de capitaux économiques, sociaux et culturels au sens de P. Bourdieu entrent dans cet ensemble d’études. De même, sur des bases d’observation différentes, que les études sur les styles de vie socioculturels. Le schéma suivant rend compte de ces facteurs d’achat en les classant selon des « facteurs d’environnement », et des « facteurs individuels ». On notera également qu’il le fait en considérant que ces facteurs jouent, sur les comportements d’achat, « après » que ce qu’il nomme le « processus de perception » d’un individu soit intervenu. C’est, autrement dit et notamment, l’association et la combinaison complexes de la cognition du sujet, et des facteurs environnementaux et individuels, qui va déclencher son action d’achat : 123 Les facteurs explicatifs de l'achat Facteurs d'environnement Stimuli Facteurs individuels Processus de perception Motivation Culture Classe sociale Groupes sociaux Expérience Processus d'achat Personnalité Image de soi Famille Attitudes Action Marketing, Helfer J-P. & Orsoni J., Vuibert, 5 ème ed., 1998, p. 96. Cette première catégorie d’outils de marketing peut aisément être en quelque sorte importée dans le champ de la GRH où l’on utilise d’ailleurs déjà, essentiellement dans certaines grandes entreprises, des sociogrammes internes. Ces derniers rendent compte en effet des différentes caractéristiques sociales, voire individuelles des salariés, et permettent d’en déduire chez eux certains comportements possibles au travail, et certaines préférences en matière de rémunérations, de conditions de travail ... Dans certaines organisations, les stratégies de formation, et plus généralement les exercices de gestion prévisionnelle des emplois et compétences (qui ont pour objectif d’organiser la mobilité sociale interne de façon à conserver la motivation en intégrant / fidélisant davantage les salariés), peuvent ainsi reposer sur la connaissance précise de certaines attentes des salariés en fonction de facteurs sociaux et individuels. Au-delà même du travail d’investigation et de veille permanente que le DRH doit mener, à propos des compétences actuelles et potentielles du capital humain qu’il doit manager, ce dernier doit par exemple, dans ces cas, pouvoir évaluer autant qu’il est possible les désirs de mobilité sociale ascendante interne des salariés. Les sociogrammes, plus encore dans une organisation complexe d’une certaine taille, et quant à une population 124 salariée diversifiée, vont en ce sens l’aider à toutes sortes d’actions. Qu’elles concernent le reformatage régulier des systèmes de rémunérations, le suivi voire l’élaboration de nouveaux contrats de travail, la logistique des temps et flux de travail ... Il est naturellement possible d’aller plus loin dans cette voie (Cf. Infra). La seconde catégorie d’outils utilisés par les spécialistes de marketing, que nous retiendrons pour notre propos, s’intéresse plus généralement au système de perception du sujet. Autrement dit, dans les termes de la psychologie cognitive, elle s’intéresse à la façon avec laquelle les individus filtrent l’information qu’ils perçoivent, la mettent en forme, selon certaines cartes mentales notamment forgées durant le processus éducatif, et à la façon avec laquelle ils agissent sur la base d’associations d’images et de représentations formant leurs grilles de lecture de la réalité. Elle part en somme, en rupture complète avec les schémas de l’économie standard, d’un double principe méthodologique concernant les comportements. D’une part, elle considère généralement que les conduites humaines et sociales sont en quelque sorte guidées par des formes de codifications socioculturelles et socioéconomiques. Ceci nous ramène à l’usage des sociogrammes (Cf. Supra). D’autre part, elle suppose que le rapport que le sujet entretient avec l’objet est autrement complexe que ne le suggère le contenu traditionnel de la notion de besoin, lequel ramène implicitement les rapports sujets - objets aux utilités fonctionnelles. Selon une distinction classique, l’objet « vaut » en effet dans ses quatre dimensions marchande, fonctionnelle, mais aussi symbolique et imaginaire. Pour vendre par exemple une automobile et élaborer un message publicitaire séduisant, le spécialiste de marketing part du principe que l’« objet » automobile peut en quelque sorte avoir, pour un individu donné appartenant à sa cible, une valeur, et en même temps des significations distinctes dans ces différentes dimensions. La valeur marchande de l’objet s’exprime en unités monétaires, et fluctue notamment selon les lois d’offre et de demande du marché. Le sujet l’évalue en rapport de ses revenus, et de la part de ces derniers qu’il destine à la consommation. La valeur utilitaire de l’objet, que l’on comprend sur le registre du fonctionnel, renvoie aux services réels que ladite automobile rend à un individu. Lesquels ne sont pas forcément et totalement, sauf à se référer intégralement au modèle dit d’équilibre général (qui renvoie en économie standard à la situation de concurrence pure et parfaite et au thème du « consommateur – 125 souverain »), le reflet de sa valeur marchande (capacité de déplacements, 44 de transports d’objets, puissance, fiabilité, sécurité …) . La valeur imaginaire de l’objet est quant à elle une valeur représentée, non explicite, non matérielle, qui prend sens spécifiquement pour le sujet dans l’ordre des représentations qu’il se fait de l’objet, et des usages sociaux auxquels il donne lieu. Le sujet l’évalue en rapport de ses propres désirs, de ses rêves, des fantasmes qui sont les siens. La valeur symbolique enfin de l’objet se bâtit également sur la base d’une représentation que le sujet se fait de ce dernier, mais, cette fois, dans l’ordre du collectif, du culturel. Le sujet l’évalue en particulier en rapport de ses relations plus ou moins institutionnalisées avec autrui, avec l’ensemble des autres, qui constituent son rapport global à la société que la psychanalyse lacanienne nomme aussi rapport à l’« Autre ». Dans nos sociétés, l’automobile est par exemple souvent vécue comme signe de distinction et de prestige social. Eu égard à certaines sociétés asiatiques, valorisant par exemple le bouddhisme, nos sociétés tendent par ailleurs et plus globalement, dans cette perspective, à valoriser socialement et culturellement la compétition pour l’obtention de richesses matérielles, et d’un « avoir » que les philosophes et les théologies opposent volontiers à l’« être ». Sur le tableau suivant, il est important d’observer que les outils et concepts décrits sont parfaitement intégrés à la démarche et à la méthodologie générale du marketing, compris comme une pratique de management envisagée dans ses phases à la fois stratégique et opérationnelle. Soit la phase en amont, qui est plutôt celle de l’élaboration du concept, de la planification, de la programmation des actions d’organisation et de coordination du positionnement de l’objet. Puis la phase plus directement opérationnelle, qui va, elle, s’efforcer de décliner l’ensemble des décisions stratégiques et globalement le plan marketing dans diverses opérations pratiques (entre lesquelles il faudra opérer des choix d’affectation des ressources). L’objectif étant de permettre, en bonne probabilité, de toucher la cible au mieux. La démarche de positionnement général du produit, entendue comme la somme et la combinaison des opérations chronologiques suivantes, est en ce sens un acte de management au sens fort du terme puisque l’on peut notamment la décliner selon un enchaînement classique d’opérations de planification, d’organisation, de coordination et de contrôle. En particulier, pour que ledit ciblage fonctionne au mieux, il est nécessaire que le travail de feed-back et de rétroactions ait 44 Le sujet évalue en outre la valeur utilitaire de l’objet, a contrario de l’économie orthodoxe, en rapport avec diverses caractéristiques pesant sur la formation même de ses préférences dont son lieu d’habitation, ses contraintes professionnelles … 126 globalement fait son œuvre. La segmentation de départ n’étant autrement dit pas un exercice simple et évident, et divers événements pouvant interférer en outre dans le temps pour affecter son équilibre (et notamment l’évolution éventuellement assez rapide des comportements de la cible), un jeu typiquement managérial d’essais et d’erreurs s’enchaîne, en boucles successives, pour affiner constamment le ciblage : L'élaboration du positionnement Segment : Demande / Offre Caractéristiques du produit de la marque Attentes de la demande Positions Evolution de la concurrence Positionnements possibles exprimés en termes de Valeur économique Prix Valeur d'usage Technique Valeur psychologique Imaginaire Valeur sociale Symboles Formulation synthétique et évaluation des positionnements Attentes / cibles - Objectifs Concurrence - Marque Choix du positionnement Produit ou Marque - Maintien du positionnement actuel - Repositionnement - Positionnement nouveau Evaluation du positionnement dans les variables marketing et le mix Plan de marketing Actions / Résultats Baranger et alii (1998), op. cit., p. 123. Par analogie avec la distinction entre les marketings stratégique et opérationnel, il existe des schémas de politique de management des RH 127 stratégiques et opérationnels. L’importation du modèle ci-dessus de positionnement des objets suggère que le DRH peut, en reformatant par exemple les objets composant le système de rémunération général, chercher à cibler plus précisément les différentes catégories de salariés, dans la firme, en essayant de répondre à leurs besoins - désirs. Selon ce raisonnement, les divers éléments de ce système de rémunération, mais aussi plus généralement les formes des contrats et des conditions de travail, sont autant d’« objets » à positionner dans l’organisation. Ces objets, qui vont naturellement structurer la relation au travail et à l’organisation des salariés, « valent » en particulier eux aussi dans les quatre dimensions du marchand, de l’utilitaire, du symbolique et de l’imaginaire. Les utilités possibles du marketing de la ressource humaine pour le management des RH et les facteurs favorables à son développement Les techniques en externe Sur la base de ce qui vient d’être énoncé, deux grandes utilités possibles du marketing des RH, pour les FGRH, peuvent être distinguées. La première est, en amenant le DRH à orienter certaines actions vers la promotion de l’image globale d’une firme, d’essayer d’attirer grâce à ces outils de nouvelles compétences et donc, plus généralement, de générer de nouvelles potentialités dans la firme. Toute politique globale de GRH, dans une firme, peut en effet être représentée en distinguant cinq segments fondamentaux. Le concept dit de Personnel-Mix de E. Cohen fait par exemple état des cinq dimensions de l’emploi, des rémunérations, du développement, de l’information – communication, et des relations professionnelles / paritaires (2001, p. 172). La version du concept de Personnel-Mix de B. Martory & D. Crozet, plus en termes de contrôle de gestion sociale, fait quant à elle état de quatre dimensions auxquelles s’ajoute celle de la mesure des dysfonctionnements et coûts cachés dans la firme (2005, p. 301). La dimension chez ces derniers de l’« image interne et externe de la firme » recoupe, naturellement, celle de l’« information – communication » chez E. Cohen (laquelle distingue en outre des systèmes de circulation de l’information formels et informels). On retrouve notamment, dans ces deux modélisations de la politique globale d’une organisation en matière de GRH, et dans ce qui est commun aux segments « image interne et externe », et « information – communication », tout ce qui relève de l’attachement et des degrés d’attachement du salarié à la culture de l’organisation. C’est-à-dire à l’ensemble des pratiques et systèmes de pensée, ou de valeurs, qui sont partagés à un moment donné du temps par les membres du groupe social 128 composant globalement l’organisation. La notion de partage, que l’on retrouve dans toutes les définitions du terme de culture, y compris celle célèbre d’Hofstede la définissant de manière courte comme une « programmation mentale collective », est assurément essentielle. Et la culture de l’organisation, comme l’indiquent la plupart des manuels de gestion des ressources humaines, et nombre de travaux en sciences et théorie des organisations, est déterminante dans le processus d’intégration et de fidélisation des salariés. Dans cet esprit, la valorisation de la culture de la firme à l’extérieur, par le biais publicitaire, peut devenir un moyen de promouvoir l’image globale de l’entreprise aux fins d’attirer, massivement, des candidats et salariés potentiels et d’améliorer l’attractivité de celle-ci. Il est encore trop tôt, compte tenu du nombre d’expériences réalisées ou en cours, pour évaluer précisément en la matière l’efficacité d’une diffusion massive de messages publicitaires sur l’attractivité des cultures organisationnelles. Mais des mesures seront certainement faites dans l’avenir sur la base de divers indicateurs existants, qui permettent déjà de le faire globalement pour l’organisation (par exemple le nombre de départs de salariés de l’entreprise au profit de la concurrence dans les six mois ou plus). L’efficacité des messages publicitaires pourra probablement être testée en mettant en relation la forme des messages, l’intensité et la durée de leur diffusion, avec le nombre de salariés en l’occurrence effectivement embauchés durant la même période, avec également le nombre de candidatures attirées pour pourvoir un poste ... Ce que l’on peut avancer, aujourd’hui, c’est qu’il est tout à fait possible que le marketing externe en RH engendre des diminutions des coûts unitaires de recrutement, y compris de ses coûts cachés, et donc parallèlement de ce que l’on pourrait appeler les coûts d’incertitude de l’embauche. On tend en effet, souvent, à sous-estimer l’importance des coûts d’une procédure de recrutement totale, que l’auditeur met en particulier en évidence à travers la méthode dite des coûts cachés. Laquelle cherche à prendre en compte la totalité des coûts économiques et financiers directs, mais aussi indirects, de ceux qui à travers diverses chaînes de réaction sont difficilement voire non chiffrables, et naturellement les coûts d’opportunité, dont notamment les « non production », et les « non création de potentiels ». Aux frais de recrutement (coûts directs d’annonces, frais de déplacement, honoraires des cabinets, coûts indirects représentatifs du fonctionnement des services chargés du recrutement ...), s’ajoutent en effet généralement des coûts d’intégration (temps perdu par les collègues, supérieurs hiérarchiques et autres personnes pas seulement mesuré en unités de salaires, manque à produire des personnels sollicités, démarches administratives...), mais aussi les coûts engendrés par les erreurs commises durant la phase d’apprentissage. Aux coûts de la formation de 129 base (si celle-ci est dispensée pendant la période qui suit l’embauche), vont aussi s’ajouter les coûts de familiarisation avec la tâche (temps perdu et manque à produire du fait de l’adaptation à l’entreprise, à ses procédures, à ses collaborateurs et à la tâche elle-même), qui peuvent entraîner la mobilisation d’autres personnels en renfort, dont le coût sera de nouveau celui des salaires versés, de la non production, voire du manque à innover ... On estime notamment, en règle générale, que le nouvel arrivant dans une organisation n’atteint son niveau d’efficacité maximum qu’à l’issue d’un certain délai. La montée en cadence étant naturellement plus rapide dans le cas des métiers d’exécution, l’estimation en moyenne de la croissance de la courbe d’efficacité, pour des postes d’encadrement et de management, peut être telle qu’à 6 mois le nouvel embauché est à 50 % de son efficacité, à 12 mois à 80 %, à 36 mois à 100 % (Martory & Crozet, 2005, p. 66). Parallèlement, il est probable que les recrutements et la fidélisation des salariés vont, dans les dix années à venir, entraîner des problématiques de plus en plus complexes dans nombre d’entreprises éprouvant des difficultés à les maîtriser. Fondamentalement, on peut en effet considérer que ce que les économistes institutionnalistes nomment la confiance est au cœur de la conclusion du contrat de travail. A l’intérieur de ce que l’on nomme une situation d’informations asymétriques, et contrairement au postulat de l’économie standard d’une information parfaite de chacun des protagonistes, certains économistes ont en effet montré que l’incertitude, sur ce que l’autre allait véritablement faire, affectait les deux parties. Aucun des deux protagonistes n’est assuré, dans un cadre que la théorie des jeux nomme de jeu non coopératif, de ce que l’autre remplira effectivement la part du contrat à laquelle il s’est engagé initialement (Liebenstein, 1976). De fait, le salarié ne sait pas en particulier si l’employeur lui constituera effectivement un parcours de carrière, le rémunérant selon ses promesses. Il ne connaît pas le véritable état de santé économique et financier de l’entreprise, et peut douter éventuellement de sa capacité à demeurer aussi rentable qu’il y paraissait, voire de sa pérennité. De son côté, l’entrepreneur ignore la quantité et la qualité exactes de travail que l’individu fournira. Celui-ci pouvant chercher à maximiser sa rétribution pour une contribution minimale. Il ne sait pas non plus si les compétences du futur salarié évolueront véritablement, selon les promesses de ce dernier, et comment. La plupart des manuels de GRH confirment, dans la foulée de ces faits stylisés qu’il y a, dans nombre de recrutements, une part quasi incompressible de pari et d’intuition de la part du recruteur qui ne sait jamais tout ce qu’il devrait savoir pour éliminer, en la matière, toute incertitude. Or, la convergence au moins des cinq facteurs cités au début de cet article fait que, d’une manière générale, une tendance se développera dans 130 l’avenir qui imposera des recrutements tout à la fois rapides, portant sur des profils plus difficiles à découvrir, et sur des individus difficiles à convaincre et intégrer. Qu’il s’agisse de la mondialisation et de l’intensification concurrentielle qu’elle suppose, de l’accélération du progrès technique, et de l’augmentation du rythme de vieillissement des métiers, de la diversification socioculturelle croissante de la société, des différences d’attitude des jeunes générations, et de l’affaiblissement de la « valeurtravail » parallèlement au creux démographique actuel, l’incertitude de l’employeur, plus ou moins conditionnée par l’incertitude du salarié (particulièrement dans des contextes de fort chômage), ne peut que s’accentuer. On observe au demeurant d’ores et déjà que nombre d’entreprises, qui ne sont pas loin de posséder en interne les ressources pour le faire, préfèrent pourtant externaliser la fonction recrutement en laissant des cabinets extérieurs assumer eux-mêmes, et aussi assurer, les risques d’embauches défaillantes. Aux coûts fonctionnels de la procédure complète d’embauche tendront, ce faisant, à s’ajouter des coûts d’incertitude plus élevés qui se matérialiseront dans des embauches non satisfaisantes, voire contre-productives en fonction de l’augmentation des taux d’échecs. Le coût d’une embauche non réussie s’analysant comme le total des coûts de la procédure d’embauche menée à son terme, et des manques à produire et à innover qui affectent globalement les résultats de la firme. De ces deux points de vue, les techniques du marketing RH externe, si bien sûr l’opération de positionnement a été correctement effectuée, ont la particularité d’attirer en masse des candidats en quelque sorte et partiellement déjà pré-sélectionnés. Et ce, au moins dans l’ordre des représentations, du fait de l’adéquation a priori réussie de l’objet, que constitue l’organisation et sa culture, à leur profil psychologique. Ceci peut participer à la réduction des coûts unitaires totaux des procédures de recrutement. Eu égard aux annonces classiques dans les journaux et la presse spécialisée, qui font partie des procédures – type et traditionnelles de recrutement, ces méthodes tireraient précisément leur efficience, à l’intérieur d’une population à la fois numériquement importante et diversifiée, qu’il est difficile de toucher et de convaincre en fonction des facteurs énoncés plus haut, d’une segmentation des cibles et d’un positionnement de l’objet réussis. Les expériences menées ont, en ce sens, toutes préalablement défini de façon précise, d’une part les caractéristiques essentielles de la cible en termes d’âges, de sexes, de niveaux de diplômes ..., d’autre part les « désirs – besoins » que l’on supposait être les siens de manière à produire un message de séduction 45 ou concept adapté . 45 Dans la catégorie des événementiels, les salariés potentiels peuvent par exemple être invités à des manifestations d’ordre sportif dans des stades où s’intercalent des entretiens 131 Une des conséquences de ce développement possible, au plan du périmètre des tâches traditionnelles du DRH, pourrait donc être que celui-ci apprenne en quelque sorte à faire la publicité de son organisation et de sa culture. Qu’il apprenne d’une certaine façon à mieux vendre sa structure en la présentant, aux nouveaux arrivants ou salariés potentiels, comme offrant des rapports entre contributions et rétributions du travail, des contrats et des conditions de vie au travail, parmi les plus attrayants et séduisants du marché. Les techniques en interne La deuxième grande utilité possible du marketing de la ressource humaine, pour le DRH, est de l’amener à considérer le salarié déjà intégré, à l’instar de la définition énoncée plus haut, comme un « client » en interne. Ce qui suppose de considérer en quelque sorte les éléments qui composent le système de rémunération, l’organisation du travail et ses conditions de déroulement, comme des « produits » qui doivent se façonner davantage selon les besoins et désirs de ce dernier. Le DRH est alors amené, selon le modèle qui précède, à positionner à la limite les différents éléments qui composent son système de rémunération (salaires de base, périphériques de rémunération financier, en nature ...), voire l’ensemble des contrats de travail auxquels la firme a recours (Cdi, Cdd, temps partiels ...), et les divers éléments qui composent les conditions de travail (flexibilité des temps, automatisation des procédures, formes de certains locaux ...), comme autant d’objets en quelque sorte globalement offerts par l’entreprise. Au-delà des services supplémentaires offerts dans cet esprit par certaines organisations à leurs salariés (gardes d’enfants, saunas, aides à la programmation des vacances ...), les expériences les plus en pointe sont surtout menées aux USA. En particulier les techniques personnalisées dites de « cafeteria system ». Ainsi des fiches de paie « à la carte », les salariés pouvant choisir la composition de leur système total de rémunération, par exemple en préférant telle augmentation de rémunération versée sous forme d’intéressement, sous forme de mutuelle ..., plutôt qu’en salaire de base. Ainsi de la possibilité, pour les salariés de certaines firmes américaines, d’acheter et de vendre des jours de vacances (Liger, 2004, p. 145). Ces techniques, hormis certaines implications organisationnelles sur lesquelles nous allons revenir, sont effectivement pour partie en mesure de permettre d’attirer, motiver et d’embauche et opérations de pré-recrutement (c’est le cas en 2001 en France d’une entreprise informatique qui invite ainsi 2500 élèves de grandes écoles d’ingénieurs (Liger, p. 97 et suiv.)). Certaines entreprises, pour recruter en masse divers saisonniers, parmi la centaine de métiers qu’elles proposent dans leurs divers établissements, procèdent par des clips diffusés dans les salles de cinéma ... L’internet est assurément un canal de diffusion aujourd’hui prisé qui a en la matière un grand avenir. 132 fidéliser des salariés dont l’approche peut, toutes choses égales par ailleurs, s’avérer plus difficile. Certaines enquêtes font par exemple apparaître que les générations les plus jeunes placent les valeurs du travail, et notamment l’idée de se « réaliser dans le travail », nettement après les valeurs auxquelles renvoient en particulier la famille, les loisirs, et les relations sociales. Dans les termes du marketing RH, la question est alors pour le DRH de chercher à mieux capter une cible en fonction notamment, dans ce cas de figure, de la spécificité de ses projets de vie. Les moyens qu’il est possible d’utiliser pour ce faire sont variés. Le compte capital-temps par exemple, dont le principe est contenu dans la loi sur les 35 heures, peut en l’occurrence faire partie d’un package offert par la firme pour attirer et fidéliser une clientèle au sein de laquelle la sensibilité à la détention de davantage de temps libre, en particulier pour se réaliser dans certains grands voyages d’une durée excédant le quota légal ou conventionnel de congés payés annuels, a notamment progressé. Diverses actions, allant dans le sens des préférences a priori manifestées dans certaines enquêtes pour une plus grande qualité de la vie au travail, ou contre la pesanteur de certaines disciplines au travail, peuvent également être menées. L’aménagement des formes de gouvernance, modérant certains aspects autoritaires des modèles de pouvoir et de hiérarchie encore utilisés dans certaines firmes, est, dans cet ordre d’idées, susceptible d’être vécu par les plus jeunes comme un facteur d’attraction et de fidélité. Plus généralement, ces techniques de modelage des systèmes de rémunération s’inscrivent dans l’évolution historique de la FGRH. On s’aperçoit en effet qu’entre le taylorisme, le fordisme et les modèles postfordiens actuels, ce qu’il était convenu d’appeler l’administration du personnel, qui tendait plutôt à gérer le capital humain en masse, comme un ensemble de forces de travail volontiers considérées comme interchangeables, a fait progressivement place au « management des ressources humaines » (Frombonne, 1993). Lequel tend à utiliser des formes de gestion plus individualisées, tournées en particulier vers l’idée fondamentale selon laquelle la qualité des produits, dans une société où la mondialisation intensifie la concurrence par les prix, est un moyen de stimuler les motivations afin d’obtenir et de conserver des avantages compétitifs. Un argument majeur, qui permet d’avancer que le marketing des RH peut avoir en interne de l’avenir, malgré la possibilité qu’il soit utilisé par certaines firmes dans des visées davantage idéologiques, est en effet que la qualité des produits est devenue aujourd’hui un instrument majeur de la compétitivité. La mondialisation va en effet de pair avec, de proche en proche, une intensification des champs concurrentiels sur lesquels se 133 trouvent en moyenne les entreprises. La probabilité d’être concurrencé très fortement, par des produits à bas prix venus de très loin, et sans que l’on puisse toujours le prévoir précisément, augmente en ce sens à mesure que la mondialisation s’accélère. Or, dans les pays industrialisés notamment, les coûts du travail, qui sont la contrepartie de la régulation socioéconomique générale des systèmes correspondants, interdisent notamment de diminuer davantage les prix pour résister à la concurrence. Depuis de nombreuses années, ce que rappellent en particulier certaines commissions réunies lors des travaux préparatoires du XI ème Plan, la qualité des produits est devenue un moyen essentiel pour parer à l’intensification de la concurrence, conquérir et conserver certaines parts de marché. Le marketing des RH, en tant que nouvelle technique d’attraction-motivation-fidélisation, peut trouver sa place dans un tel contexte. On peut ajouter, au titre des avantages des techniques internes de marketing des RH, le fait que les nouvelles formes de rapports salariaux instituées peuvent aussi aller de pair avec l’évitement, pour la firme, d’un certain nombre de dysfonctionnements, ou tout au moins leur prévention et l’aplanissement de certaines de leurs conséquences. Il existe en effet, du point de vue des tensions sociales et conflits qui peuvent traverser la firme, bien d’autres formes d’expression des mécontentements que la grève. L’auditeur juge en ce sens également la dégradation du climat social de l’entreprise à l’augmentation éventuelle de ses taux de turn-over, à ses baisses de productivité plus ou moins soudaines ne pouvant être référées à des causes seulement matérielles, aux chutes de qualité coûteuses qui grèvent les coûts des services après-vente ... Les freins au développement du marketing des RH : la thèse de la mode En fonction de tout ce qui précède, le DRH peut effectivement être amené, dans certaines entreprises, à devenir en quelque sorte davantage un communicant afin de pouvoir mieux positionner réellement, dans l’organisation, les objets de la rémunération, certains éléments des contrats et conditions de travail, de manière à ce qu’ils adhèrent mieux aux profils psychologiques des salariés. De ce point de vue, on peut soutenir l’idée selon laquelle le marketing de la RH, en tant que technique de compréhension des comportements et attentes au travail, a de l’avenir si l’on considère en particulier qu’il y a là un outil de motivation puissant, et que l’avenir économique de nombreuses firmes est notamment lié à une qualité supérieure des produits vendus. Le fait de présenter la possibilité de s’adresser au salarié comme s’il était un client de la firme présente, 134 toutefois, une série de limites concrètes qui peuvent faire penser qu’il y a bien là un effet de mode et, dans le cadre de certaines offres commerciales correspondantes, une tentative de persuasion idéologique. Le fait de laisser entendre que le salarié peut, par l’émission de ses besoins et désirs, formater par exemple le système de rémunération selon ses vœux, participe en effet, si l’on en poursuit la logique jusqu’au bout, d’un effet de déformation de la réalité des structures économiques, sociales et organisationnelles contemporaines. D’abord, en surdéterminant en quelque sorte le pouvoir des salariés dans l’entreprise, puis notamment en méconnaissant certaines réalités du management et du fonctionnement des organisations. En premier lieu, la relation de travail salariée n’est pas une relation où les deux contractants disposeraient de forces et puissances égales, pouvant s’équilibrer au moment de la conclusion du contrat de travail et après celleci. Parallèlement à la détention par l’une des parties et selon les cas des machines, des brevets, des bureaux, des terrains ..., qui conditionnent globalement l’organisation du travail, l’autre partie accepte, lors de la signature du contrat de travail, l’autorité de la première quant à la coordination globale des comportements au travail. De nombreux théoriciens des organisations, plus ou moins proches du champ institutionnaliste en économie, revendiquent cette approche (Gazier, 1991). En second lieu, l’analogie implicite avec un système d’offre et de demande n’est, sur un plan à la fois technique et organisationnel, pas recevable. Le système des prix, dans une structure de concurrence pure et parfaite qui permet de comprendre la confrontation optimale d’offres et de demandes, est en effet un système de coordination simultanée des offreurs et des demandeurs au sens où il y a influence réciproque, permanente, et contrepoids des pouvoirs des uns sur les autres. Les prix, selon qu’ils montent ou descendent, sur un marché quelconque dans cette situation, informent et influencent d’une part les demandeurs qui sont incités à ne pas acheter ou à acheter. Les demandeurs, selon qu’ils sont plus ou moins nombreux, font d’autre part varier à leur tour, et en même temps, les prix par leurs comportements mêmes de défection ou d’achat. Et selon que les prix montent ou descendent, ils incitent les producteurs à produire plus, ou moins. Or, dans une firme, sauf à faire le postulat totalement irréaliste selon lequel les membres de l’organisation seraient en relation entre eux à travers des quasi prix, les salariés n’ont pas la possibilité d’informer le sommet stratégique autrement que par l’alternative entre partir, ou prendre la parole et revendiquer pour exprimer leur mécontentement du fait de la forme de leurs rémunérations. Comme l’a montré A. O. Hirschman, ils ont le choix entre Loyalty (rester), Exit (partir), ou Voice (prendre la parole éventuellement grâce aux relais syndicaux) (1971). Il y a donc une contradiction de fond à présenter implicitement le système par exemple de 135 rémunération d’une entreprise comme relevant d’une « offre », qui pourrait couramment se modeler selon la « demande ». Et, à moins d’être relayée par une prise de parole interne se traduisant notamment par des dysfonctionnements coûteux infligés à l’entreprise, et sauf à supposer une organisation dont la gouvernance serait tendue exclusivement vers la réalisation des désirs de ses salariés, seule la défection et la sortie des salariés est capable d’inciter suffisamment l’entreprise à remodeler son offre compte tenu de la matrice prévisionnelle de ses gains et pertes. La conception implicite du « salarié-souverain » se heurte, par ailleurs, à une seconde catégorie de problèmes qui tient à certaines réalités économiques, stratégiques et organisationnelles des entreprises. Le système de rémunération de la firme ne peut en effet être formaté qu’à l’intérieur d’un jeu permanent de contraintes. Il y a plusieurs manières en GRH et en théorie des organisations de présenter ce problème. L’une d’entre elles consiste à considérer que la firme doit formater son système de rémunération à l’intérieur d’un triangle illustrant les trois contraintes permanentes qui pèsent sur elle. Soit les contraintes financières de la masse salariale, celles sociales de l’équité, celles extérieures de la prise en compte des salaires pratiqués par la concurrence. D’autres présentations font apparaître un jeu de contraintes plus complexe, mais ces trois contraintes de base demeurent au cœur du modèle, et la logique managériale consiste toujours à faire des choix dont certains par défaut et sur la base de critères multiples et contradictoires (Cadin & alii, 2004, p. 234). La première contrainte, qui empêche de librement formater les éléments de la rémunération selon la demande supposée des salariés, est que les attentes sont souvent de nature à générer des glissements de la masse salariale incompatibles avec les résultats et possibilités prévisionnelles en la matière de la firme. Certains glissements, tels ceux engendrés par ce qu’il est convenu d’appeler le Glissement Vieillesse Technicité (GVT), sont en outre mécaniques. La deuxième contrainte tient à l’équilibre des rapports contributions / rétributions des salariés. Les stratégies accentuées d’individualisation des rémunérations peuvent avoir la propriété d’étirer les inégalités internes (observables à travers la plus grande déformation des écarts inter-déciles), et partant des différences ressenties comme inéquitables et non légitimes par les salariés. Ce qui tendra à générer en chaîne divers dysfonctionnements coûteux (grèves, baisses de productivité, chutes de qualité ...), lesquels pourront surcompenser les gains obtenus en stimulant la productivité de ceux qui veulent se détacher par leurs performances. La troisième contrainte tient aux réactions de la concurrence qui, en pratiquant des augmentations de salaires conséquentes, visant à attirer les salariés les plus productifs (conformément à une des théories économiques du salaire dit d’efficience), finissent par rendre les salaires proposés par la firme insuffisamment attractifs. Ces trois contraintes, qui vont chacune de pair avec différentes 136 variables, dont certaines ne sont pas contrôlées par l’organisation, ne permettent pas directement une modulation des formes de rémunération offertes selon les vœux et attentes. On pourrait mettre aussi, en évidence, les freins constitués par certaines formes de gouvernance dans la firme, et par les stratégies de pouvoir de ses acteurs au sens de M. Crozier & E. Friedberg (1977). Conclusion En ce début du XXI ème siècle, le marketing des RH entre dans la panoplie des outils qui, si l’on considère que les grands modèles managériaux de la ressource humaine correspondent en moyenne, et chacun, à des périodes historiques assez faciles à isoler, vont de pair avec la période post-fordiste. A partir d’une évolution naturellement limitée du métier de DRH, amené à devenir partiellement un communiquant, voire davantage un psychologue dans la firme, il s’agit de séduire et d’attirer par une communication appropriée la « clientèle extérieure » potentielle, en présentant sous ses meilleurs jours les structures et la culture de l’organisation, et de fidéliser cette fois en interne la clientèle des salariés en lui permettant finalement de davantage participer, sur le plan opérationnel, au management de la RH. La fiche de rémunérations en quelque sorte à la carte intervient, en ce sens, comme un nouvel outil participatif au même titre que la diminution de certaines lignes hiérarchiques dans des organisations plus plates, que le développement des périphériques de rémunération financiers du type intéressement, que l’enrichissement des tâches et les suppléments d’autonomie dans le travail accordés dans les entreprises apprenantes... On ne possède pas encore à l’évidence suffisamment de recul sur cette pratique, encore insuffisamment expérimentée, pour pouvoir bien discerner son évolution probable. Pour ce qui est du marketing externe des RH, les économies réalisées au plan des coûts d’organisation du recrutement nous paraissent cependant constituer un argument fort poussant à son développement. Pour ce qui relève du marketing interne des RH, le fait que la qualité soit, de plus en plus, un enjeu majeur de la compétitivité pousse clairement dans le sens de la recherche de techniques efficientes permettant de stimuler les motivations. L’adaptation par exemple des éléments de la rémunération aux profils des salariés constitue certainement une de ces techniques. Certains précédents, comme celui des cercles de qualité, indiquent toutefois que les nouvelles techniques en la matière doivent être totalement assumées dans leurs conséquences par le management, et les sommets stratégiques des entreprises. Ayant connu un très fort développement dans les années 80, le nombre de cercles de qualité en France a en effet connu, dans les années 90, une chute aussi rapide que sa progression sur les raisons de laquelle les auditeurs sociaux 137 sont nombreux à s’accorder. Non seulement les incitations financières n’ont pas suivi, mais l’écoute portée aux propositions des salariés n’a pas été suffisante et, lorsqu’elle a été effective, elle n’a abouti qu’à des changements mineurs de l’organisation et des conditions de travail. Le marketing interne des ressources humaines est en ce sens une technique naturellement séduisante. Son application effective risque de se heurter à des contraintes économiques, organisationnelles et sociales majeures. Bibliographie Aubret J. & Gilbert P., (2002, 2 ème ed.), Psychologie de la ressource humaine, PUF, Paris. Baudrillard J., (1970), La société de consommation, Gallimard, Paris. Brabet J. et al. (1993), Repenser la gestion des ressources humaines ?, Economica, Paris. Cadin L., Guérin F. & Pigeyre F. (2004, 2 ème ed), Gestion des ressources humaines, pratique et éléments de théorie, Dunod, Paris. Cahuc P. & Zylberberg (2005), Le chômage, fatalité ou nécessité ?, Flammarion, Paris. Cohen E., (2001), Dictionnaire de gestion, La découverte, Paris. Crozier M. & Friedberg E. (1977), L’acteur et le système, Seuil, Paris. Fombonne J., (1992), « Pour un historique de la fonction personnel », in La Fonction ressources humaines, Weiss (direction), ed. D’Organisation, Paris. Gazier B. (1991), L’économie du travail et de l’emploi, Dalloz, Paris. Helfer J. P. & Orsoni J., Marketing, Vuibert, Paris. Hirschman A. O. (1970), Exit, voice and loyalty, Harvard University Press, Cambridge. Liebenstein H. (1976), Beyond Economic Man, Cambridge University Press, Cambridge. Liger P. (2004), Le marketing des ressources humaines. Attirer, intégrer et fidéliser les salariés, Dunod, Paris. Martory B. & Crozet. D. (2005, 6 ème ed.), Gestion des ressources humaines, Dunod, Paris. Martory B. (2003, 4 ème ed.), Contrôle de gestion sociale, Dunod, Paris. Maslow A. (1954), Motivation and Personality, Harper & Row, New-York. Peretti J-M., (2003, 8 ème ed.), Ressources humaines, Vuibert, Paris. 138 Stéphane MOTARD Professeur de Marketing à l’ISC Paris ESSEC MBA, Docteur ès Sciences Sociales Le business case comme outil de positionnement de la DSI et des Directions Opérationnelles au sein des instances stratégiques de l’entreprise : l’exemple du projet CRM Synthèse L’informatique étant devenue plus ergonomique et plus ouverte au client (via l’extranet notamment), elle a acquis un nouveau statut au sein des instances stratégiques de l’entreprise puisqu’elle est passée d’un rôle de « support » à un rôle de « facteur différenciateur de l’offre sur le marché ». Les projets CRM ont en effet consacré ce nouveau positionnement des DSI et des Directions Vente-Marketing en leur permettant de s’exprimer d’une voix commune quant à l’intérêt stratégique de l’informatique orientée « métier ». Le business case a permis à ces directions de monter en puissance auprès des instances dirigeantes car c’est via un langage financier objectivant que ces Directions peuvent s’identifier à des structures entreprenariales proches des préoccupations stratégiques et temporelles des instances dirigeantes. Mots-clés Projet CRM, système d’information, business case 139 Summary IT has become more ergonomic and more open towards customers (thanks to Extranet structures), and got a new status inside of companies strategic committees. Indeed, IT has evolved from a “tool” into a “differentiating factor of offer on industrial markets”. CRM projects have enabled this new positioning of IT Departments and Sales & Marketing Departments, which now can express themselves through a unique message about strategic impacts of functional software. The business case enabled these departments to develop their strategic trumps inside of steering committees. Thanks to the financial and objective language, these departments can identify themselves to managing structures close to strategic and operational issues of the CEOs. Key words CRM project, IT, business case « Avec beaucoup de calculs on peut vaincre, avec peu c'est impossible. 46 Ceux qui ne font rien ont peu de chances de victoire ! » Si le paradigme financier concerne l’ensemble des entreprises tant dans leur finalité que dans leur mode de communication, il s’avère que le dispositif argumentatif autour de la création d’un projet CRM reste quelque 47 peu lâche et évasif. « Investir, c’est un projet dans le projet » et peu d’entreprises appréhendent cette nécessité de formaliser les projets, notamment ceux qui apparaissent comme créateurs de valeur, tant dans les modalités de leur réalisation que dans les résultats attendus. Cette « légèreté » face au projet est une légèreté de confort : tandis que l’entrepreneur va chercher des fonds pour créer son entreprise, le chef de projet CRM, lui, peut se contenter d’une argumentation calquée sur les tendances du moment pour obtenir un budget octroyé par l’entreprise. Pourtant, la structuration actuelle de l’entreprise en business units, l’évolution du management vers le mode projet et la transformation des centres de coûts en centre de profit ont rationalisé et homogénéisé les modes d’argumentation sur la valorisation financière, celle-ci s’inscrivant ainsi dans la raison même de l’existence de l’entreprise. En effet, « le CRM 46 Sun Tzu, L'art de la guerre, (400-320 avant J.C.) CORBEL, Jean-François, Management de projet, Eyrolles Editions d’organisation, 2° édition, 2007, page 138 47 140 ne peut pas avoir pour seule finalité la satisfaction des clients car l’objectif de cette politique est d’accroître les ventes et les profits de l’entreprise. Il faudra de ce fait toujours mettre en parallèle le coût des programmes et leur retour sur investissement et construire un business case …, c’est à 48 dire un calcul prévisionnel de la rentabilité des investissements. » C’est cette nécessité d’accompagner l’idéal entreprenarial d’un raisonnement financier visant à « rassurer » – car le socle même des économies de marché reste fondamentalement la confiance – et de « fédérer » qui donne son sens au business case comme outil de communication pour le chef de projet. Cet outil de calcul de rentabilité prévisionnelle des projets apparaît 49 alors comme « un outil de rationalisation économique des décisions ». 1. Méthodologie 1.1. Les hypothèses Les hypothèses permettant d’éclairer la problématique sont les suivantes : 1. H1 : « le business case inscrit le marketing dans la problématique financière et stratégique de l’entreprise » 2. H2 : « le business case inscrit le marketing dans la problématique managériale de l’entreprise » 3. H3 : « le business case inscrit le marketing dans la problématique entreprenariale de l’entreprise » Si cet article vise avant tout à faire œuvre de propédeutique pour la question du rôle du business case dans le positionnement de la Direction Marketing par la promotion des projets CRM, c’est une analyse de la littérature existante et un éclairage par une étude de cas qui vont constituer le socle de l’argumentation. 1.2. Objet de la présente étude Tandis que le business plan est réalisé dans le cadre d’une création ou d’une reprise d’entreprise, le business case est réalisé en amont d’un projet lors des phases d’opportunité et/ou de faisabilité. Le business case, s’il procède de l’exercice financier de valorisation n’en reste donc pas moins un outil puissant de communication autour d’un projet, qu’il s’agisse de promouvoir celui-ci pour faire valider son financement ou de fédérer les différents acteurs autour de la nature des gains et des pertes attendues. Aussi prime-t-il davantage pour la nature des postes qu’il décrit (modèle de gains, réduction de coûts, investissements 48 LENDREVILLE, LEVY, LINDON, Mercator, 8° Edition Dunod, 2006, page 887 MADERS, Henri-Pierre, GAUTHIER, Elizabeth, LE GALLAIS, Cyrille, Conduire un projet d’organisation, Editions d’organisation, 3° édition, 2004, page 239 49 141 nécessaires) et les hypothèses qu’il pose (évolution du marché, impact sur les clients) que pour la valeur scientifique de la valorisation. 1.3. Sur les différentes dimensions d’analyse des projets CRM 50 La plupart des ouvrages traitant des projets CRM et des projets SI en général tendent à occulter les aspects financiers de l’argumentation au profit des aspects techniques et fonctionnels. On note une prépondérance de l’argumentation autour des outils de planning (GANTT, PERT…) et du tableau prévisionnel des charges, tandis que les gains sont déclaratifs et qualitatifs, leur mesure n’étant pas précisée. Le SI est donc fondamentalement instrumentalisé et peu présenté comme un choix 51 stratégique , il s’affirme comme « document comprenant le rationnel économique du projet – il signale pourquoi vous avez besoin du projet, sur quelles options vous comptez travailler, comment vous le réaliserez et de 52 qui vous avez besoin pour cela » – et comme un outil efficace d’analyse 53 de potentiel de solution SI . Ce phénomène s’explique par la scission historique et culturelle existant entre les Directions des Systèmes d’Information (DSI), maîtres d’œuvre, d’avec les maîtrises d’ouvrage mais également par un positionnement stratégique parfois peu favorable au vu de celui des Directions Financières et surtout des Directions Opérationnelles (Directions Métiers), lesquelles sont davantage impliquées dans le processus de décision ainsi qu’au sein des instances de gouvernance. C’est via la modernisation des systèmes et les processus croissants d’outsourcing que les DSI ont commencé à s’imposer comme promotrices et génératrices d’une profitabilité nécessaire pour l’entreprise grâce à la rationalisation des coûts et l’internationalisation de l’information mais grâce également à la différenciation de plus en plus nécessaire des offres de services et industrielles – les SI permettant l’ajout de fonctionnalités informatiques novatrices. Le choix du projet CRM pour appréhender ce sujet n’est pas anodin car c’est via le métier du marketing que les DSI ont pu faire valoir leur capacité à s’inscrire dans une argumentation stratégique portant sur les orientations marketing-commerciales de l’entreprise, tandis qu’elles restaient en retrait face aux expertises dans le cadre des systèmes comptables et des systèmes d’information liés à la production (GPAO, SCM…). 50 SI = Système d’Information DAYAN, Armand, Marketing B to B, Vuibert, 5° édition, 2002, page 36 52 BUTTRICK, Robert, Gestion de projets 3° Edition Village mondial, 2006, page 94 53 ITRG, Making the Case for Software Acquisition, ITRG, 2003, page 5 51 142 Les projets CRM, pionniers par leur orientation vers les problématiques centrales de la stratégie (Qu’est-ce qu’un client ? Quelle valeur lui apportons-nous ? Comment le fidéliser ?) et premiers projets orientés non plus vers la rationalisation mais vers le développement, ont insufflé un renouveau de culture financière dans l’entreprise auprès de nombreux salariés. A travers l’argumentation sur la rentabilité des clients, sur le besoin de pérenniser le chiffre d’affaires et de segmenter les clients, l’entreprise a trouvé un nouveau terreau d’argumentation scientifique et managériale fondé sur les capacités croissantes de la technologie (architectures légères, réseaux, base de données puissantes, API…) à soutenir les orientations stratégiques de l’entreprise. C’est dans ce cadre que s’affirme la réalisation des premiers business cases liés aux projets SI non plus considérés comme des projets subis et nécessaires (dans les logiques d’urbanisation, de pérennisation et de mise aux normes) mais comme des projets volontaristes issus du binôme DSIDirection opérationnelle. 1.4. SFA et CRM : un état des lieux des projets menés au sein des entreprises Les retours d’expérience sur les échecs des projets CRM insistent sur les points suivants : (1) le décalage entre la théorie et la pratique, (une collecte d'informations pléthoriques pour une exploitation décevante et un découragement des forces de vente perdant du temps en tâches administratives de mise à jour de bases de données clients), (2) l’approche plus défensive qu'offensive (la plupart des projets ayant été davantage suiveurs qu’innovants), (3) l'obsession de la technologie (au détriment des aspects fonctionnels et organisationnels), (4) des équipements lourds (d’où la difficulté à s'assurer d'un rapide retour sur investissement à l'échelle de l'entreprise), (5) l'excès de personnalisation (à force de différencier les individus dans des tiroirs bien étiquetés, on finit par toujours leur proposer la même chose et par passer à côté de besoins qui ne se sont pas encore exprimés spontanément). Les années 1990-2001 ont consacré les projets d’implémentation d’ERP et là où le politique dépasse l’économique, le business case n’a plus vraiment sa place – ces projets ayant été portés par les contraintes de globalisation et d’exigence de normalisation et de transparence financière et boursière. Que ce soit une Direction Générale qui impose l’implémentation d’un outil pour garantir la confiance de l’actionnariat dans les comptes de la société ou pour suivre la tendance et rester à un niveau de technologie qui asseye la crédibilité de la société ou bien une société qui réponde à la contrainte d’un partenaire ou de l’état, ces situations récurrentes n’imposent plus la 143 nécessité de bâtir une argumentation fondée sur la contribution du projet à la rentabilité de la société. Ce sont ces situations qui différencient justement les projets métiers 54 55 56 (CRM , SCM , KM ) des projets de société (ERP), les premiers répondant davantage à un besoin d’affinement de la stratégie marketing et commerciale de l’entreprise. 1.5. Distinction entre business case, business plan et budget Il est important, au sein de la présente étude, de distinguer le business case du business plan et du budget. (1) Si le business case tend à ressembler au business plan dans la forme (tableau de flux de trésorerie, présentation didactique via les objectifs, risques et impacts), il se distingue par son objet (projet dans une entreprise ou unité existante vs projet de création/reprise d’entreprise), par son périmètre (analyse de la situation différentielle via la gestion de scénarios d’ordre micro-économique vs la projection dans l’avenir fondée sur des données macro-économiques), par son portage (en interne au sein des instances vs à l’externe auprès des banques, investisseurs, business angels, fonds privés) ainsi que par ses orientations financières (choix entre approche comptable ou « trésorerie » 57 vs approche focalisée sur la trésorerie et le BFR ). (2) Si le business case peut également se rapprocher du budget dans sa fin (prévision des coûts/moyens/ressources à prévoir, modélisation des gains, document donnant lieu à des arbitrages), il se distingue du budget par sa dimension événementielle (ponctuel vs récurrent), par son mode d’élaboration (unilatéral ou fédératif vs processuel – le processus budgétaire) et par son orientation financière (choix entre approche comptable et/ou financière vs approche strictement comptable). 2. Validation de H1 : « le business case inscrit le marketing dans la problématique financière et stratégique de l’entreprise » 2.1. Le business case suppose des orientations financières fortes 2.1.1. Le choix du principe de valorisation des flux Deux modes de valorisation sont possibles lors de l’exercice de valorisation des postes de gains et de pertes du business case : (1) le mode comptable : les coûts sont alors des charges que l’on amortit 54 CRM = Customer Relationship Management SCM = Supply Chain Management 56 KM = Knowledge Management 57 BFR = Besoin en Fond de Roulement (stocks + créances clients – créances fournisseurs) 55 144 (généralement sur 3 ans en linéaires), les charges amorties concernant les 58 investissements software (licences et éventuellement les j*H de 59 60 paramétrage ), les investissements middleware ainsi que les 61 investissements hardware , (2) le mode « trésorerie » : les coûts et les gains sont alors des flux financiers, on considère que tout flux de trésorerie doit être compté sur l’année de la dépense ou de la recette. Dans ce cas, le seul exercice d’amortissement concernera l’évaluation du gain ou du coût fiscal (IS) pour lequel il faudra évaluer l’assiette d’imposition, assiette comptable prenant en compte le résultat brut – soit les recettes moins les charges (dont les dotations aux amortissements). L’avantage de la solution (1) est d’inscrire le projet dans une logique d’investissement de l’entreprise, c’est à dire que l’ensemble des investissements est amorti sous forme de charges de dotations, ce qui 62 63 implique un lissage de la courbe d’investissement ; les VAN et TRI sont peu affectés par ce choix en période de taux de marché et d’actualisation faibles. L’avantage de la solution (2) est qu’elle s’apparente au business plan en ce sens que les indicateurs de rentabilité pourront être suivis et pilotés, l’autre avantage est que cette solution s’inscrit dans une logique de flux de trésorerie, logique de cash flow chère aux évaluateurs de société 64 ainsi qu’aux actionnaires puisque participant à la création d’EVA . La seconde solution a également l’avantage, via une courbe d’investissement fortement marquée, d’être « impactante » : elle montre clairement l’importance de l’investissement et le flux de trésorerie induit, cela responsabilise dès lors le sponsor du projet quant à son rôle d’assurer les gains et de mettre en place des outils de suivi. En effet, la solution 2, étant plus financière que comptable, a l’avantage de se référer à des flux traçables de façon tangible - les charges comptables telles que les dotations n’étant pas, elles, matérialisées par un flux monétaire. 2.1.2. Le choix des indicateurs et du mode d’actualisation Le retour sur investissement est communément calculé sur la base de trois 65 ratios principaux constituant le ROI : la VAN, le TRI et le payback. Si de nombreux auteurs se réfèrent systématiquement à ces indicateurs-clés 58 Software = applications logicielles et progicielles j*H (jours-hommes) externes ou internes car l’entreprise peut immobiliser sa masse salariale impliquée sur l’adaptation du système via paramétrage ou développement spécifique tant que le système n’est pas en production (« immobilisation en cours ») 60 Couche progicielle intermédiaire permettant aux applicatifs de communiquer entre eux 61 Hardware = tous les IT materiel (laptops, terminaux, clavier, périphériques, imprimantes, serveurs, écrans) 62 VAN = Valeur Actuelle Nette 63 TRI = Taux de Rentabilité Interne 64 EVA = Economic Value Added® (Stern Stewart) 65 ROI = Return On Investment 59 145 jalonnant l’argumentation financière, d’autres comme André Deyrieux (2003), dépassent la triple dimension financière « VAN/TRI/payback » pour intégrer le projet informatique dans sa dimension de création de valeur pour l’entreprise (l’EVA) sachant que le projet informatique devient alors contributif non seulement pour le client mais également pour l’actionnaire, l’EVA étant un résultat économique après rémunération de tous les 66 capitaux . Ce lien entre la raison d’être du projet CRM et la raison d’être de l’entreprise s’accompagne d’un lien entre le projet et la capacité de l’entreprise à l’assumer pleinement, c’est à dire à exploiter son 67 68 69 investissement : les approches TCO et TVO de Gartner , au-delà d’une analyse classique coûts/bénéfices, estime la valeur future de l’application (pour d’autres applications qui naîtront à terme), ainsi que la capacité de l’entreprise à délivrer une réelle valeur sur la base de l’investissement (tenant à des facteurs comme : l’alignement stratégique, la prise de 70 risques, le payback direct, l’architecture, les business process) . La VAN est la somme des soldes actualisés soit la plus-value du projet à valeur actuelle. Elle constitue un montant en euros et participe d’une dimension commerciale et créatrice de valeur : la VAN est une somme pouvant atteindre des millions d’euros, elle « étonne », elle « fait rêver » puisqu’elle occulte l’hypothèse de durée et de qualité de la rentabilité. La VAN est une promesse, un « gros lot ». On rappelle que VAN = Σ i=0àn Fi / n (1+r) (sachant que Fi = flux annuel de trésorerie de l’année « i » et r = taux d’actualisation). Le TRI est le taux de rentabilité du projet en pourcentage. Contrairement à la VAN, il est plus difficile à appréhender car il est, dans le cas des projets informatiques, tellement élevé qu’il en paraît « suspect » (des taux de 300% à 700% sont fortement imaginables – notamment lorsque des gains proviennent de restructurations et bénéficient alors d’un impact « positif » d’économie de coût de masse salariale). Le TRI correspond davantage à la logique rationnelle de l’entreprise comme unité d’investissement car pouvoir évaluer la rentabilité des projets permet au décideur de hiérarchiser ses investissements et surtout de confronter ses investissements opérationnels (pour accroître l’exploitation) à ses investissements financiers (pour générer des produits financiers). En 66 STERN JM, STEWART GB & CHEW DH, The EVA Financial Management System, in journal of applied corporate finance, summer 1995, vol 8, n°2, pages 43-45 67 TCO = Total Cost of Ownership soit le coût total d'utilisation de l'informatique 68 TVO = Total Value of Opportunity, ce ratio mesure la valeur économique de l'entreprise générée par l'investissement informatique en tenant compte des problèmes d'incertitude liés au temps d'appropriation et à la faculté de l'entreprise, selon son organisation, à convertir la valeur potentielle d'un projet en valeur économique réelle. 69 GARTNER GROUP, Gartner Business Performance Framework™ 70 DEYRIEUX, André, Le système d’information : nouvel outil de stratégie, Maxima, 2003, page 29 146 revanche, certains inconvénients sont reprochés au TRI comme la surévaluation (puisqu’il suppose que les flux positifs annuels sont réinvestis au même taux alors qu’ils le seraient sûrement au taux du marché) et l’impossibilité d’indépendance (il ne peut être un critère de choix à part 71 entière) . On rappelle que TRI = r VAN = 0. Le payback est le nombre d’années ou de mois au bout duquel on récupère sa mise de fond. Cet indicateur intéresse typiquement le Directeur Financier de l’entreprise puisque plus faible est le payback, plus vite l’investissement se rentabilise et plus probable le gain en résulte. Le payback est invariablement corrélé à la vision court termiste de l’entreprise d’aujourd’hui et à sa conscience des risques. Son inconvénient majeur est de privilégier la liquidité à la rentabilité, ce qui ne peut que nuire à la création de valeur à long terme puisque l’exclusivité de cet indicateur laisse supposer des taux d’actualisation infinis, et de limiter la création de valeur 72 à long terme . Moins utilisé dans le cadre des business cases, l’indice de profitabilité (somme des flux actualisés / dépense initiale) tend à privilégier les incertitudes puisqu’il va favoriser les petits projets à grandes ambitions… 73 En revanche, l’intérêt de ce taux est qu’il renoue avec le suivi du ROCE (cher aux actionnaires et aux investisseurs) sachant que ROCE = REX/AE 74 = REX/CA x CA/AE , c’est à dire : profitabilité et exploitation des capitaux. En effet, l’indice de profitabilité indique que les investissements seront bien exploités, c’est à dire pertinents par rapport à l’activité de l’entreprise. Selon Buttrick (2006), « les bénéfices consistent à gagner plus d’argent, à utiliser des ressources et des actifs existants plus efficacement et à rester dans la course. Les motivations sont souvent définies par des mots tels que « croissance », « efficacité », « protection », « demande ». Ils reflètent 75 l’éternel centre d’intérêt d’une entreprise. » Le business case devient le lien entre la raison d’être du projet et la raison d’être de l’entreprise. Le ROI fondé sur les trois critères « VAN, TRI et payback » gagne donc en crédibilité puisqu’il devient le langage commun entre les business units orientées vers le développement et les acteurs financiers – internes et externes – cherchant à fiabiliser les investissements et à minimiser les 71 GILLET, Roland, Finance : Finance d'entreprise - Finance de marché - Diagnostic financier, Dalloz, 2003, page 33 72 Ibid 73 ROCE = Return on Capital Employed 74 AE = Actif Economique 75 BUTTRICK, Robert, Gestion de projets, 3° Edition Village mondial, 2006, page 317 147 risques pris par l’entreprise afin de pallier le déséquilibre entre la nécessité 76 des projets et la limitation du capital et des ressources. La question de ces indicateurs, notamment la VAN et le TRI, pose la question du choix du taux d’actualisation, celui-ci déterminant le taux de rentabilité, qui est assimilé (1) au coût de l’argent (coût d’opportunité du 77 capital), (2) au coût du financement, (3) à l’inflation, (4) au taux d’EBITDA moyen du secteur, (5) à la rentabilité cible de l’entreprise, (6) à une combinaison des items décrits ci-avant. Ces indicateurs étant pléthoriques, on leur préfèrera l’assimilation du taux d’actualisation à un « taux de 78 préférence pour le présent sur le futur ». Le business case portant sur plusieurs années (3, 5, 10), il est important d’actualiser les flux (1) soit au niveau de chaque poste, (2) soit au niveau du solde. Il apparaît que 5 ans constituent maintenant une durée maximale pour un business case sachant que les solutions SI voient également leur durée de vie raccourcie par des environnements instables et des langages fortement évolutifs. L’actualisation « poste par poste » doit intégrer l’effet volume (tendance du marché) et l’effet prix (inflation et tendance haussière/baissière) ; les postes de masse salariale doivent être inflatés selon la politique RH de l’entreprise, les postes d’achats et charges externes doivent être inflatés a minima de l’inflation. Au niveau des coûts, les coûts ne seront pas inflatés si la valorisation est comptable, tandis que si la valorisation est financière, l’inflation portera sur les coûts récurrents sachant qu’en cas de coût contractuel (maintenance, support, hot-line…), ce sont les règles de révision de prix du contrat qui primeront. D’autres indicateurs apparaissent dans certains ouvrages comme (1) la VE (viabilité économique) = gains – coûts, (2) le ROI = ((variation des recettes + variations des économies – coûts de fonctionnement) x nombre d’années / coût de mise en place) x période, (3) le GER (gain d’efficacité relative) = rendement prévu / rendement actuel x 100, (4) le rendement = résultat 79 financier / coûts de fonctionnement . Si ces indicateurs sont recevables, il n’en résulte pas moins que seule la VAN constitue le ratio financier consacré et communément admis. Intervient également la probabilité de réalisation des gains : la valeur d’un projet est certes sa contribution à la rentabilité de l’entreprise mais 76 WOODCOCK, Neil. Customer Management Scorecard : Managing CRM for Profit, Kogan Page, Limited, 2003, page 163 77 EBITDA = Earnings before interests, taxes, dotation on Amortization 78 POULON, Frédéric, Economie générale 5ème Edition, Dunod, 2005, page 229 79 Conduire un projet d’organisation – Henri-Pierre Maders, Elizabeth Gauthier, Cyrille Le Gallais, éditions d’organisation, 3° édition, 2004, page 239 148 c’est surtout la probabilité que les objectifs soient atteints qui va lui conférer la crédibilité nécessaire pour le choix d’investissement. Le calcul de la probabilité de réalisation peut être intuitif ou quantifié, l’idée principale étant qu’il est toujours plus aisé d’atteindre les objectifs de réduction de coûts que des objectifs d’accroissement du chiffre d’affaires (car les réductions de coûts dépendent davantage des actions managériales tandis que les augmentations de chiffre d’affaires sont tributaires du marché et autres 80 aléas externes), cette approche probabiliste rejoint la notion de TEI . Pourtant, la mise en place de ces indicateurs achoppe sur l’exigence d’empirisme : « en général, les entreprises parviennent assez bien à bâtir des règles de calcul, trouver les bons indicateurs, démêler les chiffres et les faire parler. En revanche, ce qui n'est pas suffisamment mesuré, ce sont les gains qualitatifs : impact sur l'image de l'entreprise, amélioration du climat social grâce à la réduction des conflits à gérer avec les clients, etc. Les méthodes et indicateurs manquent encore pour y parvenir alors que le 81 besoin est criant. » 2.2. La problématique de la modélisation des gains 2.2.1. La difficulté à classifier les gains Tandis que les coûts inhérents à la mise en place d’un projet CRM au sein d’une entreprise sont relativement identifiables 82 (licences/maintenance/développement/paramétrage/formation, AMOA , 83 MOE déléguée, coûts de restructuration ainsi que les coûts indirects administratifs, le coût de l’effet d’expérience, le coût social, les coûts d’embauche…), les gains, en revanche, sont bien plus complexes à cerner puisque la plupart du temps en lien avec les problématiques stratégiques de la valeur client, du réachat et du chiffre d’affaires lissé sur le temps pour un client fidèle. Les gains issus d’un projet CRM sont de différentes natures selon les projets, les clients et les analystes. Plusieurs dimensions se détachent : (1) tangibles / intangibles, (2) financiers / non-financiers, (3) quantitatifs / qualitatifs. Il est à noter le caractère binaire du classement des gains : ils 80 TEI = Total Economic Impact. Au calcul traditionnel des coûts et des réductions de coûts s'ajoutent celui des bénéfices métier et la prise en compte de la flexibilité. Le tout évalué au travers du prisme de l'incertitude. Une fois le chiffre déterminé, il est réintroduit dans le calcul du ROI classique. 81 http://www.journaldunet.com : Jérôme DELACROIX (Cooperatique) : "Les méthodes et indicateurs manquent pour déterminer le ROI d'un projet CRM" 82 AMOA = Assistance à Maîtrise d’Ouvrage Déléguée (maîtrise d’ouvrage externalisée auprès d’un Cabinet, elle « fait faire », c’est à dire pilote la réalisation du système et le recette) 83 MOE = Maîtrise d’œuvre (elle « fait », c’est à dire développe et teste le système) 149 sont calculables ou non. Ceci est relativement paradoxal pour plusieurs raisons : (1) le terme « calculable » peut être appréhendé dans un sens logique (A + B = C), scientifique (A + B = C, mais A n’est pas forcément vrai ou seulement probable donc C n’est pas une réponse recevable) ou éthique (A + B = C mais A ne doit pas être calculé), (2) le terme « financier » est complexe à identifier car ce terme peut être admis dans sa dimension comptable (frais financiers dans le compte de résultat) ou « trésorerie » (flux financier), (3) le « qualitatif » peut être « quantitatif » à l’heure où la pollution, la corruption… sont chiffrés par des organismes internationaux, charge à l’entreprise d’investir en outils et en ressources pour savoir poser ses hypothèses et, dès lors, parvenir à chiffrer le qualitatif. Rappelons en effet que « les bénéfices tangibles sont souvent ceux qui sont les plus difficiles à traiter… pour certains managers, tous les bénéfices doivent être tangibles, et si un projet n’en a pas, alors il ne doit 84 pas être entrepris » Apparaît également la classification des gains selon les axes « quantifié » / « validé », ce qui présente l’avantage de différencier les moyens des résultats et d’extraire le business case de son rôle d’outil de gestion vers celui d’outil de pilotage managérial. Les gains sont alors : (1) les bénéfices 85 quantifiés et validés dans le cas financier (ventes additionnelles et CA de nouveaux produits), (2) les opportunités identifiées, non quantifiées et/ou validées (simplification de procédures douanières et réglementaires), (3) les bénéfices quantifiés non financiers (taux de satisfaction client), (4) les bénéfices non financiers non quantifiés (augmentation de l’efficacité 86 commerciale par motivation des vendeurs). De même, « utiliser le terme de « bénéfices non-monétaires » dans une pièce remplie d’examinateurs ne peut qu’affaiblir le soutien donné à votre business case. « Non-monétaires » signifie que soit les bénéfices sont peu probables, soit que personne ne sait quelle valeur financière leur accorder. Certaines personnes estiment en fait que seuls les bénéfices « monétaires » comme les épargnes de coûts, les coûts évités et les flux de trésorerie en hausse constituent le dossier financier. Il est plus sage, je crois, de considérer que toute contribution à un important objectif financier 87 est un bénéfice en soi, et appartient au business case. » En fait, l’unique dimension qui permettrait de différencier les gains serait la probabilité qu’ils surviennent. Cet exercice actuariel permettrait d’identifier les gains probables (car liés à des actes managériaux comme le licenciement, la restructuration, l’augmentation tarifaire, la substitution d’un 84 BUTTRICK, Robert, Gestion de projets, 3° Edition, Village mondial, 2006, page 320 CA = Chiffre d’Affaires 86 http://www.tracenews.info 87 Ibid. 85 150 coût par un autre moins élevé…), les gains moins probables (volumes cibles, corrélation entre CA et fidélité…). Cette unique dimension permettrait alors de simplifier la question du classement des gains puisqu’un coefficient pondérateur minimiserait alors certains gains par leur probabilité faible. Dans ce cas, les natures de gains n’auraient plus lieu 88 d’être et le débat managérial autour de la recevabilité du business case deviendrait un « faux problème » ou, du moins, une question toute relative. Outre la dimension de la probabilité, une autre dimension est applicable à la réflexion sur la nature des gains : la proximité. En effet, les gains sont plus ou moins imputables au projet, on peut alors parler de gains directs et indirects voir de retombées positives. Ce niveau de causalité directe du gain pourrait également donner lieu à l’exercice d’une pondération. 2.2.2. La déclinaison des gains comme augmentation de recettes Le business case évalue d’une part les impacts positifs du projet à l’externe : (1) impacts sur la satisfaction client (le client est mieux servi, mieux appréhendé, il est dès lors valorisé et apprécie l’entreprise ainsi que la constance de son traitement d’après un esprit de justice et de justesse, un client satisfait devient prescripteur et dès lors commercial de l’entreprise), (2) impacts sur la valorisation de l’entreprise (l’investissement dans un projet CRM rassure les investisseurs quant à l’effort produit par l’entreprise en termes de dynamisme commercial et, partant, de garantie de pérennité et de rentabilité), (3) impacts sur l’image de l’entreprise alors renforcée par le projet (image de technicité, de dynamisme, de réactivité au changement, d’entreprenariat) et d’autre part les impacts positifs du projet en interne : (1) impacts sur la satisfaction du personnel (le personnel se sent valorisé par le fait de participer à un projet : sentiment d’être écouté et de bénéficier de ses résultats (d’où un gain en efficacité et un sentiment de professionnalisation), (2) impacts sur le management : possibilité de mettre des collaborateurs en situation de contribution à un projet, d’encadrement d’où possibilité de détecter les potentiels, (3) impacts sur l’image des Directions Marketing-Vente au sein de l’entreprise (image renforcée par le projet : image de technicité, de dynamisme, de réactivité au changement, d’entreprenariat). Corrélativement, un projet CRM influe sur la valeur client par différents biais : la pérennisation de la valeur client, la fidélisation (système de points, liste de privilèges…), la rétention financière (compte client, facilités de paiement), l’augmentation et l’amélioration des contacts avec les clients (offres personnalisées). De plus, le projet CRM étoffe la valeur client 88 On entendra par « recevabilité », la recevabilité logique du business case mais pas forcément sa capacité à être voté 151 (élargissement du périmètre d’achat du client via les offres modulaires et intégrées, élargissement du potentiel d’achat du client et vise une customisation de l’offre : offre personnalisée, reprise des données historiques et caractéristiques, offre intégrée et modulaire, pricing réactif, politique immédiatement appliquée par SI). L’ensemble de ces postes de gains doit être considéré lors de l’exercice de modélisation et de chiffrage du business case. 2.2.3. La déclinaison des gains comme économies de coûts Tout d’abord, lorsqu’un chiffre d’affaires additionnel est attendu (CA additionnel dû à de l’up-selling, du cross-selling, un nouveau positionnement prix, une amélioration du taux de pénétration, de couverture ou de conversion…), il faut valoriser la marge qu’il rapporte (puisque le CA additionnel va drainer, de fait, des coûts additionnels). La marge valorisée sera (1) brute, (2) opérationnelle ou (3) nette (savoir si le business case doit présenter un solde équivalent à une marge 89 commerciale, opérationnelle, brute, nette ou un EBE constitue un autre axe d’orientation financière ; le plus important étant de choisir un indicateur pertinent, intuitif et exploitable pour les opérationnels) et il s’agira de mesurer les économies d’échelles potentiellement réalisables sur des volumes plus importants (coûts variables liés au CA additionnel) ainsi que les éventuels paliers supplémentaires de coûts fixes qui vont être franchis. Ensuite, le calcul du CA additionnel se fonde sur une extrapolation à partir de l’historique des ventes, lequel a pour principales caractéristiques : (1) de ne se composer que de valeurs connues et calculées, le business case se fondant sur du réel stable, (2) d’être représentatif de ce que l’on cherche à calculer (différence entre entrée de commande et vente), (3) d’être homogène dans le temps (stabilité des méthodes de calcul et des périmètres), (4) de comprendre un nombre minimal d’observations (dans une activité à forte saisonnalité, l’historique doit être de 4 ou 5 ans, de 3 ans pour des prévisions à 6/12 mois). Les calculs de base sont : (1) la moyenne (de préférence mensuelle en contexte de forte saisonnalité, mieux vaut la coupler avec l’écart-type pour analyse de significativité, est parfois préférée la médiane car plus représentative du réel) et (2) la dispersion (variance, écart-type et coefficient de variation : prévisions faciles pour un coefficient de variation inférieur à 0,5). Les analyses à effectuer sur l’historique avant tout calcul sont (1) la détection des valeurs anormales (détection par intuition, par intervalle de 89 EBE = Excédent Brut d’Exploitation 152 confiance, par test de moyenne, par régression), (2) la correction des valeurs anormales (correction humaine, par intervalle de confiance, par reprise de valeur t-1), (3) la détermination d’une tendance (droite de tendance par moyenne mobile ou par régression), (4) la détection des saisonnalités (tests de saisonnalité, observation en t et t-1, correction de jours ouvrables, calcul de la moyenne de la série corrigée des variations saisonnières). Les principes du lissage sont (1) la dévalorisation croissante de l’information (plus une information est ancienne, moins il faut lui accorder l’importance dans le calcul de la prévision), (2) la synthèse des informations (mieux vaut effectuer des calculs prévisionnels sur un nombre restreint de valeurs déjà condensées), (3) la réactualisation permanente des paramètres (les paramètres sont repris selon la même périodicité que celle de l’arrivée des informations). Corrélativement, peuvent être appliquées les méthodes de lissage exponentiel telles que (1) le lissage simple (formule simple mais défaillance lors de l’existence d’une tendance, ce qui est courant dans les cycles économiques de vente), (2) le modèle de Brown (lissage double : cette formule permet d’assimiler la notion de tendance mais conserve l’écart temporel entre réalisation et prévision et tend à amplifier fortement la tendance liée à la dernière observation), (3) le modèle de Holt-Winters (modèle le plus utilisé dans la prévision des ventes, le lissage de Holt-Winters présente l’avantage d’intégrer une composante saisonnière et donc de réaliser le calcul de la prévision en un 90 seul traitement ). Enfin, la méthode d’analyse de corrélation peut avoir lieu après les simulations et permet de justifier les anticipations effectuées notamment au niveau des gains potentiels, via (1) la corrélation (mettre en œuvre un projet influe sur le niveau des ventes ; une causalité est donc à définir en terme d’impact sur les volumes et dans le temps en tant que facteur additionnel ou multiplicateur) et (2) le coefficient de corrélation linéaire qui permet, non d’établir une causalité, mais pour le moins d’observer une convergence des tendances (une corrélation est significative entre 0,7 et 1 et entre -0,7 et –1). Les tests de corrélation permettent, a posteriori, d’évaluer la cohérence entre les coûts induits par un projet et l’augmentation des ventes qui en découle (augmentation nette épurée de la tendance globale hors projet). La diversité des indicateurs de la performance financière du projet et des méthodes d’évaluation des gains qui lui sont liées permet de valider, dans 90 EVANS, Michael, Practical Business Forecasting, Blackwell Publishing, 2002, page 203 153 le cas présent du projet CRM, l’implication du Marketing dans les problématiques financières et stratégiques de l’entreprise (soit H1). 3. Validation de H2 : « le business case inscrit le marketing dans la problématique managériale de l’entreprise » 3.1. Le business case comme multiplication des possibles Le business case n’est pas une simple prouesse mathématique et rhétorique, il constitue la somme des spéculations qui permettent au chef de projet CRM d’accompagner le Comité Exécutif dans son exercice de projection dans l’avenir, c’est à dire de visibilité sur la pérennité de l’exploitation. 3.1.1. La novation comme fondement du business case La créativité est un principe de réussite du business case. Elle permet de composer des scénarios divers au vu d’une situation donnée, or un bon business case doit ouvrir l’univers des possibles afin de permettre aux instances décisionnelles (1) de balayer l’ensemble des solutions pour 91 choisir la meilleure, (2) d’anticiper les gains, savings , risques et coûts probables, (3) de faire des prévisions à long terme (en développant leur esprit d’anticipation) et (4) de mieux définir les solutions pour mieux les apprécier. La novation passe par une ouverture cognitive de l’entreprise dans son exercice de modélisation comme : (1) le « brainstorming », (2) le « benchmarking », (3) la « veille technologique » (Business Intelligence, Intelligence Economique). Elle constitue un des leviers de négociation qui permet d’aboutir à un accord. En effet, la novation « procède d’une transformation du problème, objet de la négociation, préfigurant ainsi les 92 conditions d’une résolution créative de la divergence. » il en résulte que le business case, lorsqu’il est novateur, peut redéfinir les modalités d’appréciation des projets par le Comité de Direction. Le business case force également le chef de projet à « challenger » les 93 capacités de l’entreprise (« capabilities » dans le texte), c’est à dire ses moyens, ses actifs. Le business case défie alors l’entreprise dans 91 savings = économies de coûts BELLENGER, Lionel, La négociation, PUF, 1984, page 23. 93 Bligh, Philip, CRM Unplugged : Releasing CRM's Strategic Value, Hoboken, John Wiley & Sons, Incorporated, 2004, page170 92 154 l’exploitation de son potentiel capitalistique et humain au service de l’accroissement de son activité. 3.1.2. La gestion de scénarios L’élaboration du business case doit être déclinée selon différents paramètres (les hypothèses). En effet, le business case s’inscrit dans la tendance actuelle de gestion de scénarios. Apparue au sein des pratiques managériales au fil de la complexification de l’environnement concurrentiel, cette gestion de scénario répond aux théories du chaos, c’est à dire aux principes d’autonomisation, de flexibilisation, de projection temporelle et 94 stratégique de l’entreprise , à la vision du manager comme « bricoleur / 95 arrangeur / ajusteur » , au principe de plasticité face à l’univers des 96 possibles et aux théories évolutionnistes de l’entreprise post97 hiérarchique . Concomitamment, le Risk Management apparaît comme une dimension incontournable du pilotage de l’entreprise – mais également des projets SI – via les principes de la gestion de portefeuille de risques et de gestion de crise. Le risque n’est plus un aléa effrayant mais un véritable outil de différenciation en univers concurrentiel. Haimes (2005) distingue notamment le risque technique (de ne pas atteindre les critères de 98 performances attendus) du risque programmatique (de dépasser le budget ou de ne pas tenir le planning) liés aux projets SI. Au-delà de cette déclinaison de l’avenir en différentes situations à affronter (ou, du moins à appréhender), est apparue la notion de « scénario catastrophe », lors de l’élaboration des business cases présentés aux Comités de Direction afin de les rassurer quant à l’existence d’un plan de sauvetage qui prouve la capacité de l’entrepreneur à se préparer au pire. La logique de scénario permet de challenger les solutions potentielles tout en rassurant les instances décisionnelles sur le fait que l’ensemble des possibilités a bien été balayé. 3.2. L’approche pragmatique et opérationnelle du business case 94 LAZLO, Christopher & LANGEL, Jean-François, La dynamique du chaos, Editions d’organisation, 1998, page 17. 95 BADOT, Olivier, Turbulence, chaos et décapitalisation sur le futur, in Stratégies d’Incertitude, dirigé par Bernard Cova et Sylvain Ickham, Economica, 1996, page 55 96 PAILLARD, J, Réflexions sur l’usage du concept de plasticité en neurobiologie, in Journal de Psychologie n°1, janvier-mars, 1976 97 MILLS, Quinn, L’entreprise post-hiérarchique, InterEditions, 1994, page 69 98 HAIMES, Yacov Y. Risk Modeling, Assessment, and Management, John Wiley & Sons, Incorporated, 2005, page 596 155 Si le business case rassure car répondant aux exigences épistémologiques de scientificité et d’éthique de recherche (qualité des sources, jeu des hypothèses, analyse des scénarios), il ne constitue pas pour autant une panacée au niveau managérial et surtout au niveau de la réalisation du scénario choisi. En effet, « La rationalité de la décision ne favorise ni la motivation, ni l’engagement des acteurs, mais à l’inverse l’enthousiasme ne garantit pas le succès. Pris entre les exigences contradictoires de la rationalité de la décision et de la rationalité de l’action, le manager doit donc éviter, tout à la fois, de se fourvoyer par inadvertance et de s’enliser faute d’énergie. Autrement dit, un processus de décision, pour être effectif, doit articuler de façon équilibrée rationalité de la décision 99 et rationalité de l’action. » 3.2.1. Les logiques comparatives et différentielles Il est important de noter que le business case n’est ni une fin en soi, ni un outil objectif permettant d’affirmer ce que va être la réalité. Le business case ne vaut que s’il permet de comparer des situations : (1) soit comparer la rentabilité des projets au sein d’un portefeuille de projets, (2) soit comparer les différents scripts de réalisation d’un même projet (des « variantes »). C’est lorsqu’il sert d’outil comparatif que le business case gagne tout son sens puisque, les hypothèses et les modes de valorisation étant similaires, les écarts deviennent plus exploitables que les résultats eux-mêmes et deviennent des indicateurs permettant de piloter l’activité projets (hiérarchiser les projets au sein du portefeuille, arbitrer entre des solutions internes ou outsourcées). Deux logiques différentielles sous-tendent l’élaboration du business case : (1) la logique différentielle de gestion et (2) la logique différentielle de situation. (1) Le business case se départit du compte de résultat puisqu’il n’intègre pas l’ensemble des produits et charges de l’entreprise mais uniquement le différentiel des produits et des charges induits par le projet (les gains et les pertes supplémentaires), il en résulte que le business case favorise l’analyse des charges et des produits d’exploitation (vs financiers ou exceptionnels). (2) Le différentiel doit non seulement avoir lieu entre la situation cible par rapport à la situation actuelle mais ce différentiel doit perdurer dans le temps, ce qui suppose avant tout exercice d’élaboration de business case, la valorisation du scénario « S0 » : « comment évolueront les gains et les pertes si le projet n’a pas lieu ? » Toute valorisation du scénario S sur x années sera donc le différentiel entre les gains et les pertes de S – S0 sur les x années. 99 BRUNSSON, Nils, « Concevoir, dire et faire : Éloge de la déliaison », in CHARREIRE, Sandra, Les grands auteurs en management, EMS Editions, 2002, page 186 156 En effet, les questions centrales de la logique différentielle perdurent : « Si l’entreprise ne réalise pas ce projet, sa valeur économique de marché va-telle décroître et de combien ? Sa baisse de valeur va-t-elle se produire 100 dans six mois, un, deux, cinq ans ? On notera le caractère permanent de ces questions qui rappellent que le changement devient l’unique réponse pérenne que l’entreprise peut apporter à l’accélération des évolutions du monde et des marchés sur lesquels elle intervient. L’analyse différentielle correspond à la vision organiste et biologique de l’entreprise. C’est en ce sens que Sharp (2002) énonce que la mesure du 101 ROI doit être une activité continue (« ongoing » dans le texte). 3.2.2. de l’outil théorique à l’outil de pilotage Le business case n’est ni « pur scientifiquement », puisque empirique et pragmatique (il s’agit de produire de l’information probable en tentant de la contextualiser au maximum à travers des hypothèses et des risques) ni « figé temporellement » (il doit être réajusté au fil du temps, des événements et des informations entrantes). Outil de communication et de préparation de la décision, il doit être alimenté en informations, ce qui nécessite un esprit de recherche et d’investigation auprès des autres services de l’entreprise et auprès de sources externes. Son suivi doit se faire de deux façons : via (1) le suivi des moyens et (2) le suivi des résultats. (1) Le suivi des moyens doit vérifier qu’à isopérimètre les mesures managériales ont été prises conformément à ce qui était prévu dans le business case (augmentation ou réduction d’effectifs, négociation des contrats (licences, maintenance, prestation), abandon des processus antérieures et bonne application des processus cibles, nouveau positionnement prix). (2) Le suivi des résultats doit vérifier que les prévisions de gains et de pertes additionnels se réalisent. Via la comptabilité analytique et via le lissage des effets volumes ou prix non induits par le projet, le contrôleur de gestion doit pouvoir suivre la contribution du projet à la rentabilité de l’entreprise. Le suivi des résultats peut également être d’ordre qualitatif (enquête de satisfaction clients, panier moyen, fidélisation, enquête de satisfaction salariés, notoriété…). Dans ce cas, le même exercice de lissage des résultats sera à mener. 100 http://www.tracenews.info (Propos recueillis de Jean-Luc LEBASCLE Professeur au Mastère International Logistique de l’ESSEC, Directeur Associé du Cabinet ASCA – LOGINOV) 101 SHARP, Duane, E. Customer Relationship Management Systems Handbook, Boca Raton, FL, USA: Auerbach Publishers, Incorporated, 101 http://www.tracenews.info (Propos recueillis de Jean-Luc LEBASCLE Professeur au Mastère International Logistique de l’ESSEC, Directeur Associé du Cabinet ASCA – LOGINOV) 2002, page 226 157 A noter que le pilotage et le suivi de la réalisation du business case demeurent délicats – (1) la transversalité complexifie le suivi des gains et le pilotage (les données concernant les coûts des investissements sont connues du DSI, alors que les données relatives aux revenus ou à la valeur du système d’information sont éparpillées dans un grand nombre de 102 processus et appartiennent aux business units ), (2) ces projets ne cadrent pas avec la logique budgétaire (ils sont potentiellement décalés par rapport aux exercices comptables et aux processus budgétaires), (3) les entreprises menant plusieurs projets de front, il devient alors très 103 difficile d’isoler les gains liés au projet . Enfin, il apparaît que « les critères quantitatifs de retour sur investissement ont malheureusement plus été des éléments de justification du projet CRM, vite oubliés lors de la mise 104 en oeuvre. » le jeu entre théorie et pratique continue d’alimenter le doute quant à l’exploitabilité du business case par les opérationnels. La validation de l’hypothèse 2 s’inscrit dans la pensée du risk management de Cleary (2006) qui lie fondamentalement risque, retour sur investissement, innovation et incertitude et qui stipule que « la volonté d’assumer des risques a tiré le progrès humain vers le haut mais la capacité d’évaluer et de gérer correctement des risques n’est devenue une 105 préoccupation que depuis trois cents ans environ. » 4. Validation de H3 : « le business case inscrit le marketing dans la problématique entreprenariale de l’entreprise » 4.1. Le business case comme paradigme argumentatif Un site Internet de prestations de formation pour élaborer des business case pour des projets SI relate ceci : « Ceux qui participent à nos séminaires Business Case nous parlent souvent des commentaires acerbes qui leur sont faits : « Vous avez omis d’importantes unités de coûts », « Votre dossier est presque entièrement fondé sur des bénéfices non-monétaires », « Les résultats auxquels vous arrivez dépendent 106 d’affirmations hasardeuses et risquées » ». 102 DEYRIEUX, André, Le système d’information : nouvel outil de stratégie, Maxima, 2003, page 24 103 DELAFARGUE, Bertrand, Repenser le pilotage de l'entreprise : Réconcilier la vision stratégique et l'action, Paris, Maxima, 2006, page 75 104 SAINT CAST, Nicolas. Organiser sa relation client aujourd’hui : Le CRM nouvelle manière, Maxima, 2003, page 67 105 CLEARY, Sean, Risques : Perception, évaluation, gestion, Maxima, 2006, page 18 106 http://fr.solutionmatrix.com 158 Cette énumération de reproches et de questions n’est pas sans rappeler le processus d’évaluation scolaire d’un raisonnement hypothéticodéductif. Ce caractère didactique et scientifique du business case s’affirme d’autant plus à travers l’exigence de la qualité et de la recevabilité des données sources : l’ITRG (2003) qualifie l’établissement des gains 107 comme un travail précis, juste et exact (« accurate » dans le texte), réalisable (« attainable » dans le texte) et applicable à l’organisation. 4.2. Le business case comme levier politique et diplomatique L’IRTG (2003) pose la question du moment propice pour la 108 présentation du business case face à un Comité Exécutif en expliquant que l’exposé du business case au début de la présentation tend à « élever » le débat puisqu’il aura attrait aux problématiques marketing de positionnement, de segmentation et de lancement produit tandis que l’exposé en fin de présentation tend à mettre en avant la solution SI préconisée pour le projet. Il en résulte une dimension politique et diplomatique du business case qui, selon l’utilisation que le manager peut en faire, va tantôt lui permettre de capter l’attention du Comité a priori en l’abordant sur le thème de la création de valeur, tantôt lui permettre de renforcer son argumentation a posteriori. 4.2.1. Le business transversalité case comme acte d’ouverture et de La transversalité nécessaire du business case force le chef de projet à s’ouvrir aux autres Directions de l’entreprise. Les postes de gains et de pertes doivent être discutés voire négociés, ce travail doit fédérer ou définitivement mettre en lumière les dissensions afin de faciliter les arbitrages. L’avantage de cet exercice est que plus les objectifs, les risques et les postes de gains et de pertes vont être partagés et affinés par les Directions, plus le périmètre du projet sera clair (ce qui n’est pas sans conséquence sur sa probabilité d’aboutir) et plus l’adhésion et la mise en production sera facilitée car portée par la ligne managériale. C’est en ce sens que le business case est une approche structurante se rapprochant de la normalisation ISO, puisque chaque poste de gains et/ou de coût nécessitera un pilote dont le rôle sera de vérifier que les moyens à déployer pour accompagner le projet et les résultats escomptés sont bien là. En extrapolant, il est possible de re-situer le business case dans 107 108 ITRG, Making the Case for Software Acquisition, ITRG, 2003, page 4 Ibid 159 l’approche budgétaire six sigma comme préalable objectivant à toute 109 action d’amélioration au sein de l’entreprise. 4.2.2. Le business case comme langage objectivant partagé entre tous les maillons de la hiérarchie Le business case se fonde sur les principes de la dialectique (hypothèse, argumentation, résultat) et permet ainsi de donner toute une consistance et un caractère imparable au discours managérial qui gagne en objectivité et en universalité à quelque maillon hiérarchique que ce soit (associé, directeur, manager, employé) et dans quelque domaine que ce soit (opérationnel, managérial, social). « L’accent mis sur la performance financière du système d’information demande que le DSI endosse aujourd’hui un nouveau rôle. Aux États-Unis, 110 non seulement la majorité des CIO reportent aux CFO (Chief Financial Officer) mais certaines entreprises mettent un financier au poste de CIO. Une grande entreprise sur cinq n’hésite pas à créer la fonction de CFO du département IT. Ceci dans le but affirmé de rationaliser les dépenses en technologies de l’information, mais aussi d’améliorer la communication 111 entre le CIO et les business units. » Ce rapprochement entre SI et Métiers s’inscrit dans un mouvement plus général de vulgarisation de l’informatique au sein de la société. En spécifiant que 78% des consommateurs sont susceptibles de cesser leurs achats au sein d’un 112 magasin victime d’intrusions informatiques , Mac Nulty (2007) met le doigt sur un phénomène notable qui renforce les liens entre le consommateur et l’entreprise : leur maturité par rapport à l’informatique en général. L’informatique orientée vers les particuliers a désacralisé l’avantage technologique que l’entreprise conservait sur le client, d’où le besoin constant d’innover afin de préserver ses atouts différenciateurs pour une entreprise sur son marché. Ce phénomène accentue le besoin de hisser l’informatique à un niveau stratégique au-delà même des questions de sécurité et de continuité de l’exploitation, c’est à dire comme facteur différenciant et créateur de valeur pour l’offre et le client. Le DSI devient donc un facilitateur d’innovation mais confie parfois le choix final à une Direction Opérationnelle porteuse de cette innovation sur le 109 PILLET, Maurice, Six Sigma, Comment l’appliquer, Editions d’Organisation, 2004, page 411 110 CIO = Chief Information Officier 111 DEYRIEUX, André, Le système d’information : nouvel outil de stratégie, Maxima, 2003, page 26. 112 McNULTY, Eric, Harvard Business Review sept.-07,vol 85 n°9, Boss, I think Someone Stole Our Customer Data, Pages 37-50 160 marché : « l’important est d’amener les utilisateurs à élaborer une liste de critères, à les hiérarchiser, et donc à effectuer un premier classement des offres sur la base de données objectives : le DSI n’a plus la prérogative du choix final. Grâce à cette approche méthodologique, les choix reviennent à 113 ceux qui vont mettre en oeuvre les projets, et les utiliser. » Une limite à cette interaction entre les instances dirigeantes et les chefs de projets est soulignée par Berdugo (2004) qui entrevoit la méfiance que pourrait ressentir le dirigeant de l’entreprise face aux outils financiers présentés par la DSI : « bien qu’utile, cet outil semble voué au scepticisme : des dirigeants d’abord, habitués à voir l’informatique comme un instrument, et des financiers ensuite, qui pourraient y voir une 114 manœuvre destinée à donner une fausse impression d’excellence. » Le terme d’excellence fait d’ailleurs référence à la dimension sociale des milieux financiers dont l’ésotérisme des méthodes et calculs est à mettre en regard avec l’ésotérisme technique et technologique des DSI. 4.2.3. Le business case comme outil de création d’entreprise Si le business case et le business plan s’opposent sur certains aspects (Cf. partie 1.4), il apparaît, en revanche, que ces deux pratiques managériales répondent à la même exigence d’esprit entreprenarial : « S’il est important ou très novateur par rapport au métier habituel de la firme, un projet nouveau à l’intérieur d’une entreprise déjà existante impose les mêmes 115 exigences et contraintes qu’une création pure d’entreprise ». Cela signifie que le stress et l’incertitude interviennent dans cet exercice de projection temporelle en avenir incertain. Poulon (2005) analyse la fonction du doute dans la décision d’investissement en opposant son caractère impalpable et indéfinissable à l’exercice objectivant et scientifique du business case : « la « fonction d’anticipation » des entrepreneurs est fondamentale puisque c’est elle qui commande l’investissement. Mais vouloir la connaître avec précision est une gageure, parce qu’elle nous plonge au plus profond de l’incertitude qui pèse en réalité sur les entrepreneurs quand, en leur âme et conscience, ils choisissent leurs investissements en s’aidant finalement beaucoup moins de la raison que de ce que Keynes appelait leurs « animal spirits », c’est-à-dire tout simplement leur « flair ». La formation des anticipations est donc, par nature, secrète, ancrée dans la subjectivité des entrepreneurs ; elle dépend du tempérament propre de chacun : un entrepreneur ayant le goût du risque ne fera point la même anticipation qu’un entrepreneur ayant peur du 113 BERDUGO, Alain (sous la direction de), Challenges pour les DSI : L’art du management des systèmes d’information, Dunod, 2004, page 112 114 Ibid, page 108 115 MOSCHETTO, Bruno Laurent, Le Business Plan, Economica, 2001, page 19 161 116 risque. » d’où le rôle fondamental de la confiance dans l’appréciation et la communication sur le business case de la part de tous les acteurs concernés par cet exercice. 4.2.4. Le business case comme socle de confiance La mention suivante : « Après tout, le dossier est censé rendre confiante votre équipe de management, faire en sorte qu’elle reconnaisse votre 117 projet comme étant une bonne décision financière » souligne bien le lien financier-confiance. Confiance ayant trait à la foi (fiance) se rapproche du « fiduciaire », de la « créance », c’est pourquoi le paradigme financier scandant l’argumentation sur les projets managériaux devient légitime et accepté. Selon Haimes (2005), le management doit créer un environnement qui favorise la confiance car seul celle-ci permettra la libre 118 apparition des informations nécessaires à la maîtrise du risque . Le capitalisme reste fondamentalement lié à la confiance (l’investissement se porte là où il est sécurisé et les économies se développent via la coordination des banques, assurances et bourses dans une logique de création de valeur industrielle et financière) et l’entreprise reflète ce schéma via la confiance organisationnelle qu’elle suppose pour fonctionner. Cette confiance « ne tient que tant que le bilan des avantages 119 et des inconvénients de la participation à l’action collective est positif », c’est à dire qu’elle est le lien entre l’acteur et l’organisation à laquelle il adhère, d’où le système complexe de reconnaissance au sein de la structure, du pouvoir et du désir, des croyances et symboles, d’où, également, un acteur dont « la capacité de raisonnement est mise en cause et en jeu par le processus conflictuel d’accès à la reconnaissance 120 sociale. » Le projet n’est qu’une sous-partie de ce système qui vit de la confiance qu’il suscite auprès des clients, des collaborateurs et des actionnaires. Le langage joue alors un rôle clé dans la construction de l’entreprise comme organe rationnel (logos, comme raison et langage) de la création de valeur et de la réactivité de la structure en environnement instable : « un bon système de communication doit pouvoir permettre aux membres du 116 POULON, Frédéric. Economie générale 5ème édition, Dunod, 2005, page 223 117 http://fr.solutionmatrix.com 118 HAIMES, Yacov Y, Risk Modeling, Assessment, and Management, John Wiley & Sons, Incorporated, 2005, page 599 119 THUDEROZ, Christian, MANGEMATIN, Vincent & HARRISSON, Denis, La confiance, approches économiques et sociologiques, Gaëtan Morin Editeur, 1999, page 50 120 SAINSAULIEU, Renaud, L’identité au travail, Presses de Sciences Po, 1988, page 343 162 121 groupe un contact rapide. » Le chef de projet doit faire sien ce langage 122 pour inspirer confiance – car le business case sécurise (« secure » dans le texte) la Direction Générale et les actionnaires – mais également pour avoir lui-même confiance en son auditoire, car c’est via ce langage que le Comité de Direction aura tous les éléments pour pouvoir réagir spontanément et donc honnêtement. Diego Gambetta (1999) insiste sur 123 cette réciprocité de la confiance (entre agents interagissants) et le business case apparaît alors comme un support de discussion entre un entrepreneur et un investisseur. L’implication de la Direction dans les projets et dans les business cases est soulignée par Bouquin (2005) : « le dirigeant, en contrepartie, doit s’imprégner des chiffres, du modèle économique qu’ils traduisent malgré le caractère ingrat d’une telle tâche que « personne ne peut faire pour vous ». Cette implication personnelle est aussi la meilleure garantie de la qualité des données qui 124 remontent à la direction. Cette dimension de la confiance répond à celle de 125 l’indépendance : « le calcul du ROI doit se faire en toute indépendance ». Ce maillage social du chef de projet CRM, du dirigeant et de l’actionnaire confirme la Direction Marketing dans sa dimension managériale (H3). 5. Analyse du cas pratique « élaboration d’un business case dans le cadre de l’implémentation d’un outil CRM dans un secteur industriel mature » 5.1. Le contexte 126 La Société Laribert (1000 salariés) intervient dans le secteur de location et d’entretien de matériel industriel à destination des acteurs industriels et logistiques français (pour un CA d’environ 200 millions d’euros) La force de vente s’élève à 45 commerciaux répartis sur 7 zones de vente, chacune étant dirigée par un chef de vente. Le back-office commercial se compose de 18 personnes. La Direction Marketing compte 10 personnes dont 4 chefs de produits. L’offre de location-maintenance du matériel est complexe puisqu’elle fait intervenir bon nombres d’acteurs en transverse : 121 BERNOUX, Philippe, La sociologie des organisations, Editions du Seuil, 1985, page 121 ITRG. Making the Case for Software Acquisition, ITRG, 2003, page 5 123 BOUDON, Raymond, BESNARD, Philippe, CHERKAOUI, Mohamed, LECUYER, BernardPierre, Dictionnaire de Sociologie, Larousse, 1999, page 42 124 BOUQUIN, Henri (dirigé par), Harold Sidney Geneen : « Les chiffres vous rendent libre. Libre de manager ! », in Les grands auteurs en contrôle de gestion, EMS Editions, 2005, page 147 125 DISCAZEAUX, Olivier & EDOUARD, Renaud, « La hantise du retour sur investissement gagne les fournisseurs », in « 01 Informatique », n° 1690, 6 septembre 2002 126 Le nom de la société est volontairement maquillé 122 163 • • • • • • • • • Le vendeur, qui gère la relation avec le prospect ou le client, construit l’offre et la chiffre La ligne managériale de la vente (Directeur des ventes, Directeur Commercial) qui peut octroyer des remises supplémentaires La Direction Marketing qui peut conseiller le client sur l’optimisation de son parc de matériel et la force de vente sur (1) l’outil adéquat qu’il faut proposer au client, (2) l’obtention de remises supplémentaires de la part du constructeur et (3) le chiffrage de matériel hors-catalogue en cas d’ajout sur le produit vendu. La Direction Occasion pour évaluer la valeur de reprise qui va entrer en compte dans le contrat de location longue durée La Direction SAV pour évaluer, au vu des conditions d’utilisation du client, le montant mensuel à facturer au titre de la maintenance. Le processus de vente dure en moyenne 3 mois. 5.2. Les constats (1) La forte transversalité de l’offre est source de lenteurs dans le processus d’avant-vente et de vente et le back-office commercial perd beaucoup de temps en contrôle et en préparation des offres commerciales. (2) Le processus d’offre étant manuel, il en résulte des erreurs (produits non compatibles au sein d’une offre, mauvais report de prix) qui génèrent un coût direct (erreurs de configuration technique à réparer au frais de la société, offres signées avec des prix non-conformes avec ceux du catalogue) et un coût indirect (perte de temps en « sur-contrôle » de la part des vendeurs et du back-office et incapacité à obtenir des statistiques pour le management commercial (ventes perdues, prix moyen des ventes gagnées, analyse par région, par vendeur)), d’où un manque de données objectives, ce qui complexifie l’encadrement des vendeurs et les relations avec les constructeurs – lesquels apprécient les données quantifiées sur leur marché. (3) Les offres commerciales sont très hétérogènes d’une région à l’autre, tant dans leur forme que dans leur contenu, ce qui est difficilement justifiable face à des clients grands-comptes nationaux. 164 5.3. Réalisation du business case 5.3.1. Sur le processus d’élaboration du business case Le business case a été réalisé par le groupe suivant : le DSI (qui apportait la méthode d’évaluation ainsi que les éléments de l’offre du prestataire CRM pour la valorisation des coûts du projet), le Directeur Commercial, le Directeur des Ventes et le Directeur Logistique (qui validait notamment les économies de coûts). Il a été présenté au Comité de Direction par le DSI qui a rappelé la méthode et par le Directeur Commercial qui a soutenu l’argumentation autour du chiffrage des gains. Cette co-animation est fondamentale puisque le Directeur opérationnel se fait le porteur du projet, ce qui rassure le Comité de Direction quant à son implication pour le faire aboutir et pour atteindre les objectifs prévus. 165 166 5.3.2. • • • Sur les principes de valorisation retenus Actualisation : taux de 5% (fourni par le DAF) Indicateurs-clés : VAN, TRI et payback (projet rentabilisé en 2 ans, ce qui s’inscrit dans la tendance générale des projets SI) Modélisation des gains : (1) elle est fortement conservatrice puisqu’elle ne concerne que les économies de coûts et ne chiffre pas les marges additionnelles potentielles dues aux retombées du CRM et de la base de données clients/offres qui permettra un meilleur positionnement sur le marché ainsi qu’une communication plus ciblée. (2) Les économies de coûts concernent les postes subissant actuellement un surcoût (comme les erreurs techniques dues à de mauvaises configurations). 5.3.3. Sur la stratégie d’élaboration et de présentation du business case Il est à noter que la stratégie de construction du business case a été la suivante : • • Indiquer l’ensemble des postes de gains et mentionner leur nonchiffrage afin de montrer clairement au Comité de Direction la volonté de ne pas spéculer sur une augmentation des volumes de vente due à la mise en place du projet CRM dans la mesure où la maturité du marché et le déclin industriel ne présagent pas un potentiel de marché croissant (en revanche, la fidélisation des clients et une meilleure préparation des opérations de renouvellement de parc font partie intégrante des objectifs du présent projet CRM). Faire référence à un indicateur important pour le Comité de Direction puisqu’en lien avec d’autres projets non-SI : le BFR (via la réduction du coût financier grâce à la récupération d’une journée de CA). Cette allusion montre l’implication de la DSI dans la création de valeur (au sens de l’EVA). Quelle limite du business case ? Une VAN de 300 M € pour des coûts projets de 250 M€ indique qu’un euro investi rapporte 1,22 euros. Cela peut paraître peu et le projet peut même paraître risqué, en revanche : • • Les réductions de coûts étant conservatrices et raisonnables, elles semblent atteignables à 100% Le premier objectif tacite du projet est de relancer une dynamique de la force de vente via un allègement des tâches à faible valeur ajoutée pour un recentrage sur les tâches créatrices de valeur : (1) réduction du temps administratif des vendeurs (préparation 167 • manuelle des offres) au profit du temps de prospection, visualisation des données clients et prospects à l’écran (car l’ergonomie de l’ancien système les rebutait) pour une approche plus stratégique et documentée du marché. (2) réduction du temps administratif du back-office (préparation des devis sur un outil de traitement de texte, vérification des prix indiqués par les vendeurs en les comparant aux prix du catalogue) au profit d’une plus grande réactivité au niveau des opérations de préparation des machines, de facturation et de recouvrement (d’où la réduction de BFR). Le second objectif tacite du projet est de protéger l’entreprise en automatisant les offres commerciales, ces dernières ne pouvant plus être modifiées manuellement par des vendeurs qui souhaiteraient modifier manuellement certaines clauses contractuelles afin d’obtenir plus facilement la vente. 5.3.4. Résultats Les objectifs tacites sont atteints et cela de façon progressive. La réaction des vendeurs et du back-office commercial a été très vive au départ puisque ces deux populations se sont senties « dépossédées » : (1) les vendeurs voyaient leur valeur ajoutée dans la relation informelle avec les clients et dans le fait qu’ils devaient passer du temps à personnaliser l’offre – l’automatisation des éditions et la nécessité de renseigner les bases de données ont donc été vécues comme une « déresponsabilisation », (2) le back-office voyait sa valeur ajoutée dans le contrôle, la mise en forme des offres – l’automatisation les a donc effrayées, à tel point qu’une assistante commerciale a dit : « on ne sert plus à rien, maintenant ». Force est de constater que c’est l’implémentation de l’outil CRM qui a permis au management de mesurer à quel point les collaborateurs se trompent sur la valeur ajoutée que l’on attend d’eux (la régionalisation et le nomadisme n’étant pas étrangers à ce phénomène d’incompréhension). Après 6 mois d’utilisation, les collaborateurs ont oublié le temps de la gestion manuelle des processus et passent systématiquement par l’outil SI. La satisfaction croît, même si des évolutions sont encore nécessaires. Au niveau du suivi du business case, les coûts du projet ont été parfaitement maîtrisés tandis que les réductions de coûts sont attendues : l’impact sur le BFR est très difficile à calculer et les membres du Comité de Direction s’accordent à dire que ce gain était un « gain de principe ». En revanche, le tableau de suivi des erreurs n’est pas encore mis en place par la Direction Logistique et la restructuration des services n’est pas envisagée. 168 Comment expliquer ce désintérêt a posteriori pour le suivi du business case ? (1) Le projet CRM a généré une telle excitation parmi le management qui découvre la force des statistiques sur un marché qu’il n’était jamais parvenu à cerner avec un tel niveau de détail, que le Comité de Direction se focalise davantage sur les résultats que sur le suivi de la mise en place des moyens prévus pour atteindre les réductions de coûts. La priorité est donc donnée au développement, cela signifie que le projet CRM a lui-même redéfini le cadre d’analyse et de pilotage de la Direction Commerciale. (2) L’accent est également mis sur l’implication de la Direction Marketing qui se réaffirme comme une Direction Experte au travers de son travail de paramétrage du système et sur la préparation des tableaux de bord commerciaux pour aider les chefs de vente à manager leurs vendeurs sur une base objective, l’engouement autour de l’outil CRM comme moyen de professionnalisation fait que l’outil devient davantage créateur de valeur au niveau managérial et analytique qu’au niveau logistique et organisationnel. L’outil a redéfini les axes de création de valeur pour l’entreprise. Conclusion La confirmation de H1, H2 et H3 permet de conclure à un nouveau positionnement commun des DSI et des Directions Marketing (et Métiers en général) via le business case qui les inscrit temporellement et stratégiquement dans la dimension entreprenariale du Comité de Direction. La financiarisation de la communication interne et la complexification des indicateurs de rentabilité liés au projet atténuent les divergences sociales et techniques (ésotérisme informatique, confinement des discussions stratégiques au sein des instances de direction, rattachement systématique de la DSI à la DAF sous l’appellation de « secrétariat général ») et uniformisent ainsi le processus communicationnel d’élaboration de la décision pour une entreprise plus réactive et performante. La validation des hypothèses confirment également le rôle central de la valeur et de l’exploitation des actifs au sein de l’entreprise : « le retour sur investissement d’une solution CRM réside plus dans une combinaison vertueuse processus/performance résultant des spécifications organisationnelles et culturelles de l’entreprise que dans une grille de calcul abstraite (les gains de temps estimés ne participent de la construction du retour sur investissement que s’ils sont transformés en travail productif !). Il s’agit plus d’une recherche de valeur que d’un retour 127 sur investissement au sens comptable de l’expression. » 127 SAINT CAST, Nicolas. Organiser sa relation client aujourd’hui : Le CRM nouvelle manière, Maxima, 2003, page 67 169 L’étude de cas corrobore cette idée de l’importance de la méthode du business case qui a le mérite de s’inscrire dans la logique de l’entreprise qui coordonne ses ressources en fonction des objectifs et qui réagit donc favorablement à cet outil argumentatif mais également l’idée que c’est la création de valeur qui donne son sens au projet, même si parfois elle n’est pas là où on l’attend, à savoir dans le management et les compétences. L’entreprise achoppe-t-elle alors une fois de plus sur sa faiblesse face à l’argumentation sur ces deux leviers humains comme créateur de valeur ? L’entreprise cherche-t-elle à se convaincre autrement en argumentant sur le besoin d’investir sur les outils informatiques perçus comme des facteurs de rationalisation ? La présente étude ne saurait répondre à cette question, mais l’étude de cas insiste sur la remise en cause qui a été effectuée par le Comité de Direction autour de la création de valeur sachant que c’est via l’implémentation d’un outil CRM que ce sont développées les compétences techniques et managériales des Directions Commerciales et Marketing. Bibliographie BADOT, Olivier, Turbulence, chaos et décapitalisation sur le futur, in Stratégies d’Incertitude, dirigé par Bernard Cova et Sylvain Ickham, Economica, 1996 BELLENGER, Lionel, La négociation, PUF, 1984 BERDUGO, Alain (sous la direction de), Challenges pour les DSI : L’art du management des systèmes d’information, Dunod, 2004 BERNOUX, Philippe, La sociologie des organisations, Editions du Seuil, 1985 BLIGH, Philip, CRM Unplugged : Releasing CRM's Strategic Value, Hoboken, John Wiley & Sons, Incorporated, 2004 BOUDON, Raymond, BESNARD, Philippe, CHERKAOUI, Mohamed, LECUYER, Bernard-Pierre, Dictionnaire de Sociologie, Larousse, 1999 BOUQUIN, Henri (dirigé par), Harold Sidney Geneen : « Les chiffres vous rendent libre. Libre de manager ! », in Les grands auteurs en contrôle de gestion, EMS Editions,2005 BRUNSSON, Nils, « Concevoir, dire et faire : Éloge de la déliaison », in CHARREIRE, Sandra, Les grands auteurs en management, EMS Editions, 2002 BUTTRICK, Robert, Gestion de projets 3° Edition Village mondial, 2006 CLEARY, Sean, Risques : Perception, évaluation, gestion, Maxima,2006 CORBEL, Jean-François, Management de projet, Eyrolles Editions d’organisation, 2° édition, 2007 DAYAN, Armand, Marketing B to B, Vuibert, 5° édition, 2002 DELAFARGUE, Bertrand, Repenser le pilotage de l'entreprise : Réconcilier la vision stratégique et l'action, Paris, Maxima, 2006 170 DEYRIEUX, André, Le système d’information : nouvel outil de stratégie, Maxima, 2003 DISCAZEAUX, Olivier & EDOUARD, Renaud, « La hantise du retour sur investissement gagne les fournisseurs », in « 01 Informatique », n° 1690, 6 septembre 2002 EVANS, Michael, Practical Business Forecasting, Blackwell Publishing, 2002 GILLET, Roland, Finance : Finance d'entreprise - Finance de marché Diagnostic financier, Dalloz, 2003 HAIMES, Yacov Y, Risk Modeling, Assessment, and Management, John Wiley & Sons, Incorporated, 2005 ITRG, Making the Case for Software Acquisition, ITRG, 2003 LAZLO, Christopher & LANGEL, Jean-François, La dynamique du chaos, Editions d’organisation, 1998 LENDREVILLE, LEVY, LINDON, Mercator, 8° Edition, Dunod, 2006 MADERS, Henri-Pierre, GAUTHIER, Elizabeth, LE GALLAIS, Cyrille, Conduire un projet d’organisation, Editions d’organisation, 3° édition 2004 McNULTY, Eric, Harvard Business Review sept.-07,vol 85 n°9, Boss, I think Someone Stole Our Customer Data MILLS, Quinn, L’entreprise post-hiérarchique, InterEditions, 1994 MOSCHETTO, Bruno Laurent, Le Business Plan, Economica, 2001 PAILLARD, J, « Réflexions sur l’usage du concept de plasticité en neurobiologie », in Journal de Psychologie n°1, janvier-mars, 1976 PILLET, Maurice, SIX SIGMA, Comment l’appliquer, Editions d’Organisation, 2004 POULON, Frédéric, Economie générale 5ème Edition, Dunod,2005 SAINSAULIEU, Renaud, L’identité au travail, Presses de Sciences Po, 1988 SAINT CAST, Nicolas. Organiser sa relation client aujourd’hui : Le CRM nouvelle manière, Maxima, 2003 SHARP, Duane, E. Customer Relationship Management Systems Handbook, Boca Raton, FL, USA: Auerbach Publishers, Incorporated, 2002 STERN JM, STEWART GB & CHEW DH, « The EVA Financial Management System », in journal of applied corporate finance, summer 1995, vol 8, n°2 SUN TZU, L'art de la guerre, (400-320 avant J.C.) THUDEROZ, Christian, MANGEMATIN, Vincent & HARRISSON, Denis, La confiance, approches économiques et sociologiques, Gaëtan Morin Editeur, 1999 WOODCOCK, Neil. Customer Management Scorecard : Managing CRM for Profit, Kogan Page, Limited, 2003 http://fr.solutionmatrix.com http://www.afai.fr http://www.journaldunet.com http://www.tracenews.info 171 Yann TOURNESAC Professeur d’Entrepreneuriat à l’ISC Paris ISC Paris, Maîtrise d’anthropologie Doctorant à l’Université Marc BLOCH de Strasbourg Les outils usuels d’évaluation de la rentabilité des salons et des foires Résumé La France accueille chaque année 14 millions de visiteurs et 100 000 exposants qui se répartissent sur les différents salons, foires et congrès hexagonaux. Ce secteur particulier de la communication concerne plus de 400 opérateurs privés qui ont pour obligation un retour sur investissement très rapide consécutif à la fragilité de l’événement même et des sommes investies pour le produire. C’est l’évaluation de cette rentabilité qui est au cœur de notre étude. L’objectif avoué est de dépasser la simple définition de la rentabilité comme étant un résultat exprimé en unités monétaires pour aborder d’autres modalités d’évaluation propres aux salons et aux foires. Ces évaluations de l’organisateur pourront alors se faire en puisant dans les informations internes à l’événement ou au contraire en sollicitant une sous-traitance spécialisée. Nous conclurons cet article avec le cas particulier d’un salon professionnel français qui s’est doté de ratios efficaces malgré une dimension tout à fait modeste. Abstract French trade shows, public fairs and conferences welcome each year 14 million delegates and 100 000 exhibitors. The event market is managed by more than 400 event organizers which all have the same objective which is to get the quickest return on investment possible due to the unpredictable nature of the event itself and the amount of investment necessary at the beginning. ROI computation is therefore at stake but not only as far as finance is concerned but also when one considers other quantity criteria based on the specific nature of trade shows and public fairs. Such enquiries can directly be lead by the event organiser with the help of its own data but can also be done with the help of consultants. We will then conclude with the example of a trade show and its specific use of ratios. 172 128 Le présent article se propose de faire un premier bilan des outils usuels d’évaluation de la rentabilité des salons et des foires en France. Les 129 structures organisatrices de ce type d’événements évaluent le plus souvent leur performance générale à l’aide de ratios financiers « classiques » empruntés à la gestion d’entreprise. Ces mêmes acteurs vont aussi appliquer des ratios spécialisés et donc plus intimement liés à la nature même de l’événement. Il s’agira pour nous d’étudier ces derniers sans pour autant oublier l’apport des ratios classiques, « détournés » avec réussite à des fins événementielles. Notre étude se porte sur les salons et les foires pour deux raisons qui nous sont apparues logiques : la principale tient au fait de la complexité budgétaire même de ces événements qui en fait une source d’étude riche et cela peu importe la taille ou le chiffre d’affaires dégagés. Leurs gestionnaires sont, de plus, des professionnels rigoureux à la recherche d’une rentabilité qui viendra rémunérer avec justesse des investissements très lourds. La seconde raison s’explique par la disponibilité d’éléments chiffrés sur le marché et par une certaine homogénéité des méthodes d’évaluation utilisées. Le salon peut être défini comme un lieu de rencontre professionnel entre un marché, ses prescripteurs et ses acheteurs avec pour matérialisation principale des expositions de produits et services sur stands. Les foires, quant à elles, répondent à la même définition à ceci prêt que les audiences sont apparentées à des particuliers. Une autre différence de taille provient de la possibilité ou non de réaliser des ventes directes sur site engendrant une transaction monétaire utilisant les modalités de paiement classiques. Nous nous proposons donc d’étudier deux grandes familles de ratios financiers qui vont se distinguer par les techniques de collecte des éléments chiffrés : les ratios qui sont appliqués sans recourir à des prestataires extérieurs (se basant sur des données générées en interne) et les ratios qui, au contraire, vont nécessiter une part de sous-traitance suite à une mise en place d’études spécifiques avant, pendant et après 130 l’événement . Ces deux démarches vont logiquement induire une différence d’approche entre les organisateurs qui vont pouvoir financer une analyse complète de leur rentabilité événementielle et ceux qui se limiteront aux informations directement disponibles sans autre démarche 131 que de les réunir en interne . Cette différence dans la démarche tient aussi du professionnalisme plus ou moins marqué chez les organisateurs 128 Dans le cadre du doctorat en sciences de la gestion « Les techniques d’évaluation du retour sur investissement par les agences qui organisent les événements et leurs annonceurs ». Université Marc Bloch de Strasbourg 129 Au nombre de 424 selon la dernière étude de l’Anaé (2006) 130 Occurrence, Argus de la Presse… 131 Prestataires d’installation générale, de contrôle d’accès ou de restauration 173 français qui, dans leur grande diversité, n’ont pas tous pu ou souhaiter mettre en place une vraie démarche d’analyse. Enfin, il convient d’ajouter que les ratios ainsi étudiés présentent des variations de valeurs entre les éditions N et N-1 de l’événement. Les outils usuels d’évaluation de la rentabilité des salons et des foires qui suivent sont pour la plupart utilisés pour élaborer la stratégie globale de l’événement afin que ce dernier puisse atteindre les objectifs d’image, de notoriété et de développement du chiffre d’affaires de ses annonceurs. OUTILS DE MESURE DIRECTE GERES PAR L’ORGANISATEUR Les outils de mesure suivants sont communément gérés en interne par l’organisateur qui dispose de ses propres informations statistiques et financières sans avoir besoin de recourir à des prestataires extérieurs. Ces éléments chiffrés émanent pour la plupart des fournisseurs retenus pour le salon ou la foire : le site d’exposition et l’installateur de stands pour leurs informations architecturales et le fournisseur de contrôle d’accès pour les statistiques concernant la nature et le nombre des visiteurs directs. A ceci, il convient d’ajouter les statistiques générées par le service commercial de l’événement qui gère la vente des prestations de l’événement et leur suivi statistique. A. Mesure de la rentabilité de l’occupation du site d’exposition en fonction de la spécialisation des zones événementielles La France compte deux millions de mètres carrés disponibles, 80 parcs 132 d’expositions professionnels et 120 centre de congrès . Ces sites présentent des surfaces brutes d’exposition sur lesquelles les salons et les foires installent les surfaces octroyées aux exposants ou annonceurs (stands), les surfaces d’animation (zone de repos, forum d’information, exposition thématique, etc.), les surfaces de congrès (salles pour accueillir des plénières, des conférences et des ateliers) et les zones générales (allées, dégagements de sécurité, entrées, sorties, accueil, etc.). Il convient donc de mesurer les taux d’occupation au sol pour une gestion optimale des espaces afin que l’organisateur gère au mieux la rentabilité d’un site 133 aux coûts d’exploitation très élevés . Il convient donc de diminuer les 132 Hall d’exposition, centre de congrès Le développement en France des foires, salons et congrès. Rapport d’information de l’Assemblée Nationale. Charié, J-P. N°2826, 2006. 133 174 surfaces « non payantes » au profit des surfaces « payantes » facturées aux exposants. A. 1. Mesure de la rentabilité des surfaces commerciales du site d’exposition A.1.1. Ratio d’évaluation du taux d’occupation général des surfaces du site (Surface nette occupée année N) - (Surface nette occupée année N-1) / (Surface brute événement année N) - (Surface brute événement année N1) Les surfaces nettes correspondent aux surfaces vendues ou offertes par l’événement et donc occupées réellement par les annonceurs (stand ou toute autre formule d’animation valorisée en mètres carrés). Les surfaces brutes correspondent à l’ensemble des surfaces exploitables commercialement du site. Il conviendra donc de contrôler l’évolution du taux d’occupation et de s’assurer que le pourcentage ainsi dégagé évolue à la hausse lors de chaque événement. Le principal défaut de ce ratio vient du fait qu’il ne mesure pas la rentabilité financière attenante car des gratuités en mètres carrés peuvent être octroyées par le commercial en charge des ventes de stands et autres surfaces d’animation. A.1.2. Ratio d’évaluation du taux d’occupation moyen général des annonceurs (Surface nette occupée année N) - (Surface nette occupée année N-1) / (Nombre d’annonceurs année N) - (Nombre d’annonceurs année N-1) Ce ratio nous permet de contrôler l’évolution des mètres carrés par exposant ou annonceur. Il n’est pas ici question d’impact financier mais juste d’un indice qui pourra servir à la gestion organisationnelle de l’événement car il s’agit des mètres carrés qui ont été réellement livrés à l’exposant. De grandes disparités existent entre des événements accueillant des exposants nécessitant de grandes surfaces (Mondial de l’Automobile, Salon de la Machine Outil, etc.) et des événements qui ciblent des fabricants ou distributeurs de services dont l’animation du stand se limite à des prospectus et un écran plasma. A. 2. Mesure de la rentabilité des zones d’animations et des zones générales Une zone d’animation est un espace mis à la disposition du visiteur afin qu’il puisse s’informer, échanger et pourquoi pas se reposer. Cela peut revêtir différents aspects : un forum de tendance sur un salon textile avec 175 une exposition de produits et des fiches techniques en self service, une aire de repos sans message particulier autre qu’une invitation à s’asseoir et à consommer les boissons mises à disposition par le sponsor, une animation permanente qui présente un mur d’image diffusant un clip vidéo en boucle ou encore un espace pour essayer des véhicules... Une zone générale est quant à elle définie comme un espace de circulation ou de station temporaire : un accueil de salon, des allées de circulation, un passerelle au dessus d’un hall, le restaurant, le bar, les WC, un kiosque d’information, etc. Evidemment, l’organisateur est libre d’associer à ces zones des sponsors désireux d’élargir leur visibilité en devenant « partenaire » de la zone en question. Le principe général appliqué dans les salons et les foires est pourtant de ne pas associer de sponsors aux zones générales sous peine de porter préjudice aux autres annonceurs de l’événement. Malgré cela, les zones générales restent difficilement neutres car elles offrent une visibilité très performante du fait de leur très grande fréquentation. A.2.1. Ratio d’évaluation de la fréquentation d’une animation et d’une zone générale (Fréquentation de la zone Z année N) - (Fréquentation de la zone Z année N-1) / (Audience directe événement année N) - (Audience directe événement année N-1) Ce ratio nous permet de vérifier l’attractivité de la zone en question sans tenir compte de la nature de l’audience directe de l’événement. En tout état de cause, un visiteur d’événement professionnel porte un badge et peut être identifié à son arrivée sur la zone en question et sera peut-être l’objet d’une lecture optique de badge. Quant au visiteur d’événement grand public, le port du badge n’étant pas institué, il conviendra seulement de procéder à un comptage. Toutefois, une étude peut être commandée pour définir le ou les profils des visiteurs de la zone en question. Ce ratio devra apporter l’indication d’une évolution positive en pourcentage. Cet indicateur de fréquentation pourra ensuite être valorisé pour définir le prix de vente de la prestation de sponsoring associé. Par ailleurs, si nous nous soucions de la nature X des visiteurs, nous pouvons contrôler si le visitorat global fréquentant la zone appartient bien à notre cible. Le visiteur ciblé est qualifié d’utile de part son apport potentiel d’affaires auprès de l’exposant. (Fréquentation de la zone Z année N) - (Fréquentation de la zone Z année N-1) / 176 (Audience directe avec nature X année N) - (Audience directe avec nature X année N-1) A.2.2. Ratio d’évaluation de la rentabilité coût / personne d’une animation et d’une zone générale (Coût de revient de la zone Z année N) - (Coût de revient de la zone Z année N-1) / (Audience directe zone Z année N) - (Audience directe zone Z année N-1) Ce ratio permet d’évaluer le coût unitaire de chaque visite des zones en question. Ainsi, l’organisateur pourra investir davantage dans ces zones ou les modifier pour augmenter leur efficacité ou tout simplement les annuler. Il convient de remarquer que ces zones sont autant de services gratuits à destination des visiteurs et qu’il convient de satisfaire ces derniers pour qu’ils reviennent ou mieux, qu’ils incitent d’autres personnes à venir. Si des consommations sont réalisées par les visiteurs (prise de documents imprimés ou même boissons en libre-service), il existera une notion variable du coût de la zone. Par conséquent, si la zone en question n’entraîne pas de consommation, nous ne parlerons ici que de coûts de revient fixes. Comme pour le ratio présenté dans le chapitre A.2.1. , les indices dégagés pourront aider au chiffrage des prestations de visibilité à vendre aux annonceurs à associer à la zone en question. Ce ratio s’exprime en valeur monétaire et doit bien évidemment diminuer chaque année ou voir son chiffre d’affaires augmenter dans une proportion plus importante. A.2.3. Ratio d’évaluation de la rentabilité financière d’une animation (Chiffre d’affaires de la zone Z année N) - (Chiffre d’affaires de la zone Z année N-1) / (Audience directe zone Z année N) - (Audience directe zone Z année N-1) Ce ratio va nous permettre de mesurer la rentabilité de l’animation en matière de chiffre d’affaires généré par le sponsor. Ceci peut devenir un argument de vente dans une négociation avec un annonceur car il sera possible de mettre en perspective la rentabilité de l’animation en question. A. 3. Mesure de la rentabilité des zones de congrès au sein d’un salon ou d’une foire Il est question ici de la zone congrès constituée de salles accueillant des conférences, des plénières et des ateliers. Ces espaces engendrent très souvent un coût additionnel en fonction de la provenance de leurs audiences : en effet, une audience internationale induit de la traduction et 177 un conférencier qui souhaite diffuser le contenu de son intervention sous un format numérique ou vidéo doit pouvoir disposer des installations nécessaires. Certains congrès bénéficient de « sponsors » ou « partenaires » et pourront faire payer un droit d’accès aux congressistes. A.3.1. Ratio d’évaluation de la rentabilité coût / personne d’une zone de congrès (Coût de revient de la zone Z année N) - (Coût de revient de la zone Z année N-1) / (Audience directe zone Z année N) - (Audience directe zone Z année N-1) Ce ratio nous permet de dégager une rentabilité coût / personne pour savoir si les efforts financiers d’aménagement et de décoration sont récompensés par une audience large et ciblée. Ce ratio doit donner une valeur monétaire associée à une personne, le congressiste, en ayant comme objectif une diminution en valeur de congrès en congrès. A.3.2. Ratio d’évaluation de la rentabilité financière d’une zone de congrès (Chiffre d’affaires de la zone Z année N) - (Chiffre d’affaires de la zone Z année N-1) / (Audience directe zone Z année N) - (Audience directe zone Z année N-1) Ce ratio nous permet de dégager une rentabilité par personne sachant qu’un congrès bénéficie de financements. Ce ratio financier doit vérifier une évolution à la hausse lors de chaque congrès en maîtrisant les deux paramètres que sont le chiffre d’affaires et l’audience directe qui doivent augmenter de concert. A.3.3. Ratio d’évaluation du taux de fréquentation d’une zone de congrès (Audience directe zone Z année N) - (Audience directe zone Z année N-1) / (Nombre de place de la zone Z année N) - (Nombre de place de la zone Z année N-1) Ce ratio vient sanctionner le succès ou le non succès d’un congrès au travers du taux de remplissage d’une conférence ou d’un atelier. Cet indicateur s’exprime en pourcentage comme tout taux usuel de remplissage de salle. 178 B. Mesure de la rentabilité de la stratégie de mobilisation des visiteurs d’un salon et d’une foire Il est évident ici que le salon professionnel et la foire se distinguent par leurs approches opposées : alors que le premier optera pour une série d’outils de marketing direct, le second choisira des stratégies de 134 communication davantage tournés vers les médias . B. 1. Mesure du coût par contact (Budget de communication année N) – (budget de communication année N-1) / (Audience directe année N) - (Audience directe année N-1) Bien que l’on ne puisse pas imputer directement la venue d’un visiteur à une campagne de communication événementielle utilisant la presse, la radio, l’affichage, la télévision ou Internet, ce ratio nous aide à calculer l’effort à produire pour faire venir un visiteur jusqu’à l’événement. Il conviendra de vérifier que ce coût unitaire diminue chaque année nous apportant ainsi des éléments attestant du bon choix des différents canaux de communication. Dans le cadre d’une campagne de marketing direct, nous pouvons étudier l’impact des services employés ou des documents envoyés : (Budget de la conception du documentation D envoyée année N) – (Budget de la conception du documentation D année N-1) / (Audience indirecte année N)-(Audience indirecte année N-1) A nouveau, il demeure difficile d’isoler l’impact d’un document particulier envoyé à une cible de potentiels visiteurs comme l’explique Srinath 135 Gopalakrishna dans son article. Toutefois, il existe des événements qui utiliseront des méthodes de mobilisation limitées comme l’envoi de demande de badge avec au choix le retour par courrier de cette dernière ou l’inscription via Internet. Ce choix limité d’inscription permet de circonscrire les causes d’échec ou de succès. (Budget du service de marketing direct S utilisé année N) – (Budget du service de marketing direct S utilisé année N) / (Audience indirecte année N)-(Audience indirecte année N-1) 134 135 Radio, TV, presse, affichage, Internet Do Trade Shows Pay Off ? Journal of Marketing, 59:3 (1995:July) 179 (Coût de l’outil de communication O année N) – (Coût de l’outil de communication O année N-1) / (Audience directe année N) - (Audience directe année N-1) B. 2. Mesure de la nature et de la qualité de l’audience directe En fonction de son appartenance ou non au groupe cible, le visiteur va témoigner de l’efficacité de l’organisateur de l’événement. En effet, une trop grande proportion de visiteurs « inutiles » va engendrer une perte de temps auprès de l’annonceur. Ce visiteur « chronophage » deviendra également un visiteur qui engendrera un coût pour l’organisation qui distribue des documents en self service et qui en prévoira un nombre limité. (Audience directe année N) - (Audience directe année N-1) / (Audience cible année N) - (Audience cible année N-1) (Audience directe non ciblée année N) - (Audience directe non ciblée année N-1) (Audience directe année N) - (Audience directe année N-1) Ces ratios pourront nous apporter des éléments de réponse quant au bon choix des canaux de communication choisis par l’organisateur. B. 3. Mesure des stratégies spécifiques de mobilisation En matière de pré-enregistrements ou toute demande d’accréditation avant l’événement, sur Internet ou en retournant un coupon réponse, les ratios suivants seront autant d’indicateurs d’efficacité : (Audience directe année N) - (Audience directe année N-1) (Nombre de message adressés année N) – (Nombre de message adressés année N-1) / (Nombre d’accrédités année N) – (Nombre d’accrédités année N-1) / (Nombre de demande d’accréditation année N) - (Nombre de demande d’accréditation année N-1) Ces évaluations concernent surtout les salons professionnels. Les moyennes statistiques de la profession indiquent que sur 100 pré-inscrits seuls 50 viendront réellement sur l’événement. 180 C. Mesure de la rentabilité de la vente d’un salon et d’un foire Un salon comme une foire possède un catalogue complet de produits et de services à vendre à leurs annonceurs. Nous pouvons citer deux grandes familles de prestations à vendre : le stand (du plus au moins cher : stand équipé, stand semi-équipé, espace nu) et les autres opérations de visibilité (du plus au moins visible : présence sur les imprimés externes, affichage sur site, parrainage d’événements ou de zones de l’événement, distribution de documents et présence sur les imprimés internes). C.1. Ratio d’évaluation du taux d’occupation réel facturé des surfaces du site (Surface nette facturée année N) - (Surface nette facturée année N-1) / (Surface brute événement année N) - (Surface brute événement année N1) Ce ratio permet de contrôler la rentabilité financière des mètres carrés vendus et donc facturés aux annonceurs. Ces surfaces sont qualifiées de « réelles » puisqu’elles se retrouvent sur une pièce comptable qui authentifie la transaction. Il conviendra donc de chercher une évolution à la hausse du pourcentage ainsi dégagé. C.2. Ratio d’évaluation du taux moyen réel facturé des annonceurs (Surface nette facturée année N) - (Surface nette facturée année N-1) / (Nombre d’annonceurs année N) - (Nombre d’annonceurs année N-1) Cet outil procure une approche financière et nous indique l’évolution du montant financier réel engagé par les exposants. Il convient alors de faire attention que chaque mètre carré soit bien réel, donc facturé et payé. C.3. Ratio d’évaluation de la rentabilité de la vente (Surface nette facturée année N) - (Surface nette facturée année N-1) / (Surface nette livrée année N) - (Surface nette livrée année N-1) Il convient de présenter ce ratio après les deux premiers même si l’on juge ici l’efficacité de la force de vente. Après négociation, ce ratio fait donc état de l’efficacité du vendeur et permet ainsi de contrôler le travail de ce dernier. Il conviendra dans ce cas d’avoir une évolution positive du pourcentage en mètres carrés d’une année sur l’autre car il convient d’éviter d’émettre un nombre croissant de factures qui présentent l’octroi de mètres carrés gratuits. La limite de cette étude provient du fait que certains organisateurs vont choisir de facturer un nombre de mètres carrés fictifs 181 (donc inférieurs à la réalité) puisqu’une surface supérieure sera livrée avec complaisance. C.4. Ratio d’évaluation de la rentabilité au mètre carré (Chiffre d’affaires lié aux surfaces nettes facturées année N) - (Chiffre d’affaires lié aux surfaces nettes facturées année N N-1) / (Surface nette facturée année N) - (Surface nette facturée année N-1) Grâce à ce ratio, le salon ou la foire peut dégager un prix moyen au mètre carré et voir son évolution. L’objectif est toujours le même : contrôler les ventes du commercial afin que l’événement augmente sa rentabilité. C.5. Ratio d’évaluation du taux de fidélisation des annonceurs (Annonceurs nouveaux année N) - (Annonceurs nouveaux année N-1) / (Annonceurs total année N) - (Annonceurs total année N-1) (Annonceurs nouveaux année N) - (Annonceurs nouveaux année N-1) / (Annonceurs anciens année N) - (Annonceurs anciens année N-1) Un événement qui connaît un taux de rotation trop élevé de ses annonceurs est considéré comme un événement dont les choix stratégiques sont incertains. Par contre, le cas d’un salon ou d’une foire itinérants peut être considéré comme différent car l’attrait de telle ou telle région va engendrer des collaborations avec des annonceurs évoluant avec le parcours géographique considéré. D. Conclusions sur les outils de mesure directe gérés par l’organisateur de salon et de foire Comme nous venons de le voir, une série d’outils de mesure sont à disposition des organisateurs de salons et foires. Les éléments chiffrés sont tous directement à disposition de l’événement ou à collecter auprès des prestataires choisis par l’organisation. Ces derniers ont pour obligation de les communiquer dans le cadre d’un contrat de prestation (contrôleurs d’accès) ou tout simplement pour facturer les dites prestations (location du site d’exposition et fabrication de stands). Mais tout ceci revient au final à l’étude de la mesure de la rentabilité des stratégies marketing des organisateurs de salons et foires en France : il est évidemment question de mesurer l’efficacité globale des stratégies marketing mises en place pour servir au mieux son salon, sa foire et donc au final les annonceurs qui ont misé sur l’événement en question. 182 La politique marketing de l’événement s’inscrit alors dans une logique de marketing mix appliqué à l’événement et tout ce qui touchera à des investissements apparentés à de la stratégie marketing seront de nature à 136 engendrer une augmentation de la marge nette de l’événement . (Marge nette événement année N) - (Marge nette événement année N-1) / (Budget marketing année N) - (Budget marketing année N-1) Ainsi, ce dernier ratio offre une synthèse intéressante pour notre démarche. OUTILS DE MESURE INDIRECTE Alors que les premiers outils énoncés dans le précédent chapitre peuvent être créés et gérés par l’organisateur seul, le recours à des prestataires extérieurs semble pourtant nécessaire pour les études en matière d’analyse d’image, de notoriété et plus largement en matière de mesure d’efficacité de la communication de l’événement. Il existe plusieurs 137 prestataires dont les services proposent une série de prestations permettant de chiffrer les équivalents publicitaires de rédactionnels médias, de faire des analyses de contenu et de faire des études d’analyse de notoriété et d’image. Il ne s’agira pas dans le présent chapitre d’étudier ces méthodes d’évaluation mais d’évoquer en quoi les données chiffrées ainsi obtenues par sous-traitance seront utiles pour l’organisateur d’événement. A. Mesure de l’impact financier des relations presse de l’événement (Budget RP année N) – (budget RP année N-1) / (Equivalent publicitaire média année N) - (Equivalent publicitaire média année N-1) L’Argus de la Presse ainsi que ses concurrents peuvent établir un équivalent publicitaire (en euros) des articles écrits dans l’ensemble des différents supports de presse sélectionnés. Il en va de même pour les passages à la radio et à la télévision. D’autres études pourront aborder le contenu de ces rédactionnels. L’organisateur va ainsi pouvoir renseigner le ratio en question après avoir retracé son budget affecté aux relations presse. Ainsi, année après année, les efforts portés sur cette politique seront analysés en pourcentage qui seront souhaités à la baisse. 136 Marketing Payback : Is your Marketing Profitable ? Shaw, R., Merrick, D. John Wiley & Sons, INC. Harlow, 2005. 137 Argus de la Presse, Agence Occurrence 183 B. Mesure de l’impact financier de la campagne de communication média de l’événement (Budget de communication année N) – (budget de communication année N-1) / (Audience indirecte année N)-(Audience indirecte année N-1) Les salons professionnels, en plus de leurs stratégies de marketing direct, peuvent acheter des espaces publicitaires dans les supports médias les concernant. Un budget affecté à la communication qui sera moindre que celui d’un événement grand public qui sera dans l’obligation d’acheter des espaces publicitaires dans les mass médias. Ainsi, il sera possible de mesurer l’impact d’une campagne de communication auprès de l’audience indirecte du salon ou de la foire, à savoir auprès des personnes ayant entendu parler de l’événement via les médias. C. Autres mesures de la notoriété et de l’image d’un événement Un salon ou une foire vont pouvoir étudier leur image et leur notoriété propres en faisant appel à des prestataires extérieurs afin de procéder à 138 des enquêtes telles que « omnibus » avec les indicateurs connus que sont le « top of mind », la notoriété spontanée, la notoriété assistée et la notoriété prouvée. Dans le cadre d’une étude d’image, il sera question de recueillir les appréciations, subjectivement données par les interviewés, à propos des éléments désignés par le salon et sur une série de critères. On pourra ensuite créer un profil d’image grâce à des études comparatives. Mais il est vrai que le salon et la foire procèdent aussi à la mise en place d’études comme celles-ci pour leurs propres annonceurs. Ainsi, les enquêtes sont commercialisées en plus des autres prestations usuelles. 138 Gilardi, J.-C., Koehl, M, Koehl, J.-L. Dictionnaire de mercatique, Eds. Dicothèque Foucher, Paris, 1995 184 APPLICATION PRATIQUE AU SALON PROFESSIONNEL GREEN EXPO Pour illustrer les axes de réflexion précédents, nous avons pu bénéficier de la collaboration du salon GREEN EXPO et de son directeur pour tester la réalité de l’application des ratios et de l’absence significative d’autres. GREEN EXPO, le salon international des terrains sportifs et des golfs, est un salon professionnel qui existe depuis 1986. Chaque année, GREEN EXPO met en relation les fabricants de produits et services destinés à l’entretien des terrains sportifs et leurs utilisateurs finaux (intendants de terrain, mécaniciens et jardiniers). Cet événement regroupe un salon de 135 exposants en moyenne et deux congrès sur des thèmes portant sur l’entretien des terrains sportifs (plénières, conférences et ateliers). De 2 500 à 3 500 visiteurs professionnels viennent sur les 2,5 jours du salon et cela en provenance de toute la France. Enfin, GREEN EXPO dégage un chiffre d’affaires moyen de 450 000 euros HT chaque année pour une marge nette de 15 %. Nous porterons notre réflexion sur les six dernières éditions du salon à savoir celles de 2002 (Deauville), 2003 (Bordeaux), 2004 (Montpellier), 2005 (Nantes), 2006 (Paris) et 2007 (Marseille). Nous pourrions passer en revue l’ensemble des ratios déjà évoqués et appliquer leur potentiel au salon GREEN EXPO mais nous nous proposons plutôt d’amorcer une réflexion sur les outils de mesure qui sont utilisés et ceux qui n’ont pas été retenus par l’organisateur. Qu’en est-il de la mesure de la rentabilité de l’occupation du site d’exposition en fonction de la spécialisation des zones événementielles ? GREEN EXPO occupe une moyenne de 6 000 mètres carrés d’un seul tenant. Cette surface totale est ensuite découpée en trois grands secteurs accueillant les exposants sans oublier des sous parties destinées aux zones d’animations. Les zones générales, quant à elles, sont réparties pour le bon déroulement de l’événement. Le premier secteur mis en place est celui qui est dénommé « entretien » à savoir l’ensemble des exposants qui présentent des produits et services destinés à l’entretien des terrains de sports (tonte, irrigation, construction, etc.). Le deuxième secteur du salon est celui qui réunit toutes les solutions de gestion (contrôle d’accès, billetterie, cartes à puce, restauration, etc.) et le dernier secteur présente le matériel de jeu et les textiles sportifs présents dans les boutiques gérées par les sites sportifs eux-mêmes (boutiques de stade ou boutiques Pro Shop dans les golfs). 185 Concernant la mesure de la rentabilité des surfaces commerciales à savoir l’utilisation des ratios présentés en A.1.1. et en A.1.2. , GREEN EXPO se livre à l’évaluation suivante : Taux d’occupation général des surfaces du site 2002/2003 2003/2004 2004/2005 2005/2006 +3.51 % -5.62 % +3.98 % +5.12 % 2006/2007 +2.87 % Commentaires : à part une baisse de rentabilité entre 2003 et 2004 liée au site de Montpellier qui obligea le salon à diviser ses espaces sur deux halls, GREEN EXPO gère de mieux en mieux son occupation de site en laissant de moins en moins d’espaces non dédiés aux stands (et donc non rémunérés). Ratio d’évaluation du taux d’occupation moyen général des annonceurs 2002/2003 +1.53 % 2003/2004 +1.14 % 2004/2005 +3.78 % 2005/2006 +4.11 % 2006/2007 +2.57 % Commentaires : l’évolution des indices est positive car l’évolution des mètres carrés par exposant est en progression constante avec un ralentissement en 2007 car le salon semble être arrivé à maturité. En effet, chaque exposant a pris une surface au-delà de laquelle il sera désormais difficile d’aller. De grandes disparités existent toujours entre les leaders du marché comme Ransomes Jacobsen France qui achète plus de 300 mètres carrés lors de chaque édition et les plus petits stands qui sont en moyenne de 9 mètres carrés. Pour compléter la compréhension de l’étude, le salon présente un mètre carré moyen de 24,3 mètres depuis 2002. Concernant la mesure de la rentabilité des zones d’animations et des zones générales, GREEN EXPO ne s’est pas doté d’outils pour évaluer l’efficacité d’une telle démarche au coût non négligeable. Les créations en 2003 d’une zone d’animation de 300 mètres carrés dédiée au jeu de golf puis d’une zone de 500 mètres carrés pour les Trophées de l’Innovation en 2007 à Marseille n’ont donc pas été évaluées malgré des investissements de 8 525,00 euros HT pour l’une et de 23 550,00 euros HT pour la seconde. GREEN EXPO ne sait donc pas qui fréquente ces espaces et encore moins si ces derniers sont rentables pour le salon et les sponsors qui les financent. 186 Quant à la mesure de la rentabilité des zones de congrès au sein du salon, GREEN EXPO s’est penché sur la question à l’occasion des trois dernières éditions : 2004/2005 + 3.25 % 2005/2006 +9.58 % 2006/2007 +10.57 % La rentabilité coût / personne est en moyenne de 126,78 euros HT et son évolution est conséquente comme les chiffres le montrent : en effet, les commanditaires de l’événement exigent que l’organisateur mette à disposition des salles de conférence de toutes les tailles pour accueillir plénières et ateliers, voire de simples réunions de travail. Comme il n’y a pas de chiffre d’affaires lié à l’espace congrès (ce sont des formations continues subventionnées), aucun ratio en faisant l’état ne peut être calculé. Pour ce qui est de la mesure de la rentabilité de la stratégie de mobilisation des visiteurs du salon, aucune mesure du coût par contact n’est effectuée alors que le budget de communication est connu puisque budgété et que l’audience directe est mesurée grâce aux services d’un prestataire de contrôle d’accès. En reconstituant les données, nous découvrons un coût moyen au visiteur de 5,25 euros HT depuis 2002 (gestion de l’accueil, émission de badges, contrôles d’accès en divers points du salon, etc.). En voici l’évolution : Evolution du taux du coût par visiteur 2002/2003 +3.47 % 2003/2004 +5.87 % 2004/2005 +8.15 % 2005/2006 +9.39 % 2006/2007 +10.88 % Nous remarquons une nette tendance à la hausse qui préfigure une réunion de travail rapide pour trouver des solutions moins onéreuses. Concernant l’impact d’un document de mobilisation spécifique envoyé à la cible du salon pour déclencher une visite, GREEN EXPO n’a pu à ce jour isoler et donc étudier l’impact d’une démarche marketing par rapport à une autre faute de pouvoir isoler l’influence des autres documents utilisés. La mesure de la nature de l’audience directe en fonction de son intérêt pour le salon (audience inutile ou pas) est effectuée depuis 2002. L’évolution des ratios de l’audience directe non ciblée par rapport à 187 l’audience ciblée tourne autour de 1 visiteur sur 100 et l’évolution est très favorable : 2002/2003 +2.54 % 2003/2004 -1.56 % 2004/2005 -3.17 % 2005/2006 -6.74 % 2006/2007 -7.80 % Cette évolution démontre une maîtrise et une exclusion des visiteurs non souhaités sur le salon. Concernant la mesure des stratégies spécifiques de mobilisation comme l’envoi groupé d’emails ou de demandes d’accréditation, GREEN EXPO ne se livre pas à ce type de calcul, faute d’une maîtrise réelle de la gestion des retours de demande de badges. En effet, l’organisateur confie la saisie des demandes à différentes personnes qui ne font pas de suivi particulier. Par contre, une étude a été possible pour le nombre d’accrédités rapporté au nombre de demande d’accréditation : 2002/2003 +8.87 % 2003/2004 +9.01 % 2004/2005 +10.63 % 2005/2006 +9.37 % 2006/2007 +14.21 % Ceci démontre clairement une très bonne évolution de l’utilisation de l’outil Internet mis en place depuis 2002 : GREEN EXPO propose à ses visiteurs de s’inscrire en ligne et l’ergonomie de ce système d’inscription avec la création d’une fiche et du badge à imprimer fonctionne très bien. Le marché et ses acteurs jouent le jeu, année après année, malgré une cible « rurale » liée à l’entretien des terrains de sports engazonnés. Les outils de mesure de la rentabilité de la vente, quant à eux, sont les premiers à avoir été mis en place afin que le directeur du salon puisse contrôler le travail de son commercial. L’évolution des surfaces facturées par rapport à la surface brute totale du site est très favorable : 2002/2003 +2.22 % 2003/2004 +4.58 % 2004/2005 +9.74 % 2005/2006 +9.92 % 2006/2007 +10.01 % Avec cette évolution étudiée, le directeur du salon a également souhaité que le ratio qui évalue le taux de fidélisation des annonceurs soit suivi : 2002/2003 +1.04 % 188 2003/2004 +7.81 % 2004/2005 +4.69 % 2005/2006 +3.37 % 2006/2007 +9.51 % Avec ces évolutions positives, le salon GREEN EXPO confirme la fidélisation de ses exposants depuis 2002 soit un « noyau dur » de 85 structures sur une moyenne de 135. En conclusion de l’utilisation des outils de mesure mis directement à disposition de son organisateur, GREEN EXPO fait appel aux ratios qui offrent les réponses les plus urgentes. Nous remarquons par ailleurs qu’aucune réflexion sur d’autres outils de mesure n’a été mise à l’ordre du jour, le directeur de l’événement manquant par ailleurs de temps… GREEN EXPO est un salon professionnel organisé par un opérateur de petite taille comme plus de 80 % du marché de l’événementiel et cette lacune dans l’évaluation de la performance de son salon est monnaie courante. Il ne sera donc pas question ici d’étudier l’évolution de la marge nette de l’événement avec celle du budget marketing… Enfin, GREEN EXPO ne faisant pas appel à des prestataires extérieurs pour évaluer l’impact financier des relations presse de l’événement, aucune information ne pourra être calculée pour découvrir l’équivalent publicitaire et les informations de première main qu’elles pourront procurer pour orienter les décisions en matière de communication, pourtant essentielles quand on travaille dans des secteurs aussi différents (en matière de supports surtout) que le golf, le football, le rugby et les hippodromes. Quant à savoir si la notoriété et l’image de l’événement évoluent favorablement, la question reste en suspend. Bibliographie indicative Gopalakrishna, S, “Do trade shows pay off ?” in Journal of Marketing, n°59/3, 1995 Cavanaugh, S, “Setting objectives and evaluating the effectiveness of trade shows exhibits” in Journal of Marketing, n°40/4, 1976. Francisco, Robert J, “Selling at trade shows : avoid the herd instinct” in Management Review, April, 1986 Shaw, R., Merrick, D. John, Marketing Payback : Is your Marketing Profitable ? Wiley & Sons, INC. Harlow, 2005 Charié, J-P, Le développement en France des foires, salons et congrès. Rapport d’information de l’Assemblée Nationale, N°2826, 2006 189 190