Université Paris XII Val de Marne

Transcription

Université Paris XII Val de Marne
Université Paris XII Val de Marne
L’environnement informationnel
des introductions en bourse
Florence AMANS-LABÉGORRE
Thèse de Doctorat en Sciences de Gestion
soutenue le 26 novembre 2003
THÈSE DE DOCTORAT
en Sciences de Gestion
L’environnement informationnel
des introductions en bourse
Florence AMANS-LABÉGORRE
Université Paris XII Val de Marne
Thèse de doctorat
Spécialité : Sciences de Gestion
présentée par
Florence AMANS-LABÉGORRE
pour l’obtention du titre de
Docteur en Sciences de Gestion
sur le sujet
L’environnement informationnel
des introductions en bourse
directeur de thèse
Pr. Édith GINGLINGER (Université de Paris Dauphine)
soutenue le 26 novembre 2003
devant le jury composé de :
Pr.
Pr.
Pr.
Pr.
Pr.
Laurent BATSCH
François DEGEORGE (rapporteur)
Jean-François GAJESWSKI
Édith GINGLINGER
Pascal LOUVET (rapporteur)
Université
Université
Université
Université
Université
de
de
de
de
de
Paris IX Dauphine
Lugano
Paris XII Val de Marne
Paris IX Dauphine
Grenoble II
«(...) les chiffres restaient vagues. Madame Caroline ne pouvait arriver à
une appréciation exacte des gains, car les opérations de Bourse se font en
plein mystère, et le secret professionnel est strictement gardé par les agents
de change.», (Zola, L’Argent, chapitre XI, page 447)
Remerciements
Je tiens avant tout à exprimer ma profonde gratitude au Professeur Édith
Ginglinger pour avoir dirigé ce travail. Ses conseils pertinents, sa disponibilité et ses encouragements ont amplement contribué à la bonne réalisation
de cette thèse.
Je remercie également les Professeurs Nathalie Mourgues, Jean-François
Gajewski puis Suzanne Pontier de m’avoir accueillie au sein de l’équipe de
recherche de l’IRG.
Je remercie Messieurs les Professeurs François Degeorge, Pascal Louvet,
Jean-François Gajewski et Laurent Batsch qui me font l’honneur de participer à mon jury de thèse.
La partie empirique n’aurait pu être menée à bien sans le concours de
nombreux professionnels. Je remercie Patrice Genovèse, sans lequel je n’aurais pu obtenir de précieux contacts à la COB.
Marie Christine Livinec et Jean-Louis Betriou de KBC Securities, Denise
Veyrenc de Natexis Capital, Nathalie Fournier-Delugeard et Marcon Derric
d’ING-Ferri entre autres, ont pris le temps de répondre à mes questions sur
le métier d’analyste.
Geoffroy de Coatparquet et Yannick Mazet de la SFAF m’ont aidée à améliorer
le questionnaire envoyé aux analystes.
J’ai pu m’entretenir avec Bernard Hinfray et Benoı̂t Boucly de Jacques Wenig et associés, Patrick Iweins de RSM Salustro Reydel des diligences des
commissaires aux comptes lors d’une introduction en bourse.
Jean-Jacques Vaxelaire de Cyril Corporate, Jean-Michel Cabriot et Sandrine
Chanat de Natexis Capital m’ont fait partager leur expérience du montage
d’une opération d’introduction.
J’ai mieux appréhendé la préparation de la communication d’introduction
grâce à Fabienne Deneck de Capital Events et Antoine Denry d’Eurorscg.
Enfin, j’ai pu recueillir auprès de Philippe Kienast le point de vue d’un di-
10
rigeant ayant introduit sa société en bourse. Qu’ils soient tous sincèrement
remerciés du temps qu’ils m’ont consacrée.
Je remercie gracieusement I/B/E/S International Inc. qui, dans le cadre
de son programme académique, m’a donné accès aux prévisions des analystes.
Mes remerciements s’adressent également à Arnaud Thauvron, toujours
de bon conseil ; à Stéphanie Serve et Sabri Boubaker, pour leur amitié et leur
aide constante.
Enfin, un grand merci à mon mari, dont le soutien a été si précieux tout
au long de cette recherche.
Introduction
L’exigence d’une information de qualité sonne comme une antienne sur
les marchés internationaux.
Pour la Banque Mondiale (1998) ou Sender (1999), les marchés asiatiques
auraient connu une crise en 1997, parce que leurs besoins informationnels
étaient insatisfaits. Plus récemment, le Président de la COB (Commission
des Opérations de Bourse) associe la «correction boursière» de l’année 2002,
à la «crise de confiance dans l’information financière ayant notamment pour
origine (...) les défauts de communication de certaines sociétés» (présentation
du 35ème rapport annuel, 14 mai 2003).
Les marchés ont besoin d’être correctement informés pour allouer les capitaux de manière optimale. Leurs dysfonctionnements sont donc logiquement
attribués à l’insuffisante quantité et qualité des informations à la disposition
des investisseurs.
Sur le plan micro-économique, une société doit se plier aux exigences informationnelles du marché dès son introduction en bourse. Tant qu’elle n’est pas
cotée, elle produit des informations pour les besoins de sa gestion interne. Elle
communique éventuellement ces informations aux banquiers pourvoyeurs de
fonds. Mais l’ouverture du capital s’accompagne d’un partage attendu d’informations de qualité. La COB exige que la candidat à l’introduction informe
le public de manière «exacte, précise et sincère» (règlement no 98-07). Elle
subordonne au demeurant l’admission définitive de la société sur un marché
réglementé, à la qualité de l’information publiée les trois premières années
de cotation (article 34 du règlement no 98-01).
L’efficience des marchés est à ce prix. La COB estime que la qualité des
informations publiées garantit l’efficience et l’intégrité des marchés (rapport
annuel 2001, p. 61).
L’obligation d’une bonne information des marchés participe d’une exigence plus générale de transparence1 , incombant aux sociétés cotées. En en1
«La transparence correspond à un environnement dans lequel l’information sur les
1
2
Introduction
trant sur le marché, la société doit devenir visible, transparente. «Tout se
passe comme si les entrepreneurs français, habitués à la pratique du tiroir
fermé, devaient se convertir à la politique de la maison de verre. L’opacité des
échanges est supplantée par la clarté des transactions ; les fortunes obscures
deviennent des patrimoines transparents ; la clandestinité des comptes cède
le pas à la publicité des écritures ; des sûretés occultes se transforment en
garanties révélées aux tiers ; les délibérations sociétaires, prises dans l’ombre,
font place à des processus décisionnels contrôlés» (Garaud, 1995, p. 12, cité
par Bessire, 2003, p. 2).
Toutefois, l’actualité pourfend la qualité des informations disponibles lors
d’une introduction en bourse, compte tenu des contre-performances de nombreux titres nouvellement cotés.
Certains dirigeants ont surestimé les perspectives de leur société, afin de
convaincre les investisseurs. Tel est le cas du dirigeant et fondateur de la
société Cryo, introduite sur le Second Marché en 1998. Ses prévisions d’équilibre financier pour 2001 se soldent en réalité par un déficit de 16.5 millions
d’euros. Alors qu’il promettait une croissance du chiffre d’affaires de 30% et
une marge d’exploitation positive pour 2002, Cryo est mise en liquidation
judiciaire en juillet 2002.
L’impartialité des analystes financiers affiliés aux banques introductrices est
également mise en cause. Certains actionnaires leur reprochent d’avoir recommandé à l’achat des valeurs introduites, contre toute logique financière.
Le cabinet de défense des actionnaires minoritaires Deminor a ainsi porté
plainte contre le Crédit Lyonnais. Il soupçonne la banque d’avoir publié des
analyses biaisées lors de l’introduction en bourse de la société Kalisto en
1999. Les analystes financiers du Crédit Lyonnais prédisaient alors une belle
réussite à cette entreprise. Pourtant, les pertes atteignent le décuple du chiffre
d’affaires en 2000. Et la société est liquidée en 2002. Aux États-Unis, Henry
Blodget a été radié de la profession d’analyste pour avoir publié des informations trompeuses. Ses recommandations à l’achat auraient permis à son
employeur Merrill Lynch d’obtenir des mandats de conseil pour un montant
de 115 millions de dollars2 .
Les investisseurs ne semblent donc disposer que d’une information imparfaite lors d’une introduction en bourse. L’écart entre la réalité et l’exigence
théorique d’une information de qualité nous a conduits à nous intéresser à
conditions, les décisions et les actions est rendue accessible, visible et compréhensible pour
tous les acteurs du marché» Van Greuning et Koen, p. 1, cités par Bessire, 2003, p. 5.
2
Les exemples relatés dans ce paragraphe sont inspirés du dossier «spécial mensonges»
de la revue Capital, no 141, juin 2003, pages 60-99.
Introduction
3
l’environnement informationnel des introductions en bourse. Nous souhaitions mieux comprendre pourquoi les informations diffusées sur les sociétés
admises à la cote semblaient peu fiables.
Notre recherche se distingue des travaux antérieurs à trois titres.
Traditionnellement, les informations diffusées par les analystes et le dirigeant sont analysées dans le cadre de la théorie de l’efficience des marchés.
Les études antérieures testent si le marché anticipe correctement le biais
des prévisions du dirigeant ou des analystes. Le cas échéant, les erreurs de
prévision ex post du dirigeant ou des analystes ne doivent pas expliquer significativement les performances boursières de la société considérée. Dans
cette thèse, nous avons choisi deux autres optiques. Nous considérons tout
d’abord l’offre d’information du dirigeant et des analystes financiers comme
un levier disciplinaire. Dans le cadre de la théorie de l’agence, les pressions
des mandants (les actionnaires et les créanciers de la société introduite ;
l’employeur de l’analyste) sont supposées déterminer le comportement des
producteurs d’information. Le dirigeant et les analystes évitent de coûteux
conflits d’agence en intégrant les préférences de leur principal dans leur offre
d’information. Nous envisageons ensuite les prévisions publiées par le dirigeant et les analystes comme des variables de signalisation. Dans le cadre
des modèles de signal, nous présumons que les investisseurs peuvent inférer
la vraie valeur de la société introduite, à partir des prévisions publiées par le
dirigeant ou les analystes financiers.
Notre travail se singularise ensuite sur le plan méthodologique. Nous avons
tout d’abord varié les méthodologies employées. Aux méthodes quantitatives, classiques en finance, nous adjoignons une enquête et une étude de cas.
Nous exploitons donc des données primaires et secondaires. Nous tentons par
ailleurs d’expliquer le délai de couverture des titres nouvellement cotés par
les analystes, grâce à une méthode originale, l’analyse de survie. Nous proposons enfin une réflexion sur l’efficacité d’Internet et de la voie postale comme
méthodes d’administration d’enquête.
Enfin, les apports de notre travail sont empiriques. Les investisseurs utilisent les prévisions publiées par le dirigeant et les analystes pour estimer la
valeur espérée des titres introduits. La qualité de ces informations importe
donc. Nous évaluons et comparons l’exactitude et le biais des prévisions contenues dans le dossier d’introduction et dans les bases d’I/B/E/S. Par ailleurs,
le processus de décision des analystes est peu étudié. Nous identifions les facteurs qui les amènent à suivre un titre nouvellement coté. Notre travail révèle
également les diverses variables utilisées comme signaux par les sociétés ad-
4
Introduction
mises à la cote française entre 1994 et 2000. Nous dépassons enfin l’approche
descriptive du rôle de la COB en matière d’information financière. Nous reconstituons en effet comment le régulateur met à jour, formule puis applique
les normes relatives aux informations publiées dans le dossier d’introduction.
La démarche retenue est la suivante.
La première partie comporte un seul chapitre. Elle précise le cadre théorique et empirique de la recherche. Elle présente tout d’abord la structure
de l’environnement informationnel des introductions en bourse. Elle oppose
ensuite les bénéfices théoriques attendus d’une information de qualité, au
constat empirique de la mauvaise qualité des informations diffusées sur les
sociétés introduites. Dans un troisième temps, nous justifions l’analyse de ce
paradoxe à la lumière des théories de l’agence et du signal. Nous exposons
enfin la démarche empirique retenue.
La deuxième partie analyse le comportement des producteurs d’information dans le cadre de la théorie de l’agence. Le chapitre 2 se focalise sur le
dirigeant de la société introduite ; les chapitres 3 et 4, sur les analystes financiers.
Dans le chapitre 2, nous mesurons la précision et le biais des informations
publiées par le dirigeant dans le prospectus d’introduction. Nous testons ensuite si les pressions des actionnaires et des créanciers influencent l’erreur
de prévision du dirigeant. En confrontant les bénéfices prévus et réels, les
créanciers et actionnaires peuvent aisément contrôler l’efficacité de la gestion du dirigeant. La publication de prévisions constitue donc un mécanisme
de gouvernement. Nous vérifions si les investisseurs anticipent de moindres
conflits d’agence en présence de prévisions exactes.
Le chapitre 3 s’intéresse aux analystes évaluant la société en cours d’introduction. Il rapporte les résultats d’une enquête administrée via Internet et la poste, auprès des analystes affiliés à l’entreprise d’investissement
spécialiste. Ces analystes rédigent l’étude financière incluse dans le dossier
d’introduction. Ils y présentent la société et l’opération d’introduction. Ils
établissent notamment le plan de développement de la société et anticipe le
prix d’équilibre attendu. Les études quantitatives antérieures montrent que
les analystes sont excessivement optimistes lorsqu’ils évaluent une société
ayant mandaté leur employeur. Elles avancent, sans le prouver, que les intérêts
commerciaux de l’employeur contraignent l’offre d’information des analystes.
Le chapitre 3 se propose d’apprécier la réelle indépendance des analystes de
Introduction
5
la société de bourse spécialiste, à travers leurs réponses à un questionnaire.
Le chapitre 4 considère les analystes financiers indépendants de la banque
introductrice et enregistrés dans les bases d’I/B/E/S. Dans le cadre de la
théorie de l’agence, ils cherchent à prévenir les conflits d’intérêts avec leur
employeur. Ils sont donc présumés suivre les sociétés nouvellement cotées,
susceptibles de maximiser le profit de leur employeur. Autrement dit, ils sont
supposés décider, au vu des commissions de courtage et/ou de placement anticipées, nettes du coût de production de l’information. Ce faisant, ils agissent
également dans leur intérêt, puisqu’une partie de leur rémunération dépend
des résultats de leur employeur. Dans le chapitre 4, nous testons cette hypothèse et déterminons les caractéristiques des admissions à la cote du Nouveau Marché ou du Second Marché, suivies par les analystes indépendants
d’I/B/E/S.
La troisième partie s’intéresse aux moyens d’enrichir l’environnement informationnel des introductions en bourse. Elle se penche notamment sur l’action du dirigeant de la société introduite et du régulateur.
Au moment d’une introduction en bourse, les investisseurs ne peuvent
aisément discerner les bons placements des mauvais à partir des seules informations publiques obligatoires. Ils sont confrontés à un problème de sélection
adverse. Le dirigeant peut aider les investisseurs à distinguer les réelles caractéristiques de sa société en émettant des signaux.
Il peut tout d’abord publier des informations prévisionnelles supplémentaires,
non exigées par la loi. Hughes (1986) montre dans son modèle que le dirigeant
signale efficacement la valeur de la société en diffusant volontairement aux
investisseurs ses prévisions de résultat. Dans le modèle de Trueman (1986),
la précision des prévisions publiées par le dirigeant prouve sa capacité à
prévoir correctement les changements de l’environnement économique, et à
y répondre. Elle peut donc constituer un signal de qualité. Le chapitre 5
évalue l’efficacité d’une signalisation par publication volontaire de prévisions
exactes.
Chemmanur (1993) propose une autre solution au problème de sélection
adverse. Dans son modèle, les sociétés performantes délèguent aux analystes
la tâche de révéler leur qualité. Les insiders doivent alors sous-évaluer les
titres introduits pour inciter les analystes à diffuser des informations sur leur
société. Ils ne se désengagent donc que partiellement lors de l’introduction.
Une fois les informations des analystes intégrées dans les cours, ils espèrent
céder leurs titres restants à des conditions favorables. Le chapitre 6 teste
6
Introduction
empiriquement le modèle de Chemmanur, sur un échantillon d’admissions à
la cote du Second Marché et du Nouveau Marché.
L’auto-régulation du marché de l’information ne saurait toutefois suffire.
Par exemple, nous trouvons que l’acte volontaire de publication ne réduit pas
l’incertitude des investisseurs ou des analystes. La qualité de l’information
financière dépend également de sa normalisation et de la bonne application
des règles adoptées (Kothari, 2000, p. 92). En la matière, la régulation est
préférée à la voie législative. Dans le chapitre 7, nous tentons de comprendre
pourquoi. La COB jouit d’une autorité réelle, comme en atteste sa future
appellation («Autorité des Marchés Financiers») ou la littérature (Guyon,
1986 ; Dessertine, 1997 ; Michaı̈lesco, 1999 par exemple). Au fil du temps,
elle serait parvenue à mieux adapter les informations publiées par les sociétés
aux attentes du marché. Comment réussit-elle à faire évoluer les informations
publiées par les candidats à l’introduction vers plus de transparence ?
Première partie
Le paradoxe de
l’environnement informationnel
des introductions en bourse
7
Chapitre 1
Présentation de
l’environnement informationnel
des introduction en bourse
La transparence est un principe fondamental de la finance de marché. Autrement dit, le marché ne fonctionne correctement que s’il dispose de toute
l’information pertinente. En effet, sans information suffisante et de qualité,
les investisseurs ne peuvent prendre de décision éclairée. La transparence de
l’information rend donc possible le jugement rationnel, présumé dans le cadre
de la théorie néo-classique.
La transparence jouit ainsi d’une certaine caution théorique. Elle fait également l’unanimité auprès des praticiens. Les responsables politiques affirment leur foi en ses vertus. Ils désignent l’opacité comme la fautrice des
crises sur le marché financier (rapport Davanne, 1998). Inversement, la transparence garantirait la stabilisation financière1 .
En s’introduisant en bourse, une société est supposée accepter la logique
du marché et donc «sa mise en transparence». La réalité semble tout autre.
Bien moins d’informations semblent disponibles sur une société introduite
sur le Second ou Nouveau Marché, que déjà cotée. Sur notre échantillon
de 326 sociétés introduites sur les Second et Nouveau Marchés entre 1994
et 2000, 139 seulement ont publié des prévisions de résultat chiffrées dans
leur prospectus, soit un tiers (tableau 1.6). 194 ont vu, au cours de leur
1
Certains chercheurs contestent le bien-fondé du primat de la transparence (par exemple
Lordon, 2002). Dans des modèles non marchands, la régulation du système financier peut
ne pas reposer sur la transparence de l’information. Tel a été le cas du modèle nippon
«méso-corporatiste» au moins jusqu’au début des années 80 (Amable et al., 1997, p.
215-217).
9
10
Chapitre 1
première année boursière, leurs futurs résultats prédits par au moins un analyste indépendant2 , collaborant avec I/B/E/S. En comparaison, les analystes
d’I/B/E/S ont suivi 62% des sociétés du SBF 250, en moyenne annuelle
entre 1994 et 2000. Une société introduite intéresse en moyenne 3 analystes
indépendants au cours de sa première année de cotation. Parallèlement, huit
analystes suivent une société du SBF 250, en moyenne annuelle entre 1994
et 2000.
Les prévisions diffusées sur les sociétés nouvellement cotées semblent de
surcroı̂t inexactes. Les 139 dirigeants de notre échantillon se trompent en
moyenne d’environ 300% dans leurs prévisions de résultat. Les analystes sont
également très optimistes dans leurs anticipations. Ils commettent une erreur
moyenne de 50% sur notre échantillon. Toutefois, ils paraissent moins précis
lorsqu’ils estiment les résultats à un an d’une société du SBF 250. Par an sur
la période 1994-2000, leur erreur moyenne de prévision passe à 348%.
Enfin, les asymétries d’information semblent accentuées au moment d’une
introduction en bourse. Elles peuvent être approchées par la dispersion des
estimations des analystes. Sur notre échantillon d’introductions en bourse,
l’écart-type moyen des prévisions des analystes indépendants, normé par le
bénéfice par action réel, s’élève à 50%. Il n’est que de 30% sur l’échantillon
des sociétés du SBF 250, en moyenne annuelle entre 1994 et 2000.
Certes les sociétés nouvellement cotées sont de plus petite taille et moins
connues du marché que les sociétés du SBF 250. Elles sont également moins
expérimentées en termes de communication financière. Mais ces seuls facteurs
ne peuvent suffire à expliquer l’importance de l’écart informationnel entre les
marchés primaire et secondaire.
Au vu de ces quelques chiffres, dont l’interprétation doit rester prudente,
l’admission à la cote déroge au canon de la transparence. Dans la littérature
également, les informations disponibles pour évaluer le candidat à l’introduction apparaissent rares, inégalement réparties, imprécises et biaisées.
Nous partons ainsi de deux constats. Une société qui entre sur le marché
financier est supposée en accepter les principes de fonctionnement. Elle doit
en particulier se plier à l’exigence de transparence. Pourtant, une relative
opacité entoure une introduction en bourse. Notre question et nos objectifs de recherche émergent de ce paradoxe. Comment expliquer et dépasser
cette antinomie ? Nous cherchons à comprendre d’une part, ce manque de
transparence ; d’autre part, comment les agents et les institutions tentent
2
L’affiliation de l’analyste détermine la nature et le cadre de son travail. Dans cette
thèse, les analystes qualifiés d’«affiliés» désignent ceux rattachés à la banque introductrice
(c’est-à-dire chargée de la préparation de l’introduction). Les autres analystes sont dits
«indépendants».
Chapitre 1
11
d’y remédier. À cette fin, nous nous sommes placée dans le cadre du paradigme positiviste. Ce dernier implique un centrage sur les faits, la recherche
de relations causales, une approche analytique et hypothético-déductive.
Nous présentons le cadre de notre recherche en trois temps. La section 1
dresse l’état des connaissances sur l’environnement informationnel des introductions en bourse. La section 2 expose les avantages d’une information de
qualité, tels qu’avancés dans la littérature. Ces deux premières sections nous
conduisent à formuler la problématique et les objectifs de la recherche. Nous
y répondons de manière théorique, puis préparons le passage au terrain dans
une troisième section.
1.1
L’environnement informationnel d’une introduction en bourse : une revue de la
littérature
L’environnement informationnel désigne l’ensemble des informations disponibles sur le candidat à l’introduction. Nous présentons tout d’abord sa
structure, c’est-à-dire les acteurs et les informations produites. Nous justifions ensuite la limitation de cet environnement aux prévisions de résultat
publiées par la société et les analystes sell side. Nous apprécions enfin sa
qualité.
1.1.1
La chaı̂ne de production et de diffusion de l’information
D’amont en aval, l’information est produite, puis contrôlée et enfin diffusée à ses destinataires au moyen de supports. Mais les composantes de cette
chaı̂ne varient selon le statut privé ou public (coté) de la société appréciée.
Avant l’introduction en bourse
Une société privée produit, via ses services comptables et financiers, les
informations exigées par la loi.
Ces informations prennent essentiellement la forme du rapport annuel.
Le commissaire aux comptes contrôle la fiabilité de ces informations. Il doit
ainsi certifier que les comptes annuels sont réguliers, sincères et donnent une
image fidèle des résultats, de la situation financière et du patrimoine de l’entreprise.
12
Chapitre 1
Les informations produites servent aux besoins de la gestion interne. Objectives, elles constituent encore un moyen de preuve entre commerçants. Elles
permettent aux partenaires financiers et commerciaux d’évaluer la société, et
à l’administration fiscale de calculer l’assiette de l’impôt.
La non cotation favorise une production et un «partage privés » de l’information (Nobes, 1988). Mais l’introduction en bourse modifie profondément
l’environnement informationnel de la société.
Après l’introduction en bourse
L’introduction en bourse multiplie les producteurs d’information, les contrôleurs, les informations produites, les vecteurs de communication et les
destinataires.
Les producteurs d’information ne sont plus seulement internes, mais
aussi externes. L’intéressé peut s’informer sur l’opération auprès de l’émetteur
lui-même, des intermédiaires financiers, des gestionnaires de fonds, des journalistes spécialisés ou des agences de notation.
Le contrôle légal concerne toujours uniquement les informations produites par la société. Mais il est désormais dual.
En premier lieu intervient le commissaire aux comptes.
Dans le cadre de sa mission générale et de l’article L 228 alinéa 3 de la loi sur
les sociétés, il vérifie la sincérité et la concordance, avec les comptes annuels,
des informations du prospectus.
La norme de travail no 354 révisée3 précise ses diligences lors d’une introduction en bourse. Seules les informations comptables et financières entrent
dans le champ de sa revue. Sont présumées de nature comptable et financière,
toutes les informations chiffrées issues d’un système d’information vérifiable.
Le commissaire aux comptes rappelle la nature de son intervention et l’opinion émise sur les comptes historiques. Quant aux informations prévisionnelles,
il se prononce sur la pertinence et la cohérence de leurs hypothèses de construction, sauf exceptions prévues aux paragraphes .22, .24, .25 de la norme. À
l’issue de ses diligences, il exprime, sous forme d’observation ou d’absence
d’observation, sa conclusion sur la sincérité des informations comptables et
financières du prospectus.
3
Bulletin COB, no 352 décembre 2000, p. 27.
Chapitre 1
13
En second lieu agit la COB (Commission des opérations de bourse).
Concernant les informations comptables et financières, la COB s’assure que
les commissaires aux comptes ont effectué les diligences nécessaires. À défaut,
elle peut leur demander des investigations complémentaires ou faire appel à
un cabinet spécialisé extérieur.
La COB contrôle a priori la régularité et la complétude des autres informations contenues dans le prospectus. Autrement dit, ces informations doivent
être conformes aux règlements. Elles doivent permettre à un investisseur de
souscrire en toute connaissance de cause.
Lorsque le document d’information satisfait ses exigences, la COB y appose son visa. Elle peut assortir ce visa d’un avertissement, afin d’attirer
l’attention des investisseurs sur certains facteurs de risque. Visa et avertissement figurent en première page de la note d’information. Depuis 2002, la
COB a assoupli la procédure de délivrance du visa. Elle a supprimé le visa
définitif, dès lors que le prix, la quotité et le calendrier définitifs sont arrêtés
dans les limites initiales prévues dans le prospectus ou toute communication
complémentaire ultérieure.
Les informations produites sur la société sont multiformes : rapports, recommandations boursières, commentaires, analyses financières, notes...
Des canaux écrits, oraux ou électroniques assurent la transmission des
informations.
Le normalisateur exige de la société une version papier du document d’information. La publicité légale de l’opération est assurée dans la presse écrite.
Les échanges oraux sont également nombreux. Le dirigeant présente sa
société et l’opération aux analystes financiers, à l’occasion d’une réunion
organisée en collaboration avec la SFAF (Société Française des Analystes Financiers). Il rencontre les investisseurs institutionnels collectivement lors des
road shows, ou individuellement lors des one-to-one meetings. Les analystes
communiquent avec leurs clients par téléphone. Comme les commissaires aux
comptes et la banque introductrice, ils visitent le site de l’entreprise et discutent avec les principaux responsables.
Des moyens électroniques couvrent l’événement. La société peut mettre en
ligne le prospectus d’introduction sur son site web. Une vidéo-conférence
permet parfois de suivre la réunion SFAF. Les analystes diffusent leurs recommandations par fax ou courrier électronique.
14
Chapitre 1
Les destinataires de l’information dépassent les bailleurs de fonds et
l’administration fiscale. L’admission à la cote fait connaı̂tre la société au
public et à la communauté financière. Facteur de notoriété, elle élargit les
cibles de l’information diffusée : actionnaires, investisseurs, analystes, clients
et fournisseurs potentiels...
L’environnement informationnel d’une introduction en bourse est ainsi
pluriel. Nous avons donc dû circonscrire notre objet de recherche afin de le
rendre «opérationalisable».
1.1.2
L’unité d’analyse
Nous précisons l’unité d’analyse, c’est-à-dire le cadre spatio-temporel, les
informations et les producteurs étudiés.
Le cadre spatio-temporel
La recherche progresse, entre autres, de manière incrémentale. Nous situons notre travail par rapport à l’existant.
Nous sommes tout d’abord partie du travail effectué par Anne-Marie
Faugeron-Crouzet (1997) sur le marché français. L’auteur met en évidence
le comportement stratégique des intermédiaires financiers (la banque introductrice et la société de bourse spécialiste) lors du choix du mécanisme de
vente. Elle prouve également l’existence d’asymétries d’information entre les
investisseurs. Elle montre enfin que les procédures réduisant les asymétries
d’information (le placement et la mise en vente), ne diminuent pas significativement la sous-évaluation du prix d’offre. Elle réalise son étude sur l’ensemble
des introductions sur le Second Marché de 1983 à 1994.
Dans son prolongement, nous considérons l’hypothèse de conflits d’intérêts
au sein de l’émetteur et des établissements financiers suivant l’opération
ou y participant. Nous étudions l’impact de ces conflits d’agence non sur
la procédure d’introduction, mais sur la qualité des informations produites
par le dirigeant et les analystes. Nous approfondissons le lien entre la sousévaluation et la révélation, par les investisseurs, de leurs informations privées.
Nous envisageons l’émission de signaux et la régulation de l’information
comme moyens de limiter les asymétries d’information. Nous observons les
introductions sur le Second Marché entre 1994 et 2000, ou le Nouveau Marché
entre 1996 et 2000.
Chapitre 1
15
Notre thèse est par ailleurs à la croisée de deux champs de littérature.
Le premier concerne les prévisions publiées dans les prospectus d’introduction. Les travaux, rares en France, sont plus nombreux sur les marchés asiatiques ou anglo-saxons (tableau 1.2). Ils testent l’hypothèse d’efficience du
marché. Autrement dit, ils regardent si le cours d’équilibre corrige l’optimisme/le pessimisme (mesuré ex post) des prévisions du dirigeant. Enfin, ils
expliquent traditionnellement l’imprécision des prévisions du dirigeant par
l’incertitude ou un biais cognitif.
Dans notre thèse, nous étendons les recherches antérieures au marché français.
Nous évaluons la qualité des prévisions des sociétés introduites sur le Second
Marché ou le Nouveau Marché. Le contexte légal original rendait cette question intéressante. D’une part, le dirigeant voit rarement sa responsabilité engagée pour diffusion de prévisions inexactes, fausses ou trompeuses. D’autre
part, le contrôle légal des prévisions du prospectus est formel et limité. Enfin, la réglementation des informations à publier en vue d’une admission à la
cote diffère selon les marchés d’introduction. Par ailleurs, nous abordons la
qualité des prévisions du dirigeant à la lumière de la théorie de l’agence.
Notre thèse s’inscrit dans un second courant de littérature, relatif aux
prévisions des analystes sur les sociétés nouvellement cotées. En la matière,
la recherche est bien plus ancienne et abondante aux États-Unis qu’en France.
Elle traite classiquement de deux questions : l’affiliation de l’analyste influencet-elle son offre d’information ? Le marché est-il efficient ? Les principaux
résultats obtenus sont les suivants. Les analystes affiliés apparaissent significativement plus optimistes que les analystes indépendants (Michaely
et Womack, 1999 ; Dechow et al., 2000 ; Derrien et Degeorge, 2001). Les
conflits d’intérêts au sein des établissements financiers sont avancés pour
rendre compte de cet optimisme excessif. Aux États-Unis, les investisseurs
semblent dupes du biais entachant les prévisions des analystes. Les performances boursières à long terme sont moindres pour les introductions recommandées par des analystes affiliés qu’indépendants (Michaely et Womack,
1999). Elles sont significativement liées aux erreur de prévision des analystes, affiliés comme indépendants (Dechow et al., 2000). En France, les
investisseurs paraissent correctement anticiper le biais des prévisions contenues dans l’analyse financière jointe au prospectus, à l’horizon du premier ou
second exercice fiscal suivant l’introduction. Par contre, l’erreur de prévision
des analystes d’I/B/E/S explique significativement les rentabilités moyennes
cumulées sur la période [date d’introduction + 10 jours ; fin exercice fiscal +
5 mois] (Derrien et Degeorge,2001).
L’indépendance des analystes a été moins sujette à caution en France qu’aux
États-Unis, grâce au cadre institutionnel. La banque d’investissement y est
16
Chapitre 1
moins développée et les analystes sont moins médiatisés. La SFAF interdisait dès la première version de son code de déontologie, certaines pratiques
répandues aux États-Unis (par exemple l’indexation de la rémunération des
analystes sur le produit des introductions en bourse). Elle travaillait déjà au
respect de l’objectivité de l’analyste, avant la crise de confiance des marchés.
Ces spécificités institutionnelles et le travail de Derrien et Degeorge rendaient nécessaire une approche renouvelée des informations produites par
les analystes sur les titres introduits. Les analystes rattachés à l’entreprise
d’investissement spécialiste font l’objet d’une première étude qualitative et
exploratoire. Nous tentons de vérifier leur réelle indépendance dans l’exercice
de leur métier, au travers de leurs réponses à une enquête. Dans une seconde
étude quantitative, nous nous intéressons aux analystes «indépendants». En
fonction de quels critères ces analystes choisissent-ils de suivre une société
nouvellement cotée ? Leur employeur ne participe pas à l’opération d’introduction. L’intérêt des investisseurs devrait donc déterminer la décision des
analystes. Nous testons cette hypothèse.
Les informations étudiées
Parmi les nombreuses informations disponibles sur le candidat à l’introduction, les prévisions de bénéfice par action ont principalement retenu notre
attention. Trois raisons ont guidé notre choix.
En premier lieu, les prévisions de résultat constituent un outil de décision
prisé. Les investisseurs évaluent le candidat à l’introduction au regard de ses
performances futures anticipées. Les autres partenaires économiques de l’entreprise doivent décider s’ils contractent ou poursuivent leurs relations avec
la société. Tous ont donc besoin de connaı̂tre les bénéfices attendus des investissements financés grâce aux fonds levés (Firth, 1998). Des informations
prévisionnelles leur sont nécessaires. Elles déterminent également les recommandations boursières des analystes (Govindarajan, 1980 ; Bandyopadhyay
et al., 1993 ; Schipper, 1991).
En second lieu, les prévisions sont l’objet d’un courant de recherche fécond.
Nous pouvons donc juger de la validité externe de nos résultats, en les
confrontant aux travaux antérieurs.
En troisième lieu, apprécier la qualité de prévisions chiffrées est aisé. Les propriétés de ces informations (exactitude, biais, dispersion, nombre d’émetteurs,
rapidité de diffusion etc) sont autant de critères de qualité.
Nous avons également eu besoin d’informations non prévisionnelles. Par
exemple, les performances boursières nous ont entre autres permis de mesurer la valeur informative des prévisions. Nous avons considéré certaines
Chapitre 1
17
caractéristiques de la société comme déterminants potentiels de la richesse
de l’environnement informationnel.
Les producteurs d’information étudiés
Nous justifions tout d’abord la restriction de nos investigations à deux
producteurs d’information : l’émetteur et les analystes financiers sell side.
Leur rôle informationnel est ensuite explicité.
Justification
La société émettrice a été retenue en tant que producteur légal d’information. Ses prévisions sont accessibles gratuitement à tous. Leur fiabilité importe donc. Pourtant, elle n’est appréciée que formellement par les
contrôleurs légaux (commissaires aux comptes, COB), et rarement par les
chercheurs en France.
Les analystes financiers produisent également des prévisions.
L’article 2-4-1 du règlement général du CMF (Conseil des marchés financiers) les définit comme des prestataires de services informationnels. «Exerce
la fonction d’analyste financier toute personne physique ayant pour mission
de produire des analyses financières sur les personnes morales (...) dont l’admission à la négociation est demandée, en vue de formuler et généralement
diffuser une opinion sur l’évolution prévisible desdites personnes morales et
par conséquence sur l’évolution prévisible du cours de bourse de ces instruments».
Les analystes financiers peuvent être buy side ou sell side. Les gestionnaires de fonds et investisseurs institutionnels emploient les analystes dits
buy-side. Les analystes sell side travaillent pour des entreprises d’investissement. Eux-seuls ont retenu notre attention, pour trois motifs.
Tout d’abord, les informations qu’ils produisent sont diffusées à l’extérieur
et donc aisément disponibles. Au contraire, celles produites par les analystes
buy side sont réservées à leur employeur.
Ensuite, notre thèse est plus facile à vérifier auprès d’analystes sell side que
buy side. Leurs fonctions préservent les analystes buy side de contraintes
commerciales et donc de partialité dans leur jugement.
Enfin, les prévisions des analystes sont utiles aux praticiens comme aux chercheurs. Les investisseurs s’en servent pour évaluer les sociétés et réagissent
à leur révision (Capstaff et al., 2000). Jusqu’au début des années 80, les
prévisions de résultats établies à partir de modèles en séries temporelles
18
Chapitre 1
approchaient les anticipations du marché. Depuis, les prévisions des analystes les ont remplacées car plus précises (Fried et Givoly, 1982 ou Brown et
al., 1987). Elles comprennent en effet des informations plus récentes et plus
variées que les modèles statistiques (Alexander, 1995).
Rôle informationnel de la société et des analystes
- L’émetteur
L’émetteur élabore une note d’information ou prospectus avec l’aide du
banquier introducteur. Soit le prospectus prend la forme d’un document
unique, informant à la fois sur la société et l’opération. Soit il comprend
deux documents. Le document de référence présente de manière détaillée la
société. La note d’opération décrit les conditions de l’introduction, rappelle
les principales caractéristiques de la société ou les actualise le cas échéant.
Elle est préliminaire tant que le prix d’offre et le calendrier sont provisoires.
Elle devient définitive, une fois le prix d’offre et le déroulement de l’opération
fixés.
Une agence de communication s’occupe de la préparation matérielle de la
communication d’introduction : organisation des réunions, réalisation des
supports de communication, communiqués de presse etc.
Nous avons établi un calendrier indicatif de la communication d’introduction, à partir de nos entretiens exploratoires4 et du tableau de Fereres et
Rivière (1999, page 89). Des acronymes identifient les différents intervenants
(tableau 1.1). S désigne la société, B la banque introductrice, EI l’entreprise
d’investissement, CAC les commissaires aux comptes, AC l’agence de communication et COB la Commission des opérations de bourse.
- Les analystes
Les analystes sont chargés de la recherche sur des titres, des émetteurs,
des marchés et/ou des secteurs. Leur rapport d’analyse s’accompagne le plus
souvent d’un prix cible et d’une recommandation d’investissement avec son
échéance de validité. Il est destiné à l’employeur gérant de fonds si l’analyste
est buy side. Il est vendu aux clients ou diffusé en interne aux vendeurs lors du
4
Afin de mieux comprendre le déroulement d’une introduction en bourse, nous avons
suivi celle de la société Capital Events. Dans cette phase exploratoire de notre travail,
nous avons rencontré le banquier introducteur (Natexis Capital), l’une de ses analystes, la
directrice de la communication de Capital Events, le commissaire aux comptes et l’agence
de communication EuroRSG. Nous avons enfin assisté à la réunion SFAF.
Chapitre 1
19
Intervenants
S, B, EI, CAC, AC
EI
S, B, CAC
Évènements
définition de la stratégie de communication
début de l’analyse financière
premier projet de note d’information
Date
S, B, CAC
COB
EI
Dépôt à la COB du dossier d’introduction
préliminaire
Étude du dossier par la COB
Rédaction de l’étude financière
COB, B, EI
COB, CAC, S
AC
Visite de la société
Visite à la COB
Remise à l’imprimeur des documents
AC
B, EI
Envoi des invitations aux journalistes
et aux investisseurs
J-30 jours
COB
Visa préliminaire
J-19 jours
B, S
Publication au BALO de la notice légale
J-15 jours
S, B, AC, EI
Réunion SFAF
J-14 jours
COB
Visa définitif
J
J-15
semaines
J-13
semaines
J-8 semaines
Tab. 1.1 – Communication d’introduction : calendrier indicatif
morning meeting, si l’analyste est sell side. Les vendeurs contactent ensuite
les clients et leur proposent d’acheter les titres. La réglementation interdit
aux analystes d’occuper, même momentanément, la fonction de vendeur.
Les analystes peuvent se voir confier d’autres missions, notamment dans
le cadre d’une introduction en bourse. Deux situations peuvent se présenter.
• La première a lieu lorsque la banque d’affiliation de l’analyste appartient à la syndication, c’est-à-dire au groupe de banquiers organisant l’introduction.
La syndication est désignée par la société. Elle comprend un chef de file,
éventuellement assisté d’un ou plusieurs co-chefs de file. Les honoraires sont
versés au chef de file, qui en rétrocède une quote-part aux autres banques.
Le chef de file, maı̂tre d’ouvrage, fixe le calendrier de l’opération. Il aide
la société à choisir la procédure d’introduction, l’entreprise d’investissement
et l’agence de communication. Il définit la stratégie de communication avec
20
Chapitre 1
l’émetteur et l’agence de communication. Le chef de file prépare et présente
le dossier d’introduction aux autorités de marché. Enfin, il diffuse les titres
dans le public et participe au contrat de liquidité ou d’animation.
L’expertise des analystes peut être utile à la (aux) banque(s) introductrice(s)
avant et pendant l’opération. Elle peut constituer un argument commercial lors de la recherche de mandat. Elle sert encore aux moments de la
négociation du prix d’introduction et du placement des titres.
• Le second cas de figure se réalise quand l’analyse travaille pour l’«entreprise d’investissement spécialiste».
Il réalise alors une étude financière jointe à la note d’information. Il y
présente l’activité de l’entreprise, sa stratégie, sa situation financière et les
conditions de l’opération. En particulier, il calcule la valeur espérée du titre,
grâce à plusieurs méthodes d’évaluation.
Nous avons observé les méthodes utilisées par les analystes dans quarante
quatre études financières jointes au dossier d’introduction. Comme les méthodes d’évaluation sont contingentes au secteur d’activité5 , nous avons retenu
uniquement des valeurs technologiques. L’échantillon se compose de trente
et une introductions sur le Nouveau Marché en 2000 et treize sur le Second
Marché entre 1994 et 1996.
Les treize sociétés du Second Marché sont évaluées par comparables boursiers,
complétés par une approche intrinsèque pour onze d’entre elles (méthode de
Bates, de Gordon Shapiro, de capitalisation des dividendes...) et par l’actualisation des flux de trésorerie disponibles pour les deux autres. L’approche
patrimoniale et celle du goodwill ont chacune été utilisées une fois. Vingt et
une sociétés du Nouveau Marché ont été estimées par l’approche analogique
et l’actualisation des flux de trésorerie disponibles, cinq par la méthode des
comparables uniquement, deux par la somme des parties, deux par actualisation des dividendes et une par l’EVA.
Ainsi, les analystes semblent surtout utiliser la méthode des comparables
boursiers pour évaluer le candidat à l’introduction. Ils la complètent par
l’actualisation des dividendes pour une introduction sur le Second Marché,
et par l’actualisation des flux de trésorerie disponibles pour une admission
au Nouveau Marché.
L’étude en coupe longitudinale de Fabre-Azéma (2002) intègre nos observations sur une période plus longue, entre 1991 et 2000. L’auteur analyse
l’évolution des pratiques d’évaluation des analystes au moment d’une intro5
Un analyste interrogé a par exemple évoqué «la méthode Champenoise pour les maisons de Champagne ».
Chapitre 1
21
duction en bourse, sur un échantillon de 209 sociétés introduites sur le Second
Marché. Les analystes recourent surtout au modèle de Bates au début de la
décennie. Entre 1993 et 1995, celui-ci est concurrencé par la méthode des
rendements. La méthode de Gordon-Shapiro est ensuite prisée entre 1994 et
1998. L’auteur souligne enfin la tendance depuis 1997 à l’évaluation indirecte des actions. Autrement dit, la valeur de l’actif économique est d’abord
déterminée par actualisation des flux de trésorerie ou de l’EBE. Elle est ensuite imputée de la valeur de la dette. Il en résulte la valeur des capitaux
propres de l’entreprise.
Ensuite, l’analyste applique une décote usuelle6 de 10 à 20% au prix
d’équilibre anticipé, et obtient le prix d’introduction.
Le rôle de l’entreprise d’investissement s’étend au-delà de la rédaction de
l’analyse financière. Pendant l’introduction, elle recueille les ordres d’achat
et les transmet à Euronext. Après l’introduction, elle anime les échanges sur
le titre.
Nous apprécions désormais la qualité des informations disponibles sur la
société introduite, au regard de la littérature.
1.1.3
La qualité de l’environnement informationnel
Au vu de la littérature, l’imperfection des informations disponibles sur
la société introduite tient à leur inégale répartition, leur imprécision et leur
biais.
L’inégale répartition des informations
De nombreux modèles théoriques supposent l’existence de fortes asymétries
d’information au moment d’une introduction en bourse. Ces asymétries renvoient à deux situations.
La première, dite de sélection adverse, se produit lorsque les investisseurs
ne peuvent obtenir une information exhaustive sur les caractéristiques de
l’introduction. Ils ne parviennent donc pas à la distinguer de candidats apparemment semblables. Ibbotson (1975), Allen et Faulhaber (1989), Welch
6
Les analystes rencontrés disent majorer la décote en cas de forte activité du marché
primaire, de faible visibilité des perspectives de l’entreprise, d’attribution de stock options
et de risque spécifique élevé.
22
Chapitre 1
(1989), Grinblatt et Hwang (1989) évoquent ce cas de figure.
La seconde, dite de hasard moral, a lieu quand l’un des participants cache
des informations indispensables au bon fonctionnement du marché ou entreprend des actions non observables.
Ainsi, les investisseurs ne sont pas également informés. Les agents non informés incluent l’entreprise et la banque introductrice dans le modèle de
Rock (1986) ; les investisseurs occasionnels et la banque introductrice dans
les modèles de Benveniste et Spindt (1990) ou Benveniste et Wilhelm (1990).
Les investisseurs informés détiennent des informations privées sur la valeur
de marché de l’entreprise dans le modèle de Rock. Ils savent combien de titres
ils sont prêts à acheter et disposent donc d’un avantage informationnel sur la
banque dans les modèles de Benveniste et alii. Ils espèrent retirer des gains
de leurs informations privées et ne sont donc pas prêts à les partager.
Baron (1982) étudie les asymétries d’information entre la banque introductrice et l’émetteur. La banque conseille l’entreprise lors de la fixation du prix
d’offre et distribue les titres. Mais la société ne peut observer les efforts de
l’introducteur. De surcroı̂t, la banque est mieux informée sur la demande du
marché, avant la signature du mandat. Elle peut être tentée d’occulter ou
fausser son information privée, afin d’obtenir une meilleure rétribution. Ces
asymétries affectent la société. Elles conduisent à un prix d’offre et à une
demande de titres plus faibles qu’en l’absence d’asymétries.
Les informations disponibles au moment d’une introduction en bourse
apparaissent dans la littérature non seulement inégalement distribuées mais
aussi de mauvaise qualité.
La mauvaise qualité des informations produites
Nous avons essentiellement cantonné l’environnement informationnel d’une
introduction en bourse, aux prévisions de résultat diffusées par la société et
les analystes financiers.
Les prévisions publiées ne sont utiles aux investisseurs que si elles modifient leurs croyances. À cette fin, elles doivent apporter une information
nouvelle, être exactes et les motivations du producteur à leur publication
doivent être compréhensibles (Patell, 1976).
Au regard des travaux empiriques, les prévisions diffusées par les dirigeants de sociétés cotées semblent présenter ces attributs. Elles sont plus informatives que les bénéfices historiques (Waymire, 1986 ; McNichols, 1989).
Chapitre 1
23
Suite à leur publication, les investisseurs révisent leurs anticipations et les
cours réagissent (Baginski et al., 1993 ; Pownall et al., 1993). Elles fondent
également les prévisions des analystes. Ota (2002) montre ainsi que sur 27
939 estimations d’analystes, 81.5% sont identiques à celles des dirigeants.
Les études empiriques attestent également de la valeur informative des prévisions publiées par les analystes. Elles sont plus précises que les modèles de
série temporelle (Brown et al., 1987 ; Givoly, 1982). Elles ont un impact sur
les cours (Lys et Sohn, 1990). Elles s’avèrent plutôt optimistes jusqu’à la
fin des années 90 (O’Brien, 1988 ; Fried et Givoly, 1982), pessimistes depuis
(Brown, 1997 ; Matsumoto, 2000).
Au moment d’une introduction en bourse, la valeur informative des prévisions publiées par le dirigeant et les analystes paraı̂t plus mitigée.
L’attribut informatif des prévisions dépend tout d’abord de leur précision
et de leur biais. Le tableau 1.2 recense les résultats des études empiriques
consultées (non exhaustives). Les prévisions portent sur le bénéfice par action
(BP Ap) de la société introduite, à l’horizon d’un an. Leur exactitude se
déduit de l’erreur absolue de prévision et leur biais, de l’erreur relative de
prévision. Trois formules sont possibles :
– (1) : précision = |BP Ar − BP Ap| / |BP Ar| ; biais optimiste si (BPArBPAp) / |BP Ar| < 0 où BP Ar désigne le bénéfice par action réalisé
– (2) : précision = |BP Ar − BP Ap| / |BP Ap| ; biais optimiste si (BPArBPAp) / |BP Ap| < 0
– (3) : précision = |BP Ar − BP Ap| / Cours du titre à la date de la
prévision ; biais optimiste si (BPAr-BPAp)/ Cours du titre à la date de
la prévision < 0
Toutes les erreurs de prévision reportées diffèrent significativement de 0,
sauf mention expresse (ns).
Nous commentons le tableau 1.2. Imhoff et Pare (1982), puis plus récemment, Hartnett et Römcke (2002) montrent que les résultats sont indépendants
de la définition de l’erreur de prévision. Autrement dit, le classement de
prévisions en fonction de leur précision est inchangé, quelle que soit la manière
de calculer l’erreur de prévision. Globalement, les informations produites par
le dirigeant et les analystes au moment d’une introduction en bourse apparaissent de mauvaise qualité. Mais leur caractère excessif et leur biais varient
selon les pays et la période étudiée.
Le dirigeant s’avère ainsi optimiste en Nouvelle-Zélande et en France,
plutôt pessimiste à Hong Kong, en Australie ou en Grande-Bretagne. Son
24
Chapitre 1
Auteurs
(année)
Jaggi
(1997)
Chan, Sit, Tong, Wong et Chan
(1996)
Chen, Firth et Krishnan
(2001)
Lee, Yee et Yee
(1993)
Firth et Smith
(1992)
Tan
(1987)
Keasey et McGuinness
(1991)
Schatt et Roy
(2002)
Degeorge et Derrien
(2001)
Période
Marché
1990-1994
Hong Kong
1990-1992
Hong Kong
1993-1996
Hong Kong
1976-1989
Australie
1983-1986
Nouvelle-Zélande
1972-1984
Singapour
1984-1986
Grande Bretagne
1996-2000
France
1991-1998
France
Degeorge et Derrien
(2001)
1991-1998
France
Chahine
(2001)
Rajan et Servaes
(1997)
1996-1998
France
1975-1987
États-Unis
N
émetteur
161
société
110
société
162
société
98
société
89
société
51
société
121
société
151
société
945
analystes
(I/B/E/S)
137
analystes
(prospectus)
168
analystes
327
analystes
Méthode
(1)
(2)
(2)
(1)
(2)
(1)
(2)
(2)
erreur absolue
Exactitude
12.86%
assez exactes
18%
assez exactes
21.96%
inexactes
1138.3%
très inexactes
141%
très inexactes
24%
assez exactes
11%
exactes
42.58%
très inexactes
(3)
(3)
(2)
(3)
erreur relative
Biais
3.10%
prudence
9.94%
pessimisme
994.4%
pessimisme
-92%
optimisme
5%
prudence
-12.10% (ns)
optimisme
-0.53%
léger optimisme
-0.36% (ns)
40.3%
inexactes
-19.3%
optimisme
-5.77%
optimisme
Tab. 1.2 – Exactitude et biais des prévisions publiées lors d’une introduction
en bourse dans la littérature
erreur fluctue également, indépendamment du mode de calcul retenu. Elle
s’échelonne de 11% (Grande-Bretagne) à 140% (Nouvelle-Zélande) avec la
méthode (2) ; de 13% (Hong Kong) à 1118% (Australie) avec la méthode (1).
Les prévisions contenues dans le prospectus semblent toutefois plus inexactes
que celles des analystes, toutes choses égales par ailleurs.
Les résultats relatifs aux prévisions des analystes ne permettent pas plus
aisément de conclure à un optimisme ou un pessimisme systématique.
Sur le marché américain, Rajan et Servaes (1997) évaluent la qualité des
prévisions de résultat à un an, émises par les analystes financiers sur 327
introductions en bourse leur première année de vie boursière. Ils rapportent
l’écart entre le BPA réalisé et le BPA prévu au cours de l’action à la date
de la prévision (formule (3) dans le tableau). Ils parviennent à une erreur
moyenne de -5.77%. Or l’erreur commise par les analystes sur 263 sociétés de
même secteur et de même taille que les 327 introductions, mais cotées depuis
trois ans, n’est que de -3.21%.
Reprenant la même méthodologie sur le marché français, Derrien et Degeorge
(2001) obtiennent une erreur moyenne de -0.37% sur 125 introductions et de
-1.46% sur 88 sociétés cotées. Leurs résultats contredisent les observations
de Rajan et Servaes. Les estimations des analystes semblent plus prudentes
lorsqu’elles portent sur une société introduite que sur une société cotée. Selon
les auteurs, les analystes seraient plus incités à l’exactitude qu’à l’optimisme
Chapitre 1
25
au moment d’une introduction en bourse.
Le changement de comportement des investisseurs à la date de publication atteste de la valeur informative des prévisions. L’étude d’événement est
classiquement utilisée pour détecter un éventuel effet d’annonce sur les cours.
L’absence de cotation avant la date d’annonce rend cette méthodologie inapplicable dans le cadre d’une introduction en bourse. Pour mesurer l’impact
des prévisions sur les cours, quelques auteurs déjà cités dans le tableau 1.2 ont
régressé les performances boursières sur les erreurs de prévision. L’équation
de régression testée est : P erf = α+β erreurprevision. L’erreur de prévision
est calculée comme dans le tableau 1.2. Les performances boursières initiales
ou à long terme constituent les variables à expliquer. L’hypothèse du contenu
informatif des prévisions équivaut à un β significativement différent de 07 .
Le tableau 1.3 récapitule les valeurs du β obtenues. RAC désigne les rentabilités anormales cumulées ; SEV la sous-évaluation (rapport de l’écart entre
le premier cours coté et le prix d’offre définitif, sur le prix d’offre définitif) et
RIA la rentabilité initiale anormale, égale à la sous-évaluation corrigée de la
rentabilité du marché.
auteurs
Derrien et Degeorge
variable dépendante
RAC sur un an
variable explicative
erreur prév. analystes prospectus (3)
Derrien et Degeorge
RAC sur un an
erreur prév. analystes I/B/E/S (3)
Schatt et Roy
RAC sur un an
erreur prév. dirigeant (2)
Chen et al.
SEV
erreur prév. dirigeant (2)
Firth et Smith
SEV
erreur prév. dirigeant (2)
Keasey et McGuinness
RIA
erreur prév. dirigeant (2)
résultats
β = 6.52
t = 3.25
β = 3.97
t = 3.25
β = 0.825
t = 3.25
β = 0.372
t = 3.25
β = −0.024
t = 3.25
β = 0.11
t = 3.25
Tab. 1.3 – Valeur informative des prévisions du dirigeant ou des analystes,
dans la littérature
Les erreurs de prévision du dirigeant ou des analystes sont toujours reliées
significativement aux performances boursières, excepté dans l’étude de Firth
et Smith. Ces résultats témoignent de l’utilité des informations prévisionnelles
pour les investisseurs.
La revue de littérature fait ressortir l’inégale répartition et la mauvaise
qualité des informations disponibles sur les introductions en bourse. Cette
7
Nous ne jugeons pas ici des anticipations naı̈ves ou rationnelles des investisseurs.
26
Chapitre 1
imperfection de l’information contraste avec les avantages liés à un environnement informationnel riche.
1.2
L’imperfection des informations : un paradoxe
La diffusion d’information de qualité maximise la fonction d’utilité des
producteurs et améliore le fonctionnement du marché financier.
1.2.1
Impact de la qualité de l’information sur la fonction d’utilité des producteurs
Le dirigeant et les analystes n’ont aucun intérêt personnel à la production
de mauvaises prévisions. Ils compromettent leur réputation, encourent des
sanctions juridiques voire boursières.
Le risque juridique
Les producteurs d’information s’exposent à des sanctions juridiques.
Les analystes qui ont recommandé à l’achat de manière persistante les
valeurs Internet voient aujourd’hui leur objectivité mise en cause.
Par exemple, le Procureur Général de New York suspecte l’analyste vedette de Citigroup d’avoir favorisé les intérêts de quelques clients importants
de la banque d’affaires.
La France n’a pas connu d’affaires aussi médiatisées qu’aux États-Unis.
Mais les analystes peuvent se voir infliger des sanctions disciplinaires. La
COB peut en effet saisir le Conseil des Marchés financiers lorsqu’elle a connaissance d’irrégularités commises par un professionnel des marchés.
La responsabilité du dirigeant peut également être engagée, surtout
par les actionnaires/investisseurs dans les pays anglo-saxons ; plutôt par le
régulateur en France.
Aux États-Unis, 12% des 1 312 actions collectives intentées par les actionnaires entre 1996 et 1999 mettent en cause les documents publiés lors d’une
introduction en bourse (Bajaj et al., 2000). En Australie, la Cour fédérale a
Chapitre 1
27
condamné le dirigeant de la société Burswood 8 pour publication d’informations mensongères dans son prospectus (Law et Callum, 2002, p. 14).
En France, le risque juridique est plus faible qu’aux États-Unis (Frost,
1997). Les investisseurs ne demandent ni n’obtiennent souvent réparation du
préjudice causé par l’inexactitude des prévisions diffusées par le dirigeant. La
procédure de recours collectif n’existe pas. Lorsque des actionnaires veulent
engager une action au civil, la charge de la preuve leur incombe. L’instruction au pénal est longue. La jurisprudence de la Cour de cassation considère
souvent que les fautes sont inséparables des fonctions (Neuville, 20039 ).
Toutefois, pour la COB, le dirigeant a une responsabilité assez large sur
la qualité de l’information financière publiée, quelle que soit sa source.
Par exemple, la COB exige qu’il confirme ou démente les rumeurs relatives
à l’opération.
Le dirigeant doit attester par écrit dans le prospectus, l’absence d’erreur ou
d’omission significative de nature à fausser le jugement des investisseurs.
La COB dispose de moyens d’action à l’encontre du dirigeant ayant publié
des informations de mauvaise qualité.
Elle peut sanctionner le dirigeant administrativement si les informations
publiées sont inexactes, imprécises et ont faussé le fonctionnement du marché
(article 3 du règlement n0 90-02). Elle peut prononcer une sanction pécuniaire
s’élevant jusqu’à 1,5 million d’euros ou au décuple du profit réalisé. Sa décision
est susceptible de recours devant la Cour d’appel de Paris10 .
Le Président de la COB peut saisir le Président du Tribunal de grande
instance de Paris, afin de mettre fin à des pratiques contraires aux lois et
règlements et portant atteinte aux droits des épargnants (exemple : Comptoir
des entrepreneurs, TGI Paris, 11ème ch., 17 décembre 1997). Pour l’exécution
de ses décisions, le président du Tribunal peut prendre toute mesure conservatoire ou prononcer une astreinte versée au Trésor.
En cas de délit boursier ou d’infraction à la loi sur les sociétés commerciales, la COB peut saisir le Parquet. Le Procureur classe le dossier, demande
des investigations supplémentaires, ou bien ouvre une information. Dans ce
dernier cas, soit l’affaire fait l’objet d’une ordonnance de non-lieu, soit elle
est renvoyée pour jugement devant le Tribunal correctionnel. Les sanctions
pénales maximales prévues sont un emprisonnement de deux ans et/ou une
amende de 900 à 1,5 million d’euros (exemples : Cass. crim., 15 mars 1993 ;
8
Affaire «Famel Pty Ltd v Burswood Management» (1989) 15 ACLR 572
Le Monde, 6 février 2003
10
Par exemple, Société Générale de Fonderie, CA Paris, 9ème ch., 15 janvier 1992 - CA
Paris, 16 décembre 1998
9
28
Chapitre 1
Cass. crim., 29 novembre 2000).
La sanction du marché
La Bourse révise à la baisse la cotation du titre, lorsque la société n’atteint pas ses prévisions. Elle pénalise en outre sévèrement les entreprises en
infraction avec la réglementation comptable (Beneish, 1999). Les sociétés accusées par la SEC de manipulation des résultats voient leur cours diminuer
en moyenne de 9% (Dechow et al., 1996).
Ces réactions boursières affectent personnellement le dirigeant. Elles laminent la valeur des actions éventuellement détenues par le dirigeant. Elles
peuvent entraı̂ner la révocation de son mandat.
La publication de prévision trop optimistes laisse une mauvaise impression au marché. Elle rend donc difficiles un second appel public à l’épargne
et le désengagement ultérieur d’actionnaires.
L’imperfection de l’information publiée porte ainsi préjudice aux producteurs d’information. Elle compromet également l’efficience des marchés.
1.2.2
Impact de la qualité de l’information sur le marché
financier
Les investisseurs prennent leur décision d’investissement en fonction des
informations disponibles sur la société considérée. Des déséquilibres apparaissent sur le marché de l’information lorsque l’information diffusée ne répond
pas aux attentes des utilisateurs (Ogan et Ziebart, 1991). Ces déséquilibres
faussent le fonctionnement du marché secondaire comme primaire11 .
Influence de la qualité de l’information sur le marché secondaire
L’imperfection des informations disponibles accroı̂t le coût du capital.
Elle limite l’efficience allocationnelle et informationnelle.
Le coût du capital est lié à la richesse de l’environnement informationnel, comme en témoignent certains travaux théoriques et empiriques.
11
D’après les articles 2 du règlement no 98-07, L. 621-14 et L. 621-15 du Code monétaire
et financier, l’information inexacte, imprécise et mensongère a pour effet de fausser le
fonctionnement du marché et de porter atteinte aux intérêts des investisseurs.
Chapitre 1
29
Dans leurs modèles, Diamond et Verrecchia (1991), Kim et Verrecchia
(1994) montrent que la publication volontaire d’information par la société
limite les asymétries entre les investisseurs informés et non informés. L’amélioration conséquente de la liquidité du titre attire les investisseurs institutionnels et réduit le coût du capital. En effet, plus les frais de transaction
sont faibles, plus les investisseurs acceptent de payer cher les titres et plus
l’émetteur lève de fonds (Verrecchia, 2001, p. 165). Pour Barry et Brown
(1986) également, les investisseurs exigent un plus faible taux de rentabilité
en contrepartie d’une meilleure information. Botosan (2000) montre que la
recherche théorique relie la qualité de l’information disponible à une diminution du coût du capital de deux manières. Une information publique de
qualité réduit les asymétries d’information entre l’entreprise et les investisseurs, donc le risque estimé et enfin le coût du capital, selon Klein et Bawa
(1976), Handa et Linn (1993) ou Clarkson et al. (1996) entre autres. Elle
permet une répartition plus équitable des informations entre investisseurs,
améliore la liquidité des titres et donc abaisse le coût du capital, d’après
Brennan et Tamarowski (2000) par exemple.
Les résultats empiriques confortent ces prédictions théoriques.
Botosan (1997) trouve que le coût du capital diminue avec la quantité d’information publiée dans le rapport annuel, seulement pour les sociétés faiblement
suivies par les analystes.
Sengupta (1998) étend l’analyse au coût de la dette. Il mesure la quantité
d’information diffusée par une société dans ses rapports annuels, trimestriels,
ses communiqués de presse et lors des réunions avec les analystes. Il établit
que l’augmentation d’un pourcent de l’indice de diffusion réduit le coût de la
dette de 0.02%.
Healy et al. (1998) mettent en évidence qu’une publication volontaire d’information améliore la liquidité des titres, attire les analystes et les actionnaires
institutionnels. Les sociétés retirent les mêmes avantages d’une augmentation
de leur note12 de communication financière (Healy et al., 1999).
Pour Piotroski (1999), la publication d’informations segmentées13 complémentaires permet au marché de mieux prévoir les résultats futurs. Cette
meilleure visibilité réduit le coût du capital pour la société.
Aux États-Unis, les analystes évaluent la communication financière des sociétés
cotées. Leur note détermine négativement et significativement le coût du ca-
12
Aux États-Unis, les analystes notent la qualité de la communication financière des
sociétés cotées.
13
Informations ventilées par secteur d’activité ou zone géographique.
30
Chapitre 1
pital (Botosan et Plumlee, 2000 ) et le spread 14 .
Enfin, Leuz et Verrecchia (2000) montrent que les firmes cotées sur le Neuer
Market 15 , astreintes à plus d’obligations informationnelles, avaient un spread
significativement plus faible que celles cotées à la Bourse de Frankfurt.
Les études empiriques présentées ne sont pas exhaustives (voir également
Welker, 1995 ; Botosan, 1997 ; Healy et al., 1999). Toutefois, elles restent
peu nombreuses. L’asymétrie d’information est en effet un concept difficile
à opérationnaliser. L’impact de la publication d’information supplémentaire
sur des marchés déjà bien informés ne peut être que marginal (Verrecchia,
2001, p.175).
Ainsi, la qualité de l’information disponible abaisse le coût du capital.
L’efficience allocationnelle est également améliorée par la qualité des
informations disponibles.
L’imperfection de l’information liée à la sélection adverse rend difficile
l’équilibre entre l’offre et la demande de capitaux. Les sociétés performantes
ne peuvent être distinguées des autres. Leurs titres se négocient donc à un
prix inférieur à leur juste valeur. Akerlof (1970) montre alors que le marché
est amené à disparaı̂tre. Il prend l’exemple du marché des voitures d’occasion.
Il suppose que ces automobiles sont soit de bonne, soit de mauvaise qualité.
Seuls les vendeurs connaissent leur qualité réelle. Les acheteurs connaissent
la probabilité d’acquérir une bonne ou une mauvaise voiture. Ils n’acceptent
de payer que la qualité espérée, à un prix moyen pondéré. Si les vendeurs
des meilleurs produits ne parviennent pas à révéler avec succès leur qualité,
ils ne pourront les vendre qu’au prix moyen, inférieur à celui qu’ils sont
en droit d’attendre. Certains quitteront le marché. Les autres proposeront
des produits de moins en moins bonne qualité. Les acheteurs seront alors
découragés et quitteront le marché.
L’efficience informationnelle est enfin affectée par la qualité de l’information disponible.
Plus les cours agrègent d’information, plus ils sont informatifs et proches
de la «vraie» valeur du titre.
La publication d’une plus grande quantité d’information par la société est
14
15
Écart entre le cours vendeur et le cours de l’acheteur le mieux disant
Le Neuer Market sera fermé d’ici fin 2003.
Chapitre 1
31
associée à un moindre risque de sous-évaluation16 (Healy et al., 1999) ou à
une réaction favorable des cours, toutes choses égales par ailleurs (Healy et
al., 1999).
Parallèlement, les cours reflètent d’autant plus rapidement l’information que
les analystes s’intéressent à la société (Barth et Hutton, 2000) ou que la
société publie beaucoup d’informations (Gelb et Zarowin, 2000).
Sur le marché primaire également, les imperfections de l’information diffusée rendent compte de phénomènes boursiers.
Influence de la qualité de l’information sur le marché primaire
Trois phénomènes sont classiquement observés sur le marché primaire :
les grappes d’introductions, la sous-évaluation et le déclin des performances
boursières. Nous les présentons brièvement, puis les relions à l’imperfection
des informations publiées.
Des phénomènes universels
L’activité du marché primaire est cyclique (La Porta et al., 1997). Aux
États-Unis, les introductions ont été moins nombreuses entre 1935 et 1959
que pour la seule année 1969 (Gompers et Lerner, 2001).
Le prix d’offre des candidats à l’introduction apparaı̂t sous-évalué par rapport au premier cours coté. Par exemple, Ritter et Welch (2002) obtiennent
une sous évaluation moyenne de 18.8%, sur un échantillon de 6 249 sociétés
introduites entre 1980 et 2001 sur le marché américain.
Le déclin des performances boursières à long terme des sociétés introduites
est plus discuté. Les résultats varient en effet selon la méthodologie employée, la période étudiée et l’échantillon (Ritter et Welch, 2002, p. 27 à 32).
Par exemple, sur l’échantillon de Ritter et Welch, les titres admis à la cote
américaine sous-performent l’indice de marché CRSP de 23.4% et des valeurs
cotées comparables (en termes de capitalisation boursière et de Book to Market) de 5.1%. Les études récentes réalisées sur le marché européen mettent
en exergue soit une absence de significativité, soit une faible significativité
des sous-performances à long terme des introductions en bourse (Stehle et
alii, 2000 ; Espenlaub et al., 2000 ; Sentis, 2001).
16
Une société est sous-évaluée si elle est cotée à un prix inférieur à sa valeur fondamentale.
32
Chapitre 1
Explication
Ces phénomènes ont longtemps été considérés comme des anomalies car
ils contreviennent au principe d’efficience. La sous-évaluation excède en effet
largement la prime offerte pour des titres de même niveau de risque. Dans
un marché efficient, le cours du titre devrait refléter sa valeur intrinsèque. Le
déclin de la rentabilité future des titres introduits ne devrait donc pas être
prévisible.
Les travaux récents attribuent de plus en plus ces phénomènes boursiers
à ce qui se passe sur le marché de l’information. Ils les rendent compatibles
avec l’efficience du marché.
En premier lieu, les grappes d’introduction peuvent être attribuées à l’inégale
répartition des informations au cours du temps. Les périodes où les introductions sont nombreuses correspondraient à des périodes riches en information (Van Bommel et al., 2001) ; Subrahmanyam et Titman, 1999 ; Lowry et
Schwert, 2002).
En deuxième lieu, la manipulation des résultats par le dirigeant au moment de
l’introduction expliquerait le déclin subséquent des performances boursières.
Teoh et al. (1998a et b) montrent que les dirigeants gèrent à la hausse les
résultats publiés avant l’introduction. Ils espèrent ainsi augmenter le prix
d’offre et les performances futures anticipées par les investisseurs. Le marché
est dupe initialement. Mais il corrige son excès d’optimisme sur le long terme
et sanctionne la société.
En troisième lieu, les asymétries d’information expliqueraient la sous-évaluation
du prix d’offre. Deux approches peuvent être distinguées.
1. Dans les modèles d’asymétrie, la sous-évaluation permet simplement
d’éviter les effets pervers liés aux asymétries entre les investisseurs. Mais
elle ne réduit pas le niveau des asymétries. Elle se résume à des dommages et intérêts, garantissant le succès de l’opération (Welch, 1992),
et à terme le bon fonctionnement du marché primaire (Rock, 1986).
Pour Welch, surévaluer le prix d’offre est risqué, compte tenu du comportement mimétique des investisseurs. Chaque individu s’intéresse aux
croyances des autres acteurs. S’il pense que les autres investisseurs estiment le prix d’offre surévalué, il n’acquiert pas de titres. Les autres
font de même, conduisant ainsi à l’échec de l’opération. Pour Orléan
(1999, p. 58 à 122), ces comportements procèdent d’une «rationalité autoréférentielle». À l’appui de cette thèse, Amihud et al. (2001),
montrent que rares sont les opérations moyennement souscrites. L’introduction est soit largement sur-souscrite, soit très faiblement souscrite.
Chapitre 1
33
Rock évoque la «malédiction du vainqueur». Si le prix d’offre est trop
élevé, seuls les investisseurs non informés souscrivent. Leur demande
de titres sous-évalués est par contre rationnée car concurrencée par
celle des investisseurs informés. Ils risquent aussi de ne plus participer aux opérations d’introduction. Or les seuls capitaux des investisseurs informés ne peuvent satisfaire les besoins des entreprises. Afin
de dédommager et de retenir sur le marché les investisseurs les moins
bien informés, la société doit accepter de sous-évaluer ses titres (voir le
modèle de Rock, 1986 et son test empirique sur le marché français par
Faugeron-Crouzet, 1997).
2. Au contraire, dans les modèles de signal et de collecte de l’information
privée, la sous-évaluation contribue à enrichir l’environnement informationnel.
Dans les modèles de signal, la sous-évaluation a en elle-même une valeur informative. La société est mieux informée de ses perspectives de
rentabilité que les investisseurs. La sous-évaluation permet à la société
de révéler sa qualité aux investisseurs et de résoudre le problème de
sélection adverse. Son coût est compensé lors d’une émission ultérieure
d’actions (Welch, 1989) ou de la réaction favorable du marché à l’annonce d’une distribution de dividendes (Allen et Faulhaber, 1989).
L’hypothèse d’une signalisation par la sous-évaluation semble mieux
vérifiée sur le marché français (Faugeron-Crouzet et Ginglinger, 2001)
que dans les autres pays (Jegadeesh et al., 1993 ; Spiess et Pettway,
1997 par exemple). La sous-évaluation est elle-même une information
pour le marché. Elle est un signal de qualité.
La sous-évaluation peut enfin être assimilée à un mécanisme incitatif,
amenant les participants à révéler leurs préférences et leurs informations privées. Dans les modèles de Benveniste et Spindt (1989), Benveniste et Wilhem (1990), Spatt et Srivastava (1991), la sous-évaluation
s’explique par les asymétries d’information entre la banque introductrice et les investisseurs. L’introducteur ignore la demande potentielle
de titres. Il va aussi sonder les investisseurs lors des road shows. En
contrepartie de leurs intentions d’achat, il leur promet des titres sousévalués et alloués en priorité. Plusieurs études empiriques accréditent
l’hypothèse d’une collecte de l’information privée. Selon Hanley (1993),
la banque n’ajuste que partiellement le prix d’introduction à la de-
34
Chapitre 1
mande de titres. Lee et al. (1999), Cornelli et Goldreich (2001) montrent
que les investisseurs informés se voient allouer de manière préférentielle
plus de titres.
Les producteurs d’information sont également les principaux intervenants
en bourse. Nous avons montré qu’ils gagneraient à la production d’information de qualité et à une meilleure diffusion des informations, sur le marché
de l’information comme sur le marché financier. Pourtant, au moment d’une
introduction, les informations disponibles semblent de mauvaise qualité et
les asymétries patentes.
Le premier objectif de notre recherche est d’expliquer ce paradoxe. Pourquoi
l’information sur la société introduite est-elle imprécise et biaisée, malgré le
gain général à la qualité de l’information ?
L’analyse de cette première question devrait permettre de mieux comprendre
comment sont produites les informations sur l’émetteur, et ce qui détermine
leur qualité. Elle amène ensuite une seconde interrogation : comment enrichir l’environnement informationnel d’une introduction en bourse ? Nous
envisagerons quelques solutions existantes et évaluerons leur efficacité.
1.3
Le protocole de recherche
Nous avons abordé notre problème de recherche principalement de manière
déductive. Aussi précisons-nous les choix théoriques puis empiriques effectués.
1.3.1
Les choix théoriques
Nous présentons les cadres conceptuels retenus pour répondre à nos questions de recherche.
La théorie de l’efficience des marchés
Nous admettons, d’une manière générale, l’efficience semi-forte des marchés
(Fama, 1970, p. 383). Autrement dit, le cours d’un titre à la date t reflète
toutes les informations publiquement disponibles.
Toutefois, l’information publique disponible sur le candidat à l’introduction est plus rare, plus inégalement répartie et de moins bonne qualité que
sur une société cotée. Les cours sont moins informatifs car ils agrègent moins
d’informations ou de moins bonne qualité, ceteris paribus. Les coûts de transaction, de production et de collecte de l’information ne sont pas nuls. L’ef-
Chapitre 1
35
ficience du marché primaire est donc naturellement plus limitée que celle du
marché secondaire. Pour autant, sa forme semi-forte ne peut être rejetée.
La rationalité des producteurs d’information et leur complémentarité s’ensuivent de l’efficience présumée du marché.
Dans la littérature, l’optimisme excessif des analystes (Affleck-Graves et al.,
1990 ; DeBondt et Thaler, 1990) et du dirigeant (Kahneman et Tversky,
1973 ; Weinstein, 1980) est parfois imputé à un biais cognitif non intentionnel. Cet argument est incompatible avec l’efficience du marché. En
outre, il ne rend pas compte du pessimisme également observé empiriquement. Enfin, il fait apparaı̂tre la production d’information comme le fruit
de déterminants exogènes ou inconscients. Nous la considérons au contraire
comme une décision stratégique. La société émettrice comme les analystes
sont supposés agir de manière cohérente par rapport aux informations qu’ils
reçoivent.
Leurs informations ne sont pas redondantes. Les prévisions du dirigeant et des
analystes ne sont pas des substituts parfaits (Gonedes et al., 1976). Certes,
les pouvoirs publics pourraient encourager la société à publier plus d’information, afin de dissuader la recherche privée d’informations. D’après Hakansson
(1977), cette solution est socialement plus équitable mais moins efficace. Certains travaux empiriques confortent également le rôle complémentaire supposé de la société et des analystes. Sur le marché américain, Lang et Lundholm (1996) ou Healy et alii (1999) montrent que plus une société publie
d’informations et plus nombreux sont les analystes à la suivre.
Sur le plan macro-économique, Shleifer et Vishny (1997), La Porta et al.
(1998) et Bushman et al. (2001) avancent que l’efficience des marchés dépend
du fonctionnement transparent des sociétés. Les informations publiées par la
société et les analystes participent de cette transparence.
L’explication de la qualité des informations publiées
Pour rendre compte du paradoxe décrit précédemment, nous avançons la
proposition suivante. Les pressions subies par le dirigeant et les analystes
expliquent, entre autres, la qualité de leur offre d’information.
La théorie positive de l’agence ou des mandats (TPA) étaye notre hypothèse. Nous évoquons dans un premier temps ses principaux éléments, appliqués à notre problématique. Nous nous appuyons sur les articles fondateurs
de Jensen et Meckling (1976), Jensen (1983), Fama et Jensen (1983a, 1983b).
Nous analysons dans un second temps la qualité des prévisions publiées à la
36
Chapitre 1
lumière de cette théorie.
Les composantes de la théorie des mandats sont tout d’abord
développées.
Expliquer la qualité de l’information publiée dans la perspective de la
TPA nécessite de partir des comportements individuels. Sont pris en compte
les individus dont les informations produites par le dirigeant ou les analystes affectent le bien-être. Ces individus sont qualifiés de «parties prenantes». La communication financière du dirigeant concerne les partenaires
internes (salariés, actionnaires...) et externes (fournisseurs, banques...) de
l’entreprise. Les informations produites par les analystes intéressent leur employeur (banque ou entreprise d’investissement), la société évaluée et les investisseurs.
Sont ensuite identifiées, parmi toutes les parties prenantes, celles liées
aux producteurs d’information par un contrat d’agence. Les autres subissent
les effets des décisions prises, sans avoir pris part aux contrats. Une relation
d’agence ou de mandat s’établit entre deux individus si l’un d’eux, l’agent ou
le mandataire, accomplit une tâche pour un tiers par délégation de l’autre,
le principal ou le mandant (Jensen et Meckling, 1976).
Les relations d’agence apparaissent ainsi chaque fois que les facteurs de production ne sont pas mis en oeuvre par leurs propriétaires. Les actionnaires
apportent leur capital au dirigeant qui, en contrepartie, met ses qualités de
gestionnaire à leur disposition. De même, le créancier délègue au débiteur
la mise en valeur de son capital. Les relations entre les actionnaires et le
dirigeant d’une part, les actionnaires/dirigeant et les créanciers d’autre part,
peuvent donc être qualifiées de relations d’agence.
Le contrat de travail entre l’analyste sell-side et son employeur entre également
dans ce cadre. L’établissement financier (le principal) recourt aux services
d’un analyste (l’agent) pour conseiller en son nom les investisseurs (les tiers).
Il lui délègue pour ce faire une partie de son pouvoir décisionnel.
Enfin, des contrats d’agence lient la société émettrice respectivement à la
banque introductrice et à l’entreprise d’investissement. L’introducteur est
mandaté pour préparer et réaliser l’introduction en bourse ; l’entreprise d’investissement, pour rédiger une étude financière et animer le marché secondaire des titres.
Les parties aux contrats sont souvent inégalement informées. Leurs intérêts
peuvent également diverger. Les relations d’agence deviennent alors conflic-
Chapitre 1
37
tuelles.
L’introduction en bourse peut être l’occasion pour le dirigeant de s’approprier une partie de la valeur de l’entreprise au détriment des actionnaires. En
effet, l’introduction en bourse sépare souvent les fonctions de propriété et de
décision au sein de l’entreprise. Cette séparation confère au dirigeant un avantage informationnel sur les actionnaires. Les conflits entre actionnaires et dirigeant naissent de l’incomplétude de l’information. Les actionnaires craignent
que le dirigeant prenne des décisions contraires à leurs intérêts (investissements sous-optimaux, dépenses somptuaires, rémunération excessive...).
Suite à l’introduction, le groupe actionnaires/dirigeant peut prendre des
décisions préjudiciables aux créanciers. Les fonds levés peuvent être, ex post,
investis de manière sous-optimale (Myers, 1977) ou versés sous forme de dividendes, contrairement à ce qu’anticipaient ex ante les créanciers.
Des désaccords peuvent survenir entre l’analyste et son employeur. Le principal peut inciter l’agent à évaluer favorablement une société qui représente un
client effectif ou potentiel. La partialité compromet la réputation de l’analyste, en théorie mandaté dans l’intérêt des tiers-investisseurs.
Les conflits d’intérêts ne profitent véritablement à aucune des parties.
Par exemple, le marché tient compte de l’éventuel comportement opportuniste du dirigeant lorsqu’il évalue la société. Le risque de prélèvements
discrétionnaires influence à la baisse les cours. La moindre valeur boursière
de la société affecte les actionnaires comme le dirigeant (Jensen et Meckling, 1976). Principal et agent gagnent donc à coopérer. Ils instituent des
mécanismes disciplinaires afin d’éviter de préjudiciables transferts de valeur.
Mais ces mécanismes induisent des coûts dits d’agence, de trois sortes. Le
principal engage des coûts de contrôle, pour empêcher les comportements
opportunistes de l’agent. L’agent lui supporte des coûts de dédouannement
car il doit convaincre le mandant qu’il oeuvre dans son intérêt. Enfin, l’impossible contrôle total des activités de l’agent génère des coûts résiduels.
Le dirigeant et les analystes cherchent donc le moyen le moins coûteux de
réconcilier les intérêts des diverses parties prenantes. Nous supposons qu’ils
peuvent prévenir les conflits au travers leur offre d’informations.
Le rôle théorique de l’offre d’informations des agents
Nous envisageons la qualité des prévisions publiées comme un outil de
gestion des relations d’agence. Les producteurs d’information sont supposés
rationnels. Ils fixeraient délibérément la qualité des informations publiées, de
sorte à satisfaire les intérêts des diverses parties prenantes et à prévenir les
conflits. Le choix de la qualité des informations diffusées procède d’un proces-
38
Chapitre 1
sus d’équilibrage entre intérêts divergents. Les intérêts des parties prenantes
détermineraient l’offre d’information des analystes et du dirigeant.
La qualité de l’information publiée répond à une obligation contractuelle,
dans la théorie des mandats. Elle peut également résulter d’une activité de
signalisation.
L’amélioration de l’information diffusée
Au moment d’une introduction, les investisseurs sont imparfaitement informés. Ils ne peuvent donc correctement évaluer les titres introduits. Divers
mécanismes, de marché ou normatifs, permettent de réduire les asymétries
d’information entre les investisseurs et l’émetteur.
L’auto-régulation consiste à laisser au marché l’initiative d’améliorer
la qualité de l’information.
En réponse à notre deuxième question de recherche, nous suggérons que
les prévisions publiées volontairement par le dirigeant signalent aux investisseurs la qualité de l’introduction.
La théorie des signaux dote notre proposition d’un cadre théorique. Elle
précise pourquoi et à quelles conditions la diffusion volontaire de prévisions
est informative.
En diffusant volontairement des prévisions, le dirigeant fait part aux investisseurs de ses anticipations sur le devenir de l’entreprise.
Par ailleurs, le signal émis est crédible si les dirigeants des entreprises non
performantes ne sont pas incités à faire croire le contraire (Spence, 1974 et
Riley, 1975). L’émission du signal doit tout d’abord être coûteuse. Le coût
de l’activité de signalisation décroı̂t avec la qualité de la société. Les faux
signaux doivent ensuite être pénalisés. La valeur signalée ex ante doit enfin
pouvoir être vérifiée ex post.
La théorie du signal n’intègre pas les conflits entre les parties prenantes.
Pour autant, elle n’aboutit pas à des prédictions contradictoires à celles
déduites de la théorie de l’agence. La diffusion d’information permettrait soit
de prévenir les conflits d’agence dans le modèle d’agence, soit de révéler les
véritables caractéristiques de l’introduction dans les modèles de signal. Elle
réduirait les asymétries d’information dont pâtissent les ayants droit internes
et externes dans le modèle d’agence, externes dans les modèles du signal.
Les deux approches participent d’un même courant non unifié, la théorie de
Chapitre 1
39
l’information.
Deux catégories d’agents sont libres de publier ou non des prévisions sur
le candidat à l’introduction : les dirigeants des sociétés introduites sur le
Second Marché d’une part ; les analystes dont l’employeur n’appartient pas
au syndicat de placement d’autre part. L’alternative suivante s’offre donc
au dirigeant. Soit il publie lui-même volontairement des prévisions dans le
prospectus, s’il introduit sa société sur le Second Marché. Soit il incite les
analystes à produire des estimations sur sa société.
Dans un premier temps, nous nous intéressons aux prévisions publiées
volontairement par le dirigeant dans le prospectus.
Cet acte de publication vérifie tout d’abord les conditions de signaling. En
premier lieu, il est coûteux car il requiert un système d’information interne
de qualité et peut générer des externalités négatives. Le dirigeant qui publie
des prévisions inexactes compromet également sa réputation. En second lieu,
les firmes non performantes sont dissuadées d’émettre de fausses prévisions,
par crainte d’une sanction boursière. Enfin la fiabilité des prévisions peut
bien être contrôlée ex post lors de la publication des réalisations.
La publication, par le dirigeant, de prévision de qualité témoigne de sa capacité à anticiper les changements de l’environnement économique et à y
répondre (Trueman, 1986). Selon l’hypothèse de signalisation, elle devrait
réduire l’incertitude des investisseurs et le coût du capital. En conséquence,
l’acte volontaire de publication et la qualité des estimations publiées sont
supposés informatifs pour le marché. La société améliorerait son environnement informationnel en publiant volontairement des prévisions de qualité.
Nous étudierons en particulier l’influence de l’acte volontaire de publication
et la qualité des estimations publiées sur l’évaluation des titres émis. Si la
publication volontaire de prévision est un signal efficace, elle devrait limiter
la sous-évaluation du prix d’offre.
Dans un second temps, nous supposons que le dirigeant confie aux analystes le soin de révéler la qualité de sa société. Il considère que ses prévisions
divulguées librement sont moins crédibles, au regard des investisseurs, que
celles établies par des analystes externes. Il incite les analystes à produire
des informations sur sa société en sous-évaluant le prix d’offre. Les analystes
émettent donc le signal. Mais les anciens actionnaires assument le coût de la
signalisation, à travers la sous-évaluation. La sous-évaluation est coûteuse car
elle limite le produit de la cession des titres et de l’opération. Nous émettons
donc la conjecture suivante, dans le cadre de la théorie du signal : la société
améliorerait son environnement informationnel en encourageant les analystes
40
Chapitre 1
à produire des informations pertinentes sur la société.
Nous analyserons notamment la relation entre les performances futures et les
informations produites par les analystes. Si ces dernières sont un signal efficace, on peut s’attendre à ce que les sociétés les plus suivies par les analystes
soient les plus performantes à long terme, toutes choses égales par ailleurs.
Dans le cadre de notre thèse, les investisseurs sont supposés inférer la
qualité de l’introduction à partir de la publication volontaire de prévisions
par le dirigeant, ou de l’intérêt des analystes pour la société. Dans les deux
cas, la société initie le processus de signalisation. Elle agit sur son environnement informationnel, soit en publiant des informations au-delà des exigences
légales, soit en incitant les analystes à produire des informations sur elle.
Après la période étudiée dans le cadre de cette thèse, les prestataires de
services d’investissement ont également pris des initiatives individuelles en
matière de qualité de l’information. Ils ont élaboré un code professionnel17
en 2002. Ils y fixent la nature et la qualité des diligences à effectuer lorsqu’ils
participent à une opération financière.
Ils s’appuient sur divers documents remis par la société et détaillés dans
l’annexe 1 du code, ainsi que sur des entretiens avec les principaux responsables de la société. L’annexe 2 du code précise les thèmes à aborder au cours
des entretiens. Le Prestataire ne vérifie pas l’exhaustivité, la véracité et la
sincérité des informations écrites et orales collectées. Par contre, il contrôle
leur cohérence entre elles et avec les autres informations publiques. Il examine
également si le prospectus contient les informations essentielles concernant
la société, notamment l’exposé des risques significatifs. Il n’a pas à juger
de la probabilité de réalisation des prévisions. Mais il doit s’assurer que ces
prévisions sont cohérentes avec les performances passées et la situation actuelle de la société.
Au terme de ces diligences et avant la délivrance du visa, le Prestataire remet
une attestation écrite à la COB. Il y confirme que le prospectus ne présente
aucune inexactitude ou omission significative de nature à fausser le jugement
de l’investisseur.
Les améliorations de l’environnement informationnel des introductions en
bourse peuvent donc relever d’initiatives privées. Mais en France, elles sont
avant tout impulsées et mises en place par un autre acteur, le normalisateur.
17
Code professionnel FBF/AFEI relatif aux diligences à effectuer par les prestataires de
services d’investissement participant à une opération financière
Chapitre 1
41
La réglementation de l’information est envisagée au regard de ses
fondements, ses organes, son contenu et son efficacité.
•
Les fondements de la réglementation de l’information
Les limites de l’auto-régulation, les externalités négatives liées à la production d’information et les défaillances du marché justifient la réglementation
de l’information.
Premièrement, l’auto-régulation peut se révéler insuffisante. Jusqu’à présent, le règlement intérieur de chaque établissement financier comportait des
dispositions relatives à la déontologie des opérations financières. Elles n’ont
pas empêché la survenance de conflits d’intérêts. Certes la déontologie exige
d’un analyste qu’il oeuvre dans l’intérêt des investisseurs. Il doit donc évaluer
objectivement l’émetteur. En même temps, il doit entretenir de bonnes relations avec la société s’il veut obtenir les informations utiles à son analyse. Cette société peut en plus être en relation d’affaires avec la banque de
l’établissement. L’indépendance d’esprit est donc difficile, en l’absence d’une
régulation ad hoc.
Deuxièmement, l’information comptable et financière ayant la nature d’un
bien public (Leftwich, 1980 ; Watts et Zimmerman, 1986) risque d’être insuffisamment produite sans intervention étatique. Par exemple, les informations
contenues dans le dossier d’introduction peuvent être considérées comme des
biens publics. Elles sont collectives, c’est-à-dire accessibles à tous les utilisateurs potentiels ; gratuites et à consommation facultative. Leur publication
est source d’externalités18 négatives. En effet, les actionnaires supportent
seuls le coût des informations produites dont bénéficient tous les utilisateurs.
Ils peuvent donc être enclins à produire moins que ce qui serait souhaitable
du point de vue collectif. Les informations publiées peuvent encore affaiblir
la position concurrentielle et commerciale de l’entreprise (Dye, 1990 ; Verrecchia, 1990 ; Wagenhofer, 1990). Elles peuvent également être sources de coûts
politiques et médiatiques (Watts et Zimmerman, 1986).
La réglementation permet de résoudre le problème lié aux externalités. D’autres solutions sont théoriquement envisageables, mais en pratique irréalisables
(Jacquillat et Levasseur, 1984).
18
Nous reprenons la définition de Foster (1980), telle que Jacquillat et Levasseur
l’énoncent dans leur article de 1984. «On dira qu’existe une externalité quand l’utilité
d’un individu m (Um ) est fonction non seulement du choix de ses actions (am) et de l’état
de nature (Sn), mais aussi des choix d’actions exercées par les individus x, y, ..., c’est-à-dire
quand : Um (p(sn, am)) 6= Um (p(sn, am, ax, ay, ...)) ».
42
Chapitre 1
La première suppose d’échanger les informations sur un marché contre
paiement. Cette solution défavorise les investisseurs les moins riches. En
outre, les asymétries d’information entre l’offre et la demande, ainsi que la
possibilité de revendre parallèlement l’information - bien infiniment reproductible - compromettent la viabilité à terme d’un tel marché.
La seconde solution est fiscale. La menace d’une pénalité fiscale obligerait les producteurs d’information à faire des choix efficients. Toutefois, fixer
une taxe proportionnelle à la mauvaise qualité ou l’insuffisante quantité des
informations produites est une tâche difficile.
La troisième solution passe par des accords de regroupement. Les sociétés
d’un même secteur décideraient, d’un commun accord, de publier des informations les concernant. En réalité, l’organisation d’entente est coûteuse et
difficile.
Troisièmement, l’État réglemente l’information financière afin de pallier
les imperfections du marché. Ainsi, l’asymétrie dans la répartition des informations a des effets sociaux négatifs. Elle appelle donc des règles régulatrices.
Par exemple, la COB a voulu empêcher que la banque ne diffuse sélectivement
des informations aux investisseurs, et la société aux analystes. En conséquence,
elle a enjoint les banques introductrices d’inclure une analyse financière
gratuite dans le dossier d’introduction. Parallèlement, elle a demandé aux
émetteurs de publier dans le prospectus toutes les informations communiquées aux analystes (bulletin mensuel de la COB, octobre 2000). Autre
exemple, Bolliger (2001) montre que le marché du travail n’incite pas les
analystes à un effort de précision dans leurs estimations. En effet : en publiant des prévisions exactes, un analyste n’augmente pas ses chances d’être
engagé par une maison de courtage prestigieuse.
Ces arguments justifiant la réglementation des informations restent théoriques. Ils n’ont jamais été réellement testés empiriquement (Healy et Palepu,
2000, page 10). En France, l’appel public à l’épargne est l’un des moments
où l’information financière est la plus encadrée.
•
La nature de l’intervention de l’État
En France, l’État réglemente l’information moins via le législateur que le
régulateur.
La diffusion d’une information de qualité relève d’une obligation légale. La
loi du 24 juillet 1966 organise le contrôle des comptes publiés par les sociétés
de capitaux. L’article 467 rappelle que la publication de renseignements faux
Chapitre 1
43
ou inexacts dans le prospectus est puni des peines prévues à l’article 405 du
Code pénal.
Toutefois en France, le législateur est rarement l’initiateur en matière de gouvernement d’entreprise19 . Il impose ce que la pratique ne parvient à mettre
en oeuvre. Il protège, à des degrés variables, des intérêts spécifiques comme
ceux des minoritaires, des salariés ou certains intérêts nationaux. Il entérine
surtout les principes dégagés par la place ou le régulateur. Ainsi, le Gouvernement examine actuellement l’opportunité de légaliser certaines des recommandations du rapport Bouton.
L’indépendance des producteurs d’information et la transparence de l’information publiée ne se décrètent pas. Pour être effectives, elles supposent de
modifier les comportements des producteurs d’information. Elles ne peuvent
être imposées d’en haut. Le législateur laisse donc agir en premier rang des
institutions plus proches des acteurs : le Conseil des marchés financiers et la
Commission des opérations de bourse.
Le Conseil des marchés financiers a peu à peu encadré l’activité des analystes, de sorte à préserver leur objectivité. Nous résumons les principales
mesures relatives aux introductions en bourse, contenues dans le titre III du
règlement général et la décision no 2002-01 du CMF.
Désormais, les analystes ne peuvent acheter ou vendre, pour leur propre
compte, les titres de la société introduite.
Ils doivent mentionner sur leur rapport si ce dernier résulte d’un contrat
passé entre l’émetteur et le prestataire, si l’émetteur l’a relu ou si le prestataire participe au capital de l’entreprise suivie.
Ils ne peuvent percevoir de rémunération spécifique lorsqu’ils participent à
l’opération d’introduction.
La production et la diffusion des analyses financières sont placées sous l’autorité d’un responsable.
Chaque prestataire doit instituer des procédures dites de «Muraille de Chine»
séparant les différentes activités susceptibles de générer des conflits d’intérêts.
Le règlement intérieur doit également prévoir les circonstances et conséquences
du franchissement de la Muraille. Le responsable de l’analyse financière et le
déontologue doivent donner leur accord. L’analyste qui a passé la Muraille
ne retrouve ses fonctions antérieures qu’avec l’aval du déontologue.
Les analyses financières ponctuelles publiées à l’occasion d’une introduction
sont interdites, à moins que l’analyste ne continue à suivre l’émetteur pen19
Le gouvernement d’entreprise désigne l’ensemble des dispositifs organisant et
contrôlant l’exercice du pouvoir dans l’entreprise. La qualité de l’information publiée
constitue un principe de bonne gouvernance.
44
Chapitre 1
dant une période raisonnable après l’introduction.
Les départements internes du prestataire ne peuvent bénéficier en priorité
des études et recommandations des analystes.
La réglementation des comportements au sein des établissements financiers
devrait rendre plus aisée l’objectivation des conflits d’intérêts pour les chercheurs. En effet, «un phénomène social se laisse d’autant mieux objectiver
qu’il l’est déjà dans le monde social» (Héran, 1984).
La COB ne se contente pas de contrôler l’information publiée par l’émetteur. Elle réglemente également le contenu du prospectus.
Les informations à publier dans le prospectus sont celles «nécessaires aux
investisseurs pour fonder leur jugement sur le patrimoine, l’activité, la situation financière, les résultats et les perspectives de l’émetteur, ainsi que sur
les droits attachés aux instruments financiers offerts» (règlement n0 98-01).
Elles sont définies dans le règlement n0 98-01 et l’instruction de mars 2001
pour une introduction sur le Nouveau Marché ; le règlement n0 95-01 et l’instruction d’application de novembre 1996 pour une introduction sur le Second
Marché.
Concernant l’opération, sont mentionnés le nombre et la nature des titres
offerts, le calendrier de l’opération, la date prévue de cotation des titres, les
éléments d’appréciation du prix et la procédure d’introduction.
Concernant la société sont spécifiés son statut juridique (forme, objet social etc) ; la structure de son actionnariat (répartition du capital et des droits
de vote entre les différents actionnaires, évolution du capital etc) ; son activité économique ; ses comptes sociaux et éventuellement consolidés ; les faits
exceptionnels et litiges susceptibles d’affecter l’activité, le patrimoine ou les
résultats de la société. S’y ajoutent, pour une admission au Nouveau Marché,
la description des différents facteurs de risque et un projet de développement
stratégique à trois ans.
Suite à la loi sur les nouvelles régulations économiques du 15 mai 2001, la
COB a complété les schémas du prospectus (bulletin mensuel janvier 2002).
Doivent désormais figurer une information individualisée sur la rémunération
des dirigeants, les attributions et levées de stock options.
•
L’efficacité de la réglementation des informations
La recherche théorique et empirique a contesté l’efficacité des réglementations (voir Jordan, 1972 pour une revue). Selon Posner (1974), les entreprises
privées finissent par contrôler l’institution chargée de concevoir et d’appliquer
la réglementation. Ils l’utilisent dans leur intérêt. Stigler (1964a et b) tente
de montrer empiriquement que la réglementation de la SEC en 1933 n’est
Chapitre 1
45
pas bénéfique aux investisseurs. Mais les preuves à l’appui de l’inefficacité de
la réglementation restent rares et peu convaincantes (Healy et Palepu, 2001).
Les méthodologies employées manqueraient de rigueur.
En France, la littérature reconnaı̂t l’action efficace de la COB en matière
de qualité de l’information diffusée. Nous chercherons à comprendre les raisons de cette efficacité. Pourquoi la COB est-t-elle parvenue à imposer ses
exigences informationnelles aux candidats à l’introduction ? Nous aborderons
cette question de manière inductive.
La réalisation de l’étude de cas et la vérification de nos hypothèses ont
nécessité une collecte de données.
1.3.2
Les choix empiriques
La validité de la recherche dépend, entre autres, de la fiabilité des données
et de la représentativité des résultats. En conséquence, nous précisons dans un
premier temps l’origine des données. Dans un second temps, nous présentons
l’échantillon global, à partir du plus grand nombre d’observations disponibles
pour chaque variable.
L’origine des données
Les données utilisées dans la partie empirique proviennent essentiellement
des dossiers d’introduction, d’ABC Bourse et d’I/B/E/S.
Les dossiers d’introduction ont représenté une source essentielle d’information.
Entre 1994 et 2000, 256 sociétés se sont introduites sur le Second Marché
et 165 sur le Nouveau Marché. 326 dossiers d’introduction ont été consultés
au centre de documentation de la COB ou demandés par courrier pour le
Nouveau Marché. Mais seulement 295 étaient complets, c’est-à-dire comprenant le prospectus définitif et l’analyse financière.
Dans l’étude financière jointe au prospectus, nous avons relevé les prévisions
de BPA à l’horizon d’un et deux ans, ainsi que le nom de la société de bourse.
La note d’information définitive nous a permis de caractériser l’émetteur
et l’émission. Elle est scindée en six ou sept chapitres. Le chapitre 1 indique
46
Chapitre 1
les responsables du prospectus. Il contient également les attestations du dirigeant, des contrôleurs légaux et de l’introducteur. Le chapitre 2 renseigne sur
l’opération ; le chapitre 3, sur l’émetteur et son capital. Le chapitre 4 porte sur
l’activité de l’émetteur. Le chapitre 5 reprend les derniers comptes sociaux
et/ou consolidés. Le chapitre 6 traite de la composition, de la rémunération
et des avantages des organes de direction. Il précise également les éventuelles
mesures d’intéressement du personnel. Enfin, le chapitre 7 évoque les perspectives d’avenir de l’entreprise. Le tableau 1.4 récapitule les informations
extraites des différents chapitres.
Chapitre
Chapitre 1
Chapitre 2
Chapitre 3
Chapitre 4
Chapitre 5
(comptes consolidés
exercice précédant
l’introduction)
Chapitre 7
Données extraites
Noms de l’introducteur et du commissaire aux comptes
Montant introduit
secteur d’activité
buts de l’introduction
procédure d’introduction
date prévue de l’introduction
prix d’offre définitif
flottant en % et en nombre de titres
nombre de titres nouveaux émis
% du capital du dirigeant et des
investisseurs institutionnel après l’introduction
nombre de titres composant le capital avant et après I.B.
date de création historique de la société
montant des investissements prévus à un an
dettes financières et d’exploitation
immobilisations corporelles
total bilan
résultat net
chiffre d’affaires
chiffres d’affaires à l’export
prévisions de BPA à un et deux ans
Tab. 1.4 – Données extraites de la note d’information
Des données boursières étaient également nécessaires.
Nous avons acquis auprès d’ABC Bourse Ltd, un cédérom comprenant
toutes les cotations quotidiennes des valeurs et indices français depuis 1990.
Créée en 1999, ABC Bourse est une société indépendante spécialisée dans
l’information financière. Elle compile les cours fournis par Euronext Paris.
Elle réajuste deux fois par mois, les valeurs historiques des éventuelles divisions du nominal et autres opérations sur titres. Pour chaque titre ou indice
Chapitre 1
47
sont indiqués le code sicovam, la date de cotation, le cours d’ouverture, le
cours le plus haut et le plus bas, le cours de clôture et le volume de titres
traité. À partir de cette base, nous avons calculé les performances boursières
des sociétés introduites, ainsi que le nombre de titres moyen échangés les
vingt-cinq premiers jours de cotation.
La base d’I/B/E/S a fourni le matériau de nos études empiriques.
Cette base comprend les estimations des analystes afférentes au marché
américain depuis 1976, et aux marchés étrangers depuis 1987. En contrepartie de leurs prévisions et révisions, les analystes accèdent gratuitement aux
données de consensus sur le marché suivi.
Pour réaliser nos études empiriques, nous avons extrait et traité certaines
informations des bases d’I/B/E/S au 1er janvier 2001 : les prévisions individuelles et consensuelles des analystes, le nombre d’analystes suivant les
sociétés introduites, le nombre d’estimations publiées dans l’intervalle [-6
mois, +12 mois] entourant l’introduction, les dates des premières et dernières
estimations diffusées sur les sociétés introduites.
Nous avons calculé les erreurs de prévision à partir des réalisations de
BPA fournies par I/B/E/S. Cet organisme contrôle la cohérence comptable
des bénéfices réels et des bénéfices prévus par les analystes financiers. Il veille
également à ce que les ratios BPA prennent en compte le même nombre de
titres (Philbrick et Ricks, 1991 ; Levasseur et al., 1999). Ces vérifications
rendent fiable la comparaison des prévisions avec les réalisations.
La recherche empirique sur la qualité des estimations des analystes a exploité d’autres bases de données. Fried et Givoly (1982) ont utilisé Standard
and Poor’s Earnings Forecaster ; Brown et al. (1987), Value Line quaterly
forecasts ; Brown (1991), Zacks Investment Research Data ; Grandin (1995),
la base d’Associés en Finance. Dans le contexte d’une introduction en bourse,
les auteurs évaluent la capacité prédictive des analystes principalement à partir des bases d’I/B/E/S (voir le tableau 1.5).
Nous présentons brièvement le contenu de la base d’I/B/E/S et ses limites.
La Detailed History Data Base contient les prévisions individuelles des
analystes. Elle s’organise en plusieurs fichiers.
48
Chapitre 1
Auteurs
Degeorge et Derrien
(2001)
Chahine (2001)
Rajan et Servaes (1997)
Sources
document d’information
I/B/E/S
Jacques Chahine Finance SA
I/B/E/S
Nature des prévisions
prévisions individuelles
prévisions individuelles
prévisions consensuelles
prévisions consensuelles
Tab. 1.5 – Origines des prévisions des analystes dans la littérature
deffili.int comprend les estimations des analystes financiers. Les codes de la
société évaluée, de l’analyste-producteur et de son employeur caractérisent
chaque prévision. Suivent ensuite la date d’entrée de la prévision dans la base
puis la date jusqu’à laquelle l’analyste financier a maintenu son estimation.
Sont encore indiqués la devise dans laquelle l’estimation a été diffusée, l’horizon de prévision et son objet (bénéfice par action, dividende par action, taux
de croissance à long terme des résultats).
idfili.int est le fichier des sociétés suivies. Il mentionne le code de la société
dans I/B/E/S, sa raison sociale, son secteur d’activité et la date d’entrée
dans ce secteur, le facteur de dilution.
branfili.int contient les noms et les codes des maisons de courtage et des analystes.
actfili.int donne, pour chaque société, ses réalisations de BPA, de dividendes
et de taux de croissance.
curfili.int précise les taux de change des devises.
La notice I/B/E/S Detailed History, a guide to analyst-by-analyst historical
earnings database, U.S. Edition spécifie le format de lecture de toutes ces
informations.
La Summary History Data Base comprend les estimations consensuelles.
Pour chaque société, I/B/E/S calcule la moyenne des prévisions des analystes
à l’horizon N le troisième mercredi de chaque mois. Le consensus obtenu
est disponible la semaine suivante. Aux États-Unis, les praticiens utilisent
le consensus d’I/B/E/S comme reflet des anticipations du marché, ou pour
jauger la capacité prédictive d’un analyste. Plusieurs fichiers regroupent les
données de consensus :
– hiout1.int comprend les estimations du consensus ;
– hiout2.int contient les réalisations de BPA, de DPA, de taux de croissance ;
– hiout3.int caractérise les sociétés suivies ;
– hiout6.int indique les taux de change des devises.
En principe, le consensus est plus informatif que les prévisions indivi-
Chapitre 1
49
duelles des analystes. Il élimine en effet les prévisions les plus aberrantes.
En outre, il commet les plus faibles erreurs. Il est révisé dès qu’un analyste
modifie ses anticipations. L’agrégation d’information réduit encore l’erreur
due à l’idiosyncrasie (Ashton et Ashton, 1985). Mais la littérature souligne
les limites du consensus d’I/B/E/S. Sur le marché japonais, Conroy et Harris
(1995) comparent la base d’I/B/E/S à celle de Toyo Keizai. Ils montrent que
le consensus d’I/B/E/S est plus optimiste et inexact que celui de Toyo Keizai.
Selon eux, I/B/E/S compile les estimations individuelles sur un mois mais
ne vérifie pas si les analystes ont, au cours du mois, révisé leurs estimations.
Selon O’Brien (1988) également, le consensus d’I/B/E/S est moins précis que
les prévisions individuelles des analystes. Il incluerait des prévisions datant
de plus de six mois.
Ces limites et la nécessité d’identifier les analystes nous ont conduits à
travailler principalement à partir des prévisions individuelles.
D’autres sources ont été accessoirement utilisées.
Nous avons relevé les dates des augmentations de capital subséquentes à
l’introduction, dans la base d’informations financières de la COB.
Chaque année, le rapport de la COB indique le nombre total d’introductions réalisées sur les différents marchés. Ces informations nous ont permis
d’apprécier l’activité du marché primaire.
Pour chaque année de la période étudiée, nous avons déterminé les sociétés
de bourse affiliées aux introducteurs à partir de leurs sites internet respectifs.
Les échantillons
Nous donnons dans le tableau 1.6 quelques statistiques descriptives sur le
maximum d’observations disponibles pour les variables utilisées ultérieurement.
Les variables précédées d’une étoile sont calculées à partir des derniers
états comptables certifiés avant l’introduction en bourse. Nous dressons cidessous la nomenclature des variables non explicites :
- L’âge de la société est le nombre d’années séparant son introduction en
bourse de sa création.
- La taille de la société est approchée par le logarithme népérien de son
chiffre d’affaires.
- Le PER est le rapport du prix d’offre définitif sur le bénéfice par action de
l’année précédant l’introduction.
- L’endettement subroge le rapport dettes financières et d’exploitation/total
bilan.
Chapitre 1
50
Variables
Âge
* Taille
* PER
* Invest. prévus / total bilan
* Actifs corporels / total bilan
* endettement
* Chiffre affaires export
* Marge nette
* Rentabilité financière
TCR
AD
Montant introduit (MF)
flottant (%)
NbBanques
Risque
CAPPUB
VOL-ECH
RIA
Raac-3mois
Raac-6mois
Raac-12mois
Raac-24mois
Raac-36mois
Erreur-dirigeant
Erreur-analyste-prospectus
Erreur-analyste-CF
Erreur-analyste-NCF
NAF-NCF
NAF-CF
Dispersion-NCF
Délai-NCF
Délai-CF
Durée-NCF
Durée-CF
NEST-NCF
NEST-CF
Procédures
Cotation directe
Offre prix ferme
Offre prix minimal
Placement garanti
AMP
faible activité
forte activité
N
295
295
295
295
295
295
205
295
295
295
295
295
295
295
215
301
301
300
285
283
246
189
106
139
164
68
193
194
68
124
247
100
247
100
194
68
Fréquences (sur 308)
0.6%
6.8%
24.4%
63.6%
Fréquences (sur 320)
32.2%
67.8%
Moyenne
24.7
5.22
-28.4
22.9
29.9
52.0
33.0
4.21
21.8
0.467
53.6
146
24.6
2.13
0.222
914 733
23 869
0.226
0.018 - 0.945
0.035 (1.056)
0.052 (1.040)
0.296 (1.837)
1.21 (1.426)
2.92 (1.524)
1.31 (3.466***)
-0.131 (-0.785)
0.494 (3.357***)
3.02
1.03
0.512
180
185
308
462
5.03
1.96
Aug. capital
[date intro., + 12 mois]
[date intro., + 24 mois]
[date intro., + 36 mois]
pas d’aug. capital dans les 3 ans
Secteur
NTIC (=1)
Autre (=0)
Médiane
13.0
5.09
17.6
10.1
25.8
55.8
27.0
4.90
21.2
0.252
64.0
61.3
21.7
2.00
0.200
397 465
14 705
0.101
-0.015
-0.041
-0.115
-0.265
-0.420
0.013 (2.347**)
0.031 (3.25***)
-0.071 (-1.809*)
0.012 (2.225**)
2.00
1.00
0.087
186
194
231
391
3.00
1.00
Fréquences (sur 318)
8.2%
19.8%
23.6%
76.4%
Fréquences (sur 314)
79.0%
21.0%
Tab. 1.6 – Statistiques descriptives calculées sur le maximum d’observations
Écart-type
32.2
1.76
913
29.2
22.2
23.8
30.8
12.9
23.0
9.25
30.1
276
14.2
1.00
0.010
1 500 536
27 000
0.739
0.313
0.556
0.788
2.21
8.70
22.3
4.84
1.38
2.04
2.654
0.170
2.38
89
98
302
450
5.11
1.251
Chapitre 1
51
- AD désigne la part de capital conservée par le dirigeant après l’introduction
en bourse.
- TCR représente le taux de croissance du résultat net au cours des deux
derniers exercices précédents l’introduction.
- NbBanques est le nombre de banques participant à l’introduction.
- Le risque correspond à l’écart-type de la rentabilité de l’action sur les
200 jours suivant l’introduction en bourse, les 10 premiers jours de cotation
exclus.
- CAPPUB est le nombre de titres mis à la disposition du public.
- VOL-ECH qualifie le volume de titres échangés les 25 premiers jours de
cotation.
- RIA, rentabilité initiale anormale, se calcule ainsi :
RIAi =
C c i,t0
Ibc t
− c 0
P odi
Ib t0 −1
où C c i,t est le cours de clôture du titre i, Ibt celui de l’indice boursier SBF250,
P odi le prix d’offre définitif et t0 la date de l’introduction en bourse.
- Les prévisions retenues ont pour horizon l’exercice fiscal suivant l’introduction en bourse. Leur émetteur est respectivement le dirigeant (erreurdirigeant), l’entreprise d’investissement spécialiste (erreur-analysteprospectus), les analystes d’I/B/E/S, affiliés au chef de file (erreuranalyste-CF) ou non (erreur-analyste-NCF). Les erreurs de prévision
résultent du rapport (BP Aprevu − BP Areel ) / |BP Areel |. Nous rapportons,
à côté de l’erreur moyenne (respectivement médiane) et entre parenthèses,
la valeur du t (respectivement du Z). L’erreur moyenne ou médiane peut
différer significativement de 0 au seuil de 10% (*), 5% (**), 1% (***).
- NAF est le nombre d’analystes d’I/B/E/S ayant émis au moins une estimation annuelle dans l’intervalle [-6 mois, +12 mois] autour de la date
d’introduction.
- La variable dispersion désigne l’écart-type des estimations des analystes,
publiées dans l’intervalle [- 6 mois ; +12 mois] autour de la date d’introduction. L’écart-type est normé par le bénéfice par action réalisé.
- La variable délai est déterminée en quatre temps. Tout d’abord, nous identifions les analystes suivant la société considérée dans l’intervalle [-6 mois,
+12 mois] autour de la date d’introduction. Ensuite, nous calculons, pour
chaque analyste, le nombre de jours séparant sa première estimation de la
date d’introduction. En troisième lieu, nous faisons la moyenne des délais des
différents analystes. Chaque société se caractérise donc par un délai moyen
de couverture. Nous calculons enfin la moyenne sur l’ensemble des sociétés
suivies.
- La durée de la couverture s’obtient également en plusieurs étapes. Nous
52
Chapitre 1
décrivons la procédure de calcul pour une société. Nous considérons uniquement les analystes ayant suivi la société dans l’intervalle [-6 mois, +12 mois]
autour de la date d’introduction. Pour chacun de ces analystes, nous connaissons la date de leur première estimation. Nous cherchons alors la date de leur
dernière estimation dans les bases d’I/B/E/S, émise moins de 12 mois après
l’avant-dernière. Nous calculons le nombre de jours séparant la première estimation de celle qualifiée de dernière. Nous établissons enfin la durée moyenne
sur tous les analystes retenus.
- NEST est le nombre total d’estimations (révisions comprises), diffusées par
les analystes entre [-6 mois, +12 mois] autour de la date d’introduction.
- AMP, activité du marché primaire, est égale à 0/1 si la société s’est introduite en période de faible/forte activité du marché primaire. Nous avons
comparé les fonds levés sur une période de douze mois encadrant la date
d’introduction d’une société, au montant annuel moyen introduit entre 1994
et 2000. La variable AMP vaut 1 si la différence relative à la moyenne est
positive ; 0 si elle est négative.
- Les variables raac équivalent aux rentabilités anormales achat-conservation.
Elles sont calculées dix jours de bourse après le jour de l’introduction, par
capitalisation des rentabilités quotidiennes anormales, selon l’expression :
raaci τ,T = [
T
Y
(1 + rai,t )] − 1
t=τ
où τ est le nj eme jour après l’introduction en bourse et T le dernier jour de la
période d’étude retenue. rai,t est la rentabilité anormale de la société i à la
date t. Elle s’obtient par différence entre la rentabilité du titre de la société
et une rentabilité normative estimée à partir de l’indice SBF 250 :
rai,t = ri,t − rnt
Un test paramétrique permet de tester l’hypothèse nulle selon laquelle la
rentabilité anormale achat-conservation pour l’ensemble des entreprises de
l’échantillon est égale à zéro. Nous indiquons, à côté de la raac moyenne et
entre parenthèses, la valeur du t de Student.
Nous analysons les statistiques du tableau 1.6, à la lumière des travaux
antérieurs.
Les caractéristiques exogènes, puis comptables et financières des sociétés
de l’échantillon sont tout d’abord présentées.
Les sociétés de l’échantillon attendent en moyenne 24 ans avant de s’introduire en bourse. Derrien et Degeorge (2001) rapportent un âge moyen
plus faible (18 ans), calculé sur 243 sociétés introduites sur le Nouveau ou
Chapitre 1
53
le Second Marché entre 1991 et 1998. Pour le Second Marché uniquement et
sur la période 1983-1994, Faugeron-Crouzet obtient un âge moyen de 32 ans.
Les entreprises françaises semblent plus âgées au moment de leur introduction que les sociétés américaines (13 ans en moyenne, Ritter, 1991). Toutefois
l’écart s’estompe au fil du temps.
Sur notre échantillon, les sociétés sont plutôt de petite taille. Elles réalisent
un chiffre d’affaires moyen de 257 millions20 de francs l’année précédant leur
introduction, bien inférieur aux 640 millions avancés par Faugeron-Crouzet
sur la période 1983-1994.
Le déficit affiché par certaines sociétés du Nouveau Marché peu avant leur
introduction rend compte du signe négatif du PER moyen (-28.4).
Le résultat net a augmenté en moyenne de 46% au cours des deux exercices
précédents l’introduction.
La rentabilité financière moyenne approche les 22%.
Les dettes représentent en moyenne 52% de l’actif total, les actifs corporels
30% et les projets d’investissement 23%. Sur l’échantillon de Sentis (2001),
les dettes valent 64% de l’actif total.
Les sociétés de notre échantillon effectuent en moyenne un tiers de leur activité à l’étranger.
Leur marge nette moyenne (bénéfice net/chiffre d’affaires) est faible, de l’ordre
de 4%. Nous confirmons la tendance à la baisse mise en évidence par FaugeronCrouzet. Sur son échantillon, la marge nette moyenne s’élève à 12% entre 1983
et 1988, puis elle stagne à 7% entre 1989 et 1994.
Sur notre échantillon, les deux tiers des sociétés relèvent de la nouvelle
économie. Faugeron-Crouzet soulignait déjà la tertiarisation croissante des
sociétés introduites en bourse, au cours des années 80.
La structure du capital des sociétés de l’échantillon est ensuite décrite.
Malgré l’introduction en bourse, le capital des sociétés semble rester relativement fermé. Les dirigeants conservent en moyenne 54% du capital après
l’introduction, tandis que le flottant moyen est de 25%. Selon FaugeronCrouzet (1997), entre 1983 et 1994, les fondateurs détenaient en moyenne
39.56% du capital après l’introduction. Les candidats à l’introduction sur le
Second Marché n’offraient en moyenne à la vente que 14% de leur capital.
Les caractéristiques des opérations d’introduction sont commentées.
20
Ln(757) = 6.63 et ln(257) = 5.22
54
Chapitre 1
Une société qui s’introduit sur le Nouveau ou le Second Marché lève en
moyenne 295 millions de Francs. La tendance semblerait à l’augmentation de
la taille des opérations. En effet, sur son échantillon de 321 sociétés introduites sur le Second Marché entre 1983 et 1994, Faugeron-Crouzet évalue en
moyenne les émissions des titres à 54 millions de francs, avec un maximum
de 356 millions.
Sur la période 1994-2000, le placement garanti (PG) et l’offre à prix minimal (OPM) semblent les procédures les plus usitées, à hauteurs respectives de
64% et 24%. Degeorge et Derrien, sur la période 1991-1998, mentionnent des
fréquences similaires, de 47% pour le PG et 38% pour l’OPM. Avant 1994,
la procédure de placement n’existait pas en France. Les sociétés recouraient,
à proportion égale, à la mise en vente, à la procédure ordinaire et à l’offre
publique de vente (Faugeron-Crouzet, 1997, page 161).
Conformément à la littérature, les sociétés de notre échantillon semblent
en majorité choisir une période de forte activité du marché pour s’introduire
en bourse. Elles maximiseraient ainsi les chances de réussite de l’opération
(Ritter, 1984).
En moyenne sur notre échantillon, deux banques organisent l’introduction. Entre 1983 et 1994, 138 des 325 sociétés introduites sur le Second
Marché ont mandaté une seule banque (Faugeron-Crouzet, 1997). Aux ÉtatsUnis, trois banques appartiennent en moyenne au syndicat de placement (Das
et alii, 2002).
23 869 titres sont échangés en moyenne les 25 premiers jours de cotation.
Ce chiffre est à rapporté aux 914 733 titres mis en moyenne à la disposition
du public sur notre échantillon, bien supérieurs à l’offre moyenne de 202 548
titres observée par Faugeron-Crouzet (1997) sur le Second Marché entre 1983
et 1994.
Les performances boursières à court terme puis à long terme, des
sociétés de l’échantillon retiennent maintenant notre attention.
Sur notre échantillon, la rentabilité initiale anormale s’élève à 22%. Elle
est comparable à celle obtenue par Derrien et Degeorge, de 17.5% entre
1991 et 1998. Faugeron-Crouzet (1997), puis Ginglinger et Faugeron-Crouzet
(2001) rapportent une sous-évaluation moyenne de 18%, respectivement sur
321 et 292 observations entre 1983 et 1994. Par contre, cette rentabilité est
Chapitre 1
55
plus de deux fois supérieure à celle donnée par Sentis (2001) de 9.2% pour
le marché français, entre 1991 et 1995. La nature de l’échantillon peut expliquer la différence de résultat. La période étudiée par Sentis exclut per se les
admissions à la cote du Nouveau Marché, créé en 1996.
Les rentabilités d’un titre, ses deux cents premiers jours de cotation, paraissent dispersées, au vu d’un écart-type moyen de 22%.
Sur notre échantillon, les rentabilités anormales achat-conservation (raac)
calculées à 3, 6, 12 et 36 mois s’élèvent respectivement en moyenne à 1.8%,
3.5%, 5.2% et 29.6%. Seules celles observées au bout de 24 mois diffèrent significativement de 0. En outre, les raac médianes sont toutes négatives mais
non significativement différentes de 0 (le test des rangs de Wilcoxon n’est pas
rapporté dans le tableau).
Nos résultats ne permettent de conclure à l’existence de performances
boursières à long terme significativement négatives ou positives. Ils rejoignent
ceux obtenus sur le marché français.
Sentis (2001) travaille sur un échantillon de 61 sociétés introduites sur le Premier ou le Second Marché entre 1991 et 1995. Il trouve des raac moyennes,
calculées à partir de l’indice SBF 250 et du dixième jour de bourse, de 4% à
3 mois, 6.9% à 6 mois, 16.5% à 12 mois, 15.8% à 24 mois et 10.8% à 36 mois.
Seules les raac à 3 et 12 mois sont statistiquement différentes de 0.
Sur leur échantillon de 243 sociétés introduites sur le Second Marché ou le
Nouveau Marché entre janvier 1991 et juillet 1998, Derrien et Degeorge (2001)
n’obtiennent pas de rentabilités anormales par rapport à l’indice MIDCAC, à
des indices sectoriels ou à un portefeuille d’entreprises comparables en termes
de taille et de book-to-market. Leurs rentabilités sont calculées sur la période
[date d’introduction + 10 jours, date d’introduction + 36 mois].
Par contre, Ritter (1991) sur le marché américain et Levis (1993) sur
le marché britannique établissent que les entreprises introduites en bourse
sous-performent l’indice de marché dès la deuxième année post introduction.
La figure 1.1 permet de comparer l’évolution des raac par marché. Nous
avons représenté les rentabilités anormales achat-conservation de 60 sociétés
introduites sur le Nouveau Marché, 129 sur le Second Marché.
Les sociétés introduites sur le Second Marché voient leurs performances
croı̂tre continûment. Au contraire, les raac des entreprises admises à la cote
du Nouveau marché augmentent plus faiblement et de manière discontinue,
avec des phases de déclin, notamment entre le 350ème et le 400ème jour postintroduction. Toutefois, les différences de performances boursières à long
56
Chapitre 1
SM
Echantillon
NM
Fig. 1.1 – Rentabilités anormales achat-conservation
terme entre les deux marchés ne sont pas statistiquement significatives (elles
ne sont pas rapportées).
L’environnement informationnel des sociétés de l’échantillon est enfin apprécié.
L’erreur moyenne de prévision du dirigeant s’élève à 292%, mais ne diffère
pas significativement de 0. Leur erreur médiane est très faible. Une grande
dispersion caractérise ainsi les prévisions contenues dans les prospectus d’introduction. Schatt et Roy (2002) obtiennent des erreurs de prévision bien
inférieures, peut-être parce que calculées différemment. Sur leur échantillon
de 151 sociétés introduites sur le Nouveau marché ou le Second Marché entre
1996 et 2000, les prévisions excèdent en moyenne de 12.1% les réalisations.
Trois analystes indépendants suivent en moyenne une société et émettent
5 estimations dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. En moyenne et dans le même intervalle, un analyste affilié publie 2
Chapitre 1
57
prévisions. Les analystes qui rédigent l’étude financière jointe au prospectus
se trompent en moyenne de 131% dans leurs estimations de résultats. Les
analystes d’I/B/E/S apparaissent significativement plus précis que les analystes de l’entreprise d’investissement spécialiste (voir le tableau 1.7). Ceux
dits «affiliés» suivent en moyenne aussi rapidement mais significativement
plus longtemps la société introduite que les analystes «indépendants». Les
analystes affiliés sont plus exacts et prudents dans leurs prévisions que les
analystes indépendants. Lin et McNichols (1998), Dechow et alii (2000) sur
le marché américain, Degeorge et Derrien (2001) sur le marché français obtiennent des résultats contraires. Ils montrent que l’optimisme des analystes
s’accentue avec leur affiliation au chef de file.
erreur analystes prospectus / CF
erreur analyste prospectus / NCF
erreur analyste NCF / CF
délai NCF / CF
durée NCF / CF
N
111
36
57
80
80
moyennes
1.27 / 0.49
1.67 / -0.078
0.215 / -0.217
182 / 179
292 / 462
diff. moyen.
0.775
1.75
0.432
-2.7
170
t
1.76
1.80
1.779
-0.22
4.51
sig.
0.08
0.07
0.08
0.82
0.000
Tab. 1.7 – Tests de différences de moyennes
La diversité des sources d’information explique la taille variable de nos
échantillons. Par exemple, les analystes, affiliés et indépendants, ont transmis
à I/B/E/S des estimations21 sur 266 des 326 sociétés dont le prospectus était
consultable. Leur erreur de prévision n’a cependant pu être calculée que pour
204 des 266 sociétés ; les bénéfices par action réalisés des 62 autres sociétés
n’étaient en effet pas disponibles dans les bases d’I/B/E/S. Pour chaque
étude empirique, nous avons cylindré l’échantillon sur les variables utilisées
dans les modèles explicatifs testés (tableau 1.8). Baginski et al. (1999, p. 9),
dans leur étude des facteurs expliquant la publication ou non de prévision par
le dirigeant après l’introduction, constituent leur échantillon de cette manière.
Nous avons ainsi présenté, dans cette première partie, le cadre de notre
recherche. La revue de littérature a mis en évidence un paradoxe. La mauvaise qualité des informations disponibles sur les introductions en bourse
s’oppose en effet au gain général à la diffusion d’information de qualité. Nous
tentons d’expliquer puis de résoudre cette antinomie. Nous avons formulé
deux propositions. Tout d’abord, le dirigeant et les analystes sont supposés
choisir la qualité des informations publiées de sorte à concilier les intérêts
de diverses parties prenantes. Ensuite, la société est présumée enrichir son
21
L’horizon des prévisions est ici indifférent.
58
Chapitre 1
Observations
nombre
chapitre 1
90
chapitre 3
chapitre 4
218
160
chapitre 5
134
informations restrictives
prévisions dans le prospectus
réalisations dans I/B/E/S
Marge nette, PER, AD, VOL-ECH
CA export, InvInst, RIA, dette
AD, taille, AMP, VOL-ECH, CAPPUB, AUG
NAF, erreur-analystes
RIA, AUG, montant introduit, PER, taille
PER, RIA, secteur, procédure, AMP, taille, âge
Tab. 1.8 – Taille des échantillons utilisés dans la partie empirique
environnement informationnel en publiant elle-même ou via les analystes,
des informations légalement non demandées. Nous envisageons également,
à titre complémentaire, l’amélioration de la qualité de l’information par le
régulateur. Ces réponses anticipées constituent nos deux axes de recherches.
Elles sont mises à l’épreuve de la réalité dans les deux parties suivantes.
Deuxième partie
Explication de la richesse de
l’environnement informationnel
des introductions en bourse
59
61
Le premier objectif de cette thèse est d’évaluer et d’expliquer la qualité des
informations diffusées sur les sociétés admises à la cote. Il nécessite donc de
comprendre les motivations des producteurs d’information. Cette deuxième
partie analyse leur comportement à la lumière de la théorie de l’agence.
La théorie de l’agence repose sur une certaine conception du comportement humain (Jensen et Meckling, 1994). Tout d’abord, les individus sont
supposés avoir une rationalité limitée et contextuelle. Autrement dit, ils
agissent consciemment, en fonction de leur environnement et de leurs objectifs. Mais ils ne sont pas omniscients et peuvent se tromper (Charreaux,
1999, p. 72). Ensuite, les individus agissent de façon à maximiser leur fonction d’utilité, à améliorer leur satisfaction. Pour ce faire, ils confrontent les
avantages et inconvénients attendus de leur décision.
La théorie de l’agence est également fondée sur l’existence de relations
d’agence. Ces relations apparaissent lorsqu’un individu délègue des responsabilités à un autre. Les dirigeants sont ainsi les agents des actionnaires et des
créanciers ; les analystes, ceux de leur employeur. Ces relations d’agence sont
porteuses de conflits. En effet, les agents sont supposés rechercher leur intérêt
privé, éventuellement aux dépens du principal. En outre, leurs compétences
et actions ne sont pas parfaitement observables. Et les contrats sont par nature incomplets. Les mandants craignent donc les comportements déviants
ou opportunistes, c’est-à-dire contraires à leurs intérêts. Des dispositifs dits
de gouvernement sont alors institués, pour encourager l’agent à oeuvrer dans
l’intérêt du principal. Ils peuvent être incitatifs (comme les rémunérations)
ou coercitifs (comme les contrôles directs). Ils varient en fonction de l’organisation.
Dans le cadre de la théorie de l’agence, la deuxième partie de cette thèse
suppose que le dirigeant et les analystes déterminent leur offre d’information,
de sorte à satisfaire au mieux les intérêts du principal et leurs intérêts personnels. Cette hypothèse est testée dans différents contextes organisationnels.
Le chapitre 2 considère les relations d’agence entre le dirigeant et les actionnaires d’une part, le dirigeant et les créanciers d’autre part. Ce «noeud
de contrats» devrait créer des incitations à la publication d’informations de
qualité.
Les deux chapitres suivants s’intéressent aux relations d’agence entre l’analyste et son employeur. Dans le cadre de la théorie de l’agence, le statut de
l’agent, sa place au sein d’un système, déterminent ses décisions. L’affiliation
de l’analyste devrait donc rendre compte de son offre d’information.
Ainsi, la recherche quantitative met en évidence le plus grand optimisme des
62
analystes dont l’employeur participe à l’introduction en bourse. Elle en déduit
la primauté des intérêts commerciaux du principal sur le devoir d’objectivité
de l’analyste. Mais elle ne prouve pas l’existence de conflits d’agence, ni
ne montre comment s’exerce l’influence du principal sur l’agent. Pallier ces
limites nécessitait une démarche qualitative, permettant d’appréhender les
analystes dans le cadre de leur environnement de travail. Nous avons choisi la
voie de l’interrogation. Le chapitre 3 rapporte les résultats d’une enquête sur
le travail des analystes affiliés à l’entreprise d’investissement spécialiste. Au
travers des réponses des analystes, les pressions avancées dans la littérature
devaient être décelées et situées au sein du processus de préparation de l’introduction.
Les analystes dont l’employeur n’appartient pas directement ou indirectement au syndicat de placement, font l’objet du chapitre 4. Leur décision de
suivre ou non un titre nouvellement introduit est analysée dans le cadre de
la théorie de l’agence. Elle est supposée permettre à l’analyste de concilier
sa satisfaction personnelle aux préférences du principal. L’analyste ferait son
choix, après comparaison des gains et coûts espérés du suivi.
Chapitre 2
Qualité des prévisions publiées
par le dirigeant et conflits
d’agence
Introduction
L’introduction en bourse modifie les relations de pouvoir entre l’entreprise et son environnement. Les partenaires de l’entreprise doivent décider
s’ils contractent ou poursuivent leurs relations avec elle. Ils ont donc besoin de
connaı̂tre les bénéfices attendus des investissements financés grâce aux fonds
levés. Les informations prévisionnelles recherchées sont disponibles auprès
des analystes financiers et/ou du candidat à l’introduction.
Seules les prévisions publiées par la société retiennent ici notre attention.
Elles ne sont utiles aux intéressés que si elles réduisent leur incertitude. Leur
qualité, c’est-à-dire leur biais (optimiste/pessimiste) et leur exactitude, a été
évaluée dans la plupart des pays (tableau 1.2, première partie), mais pas en
France. Le chapitre 2 se propose donc de mesurer la qualité des prévisions
de résultat publiées par le dirigeant qui introduit sa société sur le Nouveau
Marché ou le Second Marché1 . L’intérêt du sujet est triple.
Premièrement, seuls Schatt et Roy (2002) ont travaillé sur ce thème à
notre connaissance. Cependant leur échantillon confond les prévisions incluses dans le prospectus et dans l’étude financière jointe. Or ces prévisions
proviennent d’émetteurs distincts, à savoir le dirigeant et l’entreprise d’in1
La publication de prévision dans le prospectus est obligatoire pour les introductions sur
le Nouveau Marché depuis 1996 (art. 2 règlement no 95-01 de la COB). Elle est facultative
pour les admissions au Second Marché (instruction mars 2001, schémas A, chapitre 5.5).
63
64
Chapitre 2
vestissement. Leur qualité nous semble devoir être appréciée distinctement.
Deuxièmement, les garanties institutionnelles de la qualité des prévisions
publiées dans le prospectus sont faibles. En France, les ayants droit ne portent
pas souvent plainte contre le dirigeant qui publie des prévisions de mauvaise
qualité. Par ailleurs, le contrôle de la COB est formel. Les diligences des commissaires aux comptes sont aussi limitées. Ils ne révisent pas les prévisions
comme en Grande-Bretagne, mais en attestent simplement la sincérité. De
plus, ils sont autorisés dans certains cas2 , à ne pas se prononcer sur la pertinence et la cohérence des hypothèses sous-jacentes aux prévisions3 .
Troisièmement, les informations du prospectus sont publiques. Elles sont
donc susceptibles de fonder les choix de nombreux agents. Par exemple, les actionnaires et les investisseurs y recourent pour décider de conserver ou d’acheter des titres. Les créanciers s’en servent pour évaluer les flux de trésorerie à
venir et la capacité de remboursement de la société.
Généralement, les auteurs recherchent, à titre accessoire, les déterminants
de la qualité des prévisions du dirigeant. Ils testent principalement si le
marché est efficient et donc capable d’anticiper l’erreur de prévision du dirigeant. Ils attribuent l’imprécision des prévisions au niveau de risque ou d’incertitude, approché par les caractéristiques de la société. Certains imputent
l’optimisme du dirigeant à un biais cognitif (Kahneman et Tversky, 1973 ;
Weinstein, 19804 ). Ces facteurs explicatifs présentent des limites. D’une part,
ils expliquent faiblement et partiellement la mauvaise qualité des prévisions
déterminée empiriquement. Ils ne rendent ainsi pas compte du pessimisme
également observé. D’autre part, ils considèrent la communication prévisionnelle moins comme le fruit d’une décision stratégique que de déterminants
exogènes ou inconscients.
Compte tenu de ces limites, nous analysons les erreurs de prévision du dirigeant sous un autre angle que la théorie de l’efficience. Nous testons si les
conflits d’agence déterminent l’offre d’information du dirigeant. La publication d’information est supposée permettre au dirigeant de gérer ses relations
d’agence avec les actionnaires et les créanciers. Autrement dit, le dirigeant
fixerait le biais et la précision de ses prévisions, de sorte à satisfaire les intérêts
des diverses parties prenantes. Enfin, nous vérifions si la publication d’informations de qualité est un mécanisme de gouvernement efficace. Autrement
dit, limite-t-elle les conflits d’agence anticipés par le marché ?
2
paragraphes .22, .24, .25 norme no 354 révisée
bulletin COB, no 352 décembre 2000, p. 27
4
Certaines situations conduiraient naturellement les individus à des prédictions optimistes et exagérées.
3
Chapitre 2
65
La recherche empirique étaye l’hypothèse d’une gestion stratégique de
l’information par le dirigeant.
Sur le marché américain, Teoh et al. (1998b) mettent en évidence une gestion
à la hausse des résultats publiés l’année de l’introduction et les trois années
suivantes. Lors de l’introduction, le dirigeant pourrait de cette manière justifier un prix d’offre plus élevé, et donc avantager les actionnaires cessionnaires.
Après l’introduction, il manipulerait les résultats afin qu’ils confirmassent les
prévisions des analystes. Il s’assurerait ainsi la complaisance des analystes.
Lang et Lundholm (2000) montrent que les sociétés américaines modifient
leur communication financière avant un appel public à l’épargne. Elles formulent les prévisions de manière littérale et non chiffrée. Elles respectent ainsi
la lettre, et non l’esprit, des règlements de la SEC. Elles semblent encore augmenter le nombre d’informations publiées afin de gonfler artificiellement le
cours des titres.
Hayn (1995) représente la distribution de 75 878 BPA annuels publiés par
des sociétés cotées américaines entre 1963 et 1990. Autour de zéro, les points
sont répartis de manière asymétrique. Ils sont concentrés du côté positif et
clairsemés du côté négatif. L’auteur en déduit que les dirigeants aident le
résultat à passer «la ligne rouge».
Sur des données trimestrielles, Degeorge et al. (1999) déterminent la hiérarchie
des incitations à la gestion des résultats. Le déficit précède la diminution des
résultats et le non respect des prévisions des analystes.
Le reste de l’étude comprend trois parties. L’hypothèse d’une bonne gouvernance par publication d’information de qualité est déduite de la théorie
de l’agence dans la section 2.1. Elle est testée empiriquement dans la section
2.3, après présentation de la méthodologie et des données utilisées.
2.1
La publication d’informations de qualité
dans le cadre de la théorie de l’agence
Nous analysons la qualité des prévisions publiées par le dirigeant et son
impact sur les performances boursières de la société dans le cadre de la théorie
de l’agence.
2.1.1
La théorie de l’agence : principes généraux
Nous rappelons brièvement les principes de base de la théorie de l’agence.
66
Chapitre 2
La théorie de l’agence repose sur une certaine conception des comportements individuels et de l’entreprise (Jensen et Meckling, 1976, 1994). Les
individus sont supposés agir de sorte à maximiser leur fonction d’utilité. Ils
anticipent également correctement l’impact des relations d’agence sur leur
richesse future. L’organisation est, elle, considérée comme un «noeud de
contrats» ou un «centre contractant». Elle peut également être appréhendée
comme un système d’incitations (Holmström et Milgrom, 1994).
La dissociation de la gestion et de la propriété des facteurs de production
peut rendre conflictuelles les relations d’agence. En effet, le dirigeant, gestionnaire et décideur, est mieux informé que les bailleurs de fonds. Supposé
maximiser sa fonction d’utilité, il peut profiter de son avantage informationnel et allouer les ressources dans son seul intérêt. Les relations d’agence
deviennent alors antagonistes. Mais les partenaires gagnent à coopérer (voir
première partie). Ils cherchent donc le moyen le moins coûteux de réconcilier
leurs intérêts. Le dirigeant opère cet ajustement au niveau de l’organisation,
c’est-à-dire pour l’ensemble des relations d’agence.
2.1.2
La publication d’informations de qualité, un mode
de gouvernance
Jensen et Meckling (1976) envisagent la publication d’information de qualité comme un moyen efficace d’éviter les conflits entre les créanciers et le
dirigeant. Leur raisonnement est le suivant.
Le prêteur a intérêt à ce que le dirigeant alloue les fonds à des projets rentables. Il peut donc, dans le contrat de prêt, prévoir des clauses protectrices.
Les emprunts supplémentaires, les dividendes, les ventes d’actifs peuvent
ainsi être restreints. Mais ces clauses présentent des limites. D’une part, elles
ne pallient que partiellement l’incomplétude du contrat. Elles ne peuvent
en effet anticiper toutes les causes possibles de conflits. D’autre part, elles
induisent des coûts, comme la rémunération d’experts juridiques ou la renonciation à des opportunités d’investissement rentables. Ces coûts affectent
la valeur de l’entreprise et donc la richesse de toutes les parties prenantes.
Jensen et Meckling (1976) avancent alors que la publication, par le dirigeant,
d’informations de qualité est un mécanisme de gouvernement efficace. Bien
informés, les bailleurs de fonds contrôlent en effet plus aisément l’emploi des
ressources. De son côté, le dirigeant se dédouane efficacement et gagne la
confiance des mandants. Ce mécanisme est peu coûteux car le dirigeant dispose d’ores et déjà de ces informations pour les besoins de sa gestion interne.
Chapitre 2
67
La publication de prévisions de qualité apparaı̂t ainsi comme une nouvelle
règle du jeu garantissant la pérennité de l’entreprise (Michaı̈lesco, 1999). Elle
rend l’entreprise visible à son environnement et stabilise ses relations avec
ses partenaires.
2.1.3
Application au contexte de l’introduction en bourse
En l’espèce, nous avons considéré les relations d’agence entre actionnaires
et dirigeant d’une part, actionnaires/dirigeant et créanciers d’autre part (Jensen et Meckling, 1976). Or l’introduction en bourse est une source potentielle
de conflits entre principal et agent, et donc d’incitations à la publication
d’informations de qualité. Ces incitations émanent principalement des actionnaires, des créanciers et du marché financier.
Les pressions des actionnaires
L’introduction en bourse modifie la structure de financement et de propriété de l’entreprise. À ce titre, elle est susceptible de créer des conflits entre
actionnaires et dirigeant.
Le financement par fonds propres fait pièce aux intérêts des actionnaires.
Il accroı̂t les ressources contrôlées par le dirigeant. La gestion des fonds
propres est en effet souple et assurée en interne. Au contraire, la dette est un
mode de gouvernement plus rigide (Williamson, 1988). Elle réduit les coûts
d’agence entre actionnaires et dirigeant (Jensen et Meckling, 1976). Elle implique en effet des décaissements à dates et montants fixes. Elle conduit donc
le dirigeant à maximiser les flux de trésorerie et elle limite la part des free
cash flows 5 à la discrétion du dirigeant (Jensen, 1988, p. 29).
Avec l’entrée de la société sur le marché, les actionnaires ont donc intérêt à
contrôler l’emploi des fonds collectés. Or lorsque le dirigeant estime le résultat
à venir, il intègre les bénéfices attendus des fonds levés. Les actionnaires le
pressent donc de rendre publiques ses prévisions de résultat.
L’ouverture et la composition de l’actionnariat peuvent inciter le dirigeant à publier des prévisions précises.
Moins le dirigeant est impliqué dans le capital après l’introduction, moins les
actionnaires sont en mesure d’apprécier ses efforts et plus le dirigeant devra
leur rendre des comptes. Les coûts de contrôle et de dédouanement diminuent
5
Flux de trésorerie en excès, après financement des projets d’investissement à la valeur
actuelle nette positive
68
Chapitre 2
donc avec la participation au capital du dirigeant. Selon Jensen et Meckling
(1976), la publication d’informations de qualité permet de réduire les coûts
d’agence. En particulier, la diffusion de prévisions de résultat oblige implicitement le dirigeant. Elle devrait modérer ses tentations d’opportunisme. En
rapprochant les réalisations des prévisions, les actionnaires peuvent en effet
facilement vérifier l’efficacité de la gestion. Dans la même logique, Moyer et al.
(1989) présument que les actionnaires acquièrent des informations auprès des
analystes pour contrôler le dirigeant. Ils montrent que le nombre de prévisions
diffusées par les analystes diminue avec la participation au capital des insiders. Les actionnaires ont d’autant moins besoin d’information privée que
leurs intérêts et ceux du dirigeant convergent.
Dans le cadre de la théorie positive de l’agence, l’ouverture du capital est
supposée amener le dirigeant à fournir aux actionnaires des informations
précises sur les perspectives de l’entreprise. Nous formulons donc l’hypothèse
suivante :
H1- Le dirigeant publie des prévisions d’autant plus précises qu’il conserve
peu d’actions après l’introduction.
Par ailleurs, tous les actionnaires n’ont pas les mêmes besoins informationnels. Les investisseurs institutionnels sont présumés demander plus d’informations que les actionnaires particuliers (Moyer et al., 1989, p. 505). Selon Mottis et Ponssard (2002), leur exigence de transparence requiert «une
grande fiabilité et rapidité des systèmes de reporting et de prévision des
résultats». En outre, certains institutionnels s’engagent dans le temps et sur
un grand nombre de titres. Ils ont alors besoin de prévisions pour évaluer la
capacité de croissance de l’entreprise pendant la durée d’immobilisation de
leurs fonds. Ainsi, leur présence au sein de l’actionnariat devrait peser sur
la décision du dirigeant de révéler précisément ses anticipations de résultats.
D’où l’hypothèse :
H2- La précision des prévisions du dirigeant augmente avec l’actionnariat
institutionnel.
Les pressions des créanciers
Même lorsque l’introduction en bourse accroı̂t les fonds propres de l’entreprise, les créanciers restent incertains de l’usage des fonds levés. Le groupe
dirigeant-actionnaires peut investir le montant introduit dans des projets
très risqués, ou les distribuer sous forme de dividendes, contrairement aux
intérêts et aux anticipations ex ante des créanciers (Myers, 1977). Plus la
valeur de l’entreprise repose sur d’importants projets d’investissements et de
faibles actifs corporels, plus les créanciers risquent d’être spoliés au profit des
Chapitre 2
69
actionnaires (Myers, 1977). Dans ces conditions, ils peuvent réduire l’espace
discrétionnaire du dirigeant en lui imposant des contraintes d’information
plus sévères. Nous déduisons l’hypothèse suivante de la théorie de l’agence :
H3- La précision des prévisions publiées par le dirigeant croı̂t avec le niveau
d’investissements prévus et décroı̂t avec le montant des actifs corporels.
Les pressions du marché financier
Le marché financier a besoin d’informations prévisionnelles fiables pour
valoriser les sociétés cotées. Il peut jouer un rôle disciplinaire (Jensen et Meckling, 1976, p. 328-329). Supposé efficient, il finit toujours par discerner et
sanctionner l’opportunisme du dirigeant. Les sociétés cotées qui gèrent à la
hausse leur résultat (Teoh et al., 1998a ; Rangan, 1998), ou augmentent le
nombre d’informations publiées (Lang et Lundholm, 2000) avant une augmentation de capital, accusent un déclin de leurs performances boursières à
long terme. La crainte d’une sanction boursière est donc supposée dissuader
le dirigeant d’utiliser les informations publiées comme levier d’enracinement,
c’est-à-dire dans une optique contraire à la maximisation de la valeur. Selon
la théorie positive de l’agence, nous devrions observer :
H4- L’exactitude des prévisions publiées par le dirigeant augmente avec les
pressions du marché financier.
La réputation du dirigeant
Dans le cadre de la théorie de l’agence, le dirigeant maximise sa fonction d’utilité. Il peut notamment attribuer de la valeur à des éléments non
pécuniaires, comme sa réputation (Charreaux, 1999, p. 69). Or en publiant
des prévisions précises, il soutient les intérêts des actionnaires et des créanciers,
mais aussi sa réputation. Par ailleurs, la mise de confiance du marché facilitera un ultérieur appel public à l’épargne. Ainsi, dans le modèle de Diamond
(1984), la réputation du dirigeant dépend de son respect des échéances. Elle
détermine entre autres le choix des investisseurs de lui confier leurs fonds.
Empiriquement, Teoh et al. (1998b) montrent qu’une société revient d’autant
moins sur le marché primaire qu’elle a géré ses résultats à la hausse lors de
son introduction en bourse.
Dans le cadre de la TPA, les actionnaires, les créanciers, le marché financier et la volonté de préserver sa réputation inciteraient le dirigeant à publier
des prévisions précises. Mais les investisseurs considèrent-ils la publication
d’informations de qualité comme un mécanisme de gouvernement efficace ?
Valorisent-ils mieux les sociétés aux prévisions de qualité ?
70
Chapitre 2
Qualité des prévisions publiées et valeur de la firme
Chen et al. (2001), Firth et Smith (1992), Keasey et McGuinness (1991),
déjà évoqués dans le tableau 1.2 de la première partie, ont étudié l’impact de
l’erreur de prévision du dirigeant sur les rentabilités initiales anormales. Ils
testent l’hypothèse d’efficience du marché. Ils considèrent que la société et la
banque introductrice fixent de manière unilatérale le prix d’offre, entre autres
à partir des prévisions publiées dans le prospectus. Implicitement, les investisseurs n’influencent que la formation du prix d’équilibre. S’ils estiment les
prévisions du dirigeant (et donc le prix d’offre) excessifs, ils devraient réviser
à la baisse leurs intentions d’achat. La demande de titres diminuerait, et avec
elle le cours d’équilibre. Dans cette logique, l’erreur de prévision du dirigeant
(telle que nous l’avons calculée) serait supposée déterminer négativement la
sous-évaluation.
Nous admettons l’efficience du marché et analysons la politique informationnelle du dirigeant à la lumière de la théorie de l’agence. Contrairement
aux auteurs précédents, nous considérons que la société et la banque introductrice prennent en compte les anticipations des investisseurs dans la
détermination du prix d’offre. Dans un marché efficient, les investisseurs
peuvent évaluer la probabilité de conflits entre les parties prenantes. Ils acceptent une moindre décote du prix d’offre quand ils escomptent de faibles
conflits d’agence. Par contre, lorsque le risque de conflits d’intérêts est élevé,
la société et la banque introductrice doivent davantage sous-évaluer le prix
d’introduction, sous peine de voir l’offre de titres excéder la demande.
Si la qualité des prévisions publiées est un mécanisme de gouvernement
efficace, elle devrait prévenir les conflits d’agence et réconcilier les intérêts divergents. Autrement dit, les investisseurs anticiperaient de moindres conflits
d’agence en présence de prévisions de qualité. Les sociétés aux prévisions
exactes devraient donc avoir moins besoin de sous-évaluer leur prix d’introduction que les sociétés aux prévisions imprécises.
2.2
La méthodologie et les variables
Nous présentons successivement la méthodologie adoptée, les variables
utilisées et l’origine des données.
Chapitre 2
2.2.1
71
Méthodologie adoptée
Dans le cadre de la théorie de l’agence, les actionnaires, les créanciers
et le marché financier inciteraient le dirigeant à publier des informations de
qualité. La publication d’informations de qualité est supposée un mécanisme
de gouvernement efficace. Elle réduirait les conflits d’agence anticipés par les
investisseurs. Elle devrait donc se traduire par une moindre sous-évaluation
du prix d’offre. Plusieurs outils permettent de vérifier ces relations.
En premier lieu, des tests univariés mesurent l’exactitude et le biais des
prévisions des dirigeants. Ces dernières sont ensuite comparées à l’extrapolation des résultats historiques et aux estimations des analystes financiers.
En second lieu, des régressions multiples sont proposées. L’erreur de
prévision de la société puis la sous-évaluation des titres introduits constituent les variables à expliquer. Les variables explicatives permettent de tester les implications de la théorie de l’agence ou représentent des variables de
contrôle.
2.2.2
Variables utilisées
Nous précisons les variables retenues dans la partie empirique.
EPD, EPAF et EPC sont respectivement les erreurs moyennes de prévision
de la société ; des analystes financiers indépendants du chef de file (EPAF)
et du consensus (EPC6 ). Elles sont ainsi calculées : (prévision - réalisation)
/ |réalisation|. Les prévisions portent sur le bénéfice par action du premier
(EPD0, EPAF0 et EPC0) ou deuxième (EPD1, EPAF1 et EPC1) exercice
post introduction.
RIA
: rentabilité
initiale anormale du titre, calculée comme suit : RIAi =
C c i,t0
Ibc t0
− Ibc t −1 où C c i,t est le cours de clôture du titre i, Ibt celui de l’indice
P odi
0
boursier SBF250. P odi est le prix d’offre définitif. t0 désigne la date de l’introduction en bourse.
Les variables ci-après approchent l’éventualité de conflits d’intérêts entre
6
EPC diffère d’EPAF. En effet, le consensus d’I/B/E/S agrège 1.8 estimations en
moyenne, dont éventuellement celles des analystes affiliés au chef de file. Ces estimations sont diffusées entre la date d’introduction et le troisième mercredi du mois suivant.
Dans EPAF, seules sont retenues les prévisions des analystes indépendants, publiées dans
l’intervalle [-6 mois, +12 mois] autour de la date d’introduction.
72
Chapitre 2
actionnaires et dirigeant.
AD : pourcentage du capital détenu par le dirigeant, directement ou indirectement, après l’introduction en bourse. Pour le dirigeant, le risque de conflits
avec les actionnaires, et donc son incitation à publier des prévisions précises,
devraient croı̂tre avec son désengagement.
Inv. Inst : pourcentage de capital détenu par les investisseurs institutionnels après l’introduction. Ces investisseurs professionnels, influents, sont en
mesure d’imposer au dirigeant la publication de prévisions de qualité. Ils regroupent les compagnies d’assurance, les banques, les fonds de pension et les
organismes de placement collectif (OPC). La banque chef de file peut appartenir à ces actionnaires, directement ou via un OPC7 .
Deux variables mesurent la possibilité de conflits entre actionnaires et
créanciers.
Immo : rapport des immobilisations corporelles sur le total du dernier bilan
certifié avant l’introduction en bourse. Les créanciers s’informent d’autant
plus sur les perspectives de l’entreprise que peu actifs corporels garantissent
leurs créances.
Inv. : rapport des investissements prévus8 pour l’année suivant l’introduction sur le total du dernier bilan certifié. Plus l’entreprise envisage d’investir,
plus sont probables les transferts de richesse des créanciers vers les actionnaires. La demande d’information des créanciers devrait donc croı̂tre avec
l’importance des projets d’investissement.
La variable ci-dessous estime le pouvoir disciplinaire du marché financier.
LIQ : volume moyen des titres échangés les vingt-cinq premiers jours de cotation. Nous associons l’intérêt du marché au nombre de transactions réalisées.
Pour évaluer un titre, le marché a besoin d’informations prévisionnelles fiables.
Plus le marché suit la société, plus le dirigeant est donc supposé incité à publier des prévisions de résultat précises.
D’autres facteurs peuvent expliquer les erreurs de prévision du dirigeant.
Ils sont intégrés comme variables de contrôle dans les régressions.
Marge nette : résultat net sur le chiffre d’affaires de l’année précédant
l’introduction. La diffusion d’informations sensibles peut porter un préjudice
commercial, médiatique ou politique aux sociétés performantes. Autrement
dit, les performances réalisées accroissent les coûts de propriété (Verrecchia,
7
En France, les banques contrôlent largement les OPC (Jeffers et Plihon, 2002).
Les sociétés évaluent leurs projets d’investissements dans le chapitre 4 ou 7 du prospectus d’introduction.
8
Chapitre 2
73
1983). Elles devraient donc dissuader le dirigeant de publier des prévisions
précises (Irani, 1999). La marge nette est supposée reliée positivement aux
erreurs de prévision du dirigeant.
Dette : ratio des dettes d’exploitation et financières sur le total du dernier
bilan certifié. Les résultats des sociétés endettées sont présumés volatils, et
donc difficiles à prévoir (Firth et Smith, 1992 ; Jaggi, 1997 ; Chen et al., 2001 ;
Schatt et Roy, 2002).
Taille : logarithme népérien du chiffre d’affaires de la société, un an avant
son introduction en bourse. Cette variable mesure la taille de la société. Les
grandes sociétés disposent d’outils informatiques et statistiques, les aidant à
prédire les résultats (Firth et Smith, 1992 ; Mak, 1994 ; Jaggi, 1997). Leurs
prévisions devraient donc être plus précises que celles des petites sociétés.
Âge : nombre d’années séparant l’introduction en bourse, de la création de
la société. Plus une société est âgée, mieux elle connaı̂t son métier et son environnement. L’exactitude des prévisions publiées devrait donc croı̂tre avec
l’âge de la société (Firth et Smith, 1992 ; Lee et al., 1993 ; Jaggi, 1997 ; Chen
et al., 2001 ; Schatt et Roy, 2002).
Les variables ci-dessous mesurent le niveau d’incertitude sur les bénéfices
estimés.
Marché : variable dichotomique prenant la valeur 1 si la société s’introduit
sur le Second Marché et 0 sur le Nouveau Marché. Le Nouveau Marché accueille les sociétés de croissance, aux projets d’investissement complexes et à
la demande aléatoire. Il est donc associé à des perspectives plus incertaines
que le Second Marché.
PER : rapport du prix d’offre définitif sur le bénéfice par action de l’année
précédant l’introduction en bourse. Un PER élevé indique que le marché est
confiant dans la croissance future des bénéfices de l’entreprise. Au contraire,
un faible PER correspond à des prévisions incertaines et à une plus grande
incertitude.
CAE : pourcentage du chiffre d’affaires réalisé à l’étranger par la société
l’année précédant son introduction. L’estimation des bénéfices à venir est
plus difficile pour les sociétés internationales, et donc plus incertaine.
2.2.3
Les données
Nous décrivons l’origine des données utilisées, la procédure de sélection
de l’échantillon et enfin l’échantillon lui-même.
74
Chapitre 2
Origine des données
La sous-évaluation et le volume moyen des titres échangés sont calculés à
partir des données d’ABC Bourse. Proviennent du prospectus d’information
définitif les caractéristiques de l’émetteur et de l’émission (composition de
l’actionnariat, marché, endettement...), ainsi que les prévisions de bénéfices
du dirigeant. Sont extraites des bases d’I/B/E/S : les prévisions du consensus,
à la date la plus proche de l’introduction en bourse ; les BPA réalisés ; les
prévisions des analystes indépendants du chef de file, émises dans l’intervalle
[-6 mois ; +12 mois] autour de la date d’introduction.
La constitution de l’échantillon
Nous avons retenu les sociétés admises à la cote du Second Marché entre
1994 et 2000, ou du Nouveau Marché entre 1996 et 2000, dont le prospectus,
disponible, contenait des prévisions de résultats chiffrées.
Sur la période étudiée, 256 sociétés se sont introduites sur le Second
Marché et 165 sur le Nouveau Marché. Le dossier d’introduction complet
était consultable pour 295 d’entre elles. 149 des 295 sociétés avaient publié
des prévisions de résultat chiffrées dans leur prospectus. Les réalisations de
bénéfice par action étaient disponibles pour 139 de ces 149 sociétés. 49 des
139 sociétés présentaient des valeurs manquantes pour au moins l’une des
variables utilisées dans les régressions. Finalement, l’échantillon se compose
de 90 sociétés dont 29 appartiennent au Nouveau Marché et 61 au Second
Marché.
Description de l’échantillon
Le tableau 2.1 donne les statistiques descriptives des variables utilisées.
Les sociétés de l’échantillon ont en moyenne 24 ans lorsqu’elles s’introduisent en bourse. Elles réalisent environ un tiers de leur chiffre d’affaires
à l’export. Leur marge nette est faible (3.5% en moyenne). Au regard du
niveau et du signe positif du PER (13), elles sont en phase de croissance.
Les dettes représentent en moyenne 50% du bilan total et les projets d’investissement un tiers. Ces sociétés se sont probablement introduites en bourse
pour financer leur développement. 21 773 titres sont en moyenne échangés
les 25 premiers jours de cotation. Les dirigeants conservent en moyenne 60%
du capital après l’introduction et les investisseurs institutionnels, 10%. La
rentabilité initiale anormale observée est de 28%. Le capital des introductions en bourse françaises est concentré. Sur notre échantillon, le dirigeant
conserve en moyenne plus de 60% du capital après l’introduction. Derrien et
Chapitre 2
Total
Âge
Taille
PER
Immo
Inv
Dette
Inv. Inst
AD
LIQ
RIA
Marge nette
CAE
75
N
90
90
90
90
90
90
90
90
90
90
90
88
Moyenne
24.1
5.30
13.7
27.9
27.5
47.7
10.8
57.5
21773
0.279
3.57
35.5
Médiane
15.0
5.25
19.9
19.0
14.6
51.9
0.00
67.6
12165
0.075
4.63
28.5
Écart-type
29.6
1.49
149
23.3
28.9
25.5
17.9
29.0
25852
1.171
13.4
32.6
Minimum
1
0.97
-1271
0.00
0.51
0.39
0.00
0.00
696
-1.17
-77.5
0.00
Maximum
170
11.5
202
92.1
116
89.2
90.0
93.6
173614
10.6
38.6
100
Tab. 2.1 – Statistiques descriptives : échantillon du chapitre 2
Âge = âge de la société au moment de son introduction en bourse ; Taille = logarithme
népérien du chiffre d’affaires l’année précédant l’introduction ; PER = rapport du prix
d’offre définitif sur le BPA de l’exercice précédant l’introduction ; Immo = actifs corporels
/ total dernier bilan certifié avant l’introduction ; Inv = rapport des investissements prévus
sur le total du dernier bilan certifié ; Dette = rapport des dettes financières et d’exploitation
sur le total du dernier bilan certifié ; InvInst = pourcentage d’investisseurs institutionnels
présents dans le capital après l’introduction ; AD = pourcentage du capital conservé par le
dirigeant après l’introduction en bourse ; LIQ = volume moyen des titres échangés les 25
premiers jours de cotation ; RIA = rentabilité initiale anormale ; Marge nette = résultat
net / chiffre d’affaires de l’année précédant l’introduction ; CAE = pourcentage du chiffre
d’affaires réalisé à l’export l’année précédant l’introduction.
Degeorge (2001) observent la structure du capital de 243 sociétés françaises,
avant leur introduction. 111 sont détenues à plus de 90% par leur dirigeant.
Depuis 1996, la réglementation ne favorise pas l’ouverture du capital. Les
actionnaires dirigeants des sociétés demandant leur admission à la cote du
Nouveau Marché doivent s’engager à conserver tout ou partie (80%) de leurs
titres, respectivement six mois ou un an à compter de la date d’introduction
(articles P. 1.1.31 et 1.1.32 des Règles de Marché d’Euronext). Sur le Second
Marché, la COB exige le même engagement des investisseurs ayant acquis
avant l’introduction en bourse, des titres à un prix inférieur au prix d’offre.
2.3
Résultats empiriques et discussion
L’exactitude et le biais des prévisions du dirigeant sont évalués sur notre
échantillon de 90 introductions. Nous testons ensuite si les conflits d’agence
76
Chapitre 2
expliquent effectivement la qualité de ces prévisions. Nous apprécions enfin
si, du point de vue des investisseurs, la publication d’informations de qualité
semble un mécanisme de gouvernement efficace.
2.3.1
Mesure de la qualité des prévisions du dirigeant
Le dirigeant, les analystes indépendants du chef de file et le consensus
d’I/B/E/S estiment le bénéfice par action de l’exercice fiscal suivant l’introduction. Leurs erreurs moyennes de prévision sont comparées. Elles sont
respectivement désignées par EPD0, EPAF0 et EPC0. Elles équivalent
−BP Areel
au rapport BP Aprevu
. Les investisseurs peuvent également anticiper le
|BP Areel |
résultat d’une société à partir de modèles de prévision. Cheng et Firth (2000)
supposent le bénéfice prévu pour l’année t0 égal au résultat réalisé l’année
précédente (Rt−1 ). Si Rt0 est le BPA réel de l’exercice t0 , l’erreur de prévision
commise avec ce modèle est alors :
EP naif 0 =
Rt−1 − Rt0
| Rt0 |
Cheng et Firth calculent ensuite la variable SUP :
SU P (P i , t0 ) = Ln(
Rt0 − Rt−1 2
)
Rt0 − P i t0
où P i t0 est le BPA prévu par l’émetteur i à l’horizon t0 . L’erreur de prévision
du modèle naı̈f est rapportée à celle de l’émetteur i considéré. Si le numérateur
est supérieur au dénominateur, alors les estimations du modèle naı̈f sont
moins précises que celles de l’émetteur i. Lorsque le SUP est positif, l’investisseur a donc intérêt à utiliser les prévisions de l’émetteur i. Nous avons
calculé cette variable SUP pour les prévisions du dirigeant et du consensus.
Le tableau 2.2 compare la capacité prédictive du dirigeant, des analystes
financiers indépendants du chef de file, du consensus et du modèle naı̈f d’estimation. Nous testons si les erreurs moyennes et médianes de prévision sont
significativement différentes de 0. Le t désigne le test de Student ; le Z, le test
de rang de Wilcoxon. Les tests sont bilatéraux. Nous observons enfin si les
erreurs moyennes diffèrent significativement entre elles.
Le tableau 2.3 rapporte la distribution (% cumulés) des erreurs de prévision
des dirigeants, des analystes financiers et du consensus pour les sociétés de
l’échantillon.
L’erreur moyenne de prévision des dirigeants est significativement supérieure à zéro. 51 erreurs sont positives et donc optimistes ; 39 sont négatives et
Chapitre 2
77
EPD0
EPAF0
EPC0
EPNAÏF
Sup Dirigeant
Sup Consensus
EPD0-EPAF0
EPD0-EPC0
EPNAÏF-EPD0
N
90
55
59
90
90
59
N
55
59
90
Moyenne
1.17
0.431
-0.181
-0.155
-0.766
0.287
Dif. moyennes
1.07****
1.59****
-1.64****
Médiane
0.042
-0.005
-0.133
-0.254
-0.105
0.234
Stat. t
3.845
4.291
-4.623
Écart-type
2.97
1.97
0.733
0.622
4.12
3.37
Sig.
0.000
0.000
0.000
Stat. t
3.725****
1.712*
-1.894*
-2.121**
-1.578
0.637
Stat. Z
2.782
4.657
5.489
Stat. Z
2.48**
0.33
2.81***
3.77****
-1.341
-0.81
Sig.
0.005
0.000
0.000
Tab. 2.2 – Comparaison des erreurs de prévision
%Erreur
0.10
0.25
0.50
0.75
0.90
>0.9
Dirigeant
22.2
40.0
58.9
64.4
65.6
100.0
Analystes
50.9
76.4
80.0
85.5
89.1
100.0
Consensus (I/B/E/S)
25.4
47.5
55.9
64.4
84.7
100.0
Tab. 2.3 – Distribution des erreurs de prévision
donc pessimistes. Les dirigeants optimistes sont significativement plus nombreux que les dirigeants pessimistes (Z = -2.489, significatif au seuil de 5%).
Sur notre échantillon, seulement 20% des dirigeants (contre 50% des analystes) commettent une erreur inférieure à 10% (tableau 2.3). Les dirigeants
se trompent par ailleurs significativement plus que les analystes financiers,
au seuil de 0.1%. Leur erreur moyenne de prévision dépasse les 100%.
En nombre, les erreurs des analystes comme du consensus sont inférieures
à 0 et donc pessimistes. Elles sont également très précises. Mais celles du
consensus diffèrent significativement de 0. En moyenne, les prévisions individuelles des analystes s’écartent de 43% du BPA réel ; celles du consensus de
-18%. Les erreurs des analystes individuels sont distribuées de manière plus
asymétrique que celles du consensus (tableau 2.3).
D’après le tableau 2.2, les estimations du consensus sont plus utiles aux
investisseurs que celles issues du modèle naı̈f, puisque la variable SUP est
positive en nombre et en moyenne. Par contre, la valeur informative des
prévisions du dirigeant n’est pas supérieure à celle du modèle naı̈f : le SUP
78
Chapitre 2
est négatif en moyenne et en médiane. Ce dernier résultat contredit les conclusions de Hartnett et Römcke (2002). Dans leur étude, les prévisions publiées
par 203 sociétés admises à la cote australienne paraissent en moyenne significativement plus exactes que celles obtenues avec sept modèles «naı̈fs».
Toutefois, nos résultats doivent être interprétés avec prudence car les valeurs
moyennes et médianes du SUP ne sont pas statistiquement différentes de zéro.
Ainsi, comparé aux analystes financiers ou à un modèle naı̈f d’estimation,
le dirigeant est excessivement optimiste.
Cet optimisme peut servir les intérêts des anciens actionnaires. Tout d’abord,
il permet au dirigeant de négocier à la hausse le prix d’offre (Teoh et al.,
1998b). Les actionnaires cessionnaires retirent alors un meilleur prix des
titres vendus, tandis que les autres pâtissent d’une moindre dilution. En
effet, moins de titres devront être émis pour obtenir les fonds souhaités. Ensuite, la perspective d’une croissance du résultat peut attirer plus aisément les
investisseurs. Les analystes affiliés à la banque introductrice semblent ainsi
incités à l’optimisme, afin de faciliter le placement des titres (Michaely et
Womack, 1999, voir chapitre 2). Or généralement, l’introduction en bourse a
vocation à financer des projets d’investissement supposés créateurs de valeur.
Son succès affecte donc la richesse des actionnaires originaires qui restent au
sein du capital.
Mais nos résultats ne permettent pas d’imputer l’optimisme avéré du dirigeant aux pressions des actionnaires originaires. Nous ne disposions en effet
pas de données suffisantes sur la répartition du capital pour vérifier clairement ce lien.
2.3.2
Explication de la qualité des prévisions du dirigeant
Les pressions des actionnaires, des créanciers et du marché financier expliquent-elles la qualité des prévisions publiées par le dirigeant, toutes choses
égales par ailleurs ? Pour répondre à cette question, nous avons réalisé des
tests univariés et multivariés. Les résultats sont rapportés dans les tableaux
2.4, 2.5 et 2.6.
Chapitre 2
79
Le tableau 2.4 présente les résultats des tests univariés.
PREC : variable dichotomique mesurant la précision des prévisions du prospectus.
P REC = 1 si EP D0 ≤ σm . EP D0 est l’erreur de prévision du dirigeant pour l’exercice
comptable suivant l’introduction en bourse. σm est l’écart-type des erreurs de prévision
des sociétés introduites sur le marché m.
Biais : variable dichotomique prenant la valeur 1 si (BPAp-BPAr)/ |BP Ar| est positive
et donc optimiste.
Nous mesurons l’influence de la précision puis du biais des prévisions du dirigeant sur les
variables suivantes :
(1) PER = prix d’offre définitif / BPA de l’année antérieure à l’introduction
(2) Immo = actifs corporels / total dernier bilan certifié avant l’introduction
(3) AD = participation directe ou indirecte du dirigeant dans le capital après l’introduction
(4) LIQ = volume moyen des titres échangés les 25 premiers jours de cotation
(5) MN = marge nette = résultat net / chiffre d’affaires de l’année précédant l’introduction
(6) CAE = pourcentage du chiffre d’affaires réalisé à l’export l’année précédant l’introduction
Seules les variables dont l’écart entre les moyennes est statistiquement différent de 0 sont
rapportées.
PREC = 0/1
PER
Immo
Marge nette
CAE
N
32/58
32/58
32/58
32/58
Moyenne
-21.6/33.2
21.4/31.5
0.230/5.42
49.9/27.3
Médiane
21.4/18.8
18.2/21.5
3.58/4.80
55.5/6.95
Écart-type
241/44.1
15.5/26.1
20.0/7.44
26.7/32.9
Dif. moy.
-54.8*
-10.1**
-5.19*
22.7***
t (signif.)
-1.685 (0.096)
-2.004 (0.048)
-1.775 (0.079)
3.510 (0.001)
Biais = 0/1
AD
LIQ
Marge nette
N
39/51
39/51
39/51
Moyenne
63.5/52.9
27633/17292
0.347/6.04
Médiane
74.9/62.6
11107/12266
4.33/4.67
Écart-type
25.6/30.9
33750/16634
17.5/8.66
Dif. moy.
10.6*
10341*
-5.70*
t (signif.)
1.773 (0.080)
1.908 (0.060)
-1.868 (0.067)
Tab. 2.4 – Impact de la précision et du biais des prévisions du dirigeant
80
Chapitre 2
Dans le tableau 2.5, l’erreur de prévision du dirigeant ( (BPAp-BPAr)/ |BP Ar|) est la variable à expliquer.
Les variables explicatives sont :
(1) InvInst = pourcentage d’investisseurs institutionnels présents dans le capital après l’introduction
(2) IMMO = actifs corporels / total dernier bilan certifié avant l’introduction
(3) INV = investissements prévus pour l’année suivant l’introduction / total bilan l’année précédant
l’introduction
(4) LIQ = volume moyen des titres échangés les 25 premiers jours de cotation
Les variables muettes sont :
(5) PER = prix d’offre définitif / BPA de l’année antérieure à l’introduction
(6) MN = marge nette = résultat net / chiffre d’affaires de l’année précédant l’introduction
(7) CAE = pourcentage du chiffre d’affaires réalisé à l’export l’année précédant l’introduction
Le t de Student peut être significatif au seuil de 10% (*), 5% (**), 1% (***) ou 0.1% (****). En italique
sont indiqués les VIF, facteurs d’inflation de la variance.
variable
dépendante
Modèles
Constante
variables d’incertitude
1 a-b
1.240
0.750
4.08****
1.113
pressions des
créanciers
2
1.186
2.98***
Erreur de prévision
du dirigeant
pressions du
marché financier
3
1.634
3.052***
variable de
contrôle
4
1.517
4.115****
InvInst
2.28 10−2
( 1.71*)
Immo
-2.8 10−5
(-2.122**)
LIQ
PER
pressions internes
et externes
5 a et b
1.186
4.483
2.086**
10.36****
−3
3.93 10
(2.298**)
1.052
-2.4 10−5
(-2.021**)
1.014
-0.006
(-3.06***)
1.008
-0.006
(-2.761***)
-2.83 10−2
(-1.878*)
1.35
Inv
4.68 10−2
(2.072**)
Marge nette
0.029
(2.674***)
CAE
R2 ajusté
F
N
-2.74 10−5
(-2.258**)
1.007
0.064
4.256**
90
0.05
5.808**
90
0.021
5.644***
90
0.024
3.545*
90
0.03
6.561***
90
4.73 10−2
(2.41**)
1.016
0.025
(2.68***)
1.012
0.249
6.323***
90
0.0236
(2.657***)
1.02
0.160
6.94****
90
Tab. 2.5 – Explication de l’erreur de prévision du dirigeant par les variables
d’agence
Chapitre 2
81
Dans le tableau 2.6, la variable à expliquer est la rentabilité initiale anormale : [PCi / POi] - [Ic / I0]
avec, pour une entreprise i, POi : prix d’offre ; PCi : premier cours coté ; Ic = cours de clôture de l’indice
SBF 250 le jour de l’introduction et I0 = Cours d’ouverture de l’indice SBF 250.
Les variables explicatives sont :
(1) InvInst = pourcentage d’investisseurs institutionnels présents dans le capital après l’introduction
(2) IMMO = actifs corporels / total dernier bilan certifié avant l’introduction
(3) INV = investissements prévus pour l’année suivant l’introduction / total bilan l’année précédant
l’introduction
Les variables muettes sont :
(4) PER = prix d’offre définitif / BPA de l’année antérieure à l’introduction
(5) Marché = variable dichotomique prenant la valeur 0 si la société s’introduit sur le Nouveau Marché
et 1 sur le Second Marché.
Les modèles 6 à 10 visent à expliquer les performances boursières de la société introduite. Ils intègrent
l’erreur de prévision du dirigeant (modèle 6), des variables d’agence (modèles 7 a, b et c) ou d’asymétrie
(modèle 8). Les modèles 9 a et b incluent les variables d’agence, d’asymétrie et l’erreur de prévision du
dirigeant.
Le t de Student peut être significatif au seuil de 10% (*), 5% (**), 1% (***) ou 0.1% (****). En italique
sont indiqués les VIF, facteurs d’inflation de la variance.
var. dépendante
Modèles
Constante
EPD0
Qualité
prévision
6
0.158
1.183
0.104
(2.57**)
Rentabilité initiale anormale
variables d’agence
Asymétrie
-1.32
-1.80*
7 a-b-c
-1.025
-1.135
0.214
2.25**
2.0410−2
(2.52**)
1.024
InvInst
2.5310−3
(1.62*)
1.105
Inv
-4.5610−3
(-2.8**)
1.02
Immo
PER
Marché
R2 ajusté
F
N
8
0.632
5.52****
0.059
6.561**
90
-5.9210−2
(-2.65**)
1.167
0.102
3.46**
90
0.116
3.23**
90
0.278
3.12**
90
1.3410−3
(1.66**)
1.009
-5.5810−2
(-2.662**)
1.009
0.11
4.96**
90
Qualité prévisions
et variables d’agence
9 a-b
-0.748
-1.741
-1.85*
-2.62**
0.24
0.26
(2.50**)
(2.3**)
1.250
1.03
2.710−2
(1.87*)
1.24
4.2310−3
(1.725*)
1.03
-3.210−3
(-2.6*)
1.05
0.354
5.68***
90
0.425
5.2**
90
Tab. 2.6 – Explication de la sous-évaluation par l’erreur de prévision du
dirigeant, des variables d’asymétrie et/ou d’agence
82
Chapitre 2
Les pressions des actionnaires
Moins le dirigeant est impliqué dans le capital après l’introduction, plus
les actionnaires étaient supposés réclamer des prévisions de qualité.
Au vu des tests univariés (tableau 2.4), les dirigeants optimistes restent significativement moins impliqués dans le capital que les dirigeants prudents.
Dans les régressions multivariées (tableau 2.5), la rétention de capital par
le dirigeant n’explique pas significativement ses erreurs de prévision. Schatt
et Roy (2002) relient au contraire significativement la fraction de capital
conservée par les actionnaires d’origine à la précision et au pessimisme des
estimations du dirigeant. La plus grande taille de leur échantillon (151 observations), et la sélection de tous les actionnaires originels, et pas uniquement
de l’actionnaire-dirigeant, peuvent expliquer que leurs résultats diffèrent des
nôtres.
Les résultats ne permettent donc pas d’accepter ou de rejeter l’hypothèse H1.
Le dirigeant était présumé publier des prévisions d’autant plus exactes
que des investisseurs institutionnels composent le capital. Nous observons au
contraire que les erreurs de prévision du dirigeant croissent avec la participation des investisseurs institutionnels (tableau 2.5, modèle 5a). L’hypothèse
H2 est donc infirmée. Pourtant, sur le marché secondaire, les actionnaires
institutionnels semblent contrôler efficacement la politique informationnelle
du dirigeant, selon Rajgopal et al. (1999). Ils paraissent empêcher une gestion opportuniste des résultats. Partant, la présence possible, parmi l’actionnariat institutionnel, de la banque introductrice pourrait rendre compte de
notre résultat. L’introducteur a en effet intérêt à maximiser le produit de
l’opération9 . En encourageant le dirigeant comme ses analystes (Michaely et
Womack, 1999 ; Dechow et al., 2000) à l’optimisme, il place plus aisément
les titres. Cette hypothèse explicative reste à vérifier en prolongement de ce
travail.
Les pressions des créanciers
D’après les tests univariés (tableau 2.4), les sociétés aux prévisions précises
et optimistes ont significativement moins d’actifs corporels que les sociétés
aux perspectives imprécises et pessimistes.
Dans les modèles de régression (tableau 2.5, modèles 2 et 5b), les erreurs
de prévision du dirigeant diminuent bien avec le montant des investissements
prévus et augmentent avec le niveau des immobilisations corporelles. Lorsque
9
Il perçoit des commissions fonction des fonds levés (de 5 à 7%).
Chapitre 2
83
les créanciers supportent un risque important, ils étaient supposés exiger des
informations précises sur les perspectives de l’entreprise (H3). Nos résultats
semblent accréditer cette hypothèse.
Le rôle disciplinaire du marché financier
D’après les tests univariés (tableau 2.4), les sociétés prudentes dans leurs
prévisions voient leurs titres significativement plus échangés que les sociétés
optimistes.
Les régressions (tableau 2.5, modèle 3) confortent ce résultat. Le dirigeant diffuse des prévisions d’autant plus exactes que les titres introduits
sont échangés et donc particulièrement suivis par le marché financier. Le
pouvoir explicatif de la variable liquidité s’améliore lorsque sont ajoutées les
autres variables d’agence ou d’incertitude (modèles 5 a et b). L’hypothèse
H4 est donc vérifiée.
Variable de contrôle
• La marge nette, proxy des coûts de propriété
D’après les tests univariés, les sociétés aux perspectives précises dégagent
une marge nette (5.4%) significativement plus élevée que les sociétés aux
prévisions inexactes (0.23%), au seuil de 10%. Nous nous attendions au
contraire à ce que les erreurs de prévision soient reliées positivement à la
marge nette. La marge nette des sociétés optimistes (6%) dépasse de manière
significative celle des sociétés pessimistes (0.3%).
Les résultats des régressions avalisent nos anticipations (tableau 2.5, modèle
4). Plus la marge nette est faible, plus le dirigeant diffuse des prévisions
exactes. La variables est significative au seuil de 5%. Le R2 s’élève à 3%,
tandis que le F de Fisher est significatif au seuil de 5%. L’ajout des variables
d’agence confirme le pouvoir explicatif de la marge nette (modèle 5a).
• Endettement, taille et âge
Ni l’analyse univariée ni les modèles de régression n’établissent de lien
significatif entre les erreurs de prévision et l’endettement. L’endettement
était supposé accroı̂tre la volatilité des résultats et donc l’imprécision des
prévisions. Il rend par ailleurs la publication d’informations de qualité moins
nécessaire. En effet, il permet de résoudre les conflits potentiels entre le diri-
84
Chapitre 2
geant et les actionnaires (Jensen et Meckling, 1976 ; Grossman et Hart, 1980).
D’après les résultats de Moyer et al. (1989), les actionnaires acquièrent d’autant moins d’informations auprès des analystes que la société est endettée.
Sur notre échantillon, l’endettement et la qualité des prévisions publiées sont
des variables indépendantes. Ces deux mécanismes de gouvernement semblent
donc exclusifs.
• Le niveau d’incertitude
Le marché d’introduction, l’horizon de prévision, le chiffre d’affaires réalisé
à l’étranger et le PER approchent le niveau d’incertitude.
Dans le tableau 2.4, les sociétés sont différenciées selon l’exactitude puis
le biais des prévisions de leur dirigeant. Les sociétés les moins précises dans
leurs estimations présentent des PER significativement plus faibles que les
sociétés les plus précises. Leur chiffre d’affaires à l’export est en outre significativement plus élevé. L’incertitude sur les bénéfices estimés semble donc
bien diminuer avec le PER et augmenter avec le chiffre d’affaires réalisé à
l’étranger.
Le tableau 2.7 rapporte les erreurs de prévision du dirigeant à l’horizon
d’un an (EPD0) ou de deux ans (EPD1) après l’introduction, pour une société
du Nouveau Marché (EPD-NM) ou du Second Marché (EPD-SM). Il indique
si les erreurs moyennes et médianes, puis les écarts EPD0-EPD1 et EPDNMEPDSM sont statistiquement différents de 0.
EPD0
EPD1
EPD0-NM
EPD0-SM
EPD0-EPD1
N
90
54
29
61
N
54
Moyenne
1.17
2.95
1.29
1.11
Dif. moyennes
-1.515****
Médiane
0.042
0.661
0.305
0.026
Stat. t
-3.422
Écart-type
2.97
5.34
3.44
2.74
Sig.
0.001
Stat. t
3.725****
3.916****
2.011*
3.155***
Stat. Z
5.713
Stat. Z
2.48**
5.75****
1.71*
1.75*
Sig.
0.000
Tab. 2.7 – Erreurs de prévision du dirigeant selon le marché d’introduction
et l’horizon
En moyenne, les prévisions du dirigeant sont plus optimistes et inexactes
pour les introductions au Nouveau Marché (129%) qu’au Second Marché
(111%). Les erreurs médianes sont optimistes quel que soit le marché d’introduction, et de moins bonne qualité pour les sociétés du Nouveau Marché
(30%, contre 2.6% pour le Second Marché). Toutefois, les écarts entre les deux
Chapitre 2
85
marchés restent non significatifs, qu’ils soient calculés à partir des moyennes
ou des médianes.
Les dirigeants sont en moyenne significativement plus optimistes et imprécis
à long terme qu’à court terme. Leurs erreurs moyennes sont respectivement
de 117% à l’horizon d’un an et de 295% à l’horizon de deux ans. À propos des
analystes financiers, Dechow et al. (2000) avancent qu’une erreur de prévision
à long terme nuit moins à leur réputation qu’à court terme. L’argument vaut
pour les dirigeants. La forte dispersion de nos observations conduit à analyser
les médianes. Les estimations des dirigeants sont optimistes à l’horizon d’un
an et très précises (avec une erreur de 4.2%). À l’horizon de deux ans, leur
qualité se dégrade significativement (l’erreur passe à 66%). Le faible nombre
d’observations à deux ans (54) invite à interpréter ces résultats avec prudence.
Dans le modèle de régression 1a (tableau 2.5), les erreurs de prévision du
dirigeant sont reliées négativement au PER. Moins la communauté financière
est confiante dans les perspectives de la société et plus le dirigeant est optimiste dans ses prévisions. Le dirigeant semble également d’autant plus se
tromper qu’une part importante de son activité a lieu à l’étranger (modèle
1b). La qualité globale d’ajustement des modèles reste faible, avec des coefficients de détermination de 0.064 et 0.05.
Ainsi, les analyses univariée et multivariée relient positivement l’optimisme du dirigeant et l’incertitude sur les bénéfices estimés. Dans un contexte
d’incertitude, le marché décèle difficilement si l’erreur de prévision est voulue ou exogène. Le dirigeant gagne donc à être optimiste. Il satisfait ainsi les
intérêts des anciens actionnaires sans entacher sa réputation.
2.3.3
Qualité des prévisions publiées et performances
boursières
La rentabilité initiale anormale est d’abord régressée sur l’erreur de prévision du dirigeant (modèle 6), puis sur les variables d’agence (modèles 7 a,
b et c) et sur les variables de contrôle (modèle 8). Enfin, nous étudions les
éventuelles interactions entre l’erreur de prévision du dirigeant, les variables
d’agence et de contrôle (modèles 9 a et b). Le tableau 2.6 récapitule les
modèles les plus significatifs obtenus.
Qualité des prévisions et sous-évaluation
L’erreur de prévision du dirigeant influence positivement et de manière significative la sous-évaluation, au seuil de 5%. Le pouvoir explicatif du modèle
86
Chapitre 2
6 est faible, avec un coefficient de détermination de 5%, mais le F de Fisher
est significatif au seuil de 5%. La publication par le dirigeant de prévisions
de qualité semble garantir une moindre sous-évaluation du prix d’offre. Elle
peut réduire l’incertitude des investisseurs ou les conflits d’agence qu’ils anticipent. Le modèle obtenu ne permet pas de privilégier une explication.
Nos résultats diffèrent de ceux de la littérature. Keasey et McGuiness
(1991) sur le marché britannique ou Chen et al. (2001) sur le marché de Hong
Kong, obtiennent une relation positive et significative entre la sous-évaluation
et l’erreur de prévision du dirigeant, calculée ainsi : (BP Ar − BP Ap) /
|BP Ap|. Plus le dirigeant est optimiste et moins les titres apparaissent sousévalués. Sur le marché new-zélandais, sous-évaluation et erreur de prévision
du dirigeant ne sont pas significativement liées (Firth et Smith, 1992).
Variables d’agence et sous-évaluation
Les variables d’agence déterminent la probabilité de conflits entre l’entreprise et ses parties prenantes. Le prix d’offre devrait être d’autant plus
sous-évalué que les investisseurs anticipent des oppositions d’intérêts.
Dans le cadre de la théorie de l’agence, plus le dirigeant participe au capital, plus ses intérêts rejoignent ceux des actionnaires. Les coûts d’agence et
la sous-évaluation initiale étaient donc supposés diminuer avec la rétention
de capital par le dirigeant. Toutefois, dans les régressions, le désengagement
du dirigeant n’influence pas significativement la sous-évaluation. Il ne semble
pas non plus affecter les performances boursières à long terme des sociétés
introduites (Godard et Poincelot, 2002). En France, la structure fermée du
capital et la faible protection des actionnaires minoritaires rendent plus probables les conflits d’intérêts entre propriétaires (minoritaires/majoritaires)
qu’entre le dirigeant et les actionnaires.
Nous avons supposé les actionnaires institutionnels plus susceptibles de
s’opposer au dirigeant que les actionnaires non professionnels. Sur notre
échantillon, l’actionnariat institutionnel est relié positivement et significativement - au seuil de 10% - à la sous-évaluation (modèle 7 a). Selon notre hypothèse, le marché associerait ces actionnaires à de prévisibles coûts d’agence,
et donc demanderait une plus forte sous-évaluation du prix d’offre. Mais
nous pouvons interpréter notre résultat à la lumière d’autres théories que la
TPA. Les investisseurs institutionnels, bien informés (Rock, 1986) ou coalisés
avec le banquier introducteur (Derrien, 2002 ; Sherman et Titman, 2002),
bénéficient en priorité des titres sous-évalués. Sur le plan empirique, l’ac-
Chapitre 2
87
tionnariat institutionnel est plus considéré comme un organe de contrôle du
dirigeant, que comme une variable d’agence. Son impact sur la valeur de la
société, escompté favorable, s’avère en réalité ambigu. Wruck (1989) analyse
les réactions boursières à l’acquisition, par les investisseurs institutionnels,
de nouveaux titres émis par 128 sociétés cotées. Il n’observe de rentabilité
anormale positive que si les institutionnels détiennent, après l’émission, plus
de 25% du capital.
Plus les actifs corporels sont importants (modèle 7c) ou les projets d’investissement faibles (modèle 7b), plus la sous-évaluation apparaı̂t diminuer.
Dans le cadre de la TPA, nous avons supposé le risque de conflits entre dirigeant et créanciers diminuant avec le montant des immobilisations corporelles
et augmentant avec le niveau des investissements prévus. Nos observations
vont dans le sens de cette hypothèse. Les investisseurs anticiperaient une
économie de coûts d’agence et accepteraient une moindre sous-évaluation du
prix d’offre.
Asymétrie et sous-évaluation
La sous-évaluation apparaı̂t significativement (au seuil de 5%) plus importante pour les sociétés du Nouveau Marché et à PER élevé dans le modèle
8. Elle croı̂t donc avec le niveau d’asymétrie, conformément aux études empiriques antérieures (Ginglinger et Faugeron-Crouzet, 2001 par exemple). La
qualité globale d’ajustement du modèle est faible. Le R2 s’élève à 11% ; le F
de Fisher est significatif à 5%.
Qualité des prévisions, variables d’agence, d’asymétrie et sousévaluation
L’erreur de prévision est incluse dans les modèles de régression, en même
temps que les variables d’asymétrie et d’agence. La qualité d’ajustement des
modèles (9 a et b) s’améliore. Les R2 passent à 0.3 et le seuil de significativité
du F à 0.1%.
Les variables d’asymétrie n’influencent plus significativement la sousévaluation. En publiant des prévisions exactes, le dirigeant semble donc bien
lever l’incertitude des investisseurs.
La publication de prévisions de qualité ne neutralise que partiellement
l’impact des variables d’agence sur la sous-évaluation.
La fraction de capital détenue par les investisseurs institutionnels reste si-
88
Chapitre 2
gnificative à 10% (modèle 9a) et le signe de son coefficient, positif. Dans le
cadre de la TPA, nous avons envisagé la présence d’investisseurs institutionnels comme un risque de conflit entre actionnaires et dirigeant. Au vu de nos
résultats, la publication de prévisions de qualité n’éliminerait pas ce risque.
Les investisseurs exigent toujours une sous-évaluation majorée, même lorsque
la variable InvInst est introduite avec l’erreur de prévision du dirigeant.
La part des immobilisations corporelles dans la valeur totale de la firme voit
son pouvoir explicatif se dégrader (de 5 à 10%), mais reste négativement liée
à la sous-évaluation (modèle 9 a). De même, le montant des projets d’investissement détermine toujours positivement et significativement la sousévaluation (modèle 9b). Malgré la diffusion d’informations précises, les investisseurs considèrent possible un conflit entre créanciers et dirigeant lorsque les
garanties des créanciers sont faibles. Les variables actifs corporels / total bilan et investissements prévus / total bilan sont censées mesurer l’éventualité
d’une opposition entre dirigeant et créanciers. Mais la première constitue
elle-même un moyen de gérer la relation d’agence. En acquérant des immobilisations corporelles, le dirigeant accroı̂t les garanties des créanciers et limite
le risque de conflit. Ce dispositif de gouvernement semble compatible avec la
publication de prévisions de qualité.
Conclusion
Dans cette étude, nous nous sommes demandés si la diffusion d’information de qualité pouvait être considérée comme un mécanisme de gouvernance
efficace. Autrement dit, la qualité des estimations publiées réconcilie-t-elle
les intérêts du dirigeant avec ceux des autres parties prenantes ? En présence
de prévisions de qualité, les investisseurs anticipent-ils de moindres conflits
d’agence ? Acceptent-ils une plus faible sous-évaluation du prix d’offre ?
Les principaux résultats mis en évidence sont les suivants.
Nous soulignons l’excès d’optimisme du dirigeant comparé aux analystes
financiers ou à un modèle naı̈f de prévision. Son optimisme est accentué
en présence d’une forte incertitude sur les bénéfices estimés. Le dirigeant
préserverait ainsi sa réputation. Une structure d’actionnariat ouverte, comprenant des investisseurs institutionnels, était supposée accroı̂tre la probabilité de conflits entre le dirigeant et les actionnaires, et donc la précision des
prévisions publiées. Les résultats ne rejoignent pas nos prédictions. D’une
part, la présence d’investisseurs institutionnels dans le capital est reliée positivement, et non négativement, aux erreurs de prévision. D’autre part, la
qualité des prévisions émises est indépendante de la séparation de la propriété
Chapitre 2
89
et de la gestion, approchée imparfaitement par la participation du dirigeant
au capital après l’introduction.
La structure des actifs et la politique d’investissement étaient présumées
déterminer le risque des créanciers et donc leurs exigences informationnelles.
Elles expliquent bien significativement les erreurs de prévision du dirigeant.
Le dirigeant publie des prévisions d’autant plus exactes que les titres introduits sont échangés. Le pouvoir explicatif du volume moyen échangé n’est
toutefois significatif qu’à 10%. Nos résultats n’attestent donc que faiblement
le rôle disciplinaire du marché financier.
L’endettement, la taille et l’âge de la société n’ont pas d’effet significatif sur
l’erreur de prévision du dirigeant.
Enfin, l’exactitude des prévisions du dirigeant influence la richesse des actionnaires. Elle est associée à une moindre sous évaluation du prix d’offre. Mais au
regard des investisseurs, elle ne semble pas un mécanisme de gouvernement
très efficace. Introduite avec les autres variables d’agence, elle n’empêche pas
les investisseurs d’anticiper de possibles conflits d’intérêts entre le dirigeant
et les actionnaires ou les créanciers.
Les nombreuses limites de cette étude ouvrent de nouvelles perspectives
de recherche. La qualité d’ajustement de nos modèles est faible. Nous avons
pu omettre des facteurs explicatifs. Des considérations autres que d’agence
peuvent encore affecter la qualité des prévisions diffusées. Par ailleurs, la
mesure des variables d’agence est approximative et leur interprétation ambivalente. Par exemple, nous avons utilisé les immobilisations corporelles pour
approcher la probabilité de conflits entre le dirigeant et les créanciers. Mais le
dirigeant peut aussi recourir à cette variables pour gérer les relations d’agence
avec les créanciers. Les investissements en actifs corporels constituent donc
eux-mêmes un mécanisme de gouvernement. Enfin, l’analyse plus fine de la
répartition du capital avant et après l’introduction permettrait de mieux
comprendre l’influence des différentes catégories d’actionnaires sur la politique informationnelle du dirigeant.
L’entrée sur le marché d’une société bouleverse la structure de son bilan.
Les bailleurs de fonds craignent que ces changements ne fragilisent leur situation. La publication d’information de qualité peut alors prévenir à moindre
coût les conflits d’intérêts. Elle permet aux actionnaires et aux créanciers
d’évaluer et de contrôler le dirigeant sans recherche extérieure d’information.
De son côté, le dirigeant se dédouane à peu de frais, notamment quand il dispose en interne des informations publiées. Le mécanisme de gouvernement
étudié dans le chapitre 1 satisfait donc les cocontractants, tout en étant optimal d’un point de vue social.
90
Chapitre 2
Dans le chapitre 2, l’analyste tient le rôle d’agent ; son employeur, celui de
principal. Là encore, l’agent peut empêcher que la relation d’agence ne devienne conflictuelle, en diffusant des informations conformes aux attentes du
principal. Mais dans certains cas, les informations produites par l’analyste
en fonction des préférences du principal peuvent s’avérer biaisées. Ainsi, la
littérature établit l’optimisme excessif des analystes dont l’employeur participe à l’introduction. Elle suggère, sans le prouver, que les analystes sont
incités à l’optimisme dans l’intérêt commercial de leur employeur. Nous nous
proposons donc, dans le chapitre 3, d’apprécier l’indépendance réelle des
analystes affiliés à l’entreprise d’investissement spécialiste. Nous cherchons
également à comprendre comment et à quels moments se manifestent les
incitations à l’optimisme avancées dans la littérature.
Chapitre 3
Enquête sur l’indépendance des
analystes de l’entreprise
d’investissement
Introduction
Les analystes de l’entreprise d’investissement spécialiste produisent de
nombreuses informations sur la société en cours d’introduction. Dans leur
étude financière, ils présentent l’activité de la société, sa stratégie et sa situation financière. Ils estiment également ses résultats à venir. Ils utilisent
ensuite leurs prévisions pour déterminer la valeur espérée du titre.
Sur notre échantillon, les analystes de l’entreprise d’investissement spécialiste s’avèrent significativement plus optimistes que les analystes d’I/B/E/S,
affiliés ou non au chef de file (tableau 1.7, première partie). Les premiers
évaluent la société avant son introduction en bourse. Leur erreur moyenne
de prévision1 s’élève à 131% (voir tableau 1.6, première partie). Les seconds
transmettent à I/B/E/S leurs prévisions dans l’année suivant l’introduction.
Ils commettent une erreur moyenne de -13.1% ou 49.4%, selon qu’ils sont
affiliés ou non à l’introducteur (tableau 1.6, première partie).
Sur l’échantillon de Derrien et Degeorge (2001) également, les analystes de
l’entreprise d’investissement spécialiste apparaissent plus optimistes que les
analystes d’I/B/E/S. Leurs erreurs moyennes de prévision valent respectivement -2.08% et -1.63%. Elles sont calculées ainsi : (BPA réel - BPA prévu) /
1
Les prévisions portent sur le BPA. Elles ont pour horizon l’exercice fiscal suivant
l’exercice de l’introduction. L’erreur de prévision rapporte l’écart entre les BPA prévu et
réel, à la valeur absolue du BPA réel.
91
92
Chapitre 3
Cours du titre le jour de l’introduction.
La presse financière et la recherche évoquent la difficile objectivité des
analystes dont l’employeur prépare une opération sur le marché primaire
avec la société évaluée.
Dès la fin des années 80, la presse dénonce l’optimisme des analystes, contraire
à la logique financière. Ainsi, en 1994, Eurotunnel décide l’émission de nouvelles actions. Bien que les titres soient surévalués par rapport à leur valeur
intrinsèque, ils sont recommandés à la vente par seulement deux analystes
indépendants. Au contraire, les analystes affiliés aux banques créancières du
projet incitent le public à souscrire à l’augmentation de capital.
De son côté, la recherche empirique souligne le plus grand optimisme des
analystes affiliés comparés aux analystes indépendants. Les analystes affiliés
semblent surestimer les futurs résultats d’une société cliente de leur employeur (Lin et McNichols, 1998 ; Dechow et al., 2000 ; Derrien et Degeorge,
2001). Michaely et Womack (1999) montrent que les analystes recommandent
davantage à l’achat, un titre introduit en bourse par leur employeur. Pour expliquer leurs résultats, la plupart des auteurs suggèrent l’existence de conflits
d’agence au sein des établissements financiers. Seuls Michaely et Womack
testent la plausabilité de cette hypothèse auprès de professionnels. Dans leur
prolongement, nous souhaitions interroger des analystes sur la réalité des
pressions avancées dans la littérature. Nous voulions également comprendre
comment et à quels moments de la préparation de l’introduction, le principal
influence son agent.
Ce chapitre a un objectif principalement exploratoire. Il est préalable à
une étude quantitative sur les relations entre l’affiliation de l’analyste et son
offre d’information. Il vise également à enrichir la connaissance du métier
d’analyste, et à mieux comprendre comment les analystes affiliés à l’entreprise d’investissement spécialiste travaillent. Nous les questionnons, à ce titre,
sur leurs sources d’information.
L’interrogation nous est apparue comme un moyen plus fiable et moins
coûteux que l’observation de répondre à nos objectifs de recherche. Nos investigations comprennent un corpus d’entretiens exploratoires, suivi d’une
enquête par questionnaire auprès de 334 analystes. L’enquête a été administrée par voie postale et via Internet, entre décembre 2000 et février 2001.
34 analystes ont répondu au questionnaire web et 4 au questionnaire postal.
Le reste de l’étude s’organise de la manière suivante. La section 3.1
présente les fondements empiriques et théoriques des conflits d’agence entre
Chapitre 3
93
l’analyste et son employeur. Ensuite, nous justifions et développons la méthodologie retenue. La section 3.3 analyse les réponses des analystes. Enfin, la
section 3.4 compare l’utilité des deux modes de recueil utilisés, Internet et la
voie postale.
3.1
Les conflits d’agence entre l’analyste et
son employeur : fondements empiriques
et théoriques
Au regard des études empiriques, les analystes semblent plus optimistes
lorsque leur employeur entretient des relations d’affaires avec la société évaluée.
Dans le cadre de la théorie de l’agence, l’analyste (l’agent) adapterait son offre
d’information aux intérêts commerciaux du principal (l’employeur).
Revue de la littérature
Un certain nombre d’auteurs étudient les analystes dans le cadre de leur
environnement de travail.
Dugar et Nathan (1995) sont les premiers à considérer l’offre d’information des analystes comme circonstancielle. Ils s’intéressent aux analystes travaillant dans des établissements multi-activités. Au sein d’un groupe, banque
et entreprise d’investissement peuvent simultanément proposer leurs services
au même client. Or les activités de courtage sont bien moins lucratives que
les opérations de haut de bilan. La primauté des intérêts de la banque d’investissement est supposée contraindre l’analyste2 à l’optimisme dans son jugement sur la société. Les auteurs vérifient cette hypothèse sur la période
1983-1988, à partir de 500 prévisions de résultat et 500 recommandations.
Ces informations proviennent pour moitié d’analystes de courtiers, pour le
reste d’analystes de banques. Sur cet échantillon, les auteurs obtiennent une
erreur médiane de -0.24% pour les analystes des banques et de -0.13% pour
les analystes des courtiers. Ils calculent l’erreur en rapportant l’écart entre
les BPA réel et prévu, au cours de l’action au début de l’exercice fiscal. Au vu
du test des rangs de Wilcoxon, les analystes des banques sont significativement plus optimistes que les analystes des courtiers. Leurs recommandations
s’avèrent également significativement plus favorables en nombre. Dugar et
2
Par commodité, nous dénommons analystes de banques (respectivement de courtiers)
ceux dont l’employeur a (respectivement n’a pas) des relations de banque d’investissement
avec la société évaluée.
94
Chapitre 3
Nathan évaluent ensuite la précision des prévisions des deux groupes d’analystes. La différence de leurs erreurs médianes de prévision au carré n’est pas
statistiquement significative. Au total, les analystes des banques apparaissent
aussi précis dans leurs estimations de résultat, mais plus optimistes que les
analystes des courtiers. Pour les auteurs, ces résultats reflètent la situation
duale des analystes des banques. Ils bénéficient d’un accès privilégié à l’information ; en même temps ils sont encouragés à apprécier favorablement le
client de la banque.
Plus récemment, Bolliger (2001) évalue la précision de 99 000 prévisions
de résultats, émises par des analystes sell side entre 1993 et 1999, sur 2812
sociétés européennes. Il établit que l’erreur moyenne de prévision des analystes augmente avec la taille de leur employeur. Selon l’auteur, les analystes
des grandes maisons de courtage font les frais non de conflits d’intérêts, mais
de récentes restructurations. Les grandes maisons ont en effet réorganisé leur
activité de recherche en Europe. Leurs analystes suivent toutes les sociétés
européennes de leur secteurs de spécialité. Certes la spécialisation sectorielle
permet aux analystes de réaliser des économies d’échelle dans la production de l’information. Mais simultanément, la couverture d’un portefeuille
géographiquement diversifié est plus coûteuse. En effet, les marchés européens
ne sont que partiellement intégrés (Griffin et Karolyi, 1998). Par ailleurs,
la variété des normes comptables, fiscales et des informations à publier en
Europe complique la tâche des analystes (Hope, 2001). Par conséquent, la
connaissance du marché local confère un avantage comparatif aux analystes
des plus petites maisons.
Les travaux développés ci-après différencient également les analystes selon
leur affiliation. Mais ils se situent dans le contexte d’une émission d’actions.
Selon Hansen et Sarin (1996), les analystes se soucient de leur réputation
et accentuent leurs efforts au moment des appels publics à l’épargne. Les
analystes affiliés au chef de file apparaissent aussi précis dans leurs estimations de résultat annuel que les analystes indépendants.
Lin et McNichols (1998) apprécient la qualité des informations produites
par les analystes sur des sociétés cotées augmentant leur capital. Ils retiennent
les prévisions de résultat (à venir et à un an), les prévisions de croissance
du résultat dans les 5 ans et recommandations diffusées l’année précédant
l’appel public à l’épargne. Ils apparient chaque information publiée par un
analyste affilié à l’instant t, avec une information de même nature, diffusée
par un analyste indépendant dans les six jours suivant t. Leur échantillon
Chapitre 3
95
comprend 1 069 prévisions et 769 recommandations produites par les analystes affiliés sur 2 400 sociétés ayant émis des actions entre 1989 et 1994. Au
vu de leurs résultats, les analystes affiliés ne se trompent pas significativement
plus dans leurs prévisions de résultat que les analystes indépendants. Leurs
erreurs moyennes de prévision3 s’élèvent respectivement à 7.04% et 7.09%
à l’horizon fin de l’exercice en cours ; à 9.88% et 9.8% à l’horizon d’un an.
Lin et McNichols (1998) confirment les résultats de Hansen et Sarin (1996).
Par contre, les analystes affiliés apparaissent légèrement plus optimistes dans
leurs anticipations du taux de croissance. Ils commettent une erreur moyenne
de 21.29%, contre 20.73% pour les analystes indépendants. La différence des
moyennes est statistiquement significative au seuil de 10%. Au cours des trois
années antérieures ou postérieures à l’émission, les analystes affiliés émettent
enfin significativement plus de recommandations favorables que les analystes
indépendants. D’après les auteurs, les résultats corroborent aussi bien l’une
que l’autre des explications suivantes. La société pourrait choisir le banquier
introducteur dont les analystes sont bienveillants à son égard. Ou bien le
banquier pourrait inciter ses analystes à l’optimisme afin d’obtenir le mandat de placement.
Michaely et Womack (1999) étudient les informations produites par les
analystes sur 200 titres cotés pour la première fois en 1990 ou 1991 aux ÉtatsUnis.
En premier lieu, ils analysent la nature des 360 recommandations diffusées sur
ces titres au cours de leur première année boursière. 112 des 214 recommandations d’achat émanent d’analystes affiliés au chef de file. Les trois seules
recommandations de vente proviennent d’analystes indépendants. Ainsi, les
analystes recommandent plus facilement à l’achat les titres introduits lorsqu’ils sont affiliés au chef de file.
En second lieu, Michaely et Womack cumulent les rentabilités anormales
achat-conservation sur le mois précédant la publication des recommandations
d’achat. Les titres recommandés à l’achat par les analystes affiliés affichent
une rentabilité anormale moyenne de -1.6%, contre 4.1% pour les valeurs
conseillées à l’achat par les analystes indépendants. La différence des rentabilités moyennes est statistiquement significative (t=2.36). Les analystes
affiliés semblent donc recommander à l’achat des titres contre-performants.
Les auteurs proposent deux explications alternatives à leurs résultats. Soit les
analystes affiliés croient sincèrement en les perspectives de croissance de la
société. Leur opinion favorable a, au demeurant, pu conduire la société à choi3
Les auteurs rapportent la différence entre la prévision et la réalisation, au cours de
l’action le jour précédant la publication de la prévision.
96
Chapitre 3
sir leur employeur comme introducteur. En recommandant à l’achat le titre,
les analystes affiliés signalent de bonne foi une opportunité de placement aux
investisseurs. Leur excès d’optimisme est donc involontaire. Soit les analystes
affiliés forcent délibérément le trait optimiste de leur évaluation. Ils espèrent
ainsi favoriser les relations d’affaires de leur employeur avec la société. Mais
ils nuisent aux intérêts des investisseurs. Le biais optimiste constaté est alors
stratégique et voulu. Afin de déterminer l’explication la plus pertinente, les
auteurs interrogent 31 professionnels achetant ou vendant des titres introduits. Les 26 répondants se répartissent équitablement entre gestionnaires
de portefeuille et banquiers introducteurs. 88.5% considèrent l’hypothèse des
conflits d’intérêts comme la plus plausible.
Dechow et al. (2000) se demandent si l’affiliation d’un analyste détermine
l’optimisme de ses prévisions. Leur échantillon inclut 7 169 prévisions d’analystes, publiées dans l’intervalle [-9 mois ; +3 mois] centré sur les dates de
1 179 émissions d’actions par des sociétés cotées. Les prévisions portent sur
les perspectives de croissance du résultat à 5 ans. Les analystes affiliés au
chef de file sont incités à évaluer favorablement les clients effectifs ou potentiels de leur employeur. Le cas échéant, les analystes affiliés/non affiliés
harmonisent leurs estimations avec celles des analystes non affiliés/affiliés.
Leur optimisme est donc supposé fonction de leur affiliation, mais aussi du
comportement des autres analystes. Dechow et al. testent cette hypothèse
sur le marché américain. Les estimations de l’échantillon sont réparties selon leur producteur (analyste affilié/non affilié) et la présence ou l’absence
de prévisions concurrentes. L’exactitude des quatre groupes de prévisions est
ensuite déterminée, par différence entre les taux de croissance réels et prévus.
Le tableau 3.1 indique les erreurs moyennes de prévision obtenues, et entre
parenthèses les effectifs de chaque groupe. Plus les analystes sont proches du
chef de file et plus ils se révèlent optimistes dans leurs anticipations.
prévision concurrente
oui
non
Producteur
analyste affilié analyste non affilié
-14.3% (491)
-10.5% (2 938)
-14.8% (131)
-10% (3 609)
Tab. 3.1 – Erreur moyenne de prévision des analystes selon leur affiliation
(Dechow et al., 2000)
Enfin, Dechow et al. testent si les commissions perçues par le chef de file
expliquent l’erreur de prévision de ses analystes. Ils obtiennent, à partir de
Chapitre 3
97
622 observations, l’équation de régression4 suivante :
erreur de prévision = - 0.0096** - 0.047* x commissions.
Le coefficient de détermination vaut 0.4. Plus le chef de file perçoit d’importantes commissions, plus ses analystes surévaluent les prévisions concernant
l’émetteur.
Derrien et Degeorge (2001) étudient également l’influence de l’affiliation
d’un analyste sur la qualité de ses prévisions.
Dans un premier temps, ils prolongent le travail de Dechow et al. aux sociétés
admises à la cote française. Les prévisions de résultat annuel de 243 sociétés
introduites sur le Nouveau Marché et le Second Marché entre janvier 1991
et juillet 1998, constituent leur échantillon. Elles sont extraites des bases
d’I/B/E/S, puis classées selon la taxinomie de Dechow et al.. Le tableau
3.2 donne l’erreur moyenne de prévision et l’effectif de chaque classe. Les
prévisions considérées ici concernent l’exercice fiscal suivant celui de l’introduction en bourse.
prévision concurrente
oui
non
Producteur
analyste affilié analyste non affilié
-2.03% (387)
-1.66% (1320)
-4% (54)
-0.51% (279)
Tab. 3.2 – Erreur moyenne de prévision des analystes selon leur affiliation
(Derrien et Degeorge, 2001)
Les analystes affiliés semblent d’autant plus optimistes qu’ils sont les seuls
à émettre des prévisions sur la société introduite. De leur côté, les analystes
non affiliés apparaissent plus précis dans leurs estimations, notamment en
l’absence de toute influence du chef de file. Les résultats de Dechow et al.
semblent donc vérifiés dans le contexte d’une introduction en bourse.
Dans un second temps, Derrien et Degeorge mesurent les relations entre
d’une part, les quatre classes de prévisions originaires d’I/B/E/S ; d’autre
part, les prévisions publiées dans l’analyse financière du dossier d’introduction. Ces prévisions ne sont pas faites au même moment. Les analystes transmettent en majorité leurs estimations à I/B/E/S, une fois le titre introduit
et coté sur le marché secondaire. Au contraire, les analystes de l’entreprise
d’investissement produisent leurs estimations lorsque la société est en cours
d’introduction. Leur employeur participe à l’introduction, comme celui des
analystes dits affiliés. Si les analystes prennent en compte les intérêts commerciaux de leur employeur, alors les prévisions des analystes affiliés et des
4
Les coefficients peuvent être significatifs à 10% (*) ou 5%(**)
98
Chapitre 3
analystes de l’entreprise d’investissement devraient avoisiner. Les coefficients
de corrélation obtenus corroborent cette hypothèse. Ils sont rapportés dans
le tableau 3.3. Entre parenthèses figure le nombre d’observations.
prévision concurrente
oui
non
Producteur
analyste affilié analyste non affilié
0.7568 (265)
0.6784 (873)
0.8697 (34)
0.2713 (179)
Tab. 3.3 – Coefficients de corrélation entre les prévisions d’I/B/E/S et celles
de l’étude financière (Derrien et Degeorge, 2001)
Globalement, la recherche empirique suggère l’existence de conflits d’agence
entre l’analyste et son employeur, notamment quand ce dernier est mandaté
par la société évaluée.
Hypothèse
Dans le cadre de la théorie de l’agence, nous tentons de prédire le comportement des analystes employé par l’entreprise d’investissement spécialiste.
Les relations entre l’analyste et son employeur peuvent être qualifiées
d’agence. L’entreprise d’investissement délègue à l’analyste le soin de fournir
aux tiers-investisseurs des services informationnels. En principe, intérêts du
principal, de l’agent et des tiers convergent. Mais en faisant preuve d’objectivité et d’indépendance dans leur jugement, les analystes peuvent porter
préjudice aux intérêts du mandant. Ils subiraient alors des pressions pour se
conformer aux objectifs du principal.
Ainsi, lorsque l’entreprise d’investissement participe à l’introduction, elle
devrait encourager ses analystes à faciliter l’exécution du mandat. Elle est
chargée de rédiger une étude financière, d’animer le marché et de recueillir les
ordres d’achat. Ses analystes devraient donc être incités à évaluer favorablement la société cliente et à proposer un cours d’équilibre anticipé attractif.
Les intérêts commerciaux du principal priment en effet le devoir d’objectivité
des analystes.
Parfois l’entreprise d’investissement spécialiste est une filiale de la banque
introductrice. Ses analystes devraient alors être incités à favoriser le placement des titres, et donc à l’optimisme. En effet, leurs estimations ne peuvent
Chapitre 3
99
convaincre les investisseurs de passer des ordres d’achat que si elles sont optimistes. Enfin, dans ce cas, l’analyste subit la «malédiction du vainqueur».
Autrement dit, il devrait justifier, dans l’étude financière, le prix d’offre élevé
proposé par la banque.
Plus le principal est impliqué dans la préparation de l’introduction, plus
l’agent devrait voir son indépendance d’esprit compromise. Dans le cadre de
la théorie de l’agence, notre hypothèse est donc :
H- Les intérêts commerciaux de leur employeur contraignent les analystes
dans leur tâche d’évaluation.
3.2
La méthodologie retenue
Nous justifions le choix d’une méthodologie par enquête, avant d’en préciser
les étapes et les limites.
3.2.1
Justification
L’enquête est apparue une méthodologie appropriée à notre problème de
recherche et à la population étudiée.
Une méthodologie adaptée au problème de recherche
La résolution de notre problème de recherche requérait des données primaires.
•
Des données primaires nécessaires
Peu de chiffres descriptifs étaient disponibles pour répondre à notre objectif exploratoire. À notre connaissance, aucune étude n’avait été réalisée
sur le segment des analystes évaluant les sociétés en cours d’introduction. En
outre, la SFAF diffuse peu de statistiques sur ses membres.
Par ailleurs, lorsque l’entreprise d’investissement spécialiste et la banque introductrice appartiennent à un même groupe, les études antérieures soulignent l’excès d’optimisme des analystes du broker. Elles en déduisent l’existence de conflits d’intérêts au sein des établissements financiers. Mais elles ne
précisent ni comment ni à quels moments de la préparation de l’introduction
la banque influence l’analyste. Ces informations ne pouvaient être recueillies
qu’auprès des analystes eux-mêmes.
100
Chapitre 3
Une fois établie la nécessité de données primaires, restait à choisir le mode
de collecte de ces informations.
•
Entretien ou questionnaire ?
Plusieurs éléments nous ont amenés à utiliser la technique de l’entretien
à titre exploratoire, et le questionnaire à titre principal.
En premier lieu, les analystes interrogés oralement se sont exprimés avec
réticence sur leur réelle indépendance dans l’exercice de leur métier. L’objectivation de leur discours (Rabinow5 , 1988, p. 137) et la régionalisation de
leurs représentations (Goffman, 1973) peuvent expliquer ces résistances. Autrement dit, construire leur discours en parlant, sans préparation, et évoquer
les conflits d’intérêts avec leur employeur sur leur lieu de travail ont pu embarrasser les analystes interrogés. Le cadre spatial des entretiens a empêché
les analystes de se sentir en confiance pour évoquer la question de leur
indépendance. Or la déontologie des enquêtes exclut que l’entretien puisse
porter préjudice à l’enquêté. D’après l’article 5 de la Convention 108 du
Conseil de l’Europe, les informations demandées doivent être «adéquates,
pertinentes et non excessives par rapport aux finalités pour lesquelles elles
sont enregistrées».
En second lieu, le questionnaire rend plus aisée l’objectivation, c’est-àdire l’appréhension du phénomène étudié de l’extérieur.
L’entretien permet de découvrir le sens subjectif des comportements des acteurs ; le questionnaire cherche à saisir le sens objectif de leur conduite (de
Singly, 2001).
Dans le questionnaire, l’enquêteur sélectionne les éléments pertinents et élimine les informations secondaires en fonction de critères théoriques. En entretien, il laisse au contraire la personne interrogée décider des informations
conservées ou éliminées.
Enfin, les réponses au questionnaire sont plus aisées à traiter statistiquement que le discours issu de l’entretien. Les chiffres dissolvent par sommation
les différences individuelles secondaires. Ils ne conservent que les régularités
statistiques. Toutefois, le chercheur n’est jamais complètement extérieur au
phénomène approché par questionnaire. Il s’implique subjectivement lorsqu’il
formule l’objet de recherche et les questions, ou qu’il trie les informations collectées.
5
«Les faits existent en tant que réalité vécue, mais ils sont fabriqués au cours des
processus d’interrogation, d’observation et d’expérience».
Chapitre 3
101
En troisième lieu, nous souhaitions interroger le plus grand nombre d’analystes possible. L’entretien convient mieux à l’étude de l’individu ou de
groupes restreints.
Une méthodologie a priori adaptée à la population étudiée
Une enquête en face-à-face ou téléphonique n’aurait pas permis d’interroger de nombreux analystes rapidement et à un coût raisonnable.
De plus, les analystes financiers semblaient a priori bien correspondre
au profil type des internautes. Les études antérieures soulignent en effet la
forte représentation masculine et de cadres des cyber -échantillons (Schaaper, 1999). En septembre 2001, 59.5% des internautes appartenaient aux
catégories socio-professionnelles supérieures ; 64% étaient des hommes (source
Jupiter MMXI). Nous avons donc choisi d’administrer le questionnaire essentiellement par Internet. Toutefois, nous l’avons également envoyé par la poste
afin de ne pas exclure les analystes non connectés ou réticents à l’utilisation
d’Internet.
3.2.2
Les limites d’une méthodologie par questionnaire
Nous sommes conscients de l’incertitude des indices obtenus à partir d’une
méthodologie par questionnaire. Comment contrôler la fiabilité et la véracité
des déclarations des analystes sur le thème sensible de leur indépendance ?
La triangulation, c’est-à-dire l’utilisation de multiples sources de données,
atténue cette limite. Nous confrontons donc autant que possible les réponses
au questionnaire à d’autres sources documentaires (presse financière, recherche antérieure).
Des méthodes qualitatives autres que l’enquête auraient pu nous permettre d’identifier les informations utilisées par les analystes. Par exemple,
Govindarajan(1980) étudie le contenu de 976 rapports d’analyse, tandis que
Bouwman et al. (1987) recourent aux protocoles verbaux. Parallèlement, une
méthodologie quantitative aurait permis de tester l’influence de l’affiliation
de l’analyste sur son offre d’information. Elle est envisagée en prolongement
de cette thèse.
Nous précisons maintenant comment l’enquête a été réalisée.
102
Chapitre 3
3.2.3
Le protocole expérimental suivi
Nous avons sélectionné le cyber -échantillon, puis conçu et enfin administré
le questionnaire web.
La sélection du cyber -échantillon
Un plan de sondage en quatre étapes a permis de constituer l’échantillon.
La population étudiée a tout d’abord été définie. Elle comprend les analystes qui rédigent l’analyse financière jointe au prospectus d’introduction.
Ces analystes travaillent pour une entreprise d’investissement, adossée ou
non à une banque d’affaires.
Nous avons ensuite élaboré la base de sondage à partir de deux sources :
l’annuaire de la Société Française des Analystes Financiers (SFAF) et les analyses financières des dossiers d’introduction. L’annuaire de la SFAF donne les
coordonnées professionnelles des analystes membres. Il recense en 2001 environ 1700 analystes, dont 29% d’analystes sell-side, 9% d’analystes buy-side,
25% de gérants de portefeuille, 4% de gérants (source : SFAF, 2001). Nous
avons sélectionné les analystes rattachés à une entreprise d’investissement
ou à un prestataire indépendant. Nous avons également consulté les études
financières des dossiers d’introduction à la COB. Les adresses électroniques
ou postales de leurs auteurs ont été relevées.
La base de sondage a permis de délimiter la population enquêtée. À partir
de l’annuaire de la SFAF, nous avons formé un premier échantillon de 305
analystes (voir tableau 3.4).
Répartition
Internet
Poste
annuaire SFAF
Dossiers d’introduction
Analystes contactés
334
200
134
305
39
Répondants
38
34
4
16
22
Tab. 3.4 – Répartition de la population enquêtée et des répondants
178 analystes ont reçu le questionnaire via Internet, et les 127 restants par
voie postale. La consultation des 295 études financières a permis d’envoyer
22 nouveaux questionnaires web et 17 questionnaires postaux. L’échantillon
Chapitre 3
103
se compose donc au total de 334 analystes. Nous avons administré le questionnaire entre le 22 décembre 2000 et le 22 janvier 2001. L’étalement des
envois était destiné à limiter le risque de mimétisme dans les réponses des
analystes travaillant dans la même équipe. La concentration des analystes
dans la région parisienne (95% des membres de la SFAF sont situés à Paris)
élimine les difficultés d’échantillonnage liées à la répartition géographique.
Enfin, restait à choisir la méthode de sondage. L’échantillon aléatoire,
idéal statistique, aurait supposé une liste exhaustive de la population de
référence. La méthode des quotas aurait nécessité de connaı̂tre la structure
de la population étudiée. Le recours à une méthode non aléatoire s’est donc
imposé. Il était par ailleurs cohérent avec les objectifs de l’enquête, l’existence
d’une base de sondage et le budget disponible.
L’élaboration du questionnaire
Six entretiens exploratoires semi-directifs ont préalablement été menés. Ils ont permis de mieux connaı̂tre le langage des analystes et leur métier.
Ils ont précisé ce qui méritait d’être abordé ou confirmé par le questionnaire.
Une analyse thématique a ensuite permis de passer du matériel discursif à la
rédaction du questionnaire.
Le nombre, l’ordre et le format des questions ont été définis.
La sensibilité des analystes au problème de leur indépendance et leur professionnalisme nous ont permis de concevoir un questionnaire long6 .
La construction du questionnaire a respecté la technique de l’«entonnoir».
La page d’introduction présente le contexte de l’étude. La première partie
traite de l’évaluation des introductions par les analystes. La seconde partie
s’intéresse aux informations qu’ils utilisent et produisent. Le suivi des sociétés
post introduction fait l’objet de la dernière partie. Une fiche signalétique en
fin de questionnaire regroupe les questions plus personnelles et d’identification.
Nous avons principalement utilisé des questions fermées ou pré-formées.
Comparées aux questions ouvertes, elles permettent aux opinions moyennes
de s’exprimer. Leur traitement est également plus aisé et moins coûteux.
6
La longueur du questionnaire nous a dissuadée de le joindre en annexe de ce document.
Il est par contre consultable à l’adresse http ://mapage.noos.fr/blabegrre1/enquete.htm.
104
Chapitre 3
Elles sont enfin adaptées aux contraintes de temps des analystes. La formulation des questions ne devait pas influencer les réponses des analystes.
À cette fin, nous avons posé les questions sensibles, sur la réelle séparation
des activités des marchés primaire et secondaire, de manière impersonnelle
(Grawitz, 1996). Le pilotage du questionnaire auprès de trois membres de la
SFAF (un stagiaire, le responsable de la communication et un administrateur
responsable de la Commission du Second Marché) a permis de contrôler la
clarté des questions et la durée du sondage.
Les échelles de mesure ont enfin été choisies, et leur qualité contrôlée.
Les analystes rapportent les faits sur des échelles simples (à une seule
question) ; leurs attitudes et opinions sur des échelles multiples de Likert7 ou
de Thurstone8 . Nous avons retenu ces échelles pour leur rapidité d’administration, leur simplicité de compréhension et de traitement, leur adaptabilité
à tout mode de collecte (Vernette, 1991, p. 54 ).
Nous avons ensuite vérifié la qualité des échelles de mesure utilisées selon les critères proposés par Évrard et al. (2001, p. 287). Ainsi, l’instrument
de mesure semble fiable, au vu des réponses convergentes et des alpha de
Cronbach satisfaisants (entre 0.6 et 0.7). Il paraı̂t également sensible car
les répondants peuvent exprimer leur position de manière nuancée, sur des
échelles de mesure entre 3 et 6 points. Enfin, afin d’améliorer la validité nomologique du questionnaire, nous avons explicitement interrogé les analystes
sur leurs représentations des conflits d’agence (par exemple : «Le banquier
introducteur peut-il influencer l’estimation par l’analyste du ”vrai” prix du
titre ?»).
L’administration du questionnaire par Internet
Nous aurions pu envoyer directement les questionnaires aux enquêtés par
courrier électronique. Mais nous risquions de bloquer la messagerie des destinataires. Nous aurions également perdu la mise en forme du questionnaire.
Enfin, les messages non sollicités ne sont pas conformes à l’éthique du Net
(ensemble de règles non écrites encadrant les comportements des utilisateurs
d’Internet). Eu égard à ces inconvénients, nous avons choisi de publier le
7
Plusieurs questions relatives au même sujet sont posées. Le répondant indique son
degré d’accord ou de désaccord sur une échelle en cinq points.
8
Contrairement à l’échelle de Likert, les énoncés des réponses sont considérés comme
équidistants. L’échelle peut comporter plus ou moins de 5 points.
Chapitre 3
105
questionnaire sur le web. La mise en oeuvre est maintenant précisée.
•
La programmation du questionnaire web
Le questionnaire web a été généré en plusieurs étapes. Tout d’abord, nous
nous sommes procurée un accès à Internet avec la possibilité d’héberger
des pages web sur le serveur du fournisseur d’accès. Un logiciel d’édition
de pages web ou de fichier HTM, téléchargeable sur le site http://www.
pierresoft.cm/wck., a ensuite permis d’écrire la page d’accueil du site
web (http://mapage.noos.fr/blabegrre1) et le questionnaire. Ces deux
fichiers HTM ont enfin été transférés sur le serveur du fournisseur d’accès à
Internet, à l’aide d’un logiciel freeware téléchargé à l’adresse http://www.
ipswitch.com/Products/WS.
• Le signalement du site web
Nous avons incité les analystes à aller sur le site et à remplir le questionnaire par publipostage électronique, moyen simple, rapide, peu coûteux et
conforme à la Net-étiquette de faire connaı̂tre son site (Schaaper, 1999). Un
lien hyper-texte les renvoie ensuite directement au questionnaire.
3.3
Analyse des réponses au questionnaire
Trente-quatre analystes ont répondu au courrier électronique incitatif et
quatre au questionnaire postal. Leur profil et leur perception du métier d’analyste sont présentés. Nous vérifions ensuite la réalité des pressions subies par
les répondants rattachés à la filiale d’une banque. Les sources d’information
des analystes sont enfin étudiées.
3.3.1
Profil des répondants
Une enquête a pour ambition d’expliquer ce que les acteurs font par ce
qu’ils sont (Bourdieu, 1979). L’organisation d’affiliation, l’expérience et la
réputation des répondants définissent leur identité professionnelle.
Organisation d’affiliation
Le cadre de travail des enquêtés devait être spécifié car il détermine les
tâches à accomplir et les conflits d’intérêts à gérer par les analystes (Francis
et Philbrick, 1993). Nous avons donc interrogé les analystes sur le statut et
106
Chapitre 3
la taille de leur employeur.
Sur 38 répondants, 32 affirment travailler pour une société de bourse.
Une société d’études stratégiques et financières emploie le 33ème . Cet analyste n’évalue pas les titres émis. Son questionnaire n’a donc pas été conservé.
Mais il révèle un aspect original du métier d’analyste. Le 34ème est un analyste free-lance. Il réalise les études financières au nom et pour le compte
des sociétés de bourse. Il illustre, comme le précédent, la diversité du métier
d’analyste. L’indépendance liée à son statut rend sa participation à l’enquête
intéressante. Nous avons donc exploité ses réponses. Enfin, les quatre derniers
répondants travaillent pour la SG securities et le Crédit Lyonnais small caps.
Ils s’estiment salariés d’une banque, et analystes à la fois sell-side et buy-side.
Or ils sont en réalité employés par les entreprises d’investissement affiliées
aux deux banques Société Générale et Crédit Lyonnais. Leur sentiment de
travailler en même temps pour la maison mère et la filiale révèle la fragilité
de la «Muraille de Chine» entre les départements corporate et recherche des
établissements.
À partir des réponses des analystes, nous avons reclassé les organisations
citées en fonction de leur statut réel : entreprise d’investissement filiale d’une
banque ou indépendante ; autres organisations. Douze analystes sur trente
sept peuvent être considérés comme affiliés à une entreprise d’investissement
indépendante ; vingt-cinq à la filiale d’une banque.
Les établissements d’affiliation des répondants sont de taille moyenne.
Ils emploient environ quarante-deux analystes et suivent d’une à trente-cinq
introductions par an.
Parcours et distinction professionnels
Les répondants ont un niveau élevé de formation. 59% viennent de l’Université et 41% d’une école de commerce. Les enquêtes antérieures sur les
analystes évoquent également cet aspect de la profession (Sranan-Boiteau,
1999 ou Fontowicz, 1999).
Les répondants sont plutôt expérimentés. Vingt-deux analystes le sont
depuis plus de cinq ans ; un tiers depuis en moyenne trois ans et demi. Fontowicz obtient quant à lui une expérience moyenne de 12.56 années sur une
population étudiée de vingt-huit analystes, majoritairement sell-side. L’analyse financière n’est pas le métier d’origine des vingt-deux analystes les plus
expérimentés. Mais sa professionalisation ne date que de 1953.
Chapitre 3
107
Enfin, 38% des répondants ont été nominés ou distingués. Cette forte proportion ne nous semble pas limiter la représentativité de l’échantillon. Les
concours organisés par la communauté financière consacrent en effet plus le
professionnalisme des analystes concernés que leur réelle notoriété (Fontowicz, 1999).
3.3.2
Perception par les analystes de leur métier
Lors des entretiens exploratoires, les analystes ont souligné l’importance
de l’expertise, de l’indépendance, de la rigueur, de l’intuition et des qualités
relationnelles dans l’exercice de leur métier.
Nous avons ensuite demandé aux répondants au questionnaire de situer ces qualités sur une échelle de Thurstone à trois points (très important/important/utile). Nous avons affecté aux énoncés respectivement les
codes 3, 2 et 1 et calculé la moyenne des scores cochés. Une question ouverte
permettait des commentaires qualitatifs.
Dans un premier temps, nous analysons les réponses de tous les répondants.
La rigueur (moyenne de 2.81), l’expertise (moyenne de 2.53) et l’indépendance
(moyenne de 2.4) sont les critères de satisfaction les plus cités. Parallèlement,
les qualités relationnelles (moyenne de 2.25) et l’intuition (2.06) forment
un deuxième groupe homogène. Rigueur, expertise et qualités relationnelles
détermineraient leur capacité prédictive ; l’intuition (le «feeling boursier»), la
pertinence de leurs recommandations boursières. La question ouverte a révélé
une autre catégorie : la reconnaissance de la profession. La valeur qu’un analyste accorde à son travail dépend de sa notoriété au sein de la communauté
financière.
Dans un second temps, nous avons différencié les analystes selon leur
affiliation. Les douze analystes rattachés à une entreprise d’investissement
indépendante attachent le plus d’importance, par ordre décroissant, à l’expertise, les qualités relationnelles, la rigueur, l’indépendance et l’intuition. Les
vingt-cinq analystes employés par des filiales de banques mettent l’indépendance en première position. Suivent la rigueur, l’expertise, les qualités relationnelles et l’intuition. Plus les répondants sont susceptibles d’être exposés
à des conflits d’intérêts, plus ils semblent sensibles à l’indépendance dans
l’exercice de leur métier.
108
3.3.3
Chapitre 3
L’indépendance des analystes
Vingt-cinq répondants travaillent pour des entreprises d’investissement
adossées à une banque. Lorsque leur employeur est affilié à la banque introductrice, les analystes disent participer à la préparation de l’opération. L’influence de la banque semble se manifester lors de l’origination de l’opération,
de la valorisation du prix d’offre et du placement des titres.
L’origination de l’opération
Les vingt-cinq répondants semblent encouragés à informer la banque de
possibles candidats à l’introduction. 70% reconnaissent être sollicités par le
département origination. Ils affirment encore être exhortés à la complaisance
avec les clients potentiels du département corporate. La presse financière rapporte de son côté que «la valeur d’un analyste est de plus en plus conditionnée
par sa capacité à apporter des affaires»9 .
La justification du prix d’offre
Dans l’étude financière, les analystes estiment le cours d’équilibre attendu.
Mais quelle est leur marge de manoeuvre lorsque leur employeur est chef de
file ?
72% des vingt-cinq répondants affirment anticiper le prix d’équilibre librement, sans intervention de l’introducteur. Mais tous disent veiller aux
relations d’affaires de leur employeur avec la société suivie. L’influence de
la banque pourrait donc s’exercer au niveau de la décote10 . L’analyste diminuerait le prix d’équilibre estimé de sorte à retrouver le prix d’introduction
négocié entre la banque et l’émetteur. Au vu des 295 études financières par
ailleurs consultées, le niveau de décote n’est au demeurant jamais justifié.
Le placement des titres
Seize analystes sur les vingt-cinq reconnaissent fréquemment publier des
prévisions optimistes sur la société dont leur établissement pilote l’introduction. Quinze affirment intégrer les intérêts commerciaux de l’introducteur
dans leur évaluation (question 29). Mais paradoxalement, seulement deux
9
D’après R. Lowenstein, ”Today’s analyst often wears two hats”, The Wall Street Journal, 2 mai 1996
10
La décote est appliquée à la valeur espérée des titres calculée par les analystes. Elle
diffère donc de la sous-évaluation, différence entre le cours d’équilibre réel, observé sur le
marché, et le prix d’introduction.
Chapitre 3
109
analystes attribuent leurs erreurs de prévision au primat des intérêts de la
banque d’affaires sur leur devoir d’objectivité (question 55) ... Les taux de
non réponse aux trois questions sont très élevés (36%). Les contradictions
et omissions des répondants permettent de relier l’optimisme des analystes à
leur participation au placement des titres.
La recherche de synergies et d’économies peut expliquer que la banque
introductrice sollicite les analystes du département equity research (Michaely
et Womack, 1999). Mais la déontologie de la profession interdit ce transfert
de compétences. De surcroı̂t, un excès d’optimisme entache la réputation
des analystes. Afin que les analystes consentent plus facilement à franchir
la «Muraille de Chine» ou à entacher leur réputation, ils se voient proposer des compensations financières. Selon Bernard Coupez, président de la
SFAF11 , les analystes sont d’autant plus incités à se transformer en «superVRP du placement des titres» qu’ils perçoivent souvent des bonus très élevés
en contrepartie.
L’enquête, appuyée d’autres sources documentaires, montre que les intérêts
commerciaux du principal influencent l’offre d’information des analystes au
détriment des investisseurs. Les conflits d’agence expliquent donc de manière
plausible l’optimisme des analystes.
3.3.4
Les sources d’information des analystes
Les analystes suivant une société cotée s’informent principalement auprès
de son dirigeant (Schipper, 1991). À notre connaissance, la dépendance informationnelle des analystes vis-à-vis du dirigeant n’avait pas été illustrée
empiriquement en France dans le cadre d’une introduction en bourse. Les analystes ont donc été interrogés sur leurs sources d’information. Répondent-elles
à leurs attentes ? La qualité des informations utilisées contraint-elle l’offre
d’information des analystes ?
Utilité perçue des diverses sources d’information
Nous avons demandé aux analystes de sélectionner les sources d’information qu’ils utilisent le plus fréquemment pour évaluer une introduction
(question 37). Les entretiens exploratoires avaient révélé que ces sources d’information n’étaient pas hiérarchisables et constituaient un «faisceau d’indicateurs». Nous reportons dans le tableau 3.5 la fréquence puis le classement
11
Le Monde, 12 avril 2002, p. 22.
110
Chapitre 3
obtenus par chaque source.
Sources
rapport annuel
presse sectorielle
presse financière
dossier d’introduction
relations avec le dirigeant
études d’autres analystes
Fréquences
18.7%
15%
13.3%
21.3%
18.7%
12.7%
Classement
2
3
4
1
2
5
Tab. 3.5 – Sources d’information des analystes
Le dossier d’introduction et les contacts avec les dirigeants sont les plus
fréquemment cités. L’information sectorielle et économique est également
bien classée. Par contre, les études des autres analystes obtiennent le plus
mauvais score.
Une analyse multi-dimensionnelle des similarité permet de représenter
les perceptions des analystes dans un espace à deux dimensions. La carte
perceptuelle 3.1 résulte de la procédure PROXSCAL du logiciel SPSS. Le
s-stress selon la formule de Kruskal est égal à 0.05, ce qui est satisfaisant
(Évrard et al., 2001). Nous avons entouré les sources d’information jugées
de même utilité par les analystes. La première dimension pourrait distinguer les sources d’information en fonction de leur provenance (société/autres
sources). La seconde correspondrait davantage à l’utilité des informations.
Les variables «prospectus» et «dirigeant» apparaissent proches de l’origine
de la deuxième dimension, preuve de leur utilité pour les analystes.
Le tri à plat et la carte perceptuelle confirment que les analystes travaillent principalement à partir des informations diffusées par la société. Les
répondants précisent quand ils recourent au prospectus, puis quels contacts
ils entretiennent avec les dirigeants.
Les analystes semblent surtout utiliser le prospectus lors de la phase de familiarisation et de découverte de l’introduction. 62.5% des répondants y recourent pour se constituer un dossier d’information sur la société et 37.5%
seulement pour prendre une décision d’investissement (question 39). Dans la
taxinomie de Gniewosz (1990), le prospectus d’introduction relèverait des informations routinières. De la même manière, le rapport annuel semble constituer, pour les analystes, une source d’information nécessaire mais insuffisante
sur les sociétés cotées (Vergoossen, 1993 ; Chang et Most, 1985). Par ailleurs,
les analystes interrogés oralement soutiennent comparer leurs prévisions à
celles incluses dans le prospectus. Ils recherchent ensuite les causes d’un
Chapitre 3
111
Fig. 3.1 – Satisfaction des analystes à l’égard de leurs sources d’information
éventuel écart.
Les dirigeants informent les analystes publiquement et collectivement lors de
la réunion organisée par la SFAF. Les analystes sollicitent également des rencontres individuelles avec le dirigeant. Elles leur permettent de se familiariser
avec l’entreprise et son secteur d’activité, de mettre à jour leurs informations ou d’interroger le dirigeant sur un problème découvert à la lecture des
comptes. Elles sont très informatives et donc activement recherchées. Mais
elles remettent en cause le principe d’égal accès des investisseurs à l’information. À ce propos, 22% des répondants considèrent les relations avec le
dirigeant comme une source risquée d’information.
Qualité perçue du prospectus d’introduction
La majorité des analystes dénoncent l’insuffisante qualité des informations du prospectus.
Les répondants ont apprécié l’utilité des différents chapitres du prospectus sur une échelle de Thurstone à trois points (question 40). Les chapitres
sont ensuite classés sur la base de leur note moyenne. Les analystes accordent
le plus d’intérêt au chapitre 7 (perspectives de développement de la société),
112
Chapitre 3
suivi du chapitre 4 (présentation de l’activité de la société) et du chapitre
5 (les derniers états comptables certifiés). Chahine et Mathieu (2002) soulignent également la valeur informative du chapitre 4. Leur échantillon comprend 50 sociétés introduites sur le Nouveau Marché entre 1998 et 2000. Selon
ces auteurs, les informations relatives aux atouts technologiques et humains
de la société déterminent la rentabilité anormale observée le premier jour de
cotation (de 22% en moyenne sur leur échantillon).
La carte multi-dimensionnelle 3.2 positionne les chapitres du prospectus
d’introduction en fonction de leur utilité appréciée par les analystes.
Fig. 3.2 – Utilité perçue des chapitres du prospectus
Les analystes semblent percevoir de la même manière les chapitres 4, 5 et
7. Le chapitre 6 apparaı̂t comme le moins utile.
Les indicateurs prévisionnels du prospectus, financiers ou stratégiques,
gagneraient à être améliorés selon 40.6% des répondants (question 42).
L’enquête atteste que la société constitue la principale source d’information des analystes. Elle montre également dans quelle mesure cette dépendance
peut affecter l’offre d’information des analystes.
Chapitre 3
113
Conséquences sur les prévisions des analystes
D’une part, le dirigeant semble user de sa position de principal informateur pour inciter les analystes à évaluer favorablement son entreprise.
60.5% des répondants reconnaissent en effet nuancer leur opinion en fonction de la qualité de leurs relations avec la société (question 20). Francis
et Philbrick (1993) évoquent également les pressions du dirigeant sur l’analyste. Selon McNichols et O’Brien (1997), les analystes préféreraient s’«autocensurer» plutôt que perdre leurs contacts privilégiés avec les dirigeants. En
conséquence, le consensus serait optimiste parce que les analystes s’abstiendraient de publier leurs estimations pessimistes. L’Institutional Investor a
réalisé une enquête auprès de l’All-American Research Team en 1989. 61%
des analystes interrogés ont déclaré avoir dû, au moins une fois dans leur
carrière, modérer une recommandation négative sous l’injonction du dirigeant.
D’autre part, la relation entre l’exactitude des estimations des analystes
et la qualité des informations à leur disposition affleure peu de l’enquête.
Certes les répondants se déclarent insatisfaits de la qualité des informations publiées par le dirigeant. Mais curieusement, seulement 20% attribuent
leurs erreurs de prévision aux insuffisances de l’offre informationnelle de la
société (question 55). La recherche empirique quantitative obtient également
des résultats mitigés. La qualité des informations diffusées améliore significativement la précision des prévisions des analystes aux États-Unis (Lang
et Lundholm, 1996), mais pas en Suède (Adrem, 1999). Au niveau macroéconomique, les indices mesurant la quantité d’informations publiées par la
société déterminent postivement et significativement l’exactitude des prévisions des analystes (Hwang et alii, 1998, sur un échantillon de sept pays ;
Khana et al., sur un échantillon de 37 pays). Hope (2002) observe 1309
sociétés de vingt-deux pays. Il montre que la quantité d’informations dans
le rapport annuel est reliée de manière positive et significative à la précision
des prévisions des analystes. Mensah et al. (2003) se démarquent des travaux précédents par leur étude longitudinale. Ils testent si l’accroissement
du nombre d’informations publiées par les sociétés américaines entre 1983
et 1998 a permis de réduire les asymétries d’information entre entreprise et
investisseurs. Ils utilisent un modèle autorégressif multivarié et des tests de
cointégration. Les sociétés de l’échantillon clôturent leur exercice fiscal en novembre, décembre ou janvier, et sont suivies par au moins quatre analystes.
Les résultats montrent que l’augmentation, sur la période, de la quantité
d’informations publiées par les sociétés a accru significativement la précision
et l’homogénéité des prévisions des analystes. Ils restent stables, même si la
complexité de l’environnement de l’entreprise, la conjoncture économique et
114
Chapitre 3
le degré de gestion des résultats par le dirigeant changent.
Dans la section suivante, nous contrôlons la qualité des données primaires
collectées.
3.4
La qualité des données primaires : Internet versus poste
Dans un premier temps, nous apprécions l’utilité des deux modes de recueil utilisés, Internet et la voie postale. Dans un second temps, nous envisageons les conditions d’efficacité d’une enquête web en finance d’entreprise.
3.4.1
Efficacité comparée des deux modes d’enquête
Sur le modèle de Schaaper (1999), nous comparons les deux types d’enquêtes - via Internet et par voie postale - au regard de leur coût effectif, du taux
de retour obtenu, de la rapidité de la collecte et de la qualité des réponses
fournies (De Leeuw et Van der Zouwen, 1992).
Coûts initiaux et marginaux d’envoi d’une enquête
Dans le cas d’une enquête via Internet, les coûts initiaux s’avèrent assez élevés. Ils comprennent l’investissement dans un ordinateur équipé d’un
modem ; l’achat d’un logiciel de programmation en langage HTML ; l’abonnement à un service de connexion auprès d’un fournisseur d’accès sur Internet ; le coût de connexion pendant l’administration de l’enquête. L’enquête
postale, quant à elle, ne requiert pas d’équipement matériel spécifique. De
surcroı̂t, l’Université a supporté les coûts d’impression et d’envoi des questionnaires.
L’utilisation d’Internet permet par contre d’éliminer les coûts marginaux
d’impression et de postage liés au mode d’enquête postal. Les pages web programmées peuvent servir pour un autre questionnaire sans coût supplémentaire. Les adresses électroniques valides des enquêtés forment une base de
sondage ré-exploitable.
Taux de retour et mode d’enquête
Le taux de non-réponses partielles, rapport du nombre de réponses au
nombre de questions, s’est révélé deux fois plus important dans l’enquête
Chapitre 3
115
postale (2%) que web (1%). Un questionnaire long gagne donc à être envoyé par Internet. Le taux de retour d’un cyber -envoi se définit comme le
nombre de questionnaires dûment remplis et retournés, divisé par le nombre
de courriers électroniques de signalement envoyés. 34 analystes ont répondu
au mail incitatif, ce qui donne un taux de retour de 17%. Quatre analystes ont
répondu au questionnaire postal qui leur était adressé, ce qui porte le taux de
retour à 3%. Nous obtenons un taux bien inférieur à ceux de Williams et al. en
1996 (14%) ou de Fontowicz en 1999 (13%). Mais ces auteurs s’intéressaient
à la population totale des analystes ; nous n’en ciblions qu’un segment. Le
taux de 3% est également inférieur au taux habituel d’un envoi anonyme et
aléatoire par voie postale au grand public (environ 5%).
La rapidité du mode de collecte de données
La mise au point d’une enquête par Internet est plus longue que celle d’une
enquête postale car plus technique. L’envoi multiple par courrier électronique
est par contre très rapide. Les réponses au questionnaire web se sont échelonnées entre un et quatre jours après l’envoi. La moitié d’entre elles ont été
reçues dès le lendemain. De plus, la validité des adresses des enquêtés est
immédiatement connue. Les réponses au questionnaire postal ont été bien
plus tardives. Elles nous sont parvenues plus d’un mois après leur envoi. Un
script de réception permet d’automatiser, et donc d’accélérer, le dépouillement
d’une enquête web. Dans notre cas, le traitement manuel des réponses, compte
tenu de leur faible nombre, ne nous a pas permis de bénéficier de cet avantage. Globalement, conformément aux résultats des enquêtes web antérieures
(Bachmann et al. 1996 ; Kittleson, 1995 ; Mehta et Sivadas, 1995 ; Sproull,
1986), nous soulignons le gain de temps réalisé grâce au mode de recueil via
Internet.
La qualité des réponses
La qualité des réponses s’apprécie à la représentativité de l’échantillon et
à l’exactitude des réponses (De Leeuw et Van der Zouwen, 1992).
- Représentativité de l’échantillon
La base de sondage a pu limiter la représentativité de l’échantillon. En
effet, l’annuaire de la SFAF ne permet pas d’identifier les analystes évaluant
les introductions en bourse.
Le faible nombre de répondants biaise également la représentativité de l’échantillon, en raison de la différence possible de comportement entre les répondants
116
Chapitre 3
et les non répondants (Grobras, 1987). Nous avons pourtant multiplié et personnalisé les contacts. Nous avons également réalisé l’enquête à une période
a priori de plus faible activité des analystes : les introductions en bourse sont
plus rares en décembre et en janvier.
La combinaison des deux modes d’enquête (postal et via Internet) a au
contraire permis d’améliorer la représentativité de l’échantillon.
En premier lieu, elle a réduit le risque d’erreur de couverture, puisque les
analystes sans adresse électronique ont été contactés par voie postale.
En second lieu, elle a équilibré la répartition des répondants en termes de
sexe. Alors que 70.6% des répondants à l’enquête web sont des hommes, les
répondants à l’enquête postale sont équitablement répartis entre hommes
(50%) et femmes (50%). Fontowicz (1999), dans son enquête postale sur
la rémunération des analystes, obtient 35.7% de réponses de la part d’analystes femmes. Conformément aux études antérieures, les femmes sont plus
réceptives au questionnaire postal que web. Leurs taux de retour aux questionnaires postaux puis web sont respectivement de 3.4% et 12.8%, contre
2.6% et 19.7% pour les hommes.
- Exactitude des réponses
Les réponses du cyber -échantillon et de l’échantillon postal nous ont
semblé cohérentes. Les analystes ne paraissent pas comprendre les questions
ou y répondre différemment selon le mode de recueil. Le recoupement des
questions sensibles nous a permis de contrôler la cohérence des réponses
afférentes.
Nous obtenons cependant des réponses aux questions ouvertes plus complètes
dans les questionnaires web que postaux. Certaines réponses nous ont par
ailleurs semblé biaisées. Trois analystes ont estimé que le format fermé des
questions préjugeait des réponses. Le désir de valorisation peut encore expliquer l’optimisme de certaines réponses. Par exemple, 30% des répondants
déclarent faire des prévisions toujours exactes...
3.4.2
L’utilité d’une enquête Internet en finance d’entreprise
Un mode d’administration d’enquête n’est pas meilleur que les autres. Il
a ses caractéristiques propres et son utilité (Schaaper, 1999). Par exemple,
«si la précision des réponses est une priorité par rapport au taux de non
Chapitre 3
Critères
Longueur
Souplesse
Maı̂trise de la
Séquence des questions
Rapidité
Coût
Recueil informations supplémentaires
Maı̂trise par l’enquêteur de :
Identité répondant
Dispersion géographique
taux de non-réponse
117
Enquête postale
=
-
Enquête par ordinateur
=
+
-
++
-
+
+
=
+
-
=
+
+
Tab. 3.6 – Qualité comparée des médias de recueil utilisés
Le tableau 3.6 reprend les résultats de la comparaison effectuée, sur le modèle d’Évrard et
alii (2001, p.169). Le signe + (-) signifie que le mode de recueil s’est avéré bien (mal) placé
sur le critère concerné dans le cadre de notre enquête. Le signe = traduit notre incapacité à
départager les deux modes de collecte de l’information, au vu des résultats. Chaque mode
de recueil est évalué à son adaptation à la longueur de notre questionnaire, à sa souplesse,
à la maı̂trise par l’enquêteur de la séquence des questions, au coût de revient de l’enquête.
Permet-il de recueillir des informations supplémentaires, notamment dans les questions
ouvertes ? Informe-t-il sur l’identité des répondants ? Répond-il aux préoccupations d’un
échantillon dispersé géographiquement ? Limite-t-il le taux de non réponse ?
réponse, le mode postal est une bonne alternative à une enquête en face-àface, souvent trop coûteuse. Ceci à la condition que les questions ne soient
pas trop complexes» (De Leeuw et Van der Zouwen, 1992, cités par Shaaper,
1999). À partir de notre expérience et de celle de Schapper (1999), nous
envisageons les conditions auxquelles la méthode d’administration d’enquête
par Internet, forte de ses spécificités, peut s’avérer utile en finance.
Définition des objectifs de recherche
L’enquête web peut répondre à un objectif de recherche tant exploratoire,
descriptif que confirmatoire. Ainsi, Schaaper (1999) a réalisé en 1997 une
enquête web exploratoire. Il s’intéressait aux facteurs pris en compte par les
parents lorsqu’ils achètent des jouets pour des enfants âgés de trois à douze
ans. Le Centre National d’Enseignement à Distance a également mené un
sondage via Internet auprès des étudiants inscrits. Le but, descriptif, était
de mieux cerner leur profil. Enfin, l’enquête que nous avons conduite auprès
des analystes financiers nous a permis de tester des hypothèses. Sa finalité
était, entre autres, confirmatoire.
118
Chapitre 3
La formulation de la question de recherche permet de cerner la population à
étudier. Mais pour être réceptive à une enquête web, celle-ci doit présenter
certaines caractéristiques socio-démographiques.
Caractéristiques de la population étudiée
Une enquête web convient aux études ne nécessitant pas une représentativité rigoureuse en termes de quotas socio-professionnels (Schaaper, 1999).
En effet, 35.7% des foyers français (soit 16.4 millions) sont équipés de microordinateurs et 21.9% ont accès à Internet au premier trimestre 2002. Il est
donc difficile d’atteindre un échantillon représentatif d’une population courante via Internet. Par contre, l’enquête via Internet répond aux préoccupations d’un échantillon géographiquement dispersé. Il permet au sondage
aléatoire simple de retrouver ses lettres de noblesse, pourvu que l’on dispose
d’une base de sondage. Il se prête encore bien à l’étude d’un échantillon de
grande taille, le coût marginal d’un envoi supplémentaire étant quasi-nul.
Identification des besoins en information
Le recours à une enquête web se justifie si la résolution du problème de
recherche requiert des données primaires. Des données secondaires peuvent
exister mais être insuffisamment précises ou pertinentes.
Choix du mode de recueil des informations
L’observation et l’interrogation permettent de collecter les données primaires.
L’observation, méthode stimulative, découle du paradigme cognitif. Elle
vise à dévoiler et à comprendre comment une décision est prise. Elle nécessite
que les données soient accessibles et fiables, dans un délai et à un coût raisonnables (Évrard et al., 2001, p. 32).
L’interrogation appartient aux méthodes non directives issues du paradigme motivationnel. Les acteurs sociaux sont supposés ignorer les raisons
objectives de leur conduite. L’interrogation permet de rechercher ce qui les
pousse à agir. Toutefois, les informations recueillies par enquête sont empruntes de subjectivité. Elles résultent de l’observation effectuée par le sujet
sur ses propres conduites. Aussi l’interprétation ne vaut-elle que si elle discerne dans les réponses les exagérations valorisantes, les oublis sélectifs, les
déformations. Le chercheur doit également s’assurer de la cohérence des com-
Chapitre 3
119
portements déclarés et réels, par exemple en contrôlant le professionnalisme
ou l’âge des enquêtés.
Choix de la méthode d’administration
Une enquête peut se dérouler en face-à-face avec l’enquêteur, par téléphone,
par voie postale ou par ordinateur. À partir de notre expérience et dans le
prolongement de Schaaper, nous suggérons quelques situations plus adaptées
à l’utilisation d’Internet comme média de recueil que la voie postale.
Internet permet le transport simultané de la voix et de l’image. Il s’impose
donc lorsque les réponses à certaines questions nécessitent une aide visuelle
(par exemple le recours à une carte-réponse).
Quand le budget disponible pour la réalisation de l’enquête est faible et que
l’institut de recherche est connecté sur Internet, le questionnaire web semble
à privilégier. Une enquête postale se heurte à des coûts d’impression et de
postage incompressibles.
Certes, le temps de mise au point d’une enquête web varie en fonction des
compétences informatiques de l’enquêteur et du type de signalement choisi.
Mais les retours d’enquêtes et le dépouillement des données sont bien plus rapides que pour une enquête postale, notamment si un script de réception des
données est programmé. Le questionnaire web semble donc pertinent quand
la conduite de l’enquête est limitée dans le temps.
«Espace de communication12 », Internet permet à l’enquêteur et à l’enquêté
d’échanger. Son interactivité s’avère utile si la population ciblée est difficile
d’accès (faible implication sur le sujet, indisponibilité...) ou si le sujet du
questionnaire est technique et complexe.
Le mode d’administration par Internet permet d’obtenir des réponses plus
longues aux questions ouvertes que par le mode postal. Il est donc préférable
lorsque l’enquête comprend principalement ce type de questions.
Toutefois, ces arguments ne doivent pas occulter les intérêts à combiner Internet à la voie postale. En effet, le choix du média de recueil doit
intégrer les préférences individuelles de la population enquêtée pour certains
modes d’enquête. Utiliser plusieurs modes peut également améliorer le taux
de réponse (Goyder, 1987). Le chercheur peut se servir d’Internet comme
premier mode de contact puis s’orienter, pour les non répondants, vers la
méthode postale, jusqu’à atteindre un niveau acceptable de réponse.
12
Angehrn et Barsoux, 1997, Élargir sa clientèle par l’internet, Les Échos, pp 8-9, novembre 1997.
120
Chapitre 3
La méthode d’enquête par Internet ne convient ni à toutes les problématiques
de recherche ni à toutes les populations d’étude. Le schéma 3.3 récapitule les
conditions d’application de cette méthodologie.
Chapitre 3
121
Processus d'élaboration d'un questionnaire WEB
Formulation du problème et des objectifs de recherche
Problème : comprendre l'influence des AFs sur la sous-évaluation des titres introduits
Objectif exploratoire : processus de suivi des introductions en bourse
Objectif confirmatoire : explication de l'optimisme des AFs par la théorie de l'agence
Identification de la population étudiée et de ses caractéristiques
Population étudiée : AFs spécialisés sur le marché primaire
Caractéristiques : profil type de l'internaute
Identification des besoins en informations
Données secondaires : inexistantes ou non pertinentes
=>Données primaires : nécessaires
Choix du mode de recueil des informations
Observations : durée, receuil, coût, accessibilité, fiabilité
=> Interrogation
Entretiens exploratoires
Rédaction instrument de recherche
Formulation des questions : format, contenu, modalités de réponse
Dynamique du questionnaire : plan, nombre de questions, ordre
Pré-test du questionnaire
Compréhension, absence de biais lié à la formulation
Codification et distribution des réponses
Programmation du questionnaire
Moyen : accès internet et éditeur WEB
Action : programmation page WEB et transfert site extérieur
Signalement du questionnaire WEB
- Référencement moteur recherche - Groupes discussion
- Liste de diffusion
- Base de sondage personnelle
- Envoi multiple (annuaire SFAF, dossier IB)
Receuil et traitement des réponses
Fig. 3.3 – Processus d’élaboration d’un questionnaire web
122
Chapitre 3
Conclusion
Les analystes de l’entreprise d’investissement spécialiste ont ici retenu
notre attention. Ils sont supposés surévaluer la valeur espérée des titres ou
les futurs résultats du candidat à l’introduction, lorsque ce dernier a mandaté leur employeur. Nous avons interrogé 334 analystes sur la pertinence
de ces hypothèses. Sur les trente-sept répondants retenus, vingt-cinq travaillent pour la filiale d’une banque ; douze pour une entreprise d’investissement indépendante.
Les apports de l’enquête sont les suivants.
Premièrement, les analystes interrogés estiment l’indépendance d’autant plus
indispensable à l’exercice de leur métier que leur employeur est la filiale d’une
banque.
Deuxièmement, les répondants considèrent la société émettrice comme une
source d’information essentielle, mais imparfaite. Pour autant, ils ne semblent
pas percevoir l’impact de la qualité des informations publiées par la société
sur leur propres estimations.
Troisièmement, la «Muraille de Chine » semble fragile entre la banque et le
bureau d’analyse d’un même groupe. Les banques sollicitent les vingt-cinq
répondants employés par leurs filiales. Ces analystes reconnaissent être encouragés à informer le département origination d’éventuels candidats à l’introduction. Quand la banque est chef de file, les analystes paraissent tenir
compte de ses intérêts commerciaux dans leur étude financière. Ils semblent
ainsi incités à publier des prévisions optimistes pour faciliter le placement
des titres. Ils disent déterminer librement la valeur espérée des titres introduits. Mais la décote appliquée au prix d’équilibre anticipé leur permet de
justifier le prix d’introduction fixé par l’introducteur. Au vu des réponses des
analystes, l’hypothèse de conflits d’agence entre l’analyste et son employeur
semble plausible.
Quatrièmement, nous avons comparé l’efficacité des deux modes d’enquête
utilisés, web et postal. Au regard des critères de rapidité, de taux de retour
et de qualité des réponses obtenues, Internet s’est révélé un mode de recueil
plus performant que le mode postal traditionnel. En outre, nous précisons
comment élaborer un questionnaire web. Enfin, nous suggérons quelques situations adaptées à l’utilisation d’une enquête web en finance.
Le cas échéant, les analystes financiers semblent devoir faciliter l’exécution
du mandat confié à leur employeur. Ils paraissent alors incités à l’optimisme
dans leur étude financière. Ils évitent ainsi les conflits d’agence, au détriment
de leur devoir d’objectivité et donc des intérêts des investisseurs.
Chapitre 3
123
Une fois la société introduite, l’entreprise d’investissement spécialiste et
la banque introductrice sont contractuellement tenues de l’animation et de
la liquidité du marché. Leurs analystes continuent donc de produire des informations biaisées afin de soutenir les cours (Michaely et Womack, 1999 ;
Teoh et al., 1998). Dans le chapitre 4, nous nous intéressons aux analystes
«indépendants». Ces analystes doivent décider s’ils suivent ou non la nouvelle société introduite. Mais en fonction de quels critères prennent-ils leur
décision ? Les intérêts du principal prévalent-ils encore contre ceux des investisseurs ?
124
Chapitre 3
Chapitre 4
Les déterminants du suivi
d’une introduction en bourse
par les analystes d’I/B/E/S
Introduction
Cette thèse se propose, entre autres, d’expliquer la richesse de l’environnement informationnel des introductions en bourse, c’est-à-dire la quantité
et la qualité de l’information disponible sur les titres introduits. Les analystes financiers participent de cet environnement en tant que producteurs
d’information. Leur décision de suivre un titre récemment admis à la cote
influence le niveau d’information disponible sur la société concernée. Toutes
les sociétés ne sont pas également couvertes par les analystes. Nous nous
intéressons, dans ce chapitre, aux critères de choix des analystes.
De nombreuses études déterminent et/ou rendent compte de la valeur
informative des informations produites par les analystes sur les sociétés introduites. Ainsi, Rajan et Servaes (1997) soulignent l’excès d’optimisme des
analystes qui estiment les résultats et le taux de croissance des sociétés introduites. Sur leur échantillon, le déclin des performances à long terme des
sociétés de leur échantillon s’accentue avec les erreurs de prévision des analystes. Autrement dit, le marché serait dupe de l’optimisme des prévisions des
analystes au moment de leur publication. Mais il corrigerait ses anticipations
ultérieurement et sanctionnerait les titres surévalués. Michaley et Womack
(1999) montrent que les analystes affiliés émettent deux fois plus de recommandations d’achat que les analystes indépendants. Selon eux, les analystes
affiliés seraient incités à recommander à l’achat ou à évaluer favorablement
125
126
Chapitre 4
les sociétés en relation commerciale avec leur employeur.
Plus rares sont les travaux relatifs au processus de décision des analystes.
Ils concernent en outre uniquement le marché américain. Ils peuvent s’appuyer sur des méthodes qualitatives (entretien, expérience en laboratoire,
questionnaire). Biggs (1984) observe ainsi comment onze analystes utilisent
les états comptables et financiers pour prévoir les capacités bénéficiaires des
entreprises. Dans le contexte d’une introduction en bourse, Rajan et Servaes
(1997) ont été les premiers à identifier les caractéristiques des titres suivis
par les analystes. Ils établissent que l’intérêt des analystes croı̂t avec la sousévaluation du prix d’offre, le nombre de firmes cotées dans le secteur d’activité
de la société introduite, la capitalisation boursière et le nombre de banquiers
introducteurs. Plus récemment, Das et alii (2002) confirment les résultats de
Rajan et Servaes. Ils montrent en outre que le nombre d’analystes augmente
avec la réputation du chef de file et la rapidité de la couverture. Ils rendent
compte enfin du délai de couverture. La sous-évaluation, la réputation du chef
de file, l’activité du marché primaire, le nombre d’introducteurs, le nombre
d’entreprises dans le secteur de la société concernée, le marché d’introduction
et la capitalisation boursière ont simultanément un effet positif significatif sur
la rapidité de la couverture.
Dans leur prolongement, nous étudions en fonction de quels critères les
analystes sélectionnent les titres introduits sur le marché français, avec plus
ou moins de célérité. Le sujet nous semble intéressant à deux titres. Premièrement, il rend indirectement compte des asymétries d’information attestées
au moment d’une introduction en bourse. Les analystes produisent en effet des informations sur les sociétés suivies. Leur décision de couverture influence donc le nombre d’information disponible sur la société considérée.
Deuxièmement, les sociétés nouvellement cotées se disputent l’attention des
analystes. En effet, l’analyste supporte un coût marginal non nul lorsqu’il
ajoute un titre à son portefeuille de valeurs suivies (Hayes, 1998). De plus, le
nombre croissant d’introductions en bourse entre 1994 et 20001 accentue la
concurrence entre valeurs. Connaı̂tre les critères de choix des analystes peut
être utile aux futurs candidats à l’introduction.
Nous analysons le comportement des analystes à la lumière de la théorie
de l’agence. Un contrat d’agence relie les analystes à leur employeur. L’agent
(l’analyste) est pressé d’agir dans l’intérêt du principal. Les deux parties
1
51 sociétés se sont introduites sur le Nouveau Marché et le Second Marché en 1994 ;
119 en 1998 et 71 en 2000
Chapitre 4
127
gagnent par ailleurs à coopérer. En conséquence, les analystes sont supposés
choisir les titres susceptibles de rapporter des commissions de courtage et/ou
de placement à leur employeur. Ce faisant, ils augmentent également leur
propre satisfaction. En effet, une partie de leur rémunération croı̂t avec les
résultats de l’entreprise d’investissement.
Nous vérifions cette hypothèse sur un échantillon de 218 sociétés introduites
sur le Second Marché entre le premier janvier 1994 et le 30 juin 2000, ou
sur le Nouveau Marché entre le premier janvier 1996 et le 30 juin 2000. Nous
avons uniquement pris en considération les analystes «indépendants» du chef
de file. Ces analystes sont libres de suivre ou non le titre introduit car leur
employeur ne participe pas à l’opération d’introduction. Le phénomène de
couverture est enfin envisagé de manière dynamique. Une analyse de survie
permet d’estimer puis d’expliquer la probabilité de suivi instantané d’une
société.
Le reste de l’étude se compose de trois parties. Dans la section 4.1, nous
déduisons de la revue de littérature notre système d’hypothèses. La section
4.2 présente la méthodologie adoptée, les variables utilisées puis l’échantillon.
La section 4.3 analyse les résultats obtenus.
4.1
Revue de littérature et hypothèses
Un certain nombre de travaux se sont intéressés aux caractéristiques des
sociétés suivies par les analystes. La présente section en propose une synthèse.
4.1.1
Les critères de suivi des analystes dans la littérature
Nous présentons les travaux relatifs à la couverture des sociétés cotées
sur le marché secondaire, puis primaire.
Sur le marché secondaire
Les chercheurs analysent les critères de décision des analystes sur un plan
national ou individuel.
Les déterminants macro-économiques
Chang et alii (2000) comparent l’activité des analystes dans 47 pays.
Ils calculent leurs erreurs de prévision, la dispersion de leurs estimations
et le nombre d’analystes ayant suivi les 30 capitalisations boursières les plus
128
Chapitre 4
élevées le onzième mois de l’exercice fiscal 1996. Ils constatent une grande disparité dans l’intensité et la qualité de la couverture des analystes, à travers le
monde. Des facteurs institutionnels semblent expliquer significativement les
différences observées : la capitalisation boursière moyenne, la taille du marché
boursier comparée au PNB, la qualité des informations comptables (mesurée
par un indice évaluant la présence ou l’absence de quatre-vingt-dix items dans
les rapports annuels de 1990), le système juridique (romano-germanique ou
de common law ). Les auteurs montrent également que les groupes à structure
pyramidale, répandus dans les pays en voie de développement, ont plus de
chances d’être suivis par les analystes mais de manière plus imprécise, toutes
choses égales par ailleurs.
Lang et alii (2002) mettent en évidence l’influence de la qualité du gouvernement d’entreprise sur le suivi des analystes. Leur échantillon comprend
2 510 sociétés de vingt-sept pays. En 1996, les analystes semblent moins
enclins à suivre les sociétés susceptibles de dissimuler ou manipuler l’information. En effet, la couverture des analystes diminue significativement avec
le degré de contrôle de la famille ou du management. Par contre, les autres
blocs de contrôle n’ont pas d’impact significatif sur la couverture des analystes. Dans les pays caractérisés par une faible protection des investisseurs,
le suivi de sept analystes supplémentaires annule la perte moyenne de valeur
due à un actionnariat concentré. La valeur ajoutée des analystes augmente
quand ils suivent des sociétés avec de faibles mécanismes de gouvernement
(internes et externes) et originaires d’un pays de droit civil.
Les déterminants micro-économiques
Les travaux suivants ont une perspective moins large. Ils étudient la couverture par les analystes, de sociétés cotées sur une seule place boursière. Ils
sont présentés en fonction de leur cadre théorique.
Bhushan (1989) modélise le niveau de couverture d’une société. Il considère
l’offre et la demande de services informationnels auprès des analystes, comme
fonction de caractéristiques exogènes de la société. À l’équilibre, le nombre
d’analystes suivant la société est à l’intersection des courbes d’offre et de demande. Bhushan identifie a priori un ensemble de variables explicatives possibles : les parts de capital détenues respectivement par les investisseurs institutionnels et les dirigeants, le nombre d’investisseurs institutionnels présents
dans le capital, la capitalisation boursière, la volatilité du titre, le nombre
d’activités de l’entreprise et le bêta du modèle de marché. Il teste ensuite son
modèle sur un échantillon de 1409 sociétés cotées sur le NYSE ou l’AMEX
Chapitre 4
129
en 1985. Les caractéristiques retenues semblent bien déterminer significativement le niveau de couverture d’une société.
Marston (1997) a appliqué le modèle de Bhushan à un échantillon de 251
sociétés cotées sur le marché britannique. Comme sur le marché américain, la
couverture des analystes apparaı̂t diminuer avec la participation des insiders
au capital ; augmenter avec la taille de la société et la volatilité du titre. Elle
est également sensible au secteur d’activité de la société. La corrélation de
la rentabilité du titre à celle du marché détermine significativement le suivi
des analystes, mais à un moindre degré sur le marché britannique. Contrairement aux résultats de Bhushan, la complexité approchée par le nombre d’activités de l’entreprise n’explique pas significativement le suivi des analystes
en Grande-Bretagne. Par ailleurs, Bhushan obtenait une relation positive et
significative entre le nombre d’analystes et l’actionnariat institutionnel. La
variable utilisée pour mesurer la participation des investisseurs institutionnels
ne donne pas les résultats attendus dans l’étude de Marston. Enfin, Marston
ajoute un indicateur de multi-cotation aux caractéristiques testées par Bhushan. La cotation sur une place étrangère semble un atout pour attirer les
analystes.
Dans le cadre du modèle de Bhushan (1989), Lang et Lundholm (1996)
analysent plus particulièrement l’impact de la la qualité de la communication financière sur l’offre d’information des analystes. Sur le marché américain
entre 1985 et 1989, ils montrent que la qualité de l’information publiée par la
société accroı̂t significativement le nombre d’analystes suivant la société, la
qualité et l’homogénéité de leurs estimations. Elle apparaı̂t également réduire
la volatilité des révisions.
Bricker et alii (2000) prolongent également le modèle de Bhushan, sur un
échantillon de 249 sociétés cotées aux États-Unis en 1996. Ils approfondissent
la relation entre la complexité de l’activité et le suivi des analystes. Ils proposent trois mesures différentes de la complexité : le nombre d’activités, le
nombre d’implantations géographiques, le produit du nombre d’activités par
celui des zones géographiques. Le niveau de couverture d’une société s’avère
diminuer avec le bêta, la participation des insiders et le degré de complexité ;
croı̂tre avec la valeur de marché de la société. Le coefficient de la participation des investisseurs institutionnels ne diffère pas significativement de zéro.
La mesure agrégée de la complexité n’améliore pas le pouvoir explicatif des
modèles de régression.
Sabherwal et Smith (1999) extrapolent la théorie de l’intermédiation fi-
130
Chapitre 4
nancière de Diamond (1984). Dans celle-ci, les prêteurs ou outsiders peuvent
éluder le problème de hasard moral en étant bien informés des actions du
débiteur. Mais ils doivent décider entre produire eux-mêmes l’information
nécessaire au contrôle, ou déléguer cette tâche. D’après Diamond, plus les
outsiders sont nombreux et plus ils ont intérêt à recourir aux services informationnels d’un tiers. Sabherwal et Smith analysent la relation actionnaires/dirigeant à l’aune de ce modèle. Les actionnaires outsiders sont assimilés aux prêteurs. Les auteurs prédisent alors une relation négative entre
le nombre d’analystes suivant une société et la concentration de l’actionnariat. Ils testent cette hypothèse sur un échantillon de 1178 sociétés, construit
pour l’année 1995. Ils évaluent la concentration de l’actionnariat à partir
d’indices Herfindhal2 , des participations au capital des institutionnels, des
insiders et des outsiders. Les résultats confirment leurs anticipations. Plus le
capital est concentré et moins les analystes suivent la société. Les coefficients
des variables de contrôle introduites dans les modèles de régression ont le
signe attendu. Le nombre d’analystes augmente avec la taille de la société,
la variance des rentabilités boursières quotidiennes, le nombre d’actions en
circulation, le nombre d’actionnaires institutionnels, la corrélation entre la
rentabilité du titre et celle du marché. Il ne s’explique pas significativement
par l’effet de levier.
Les auteurs ont moins étudiés sur la couverture des sociétés cotées sur le
marché primaire que secondaire.
Sur le marché primaire
Rajan et Servaes (1997), puis de Das et al. (2002) se sont penchés sur
les caractéristiques des sociétés nouvellement cotées, suivies par les analystes
financiers.
Rajan et Servaes (1997) analysent la couverture dans les bases d’I/B/E/S,
de 2 274 sociétés admises à la cote américaine entre 1975 et le deuxième
trimestre 1987. Le taux de couverture moyen s’élève à 56%. Il s’améliore
au cours de la période étudiée car I/B/E/S a progressivement complété ses
bases. Une régression classique aurait donc seulement exclu les sociétés de
l’échantillon que des analystes, pas encore contactés par I/B/E/S, auraient
pourtant suivies leur première année boursière. Afin d’éviter ce biais de
sélection, Rajan et Servaes appliquent la procédure en deux étapes d’Heckman (1979). Dans un premier temps, un modèle probit explique la pro2
L’indice d’Herfindhal élève au carré la somme des participations des cinq principaux
actionnaires.
Chapitre 4
131
babilité qu’au moins un analyste enregistré dans les bases d’I/B/E/S, ait
prédit le résultat des sociétés de l’échantillon, avant la fin de leur première
année de cotation. Le nombre d’acteurs dans le secteur à la date de l’introduction, la capitalisation boursière, l’introduction sur l’une des principales
places boursières (AMEX, Nyse, Nasdaq) et plutôt à la fin de la période
étudiée augmentent significativement les chances de suivi. Dans un deuxième
temps, le nombre d’analystes couvrant la société est régressé sur de possibles
déterminants. Sur l’échantillon total, il apparaı̂t croı̂tre significativement avec
la sous-évaluation, la capitalisation boursière et le nombre de sociétés du
même secteur cotées depuis au moins trois ans. La procédure répétée sur
l’échantillon de contrôle, comprenant 803 sociétés introduites entre 1985 et
1987, confirme le pouvoir explicatif de ces variables. Elle révèle par ailleurs
celui du nombre de banques introductrices.
Das et alii (2002) ont travaillé sur un échantillon de 3 186 sociétés introduites sur le marché américain entre 1985 et 1995. Ils rendent compte du
niveau et de la rapidité de la couverture d’une introduction par les analystes,
à travers respectivement des modèles de régression et de Cox. Le nombre mensuel d’analystes suivant la société introduite au cours des trois premiers mois
de couverture mesure l’intérêt des analystes pour une introduction. Le délai
de couverture correspond au nombre de mois séparant la date d’introduction
du premier mois de suivi dans les bases d’I/B/E/S. Ces deux variables sont
déterminées significativement et positivement par la capitalisation boursière
de la société, la réputation de l’introducteur, la sous-évaluation, le marché
d’introduction, le nombre d’introducteurs et de co-introducteurs, le nombre
de sociétés du même secteur et le nombre de celles introduites en bourse la
même année. Le niveau et le délai de couverture s’avèrent également reliés
négativement et significativement. Les auteurs montrent enfin que les introductions suivies le plus rapidement et par le plus grand nombre d’analystes
enregistrent les meilleures performances à long terme.
Les tableaux 4.11 et 4.12 récapitulent, à la fin du chapitre 4, l’ensemble
des travaux évoqués.
4.1.2
Modélisation du comportement des analystes
Le cadre d’analyse
Certains chercheurs considèrent que la nature ou la qualité des informations produites par les analystes résultent de choix stratégiques. Les analystes
décideraient des caractéristiques de leur offre d’information, de sorte à sa-
132
Chapitre 4
tisfaire au mieux les diverses parties prenantes (leur employeur, la société
évaluée, les investisseurs) et leurs intérêts personnels. Le biais entachant les
informations publiées ou les titres suivis serait voulu et délibéré. Les analystes évalueraient les gains et les coûts attendus des informations offertes.
Ils dresseraient une sorte de bilan coûts/avantages. La littérature offre de
nombreuses applications de ce raisonnement. Nous en citons quelques-unes.
Selon McNichols et O’Brien (1997), les analystes diffuseraient avec réticence des informations défavorables, susceptibles de compromettre les intérêts
de la banque d’investissement, les relations avec le dirigeant ou les perspectives de commissions de courtage. Les analystes sélectionneraient donc
uniquement les sociétés performantes ex ante. Les résultats confirment le
biais supposé de sélection des titres. Les révisions à la baisse des prévisions
se révèlent plus tardives et moins fréquentes que les révisions à la hausse.
Parallèlement, les chercheurs trouvent que les sociétés nouvellement suivies
affichent une meilleure rentabilité financière et sont davantage recommandées
à l’achat que les sociétés anciennement suivies.
Pour O’Brien et Bhushan (1990) également, les analystes décideraient de
suivre une société, après en avoir pesé les coûts et les bénéfices attendus.
Le coût de production de l’information varierait avec le secteur d’activité
de l’entreprise. Les analystes sont présumés préférer les secteurs où l’information publique est très réglementée et/où les entrants sont nombreux. Ils
choisiraient par ailleurs des valeurs peu suivies par leurs pairs, susceptibles
de générer des commissions de courtage.
Selon Bricker et alii (1999), les revenus et les coûts escomptés du suivi
détermineraient la décision des analystes. Les auteurs supposent en particulier que la forte implication des insiders et des investisseurs institutionnels
dans le capital amoindrit les commissions de courtage anticipées, et donc
dissuade les analystes de suivre la société concernée. En outre, Bricker et al.
considèrent que les analystes, attachés à leur réputation, veillent à minimiser
leurs erreurs de prévision. Ils éviteraient donc les titres risqués, plus difficiles à évaluer. Leur coût de production de l’information diminuerait avec
la qualité des informations publiées par la société et augmenterait avec la
complexité de l’activité.
Espahbodi et alii (2001) avancent que la décision des analystes de diffuser des prévisions optimistes est calculée. Les analystes sont supposés n’être
optimistes dans leurs estimations que si les bénéfices attendus en excèdent
Chapitre 4
133
les coûts3 . Ils devraient donc être peu enclins à publier des prévisions optimistes sur une société au bord de la faillite. Ils risqueraient en effet de voir
leur responsabilité engagée par les investisseurs insatisfaits. Par ailleurs, ils
n’ont pas besoin de s’attirer les faveurs d’un dirigeant sur le départ. Enfin,
les investisseurs notamment institutionnels se détournent des sociétés en difficulté, trop risquées.
Francis et Philbrick (1993) modélisent l’offre d’information des analystes.
De par leur fonction, les analystes sont sous influence. Ils doivent à la fois
ménager les dirigeants des sociétés évaluées, favoriser les activités de courtage
et de banque d’investissement de leur employeur. Ils s’acquittent en outre de
nombreuses tâches. Ils estiment en particulier les résultats à venir des sociétés
suivies et conseillent les investisseurs dans leurs choix d’investissement. Selon
Francis et Philbrick (1993), les analystes joueraient sur la pluralité de leur
offre d’information pour gérer aux mieux les intérêts contradictoires auxquels
ils sont soumis. Ils choisiraient donc de publier des prévisions optimistes si
préalablement ils avaient recommandé le titre concerné à la vente. Ainsi, ils
préserveraient leurs relations avec le dirigeant.
Notre modélisation du comportement des analystes s’inscrit dans le prolongement de ces travaux. Nous analysons la décision des analystes de suivre
ou non un nouveau titre coté, dans le cadre de leur relation d’agence avec leur
employeur. Les analystes sont supposés rationnels. L’intérêt du principal guiderait leur choix. Autrement dit, ils sélectionneraient les titres susceptibles
de rapporter au moindre coût, des commissions de courtage et/ou de placement. Ils maximiseraient simultanément leur fonction d’utilité. En effet, leur
rémunération et la sécurité de leur emploi dépendent, au moins en partie,
des profits de leur employeur. Nous déclinons cette proposition générale en
plusieurs hypothèses.
Les hypothèses
Un analyste est supposé suivre un titre nouvellement coté s’il en attend
des gains nets pour son employeur. Autrement dit, les commissions de courtage et/ou de placement espérées doivent excéder le coût de collecte et de
production de l’information.
Dans les travaux antérieurs, les analystes apparaissent sensibles à la sousévaluation du prix d’offre (Rajan et Servaes, 1997 ; Chen et Ritter, 2000 ; Das
3
«We extend the argument that the analyst’s decision to issue optimistic earnings forecasts is based on a comparison of the costs and benefits of doing so», page 3.
134
Chapitre 4
et al., 2002) et la qualité des informations publiées par le dirigeant (Lang et
Lundholm, 1996 ; Bricker et al., 1999 ; Chang et al., 2000). Mais la société
peut utiliser ces facteurs pour attirer les analystes. Ainsi, dans les modèles
de Chemmanur (1993) et plus récemment d’Aggarwal et al. (2002), la société
sous-évalue délibérément les titres introduits afin d’attirer les analystes. Afin
d’éviter le risque d’endogénéité, seules des caractéristiques exogènes de la
société sont considérées comme déterminant les gains attendus de la couverture et le coût de production de l’information.
Dans le modèle de Bhushan (1989), la capitalisation boursière détermine
la fonction de profit de l’analyste. Bricker et alii (1999) affinent ce proxy. Ils
utilisent la valeur de marché des actions émises (respectivement échangées)
pour approcher les commissions de placement (respectivement de courtage)
attendues du suivi du titre. Nous avons pris en compte la spécificité du
contexte de l’introduction en bourse dans le choix des indicateurs. Compte
tenu des rentabilités initiales anormales observées les premiers jours de l’introduction, nous avons mesuré les commissions de courtage anticipées par
le nombre de titres mis à la disposition du public et le volume moyen des
titres échangés, plutôt que par leur valeur de marché. Par ailleurs, certaines
sociétés projettent, dès leur introduction, de revenir rapidement sur le marché
primaire. Les analystes anticipent alors de futurs mandats de placement à
obtenir pour leur employeur. Nous supposons donc qu’ils assimilent la perspective d’une augmentation capital peu après l’introduction, à l’espérance de
commissions de placement.
Sur le marché secondaire, la volonté des analystes de générer des ordres
d’achat semble expliquer l’optimisme de leurs prévisions (Dugar et Nathan,
1995, page 135) ou leur décision de suivre une société (Hayes, 1998). Elle
pourrait également expliquer le choix des titres suivis sur le marché primaire. Or un marché animé et profond offre des perspectives de commissions
de courtage aux analystes. Il limite en effet le risque lié aux transactions informées (Bhushan, 1989, page 190). Plus les titres introduits sont nombreux
et échangés, plus ils devraient donc retenir l’attention des analystes. Nous
formulons ainsi notre première hypothèse :
H1- L’intérêt des analystes pour un titre augmente avec le volume moyen
échangé et l’ouverture du capital.
La maison de courtage qui emploie l’analyste est souvent la filiale d’une
banque d’investissement. Or la récente diminution des commissions de courtage a conduit les groupes financiers à privilégier leur activité de placement,
plus lucrative (Healy et Palepu, 2001 ; Michaely et Womack, 1999). La banque
Chapitre 4
135
d’affaires exerce sa domination sur les analystes du broker. Elle les encourage à publier des recommandations et des prévisions de résultat optimistes
sur ses clients (Dugar et Nathan, 1995). Michaely et Womack (1999, page
654) avancent que le primat des intérêts du département corporate pourrait également affecter la sélection des titres suivis par les analystes. Les
analystes du broker choisiraient ainsi en priorité les sociétés susceptibles de
mandater la banque du groupe dans de futures opérations sur le marché primaire. Ils y trouveraient également leur intérêt, à travers des bonus accordés
aux apporteurs d’affaires (Dechow et alii, 2000) ou de la part variable de leur
rémunération. Nous en déduisons l’hypothèse suivante :
H2- Les analystes s’intéressent d’autant plus à une société qu’elle envisage
de revenir sur le marché primaire après l’introduction.
Les gains espérés du suivi d’une nouvelle société doivent être appréciés
nets du coût de collecte et de production de l’information. Celui-ci est supposé fonction de l’activité du marché primaire, de la taille de la société et de
sa structure d’actionnariat.
Lorsque de nombreuses sociétés comparables - en termes de secteur et de
taille - s’introduisent au même moment, les marchés sont riches en information (Van Bommel et alii, 2001). Les analystes réalisent alors des économies
d’échelle dans la collecte et l’usage de l’information. Leur coût de production d’information diminue (Booth et Chua, 1996). De surcroı̂t, les vagues
d’introductions succèdent à des périodes de forte sous-évaluation (Lowry et
Schwert, 2002). Les gains espérés de transactions informées sur ces titres est
donc élevée. Conformément au modèle d’offre et de demande de Bhushan
(1989), l’intérêt des analystes pour les sociétés introduites devrait croı̂tre
avec l’activité du marché primaire. Notre hypothèse s’énonce ainsi :
H3- Une société est suivie d’autant plus intensément et rapidement qu’elle
s’introduit en période de forte activité du marché primaire.
L’influence de la taille de la société sur le coût de production de l’information n’est pas évidente a priori 4 . Les grandes sociétés ont généralement une
activité plus complexe et donc plus coûteuse à évaluer que les petites sociétés.
En même temps, la quantité d’information disponible augmente avec la taille
de la société (Zéghal, 1981). En conséquence, l’analyste suivrait une société
4
Traditionnellement, les commissions espérées, et donc l’intérêt des analystes, sont supposées augmenter avec la capitalisation boursière, proxy de la taille. Dans notre étude, la
taille détermine la fonction de coûts et non de profits de l’analyste. Elle n’est pas mesurée
par la capitalisation boursière. Nous ne pouvions donc prédire un lien positif entre la taille
et le niveau de couverture.
136
Chapitre 4
de grande taille si l’économie réalisée dans la collecte de l’information excède
le coût de production supplémentaire induit par la complexité de l’activité,
toutes choses égales par ailleurs. La nature du lien, positif ou négatif, entre
la taille de l’entreprise et sa couverture par les analystes ne peut donc être
établie qu’empiriquement.
H4- La taille de la société détermine son suivi par les analystes.
Plus le dirigeant détient une fraction importante du capital et moins il
est incité à rendre compte de sa gestion. La concentration du capital entre les
mains des insiders est associée à un faible partage de l’information et donc
à un coût de collecte de l’information élevé pour les outsiders. Elle devrait
dissuader les analystes de suivre la société (Saberwhal et Smith, 1999 ; Lang
et alii, 2002). L’hypothèse suivante est avancée :
H5- L’intérêt des analystes pour une société diminue avec la rétention de
capital par le dirigeant.
4.2
La méthodologie, les données et l’échantillon
Nous présentons successivement la méthodologie adoptée, les variables
retenues, l’origine des données et enfin l’échantillon.
4.2.1
La méthodologie adoptée
Nous étudions pourquoi les analystes décident de suivre ou non une
société nouvellement introduite et, le cas échéant, avec plus ou moins de
rapidité. Dans le cadre de la théorie de l’agence, la volonté de minimiser les
coûts d’agence est supposée déterminer le choix des analystes (suivre/ne pas
suivre), ainsi que le délai de couverture. Les analystes chercheraient, à travers
leur choix, à satisfaire au mieux les intérêts du principal. Cette hypothèse
est testée à partir de plusieurs outils.
Des tests univariés permettent d’une part, de comparer les caractéristiques
des sociétés suivies et non suivies ; d’autre part, d’observer l’influence du
marché d’introduction, de l’activité du marché primaire et de l’anticipation
d’une augmentation de capital post introduction sur le suivi des analystes.
Des régressions multivariées sont ensuite conduites. Le niveau puis le
délai de couverture représentent les variables dépendantes. Les coûts et les
bénéfices attendus du suivi constituent les variables indépendantes.
Chapitre 4
137
Une régression logistique binaire explique la probabilité que les analystes
suivent un titre introduit.
Enfin, une analyse de survie5 est proposée. À l’issue de la période étudiée
(2000), certaines introductions de notre échantillon ne sont toujours pas couvertes. Les modèles de régression classiques excluent ces observations dites
censurées. En revanche l’analyse de survie estime des modèles de durée à
l’évènement «être suivie» avec les observations censurées. Contrairement aux
régressions logistiques, elle appréhende de manière dynamique le passage de
l’état de «non suivi» à celui de «suivi». Les modèles de Kaplan-Meier et de
Cox permettent respectivement de tester l’effet d’une variable binaire et de
plusieurs paramètres sur le délai de couverture.
4.2.2
Les variables
Les variables suivantes mesurent le degré et la rapidité de la couverture
d’une société par les analystes.
• NAF : nombre d’analystes ayant émis des prévisions sur la société considérée
dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction. L’horizon de prévision est indifférent. Seuls les analystes indépendants du chef de
file sont pris en compte. Cette variable mesure le niveau de couverture d’une
société.
• NEST : nombre de prévisions diffusées sur une société donnée, dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction, quel que soit
l’horizon. Les émetteurs sont les analystes indépendants du chef de file. Cette
variable rend compte de l’intérêt des analystes pour la société.
• PAF : variable binaire égale à 1 si la société a été suivie par au moins
un analyste d’I/B/E/S, dans l’intervalle [-6 mois ; +12 mois] entourant la
date d’introduction. Pendant cette période, au moins un analyste doit donc
avoir estimé les futurs résultats de cette société, et transmis sa prévision à
I/B/E/S.
• Délai : nombre de jours séparant la première estimation apparue dans
les bases d’I/B/E/S sur la société considérée, de sa date d’introduction. Les
prévisions proviennent d’analystes indépendants et sont à tout horizon. Cette
variable mesure le délai de couverture d’une société.
Les variables ci-dessous approchent les bénéfices attendus du suivi d’une
société introduite.
5
Nous développons les principes de cette technique statistique en appendice du chapitre
4, (pages 161 à 164).
138
Chapitre 4
• CAPPUB : nombre d’actions en circulation à l’issue du premier jour de
cotation. Cette variable mesure la taille du marché potentiel des investisseurs
(Bhushan, 1989). Les commissions de courtage espérées augmentent avec la
profondeur du marché des titres. Les analystes devraient donc être sensibles
au flottant en titres.
• AUG : indicateur de la réalisation (AUG = 1) ou non (AUG = 0) d’une
augmentation de capital dans les trois ans suivant l’introduction et avant
2000. Une société qui envisage de lever des fonds rapidement après l’introduction représente une cliente potentielle pour l’établissement financier
employant l’analyste. La perspective de nouvelles opérations sur le marché
primaire devrait donc inciter les analystes à suivre la société.
• VOL-ECH : volume moyen des titres échangés les vingt-cinq premiers
jours de cotation. Contrairement à leurs homologues américains, les analystes
français sont autorisés à diffuser des informations sur la société introduite les
vingt-cinq premiers jours de cotation. En pratique, ils attendent en moyenne
quatre mois avant de formuler leurs premières estimations. VOL-ECH peut
donc être considéré comme exogène, c’est-à-dire indépendant des informations diffusées par les analystes sur la société introduite. Les gains nets espérés
d’une transaction informée sont d’autant plus élevés que le marché du titre
est animé. Ils sont également fonction de la rapidité d’intervention. Le volume moyen des titres échangés devrait être relié positivement au niveau et
à la rapidité de la couverture de la société par les analystes.
Les variables ci-après déterminent le coût de production de l’information
des analystes.
• AMP : variable dichotomique égale à 0/1 si la société s’est introduite en
période de faible/forte activité du marché primaire. Nous avons comparé les
fonds levés sur une période de douze mois encadrant la date d’introduction
d’une société, au montant annuel moyen6 introduit entre 1994 et 2000. La
variable AMP vaut 1 si la différence relative à la moyenne est positive ; 0 si
elle est négative. Les périodes de forte activité du marché primaire sont liées
à des externalités informationnelles et donc à un moindre coût de production
de l’information pour les analystes. Elles devraient favoriser le suivi d’une
société par les analystes.
• Taille : le logarithme népérien du chiffre d’affaires réalisé l’année précédant
l’introduction mesure la taille de la société. Les asymétries d’information
diminuent avec la taille de la société. En conséquence, les analystes privilégieraient les sociétés de grande taille, moins coûteuses à suivre que les
6
La somme des montants introduits de toutes les sociétés de l’échantillon est rapportée
à l’effectif de l’échantillon.
Chapitre 4
139
petites sociétés (Brennan et Hughes, 1991 ; Bhushan, 1989).
• AD : part du capital conservée par le dirigeant, directement ou indirectement, après l’introduction en bourse. Les analystes semblent s’écarter des
sociétés contrôlées par les insiders (Bricker et alii, 1999 par exemple). Ils les
suspecteraient de dissimuler ou manipuler l’information publiée (Lang et alii,
2002). Ils escompteraient encore une moindre demande d’information privées
(Bhushan, 1989). Plus la participation au capital des insiders augmente et
plus, corollairement, celle des outsiders diminue.
Nous avons enfin retenu le secteur comme variable de contrôle dans les
modèles de régression.
• Secteur : variable muette égale à 1 si la société appartient au secteur
des nouvelles technologies de l’information et de la communication (NTIC),
et à 0 sinon. D’après les résultats de Bhushan (1989), Marston (1997), Saberwhal et Smith (1999), le secteur d’activité d’une société a un impact
significatif sur son niveau de couverture. Il détermine à la fois le coût de production de l’information et les gains espérés du suivi. Ainsi, les sociétés des
NTIC sont plus difficiles à évaluer que les autres. Elles se prêtent mal aux
méthodes classiques de valorisation. En outre, leurs projets d’investissement
sont complexes, avec des perspectives de rentabilités incertaines. Toutefois,
les analystes bénéficient d’un moindre coût relatif de production de l’information. Par ailleurs, sur la période étudiée, le marché s’est engoué pour les
sociétés des NTIC, suscitant une demande d’information privée auprès des
analystes. Au total, l’intérêt des analystes est supposé plus marqué pour les
sociétés des NTIC que les autres.
4.2.3
Les données
Les données d’I/B/E/S ont permis de calculer le niveau et le délai de
couverture des sociétés introduites. La fraction de capital conservée par le
dirigeant après l’introduction, le chiffre d’affaires réalisé l’année t0 − 1, les
éventuelles prévisions du dirigeant, le prix d’offre définitif et le nombre de
titres introduits proviennent du prospectus définitif. La sous-évaluation, le
volume moyen de titres échangés et le nombre d’actions en circulation sont
obtenus à partir des données d’Euronext. Les dates des augmentations de
capital postérieures à l’introduction sont relevées dans la base financière de
la COB. Enfin, les rapports annuels de la COB ont fourni les nombres totaux
de sociétés introduites sur le Second Marché et le Nouveau Marché.
140
4.2.4
Chapitre 4
L’échantillon
Nous indiquons la procédure de constitution de l’échantillon, avant de le
décrire.
Constitution
Entre 1994 et 2000, 262 sociétés se sont introduites sur le Second Marché
et 165 sur le Nouveau Marché. Nous avons écarté celles dont l’une des variables suivantes était indisponible : la rentabilité initiale anormale, le volume
moyen échangé, l’indicateur d’augmentation de capital, le flottant en titres,
la part de capital conservée par le dirigeant après l’introduction, la taille et
l’indicateur d’activité du marché primaire. L’échantillon est donc «cylindré»
au regard de ces variables. Il comprend 218 sociétés dont 57 appartiennent
au Nouveau Marché et 161 au Second Marché. Les analystes d’I/B/E/S ont
émis des prévisions sur 171 d’entre elles, soit 78.4%.
Année
1994
1995
1996
1997
1998
1999
2000
Nb total introductions
Nouveau Marché Second Marché
33
26
18
33
20
43
43
76
32
33
52
18
échantillon : % du nb total introductions
Nouveau Marché
Second Marché
66.7%
53.8%
16.7%
81.8%
50%
74.4%
32.6%
54%
47%
57.6%
28.8%
33.3%
Tab. 4.1 – Représentativité de l’échantillon du chapitre 4
Notre échantillon inclut environ 60% des sociétés introduites sur le Second Marché entre janvier 1994 et décembre 2000, et un tiers de celles admises
à la cote du Nouveau Marché entre janvier 1996 et décembre 2000. Le tableau 4.1 appelle deux remarques. Premièrement, les sociétés introduites sur
le Second Marché en 1994, 1996, 1997 et 1999, ou sur le Nouveau Marché
en 1997 et 1999 sont les mieux représentées dans l’échantillon. Les taux de
représentativité sont faibles en 2000 car notre période d’étude s’achève le 30
juin 2000. Le nombre de sociétés introduites au cours du premier semestre
2000 et présentes dans l’échantillon est donc rapporté à un nombre annuel
d’introductions. Deuxièmement, l’échantillon est plus typique des introductions sur le Second Marché que sur le Nouveau Marché. En effet, les prospectus des sociétés introduites sur le Nouveau Marché n’étaient pas consultables
Chapitre 4
141
à la COB. Notre échantillon ne comprend donc que les sociétés du Nouveau
Marché ayant répondu à notre demande de prospectus.
Description
Le tableau 4.2 caractérise les émetteurs et les émissions de l’échantillon,
ainsi que leur couverture par les analystes financiers d’I/B/E/S.
Variables
Âge (année intro t0 - année création)
Taille (ln chiffre d’affaires année t0 -1)
AD (part de capital du dirigeant post intro)
Erreur-dirigeant (-1 + BPA prévu/BPA réel)
Montant introduit (en millions francs)
Flottant (% du capital rendu public)
VOL-ECH (volume moyen de titres échangés
les 25 premiers jours de cotation)
RIA (rentabilité initiale anormale)
NAF (nb analystes indépendants suivant
la société)
NEST (nb estimations diffusées)
Délai de couverture (date 1ère estimation
- date d’introduction, exprimé en jours)
moyenne
27.1
5.45
54.4
1.09
140
22.5
23013
médiane
16
5.32
65.9
0.013
57
20
13929
écart-type
32.2
1.89
30.3
3.29
265
13.3
24182
N
218
218
218
128
218
218
218
0.23
3.57
0.089
2
0.821
3.11
218
171
19.3
122
11
101
20.4
101
171
171
Tab. 4.2 – Statistiques descriptives du chapitre 4
Les sociétés de l’échantillon attendent en moyenne 27 ans avant de s’introduire en bourse. Elles réalisent un chiffre d’affaires moyen de 233 millions de
francs (35.5 millions d’euros). Les dirigeants conservent la majorité du capital
après l’introduction. Leurs estimations de résultat sont de qualité très disparate. Les sociétés de l’échantillon lèvent en moyenne 140 millions de francs
(21.3 millions d’euros), soit 22.5% du capital. 23 013 titres sont en moyenne
échangés les 25 premiers jours de cotation. Les titres introduits s’avèrent
sous-évalués en moyenne de 23% par rapport au prix d’offre. Dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction, trois analystes
et demi suivent en moyenne une société et produisent une vingtaine d’estimations. La première prévision est enregistrée environ 4 mois après la date
d’introduction. Das et alii (2002) retiennent le nombre d’analystes ayant suivi
l’introduction les trois premiers mois de couverture, nécessairement compris
dans les trois premières années de cotation. La moyenne mensuelle constitue
leur mesure de l’intensité de la couverture. Elle s’élève à 2.03/1.56 lorsque
la couverture débute au cours du premier/second semestre post introduction. Selon Chang et alii (2000), 23.2 analystes suivent en moyenne dans les
142
Chapitre 4
bases d’I/B/E/S, les trente plus grandes capitalisations boursières françaises
en novembre 1996, soit un peu moins d’un analyste par société. À titre de
comparaison, rappelons que sur notre échantillon, 3.5 analystes s’intéressent
en moyenne à une société au cours de sa première année boursière. Toutes
choses égales par ailleurs, les sociétés semblent donc particulièrement attirer
les analystes lors de leur admission à la cote.
La couverture d’une société introduite varie selon les années (tableau 4.3).
Année
1994
1995
1996
1997
1998
1999
2000
Suivi par les analystes (PAF)
oui (1) non (0) fréquence PAF=1
12
10
54.5
11
3
78.6
29
1
96.7
37
5
88.1
42
13
76.4
27
7
79.4
13
8
61.9
Nombre d’analystes (NAF)
moyenne médiane écart-type
4.58
2
5.28
3.55
3
3.01
4.62
3
3.37
3.19
2
2.99
3.14
2
2.63
3.63
3
2.57
2.61
1
2.76
Tab. 4.3 – Couverture des sociétés de l’échantillon par année
54.5% des sociétés de l’échantillon sont suivies en 1994, contre en moyenne
80% entre 1995 et 1999. Sur leur échantillon, Das et alii (2002) obtiennent
un taux de couverture de 75% en 1994 et 83% en 1995. 96.7% des sociétés
introduites en 1996 et présentes dans l’échantillon s’avèrent suivies. Au minimum 4.5 analystes assurent en moyenne la couverture d’un titre introduit
en 1994 et 1996. Ils sont en moyenne 3.5 en 1995, 1997, 1998 et 1999, et
seulement 2.6 en 2000. Les titres introduits une année i sont suivis à 50%
par deux ou trois analystes, dans l’intervalle [-6 mois, +12 mois] autour de
la date d’introduction.
Les variations annuelles du niveau de couverture, notamment entre 1994 et
1995, peuvent refléter l’intérêt changeant de la communauté financière pour
le marché primaire. Mais elles peuvent aussi résulter de l’évolution de l’offre
globale de services informationnels. Afin de trancher la question, nous avons
extrait d’I/B/E/S :
- le nombre total d’analystes ayant suivi les marchés français entre janvier
1994 et décembre 2000 ;
- le nombre total d’analystes ayant transmis des estimations sur les introductions au Second Marché et Nouveau Marché, dans l’intervalle [-6 mois, +12
mois] autour de la date d’introduction. Les introductions sont réalisées entre
le 01/01/1994 et le 31/12/2000 ;
- le nombre total d’analystes ayant formulé des prévisions sur les sociétés de
Chapitre 4
143
l’échantillon dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction.
Le tableau 4.4 récapitule ces informations.
année
1994
1995
1996
1997
1998
1999
2000
marchés français
4785
7090
6356
5516
5422
5314
4998
Nombre total d’analystes suivant
intro. SM et NM (1) échantillon (2)
65
62
39
37
118
95
102
86
102
87
99
79
70
35
100 x (2)/(1)
95.4%
94.9%
80.5%
84.3%
85.3%
79.8%
50.0%
Tab. 4.4 – Nombre d’analystes dans les bases d’I/B/E/S
Le nombre total d’analystes couvrant les marchés français dans les bases
d’I/B/E/S a augmenté de 32% entre 1994 et 1995. Deux raisons sont possibles. Entre 1994 et 1995, le marché de l’analyse financière a pu fortement
croı̂tre ; ou bien I/B/E/S a pu compléter ses bases. Le marché primaire n’a
pas bénéficié de la croissance observée. Ainsi, 39 analystes ont couvert les
sociétés introduites en 1995 au cours de leur première année boursière, contre
65 en 1994. Par ailleurs, les opérations ont été aussi nombreuses en 1994 qu’en
1995 (voir tableau 4.1). Seul un moindre intérêt de la communauté financière
pour le marché primaire peut donc expliquer que les sociétés de l’échantillon
introduites en 1994 soient suivies dans une moindre proportion que celles
introduites en 1995. Depuis 1995, le nombre total d’analystes suivant les
valeurs françaises dans I/B/E/S a diminué pour se stabiliser aux environs
de 5000. Seulement 1 à 2% de cette offre globale s’intéressent aux sociétés
introduites sur le Nouveau Marché ou le Second Marché. Les analystes qui
suivent les sociétés de notre échantillon représentent plus de 80% du nombre
total d’analystes affectés à la couverture des introductions sur le NM et le
SM dans les bases d’I/B/E/S. La proportion est plus faible en 2000 (50%)
car l’échantillon n’inclut que les sociétés introduites au cours du premier semestre 2000.
Dans le tableau 4.5, les 171 sociétés de l’échantillon suivies par les analystes d’I/B/E/S sont réparties selon leur délai de couverture.
Les analystes semblent en majorité émettre leur première estimation sur
un titre introduit après quatre mois de cotation. Treize sociétés de l’échantillon
sont suivies par les analystes avant même leur introduction en bourse. Au
bout de 6 mois, 73% des sociétés de l’échantillon sont couvertes. Les analystes
144
Chapitre 4
Nombre de mois
après introduction
avant introduction
date intro. + 1 mois
date intro. + 2 mois
date intro. + 3 mois
date intro. + 4 mois
date intro. + 5 mois
date intro. + 6 mois
date intro. + 7 mois
date intro. + 8 mois
date intro. + 9 mois
date intro. + 10 mois
date intro. + 11 mois
date intro. + 12 mois
effectifs
N
13
21
25
16
23
19
9
8
9
8
7
6
7
fréquence
en %
N/171
6.5
12.4
14.8
9.5
13.6
11.2
5.3
4.7
5.3
4.7
4.1
3.6
4.1
fréquences cumulées
échantillon Nouveau Second Marché
total
Marché
Marché
6.5
0
8.7
18.9
7
23
33.7
11.6
41.3
43.2
23.3
50
56.8
44.2
61.1
68
60.5
70.6
73.4
65.1
76.2
78.1
72.1
80.2
83.4
81.4
84.1
88.2
86
88.9
92.3
90.7
92.9
95.9
95.3
96
100
100
100
Tab. 4.5 – Distribution délai de couverture
paraissent plus prompts à couvrir les sociétés du Second Marché que du Nouveau Marché. Sur notre échantillon, 50% des sociétés du Second Marché sont
suivies trois mois après l’introduction, contre 23% des sociétés du Nouveau
marché. Le retard est rattrapé le onzième mois de cotation : la proportion
des sociétés couvertes est alors identique sur les deux marchés. Les analystes
semblent donc différer leur décision de couverture des titres admis à la cote
du Nouveau Marché. Le caractère spéculatif des introductions sur le Nouveau
Marché pourrait expliquer l’attentisme des analystes.
4.3
Les résultats de l’étude empirique
Nos hypothèses sont testées sur un échantillon de 218 sociétés introduites
sur le Nouveau Marché entre le premier janvier 1996 et le 30 juin 2000, ou le
Second Marché entre le premier janvier 1994 et le 30 juin 2000.
4.3.1
Les résultats des tests univariés
Le tableau 4.6 rapporte la matrice des corrélations bi-variées. Il met tout
d’abord en évidence des corrélations significatives entre le suivi des analystes
et des variables approchant les coûts ou les bénéfices attendus du suivi, au
seuil de 5% (**) ou de 10% (*).
Le nombre d’analystes (NAF) et le nombre d’estimations diffusées sur
la société introduite (NEST) sont ainsi reliés positivement et significative-
NAF
NEST
Délai
PAF
VOL-ECH
AUG
AD
Taille
Erreur-dirigeant
AMP
Flottant
CAPPUB
NAF
1
NEST
0.911**
1
Délai
-0.380**
-0.351**
1
VOL-ECH
0.390**
0.395**
-0.160*
0.162*
1
AUG
0.032
0.010
0.084
0.123
-0.015
1
AD
-0.154*
-0.143
-0.142
0.063
-0.239**
-0.005
1
Taille
0.285**
0.264**
-0.087
0.107
0.159*
-0.161*
-0.049
1
Erreur-dirigeant
-0.211*
-0.228*
0.208*
-0.048
-0.133
0.172
-0.158
0.007
1
Tab. 4.6 – Rhô de Spearman - chapitre 4
1
PAF
AMP
0.069
-0.008
0.017
0.073
0.152*
-0.027
-0.002
0.085
-0.127
1
Flottant
-0.011
0.044
0.085
-0.018
0.160*
0.119
-0.482**
-0.195**
0.136
-0.143*
1
CAPPUB
0.227**
0.268**
0.014
0.065
0.548**
-0.017
-0.352**
0.096
0.009
-0.028
0.376**
1
Chapitre 4
145
146
Chapitre 4
ment, au seuil de 5%, au volume moyen des titres échangés les vingt-cinq
premiers jours de cotation (VOL-ECH), au nombre d’actions en circulation
(CAPPUB) et à la taille de la société (taille). Le nombre d’analystes et le
délai de couverture (Délai) sont liés négativement et significativement à l’erreur de prévision du dirigeant (erreur-dirigeant). Le nombre d’analystes
est corrélée négativement, au seuil de 10%, à part de capital détenue par le
dirigeant après l’introduction (AD). Certaines variables explicatives apparaissent également significativement corrélées entre elles. Le nombre moyen
de titres échangés les vingt-cinq premiers jours de bourse est lié positivement à la taille (0.16*), à l’indicateur d’activité du marché primaire AMP
(0.15*), au nombre d’actions en circulation CAPPUB (0.548**) et au flottant (0.16*) ; négativement à la fraction de capital conservée par le dirigeant
(-0.24**). Le coefficient de corrélation entre la fraction de capital conservée
par le dirigeant (AD) et le nombre d’actions en circulation (CAPPUB) vaut
-0.352 et est statistiquement différent de 0 au seuil de 5%. Enfin le flottant est
relié négativement à la taille (-0.19**), à la part de capital détenue par le dirigeant (-0.48**) et à l’indicateur d’activité du marché (-0.14*) ; positivement
au nombre d’actions en circulation (0.376**).
Nous avons ensuite mesuré l’effet de l’activité du marché primaire (faible/forte), du marché d’introduction (NM/SM), de la réalisation ou non d’une
augmentation de capital dans les trois ans subséquents à l’introduction, sur
l’intensité et la rapidité de la couverture des analystes. Nous avons également
testé si les sociétés présentaient des caractéristiques différentes selon leur suivi
ou non par les analystes d’I/B/E/S. Le tableau 4.7 récapitule les différences
de moyennes significatives obtenues, au seuil de 10% (*), 5% (**) ou 1%
(***).
Impact Marché
NAF
délai
Impact suivi analystes (PAF)
VOL-ECH (vol. moyen
des titres échangés)
PER (prix offre / BPA t0 -1)
Montant introduit
(en millions de francs)
Moyen. NM/SM
2.84/3.82
150/112
Moyen. 0/1
17623/24495
Dif. moy.
-0.98
37
Dif. moy.
-6872
Stat. t
-2.07**
2.22**
Stat. t
-1.925*
Sig.
0.041
0.030
Sig.
0.058
N
44/127
44/127
N
47/171
-254/19.9
82.4/159
-274
-76.6
-1.973**
-1.782*
0.043
0.076
47/171
47/171
Tab. 4.7 – Caractéristiques des sociétés selon leur marché d’introduction et
leur suivi par les analystes
Les analystes semblent significativement plus nombreux, au seuil de 10%,
à suivre une société introduite sur le Second Marché. Un plus faible degré
Chapitre 4
147
d’asymétrie et donc un moindre coût de production de l’information caractérisent le Second Marché comparé au Nouveau Marché. Les sociétés suivies lèvent en moyenne significativement plus de fonds que les sociétés non
suivies : 159 millions de francs, contre 82. Elles semblent également offrir de
meilleures perspectives de croissance. Leur PER moyen est en effet positif et
significativement plus élevé. Leur marché de titres paraı̂t enfin significativement plus animé.
4.3.2
Les résultats des tests multivariés
Les régressions multivariées
Le nombre d’analystes suivant la société (NAF), le nombre d’estimations
diffusées (NEST) et le délai de couverture (délai) sont régressés sur des
variables mesurant les coûts et bénéfices espérés du suivi.
Les régressions sont menées sur 171 observations. Le tableau 4.8 reprend
les modèles de régression les plus significatifs obtenus. Les t de Student sont
donnés entre parenthèses, tandis que des étoiles indiquent leur significativité : 10% (*), 5% (**), 1% (***), 0.1% ****. Les facteurs d’inflation de la
variance, en italique (VIF ), permettent de contrôler la multicolinéarité des
variables explicatives. L’indépendance linéaire implique un VIF égal à 1 ; la
colinéarité, un VIF supérieur à 10.
Le volume moyen de titres échangés les 25 premiers jours de cotation
(VOL-ECH), l’indicateur d’une émission d’actions post introduction (AUG),
le nombre d’actions mises à la disposition du public (CAPPUB), la taille
de la société (taille), la fraction de capital conservée par le dirigeant après
l’introduction ((AD) et la variable mesurant l’activité du primaire (AMP)
ont un coefficient significativement différent de 0.
La quantité moyenne de titres échangés les vingt-cinq premiers jours de
bourse, le flottant en titres et l’indicateur d’une augmentation de capital
après l’introduction approchent les bénéfices espérés du suivi d’une société.
Ils influencent de manière positive et significative, respectivement aux seuils
de 0.1% (modèles 1 à 3), 5% (modèle 3) et 10% (modèle 2), le nombre d’analystes suivant la société. Nous validons ainsi les hypothèses H1 et H2. Sur le
marché secondaire américain, le nombre d’actions en circulation (Saberwhal
et Smith, 1999) détermine également positivement et significativement l’intensité de la couverture. Dans l’étude de Bricker et alii (1999), les valeurs
de marché des actions émises/échangées approchent les commissions de placement/de courtage espérées. Elles ont un impact positif et significatif sur le
Chapitre 4
148
Variable dépendante
Modèle
Constante
VOL-ECH
CAPPUB
AUG
Taille
AD
AMP
F
R2 ajusté
N
1
2.285****
(7.517)
5.24 10−5
(6.010)****
1
*
36.1****
0.171
171
NAF
2
2.608***
(0.010)
4.94 10−5
(5.582)****
1.083
0.933
(1.731)*
1.035
0.215
(1.968)*
1.034
-0.015
(-1.869)*
1.229
10.0****
0.210
171
3
-0.293
(-0.333)
3.66 10−5
(3.152)****
1.641
8.37 10−7
(2.155)**
1.557
0.416
(2.89)***
1.071
13.0****
0.261
171
4
11.14
(5.56)****
3.3 10−4
(5.819)****
1.00
33.9****
0.162
171
NEST
5
2.876
(0.632)
3.3 10−4
(5.799)****
1.004
6.551
(1.832)*
1.023
1.281
(1.761)*
1.027
13.4****
0.180
171
6
-6.875
(-1.07)
2.4 10−4
(2.82)***
1.652
4.88 10−6
(1.690)*
1.565
7.682
1.966
1.036
3.075
(2.834)***
1.107
-6.223
(-1.774)*
1.011
8.06****
0.217
171
-0.609
(-2.311)**
1.079
7.86***
0.063
171
-0.956
(-2.804)***
1
Délai
7
8
169
183
(8.495)**** (7.95)****
-0.001
(-1.687)*
1.079
3.28**
0.026
171
Tab. 4.8 – Explication du niveau et du délai de couverture d’une société nouvellement cotée
Chapitre 4
149
nombre d’analystes suivant la société.
Lorsque le nombre d’estimations diffusées, et non le nombre d’analystes,
mesure l’intérêt des analystes pour une société, les résultats précédents sont
confortés (modèles 4 à 6). Seule la part de capital conservée par le dirigeant
voit son pouvoir explicatif disparaı̂tre. Par contre, l’activité du marché primaire apparaı̂t reliée négativement et significativement, au seuil de 10%, au
nombre d’estimations (modèle 6). Le dynamisme du marché était supposé
générer des externalités informationnelles et donc diminuer le coût de production de l’information. Au vu des résultats, il semble plutôt contraindre
l’offre d’information des analystes. Notre hypothèse H3 est infirmée. Dans
l’étude de Das et alii (2002), l’activité du marché primaire est mesurée par
le nombre d’entreprises du même secteur et introduites la même année, que la
société considérée. Elle ne détermine pas significativement le nombre d’analystes suivant la société.
Par ailleurs, plus la société est de grande taille et plus les analystes s’y
intéressent (modèles 2 et 3). La notoriété et la richesse de l’environnement
informationnel des grandes sociétés pourraient attirer les analystes, malgré
une activité plus complexe à évaluer. Globalement, le coût de production de
l’information pour les analystes semble diminuer avec la taille de l’entreprise.
La taille, mesurée par le logarithme de l’actif total, et le nombre d’analystes
sont également liés positivement et significativement sur l’échantillon de 2510
sociétés appartenant à 27 pays de Lang et alii (2002). Les autres études obtiennent une relation similaire mais approchent la taille par la capitalisation
boursière. Ainsi mesurée, la taille est implicitement associée aux bénéfices
attendus du suivi. Nous avons choisi un autre proxy de la taille, afin qu’elle
estime le coût anticipé du suivi. Nous validons l’hypothèse H4.
Le nombre d’analystes suivant la société diminue avec la part de capital
détenue par le dirigeant après l’introduction, mais au seuil de 10% seulement
(modèle 2). La faible significativité du coefficient de régression ne nous permet de vérifier que partiellement l’hypothèse H5. Une structure du capital
fermée implique un faible partage de l’information et donc un coût de collecte de l’information élevé. Par ailleurs, le nombre d’outsiders susceptibles
d’acquérir des informations privées auprès des analystes diminue avec la participation au capital des insiders. Les analystes ont donc probablement moins
intérêt à suivre les sociétés dont les gérants sont fortement impliqués dans
le capital. Nos observations rejoignent celles de Bhushan (1989), Marston
(1997), Bricker et alii (1999 et 2000), Saberwhal et Smith (1999) et Lang et
alii (2002).
150
Chapitre 4
Enfin, nous avons régressé le délai de couverture sur les coûts et bénéfices
attendus du suivi. Les analystes suivent d’autant plus rapidement un titre
que son marché est animé (modèle 7). Nous confirmons l’hypothèse H1.
Sur notre échantillon, la rétention de capital par le dirigeant accélère significativement, aux seuils de 5 et 1%, la couverture de la société par les analystes
(modèles 7 et 8). Nous escomptions le résultat contraire (H5). L’anticipation de moindres conflits d’agence pourrait décider les analystes à suivre les
sociétés de type familiales. Les analystes pourraient encore considérer l’engagement du dirigeant comme un signal de qualité, conformément au modèle
de Leland et Pyle (1977).
Les coefficients de détermination des modèles 1 à 5 varient de 16.2% à
26.1%. Ils sont inférieurs à ceux observés dans la littérature (voir tableau
4.8), entre autres parce qu’obtenus sur un plus petit échantillon. La qualité
d’ajustement des modèles 1 à 5 est supérieure à celle des modèles explicatifs
du délai de couverture.
Les régressions logistiques binaires
Le modèle logit suivant est testé sur notre échantillon de 218 introductions :
1
P (P AFi ) =
1 + exp −[α + Xi 0 β]
où P (P AFi ) est la probabilité qu’au moins un analyste d’I/B/E/S prédise
le BPA de la société i dans l’intervalle [-6 mois, +12 mois] autour de la date
d’introduction. Xi regroupe les variables mesurant les coûts et bénéfices attendus de la couverture.
Le tableau 4.9 présente les modèles logit les plus significatifs. Il spécifie le
coefficient β, la statistique de Wald entre parenthèses et son seuil de significativité (10% (*), 5% (**) et 0.1% (****). Le pouvoir explicatif des variables
ci-après s’est révélé significatif : AUG, égale à 1 si la société a augmenté
son capital dans les trois ans suivant son introduction et 0 sinon ; taille,
équivalente au logarithme népérien du chiffre d’affaires réalisé un an avant
l’introduction en bourse. Enfin le secteur d’activité de la société a été
intégré comme variable de contrôle. Il vaut 1 pour le secteur des NTIC et 0
sinon.
Les analystes travaillent souvent pour une maison de courtage affiliée
à une banque d’investissement. Nous avons supposé qu’ils étaient incités
à repérer de futurs clients pour la banque, comme les sociétés envisageant
Chapitre 4
151
Modèles
Constante
AUG
Taille
Secteur
χ2
R Cox Snell
N
2
Variable dépendante : PAF
A
B
C
1.16
-0.344
0.592
(43.9****) (0.147) (3.99**)
0.981
1.21
(3.11*)
(4.47**)
0.344
(3.84**)
0.089
(4.95**)
3.78*
4.24**
8.95**
0.017
0.033
0.040
218
218
218
Tab. 4.9 – Probabilité de couverture d’une société : modèles logit
de lever des fonds peu après leur introduction. Au vu des résultats de la
régression logistique, les analystes sont d’autant plus enclins à suivre la
société qu’elle émet des actions après son introduction en bourse. L’hypothèse
H3 est confirmée. La probabilité pour une société d’être couverte au cours
de la première année de cotation augmente par ailleurs avec sa taille. La
taille de l’entreprise facilite l’accès à l’information. Par contre, elle accroı̂t la
complexité de l’activité et la difficulté de l’évaluation. Mais le moindre coût
de collecte de l’information semble l’emporter sur l’augmentation du coût de
production de l’information, et donc décider les analystes de s’intéresser aux
sociétés de grande taille. Enfin, nos résultats attestent que les analystes choisissent de suivre une société en fonction de son secteur d’activité. Lang et alii
(2002) sur un échantillon international ; Saberwhal et Smith (1999), Rajan et
Servaes (1997), Bhushan (1989) sur le marché secondaire américain ; Marston
(1997) sur le marché secondaire britannique et enfin Das et alii (2002) sur
le marché primaire américain obtiennent des résultats similaires. En particulier, sur notre période d’étude, les analystes semblent être nombreux à suivre
les sociétés de la nouvelle économie. Les gains espérés du suivi paraissent
excéder le coût marginal de production d’information sur ces sociétés.
L’analyse de survie
Les régressions multivariées et logistiques binaires expliquent, à un instant
t, respectivement le nombre d’analystes suivant une société ou sa probabilité de couverture. Elles analysent donc de manière statique le phénomène
de couverture. En outre, elles ne prennent pas en compte les sociétés suivies
après la date considérée ou dont l’état (suivi/non suivi) est inconnu en t.
152
Chapitre 4
L’analyse de survie intègre ces informations. Elle estime le risque instantané d’apparition d’un évènement en fonction du temps et éventuellement
de paramètres. La méthode non paramétrique de Kaplan-Meier permet de
prédire la probabilité, pour un nouvel admis à la cote, d’être suivi rapidement dans sa première année de vie boursière. Le modèle semi-paramétrique
de Cox évalue l’espérance de couverture d’une société dans l’année suivant
son introduction, en fonction de plusieurs facteurs. Nous appliquons ces deux
méthodes qui nécessitent préalablement de définir les données de survie.
• Les données de survie
11 sociétés ont été exclues de l’échantillon initial de 218. Suivies avant
leur introduction en bourse, elles présentaient en effet une variable de temps
négative. L’analyse de survie a donc été menée sur les 207 sociétés restantes,
exposées au risque de couverture. 26 sociétés sur les 207 ont été suivies par les
analystes mais plus d’un an après leur introduction. À la date de point, leur
état est «non suivi» (PAF = 0). Ces 26 sociétés constituent donc des «exclues vivantes». L’état de 21 autres sociétés est inconnu à la date de point.
Autrement dit, ces sociétés n’apparaissent jamais dans les bases d’I/B/E/S
entre 1994 et le 31/12/2000. Elles représentent des «perdues de vue». Au
total, 47 des 207 sociétés sont des observations censurées.
• La méthode de Kaplan-Meier
À partir de durées de vie observées (y compris les censurées), la méthode
de Kaplan Meier évalue la proportion des individus qui survivraient une durée
donnée dans les mêmes circonstances. L’estimation est réalisée à la date de
chaque évènement. Dans notre cas, la fonction de survie estimée avec le
modèle de Kaplan-Meier correspond au pourcentage cumulé des sociétés non
suivies à un instant t. Elle donne la probabilité pour une société j, de ne pas
Q
ck
être couverte à l’instant t. Soit encore : S(tj ) = jk=1 1 − nc
où ck est le
k
nombre d’introductions suivies au cours de l’intervalle de temps tk et nck le
nombre de sociétés non suivies juste avant tk .
La figure 4.1 représente la fonction 1 - S(tj ), c’est-à-dire la probabilité
qu’au moins un analyste émette une prévision sur la société j à l’instant t,
sachant que la société n’était pas suivie au début de l’intervalle de temps. La
probabilité conditionnelle est calculée à chaque fois qu’une nouvelle société
est couverte. Elles croı̂t au cours de la première année de cotation. Elle s’élève
à 34% au 89ème jour, à 50% le 133ème jour (délai médian de couverture) et
à 62% le 179ème jour. À partir d’un échantillon de sociétés admises à la
Chapitre 4
153
cote américaines, Das et alii (2002) trouvent au contraire une probabilité
conditionnelle décroissante avec le temps. Elle passe de 46.67% le premier
trimestre, à 33.3% le second trimestre, 21.3% le troisième trimestre et 13.37%
le dernier trimestre. Sur notre échantillon, une société a 85% de chances d’être
couverte dans les 300 premiers jours de cotation, et donc 15% au-delà. La
procédure de Kaplan-Meier s’arrête le 855ème jour. Autrement dit, sur notre
échantillon, une société a très peu de chances d’être suivie passés 855 jours de
bourse. Das et alii (2000) établissent que 83% des sociétés de leur échantillon
sont couvertes avant leur troisième anniversaire d’introduction.
Fig. 4.1 – Représentation 1-fonction de survie estimée par la méthode de
Kaplan-Meier
La procédure de Kaplan Meier permet également d’apprécier l’effet d’un
paramètre sur le taux de survie. Les sociétés doivent alors réparties en deux
groupes, selon un critère dichotomique : leur marché d’introduction (NM/SM),
l’activité du marché primaire (forte/faible) ou l’indicateur d’augmentation de
capital (0/1) par exemple. Pour chacun des critères retenus, les fonctions (1fonction de survie cumulée) des deux groupes de sociétés sont représentées
graphiquement. La statistique Log rank permet de juger si les deux courbes
diffèrent significativement, c’est-à-dire si le critère a un effet significatif sur
le taux de survie. Sur notre échantillon, la volonté d’à nouveau faire appel
public à l’épargne, l’introduction sur le Second Marché ou en période de forte
activité du marché n’augmentent pas significativement la probabilité, pour
154
Chapitre 4
une société, d’être suivie plus rapidement au cours de sa première de cotation.
• Le modèle de Cox
Contrairement à la méthode de Kaplan-Meier, le modèle de Cox permet
d’analyser simultanément les effets de plusieurs variables sur le délai de couverture. D’une façon générale, il estime la probabilité hi (t) qu’un événement
particulier affecte à l’instant t un individu i, encore épargné au début de
l’intervalle de temps. hi (t) s’écrit comme le produit d’une fonction de hasard
de base h0 (t) et d’une fonction linéaire de j co-variables Xi . Soit encore :
hi (t) = S0 (t)exp(b1 X1 + b2 X2 ... + bj Xj ).
Nous appliquons ce modèle général à notre étude. La variable PAF constitue l’évènement étudié. Elle vaut 1 si la société est couverte par les analystes
dans les 365 jours suivant son introduction, 0 sinon. La date d’origine est la
date d’introduction en bourse de la société. Le 31/12/2000 est la date des
dernières nouvelles (date de la dernière estimation présente dans les bases
d’I/B/E/S). Les co-variables Xj mesurent les coûts et bénéfices attendus du
suivi. Le délai séparant la date d’origine de la date de survenue de l’évènement
équivaut à la variable de temps T. Les dates de point s’obtiennent en ajoutant 365 jours aux dates d’introduction.
Sur le sous-échantillon de 207 sociétés, le modèle le plus significatif obtenu
est le suivant : h(t) = h0 (t) × exp(0.008 × AD + 1.1 × 10−5 × VOL-ECH) où
AD est la part de capital conservée par le dirigeant après l’introduction
et VOL-ECH, le volume moyen des titres échangés les vingt-cinq premiers
jours de cotation. Il est spécifié dans le tableau 4.10.
AD
VOL-ECH
χ2
N
B
0.008
1.110−5
Wald
Sig.
7.80**
0.05
13.3**** 0.000
17.1****
207
exp(B)
1.008
1.1 10−5
Tab. 4.10 – Modèle de Cox
Les coefficients de régression B diffèrent significativement de 0, aux seuils
de 5% et 0.1%. Ils sont positifs. En conséquence, les deux co-variables favorisent la survenue de l’évènement. Les analystes étaient présumés attirés
par les titres au marché animé, car vecteurs de commissions de courtage. Sur
notre échantillon, le risque instantané de couverture augmente effectivement
Chapitre 4
155
avec le volume moyen échangé, toutes choses égales par ailleurs. Par exemple,
si le nombre moyen de titres échangés augmente de 10 000, la probabilité
de couverture à l’instant t s’accroı̂t de 100 × [1 − exp(1.1 × 10−5 × 10000)]
= 12%. Par ailleurs, le coût de production était supposé diminuer avec le
désengagement du dirigeant. Sur notre échantillon, la probabilité pour une
société d’être suivie à la date t s’avère en réalité croı̂tre avec l’actionnariat du dirigeant. Ainsi, si le dirigeant décide de conserver 10% d’actions
supplémentaires, il augmente de 8.3%7 les chances de la société d’être suivie par les analystes à la date t. La théorie du signal pourrait expliquer ce
résultat contraire à nos anticipations. Leland et Pyle (1977) montrent en effet
dans leur modèle que la rétention de capital par le dirigeant signale efficacement la qualité de la société. Les analystes seraient alors incités à suivre les
sociétés familiales.
Enfin, la qualité d’ajustement du modèle est bonne, avec un Khi-deux de
17.1, significatif au seuil de 0.1%.
La fonction de survie S(t) désigne la probabilité de survie d’un individu
au-delà de l’instant t. Dans notre cas, elle correspond à la probabilité qu’aucun analyste ne suive la société considérée à la date t. Le modèle de Cox
propose une autre estimation de la fonction S(t) que la méthode de Kaplan Meier : S(t) = [S0 (t)]exp β x . S0 (t) est la fonction de de survie dont
les co-variables AD et VOL-ECH sont nulles. Elle est dénommée fonction
de référence. Par défaut sont prises, dans la deuxième partie de la fonction
(exp β x), les moyennes des co-variables. 1 - S(t) cumulée à la moyenne des
co-variables est la probabilité qu’une société soit couverte le tème jour de sa
première année de cotation, l’impact des des co-variables AD et VOL-ECH
étant contrôlé. Sa représentation graphique (figure 4.2) rappelle celle de la
fonction 1-S(t) estimée par la méthode de Kaplan-Meier (figure 4.1). Elle
s’en démarque toutefois car elle prend en compte l’influence des paramètres
AD et VOL-ECH sur la probabilité de couverture.
Conclusion
Cette étude nous a tout d’abord permis de caractériser la couverture du
marché primaire français par les analystes financiers d’I/B/E/S. En moyenne
sur notre échantillon, 3.5 analystes produisent une vingtaine d’estimations
sur une société pendant la première année boursière. La première prévision
apparaı̂t en moyenne quatre mois après l’introduction. Nous obtenons un
taux de couverture de 78%, avec de faibles variations annuelles sur la période
7
8.3% = 100 × [1 − exp(0.008 × 10)]
156
Chapitre 4
Fig. 4.2 – Représentation 1 - fonction de survie estimée par la méthode de
Cox
étudiée. Toutefois, l’intérêt des analystes pour le marché primaire semble
moindre en 1994, où seulement 54% des sociétés introduites sont couvertes. La
probabilité instantanée de couverture croı̂t fortement au cours de la première
année de cotation. Elle atteint 85% au 300ème jour. 15% des sociétés de
l’échantillon ont été suivies plus d’un an après leur introduction.
L’objectif était ensuite d’identifier les facteurs explicatifs du niveau de
couverture. Les analystes ont été présumés décider en fonction des coûts et
bénéfices attendus du suivi. Les résultats montrent que le nombre d’analystes
augmente avec le volume moyen des titres échangés les 25 premiers jours de
bourse, le nombre de titres mis à la disposition du public et la réalisation
d’une augmentation de capital subséquente à l’introduction. Ces variables approchaient les commissions de courtage et de placement attendues du suivi.
Les coûts de production de l’information étaient eux supposés diminuer avec
la taille de la société, la faible implication du dirigeant dans le capital et
la forte activité du marché primaire. Sur notre échantillon, la taille de la
société accroı̂t significativement son niveau de couverture. L’actionnariat du
dirigeant est relié négativement et significativement au nombre d’analystes,
mais seulement au seuil de 10%. Les titres introduits en période de forte
activité du marché semblent moins suivis par les analystes, peut être parce
que trop risqués ou spéculatifs.
Chapitre 4
157
Enfin nous avons mesuré, grâce à une analyse de survie, l’influence des caractéristiques exogènes précédentes sur la probabilité instantané de couverture. Nous trouvons que le nombre moyen de titres échangés a un effet positif
et significatif sur le délai de couverture. Par ailleurs, une société semble avoir
d’autant plus de chances d’être suivie à l’instant t que son dirigeant participe
au capital. La théorie du signal pourrait expliquer ce résultat contraire à nos
anticipations. Dans ce cadre, les analystes interpréteraient la rétention de
capital par le dirigeant comme un signal de qualité.
Au vu des résultats, les analystes semblent bien suivre les titres susceptibles d’induire des commissions de courtage et/ou de placement supérieures
au coût de production de l’information. Ils satisfont ainsi les intérêts de leur
employeur sans préjudice personnel.
Dans la deuxième partie de cette thèse, nous avons évalué la qualité de
l’information diffusée sur les sociétés introduites en bourse. Nous avons expliqué le comportement des producteurs d’information, dans une perspective d’agence. Notre démarche positiviste invite à une action normative. Les
résultats obtenus dans les trois premiers chapitres suggèrent quelques moyens
d’améliorer l’environnement informationnel des introductions en bourse.
Le chapitre 2 montre que le dirigeant publie des prévisions plus exactes, sous
les pressions des créanciers et du marché financier. Les mandants doivent
donc effectivement jouer leur rôle d’incitateur à la production d’information
de qualité. Ils pourraient négocier des clauses d’informations complémentaires
dans les contrats de prêt, de fourniture de biens ou de services.
Les chapitres 3 et 4 établissent que les analystes déterminent leur offre d’information principalement en fonction des préférences de leur employeur. Mais ce
schéma de décision peut conduire à la production d’informations biaisées. Il
renforce également les asymétries d’information entre sociétés. Les analystes
ne semblent en effet suivre que les introductions susceptibles de maximiser le
profit de leur employeur. Mais le jugement des analystes ne peut contribuer
à l’efficience des marchés que s’il est impartial et guidé par les intérêts des
investisseurs. Des mesures garantissant l’indépendance d’esprit des analystes
sont donc nécessaires. Par ailleurs, le régulateur pourrait recommander à la
société de joindre au prospectus, au moins une analyse financière réalisée par
une entreprise d’investissement indépendante de l’introducteur et ne participant pas à l’opération.
La troisième partie approfondit la réflexion sur les moyens d’améliorer la
qualité des informations disponibles sur les sociétés admises à la cote. Bien
que fondée sur la théorie du signal, elle prolonge la deuxième partie. Les in-
158
Chapitre 4
terrelations entre théorie de l’agence et théorie du signal sont en effet fortes.
En premier lieu, ces deux théories réfutent l’hypothèse de transparence de
la théorie néo-classique. Elles supposent l’information imparfaite et inéquitablement partagée. Ainsi, dans une relation d’agence, l’agent est mieux informé que le principal. La théorie des signaux, de son côté, part de l’avantage
informationnel des membres de l’organisation (insiders) sur les non-membres
(outsiders). Dans les deux cadres théoriques, l’information est considérée
comme un bien économique.
En second lieu, l’hypothèse classique d’unicité d’objectif est abandonnée.
Chaque individu est supposé avoir ses propres aspirations. Les divergences
de vue peuvent devenir conflictuelles.
En troisième lieu, théories de l’agence et du signal proposent des solutions
permettant au marché d’atteindre l’équilibre, malgré les problèmes d’agence
et d’asymétries informationnelles. Dans la théorie de l’agence, les individus engagent des coûts de dédouanement et de contrôle pour assurer la
convergence de leurs intérêts. Dans la théorie du signal, le dirigeant émet
un signal permettant aux investisseurs de valoriser exactement les titres
échangés. Mécanismes de gouvernement et de signalisation induisent des
coûts supplémentaires, prix du retour à l’équilibre et aux postulats néoclassiques.
Research
Holdings Ltd
2510 sociétés
1868 sociétés
2274 IPOs
195 sociétés
249 sociétés
1178 sociétés
510 recommandations
521 prévisions
Lang et al.
2002
Lang et lundholm
1996
Rajan et Servaes
1997
Bricker et al.
1999
Bricker et al.
2000
Saberwhal et Smith
1999
McNichols et O’Brien
1990
1990-1994
1995
1996
1996
1975-1987
1985-1989
1996
1996
Période
EU
EU
EU
EU
EU
EU
27
47
Pays
Observations
- Distribution
recommandations
analystes
- Test rangs
Wilcoxon
Régressions
MCO
Régressions
MCO
Régressions
MCO
Procédure
d’Heckman
1979
Régressions
MCO
Régressions
MCO
- Régressions
MCO
- Equations
simultanées
Méthode
73%
60%
33%
à
75%
45%
à
52%
∼
= 40%
36.3%
à
40.8%
R2
performances anticipées
taille (+), dette/capitaux propres (ns)
dispersion boursière (+)
corrélation rentabilités titre/marché (+)
nb activités (-), nb actions circulation (+)
nb invest. inst. (+), secteur, % capital insiders (-)
indice Herfindhal inv. inst. (-)
indice Herfindhal insiders (-)
% capital blocs non insiders (-)
nb blocs non insiders (-)
valeur de marché société (+)
β (-), part capital inv. inst (ns)
% capital insiders (-), nb activités (-)
nb implantations géographiques (-)
nb activités x nb zones géographiques (-)
complexité (-)
sous évaluation (+)
taille (+)
nombre sociétés même secteur depuis 3 ans (+)
nombre d’introductions (+)
valeur de marché des actions
échangées (+), émises (+), en circulation (+)
β (-), qualité info. compt. (+)
part capital insiders (-)
% capital inv. institutionnels (-)
Complexité (-)
qualité communication financière (+)
capitalisation boursière moyenne (+)
taille marché boursier (+)
qualité des infos comptables (+)
système juridique
contrôle étatique/familial (-)
multi-cotation (+), taille (+), secteur
contrôle famille/dirigeant (-)
contrôle étatique (-), autres blocs contrôle (-)
corrélations bénéfices/cours (+)
dispersion rentabilité (-), surprise résultats (-)
Déterminants couverture
Tab. 4.11 – Synthèse revue de littérature (1)
I/B/E/S
Nelson’s
Directory
Investment
Nelson’s
Directory
Investment
I/B/E/S
I/B/E/S
Consensus
I/B/E/S
Consensus
Consensus
I/B/E/S
30 sociétés/pays
Chang et al.
2000
Source
Échantillon
Auteurs
Chapitre 4
159
Chapitre 4
160
Das et al.
2002
O’Brien et Bhushan
1990
Auteurs
251 sociétés
3186 IPOs
1347 sociétés
Échantillon
Nelson’s
Directory
Wall Sheet
Research
Questionnaire
I/B/E/S
I/B/E/S
Source
1985
1991
1985-1995
1985-1987
Période
EU
GB
EU
EU
Pays
Régressions
MCO
Régressions
MCO
Régressions
- MCO
- modèle Cox
Régressions
- MCO
- Eq. Simul.
Méthode
70%
45.7%
R2
Marston
1997
966 sociétés
32%
13.27%
Bhushan
1989
Résultats (déterminants)
∆nb inv. inst. (+)
nb entrants ds secteur net des sortants (+)
secteur (+), rent. titre ajustée par rent. marché (+)
volatilité (-), NAF année antérieure (-)
nb inv. inst. année antérieure (+)
taille (+), réputation chef de file (+)
sev (+), marché d’intro. (+)
nb introducteurs et co-introducteurs (+)
nb sociétés même secteur (+)
nb sociétés même secteur introduites même année (ns)
délai de couverture (-)
act. inst. (-), nb act. principaux (+)
% capital insiders (-)
σ rent. action. (+)
taille (+), complexité (ns)
R2 rent. titre / rent. marché (+)
secteur industriel (oui)
multi-cotation (+)
act. inst. (-), nb act. principaux (+)
% capital insiders (+)
σ rent. action. (-)
taille (+), complexité (-)
R2 rent. titre / rent. marché (+)
secteur industriel (oui)
multi-cotation (+)
Tab. 4.12 – Synthèse revue de littérature (2)
Chapitre 4
161
Annexe : analyse de survie
L’analyse de survie n’est pas couramment employée en finance. Nous avons aussi jugé
utile de présenter brièvement les bases de cette technique statistique en appendice. Nous
précisons notamment un certain nombre de termes cités dans la section 4.3.
1- Les données de survie
L’analyse de survie requiert de définir des données de survie.
• La date d’origine ou de début d’observation correspond à la date d’introduction en
bourse de la société. Elle définit le temps 0.
• L’état di désigne les modalités de l’évènement étudié. Une société est «suivie» (di =
1) ou «non suivie» (di = 0).
• La date des dernières nouvelles est nécessaire.
• La durée de surveillance est l’écart entre la date des dernières nouvelles et la date
d’origine.
• La date de point est la date au delà de laquelle on ne tiendra pas compte des informations. L’état de chaque société est recherché à cette date.
• Le temps de participation s’obtient par différence entre la date des dernières nouvelles et la date d’origine lorsque la date des dernières nouvelles est antérieure à la date
de point. Par contre, ti = date de point-date d’origine si les dernières nouvelles sont
postérieures à la date de point.
• Une société est dite perdue de vue lorsque son état est inconnu à la date de point.
Elle est exclue vivante quand elle n’est pas suivie à la date de point (les sociétés A
et B par exemple). Les «perdues de vue» et les «exclues vivantes» sont des données
censurées.
Le tableau 4.13 illustre les données de survie exposées.
Nom
Société
A
B
C
D
Date origine
date d’IB
01/01/1996
01/01/1997
01/01/1999
01/04/1999
Date et état aux
dernières nouvelles
suivie le 01/02/02
non suivie le 01/02/02
suivie le 31/12/00
non suivie le 31/12/00
état à la date de
point 31/12/01
non suivie
non suivie
suivie
perdue de vue
temps de
particip. ti
72 mois
60 mois
24 mois
21 mois
état di
en ti
0
0
1
0
Tab. 4.13 – Exemple de données de survie
2- Lois de probabilité de la durée de vie
La durée de survie X est une variable aléatoire positive ou nulle, et continue. La fonction de survie et la fonction de risque définissent sa loi de probabilité.
La fonction de survie S(t) est la probabilité de survie au-delà de l’instant t. La survie équivaut à la non survenance de l’évènement, c’est-à-dire au temps pendant lequel
la société n’est pas couverte par les analystes. Si T désigne la durée de vie alors S(t) =
prob(T ≥ t). S(0) = 1 et quand t tend vers l’infini, lim S(t) = 0. La fonction de survie est
162
Chapitre 4
monotone, décroissante et continue.
La fonction de risque h(t) s’appelle encore risque instantané de décès. Le décès correspond dans notre cas au suivi de la société par les analystes. h(t) est la probabilité pour
une société d’être suivie peu de temps après t, sachant qu’elle n’était pas couverte jusqu’à
l’instant t. Autrement dit, elle donne le risque instantané de suivi pour les sociétés encore
non couvertes.
Des méthodes non paramétriques ou semi-paramétriques permettent d’estimer la fonction de survie S(t).
3- La méthode non paramétrique de Kaplan Meier
A partir des durées de vie observées (y comprises les censurées) d’un groupe d’individus, la méthode estime la proportion qui survivrait une durée donnée dans les mêmes
circonstances. L’estimation est réalisée à la date de chaque évènement. L’estimateur est
encore appelé produit-limite car il s’obtient comme la limite d’un produit. Il est construit
à partir d’un tableau du type suivant, dit table de survie :
Jour
0
10
25
exposée
218
218
216
Suivie
0
2
1
censurées
0
0
0
P(suivie)
0
2
218 =0.009
1
216 = 0.005
P(pas suivie)
1
1-0.991=0.991
1-0.005 =0.995
Pcum (pas suivie)
1
0.991 × 1 = 0.991
0.991 × 0.995 = 0.986
Tab. 4.14 – Exemple de tableau de survie
• Jour : délai en jours entre le l’entrée dans l’étude et la survenue de l’évènement. L’apparition des évènements détermine donc les intervalles de temps.
• exposées : nombre de sociétés exposées au risque d’être suivies au jour j
• Suivies : nombre de sociétés couvertes au jour j
• PDV : nombre de perdus de vue au jour j
• P(suivie) : probabilité pour une société d’être suivie le jour j = nombre de sociétés
suivies le jour j / nombre de sociétés exposées au jour j
• P(pas suivie) : probabilité au jour j de ne pas être suivie = 1 - P(suivie)
• Pcum (pas suivie) : probabilité cumulée de survie (c’est-à-dire en l’espèce de non
couverture) au jour j = probabilité de ne pas être couverte en J0 et J1 et .... et Jn
= PJ0 (passuivie) × PJ1 (passuivie) × ... × PJn (passuivie). Les évènements sont en effet
indépendants.
Les probabilités estimées de survie peuvent être représentées sur un graphe, dit courbe
de survie. La méthode de Kaplan-Meier permet également d’observer l’influence d’un seul
paramètre (variable binaire) sur l’espérance de survie. Les individus sont répartis en deux
groupes, selon la valeur du paramètre. La comparaison des courbes de survie ne peut en
principe reposer sur de simples impressions visuelles. Elle nécessite des tests statistiques
formels, comme le test de log-rank.
4- Le modèle de Cox
Chapitre 4
163
Comme la méthode de Kaplan-Meier, le modèle de Cox permet d’estimer la fonction
de survie. Son originalité réside dans les points suivants : il permet d’évaluer l’effet de
plusieurs facteurs, appelés co-variables, ou d’un seul facteur non nominal sur la durée de
vie. Il ne considère pas une distribution particulière de durées de vie. Il suppose que les
effets des différentes variables sont constantes dans le temps et se cumulent.
- Caractéristiques du modèle
Le modèle de Cox est multi-varié. Il exprime le risque instantané de survenue de
l’évènement («être suivie») en fonction de facteurs explicatifs Xj et de l’instant t.
Il est semi-paramétrique car il ne donne pas à la fonction de survie une forme paramétrique
précise.
Le modèle de Cox est dit à risques proportionnels. Le rapport du risque instantané de deux
individus est indépendant du temps. Il ne dépend que de leurs variables explicatives8 .
Enfin, le modèle de Cox est multiplicatif. Le risque instantané de survenue de l’évènement
est multiplié par une constante quand la valeur d’une variable explicative est modifiée.
- Les données
La variable à expliquer est dichotomique (PAF par exemple). Les variables explicatives Xj peuvent être qualitatives ou quantitatives. La variable T est le délai entre la date
d’origine et la date d’apparition de l’évènement.
Pour chaque individu, les données usuelles de survie sont nécessaires : la date d’origine,
la date des dernières nouvelles, la date de point, l’état de la société à la date de point et
les observations censurées.
- Le risque instantané
Le risque instantané est le produit de deux fonctions, h0 (t) et c(b, X). h0 (t) n’est
fonction que du temps, tandis que c(b, X) est indépendante du temps. Le vecteur des coefficients de régression b mesureP
la dépendance. Le risque instantané s’écrit donc encore :
λ = (t, X1 , X2 , ...) = λ0 (t) exp βj Xj
Supposons que les variables Xj représentent certaines caractéristiques des sociétés et
qu’elles soient toutes égales à 0. λ0 (t) est alors le risque instantané de couverture des
sociétés ne présentant aucune des caractéristiques Xj . Elle est la référence ou la fonction hasard fondamentale. Elle correspond à la probabilité de suivi lorsque toutes les
co-variables sont nulles.
Le modèle ne précise pas la forme de λ0 (t). Il apprécie par contre l’impact de chacun des
facteurs Xj sur le délai de couverture. Les coefficients βj doivent donc être déterminés.
D’une manière générale, ils mesurent l’effet de la caractéristique Xj sur la survenue de
l’évènement. Si βj =0, alors la jième caractéristique n’a pas d’impact sur l’évènement. Prenons maintenant le cas où βj est positif et où deux sociétés ne se distinguent que par leur
jième caractéristique. Le risque instantané de couverture augmente alors avec la valeur de
8
Ces modèles ont été originellement développés en médecine. Les variables explicatives
constituent souvent des facteurs de risque, d’où le terme de «risques» proportionnels.
164
Chapitre 4
Xj .
- Estimation et test
Le modèle de Cox ne cherche à estimer que les βj , et non la fonction λ0 (t). La méthode
du maximum de vraisemblance permet d’obtenir les estimateurs des βj .
Le test du score, de Wald ou du rapport de vraisemblance permet d’infirmer ou de
confirmer l’hypothèse H0 selon laquelle le vecteur (β1 , β2 , ...) est nul.
Troisième partie
L’enrichissement de
l’environnement informationnel
des introductions en bourse
165
167
Au moment d’une introduction en bourse, les investisseurs sont confrontés
à un problème de sélection adverse. Autrement dit, ils ne distinguent pas facilement la qualité des candidats à partir des informations disponibles. Ils
risquent donc de réaliser de mauvais placements.
Ces asymétries d’information présentent également des inconvénients pour
la société. D’une part, elles peuvent l’empêcher de trouver les capitaux nécessaires à ses besoins de financement sur le marché primaire (Akerlof, 1970).
D’autre part, elles la conduisent à vendre ses titres à un prix inférieur à leur
valeur de marché espérée. Elles augmentent donc le coût du capital, mesuré
par l’écart entre le premier cours coté et le prix d’offre encore dénommé sousévaluation. Dans leur modèle, Beatty et Ritter (1986) montrent ainsi que la
sous-évaluation «est directement reliée à l’incertitude ex ante sur la valeur
de l’introduction». Ils vérifient empiriquement leur prédiction sur le marché
américain, après Ritter (1984). Sur le Second Marché français, Ginglinger
et Faugeron-Crouzet (2001) trouvent également que la sous-évaluation croı̂t
avec le niveau d’asymétrie.
Cette troisième partie s’intéresse aux moyens de limiter les préjudiciables
asymétries d’information entre la société et les investisseurs.
Les chapitres 5 et 6 s’inscrivent dans le cadre de la théorie du signal. Le dirigeant peut révéler au marché la réelle valeur de sa société en émettant des
«signaux». Nous testons, dans le chapitre 5, si la publication de prévisions
précises, non exigées par la réglementation, est informative pour les investisseurs et les analystes. Autrement dit, réduit-elle leur incertitude sur la valeur
espérée des titres ? Le dirigeant peut encore choisir de déléguer la production d’informations de qualité aux analystes. Il devrait alors sous-évaluer les
titres introduits, afin de dédommager les analystes de leur coût de production
de l’information. Le marché considérerait la couverture de la société par les
analystes comme un signal de qualité. Nous vérifions ces hypothèses dans le
chapitre 6.
Les initiatives du dirigeant ne peuvent à elles seules suffire à rétablir l’équilibre
informationnel entre les investisseurs et la société. La régulation du marché
de l’information est nécessaire. En France, elle est principalement assurée
par la COB. Le chapitre 7 met en évidence les fondements et les limites de
l’autorité du régulateur.
168
Chapitre 5
La signalisation par publication
volontaire de prévisions
Deux méthodes permettent traditionnellement de déterminer la valeur
espérée d’un titre introduit : les comparables boursiers et l’actualisation
des flux de trésorerie disponibles. La première nécessite de constituer un
échantillon de sociétés cotées comparables à l’entreprise à évaluer. La seconde suppose de connaı̂tre les flux de trésorerie prévisionnels générés par
l’actif économique, sur les dix ou vingt ans à venir.
Ces méthodes ne s’appliquent pas facilement au cas de titres introduits sur
le Second Marché. Rares sont en effet les sociétés déjà cotées de même secteur d’activité, même niveau de risque, de croissance et de rentabilité que
la société introduite. Par ailleurs, le candidat à l’introduction sur le Second
Marché n’est obligé de publier que des informations rétrospectives.
Les investisseurs ne peuvent donc aisément distinguer la qualité de la
société. Compte tenu de l’incertitude ex ante sur la valeur de la société, ils
exigent un prix d’offre sous-évalué par rapport au prix d’équilibre anticipé.
Corollairement, le coût du capital augmente pour la société émettrice. En
outre, les investisseurs risquent de quitter le marché primaire s’ils réalisent
de mauvais placements (Akerlof, 1970). Les asymétries d’information peuvent
donc à terme rendre aléatoire le financement par introduction en bourse.
Le dirigeant comme les investisseurs gagneraient donc à endiguer les
asymétries d’information. Diverses solutions sont possibles. Les modèles de
signal supposent implicitement que l’avantage informationnel du dirigeant le
prédispose à agir. Il limiterait l’incertitude des investisseurs en émettant des
signaux, qui peuvent être de différentes natures.
La réputation du chef de file signalerait ainsi efficacement la valeur de la
169
170
Chapitre 5
société introduite, selon les modèles de Carter et Manaster (1990) ou Chemmanur et Fulghieri (1994). Empiriquement, elle semble effectivement diminuer la sous-évaluation des titres introduits sur le marché américain (Carter
et Manaster, 1990 ; Johnson et Miller, 1987), mais pas en France (Broye,
1998).
La réputation du commissaire aux comptes apparaı̂t comme un signal crédible
dans le modèle de Titman et Trueman (1986). Cette hypothèse semble vérifiée
empiriquement. Sur le marché français (Broye, 2001) et américain (Beatty,
1989 ou Balvers et al., 1988), la réputation du commissaire aux comptes est
reliée négativement à la sous-évaluation des titres.
Toutefois, via la réputation des intermédiaires financiers, les investisseurs
ne peuvent inférer qu’indirectement la valeur de la société. Nous envisageons ici l’hypothèse d’une signalisation directe par publication de prévisions.
Hughes (1986) et Trueman (1986) montrent dans leurs modèles, que les
prévisions publiées volontairement1 par le dirigeant sont informatives pour
le marché, indépendamment de la nouvelle annoncée. Lev et Penman (1990)
avancent également que les prévisions de résultat constituent un outil de
signalisation pour le dirigeant. Autrement dit, la publication de prévisions
précises attesterait la capacité du dirigeant à anticiper les changements de
l’environnement économique (Trueman, 1986). Elle signalerait aux investisseurs la qualité de la société. Elle limiterait les asymétries d’information dont
ils pâtissent. Ces deux effets attendus de l’émission d’un signal sont traditionnellement confondus (Baginski et al., 1999). En conséquence, nous testerons
si le choix du dirigeant de publier des prévisions précises réduit l’incertitude
ex ante des investisseurs, et donc le coût du capital. En contrepartie de leur
effort de transparence, les sociétés lèvent-elles des fonds à des conditions plus
avantageuses ?
La recherche empirique semble valider le rôle de signal des prévisions
émises facultativement par le dirigeant dans le prospectus d’introduction. Sur
le marché canadien par exemple, Clarkson et al. (1992) sur un échantillon de
185 entreprises ; Jog et McConomy (2000) sur un échantillon de 258 introductions, relient négativement sous-évaluation et publication volontaire de
prévisions.
Notre étude complète les travaux antérieurs. Les sociétés introduites sur
le Second Marché nous ont semblé bien se prêter à la vérification empirique
1
Nous dénommons «volontaires» ou «facultatives» les informations publiées, bien que
non exigées par la réglementation.
Chapitre 5
171
de l’hypothèse d’une signalisation par publication de prévisions, pour les raisons suivantes.
En premier lieu, l’activité de signalisation est coûteuse. Elle se justifie donc
uniquement lorsque les investisseurs ne peuvent évaluer correctement la société à partir des informations disponibles. Or les introductions sur le Second
Marché semblent se dérouler dans un contexte d’asymétries d’information.
Elles apparaissent en effet de petite taille et familiales, entre 1983 et 1994
(Faugeron-Crouzet et Ginglinger, 2001).
En second lieu, la publication de prévisions est facultative lors d’une admission à la cote du Second Marché (règlement no 98-01 de la COB). Elle est
donc plus susceptible de réduire les asymétries d’information que les informations obligatoires (McNichols et Trueman, 1994).
En troisième lieu, les dirigeants voient encore rarement leur responsabilité engagée en cas de prévisions incorrectes, fausses ou trompeuses. Ce faible risque
juridique allège le coût d’une signalisation par publication de prévision. Il la
rend donc plus probable2 . Enfin, les commissaires aux comptes contrôlent uniquement la sincérité des prévisions du prospectus (norme de travail no 354).
L’absence de révision légale permet une qualité différenciée des prévisions
publiées. On peut donc s’attendre à ce que le choix de publier des estimations précises ait un effet de signal.
L’originalité de notre travail est triple.
De nombreux chercheurs évaluent l’exactitude, le biais des prévisions du dirigeant et la réaction des cours à leur publication (par exemple Patell, 1976 ;
Penman, 1983 ou Pownall et Waymire, 1989). Par contre, les facteurs amenant le dirigeant à publier de son fait des prévisions sont moins étudiés.
De surcroı̂t, la littérature ne relie qu’indirectement l’accroissement des informations publiées par le dirigeant et la réduction du coût du capital. Healy
et al. (1999) ; Lang et Lundholm (2000) établissent ainsi que le dirigeant publie davantage d’informations avant de faire appel public à l’épargne. Ils en
déduisent que la volonté d’abaisser le coût du capital incite le dirigeant à publier davantage d’informations. Baginski et al. (1999), de leur côté, observent
la politique informationnelle post introduction, de 763 sociétés admises à la
cote américaine entre 1982 et 1984. La réputation du chef de file, du commissaire aux comptes et la part de capital conservée par le dirigeant après
l’introduction augmentent la probabilité que la société publie des prévisions
de résultat entre 1982 et 1987. La société peut utiliser ces variables comme si2
Au contraire, jusqu’en 1995, le système juridique américain dissuadait les dirigeants
de publier des prévisions. Les dirigeants étaient en effet fréquemment sanctionnés au titre
des prévisions publiées, faute de prouver facilement leur bonne foi (Frost, 1997, p. 134).
172
Chapitre 5
gnaux de qualité lors de son introduction. Selon les auteurs, la volonté initiale
de réduire le coût du capital prédirait la nature et la fréquence des informations publiées après l’introduction. Contrairement aux auteurs précédents,
nous évaluons directement l’impact d’une plus grande quantité d’information publiée sur le coût du capital.
Enfin, les auteurs se concentrent généralement sur l’efficacité d’un seul signal.
Le modèle de Hughes permet d’envisager les interactions entre deux signaux,
l’acte volontaire de publication et la fraction de capital conservée par le dirigeant. En outre, nous montrons que les outils de signalisation utilisés par
les sociétés introduites en bourse ont évolué au cours de la période étudiée
(1994-2000).
Le reste de l’étude s’organise de la façon suivante. La section 5.1 présente
les modèles de signalisation et leurs implications. La section 5.2 décrit la
méthodologie, les données et variables utilisées. La section 5.3 analyse les
résultats obtenus.
5.1
Les modèles de signalisation par publication de prévision et leurs implications
Dans cette section, nous justifions théoriquement que les investisseurs
puissent inférer la valeur de la société introduite à partir des prévisions
publiées volontairement par le dirigeant. Nous formalisons ensuite nos hypothèses.
5.1.1
Le cadre théorique
Dans un premier temps, nous précisons à quelles conditions la publication de prévision peut être informative pour le marché et donc considérée
comme un signal. Dans un second temps, nous présentons comment Hughes
a modélisé la publication volontaire de prévisions dans le cadre d’une introduction en bourse.
Les conditions de signalisation
En présence d’une information imparfaite, le marché peut atteindre l’équilibre grâce à des signaux. Spence (1974) et Riley (1975) précisent à quelles
conditions. Le signal émis doit être crédible. Autrement dit, les dirigeants
des entreprises non performantes doivent être dissuadés de faire croire le
Chapitre 5
173
contraire. À cette fin, l’émission du signal doit être coûteuse, les faux signaux pénalisés et la valeur signalée ex ante doit pouvoir être vérifiée ex post.
La publication facultative de prévisions précises respecte ces exigences.
Premièrement, elle est onéreuse pour la firme. Elle nécessite un système
d’information interne de qualité et lève le secret des affaires (voir première
partie).
Deuxièmement, le marché (Teoh et al., 1998), le régulateur et/ou la justice sanctionnent les dirigeants qui ont surévalué leurs prévisions.
Ainsi, Clarkson et al. (1992, 605) montrent qu’au Canada la crainte d’une
condamnation pour publication mensongère, inexacte ou trompeuse détermine
le choix des dirigeants de publier ou non des prévisions.
Pendant longtemps, l’appareil judiciaire en France était moins favorable aux
plaignants que dans les pays anglo-saxons (Frost, 1997). Mais les jugements
récents marquent un changement. Les intérêts des victimes du délit de fausse
information semblent mieux pris en compte.
La COB peut ouvrir une procédure aux fins de sanctions administratives
contre un dirigeant3 ayant publié de mauvaises prévisions (voir première partie). Dans l’affaire «Société Les beaux Sites», elle a infligé au dirigeant une
amende de 300 000 F en application de l’art. 9-2 de l’ordonnance du 28
septembre 1967, modifiée par la loi no 89-53 du 2 août 1989. La Cour d’appel de Paris peut toutefois annuler4 ou réformer partiellement5 les sanctions
prononcées.
Le dirigeant encourt encore des sanctions pénales. Dans l’affaire SA S
en janvier 1998, le dirigeant avait présenté la situation de sa société sous
des apparences faussement rassurantes dans la note d’information relative
à une augmentation de capital. Il avait également annoncé au cours d’une
conférence de presse un accord fictif avec un groupe publicitaire et un bénéfice
net prévisionnel pour 1990. Or «la situation réelle de la société S était celle
d’une entreprise en cessation de paiement». Sur le fondement de l’article 433,
2o de la loi du 24 juillet 1966, le dirigeant a été déclaré coupable du délit
d’obtention frauduleuse de souscriptions et de versements par publication de
faits faux. Il a été condamné à une peine de dix-huit mois d’emprisonnement
avec sursis et à une amende d’un million de francs.
3
Le dirigeant comme la société tombent sous le coup de la réglementation de la COB.
La Cour de Cassation a rejeté le pourvoi d’un dirigeant qui contestait devoir être soumis
aux règlements de la COB (Cass.com., 14 nov. 1995).
4
Société Fermière du Casino Municipal de Cannes, CA Paris, 1ère ch., 11 janvier 2000
5
SA Verneuil Finance, CA Paris, 1ère ch., 2000.
174
Chapitre 5
Troisièmement, la fiabilité de la prévision peut être contrôlée ex post lors
de la publication des réalisations.
La publication de prévisions précises vérifie donc les conditions de Spence
(1974) et Riley (1975). Elle peut constituer un outil de signalisation. Hughes
(1986) montre dans son modèle que la publication volontaire de prévisions et
la part de capital conservée par le dirigeant peuvent aider les investisseurs à
discriminer les introductions de qualité des autres.
Le modèle de Hughes (1986)
Le modèle de Hughes (1986) se situe dans le cadre d’une introduction en
bourse. Il généralise le modèle univarié de Leland et Pyle (1977). Outre sa
participation au capital α, le dirigeant publie volontairement ses prévisions
de flux de trésorerie Y pour signaler la valeur de sa société. Par hypothèse, lui
seul connaı̂t la distribution de probabilité N(µ,σ 2 ) d’Y. Hughes propose empiriquement d’approcher les flux de trésorerie prévisionnels par les prévisions
de résultat.
La séquence des événements est la suivante.
- Au début de la période, les investisseurs attribuent à µ une distribution de
probabilité a priori N(x0 ,σ0 2 ). Le dirigeant émet un signal sur µ en publiant
Y, la valeur attendue des cash flows futurs. L’émission d’Y est coûteuse. La
société doit en effet rétribuer les intermédiaires financiers chargés de réviser
les informations publiées. De surcroı̂t, le dirigeant encourt une pénalité P
en cas d’erreur de prévision. Le risque de sanction P augmente avec Y et
diminue avec µ et σ 2 . Dans un marché imparfait, les investisseurs ne peuvent
correctement interpréter le signal Y sans apprécier son coût. Ils ont donc
besoin de connaı̂tre σ 2 .
Le dirigeant leur indique le niveau d’incertitude à travers sa participation au
capital α. Une valeur élevée d’α signale une faible incertitude (σ 2 ). Le dirigeant est en effet supposé rationnel et avoir une faible propension au risque.
Il ne garde donc une part importante du capital que si son projet est de
qualité et peu risqué.
α et Y permettent aux investisseurs d’inférer la valeur de µ sans ambiguı̈té.
- À la fin de la période, les investisseurs observent les flux de trésorerie réels.
Ils révisent leurs anticipations et pénalisent le dirigeant s’ils jugent son erreur
de prévision excessive.
Sous certaines conditions, le modèle conduit à un équilibre séparateur où
Chapitre 5
175
la valeur anticipée de la société est fonction d’Y et d’α.
V (Y, α) = [9bP Y 3
1
α
]3
(1 − α) + ln(1 − α)
Le dirigeant signale efficacement la valeur de la société en communiquant
aux investisseurs ses estimations de résultat, et en restant actionnaire.
5.1.2
Les implications des modèles de signal
Le système d’hypothèses est principalement déduit du modèle de Hughes
(1986). Toutefois, le modèle de Trueman (1986) nous a semblé mieux fonder
l’hypothèse d’une signalisation par la précision des prévisions publiées (H2).
Contrairement au modèle de Hughes, il n’est pas spécifique aux introductions
en bourse et ne prévoit pas explicitement de pénalité en cas d’émission de
faux signaux. La crainte d’une sanction boursière à l’annonce du résultat
réel, est supposée dissuader le dirigeant de sur-évaluer ses estimations dans
le modèle de Trueman.
Publication de prévision et signal
Dans le cadre du modèle de Hughes, l’acte volontaire de publication
est un signal efficace. Autrement dit, le dirigeant qui publie volontairement
ses prévisions de résultat réduit l’incertitude des investisseurs sur la valeur
espérée des titres. Il limite donc «le coût du capital lié aux asymétries d’information» (Verrecchia, 2001) dont rend compte la sous-évaluation du prix
d’offre. Sa société devrait être moins sous-évaluée qu’en l’absence de publication, toutes choses égales par ailleurs. Nous formulons ainsi notre hypothèse
de signalisation :
H1- La publication volontaire de prévisions par le dirigeant limite la sousévaluation des titres introduits.
Nous considérons également l’exactitude des prévisions publiées comme
un signal de qualité. En effet, depuis 1996, les sociétés du Second Marché sont
de plus en plus nombreuses à publier des prévisions dans leur prospectus, sous
les pressions du marché financier et de la COB (voir le chapitre 7, tableau
7.4). L’acte de publication devient donc plus contraint que voulu. Il risque
de perdre de son efficacité en tant que signal, au profit du degré de précision
des prévisions publiées.
Trueman (1986) explique dans son modèle que la précision du résultat prévu
ne permet pas seulement aux investisseurs de connaı̂tre plus tôt le résultat
de l’exercice. Le cas échéant, elle n’augmenterait pas la valeur de marché
176
Chapitre 5
de la société à la fin de la période. Elle révélerait surtout aux investisseurs
un élément inobservable par ailleurs : la capacité du dirigeant à anticiper
correctement les changements de l’environnement économique, et à gérer la
production en conséquence. En cela, elle constituerait un signal de qualité
(Trueman, 1986, p. 54). Rassuré sur la valeur espérée du titre, le marché6
accepterait alors une moindre sous-évaluation du prix d’offre.
Dans le cadre du modèle de Trueman (1986), notre hypothèse s’énonce ainsi :
H2- La sous-évaluation des titres introduits augmente avec l’erreur de
prévision du dirigeant.
Publication de prévision et structure du capital
Dans le modèle de Hughes, les investisseurs évaluent le candidat à l’introduction en actualisant ses flux de trésorerie futurs. Les cash flows sont
supposés suivre une distribution normale. Mais les investisseurs en ignorent
les deux paramètres, à savoir la moyenne µ et l’écart-type σ. Deux signaux
sont donc nécessaires. Le premier est Y, le résultat anticipé par le dirigeant.
Il révèle les informations privées du dirigeant concernant les perspectives de
développement de l’entreprise. Le second est α, la part de capital conservée
par le dirigeant. Il permet aux investisseurs d’estimer le niveau d’incertitude
et donc le coût de Y. Grâce à l’émission simultanée de ces deux signaux, les
investisseurs évaluent sans ambiguı̈té l’introduction. α et Y jouent donc des
rôles complémentaires. Autrement dit,
H3- La publication volontaire de prévision et la part de capital conservée
par le dirigeant influencent simultanément à la baisse la sous-évaluation.
Publication de prévision et niveau d’asymétrie
Dans le cadre du modèle de Hughes, les signaux Y et α interagissent avec
le niveau d’asymétrie. Si l’émission de l’un devient plus coûteuse, le dirigeant emploiera davantage l’autre, et réciproquement. Ainsi, lorsque l’avenir
de la société est incertain, le risque lié aux titres augmente. Parallèlement,
le marché sanctionne moins sévèrement les erreurs de prévision. Le dirigeant
a donc intérêt à se désengager du capital et à révéler ses anticipations au
marché. Par contre, si les investisseurs ont une bonne visibilité des perspectives de l’entreprise, ils peuvent estimer eux-même avec exactitude les
résultats à venir. La part de capital conservée par le dirigeant est plus informative pour eux de la qualité de la société. Elle est, corollairement, le signal
le moins coûteux à émettre pour le dirigeant.
6
Le marché est supposé efficient et donc à même d’apprécier l’erreur de prévision du
dirigeant dès l’annonce de la prévision.
Chapitre 5
177
Ainsi, en présence de fortes asymétries, la signalisation par publication de
prévision devrait s’avérer plus utile aux investisseurs, moins coûteuse pour le
dirigeant et donc plus fréquente. Nous testons les hypothèses suivantes, dans
le cadre du modèle de Hughes :
H4 - La publication volontaire de prévisions limite d’autant plus la sousévaluation que le niveau d’asymétrie augmente.
Ou, autrement formulé :
H4 bis- Le niveau d’asymétrie accroı̂t la probabilité de publication volontaire de prévisions par le dirigeant.
5.1.3
Publication de prévision et procédure
L’incertitude sur la valeur de marché encourage le dirigeant à publier des
prévisions non exigées par la loi. Elle détermine également le choix de la
procédure d’introduction. La banque recourt à une offre à prix ferme lorsqu’elle anticipe précisément la demande de titres et la valeur de la société. Elle
conseille plutôt une offre à prix minimal ou un placement quand l’incertitude
sur le cours d’équilibre est forte. Mais les titres placés sont assurés de trouver
preneurs. Le syndicat bancaire garantit en effet généralement la bonne fin de
l’opération. Réduire l’incertitude des investisseurs est donc moins nécessaire
avec un placement qu’une offre à prix minimal.
Par ordre décroissant, le dirigeant devrait ainsi plutôt publier des informations supplémentaires dans le cadre d’une offre à prix minimal, d’un placement et d’une offre à prix ferme.
5.2
Présentation de la méthodologie
et de l’échantillon
Nous décrivons la méthodologie adoptée, les variables utilisées et l’échantillon.
5.2.1
La méthodologie adoptée
Le modèle de Hughes prédit un lien positif entre la publication volontaire
de prévisions par le dirigeant et la valeur de la firme. L’acte de publication et
la précision des prévisions sont supposés des signaux efficaces. Leur caractère
informatif est vérifié à partir de plusieurs outils.
178
Chapitre 5
En premier lieu, une analyse univariée permet de tester si la sous-évaluation
initiale et le comportement des analystes diffèrent selon la présence ou non
de prévisions dans le prospectus, puis selon la qualité des prévisions émises.
Elle permet également d’explorer les relations entre signaux directs (acte volontaire de publication et qualité des prévisions) et indirect (l’actionnariat du
dirigeant). La nature des variables, métriques ou nominales, nous a conduite
à utiliser les tests t de Student, du Chi-deux et les coefficients de corrélation
de Spearman.
En second lieu, des régressions multivariées sont proposées. La méthode des
moindres carrés ordinaires permet d’estimer les paramètres des équations
de régression. La rentabilité initiale anormale constitue la principale variable
dépendante. Nous expliquons également, à titre complémentaire, l’intensité et
la qualité de la couverture d’une société par les analystes. Les variables explicatives retenues vérifient les implications des modèle de signal ou représentent
des variables de contrôle.
Enfin, une régression logistique binaire explique la probabilité d’une publication de prévision par les sociétés du Second Marché. La nature dichotomique
de la variable à expliquer Y (McCullagh, 1980), la distribution non multinormale des variables explicatives (Press et Wilson, 1978) justifient son emploi.
Après avoir spécifié la méthodologie retenue, nous indiquons l’origine des
données et les variables utilisées.
5.2.2
Les variables retenues
Origine des données
Les réalisations de bénéfice par action proviennent des bases d’I/B/E/S.
Les caractéristiques de l’émetteur (taille, âge, PER, bénéfice par action prévu)
et de l’émission (procédure, marché...) ont pour origine le prospectus d’information définitif de la société. Des rapports annuels de la COB sont extraits
les nombres totaux d’introductions sur le Second Marché par an. Enfin, les
performances boursières des sociétés introduites sont calculées à partir des
données d’Euronext.
Les variables utilisées
Les variables utilisées sont les suivantes.
RIA : rentabilité initiale anormale. Elle se calcule ainsi :
RIAi =
Ibc t
C c i,t0
− c 0
P odi
Ib t0 −1
Chapitre 5
179
où C c i,t est le cours de clôture du titre i le jour t, Ibt celui de l’indice boursier
SBF 250. P odi désigne le prix d’offre définitif et t0 , la date de l’introduction
en bourse. Si la publication volontaire de prévision est un signal efficace, elle
devrait limiter la sous-évaluation initiale.
Nous évaluons également l’intérêt d’une publication volontaire de prévision
pour les analystes. Seuls les analystes non affiliés à la banque introductrice sont pris en compte. L’intensité et la qualité de leur couverture sont
appréhendées grâce aux variables ci-après.
NAF : nombre d’analystes suivant la société considérée dans l’intervalle [-6
mois ; +12 mois] autour de la date d’introduction. Cette variable mesure le
niveau de couverture de la société.
Dispersion : écart-type des estimations des analystes, publiées dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction. Il est normé
par le bénéfice par action (BPA) réalisé. Cette variable évalue la divergence
d’opinions des analystes.
Erreur-analystes : erreur moyenne de prévision des analystes, égale au
rapport : (BP Aprevu − BP Areel ) / |BP Areel |. Les prévisions ont pour horizon l’année consécutive à l’introduction en bourse. Cette variable apprécie la
précision des analystes dans leurs estimations.
Les variables suivantes mesurent le niveau d’asymétrie d’information entre
l’entreprise et les investisseurs.
Taille : logarithme népérien du chiffre d’affaires l’année t0 − 1. Il approche
la taille de la société (Baginski et al., 1999). Les analystes sont d’autant
plus nombreux à suivre une société qu’elle est de grande taille. La taille de
la société est donc supposée liée positivement à la quantité d’information
disponible, ou négativement au niveau d’asymétrie d’information. De plus,
elle approche les coûts et gains attendus d’une publication de prévision. Selon Waymire (1986) ou Lev et Penman (1990), les sociétés publient d’autant
plus fréquemment des prévisions qu’elles sont de grande taille.
Secteur : variable binaire égale à 1 si la société appartient au secteur des
nouvelles technologies de l’information et de la communication (NTIC). Nous
supposons plus coûteuse l’évaluation d’une société de la Nouvelle Économie
que d’une activité traditionnelle. Le secteur des NTIC est donc associé à un
plus fort degré d’asymétrie.
ÂGE : nombre d’années séparant la date d’introduction de la création historique de la société. Selon Michaı̈lesco (2000), l’âge détermine entre autres la
position du service comptable au sein de l’entreprise, son expérience et son
degré d’organisation. La qualité du système d’information interne, et donc
celle de l’information offerte, est présumée augmenter avec l’âge de la société
180
Chapitre 5
(voir Baginski et al. également, 1999, p. 12). Autrement dit, l’âge est relié
négativement au niveau d’asymétrie d’information.
Les variables de signalisation, directes puis indirecte, sont précisées cidessous.
Y : variable dichotomique égale à 1 si la société a publié dans son prospectus
des prévisions de résultat chiffrées, et à 0 sinon.
Erreur-dirigeant : erreur moyenne de prévision du dirigeant, égale au
rapport : (prévision - réalisation) / réalisation. Les prévisions portent sur
le bénéfice par action et ont pour horizon l’année qui suit l’introduction en
bourse.
PREC : nous avons construit une variable dichotomique mesurant la précision
des prévisions du dirigeant. P REC = 1 si erreur − dirigeant ≤ σm , où σm
est l’écart-type des erreurs de prévision des dirigeants.
Biais : variable binaire valant 1 si l’erreur moyenne de prévision du dirigeant
est positive et donc optimiste. La qualité des prévisions publiées ne s’apprécie
en effet pas seulement à leur précision, mais aussi à leur biais.
α : part du capital conservée par le dirigeant, directement ou indirectement,
après l’introduction en bourse.
Dans le cadre du modèle de Hughes, la sous-évaluation initiale est supposée expliquée par la publication volontaire de prévision. Mais elle dépend
également d’autres facteurs, intégrés comme variables de contrôle dans les
modèles de régression.
PER : rapport du prix d’offre définitif sur le bénéfice par action de l’année
t0 − 1. Lorsque le marché anticipe une forte croissance des bénéfices d’une
société, il est prêt à en payer cher les titres. La société présente alors un PER,
mais aussi un niveau de risque, élevés. Par conséquent, la rentabilité initiale
anormale est présumée augmenter avec le PER.
AMP : variable dichotomique égale à 0/1 si la société s’est introduite en
période de faible/forte activité du marché primaire. La sous-évaluation initiale est plus importante en période de forte activité du marché primaire
(Leleux, 1993 par exemple). Nous avons aussi comparé les fonds levés sur
une période de douze mois encadrant la date d’introduction d’une société, au
montant annuel moyen introduit entre 1994 et 2000. La variable AMP vaut
1 si la différence relative à la moyenne est positive ; 0 si elle est négative.
Procédure : variable d’état prenant la valeur 1 si la procédure d’introduction est l’offre à prix minimal ou le placement garanti. Plus le mécanisme de
vente permet d’adapter le prix des titres à la demande du marché, moins le
cours d’équilibre s’éloignera du prix d’introduction et plus la sous-évaluation
sera faible. Ainsi, la cotation directe et l’offre à prix ferme laissent place à une
Chapitre 5
181
plus faible sous-évaluation que l’offre à prix minimal et le placement garanti.
La cotation directe (ou procédure ordinaire) permet d’égaliser l’offre et la demande de titres. L’émetteur indique au marché un prix minimal deux jours avant la
date prévue d’introduction. Il peut majorer ce minimum jusqu’à 10% si la demande
d’actions excède largement l’offre.
Lors d’une offre à prix ferme (anciennement offre publique de vente), le prix et
la quantité offerts sont fixes. Ce mécanisme ne permet donc pas a priori d’ajuster l’offre et la demande de titres. Mais la hausse du cours par rapport au prix
d’introduction reste maı̂trisée. D’une part, la demande de titres est rationnée à
hauteur de l’offre. D’autre part, cette procédure est utilisée lorsque le banquier
introducteur connaı̂t bien la valeur de la société et la demande de titres. Le prix
d’offre est donc précis et conforme aux attentes du marché.
L’offre à prix minimal (autrefois mise en vente) s’apparente à une vente aux
enchères. Le prix d’introduction est déterminé en deux temps. Un prix minimal est
tout d’abord proposé, cinq jours avant l’introduction. Les investisseurs soumettent
ensuite leurs ordres achat à cours limité. Le prix final est décidé la veille de l’introduction, au vu de ces intentions d’achat. Mais il ne reflète que partiellement la
demande totale des investisseurs. D’une part, les ordres aux prix les plus élevés
sont éliminés. D’autre part, le prix final ne doit pas être supérieur à une fois et
demie le prix minimum. La sous-évaluation des titres introduits par offre à prix
minimal reste de ce fait importante.
Un placement garanti peut précéder la procédure ordinaire ou l’offre à prix
ferme. Il comporte deux étapes. Dans un premier temps, la banque introductrice
consulte le marché et publie une fourchette de prix. Dans un second temps, après
l’obtention du visa de la COB, elle ouvre un livre d’ordres. Elle y recueille les
intentions d’achat des investisseurs. À l’issue de cette période de pré-marketing,
elle fixe le prix définitif. En principe, le placement garanti devrait limiter la sousévaluation car la banque décide du prix après avoir sondé le marché. Mais en
réalité, les banques n’adaptent que partiellement le prix d’offre à la demande du
marché. Elles devaient convaincre le marché de l’intérêt de cette procédure, lors
de son introduction en France (Faugeron-Crouzet, 1997). En outre, elles doivent
inciter les investisseurs à révéler leurs réelles intentions d’achat (Derrien, 2002).
Elles doivent donc garantir un niveau de sous-évaluation attractif.
5.2.3
Présentation de l’échantillon
Nous avons sélectionné les sociétés introduites sur le Second Marché entre
le premier janvier 1994 et le 31 juin 2000, en fonction de trois critères. Ces
sociétés ne provenaient pas du marché libre. Leurs BPA réalisés étaient disponibles dans les bases d’I/B/E/S. Leur dossier d’introduction était consultable. L’échantillon final comprend ainsi 139 sociétés, soit environ 80% de
182
Chapitre 5
l’ensemble des introductions sur le Second Marché entre 1994 et le premier
semestre 2000.
Le tableau 5.1 décrit l’échantillon.
Variables
Âge
Taille
PER
Investissement
Endettement
Flottant
Montant
RIA
α
Procédures
Cotation directe
Offre prix ferme
Offre prix minimal
Placement garanti
Biais
Pessimiste
Optimiste
Y
non publication (=0)
publication (=1)
N
139
139
139
139
139
139
139
139
139
Fréquences
(sur 139)
0.7%
12.2%
46.8%
38.1%
Fréquences
(sur 82)
48.8%
51.2%
Fréquences
(sur 139)
36%
64%
Moyenne
32.99
5.80
21.05
11.32
58.37
20.62
135.2
0.280
55.61
Secteur
NTIC (=1)
Médiane
21.0
5.54
16.0
6.88
60.82
16.99
42.62
0.149
68.6
Fréquences
(sur 139)
61.9%
Autre (=0)
38.1%
PREC
Fréquences
(sur 82)
52.4%
47.6%
imprécises (=0)
précises (=1)
Écart-type
36.25
1.433
15.67
15.63
19.60
14.38
307.9
0.975
32.80
Tab. 5.1 – Statistiques descriptives de l’échantillon du chapitre 5
Âge : âge de la société au moment de son introduction en bourse
Taille : logarithme népérien du chiffre d’affaires l’année précédant l’introduction
PER : rapport du prix d’offre définitif sur le BPA de l’exercice précédant l’introduction
Investissement : rapport des investissements prévus sur le total du dernier bilan certifié
Endettement : rapport des dettes financières et d’exploitation sur le total du dernier bilan
certifié
Flottant : pourcentage du capital introduit
Montant : montant introduit en millions de francs
RIA : rentabilité initiale anormale
α : pourcentage du capital conservé par le dirigeant après l’introduction en bourse
Erreur-dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé|
Biais : variable binaire, prenant la valeur 1 si le dirigeant est optimiste dans ses estima-
Chapitre 5
183
tions, c’est-à-dire si prévision - réalisation) / |réalisation| > 0
PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC =
1 si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs des dirigeants
Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions
de résultat chiffrées
Secteur : variable binaire égale à 1 si la société appartient au secteur des nouvelles technologies de l’information et de la communication, à 0 sinon
À partir du tableau 5.1, nous caractérisons successivement les émetteurs,
les émissions et les variables de signalisation.
Au moment de leur introduction, les sociétés de l’échantillon sont de taille
moyenne, avec un chiffre d’affaires moyen de 50.3 millions d’euros. Elles se
présentent sur le marché en moyenne 33 ans après leur création. Leurs projets
d’investissement représentent en moyenne 11% de leur bilan, et leurs dettes
financières et d’exploitation 58%. Le PER moyen est élevé (21), sans doute
parce que 62% de l’échantillon appartient au secteur de la Nouvelle Économie.
Au vu de ces éléments, les sociétés de l’échantillon semblent s’introduire en
bourse pour re-financer leur développement.
Le produit moyen de l’opération s’élève à 135 millions de francs (20.5 millions
d’euros). Les mécanismes de vente les plus utilisés sont l’offre à prix minimal
(47%), suivie du placement garanti (38%) et de l’offre à prix ferme (12%).
Une seule société s’est introduite par cotation directe. En moyenne, le premier
cours coté excède de 28% le prix d’offre. Les sociétés introduites par une offre
à prix minimal ou un placement apparaissent significativement plus sousévaluées que les autres, au seuil de 5% (tableau 5.8 en appendice du chapitre
5). Sur un échantillon de 292 introductions au Second Marché réalisées entre
1983 et 1994, Faugeron-Crouzet et Ginglinger (2001) obtiennent une sousévaluation moyenne plus faible, de 18.67%. L’absence de sociétés introduites
par placement dans leur échantillon peut expliquer cet écart.
Le capital des sociétés de notre échantillon reste assez fermé, malgré l’admission à la cote. Les actionnaires-dirigeants conservent en moyenne plus de
la moitié du capital après l’introduction. En outre, le flottant moyen n’est
que de 21%. Il vaut toutefois deux fois le minimum requis (10%) ou celui observé par Faugeron-Crouzet et Ginglinger entre 1983 et 1994 (11.64%). Enfin,
64% des sociétés de l’échantillon publient volontairement des prévisions de
résultat dans leur prospectus d’introduction.
5.3
Les résultats de l’étude empirique
Nous examinons les hypothèses précédemment exposées sur notre échantillon
d’introductions au Second Marché entre 1994 et 2000.
184
5.3.1
Chapitre 5
Les résultats des tests univariés
Les tableaux 5.6, 5.7, 5.8, 5.9 et 5.10 rapportent les résultats des tests
univariés. Ils sont reportés dans cet ordre en annexe du chapitre 5.
Valeur informative de l’acte volontaire de publication
Dans le cadre du modèle de Hughes, l’acte volontaire de publication (Y)
est supposé informatif pour les investisseurs et les analystes. Il devrait donc
limiter leur incertitude.
Les tests univariés n’établissent pas de lien significatif entre Y et les performances boursières le jour de l’introduction. Les sociétés du Second Marché
qui choisissent de diffuser des prévisions de résultat dans leur prospectus sont
plus sous-évaluées en moyenne, mais non significativement : 33% contre 19%
pour le groupe «Y=0» (tableau 5.6). L’analyse des médianes conduit aux
résultats contraires : une moindre sous-évaluation pour le groupe «Y=1».
Dans la matrice des corrélations (tableau 5.10), l’acte volontaire de publication est bien relié négativement à la sous-évaluation, mais non significativement.
Sur notre échantillon, l’acte volontaire de publication ne semble pas non plus
informatif pour les analystes. L’écart-type de leurs estimations et leur erreur moyenne de prévision ne sont pas significativement plus élevés pour le
groupe «Y=0» que «Y=1» (tableau 5.6). Leur décision de suivre la société
est indépendante de la révélation, par le dirigeant, de ses anticipations (voir
le test du Chi-deux, tableau 5.7). Enfin, les sociétés qui ne publient pas de
prévision sont suivies par deux fois plus d’analystes que les autres (tableau
5.6).
Valeur informative de la qualité des prévisions publiées
Nous analysons les propriétés des prévisions du dirigeant, puis la réaction
des investisseurs et des analystes à leur précision.
Les prévisions publiées par le dirigeant sont utiles aux investisseurs si
elles sont exactes, non biaisées et plus informatives qu’un modèle naı̈f de
prévision.
Sur notre échantillon, les prévisions des dirigeants apparaissent de qualité très
diverse (tableau 5.9). En moyenne, elles sont entachées d’une erreur7 de 110%,
7
Nous de disposions des BPA réels que pour 82 des 89 sociétés ayant oublié des
prévisions. L’erreur moyenne de prévision est donc calculée sur 82 observations.
Chapitre 5
185
significativement distincte de 0. À l’inverse, l’erreur médiane de prévision ne
diffère pas significativement de 0. La grande dispersion des observations explique l’écart entre les valeurs moyenne et médiane. Nous avons différencié
les sociétés de l’échantillon selon le biais, puis le degré de précision de leurs
estimations (tableau 5.6). Le critère de précision retenu (Prec) répartit les
sociétés en deux groupes homogènes. De même, les sociétés pessimistes sont
globalement aussi nombreuses que les entreprises optimistes. Mais elles se
trompent moins dans leurs estimations de résultat que les sociétés optimistes. Leur erreur moyenne de prévision s’élève à 31%, contre 248% pour le
groupe optimiste. L’analyse des médianes confirme la plus grande précision
des sociétés pessimistes, mais dans une moindre mesure : 22% contre 35%.
Sur notre échantillon, les estimations des dirigeants ne sont pas plus informatives que celles déduites du modèle élémentaire de prévision développé par
Cheng et Firth (2000) (tableau 5.9). Le SUP est en effet négatif en moyenne
et en médiane. Mais il ne diffère pas significativement de zéro. Les résultats
doivent donc être interprétés avec prudence.
Nous observons enfin si le comportement des investisseurs et des analystes
varie en fonction de la précision des estimations du dirigeant.
Contrairement à nos anticipations, les sociétés prudentes ou précises dans
leurs estimations n’apparaissent pas significativement moins sous-évaluées
(tableau 5.6).
D’après le test du Chi-deux réalisé (tableau 5.7), le suivi d’une société par
au moins un analyste non affilié au chef de file dépend significativement,
au seuil de 0.1%, de la variable de précision PREC. Toutefois, les analystes
ne sont pas plus nombreux à suivre les sociétés du groupe «PREC=1» que
«PREC=0» (tableau 5.6). Les erreurs de prévision du dirigeant sont par
ailleurs positivement et significativement corrélées, d’une part aux erreurs
de prévision des analystes, d’autre part à l’écart-type des estimations des
analystes (tableau 5.10). Ainsi, au vu des tests univariés, l’exactitude des
prévisions émises par la société n’influence pas l’intensité de sa couverture
par les analystes. Elle semble par contre améliorer la capacité prédictive des
analystes, et l’homogénéité de leurs estimations.
Publication de prévision et actionnariat du dirigeant
L’originalité du modèle de Hughes réside dans l’émission simultanée de
deux signaux : la publication volontaire de prévision (Y) et l’actionnariat du
dirigeant (α). Y et α devraient donc être reliés positivement dans les tests
univariés.
186
Chapitre 5
Les résultats confortent cette conjecture. Les dirigeants qui publient leurs
prévisions détiennent une plus grande part du capital après l’introduction
que les autres : 60% en moyenne, contre 47% (tableau 5.6). Le coefficient de
corrélation entre α et Y vaut 0.232 et est significatif à 5% (tableau 5.10).
α et Y apparaissent donc bien utilisés conjointement. Dans l’étude de Mak
(1994) au contraire, publication volontaire de prévision et actionnariat des
dirigeants sont liés négativement.
Parallèlement, le rhô de Spearman entre le flottant et la variable Y est négatif
et significatif à 5% (tableau 5.10). Le partage de l’information ne semble pas
le versant de l’ouverture du capital.
Publication de prévision et asymétrie d’information
Selon l’hypothèse de signalisation, les sociétés seraient d’autant plus enclines à révéler délibérément leurs prévisions de résultat que leurs perspectives de développement sont peu visibles.
Les 89 firmes qui publient volontairement des prévisions semblent effectivement pâtir de plus fortes asymétries d’information ex ante que les autres.
Elles appartiennent à 58% au secteur des NTIC (tableau 5.7). Elles lèvent
significativement moins de fonds et sont donc moins en vue sur le marché.
Elles sont en moyenne significativement plus jeunes au moment de leur introduction que les autres : 28 ans, contre 42 ans (tableau 5.6). Ces résultats
vont dans le sens attendu. Ils rejoignent ceux de Mak (1994), obtenus sur un
échantillon de 53 admissions à la cote australienne8 entre 1970 et 1983.
Par contre, les 39 sociétés aux meilleures prédictions ne sont pas significativement plus jeunes que les autres (tableau 5.6). Au contraire, l’erreur moyenne
de prévision est reliée de manière négative et significative à l’âge (tableau
6.14). Les sociétés prudentes et précises dans leurs estimations apparaissent
significativement plus âgées que les autres.
Ainsi, le niveau d’asymétrie, tel que nous avons pu l’apprécier, accentue l’utilité d’une publication d’informations au-delà des exigences légales. Mais il
décrédibilise les prévisions publiées le cas échéant.
Publication de prévision et procédure d’introduction
La procédure d’introduction fixe le cadre de l’opération. Elle devrait
également influencer la communication financière.
8
La publication de prévision dans la note d’information est facultative en Australie.
Chapitre 5
187
89 sociétés de l’échantillon total ont publié volontairement des prévisions
dans leur prospectus. Parmi elles, 50 se sont introduites par offre à prix minimal (OPM), 28 par placement (PG), 10 via une offre à prix ferme (OPF)
et une par cotation directe (CD) (tableau 5.8). Au total, 87.6% des sociétés
qui diffusent volontairement leur plan de développement sont admises à la
cote par une offre à prix minimal ou à un placement. Ces deux procédures
sont utilisées lorsque la valeur de marché de l’entreprise est incertaine. Elles
supposent de fortes asymétries d’information entre l’entreprise et les investisseurs. Elles semblent donc bien adaptées à l’hypothèse d’une signalisation
par publication délibérée d’information.
En revanche, les sociétés introduites par offre à prix minimal ou placement
apparaissent plus imprécises en moyenne, et plus pessimistes en médiane,
dans leurs estimations de résultat (tableau 5.8). Leurs erreurs moyennes de
prévision s’élèvent respectivement à 85.6% et 159%, contre 0.561% pour les
offres à prix ferme et 0.148% pour la cotation directe. Leurs erreurs médianes
sont de -1.21%, -2.25%, contre 2.56% pour les offres à prix fermes et 0.148%
pour la cotation directe. Toutefois, les erreurs moyennes et médianes des deux
groupes de sociétés (OPM-placement et OPF-CD) ne diffèrent pas significativement.
Au regard des tests univariés, l’acte volontaire de publication et la qualité des prévisions publiées n’ont pas d’incidence significative sur la sousévaluation des titres introduits. Par contre, la précision des estimations du
dirigeant semble bien avoir un effet positif sur l’exactitude et l’homogénéité
des prévisions des analystes. En outre, le signal Y paraı̂t bien utilisé en même
temps que l’actionnariat du dirigeant α, comme le prédisait le modèle de
Hughes. Enfin, la publication de prévisions non demandées par la loi émane
plutôt de sociétés jeunes, des NTIC, introduites par offre à prix minimal ou
placement. La qualité des prévisions publiées semble, elle, croı̂tre avec l’âge
de la société.
Nous mettons maintenant les résultats de ces tests univariés à l’épreuve
de méthodes explicatives.
5.3.2
Les résultats des tests multivariés
Les résultats des régressions multivariées
• Signaux directs
188
Chapitre 5
Nous testons la valeur informative de l’acte volontaire de publication (Y),
puis de la qualité des prévisions publiées (erreur-dirigeant).
- Dans un premier temps, nous apprécions l’intérêt de ces deux variables
pour les investisseurs. À cette fin, nous observons leur impact sur la sousévaluation (RIA).
Les variables muettes ci-après sont introduites dans les modèles de régression : AMP, variable dichotomique égale à 1/0 si l’activité du marché primaire est forte/faible ; PER, rapport du prix d’offre définitif sur le BPA de
l’exercice précédant l’introduction ; Secteur, variable binaire égale à 1 si
la société appartient au secteur des NTIC, à 0 sinon ; Procédure, variable
dichotomique égale à 1 si la société s’est introduite par offre à prix minimal
(OPM) ou placement (PG) et à 0 si elle a utilisé une offre à prix ferme (OPF)
ou une cotation directe (CD) ; Taille : logarithme népérien du chiffre d’affaires l’année précédant l’introduction.
Le tableau 5.2 récapitule les modèles obtenus. Les t de Student sont indiqués entre parenthèses, et les VIF en italique. Des astérisques signalent les
seuils de significativité (* = 10% ; ** = 5% ; *** = 1% ; **** = 0.1%). Les
régressions sont conduites sur l’échantillon total, puis sur des sous-échantillons
par secteur (NTIC ou non), âge (< ou > à l’âge moyen, 33 ans) et procédure
(OPF/CD ou PG/OPM).
Dans aucun modèle testé, l’acte volontaire de publication n’explique significativement la sous-évaluation initiale. Nous ne pouvons donc confirmer
ou infirmer notre première hypothèse. Sur le marché canadien au contraire,
les sociétés qui publient volontairement leurs prévisions sont moins sousévaluées (Clarkson et al., 1992, sur un échantillon de 185 introductions ; Jog
et McConomy, 2000, sur un échantillon de 258 entreprises introduites entre
1983 et 1994).
Par contre, sur notre échantillon total, l’erreur de prévision du dirigeant accroı̂t significativement la sous-évaluation, au seuil de 5% (modèle 1, tableau
5.2). En contrepartie d’estimations précises, les investisseurs semblent accepter une moindre décote du prix d’offre par rapport à la valeur espérée des
titres. Nous confirmons l’hypothèse H2. Nos résultats n’avalisent pas ceux de
Firth et Smith (1992). Dans leur régression, conduite sur 89 introductions
néo-zélandaises, l’erreur de prévision du dirigeant n’influence pas significativement la sous-évaluation.
- Les estimations des analystes approchent traditionnellement les anticipations des investisseurs. Aussi observons-nous, dans un second temps et à
Chapitre 5
échant.
Modèle
Constante
Erreur
dirigeant
189
Total
1
0.235
(1.66)
9.2710−2
(2.38)**
Secteur=1
2
0.348
(1.44)
0.114
(1.97)*
α
AMP
PER
variable dépendante : RIA
Secteur=0
âge<33ans
âge>33ans
3
4
5
-0.114
0.176
7.5410−2
(-1.25)
(0.978)
(1.89)*
0.216
(3.44)***
1.6910−3
1.8310−3
(2.38)**
(2.40)**
1.155
0.17
(2.75)***
1.234
3.4810−3
(2.77)***
1.125
âge>33ans
6
0.094
(0.337)
OPF/CD
7
-0.135
(-1.59)
1.6110−3
(2.33)**
1.019
-0.216
(-2.78)***
1.017
1.2310−3
(1.96)*
1.018
1.3810−2
(2.67)**
1.062
9.8310−2
(2.06)**
1.011
0.147
(2.39)**
1.024
Secteur
Procédure
Taille
F
R2 ajusté
N
PG/OPM
8
0.279
(1.74)*
9.5410−2
(2.27)**
5.66**
0.054
82
3.896*
0.058
48
4.272***
0.182
53
11.8***
0.151
62
5.774*
0.102
43
6.529****
0.356
43
-2.3310−3
(-2.04)*
1.065
3.927**
0.305
19
5.156**
0.055
78
Tab. 5.2 – Explication de la sous-évaluation par l’erreur de prévision du
dirigeant
titre complémentaire, comment les analystes réagissent à la publication de
prévisions non demandées par la loi, et à leur précision.
Le tableau 5.3 présente les modèles les plus significatifs obtenus. Les t
de student figurent entre parenthèses. Ils peuvent être significatifs aux seuils
de 10% (*), de 5% (**), de 1% (***) et de 0.1% (****). Pour contrôler
la multicolinéarité des variables explicatives, nous indiquons en italique le
facteur d’inflation de la variance (VIF).
Sur notre échantillon, l’acte volontaire de publication n’explique significativement ni l’exactitude, ni l’homogénéité des estimations des analystes.
Ce résultat diverge de nos anticipations et des travaux antérieurs. Parmi les
informations dont la publication est discrétionnaire figurent les informations
segmentés. Suite à leur diffusion, les prévisions des analystes semblent plus
précises (Baldwin, 1984) et consensuelles (Swaminathan, 1991). Par ailleurs,
nous trouvons que le signal Y détermine bien significativement le nombre
d’analystes suivant la société, mais négativement (modèle a). Autrement
dit, les sociétés n’ayant pas publié leurs prévisions attirent davantage les
analystes. Elles sont significativement plus âgées et ouvertes que celles du
groupe «Y=1» (tableau 5.6). Leur environnement informationnel peut raisonnablement être supposé plus riche9 . Les sociétés semblent donc susciter
9
Lang et al. (2002) associent ainsi richesse de l’environnement informationnel et ouver-
190
Chapitre 5
var. dépendante
Modèle
Constante
NAF
a
-0.331
(-0.256)
Erreur
dirigeant
Secteur
Taille
Y
RIA
F
R2 ajusté
N
0.710
(3.552)***
1.043
-1.230
(-2.293)**
1.054
0.537
(2.479)**
1.011
9.07****
0.205
69
NAF
b
-3.22
(-2.990)***
-0.128
(-2.479)**
1.128
0.989
(2.522)**
1.064
0.922
(5.014)****
1.049
Erreur-analystes
c
0.969
(1.787)*
0.361
(13.3)****
1.113
0.498
(3.722)****
1.108
11.45****
0.427
64
-0.214
(-3.069)***
1.08
50.3****
0.758
64
Dispersion
d
0.115
(1.966)*
0.173
(4.529)****
2.1
Dispersion
e
0.010
(1.563)
9.6210−2
(3.341)***
1
-0.120
(-2.773)***
2.1
10.5****
0.352
36
11.2***
0.225
36
-0.167
(-1.730)*
1.032
Tab. 5.3 – La valeur informative de l’acte volontaire de publication et de la
précision des prévisions du dirigeant pour les analystes
Le nombre d’analystes non affiliés au chef de file, suivant la société dans l’intervalle
[-6 mois, +12 mois] autour de la date d’introduction (NAF) ; leur erreur moyenne de
prévision à un an (erreur-analystes = [BPA prévu - BPA réel] / |BPA réel|) et
l’écart-type de leurs estimations, normé par le BPA réel (dispersion) sont régressées sur
la variable binaire Y, égale à 1 si la société a publié dans son prospectus des prévisions
de résultat chiffrées, puis sur l’erreur de prévision du dirigeant (erreur-dirigeant =
[BPA prévu - BPA réel] / |BPA réel|). L’appartenance de la société au secteur des NTIC
(secteur = 1), sa taille (mesurée par le logarithme népérien du chiffre d’affaires l’année
précédant l’introduction) et la sous-évaluation des titres (RIA) sont intégrées comme
variables de contrôle.
d’autant plus l’intérêt des analystes que de faibles asymétries d’information
ex ante les caractérisent. L’acte volontaire de publication ne suffit pas en
lui-même à rendre les sociétés jeunes et au capital fermé, plus transparentes
au yeux des analystes. Au total, sur notre échantillon, les analystes suivent
moins nombreux les sociétés publiant au-delà des normes. L’acte volontaire
ture du capital.
Chapitre 5
191
de publication n’a pas d’effet significatif sur l’exactitude et la dispersion des
prévisions des analystes.
Par contre, nous trouvons que l’erreur de prévision du dirigeant explique
significativement l’intensité et la qualité de la couverture de la société par
les analystes. La précision des prévisions publiées augmente le nombre d’analystes suivant la société (modèle b). Elle rend probablement moins coûteuse
la production d’information pour les analystes. Elle améliore également leur
capacité prédictive (modèle c). Elle limite enfin la dispersion de leurs estimations (modèles d et e), sans doute parce qu’elle atténue les asymétries
d’information entre les analystes. Nos résultats rejoignent ceux obtenus sur le
marché secondaire américain. Aux États-Unis, les analystes attribuent une
note aux sociétés cotées pour leur communication financière «volontaire».
Plus cette note est élevée, plus les analystes sont nombreux à suivre la société
(Lang et Lundholm, 1996 ; Healy et al., 1994), plus leurs estimations semblent
exactes (Lang et Lundholm, 1996) et homogènes (Lang et Lundholm, 1996 ;
Farragher et al., 1994).
Des facteurs autres que la quantité et la qualité des informations publiques déterminent l’intérêt des analystes pour une société, l’exactitude et
l’homogénéité de leurs prévisions.
Ainsi, les prévisions des analystes sont d’autant plus exactes et consensuelles
que les titres introduits sont sous-évalués (modèles c et d). Comme Rajan
et Servaes (1997) ou Chen et Ritter (2000), nous observons que le nombre
d’analystes suivant l’introduction croı̂t avec la sous-évaluation (modèle a). À
l’instar de Brennan et Hughes (1991) ou Bhushan (1989), la variable «NAF»
augmente avec la taille de la société (modèles a et b). Enfin, les analystes
prévoient plus précisément le résultat des sociétés de grande taille (modèle c).
Similairement, Derrien et Degeorge (2001) obtiennent une relation négative
entre l’erreur moyenne de prévision des analystes et le logarithme de la capitalisation boursière, approximation de la taille.
• Signal indirect
Dans le modèle de Hughes, la part de capital conservée par le dirigeant
(α) signale également efficacement la valeur de la société introduite.
Nos résultats ne nous permettent pas d’accepter ou de rejeter l’hypothèse
d’une signalisation via l’actionnariat du dirigeant. En effet, sur notre échantillon total, α n’a pas d’effet significatif sur la sous-évaluation. Dans les autres
pays, seul Beatty (1989) obtient une relation négative et significative entre
192
Chapitre 5
la sous-évaluation et α. Il travaille sur un échantillon de 2215 sociétés introduites entre 1975 et 1984 sur le marché américain. Les résultats des autres
études ne corroborent pas la théorie du signal. Firth et Smith (1992) observent un échantillon de 89 introductions sur le marché néo-zélandais entre
1983 et 1986. Ils montrent qu’α détermine négativement mais non significativement la sous-évaluation. La part de capital conservée par le dirigeant
explique positivement la sous-évaluation, significativement sur le marché australien (Lee et al., 1993 , sur un échantillon de 266 sociétés introduites entre
1976 et 1989) ; non significativement sur le marché britannique (Holland et
Horton 1993, sur 230 introductions entre 1986 et 1989).
• Le niveau d’asymétrie d’information
Dans le modèle de Hughes, publication de prévision et structure du capital
sont des signaux complémentaires. Leur combinaison optimale dépend du niveau d’incertitude. Lorsque l’avenir de l’entreprise est peu visible, le dirigeant
révélerait plutôt au marché ses anticipations de résultat et réduirait sa participation au capital. Nous vérifions ces prédictions sur des sous-échantillons
par secteur et âge. Les sociétés des NTIC et jeunes sont supposées pâtir de
plus fortes asymétries d’information. Le tableau 5.2 récapitule les modèles
les plus significatifs.
Sur les sous-échantillons des sociétés plus jeunes que la moyenne et des
NTIC, la sous-évaluation diminue avec la qualité des prévisions publiées
(modèles 2 et 4). Par contre, l’erreur de prévision du dirigeant n’influence
pas la sous-évaluation des sociétés les plus âgées ou des secteurs traditionnels
(modèles 3 et 5). La publication de prévisions précises semble donc d’autant
plus utile aux investisseurs qu’elle relève d’une société jeune ou de la nouvelle économie. Autrement dit, la valeur informative des prévisions publiées
augmente avec le niveau d’asymétrie. Nous confirmons l’hypothèse H4.
Dans les modèles 2 et 4, nous avons intégré l’erreur de prévision du dirigeant
en même temps que sa participation au capital. Le pouvoir explicatif de la
variable α n’est pas significatif. Hughes supposait au contraire nécessaire
le recours simultané aux deux signaux Y et α, même si elle prédisait une
moindre utilisation d’Y au profit d’α en présence d’incertitude.
De plus faibles asymétries d’information sont supposées caractériser les
sociétés les plus âgées et des secteurs traditionnels. Pour ces sociétés, la
rétention de capital par le dirigeant accroı̂t la sous-évaluation initiale de
manière significative, au seuil de 5% (modèles 3, 5 et 6). Les sociétés mâtures
ou de l’économie traditionnelle semblent donc se signaler en sous-évaluant
Chapitre 5
193
délibérément les titres introduits. Cette sous-évaluation est coûteuse. En
conséquence, les actionnaires-dirigeants se désengagent peu lors de l’introduction. Ainsi, en présence de faibles asymétries d’information, les modèles
de signalisation par sous-évaluation (Allen et Faulhaber, 1989 ; Welch, 1989
et Grinblatt et Hwang, 1989) rendent mieux compte de la réalité que l’hypothèse d’une signalisation par publication de prévision (Hughes, 1986).
• Procédure d’introduction
Les résultats des régressions confirment ceux des tests univariés. La signalisation par publication volontaire de prévision ne s’observe que pour les
sociétés introduites via un placement ou une offre à prix minimal (modèle 8,
tableau 5.2). Sur ce sous-échantillon, l’exactitude des prévisions publiées par
le dirigeant réduit la sous-évaluation du prix d’offre.
Sur le sous-échantillon des offres à prix fermes, α a un impact positif et significatif sur la sous-évaluation (modèle 7, tableau 5.2). L’actionnaire-dirigeant
accepte d’autant mieux de sous-évaluer les titres introduits qu’il conserve une
part importante de ses titres après l’introduction.
La sous-évaluation des titres semble donc davantage signaler la valeur des
sociétés introduites par une offre à prix ferme ; la qualité des prévisions publiées, celle des offres à prix minimal et des placements.
• Période d’introduction
En principe, seules les sociétés demandant leur admission à la cote du
Nouveau Marché doivent inclure un plan de développement dans le prospectus. Toutefois, depuis 1996, la COB presse également les impétrants sur le
Second Marché de publier des prévisions chiffrées. Elle relaierait les attentes
du marché, selon les membres de la COB rencontrés. Nous avons donc supposé la qualité des prévisions publiées plus discriminante que la présence de
prévisions dans le prospectus, depuis 1996.
Nous apprécions l’efficacité d’une signalisation par publication délibérée
de prévision avant 1996, puis après. Pour chaque période, nous avons constitué
des sous-échantillons par secteur et par âge. Le tableau 5.4 rapporte les
modèles de régression les plus significatifs obtenus.
Ginglinger et Faugeron-Crouzet (2001) considèrent 292 sociétés introduites sur le Second Marché entre 1983 et 1994. Elles montrent que les sociétés
les plus petites et les plus familiales signalent la valeur de leurs projets par
une sous-évaluation délibérée du prix d’offre.
Nous obtenons des résultats similaires entre 1994 et 1995. Ces années-là, ni
194
Chapitre 5
période
Modèle
Constante
Erreur
dirigeant
α
Taille
F
R2 ajusté
N
variable dépendante : RIA
avant 1996
après 1996
9
10
11
12
13
âge>33ans
âge<33ans
0.041
0.027
0.149
1.034
1.476
(0.325)
(0.494)
(0.533)
(1.892)*
(1.816)*
0.256
0.27
0.27
(3.39)*** (3.65)***
(3.07)***
1.011
1.007
3.2910−3
4.6410−4
-1.410−2
-2.0310−2
(1.696)*
(4.06)***
(-1.79)*
(-1.79)*
1.011
1.011
1.007
-0.141
(-1.92)*
1.011
3.70**
16.5***
11.5***
7.67***
5.90***
0.065
0.66
0.204
0.246
0.246
38
9
41
41
31
14
secteur=1
0.106
(0.308)
0.547
(4.54)****
20.6****
0.461
24
Tab. 5.4 – L’efficacité d’une signalisation par publication volontaire de
prévisions avant 1996 / après 1996
L’erreur de prévision du dirigeant (erreur-dirigeant = [BPA prévu - BPA réel] / |BPA
réel|), sa participation au capital après l’introduction (α) et la taille de la société (logarithme népérien du chiffre d’affaires réalisé le dernier exercice certifié) expliquent significativement la rentabilité initiale anormale (RIA). Leurs coefficients de corrélations peuvent
statistiquement différer de 0, au seuil de 10% (*), 5% (**), 1% (***) et 0.1%. Les VIF
apparaissent en italique.
l’acte volontaire de publication, ni la qualité des prévisions publiées n’influencent significativement la sous-évaluation. Par contre, α est reliée positivement et significativement à la sous-évaluation, notamment sur le souséchantillon des sociétés les plus âgées (modèles 9 et 10). Avant 1996, nos observations semblent conformes aux prédictions des modèles de signalisation
par sous-évaluation. La sous-évaluation des titres et la fraction de capital
conservée par le dirigeant signaleraient la valeur des sociétés, surtout celle
des plus âgées.
Entre 1996 et 2000, l’erreur de prévision du dirigeant détermine de manière
positive et significative la sous-évaluation (modèles 11 et 12). Mais ce lien
ne s’observe pas sur les sous-échantillons des sociétés les plus âgées ou des
secteurs traditionnels (modèles 13 et 14).
En outre, sur cette période, les signaux Y et α semblent utilisés conjointement et de façon complémentaire (modèle 12), en particulier par les sociétés
Chapitre 5
195
les plus jeunes (modèle 13). Dans les modèles 12 et 13, la sous-évaluation
diminue avec la part de capital conservée par le dirigeant et l’exactitude de
ses prévisions. Notre hypothèse H3 ne se vérifie donc que pour les sociétés
les plus jeunes, introduites entre 1996 et 2000.
Au total, les travaux antérieurs et nos résultats empiriques tendent à
valider l’hypothèse d’une signalisation par sous-évaluation entre 1983 et 1995.
Mais les sociétés qui recourent à ce signal présentent des caractéristiques
différentes au cours du temps. Elles apparaissent plutôt petites et familiales
entre 1983 et 1994 (Ginglinger et Faugeron-Crouzet, 2001) ; âgées et familiales
entre 1994 et 1995. Entre 1996 et 2000, les sociétés les plus jeunes et des NTIC
semblent réduire l’incertitude des investisseurs en publiant des prévisions
précises. Sur le sous-échantillon des sociétés les plus jeunes, Y et α agissent
simultanément et à la baisse sur la sous-évaluation. Les prédictions du modèle
de Hughes ne se réalisent donc que pour une partie des sociétés.
Les résultats des régressions logistiques
Nous étudions la probabilité qu’une société du Second Marché émette volontairement des prévisions dans son prospectus.
Le modèle logit suivant est testé :
P (Yi ) =
1
1 + exp −[α + Xi 0 β]
où P (Yi ) est la probabilité qu’une société i publie des prévisions de résultat
dans son prospectus. Le vecteur Xi comprend l’âge de la société au moment
de son introduction en bourse et α, le pourcentage du capital conservé par
le dirigeant après l’introduction.
Le tableau 5.5 reprend les modèles les plus significatifs obtenus. Le coefficient bêta, puis la statistique de Wald (entre parenthèses) et son seuil de
significativité sont indiqués (* = 10% ; ** = 5% ; *** = 1% et **** = 0.1%).
Les sociétés de l’échantillon sont d’autant plus enclines à publier leurs
prévisions qu’elles sont jeunes (modèle 1). Le niveau d’asymétrie d’information était supposé décroı̂tre avec l’âge de la firme. Notre résultat va donc
dans le sens de l’hypothèse H4 bis.
Il confirme également les résultats de la littérature. Dans l’étude de Mak
(1994) sur le marché canadien, l’absence d’historique disponible10 détermine
10
Mak prend en compte trois variables d’asymétrie d’information : l’historique disponible, le pourcentage de capital conservé par le dirigeant et la taille de l’entreprise.
196
Chapitre 5
Modèles
Constante
Âge
α
χ2
R Cox Snell
N
2
Y
1
2
1.020
0.542
(16.1)****
(0.643)
0.000
0.423
-0.010
-0.009
(3.934)**
(3.335)*
0.047
0.068
0.671
(5.941)**
0.015
4.072**
10.3***
0.030
0.076
139
139
Tab. 5.5 – Probabilité d’une publication de prévisions dans le prospectus
d’introduction
significativement la probabilité d’occurrence d’une prévision auditée. Baginski et Hassell (1997) ont analysé 1 212 prévisions de résultat annuel et
trimestriel, publiées par les dirigeants de sociétés cotées américaines. La taille
de la société et le nombre d’analystes suivant la société approchent respectivement la quantité d’information publique et privée disponible avant la
publication. Les auteurs trouvent que la précision des prévisions de résultat
annuel augmente avec la taille de la société et diminue avec le nombre d’analystes. Autrement dit, plus les asymétries d’information sont importantes,
plus le dirigeant est incité à publier des prévisions précises.
Deux facteurs peuvent expliquer notre résultat. En premier lieu, le coût lié à
la publication délibérée de prévisions diminue avec l’âge de la société. En cas
d’erreur de prévision, le marché est probablement plus indulgent à l’égard des
sociétés jeunes. En second lieu, la COB recommande11 aux sociétés jeunes
de pallier leur faible historique comptable par la publication d’informations
prospectives. Les sociétés jeunes sont donc davantage pressées de publier des
prévisions.
Par ailleurs, la part du capital conservée par le dirigeant après l’introduction influence significativement et positivement la probabilité d’une publication volontaire de prévisions (modèle 2). Nous escomptions ce résultat.
Dans le modèle de Hughes en effet, les signaux α et Y sont employés simul11
«Lorsque les comptes historiques ne sont pas représentatifs de la situation de
l’émetteur, l’émetteur fournit des prévisions financières (...)» (schémas A et B, instruction
mars 2001, chapitre 5.)
Chapitre 5
197
tanément.
Conclusion
Les sociétés s’introduisent en bourse dans un contexte de fortes asymétries.
Elles peuvent réduire l’incertitude des investisseurs, et donc le coût du capital levé, de différentes manières. Dans son modèle, Hughes (1986) montre
que la publication délibérée de prévisions (Y) et la rétention de capital par le
dirigeant (α) sont des signaux efficaces et complémentaires. Autrement dit,
ils permettent aux investisseurs d’évaluer sans ambiguı̈té le candidat à l’introduction. Nous testons les prédictions de ce modèle, sur un échantillon de
139 sociétés introduites sur le Second Marché entre le premier janvier 1994
et le 30 juin 2000.
Nous mettons en évidence les résultats suivants.
En premier lieu, sur le Second Marché français, l’acte volontaire de publication ne semble pas informatif pour les investisseurs ou les analystes. Il
n’influence significativement ni la sous-évaluation des titres, ni l’exactitude
ou la dispersion des estimations des analystes. Les sociétés n’ayant pas publié
de prévisions semblent au contraire davantage attirer les analystes. Sur notre
échantillon, elles apparaissent significativement plus âgées et ouvertes que les
autres.
En second lieu, les analystes et les investisseurs semblent réagir favorablement
et significativement lorsque le dirigeant choisit de révéler précisément ses anticipations de résultat. Nous établissons que le nombre d’analystes suivant
l’introduction, l’exactitude et l’homogénéité de leurs estimations diminuent
avec l’erreur de prévision du dirigeant. Sur notre échantillon, les sociétés les
plus jeunes, de la nouvelle économie, introduites par offre à prix minimal ou
placement entre 1996 et 2000, affichent de plus faibles rentabilités initiales
anormales lorsqu’elles publient des prévisions précises. Sur le sous-échantillon
des sociétés les plus jeunes introduites en bourse après 1995, la part de capital
conservée par le dirigeant et la qualité des prévisions publiées agissent simultanément et à la baisse sur la sous-évaluation. Seule une partie des sociétés
semble donc vérifier les prédictions du modèles de Hughes. Les sociétés les
plus âgées de notre échantillon, appartenant à un secteur traditionnel, admises à la cote en 1994 et 1995, via une offre à prix ferme, paraissent plutôt
utiliser la sous-évaluation comme mécanisme de signalisation.
Dans le chapitre 5, le dirigeant complète lui-même l’information des investisseurs. Mais il peut également confier cette tâche à des prestataires de ser-
198
Chapitre 5
vices informationnels, les analystes financiers. Dans le modèle de Chemmanur
(1993) et plus récemment, d’Aggarwal et al. (2002), le dirigeant sous-évalue
les titres introduits pour inciter les analystes à produire des informations sur
sa société. Il accepte donc, au moment de l’introduction, une augmentation
du coût du capital en échange d’une meilleure information des investisseurs.
Les informations diffusées par les analystes révéleraient la vraie valeur de
la société. Nous testons, dans le chapitre 6, si elles constituent un signal de
qualité. Autrement-dit, influencent-elles favorablement la valeur de la société
sur le long terme ?
Chapitre 5
199
Le tableau 5.6 présente les tests univariés réalisés. Seules les différences significatives sont reportées.
Y=0/1
Âge
Montant
α
RIA
Dispersion
Erreur-analystes
NAF
Y 0-1
Âge
Montant
α
NAF
N
50/89
50/89
50/89
50/89
23/38
38/69
38/69
différence moyennes
13.64
51.1
-12.5
1.48
Moyenne
41.72/28.08
168/117
47.6/60.1
0.186/0.333
0.481/0.168
0.55/0.35
4.12/2.64
Statistique t
2.157
1.866
-2.21
2.59
Médiane
22/21
49.3/40.8
58.0/75.0
0.152/0.143
0.069/0.065
-0.018/0.00
2.5/2.00
Signification
0.033
0.051
0.029
0.011
Écart-type
43.09/30.96
363/272
31.4/32.9
0.204/1.21
1.61/0.40
2.93/1.48
3.49/2.07
PREC=0/1
Âge
α
RIA
Dispersion
Erreur-analystes
NAF
N
43/39
43/39
43/39
22/14
37/27
37/27
Moyenne
27.4/29.7
60.2/62.8
0.496/0.162
0.249/0.0506
0.61/0.0002
2.81/2.16
Médiane
15.0/26
74.9/79.6
0.129/0.149
0.0877/0.0479
0.008/-0.008
2.00/2.00
Écart-type
37.5/24.9
31.1/33.7
1.71/0.188
0.513/0.0357
2.01/0.085
2.10/1.52
Biais=0/1
Âge
α
Erreur-dirigeant
RIA
Dispersion
Erreur-analystes
NAF
Biais 0-1
Âge
Erreur-dirigeant
Erreur-analystes
N
40/42
40/42
40/42
40/42
16/20
37/27
37/27
différence moyennes
15.96
-2.817
-0.919
Moyenne
36.7/20.7
66.8/56.3
-0.314/2.48
0.164/0.503
0.0516/0.268
-0.064/0.855
2.47/2.59
Statistique t
2.293
-3.979
-2.353
Médiane
26.0/14.5
80.8/72.4
-0.224/0.346
0.162/0.069
0.0476/0.085
-0.029/0.058
2.00/2.00
Signification
0.025
0.00
0.022
Écart-type
38.2/22.5
29.9/33.7
0.324/4.47
0.160/1.74
0.0335/0.535
0.14/2.14
1.85/1.95
Secteur
Âge
α
Erreur-dirigeant
RIA
Dispersion
Erreur-analystes
NAF
Secteur 0-1
RIA
N
53/86
53/86
34/48
53/86
18/43
40/67
40/67
différence moyennes
-0.234
Moyenne
32.8/32.6
55.8/56.2
0.712/1.38
0.139/0.373
0.092/0.367
0.284/0.503
2.68/3.44
Statistique t
-1.679
Médiane
23.0/21.0
68.8/68.6
-0.023/0.0137
0.125/0.155
0.068/0.066
-0.021/0.004
2.0/2.0
Signification
0.097
Écart-type
37.5/36.2
33.8/32.0
2.64/3.98
0.184/1.25
0.085/1.23
1.57/2.36
2.45/2.87
Tab. 5.6 – tests de différences de moyennes - chapitre 5
Y : variable dichotomique égale à 1 si la société a publié dansson prospectus des prévisions de résultat
chiffrées, PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC = 1
si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs de prévision des dirigeants, Biais : variable
binaire, prenant la valeur 1 si le dirigeant est optimiste dans ses estimations, c’est-à-dire si (prévision
- réalisation) / |réalisation| > 0, Âge : âge de la société au moment de son introduction en bourse,
Montant : montant introduit en millions de francs, α : pourcentage du capital conservé par le dirigeant
après l’introduction en bourse, RIA : rentabilité initiale anormale, Erreur-dirigeant : (BPA prévu par le
dirigeant à un an - BPA réalisé) / |BPA réalisé|, Dispersion : écart-type des estimations à un an des
analystes non affiliés au chef de file, normé par le BPA réalisé, Erreur-analystes : (BPA prévu par les
analystes non affiliés au chef de file à un an - BPA réalisé) / |BPA réalisé|, NAF : nombre d’analystes
non affiliés au chef de file, ayant suivi la société dans l’intervalle [-6 mois, +12 mois] autour de la date
d’introduction.
200
Chapitre 5
Le tableau 5.7 rapporte les tests du Chi-deux réalisés. Entre parenthèses
figurent les effectifs théoriques.
Y=0
12
(11.5)
PAF = 1
38
(38.5)
Total
50
valeur Chi-deux
0.042
PREC = 0
PAF = 0
6
(9.4)
PAF = 1
37
(33.6)
Total
43
(43)
valeur Chi-deux
3.375
Y=0
Secteur = 0
16
(19.1)
Secteur = 1
34
(30.9)
Total
50
(50)
valeur Chi-deux
1.388
PAF = 0
Y=1
total
20
32
(20.5)
(32)
69
107
(68.5)
(107)
89
139
signification
0.837
PREC = 1 total
12
18
(8.6)
(18.0)
27
64
(30.4)
(64.0)
39
82
(39)
(82)
signification
0.066
Y=1
total
37
53
(33.9)
(53)
52
86
(55.1)
(86)
89
139
(89.0)
(139)
signification
0.239
Tab. 5.7 – Tests du Chi-deux - chapitre 5
Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions
de résultat chiffrées
PAF : variable binaire égale à 1 si au moins un analyste indépendant du chef de file a émis
une prévision sur la société considérée, dans l’intervalle [- 6 mois ; +12 mois] autour de la
date d’introduction
PREC : variable dichotomique mesurant la précision des prévisions du prospectus.
P REC = 1 si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs des dirigeants
Secteur : variable binaire égale à 1 si la société appartient au secteur des NTIC, à 0 sinon
Chapitre 5
201
Le tableau 5.8 permet d’observer l’influence de la procédure d’introduction
sur la présence ou non de prévisions chiffrées dans le prospectus, l’erreur de
prévision du dirigeant et la sous-évaluation des titres.
Procédure
Y=0
Y=1
Total
Y=0
Y=1
Erreur-dirigeant moyenne
Erreur-dirigeant médiane
N
Procédure
RIA moyenne
CD-OPF / OPM-PG
CD
0
1
1
0%
100%
0.148
0.148
1
CD
-0.018
diff. moyennes
-0.242
OPF
8
10
18
44%
56%
1.061
0.0256
7
OPF
0.0935
t
-2.41
OPM
16
50
66
24%
76%
0.856
-0.0121
49
OPM
0.269
signif.
0.017
PG
26
28
54
48%
52%
1.590
-0.0225
25
PG
0.375
N
19/120
Total
50
89
139
36%
64%
1.102
82
Tab. 5.8 – Impact de la procédure sur la publication de prévision et la sousévaluation
CD désigne la cotation directe ; OPF l’offre à prix ferme ; OPM l’offre à prix minimal et
PG le placement garanti.
Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions
de résultat chiffrées
Erreur-dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé|
RIA est la rentabilité initiale anormale
202
Chapitre 5
Le tableau 5.9 permet d’apprécier la valeur informative des prévisions publiées par le dirigeant dans le prospectus d’introduction.
Nous calculons ainsi l’erreur de prévision du dirigeant : (BPA prévu par le dirigeant à un an
- BPA réalisé) / |BPA réalisé|. Sur le modèle de Cheng et Firth (2000), nous déterminons
ensuite l’erreur commise avec un modèle naı̈f d’estimation, où le bénéfice prévu pour
l’année t0 est supposé égal au résultat réalisé l’année précédente (Rt−1 ). Si Rt0 est le BPA
réel de l’exercice t0 ,
Rt − Rt0
Erreur − modele.naif = −1
| Rt0 |
Nous rapportons enfin l’erreur commise avec le modèle naı̈f à celle du dirigeant i considéré :
SU P (P i , t0 ) = Ln(
Rt0 − Rt−1 2
)
Rt0 − P i t0
où P i t0 est le BPA prévu par le dirgeant i à l’horizon t0 . Si le numérateur est supérieur
au dénominateur, alors les estimations du modèle naı̈f sont moins précises que celles du
dirigeant. Lorsque le SUP est positif, l’investisseur a donc intérêt à utiliser les prévisions
du dirigeant.
Nous testons enfin si les erreurs de prévision moyennes et médianes du dirigeant et du
modèle naı̈f diffèrent significativement de 0, puis l’une de l’autre. σ désigne l’écart-type
des erreurs de prévision.
N
Moyenne
t
Sig.
Médiane
Z
Sig.
σ
diff. moyennes
t
Sig.
diff. médianes
Z Wilcoxon
Sig.
N
Erreur-dirigeant Erreur-modèle.naı̈f
82
114
1.10
0.069
2.86***
0.34
0.005
0.73
0.0008
-0.17
-1.05
-5.74
0.29
0.00
3.49
2.16
Erreurs dirigeant - modèle.naı̈f
1.02
3.41
0.001
-0.19
-3.94
0.00
82
Sup
82
-0.62
-1.4
0.16
-0.21
-1.27
0.20
3.63
Tab. 5.9 – Utilité des prévisions du dirigeant pour les investisseurs
1.0
0.208*
1.0
Taille
0.136
-0.008
0.053
1.0
flottant
-0.140
-0.133**
0.031
-0.529**
1.0
α
-0.128
-0.107
0.034
-0.206*
0.232**
1.0
Y
Erreur
dirigeant
-0.232*
0.047
-0.117
0.204
-0.172
.
1.0
-0.013
0.034
0.140
0.015
-0.027
-0.102
0.117
1.0
Secteur
-0.146
-0.117
-0.036
0.038
-0.035
0.008
-0.012
0.062
1.0
AMP
0.216
-0.112
0.019
-0.169
0.111
.
-0.101
0.008
-0.268*
1.0
PREC
0.123
-0.10
0.186*
-0.003
0.187*
0.019
-0.183
-0.127
-0.018
-0.093
1.0
Procédure
-0.101
-0.101
0.097
-0.057
0.177*
-0.033
-0.010
0.153
-0.001
0.012
0.217*
1.0
RIA
Tab. 5.10 – Corrélations bi-variées : Rhô de Spearman - chapitre 5
PER
PER
-0.043
-0.052
1.0
.041
.371**
.134
.078
-.314**
-.177
-.015
.189
.019
-.134
.046
.319**
1.0
NAF
.092
.190
.035
.176
-.277
-.040
.417**
-.037
-.158
-.263
.103
.220
.115
1.0
disper.
Erreur
analystes
-.032
.133
.128
.156
-.181
.072
.505**
.108
-.146
-.092
.003
.051
-.040
.349**
1.0
Les corrélations de Y avec l’erreur des prévisions des dirigeants ou avec leurs précisions ne peuvent être calculées dans la mesure où pour ces variables Y vaut 1 par définition.
Erreur-analystes : (BPA prévu par les analystes non affiliés au chef de file à un an - BPA réalisé) / |BPA réalisé|
Dispersion : écart-type des estimations à un an des analystes non affilié au chef de file, normé par le BPA réalisé
NAF : nombre d’analystes non affiliés au chef de file, suivant la société dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction
RIA : rentabilité initiale anormale
Procédure : l’offre à prix minimal et le placement sont codés 1 ; l’offre à prix ferme et la cotation directe sont codées 0
PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC = 1 si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs des dirigeants
AMP : variable dichotomique égale à 1/0 si l’activité du marché primaire est forte/faible
Secteur : variable binaire égale à 1 si la société appartient au secteur des nouvelles technologies de l’information et de la communication, à 0 sinon
Erreur-dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé|
Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions de résultat chiffrées
α : pourcentage du capital conservé par le dirigeant après l’introduction en bourse
flottant : pourcentage du capital introduit en bourse
PER : rapport du prix d’offre définitif sur le BPA de l’exercice précédant l’introduction
Taille : logarithme népérien du chiffre d’affaires l’année précédant l’introduction
Âge : âge de la société au moment de son introduction en bourse
Âge
taille
PER
flottant
α
Y
Err-dirigeant
Secteur
AMP
PREC
Procédure
RIA
NAF
Dispersion
Err.-analystes
Âge
Chapitre 5
203
204
Chapitre 5
Chapitre 6
L’intermédiation de la
production d’information
Introduction
Au moment d’une introduction en bourse, les informations sont inégalement réparties entre les protagonistes. Le candidat à l’introduction est naturellement le mieux informé de ses perspectives. Il est de surcroı̂t inconnu
du marché, tant qu’il n’est pas public. Les investisseurs ne distinguent donc
pas facilement sa qualité.
Ces asymétries d’information entre la société et les investisseurs sont coûteuses.
Elles peuvent conduire les investisseurs à réaliser de mauvaises affaires. Rock
(1986) montre ainsi que les titres surévalués, c’est-à-dire dont le prix d’offre
excède le premier cours coté, sont servis en priorité aux investisseurs les moins
bien informés. La société pâtit également de la dissymétrie d’information, à
travers une augmentation des coûts d’introduction (Chemmanur et Fulghieri,
1999). À terme, elle risque même de ne plus trouver les capitaux nécessaires
à ses besoins de financement sur le marché primaire (Akerlof, 1970).
La troisième partie de cette thèse s’interroge sur les moyens d’améliorer
l’information disponible sur les introductions en bourse. La recherche théorique offre différentes solutions.
Dans son modèle, Rock (1986) suppose les asymétries d’information données.
Il avance qu’une sous-évaluation délibérée des titres introduits en atténue
les inconvénients. De cette manière, la société dédommage et retient sur
le marché les investisseurs les moins bien informés. En revanche, elle ne
rétablit pas l’équilibre informationnel.Le modèle de Rock (1986) pallie donc
les asymétries informationnelles mais ne les résorbe pas.
205
206
Chapitre 6
Au contraire, les modèles de signalisation visent à enrichir l’environnement informationnel de la société introduite, c’est-à-dire l’ensemble des informations à la disposition des investisseurs. Dans ce cadre, le dirigeant indique
au marché la réelle valeur de sa société en émettant des signaux aux formes
diverses.
Le chapitre 5 envisageait l’hypothèse d’une signalisation par publication d’informations de qualité, non demandées par la loi. Nous montrons que l’acte
volontaire de publication n’est pas informatif pour les investisseurs ou les
analystes. Par contre, la précision des prévisions publiées volontairement par
le dirigeant semble bien réduire l’incertitude des investisseurs sur le prix
d’équilibre anticipé, et donc le coût du capital pour la société. Mais ce résultat
ne s’observe que pour les sociétés les plus jeunes, des nouvelles technologies
de l’information et de la communication, introduites entre 1966 et 2000 via
une offre à prix minimal ou un placement. Il n’atteste pas que la publication
de prévisions précises, non exigées par la loi, permet de discriminer les firmes
de qualité des autres, et donc de résoudre le problème de sélection adverse.
Ibbotson (1975), Grinblatt et Hwang (1989), Allen et Faulhaber (1989) ou
Welch (1989) considèrent que l’actionnaire principal peut signaler aux investisseurs la qualité de son entreprise en sous-évaluant les actions introduites.
Ginglinger et Faugeron-Crouzet (2001) testent l’hypothèse d’une signalisation par sous-évaluation, sur un échantillon de 292 sociétés introduites sur le
Second Marché entre 1983 et 1994. Elles obtiennent des résultats mitigés.
Les modèles de signalisation ne semblent donc vérifiés que partiellement
sur le marché primaire français. Le candidat à l’introduction ne parvient à
informer lui-même efficacement le marché de sa qualité. Chemmanur (1993)
propose une solution alternative au problème de sélection adverse. Il montre
dans son modèle, que la société introduite en bourse peut inciter les outsiders à informer le marché de sa vraie valeur en sous-évaluant le prix d’offre.
Tout se passe comme si la société déléguait l’émission du signal aux producteurs externes d’information (les analystes). Mais elle en assume le coût,
via la sous-évaluation du prix d’offre. Le marché secondaire du titre intègre
le signal, à savoir les informations pertinentes diffusées par les analystes. Le
contexte informationnel et boursier est alors favorable à une nouvelle émission
de titres sur le marché primaire. À cette occasion, les actionnaires originaires
espèrent à cette occasion céder leurs titres à un prix plus élevé qu’en l’absence de sous-évaluation.
Le chapitre 6 teste empiriquement le modèle de Chemmanur, en trois
temps. Le modèle est exposé et son originalité soulignée dans la section 6.1.
Chapitre 6
207
La section 6.2 décrit la méthodologie adoptée et les variables utilisées. Elle
définit notamment la notion de «richesse de l’environnement informationnel»
et en propose plusieurs indicateurs de mesure. La présentation de l’échantillon
conclut cette deuxième section. Enfin, la section 6.3 analyse les résultats
obtenus.
6.1
Le cadre théorique : présentation et implications
Dans un premier temps, nous développons le modèle de Chemmanur et
mettons en lumière son originalité par rapport aux modèles de signal et de
«collecte de l’information privée». Dans un second temps, nous formalisons
le système d’hypothèses.
6.1.1
Le modèle de Chemmanur (1993)
Présentation
Le modèle repose sur les hypothèses suivantes. Il existe, au moment de
l’introduction, de fortes asymétries d’information entre les investisseurs et
la société émettrice. L’introduction peut être de qualité (VH ) ou non (VL ).
Seuls les insiders savent le type de leur société. Les outsiders ne connaissent
que la probabilité que l’entreprise soit de valeur (α). Tous les agents sont
indifférents au risque. Une seule société est supposée s’introduire en bourse.
L’introduction se déroule selon la procédure de prise ferme : elle a lieu même
si toutes les actions ne se sont pas vendues. La banque introductrice achète
les actions invendues au prix d’offre F .
L’actionnaire-dirigeant fixe le prix d’offre en fonction du prix affiché par
l’autre type de firme, et de la valeur d’équilibre anticipée par les investisseurs. À la date de l’introduction (t0 ), il a intérêt à fixer le prix d’offre le plus
élevé possible. Il permet ainsi aux actionnaires de vendre moins de titres en
t0 et plus en t1 . Mais un prix trop élevé dissuade les outsiders de souscrire
et/ou de produire des informations sur la société. Sans ces informations, le
marché ne peut distinguer la qualité de la société. Les anciens propriétaires
ne peuvent alors espérer céder leurs titres restants à un prix intéressant sur
le marché secondaire. Le prix d’offre doit donc être suffisamment sous-évalué
pour rémunérer les outsiders de leur production d’information. Une fois le
prix annoncé, l’actionnaire-dirigeant ne peut le modifier pour l’ajuster à la
208
Chapitre 6
demande.
L’investisseur peut acheter les titres introduits ou des actifs sans risque. Il
peut, ou non, s’informer sur le candidat à l’introduction. Ses choix dépendent
du niveau du prix d’offre. Si le prix d’offre est excessif (supérieur à F̄ ), aucun investisseur ne produit d’information ni ne participe à l’introduction.
En-deçà d’un certain seuil (F ), il souscrit sans rechercher de plus amples informations. Quand F < F < F̄ , il collecte des informations supplémentaires
sur la société. Il ne participe à l’opération que s’il en espère un gain supérieur
à celui d’une souscription non informée.
À l’équilibre, l’actionnaire-dirigeant choisit le prix d’offre qui maximise le
produit espéré des deux cessions, lors de l’introduction (t0 ) puis ultérieurement
(t1 ). En l’absence d’information, les investisseurs externes évaluent le prix des
titres sur le marché secondaire à αVH +(1−α)VL . α est la probabilité a priori
que l’entreprise soit de valeur. Par conséquent, l’équilibre de sous-évaluation
apparaı̂t lorsque les insiders fixent un prix d’offre inférieur à αVH +(1−α)VL .
Ils arbitrent alors en faveur de la production d’information.
Le prix d’équilibre intègre les informations produites par les investisseurs
et correspond aux cash-flows attendus par action. Sa valeur informative est
supérieure à celle des informations détenues par un seul investisseur. Plus il
agrège d’informations, plus il approche la «vraie» valeur de la société et plus
le profit marginal d’un nouveau producteur d’information est faible.
À l’équilibre, la sous-évaluation décroı̂t avec le montant S de l’offre et
la probabilité a priori que l’entreprise soit de valeur (α). Une opération de
grande taille ou un α élevé suscitent naturellement l’intérêt des investisseurs,
sans que la société ait besoin de sous-évaluer son prix d’offre. Elles incitent
donc les insiders à plutôt se désengager lors de l’introduction.
Le prix d’offre à l’équilibre et le nombre de producteurs d’information diminuent si le coût de production de l’information (C) augmente.
Les investisseurs choisissent de produire de l’information quand le prix d’offre
à l’équilibre est faible. À l’équilibre, le nombre de producteurs d’information
croı̂t donc avec la sous-évaluation.
La sous-évaluation augmente avec le taux de souscription. Une introduction
sur-souscrite signifie que de nombreux outsiders l’évaluent favorablement.
Elle est bien cotée sur le marché secondaire.
Chapitre 6
209
Originalité
Nous mettons en évidence l’originalité de l’approche de Chemmanur (1993)
par rapport aux modèles de signal puis de collecte de l’information privée.
Chemmanur (1993) est généralement rattaché aux modèles de signalisation par sous-évaluation (Spiess et Pettway, 1997, p. 968). Dans leur lignée,
il envisage la sous-évaluation comme solution aux asymétries d’information.
Il conçoit également l’information comme réductrice d’incertitude, endogène
et imparfaite (Arrow, 1996, p. 119-128). Il adopte la même séquence d’événements. À la date de l’introduction, les actionnaires-dirigeants cèdent une
partie de leurs titres à un prix sous-évalué. Ils envisagent d’ores et déjà d’augmenter le capital de la société après l’introduction. Dans un deuxième temps,
le marché secondaire intègre l’information sur la qualité de la firme. Enfin,
les anciens propriétaires reviennent sur le marché. Ils y cèdent le reste de
leurs actions à un prix supérieur à ce qu’il aurait été sans sous-évaluation
initiale. Ils récupèrent ainsi le coût de la sous-évaluation.
Toutefois, Chemmanur se démarque des modèles de signalisation par sousévaluation. Dans son modèle, les investisseurs externes, et non le candidat
à l’introduction, détiennent les informations pertinentes sur la valeur de la
société. La sous-évaluation n’est pas un signal1 crédible de qualité. Elle n’est
pas en elle-même une information. La sous-évaluation a pour Chemmanur une
valeur pécuniaire. Mais elle ne se résume pas à des «dommages et intérêts»
comme chez Rock (1986). Elle est plutôt une incitation monétaire à la production externe d’information sur la société.
Le modèle de Chemmanur peut également paraı̂tre, a priori, proche des
modèles dits de «collecte de l’information privée».
Dans leurs modèles, Benveniste et Spindt (1989), Sherman et Titman (2002)
supposent que les investisseurs sont mieux informés de la réelle valeur de la
société que la banque introductrice et la société. L’introducteur incite alors
ces investisseurs à révéler leurs informations privées en leur allouant prioritairement des titres sous-évalués. Benveniste et Spindt (1989), Sherman et Titman (2002) assignent donc la même fonction à la sous-évaluation que Chemmanur (1993). La société sous-évalue délibérément le prix d’offre pour inciter
les investisseurs avertis à diffuser leurs informations. Ces informations privées
permettent au banquier introducteur et à la société d’anticiper précisément
1
Nous ne partageons donc pas la lecture qu’ont Spiess et Pettway (1997) du modèle de
Chemmanur. Dans le modèle de Chemmanur, les informations produites par les outsiders,
et non la sous-évaluation, nous semblent permettre la détermination d’un prix révélateur
de la valeur de l’entreprise.
210
Chapitre 6
le prix d’équilibre chez Sherman et Titman (2002). Chez Chemmanur (1993),
elles visent à révéler au marché la valeur de la société. Autrement dit, elles
constituent un signal de qualité dans le modèle de Chemmanur, et non dans
celui de Sherman et Titman.
Par ailleurs, seules les sociétés de qualité ont intérêt à faire parler d’elles
et donc à sous-évaluer les titres introduits dans le modèle de Chemmanur.
Selon Sherman et Titman (2002), les sociétés les plus risquées ou les plus
jeunes devraient s’avérer les plus sous-évaluées. Elles ont en effet besoin des
informations privées des investisseurs participant au placement, pour réduire
l’incertitude sur le prix d’équilibre et la volatilité ex ante des titres.
6.1.2
Implications
Il résulte du modèle de Chemmanur les propositions suivantes.
Sous-évaluation et richesse de l’environnement informationnel
Selon le modèle de Chemmanur, l’actionnaire-dirigeant peut inciter les
investisseurs à produire des informations en sous-évaluant le prix d’introduction. Il permet ainsi à la société d’enrichir son environnement informationnel. De même, dans le modèle d’Aggarwal et al. (2002) prolongeant celui de
Chemmanur, la sous-évaluation des titres attire l’attention des analystes et
médiatise l’opération. Elle crée un «information momentum 2 » c’est-à-dire
une intensification des flux informationnels sur la société.
Nous testons donc l’hypothèse suivante, faisant de la sous-évaluation l’un des
déterminants de la richesse de l’environnement informationnel :
H1 - La sous-évaluation des titres introduits encourage les investisseurs à
produire des informations sur la société.
Asymétrie d’information et sous-évaluation
En présence de faibles asymétries d’information, les investisseurs peuvent
évaluer la société à un coût raisonnable et non dissuasif. La société n’a
alors pas besoin d’utiliser le mécanisme coûteux de la sous-évaluation. Par
contre, lorsque les informations sont rares, leur collecte est coûteuse pour
les investisseurs. Ces derniers ne produisent d’information qu’en contrepartie d’une incitation monétaire, la sous-évaluation. La sous-évaluation devrait
ainsi croı̂tre avec le coût de production de l’information, ou corollairement le
2
La notion de momentum est empruntée aux sciences physiques. Le momentum est le
produit d’une masse par une accélération.
Chapitre 6
211
niveau d’asymétrie d’information. Nous déduisons donc l’hypothèse suivante
du modèle de Chemmanur :
H2- La sous évaluation augmente avec le coût de production de l’information pour les investisseurs.
Sous-évaluation et augmentation ultérieure de capital
Dans le cadre du modèle de Chemmanur, la société peut agir sur son environnement informationnel en sous-évaluant le prix d’introduction. Cette sousévaluation représente un manque-à-gagner pour les anciens propriétaires.
Aussi ne cèdent-ils qu’une partie de leurs actions au moment de l’introduction. Grâce aux informations produites par les investisseurs, ils espèrent que
le marché secondaire cotera la société à sa vraie valeur. Ils pourront alors
vendre leurs titres restants à un prix intéressant et récupérer le coût de la
sous-évaluation. Mais l’augmentation de capital doit intervenir rapidement
après l’introduction en bourse. Une mauvaise nouvelle peut en effet amener
les investisseurs à réviser leur jugement sur la société. Les insiders perdraient
dans ce cas le bénéfice de l’effort informationnel réalisé lors de l’introduction.
Une forte sous-évaluation des titres introduits devrait donc s’ensuivre d’une
émission d’actions peu après l’introduction. Nous testons l’hypothèse suivante, dans le cadre du modèle de Chemmanur :
H3 - Les sociétés sont d’autant plus enclines à sous-évaluer leurs titres
introduits qu’elles envisagent d’augmenter leur capital après l’introduction.
Nous pouvons formuler autrement cette hypothèse :
H3 bis- La probabilité d’une augmentation de capital post introduction
croı̂t avec la sous-évaluation des titres introduits.
Production externe d’information et performances à long terme
Dans le modèle de Chemmanur3 , les informations diffusées par les investisseurs informés révèlent au marché la qualité de la société. Elles signalent
efficacement la valeur de la société introduite. En effet, une société ne gagne
à se faire connaı̂tre via les outsiders informés que si elle est de qualité. Une
société contre-performante ne va pas sous-évaluer délibérément le prix d’introduction, pour que les investisseurs publient leurs informations privées et
ternissent son image. Par conséquent, une relation positive entre la richesse de
3
Selon Healy et Palepu (2000, p. 3) également, les informations privées produites par
des intermédiaires tels que les analystes ou les agences de notation, permettent de résoudre
le problème de sélection adverse.
212
Chapitre 6
l’environnement informationnel d’une société et ses performances boursières
à long terme est déduite du modèle de Chemmanur. Soit encore :
H4- Plus une société suscite l’intérêt des investisseurs informés lors de son
introduction, meilleures sont ses performances à long terme.
Le schéma 6.1 récapitule le modèle théorique testé.
Fig. 6.1 – Le modèle théorique testé dans le chapitre 5
6.2
Présentation de la méthodologie adoptée
et des données
Nous présentons successivement la méthodologie adoptée, l’origine des
données, les variables utilisées et enfin l’échantillon.
6.2.1
La méthodologie adoptée
D’après le modèle de Chemmanur, la sous-évaluation initiale permet à la
société d’enrichir son environnement informationnel. Elle croı̂t par ailleurs
Chapitre 6
213
avec les asymétries d’information. Elle incite ensuite la société à émettre
de nouvelles actions rapidement après l’introduction. Enfin, les informations
diffusées par les analystes financiers sont supposées révéler la qualité de la
société. Richesse de l’environnement informationnel au moment de l’introduction et performances boursières à long terme devraient donc être reliées
positivement.
Plusieurs outils permettent de vérifier ces prédictions.
Des tests univariés non paramétriques différencient la sous-évaluation selon le
niveau d’asymétrie d’information, puis la réalisation (ou non) d’une émission
ultérieure d’actions.
Des régressions multivariées sont ensuite proposées. La richesse informationnelle puis la sous-évaluation et enfin les performances boursières à long terme
constituent les variables dépendantes. Les variables explicatives retenues permettent de tester les implications du modèle de Chemmanur ou représentent
des variables de contrôle.
Enfin, une régression logistique binaire explique la probabilité d’un retour
sur le marché primaire après l’introduction.
6.2.2
L’origine des données
La base d’I/B/E/S a fourni les prévisions des analystes, les BPA réels
un an après l’introduction et le nombre d’analystes suivant les sociétés de
l’échantillon. Les caractéristiques de l’émetteur et de l’émission sont extraites
du prospectus d’introduction. Nous avons relevé les dates des décisions d’augmentation de capital dans la base d’informations financières de la COB (Commission des Opérations de Bourse). Enfin, les performances boursières sont
calculées à partir des données d’Euronext.
6.2.3
Les variables retenues
La richesse informationnelle
Nous définissons le concept de richesse de l’environnement informationnel, puis présentons ses indicateurs de mesure.
Selon Chemmanur, seules les informations produites par les investisseurs
indiquent au marché la qualité du candidat à l’introduction. Les analystes financiers indépendants du chef de file peuvent être considérés comme représentatifs des investisseurs (Derrien et Degeorge, 2001). Par ailleurs, le marché
évalue la société au regard de ses performances futures anticipées. Il a donc
214
Chapitre 6
essentiellement besoin de prévisions (Firth, 1998). Nous limitons donc l’environnement informationnel aux prévisions émises par les analystes non affiliés
au chef de file.
La richesse est ainsi définie littéralement4 : «1 - possession de grands
biens ou d’argent en grande quantité 2 - caractère de ce qui a un grand
prix, une grande valeur ou présente un grand intérêt 3 - caractère de ce
qui contient beaucoup d’éléments ou de nombreux éléments de grande importance ». La richesse est associée à l’abondance. Elle a une dimension
quantitative. Nous qualifions l’environnement informationnel de riche si de
nombreuses informations sont disponibles sur le candidat à l’introduction.
La richesse est également liée à la valeur. Elle revêt une dimension qualitative. Les prévisions des analystes sont informatives si elles sont exactes et
homogènes. Autrement dit, elles doivent traduire le plus fidèlement et objectivement possible l’avenir de l’entreprise. Et la valeur anticipée de la société
doit faire l’objet d’un consensus. En conséquence, la richesse de l’environnement informationnel désigne la quantité et la qualité des prévisions émises
par les analystes indépendants du chef de file sur la société introduite. Des
prévisions de qualité anticipent correctement les perspectives de l’entreprise
et les rendent visibles pour tout investisseur.
Les variables ci-dessous mesurent la richesse de l’environnement informationnel. Les prévisions des analystes réduisent l’incertitude des investisseurs
sur l’évolution de la société si elles sont abondantes, exactes et consensuelles.
À chacun de ces critères est associé un indicateur de mesure.
NAF : nombre d’analystes indépendants du chef de file qui suivent la société
sa première année de vie boursière. Il approche la quantité d’informations
disponibles sur l’émetteur (Baginski et Hassell, 1997 ; Hope, 2002). Dans
la littérature, la taille est souvent utilisée comme variable subrogée de l’information non comptable disponible (Zéghal, 1981). Or la société comme
les analystes produisent des informations non comptables. Nous ne voulions appréhender que la quantité d’informations produites par les investisseurs/analystes car elles-seules signalent la qualité de la société dans le
modèle de Chemmanur.
Erreur-analystes-NCF : erreur moyenne de prévision des analystes indépendants du chef de file. Elle est égale au rapport : (BP A prévu - BP Areel )
/ |BP Areel | Elle mesure la précision des prévisions des analystes (Keasey et
McGuinness, 1991 ; Firth et Smith, 1992 par exemple). Les prévisions sont
formulées à l’horizon d’un an ; au cours de la première année de cotation du
4
Le Petit Robert, dictionnaire de la langue française, édition 2001.
Chapitre 6
215
titre, avant l’arrivée de nouvelles informations5 .
Dispersion-NCF : écart-type des estimations des analystes non affiliés au
chef de file, normé par la valeur absolue du BPA réalisé. Il mesure la divergence d’opinion des analystes sur une société (Fontowicz, 1999).
Dans le reste de l’étude, ces variables seront notées sans le suffixe «NCF»
par souci de concision.
À titre complémentaire, nous avons défini des indicateurs globaux de
richesse (Rich). La richesse dépend de la quantité et de la qualité des
prévisions diffusées sur l’introduction en bourse. Elle croı̂t avec le nombre
d’analystes financiers qui suivent la société introduite. Elle décroı̂t avec la
dispersion des estimations des analystes, ainsi qu’avec leur erreur moyenne
de prévision. Les indicateurs sont construits de sorte à s’interpréter facilement comme des fonctions croissantes de la richesse de l’environnement
informationnel :
naf 2
|erreur| ∗ disper
= 2naf ∗ − erreur∗ − disper∗
= naf ∗ 2 − erreur∗ disper∗
naf ∗ 2
)
= ln(
erreur∗ disper∗
Rich1 =
Rich2
Rich3
Rich4
Les étoiles indiquent que les variables sont réduites entre 0 et 1. Rich2 , Rich3
et Rich4 sont relatifs à l’échantillon considéré, contrairement à Rich1 . Ils ne
permettent pas de comparer la richesse informationnelle de deux échantillons
distincts.
Autres variables
Nous précisons les autres variables retenues dans nos tests.
RIA : rentabilité initiale anormale (ou sous-évaluation) d’un titre i. Elle se
C c i,t0
Ibc t0
calcule comme suit : riai = P OD
−
où C c i,t0 est le cours de clôture du
Ibc t0 −1
i
titre i le jour de l’introduction t0 et P ODi le prix d’offre définitif du titre.
Ibt est la valeur de l’indice boursier SBF 250 à la date t.
raac : rentabilités anormales achat-conservation. Elles sont calculées dix
jours de bourse après le jour de l’introduction, par capitalisation des rentabilités quotidiennes anormales, selon l’expression : raaci τ,T = [
5
T
Q
t=τ
(1 + rai,t )] − 1
En moyenne, les sociétés de l’échantillon publient leurs résultats onze mois après leur
introduction en bourse.
216
Chapitre 6
où τ est le nj eme jour après l’introduction en bourse et T le dernier jour de la
période considérée. rai,t est la rentabilité anormale de la société i à la date t.
Elle s’obtient par différence entre la rentabilité du titre de la société et une
rentabilité normative estimée à partir de l’indice SBF 250 : rai,t = ri,t − rnt .
Les variables suivantes mesurent le niveau d’asymétrie d’information entre
l’entreprise et les investisseurs. Certaines sont significativement corrélées
(voir le tableau 6.14 en annexe du chapitre 6). Nous introduisons donc
sélectivement les variables d’asymétrie dans les modèles de régression.
Taille : logarithme népérien du chiffre d’affaires de la société l’année précédant son introduction. Il mesure la taille de la société. Le nombre d’informations disponibles sur une société augmente avec sa taille (Zéghal, 1981).
Montant : montant introduit en bourse, exprimé en millions de francs. Il
détermine, entre autres, l’intérêt de la communauté financière pour l’opération
(Chemmanur, 1993). Le niveau d’asymétrie d’information et le coût de production de l’information pour les outsiders devraient donc décroı̂tre avec la
taille de l’introduction.
PER : rapport du prix d’offre définitif sur le bénéfice par action de l’année
précédant l’introduction en bourse. Les sociétés de croissance présentent des
PER élevés. L’incertitude et le coût de production de l’information devraient
donc être positivement corrélés au PER.
Secteur : variable dichotomique prenant la valeur 1 si la société appartient
au secteur des nouvelles technologies de l’information et de la communication (NTIC). Nous supposons l’asymétrie moindre pour les firmes relevant
de secteurs traditionnels.
Marché : variable binaire égale à 1 si la société s’introduit sur le Second
Marché (SM), et à 0 sur le Nouveau Marché (NM). Sur le Nouveau Marché,
les sociétés sont plutôt jeunes et en phase de croissance. Elles s’introduisent
pour financer des projets d’investissement risqués, complexes et à rentabilité
incertaine. Elles sont associées à de plus fortes asymétries.
Les variables ci-dessous indiquent l’émission ou non d’actions après l’introduction.
AUG et ACAP : indicateurs d’augmentation de capital. Ils valent 0 si la
société n’a pas augmenté son capital depuis son introduction en bourse et
sur la période étudiée. Ils prennent la valeur 1 si elle a émis des actions dans
les deux ans (AUG) ou l’année (ACAP) suivant sa cotation. Les sociétés
pour lesquelles AUG ou ACAP valent un, sont supposées plus sous-évaluées
initialement que les autres.
Chapitre 6
6.2.4
217
L’échantillon
Formation de l’échantillon
Nous avons retenu les sociétés introduites sur le Second Marché entre
le premier janvier 1994 et le 30 juin 2000, ou sur le Nouveau Marché entre
le premier janvier 1996 et le 30 juin 2000, dont le prospectus définitif était
consultable et dont des analystes financiers indépendants avaient estimé le
BPA à venir. Compte tenu de ces contraintes, l’échantillon comprend 160
sociétés. 107 appartiennent au Second Marché et 53 au Nouveau Marché.
Description de l’échantillon
Le tableau 6.1 rapporte les statistiques descriptives des variables utilisées
dans l’étude empirique, sur l’échantillon global puis par marché. Seules les
différences de moyennes significatives y sont incluses.
Variables
Âge
Taille
PER
Investissement
Dettes
Montant
Flottant
RIA
Naf
Erreur-analystes
Dispersion
Définition variables
date intro. N - date création société
ln(chiffre d’affaires(N-1))
prix intro / BPA(N-1)
inv. prévus / total bilan(N-1)
dettes(N-1) / total bilan(N-1)
montant introduit en MF
en %
rent. initiale anormale
nombre analystes suivant société
erreur prévision analystes
écart type prév. analystes / |BP Areel |
N
160
160
160
155
160
160
160
160
160
160
116
Moyenne
25.3
5.35
32.4
22.9
52.2
153
22.6
0.296
2.99
0.455
0.500
Médiane
13.5
5.23
19.9
10.1
54.0
60.9
20.0
0.144
2.00
0.00
0.090
écart-type
32.2
1.55
178
30.6
22.5
300
12.6
0.944
2.48
2.04
2.06
RICH1
RICH2
RICH3
2naf ∗ − erreur ∗ − disper∗
naf ∗2 − erreur ∗ disper ∗
116
116
116
2.84
0.311
0.103
3.10
0.177
0.0275
1.42
0.461
0.18
RICH4
ln( erreur∗ disper∗ )
1.84
2.07
1.07
N
variables
Âge
Taille
PER
investissement
dettes
Montant introduit
Flottant
RIA
Âge
Taille
investissement
dettes
Flottant
naf 2
|erreur|∗disper
naf ∗2
Moyenne
8.72
4.36
53.2
48.8
41.7
155
27.1
0.292
Dif. moyennes
-24.8****
-1.49****
38.2****
-15.4****
6.62****
Nouveau Marché
53
Médiane
7.00
4.33
38.9
43.8
38.6
69.9
27.7
0.145
Statistique t
-4.90
-6.01
8.94
-4.16
3.60
écart-type
5.99
1.53
310
39.7
26.0
219
9.55
0.442
Sig.
0.000
0.000
0.000
0.000
0.000
Second Marché
107
Moyenne
Médiane
écart-type
33.5
21.0
36.5
5.84
5.80
1.32
22.2
17.6
17.2
10.6
7.10
12.9
57.0
59.9
19.0
151
49.4
334
20.4
16.8
13.3
0.298
0.143
1.11
Tab. 6.1 – Statistiques descriptives calculées sur l’échantillon du chapitre 6
Nous présentons successivement les caractéristiques des émetteurs, des
introductions en bourse et de leur environnement informationnel.
218
Chapitre 6
• Les émetteurs
Les sociétés de l’échantillon ont en moyenne 25 ans quand elles s’introduisent
en bourse. Elles sont assez grandes (32 millions d’euros de chiffre d’affaires)
et endettées (plus de 50% du total du bilan). Leurs projets d’investissement
s’élèvent en moyenne à 23% de l’actif total. Les sociétés du NM sont significativement plus jeunes, plus petites et moins endettées que celles du SM.
Elles ont 8 ans en moyenne au moment de leur introduction, contre 33 pour
celles du SM. Leur chiffre d’affaires moyen est de 12 millions d’euros, rapportés à 52 millions pour celles du SM. Elles sont endettées à hauteur de
42% du bilan total, contre 57% pour les sociétés du SM. Enfin, leurs projets
d’investissement représentent 49% du bilan total, contre seulement 10% pour
les sociétés du SM.
• Les émissions
Les sociétés ont levé en moyenne 23 millions d’euros lors de leur introduction, soit 20% de leur capital pour celles du SM et 27% pour celles du NM.
96% des sociétés du NM ont utilisé la procédure de placement. Sur le Second
Marché, 49% des sociétés ont eu recours à un placement et 38% à une offre à
prix minimal. Le prix d’offre des sociétés de l’échantillon paraı̂t en moyenne
sous-évalué de 29% par rapport au premier cours coté. Derrien et Degeorge
(2001) observent également à une rentabilité initiale anormale de 13.23%,
calculée sur 264 admissions à la cote française entre 1992 et 1998. Chahine
(2001) obtient quant à lui une rentabilité initiale anormale de 10.92% à partir
d’un échantillon de 168 introductions sur le Second Marché et le Nouveau
Marché entre 1996 et 1998. L’échantillon de Schatt et Roy (2001) comprend
192 introductions sur les Second et Nouveau Marchés entre 1996 et 2000.
Leur prix d’offre apparaı̂t en moyenne sous-évalué de 2.92% par rapport au
cours de clôture de la première séance.
Le tableau 6.2 reporte les rentabilités achat-conservation des titres de
l’échantillon, cumulées sur trois, six, douze, vingt-quatre ou trente-six mois
après le dixième jour de bourse. Raac et RAC désignent respectivement les
rentabilités ajustées ou non de celles de l’indice SBF 250. Le test t de Student
peut être significatif au seuil de 10% (*), 5% (**) ou 1% (***).
La figure 6.2 représente les rentabilités anormales achat-conservation, cumulées sur 750 jours à compter du dixième jour de cotation et calculées avec
différentes rentabilités normatives (MIDCAC, SBF SM, SBF 250).
Les sociétés de l’échantillon ne semblent pas sous- ou sur-performer significativement l’indice SBF 250 leurs trois premières années de cotation.
Eu égard aux Kurtosis et Skewness très élevés, l’interprétation des résultats
Chapitre 6
219
RAAC
Moyenne
Médiane
Kurtosis
Skewness
Écart-type
t Student
Sig.
N
RAC
Moyenne
Médiane
Kurtosis
Skewness
Écart-type
t Student
Sig.
N
3 mois
-0.006
-0.035
0.993
3.79
0.250
-0.295
0.769
160
3 mois
-0.021
-0.029
-1.05
7.60
0.267
-0.975
0.331
160
6 mois
-0.009
-0.062
3.65
25.7
0.453
-0.233
0.816
160
6 mois
-0.051
-0.043
-0.798
6.25
0.421
-1.492
0.138
160
12 mois
0.0021
-0.140
4.33
29.3
0.769
0.033
0.973
160
12 mois
-0.097
-0.083
-0.597
5.47
0.626
-1.871*
0.063
160
24 mois
0.238
-0.319
5.42
34.1
2.11
1.182
0.240
121
24 mois
-0.136
-0.165
0.807
2.67
0.558
-2.686***
0.008
121
36 mois
1.27
-0.375
8.07
66.2
10.0
1.046
0.299
79
36 mois
-0.217
-0.292
1.22
3.95
0.716
-2.695***
0.009
79
Tab. 6.2 – Performances boursières à long terme pour différentes périodes
calculées sur l’échantillon du chapitre 6
du t de Student doit rester prudente. En nombre, les raac sont toujours
négatifs, indépendamment de la période d’observation. En moyenne, les rentabilités anormales achat-conservation deviennent positives douze mois après
le dixième jour de cotation. Mais elles ne diffèrent pas statistiquement de zéro.
Seules les rentabilités achat-conservation non ajustées apparaissent significativement négatives dès la première année boursière.
• L’environnement informationnel
Trois analystes indépendants suivent en moyenne les sociétés de l’échantillon
leur première année de cotation. Les sociétés cotées sur le marché secondaire américain sont nettement plus couvertes, avec une moyenne de 13.94
analystes par société (Bhushan, 1989). Sur notre échantillon, les analystes
se trompent en moyenne de 45% dans leurs prévisions, par ailleurs très dispersées. Ils s’avèrent plutôt optimistes dans leurs estimations. Ce résultat est
conforme aux travaux antérieurs. Chahine (2001) a également évalué la capacité prédictive des analystes suivant les introductions en bourse franèaises.
Leurs prévisions à l’horizon d’un an après l’introduction excèdent en moyenne
de 19%6 les réalisations.
6
Chahine calcule l’erreur de prévision de la manière suivante : (BP Areel BP Aprevu )/BP Aprevu .
220
Chapitre 6
Performances boursières des titres de l'échantillon
1,40
Rentabilité anormale
achat conservation
1,20
1,00
MIDCAC
0,80
0,60
0,40
SBFSM
0,20
0,00
SBF250
-0,20
0
100
200
300
400
500
600
700
800
Nombre de jours après introduction en bourse
Fig. 6.2 – Rentabilités anormales achat conservation des titres introduits en
bourse
En calculant le rapport (BP Areel - BP Aprevu )/Cours du titre, Derrien et Degeorge (2001) obtiennent une erreur moyenne à un an de -0.37% sur le marché
primaire français ; Rajan et Servaes (1997), de -5.77% sur le marché primaire
américain.
6.3
Les résultats de l’étude empirique
Nous vérifions nos hypothèses sur l’échantillon de 160 sociétés, introduites
sur le Nouveau Marché entre 1996 et 2000, ou le Second Marché entre 1994
et 2000.
6.3.1
Les résultats des tests univariés
Nous mesurons l’influence du niveau d’asymétrie puis de la réalisation
d’une augmentation de capital post introduction sur la richesse de l’environnement informationnel et la sous-évaluation. Nous observons enfin si la
sous-évaluation incite les analystes à produire des informations, et la société
à revenir rapidement sur le marché primaire.
Chapitre 6
221
Impact du niveau d’asymétrie
Nous supposons le degré d’asymétrie d’autant plus élevé que la société
appartient au secteur des nouvelles technologies de l’information et de la
communication (NTIC) ou au Nouveau Marché. Le tableau 6.3 récapitule les
différences de moyennes significatives.
Variables
Définition variables
Influence du secteur (autre que NTIC =0 - NTIC = 1)
moyennes
Dif. moyennes (0-1)
naf 2
|erreur|∗disper
Rich1
RIA
rentabilité initiale anormale
Variables
Naf
Disper
Influence du marché (Nouveau Marché = 0 - Second Marché = 1)
Définition variables
moyennes
Dif. Moyennes (0-1)
nombre analystes suivant société
2.66/3.47
-0.81*
écart type prév. analystes / |BP Areel |
0.975/0.250
0.725*
Rich1
Rich4
naf 2
|erreur|∗disper
naf ∗ 2
ln( erreur ∗ disper∗
)
3.48/2.66
0.128/0.352
0.816***
-0.224**
Stat. t
Sig.
N
2.61
-2.18
0.010
0.031
25/91
40/120
Stat. t
-1.76
1.82
Sig.
0.082
0.071
N
53/107
40/76
1.90/3.33
-1.43****
-5.88
0.000
40/76
1.2967/2.092
-0.7952****
-3.853
0.000
40/76
Tab. 6.3 – Impact du secteur et du marché sur la sous-évaluation et la
richesse de l’environnement informationnel
D’après le tableau 6.3, les analystes sont significativement plus nombreux
à suivre les introductions sur le Second Marché (3.5 en moyenne) que sur le
Nouveau Marché (2.5 en moyenne). Leurs estimations sont également significativement moins dispersées quand elles portent sur les résultats des sociétés
du Second Marché. L’environnement informationnel des sociétés du Nouveau
Marché ou des NTIC apparaı̂t globalement moins riche, aux seuils respectifs
de 1% et 0.1%. Le coût de production de l’information semble donc bien
croı̂tre avec le niveau d’asymétrie d’information.
Les tests univariés ne relient pas clairement le recours à la sous-évaluation
à la présence de fortes asymétries d’information. Certes les sociétés des NTIC
(secteur = 1) sont significativement plus sous-évaluées (35% en moyenne)
que celles des autres secteurs (13% en moyenne). Mais la rentabilité initiale
anormale n’est pas significativement plus forte pour les sociétés du Nouveau
Marché que pour celles du Second Marché.
Impact d’une émission subséquente d’actions
L’émission ou non d’actions après l’introduction en bourse nous a permis
de partitionner l’échantillon. 15 sociétés sont revenues sur le marché primaire
leur première année de cotation ; 33 dans les vingt-quatre mois. 145 (respectivement 127) sociétés n’ont pas augmenté leur capital entre 1994 et 2000,
ou bien l’ont fait plus d’un an (respectivement deux ans) après leur introduction. Nous comparons la richesse informationnelle, la sous-évaluation et
222
Chapitre 6
l’asymétrie d’information de ces groupes de sociétés (voir le tableau 6.4). Ne
figurent que les différences de moyennes significatives.
Variables
Taille
Naf
Erreur
RIA
Variables
RIA
Non réalisation (=0) / Réal. (=1) d’une augm. de cap. un an après l’introduction
définition variables
Moyennes (0/1)
Dif. moyennes (0-1)
Stat. t
ln(chiffre d’affaires(N-1))
28.3/15.0
0.881*
1.744
nombre analystes suivant société
2.89/4.07
-1.17*
-1.675
erreur prévision analystes
0.467/0.031
0.436*
1.87
rentabilité initiale anormale
0.223/0.801
-0.577**
-2.25
Non réalisation (=0) / Réal. (=1) d’une augm. de cap. 2 ans après l’introduction
définition variables
Moyennes (0/1)
Dif. moyennes (0-1)
Stat. t
rentabilité initiale anormale
0.221/0.582
-0.361**
-1.973
Sig.
0.10
0.096
0.064
0.026
N
145/15
145/15
145/15
145/15
Sig.
0.05
N
127/33
Tab. 6.4 – Lien entre la réalisation d’une augmentation de capital post introduction, la sous-évaluation et la richesse de l’environnement informationnel
Les sociétés ayant augmenté leur capital leur première année de cotation sont significativement plus petites que les autres, au seuil de 10%. Elles
sont significativement plus suivies par les analystes (quatre en moyenne). Les
analystes sont très précis quand ils anticipent les résultats de ces sociétés.
Il se trompent significativement plus (au seuil de 10%) quand ils évaluent
l’autre groupe de sociétés : leur erreur moyenne approche les 300%. L’émission
subséquente de titres n’influence significativement ni l’écart-type des estimations des analystes, ni les critères globaux de richesse informationnelle (Rich).
Sur notre échantillon, les sociétés ayant émis des actions douze ou vingtquatre mois après leur introduction apparaissent significativement plus sousévaluées (70% en moyenne) que les autres (22%). Ce résultat rejoint les
prédictions du modèle de Chemmanur. Les sociétés ne récupèrent le coût
de la sous-évaluation que si elles reviennent sur le marché primaire. Leur
qualité n’est en effet révélée et intégrée que sur le marché secondaire. Seules
les sociétés qui envisagent dès l’introduction un second appel au marché
sous-évaluent leurs titres introduits. Nos observations sont conformes à celles
de Faugeron-Crouzet et Ginglinger (2001). Leur échantillon comprend 292
introductions sur le Second Marché entre 1983 et 1994. Un quart ont augmenté leur capital dans les quatre ans. Ces sociétés sont significativement
plus sous-évaluées que les autres, de l’ordre de 7%.
Impact du degré de sous-évaluation
Les sociétés de l’échantillon sont regroupées selon les niveaux de sousévaluation définis par Krigman et alii (1999) : moins de 0%, entre 0 et 10%,
entre 10 et 60% et plus de 60%. La première classe compte 37 sociétés ; la
seconde, 38 ; la troisième, 61 et la dernière 24. Le tableau 6.5 évalue la richesse
de l’environnement informationnel des quatre groupes. Il indique également
Chapitre 6
223
la proportion de chaque groupe ayant augmenté leur capital dans l’année ou
les deux ans post introduction.
N
NAF
Erreur-analystes
Dispersion
Définition
variables
effectifs
nombre analystes suivant société
erreur prévision analystes
écart type prév. analystes / |BP Areel |
Rentabilité initiale anormale (%)
<0
[0 ; 10 ] [10 ; 60]
> 60
37
38
61
24
2.30
2.55
3.36
3.79
0.821
0.709
0.245
0.019
0.214
0.33
0.569
1.45
− disper∗
naf ∗2 − erreur∗ disper∗
2.74
0.162
0.045
2.88
0.216
0.055
2.98
0.443
0.158
2.99
0.444
0.118
1.63
0.054
0.16
1.73
0.0789
0.18
1.94
0.115
0.21
2.01
0.125
0.25
naf 2
|erreur|∗disper
2naf ∗ − erreur∗
RICH1
RICH2
RICH3
RICH4
Acap = 1
AUG = 1
∗2
naf
ln( erreur
∗ disper ∗ )
aug. cap. dans l’année post intro.
aug. cap. dans les deux ans post intro.
Tab. 6.5 – Influence du degré de sous-évaluation sur la richesse de l’environnement informationnel et la réalisation d’une augmentation de capital post
introduction
Nous observons que le nombre d’analystes suivant une société et donc, logiquement, l’écart-type de leurs estimations augmentent avec la sous-évaluation. Cependant, l’erreur moyenne de prévision des analystes diminue avec
la sous-évaluation. Autrement dit, en présence d’une forte sous-évaluation,
les prévisions sont plus nombreuses et plus dispersées. Mais les estimations
optimistes et pessimistes semblent ici se compenser dans le calcul de l’erreur
moyenne de prévision. Par conséquent, les prévisions des analystes apparaissent globalement plus précises, bien que plus hétérogènes. Les indicateurs
de richesse Rich1 à Rich4 croissent avec la sous-évaluation. Enfin, le groupe
des sociétés les plus sous-évaluées augmente plus fréquemment son capital
dans l’année ou les deux ans suivant l’introduction que les autres groupes.
Au total, la sous-évaluation des titres introduits semble inciter les analystes à
diffuser des prévisions, et la société à émettre de nouvelles actions peu après
l’introduction.
6.3.2
Les résultats des tests multivariés
Sous-évaluation et richesse de l’environnement informationnel
La richesse de l’environnement informationnel est régressée sur la rentabilité initiale anormale. Elle est mesurée par le nombre d’analystes suivant la société considérée (Naf), l’écart-type des estimations des analystes
(Disper), l’erreur moyenne de prévision des analystes (Erreur), des critères
naf 2
; Rich2 =2naf ∗ − erreur∗ − disper∗ ).
globaux (Rich1 = |erreur|∗disper
224
Chapitre 6
Les régressions sont menées sur l’échantillon total (160 observations), puis
par marché d’introduction. Le tableau 6.6 donne les modèles les plus significatifs obtenus. Nous indiquons les t de Student entre parenthèses et précisons
leur significativité par des étoiles (* (10%), ** (5%), *** (1%), **** (0.1%)).
échantillon
Constante
RIA
F
R2 ajusté
N
Nouveau Marché et Second Marché
Naf
Disper
Rich1
Rich2
2.815
3.436
3.14
9.2710−2
(14.0****) (0.854) (28.72****)
(5.05)
0.582
10.08
0.224
2.5810−2
(2.85***) (2.28**)
(1.84*)
(1.701*)
8.14***
5.202**
2.38*
2.89*
0.043
0.024
0.013
0.018
160
116
116
116
NM
Naf
2.18
(6.59****)
1.645
(2.62**)
6.85**
0.101
53
SM
Naf
3.00
(11.6****)
0.499
(2.208**)
4.88**
0.035
107
Tab. 6.6 – Explication de la richesse de l’environnement informationnel par
la sous-évaluation
Sur l’échantillon total ou scindé par marché, la quantité d’information
diffusée sur le candidat à l’introduction augmente avec la sous-évaluation.
Nous confirmons les résultats obtenus sur le marché américain. Par exemple,
Chen et Ritter (2000) et Das et al. (2002) trouvent que les titres introduits
les plus sous-évalués sont aussi les mieux couverts. Sur un échantillon de 2274
sociétés introduites entre 1975 et 1987, Rajan et Servaes (1997) montrent que
la sous-évaluation détermine positivement et très significativement (β = 0.99,
t=6.51) le nombre moyen d’estimations publiées par les analystes la première
année de cotation. Sur l’échantillon d’Aggarwal et alii (2002), les titres sousévalués de 50% font l’objet d’1.44 recommandations supplémentaires d’analystes indépendants du chef de file, comparé aux sociétés non sous-évaluées.
Sur nos 160 observations, les erreurs de prévision des analystes ne diminuent pas significativement avec le degré de RIA. Les indicateurs globaux de
richesse sont positivement et significativement (au seuil de 10%) reliés à la
sous-évaluation. Mais contrairement à nos anticipations, l’écart-type des estimations des analystes croı̂t avec la rentabilité initiale anormale. Le pouvoir
explicatif des modèles est faible, de 1.3% à 4.3%. Toutefois les F de Fisher
sont significatifs. Au vu de nos résultats, la sous-évaluation explique mieux la
quantité d’informations disponibles sur la société introduite, que leur qualité.
Nous ne validons donc que partiellement l’hypothèse H1.
Dans les modèles suivants (tableau 6.7), la rentabilité initiale anormale
(RIA) est intégrée en même temps que les variables d’asymétrie (la taille
Chapitre 6
225
de la société, le montant introduit, le PER d’introduction) et l’indicateur
d’augmentation de capital (AUG). Les variables dépendantes sont les mêmes
que dans le tableau 6.6. S’y ajoutent Rich3 = naf ∗ 2 − erreur∗ disper∗ et
naf ∗2
Rich4 =ln( erreur
∗ disper ∗ ) (l’étoile signifie que les variables sont réduites entre
0 et 1). Les VIF sont précisés en italique. Ils permettent de contrôler la
multicolinéarité des variables explicatives. L’indépendance linéaire implique
un VIF égal à 1.
échant.
Constante
RIA
Taille
(= ln(CAHT))
Montant
PER
(prix intro/BP AN −1 )
F
R2 ajusté
N
Naf
0.695
(1.076)
0.629
(3.32****)
1.002
3.21
(2.79***)
1.007
2.5410−3
(4.25****)
1.008
12.5****
0.178
160
Nouveau Marché et
Erreur
Rich1
0.525
1.771
(3.24***)
(8.72****)
-1.57410−3
0.567
(-1.71*)
(2.86***)
1.001
1.008
7.4310−4
(2.21**)
1.008
2.1610−3
(2.42**)
1.001
5.83**
0.029
160
9.2****
0.223
116
Second Marché
Rich2
Rich3
-4.510−2
-2.3310−2
(-0.306)
(-0.404)
7.1810−2
2.8910−2
(1.924*)
(1.977*)
1.005
1.005
4.7410−2
1.6510−2
(1.896*)
(1.682*)
1.003
1.003
3.4210−4
1.2010−4
(2.84***)
(2.546**)
1.006
1.006
5.02***
0.105
116
4.28***
0.087
116
Rich4
0.975
2.8***
0.155
(2.584**)
1
6.72**
0.055
116
Tab. 6.7 – Explication de la richesse informationnelle par la sous-évaluation
et le niveau d’asymétrie sur l’échantillon total
Sur l’échantillon total, la sous-évaluation est reliée de manière significative, positivement au nombre d’analystes suivant la société (Naf) et aux
critères globaux de richesse (Rich1 à Rich3 ) ; négativement aux erreurs de
prévision des analystes. Nous observons également que de plus nombreuses
informations, de meilleure qualité sont diffusées sur la société introduite en
présence de faibles asymétries. Ainsi, la taille de la société et de l’opération
détermine positivement et significativement Naf et les indicateurs agrégés
de richesse (Rich). Sur leur échantillon, Rajan et Servaes (1997) obtiennent
également une relation positive entre le nombre d’analystes suivant la société
introduite et la taille de celle-ci (β = 0.59 ; t = 17.8). Bhushan (1989), sur
un échantillon de 1409 sociétés cotées sur le NYSE ou l’AMEX en 1985,
montre que la taille de la société est reliée positivement et significativement
au niveau de couverture par les analystes. Produire des informations sur
une société ou une opération de grande taille semble moins coûteux (Zéghal,
1981) et donc plus incitatif pour les analystes. Par ailleurs, les prévisions
des analystes s’avèrent d’autant moins exactes que le Per de la société est
226
Chapitre 6
élevé. Autrement dit, les analystes estiment d’autant moins précisément les
résultat d’une entreprise que celle-ci a un fort potentiel de croissance. Degeorge et Derrien (2001) montrent, quant à eux, que les erreurs de prévision
des analystes diminuent avec la taille de la société (β = 0.008 ; t = 4.4).
Ils s’intéressent aux analystes suivant un échantillon de 1 522 sociétés introduites ou cotées sur le marché secondaire français.
L’analyse est désormais conduite sur le sous-échantillon des sociétés du
Nouveau Marché (tableau 6.8).
échant.
Constante
RIA
Montant
Naf
1.328
(4.16****)
1.746
(3.38****)
1.002
5.2910−3
(5.07****)
1.002
AUG
F
R2 ajusté
N
17.9****
0.394
53
Nouveau
Rich2
-0.183
(-1.933*)
0.298
(2.771***)
1.086
9.15010−4
(4.257****)
1.011
0.321
(2.836***)
1.077
9.343****
0.439
40
Marché
Rich3
-6.4510−2
(-2.472**)
0.143
(4.769****)
1.086
3.32810−4
(5.538****)
1.011
7.10510−2
(2.242**)
1.077
16.45****
0.592
40
Rich4
0.818
(3.558***)
0.611
(1.979*)
1.061
0.746
(2.335**)
1.061
3.794**
0.153
40
Tab. 6.8 – Nouveau Marché : explication de la richesse informationnelle par
la sous-évaluation et le niveau d’asymétrie
Les résultats confortent ceux obtenus sur l’échantillon total. La richesse de
l’environnement informationnel des sociétés du Nouveau Marché croı̂t avec
la sous-évaluation et diminue avec le coût de production de l’information.
La sous-évaluation augmente significativement aussi bien la quantité d’informations disponibles (modèle 1 du tableau 6.8) que les critères globaux de
richesse (modèles 2 à 4). Ces derniers croissent également avec le montant
introduit. Enfin, l’environnement informationnel est d’autant plus riche que
les sociétés augmentent leur capital au cours de leurs deux premières années
de cotation.
Enfin, nous menons les régressions sur le sous-échantillon des sociétés du
Second Marché (tableau 6.9).
L’impact de la sous-évaluation sur la richesse informationnelle des sociétés
Chapitre 6
227
échant.
Constante
RIA
Taille
Naf
-0.573
(1.01)
0.548
(2.36**)
1.004
0.675
(3.23***)
1.004
Montant
PER
F
R2 ajusté
N
13.6****
0.263
107
Disper
-0.179
(-1.16)
9.685
(2.20**)
1.003
-6.2810−4
(-2.28**)
1.203
2.3010−2
(4.14****)
1.203
8.78****
0.172
76
Second Marché
Rich1
Rich2
3.518
-0.149
(15.9****)
(-0.608)
1.18
(1.67*)
1.003
9.29110−2
(2.522**)
1.054
-1.3810−3
1.0710−3
3.73910−4
(-2.34**)
(2.70**)
(2.546**)
1.031
1.031
1.265
5.0210−2
1.6310−2
-6.9010−3
(4.37****)
(2.06**)
(-2.334**)
1.207
1.062
1.274
9.71****
4.18**
4.874***
0.141
0.078
0.181
107
76
76
Erreur
-0.533
(-1.83*)
-2.2310−3
(-1.65*)
1.003
Rich3
-0.135
(-1.409)
Rich4
2.289
(11.96****)
4.16710−2
(2.681**)
1.0
7.189***
0.081
76
6.98810−4
(2.108**)
1.196
-1.3810−2
(-2.076**)
1.196
3.117*
0.059
76
Tab. 6.9 – Second Marché : explication de la richesse informationnelle par
la sous-évaluation et le niveau d’asymétrie
du Second Marché est plus faible, voire disparaı̂t (colonnes 6 et 7, tableau
6.9). L’indicateur d’augmentation de capital n’est plus significatif. Les sociétés
du Second Marché sont caractérisées par de plus faibles asymétries d’information que celles du Nouveau Marché. Par conséquent, elles auraient moins
besoin de recourir à la sous-évaluation puis de revenir sur le marché primaire. Ainsi, sur notre échantillon, la quantité d’informations et les critères
globaux de richesse augmentent avec la taille de la société. L’inexactitude
et la dispersion des estimations des analystes croissent avec le PER et diminuent avec le montant introduit. Le Per et la taille de l’opération déterminent
respectivement négativement et positivement les critères globaux de richesse.
Sous-évaluation et asymétrie d’information
La rentabilité initiale anormale constitue la variable dépendante. Le marché
d’introduction (égal à 1 pour le Second Marché, 0 pour le Nouveau Marché),
la taille de la société (mesurée par le logarithme népérien du chiffre d’affaires
l’année précédant l’introduction), son secteur d’activité (égal à 0 pour les
secteurs traditionnels et à 1 pour les NTIC) approchent le degré d’asymétrie.
Les t de Student, entre parenthèses, peuvent être significatifs à 10% (*), 5%
(**), 1% (***) ou 0.1% (****).
Seule l’analyse réalisée sur les 127 sociétés n’ayant pas émis de titres après
leur introduction, ou l’ayant fait au-delà de 24 mois, donne des résultats significatifs. La taille de la société a une influence négative et significative au
228
Chapitre 6
Constante
Marché
Taille
secteur
F
R2 ajusté
N
Variable dépendante : RIA
Modèle 1
Modèle 2
Modèle 3
0.349
0.542
0.451
(6.337)**** (5.228)**** (3.923)****
-0.174
(-2.702)***
-5.9010−2
-5.7310−2
(-3.212)*** (-3.141)***
1.003
0.111
(1.764)*
1.003
7.301***
10.32***
6.801***
0.048
0.069
0.084
127
127
127
Tab. 6.10 – Explication de la sous-évaluation par le niveau d’asymétrie
seuil de 1% sur la sous-évaluation (modèles 2 et 3). Les sociétés apparaissent
également d’autant plus sous-évaluées qu’elles appartiennent au Nouveau
Marché ou au secteur des NTIC (modèles 1 et 3). En supposant la taille, le
secteur et le marché d’introduction de la société liés au niveau d’asymétrie,
ces résultats confortent l’idée d’une sous-évaluation croissante avec le niveau d’asymétrie. Nous confirmons l’hypothèse H2 et les résultats des études
antérieures.
Sur le marché américain, Muscarella et Vetsuypens (1989) et Ritter (1991)
établissent une relation positive significative entre la sous-évaluation et le
niveau d’asymétrie. Sur le Second Marché français, Ginglinger et FaugeronCrouzet (2001) obtiennent une sous-évaluation croissante avec le PER et
décroissante avec la taille de l’opération.
L’influence de la sous-évaluation sur la qualité des informations diffusées
semble donc devoir être interprétée en fonction du niveau d’asymétrie d’information. Dans le modèle de Chemmanur, les sociétés ne sous-évaluent leurs
titres introduits qu’en présence de fortes asymétries. Elles rémunèrent ainsi
les investisseurs pour leur production d’information, dont le coût croı̂t avec
le niveau d’asymétrie.
Le degré d’asymétrie n’explique pas significativement la sous-évaluation
des trente trois sociétés revenues sur le marché primaire moins de deux ans
après leur introduction. Nous avions par ailleurs observé que ces trente trois
sociétés étaient significativement plus sous-évaluées que les cent vingt sept
autres (tableau 6.4). Dans le modèle de Chemmanur, les sociétés envisageant
Chapitre 6
229
dès l’introduction un second appel au marché, sont plus enclines à sousévaluer initialement leurs titres. La sous-évaluation encourage alors les investisseurs à produire des informations qui résorbent les asymétries. Elle «neutralise» l’impact des variables d’asymétrie dans les modèles de régression.
La probabilité d’une émission ultérieure d’actions
Dans le modèle de Chemmanur, les sociétés performantes sous-évaluent
les titres introduits en bourse pour inciter les analystes à informer le marché
de leur qualité. Les actionnaires originaires ont donc intérêt à céder leurs
titres, une fois les informations des analystes intégrées dans les cours. La
sous-évaluation initiale et un environnement informationnel riche rendent
donc probable une nouvelle émission d’actions peu après l’introduction.
Nous testons cette hypothèse, via les deux modèles logit suivants :
P (ACAPi ) =
1
1 + exp −[α + Xi β]
P (AU Gi ) =
1
1 + exp −[α + Xi β]
et
.
P (ACAPi ) et P (AU Gi ) désignent les probabilités qu’une société i augmente
son capital dans les douze/vingt-quatre mois suivant son introduction.
Le vecteur Xi comprend la rentabilité initiale anormale (RIA) et les indicateurs de richesse de l’environnement informationnel. Sont enfin incluses
comme variables de contrôle, les rentabilités anormales achat-conservation
cumulées sur douze ou vingt-quatre mois (raac-12 et raac-24) et des variables d’asymétrie.
Les tableaux 6.11 et 6.12 présentent les modèles logit obtenus. NAF est le
nombre d’analystes indépendants suivant la société au cours de sa première
année boursière. La taille est égale au logarithme népérien du chiffre d’affaires. Le PER est le rapport du prix d’offre sur le bénéfice par action de
l’année précédant l’introduction. Les coefficients bêta sont donnés et les statistiques de Wald sont précisées entre parenthèses.
D’après les résultats de la régression logistique, les sociétés semblent d’autant enclines à émettre des actions dans l’année suivant leur introduction en
bourse que la sous-évaluation est importante. L’hypothèse H3 bis est donc
confirmée.
La probabilité d’une augmentation de capital au plus tard un an après l’admission à la cote décroı̂t avec la taille de la société. Ces résultats confortent
230
Chapitre 6
observations
RIA
NAF
raac-12
Taille
Constante
χ2
R2 de Cox-Snell
Variable dépendante : ACAP
Modèle 1
Modèle 2
160
160
0.361 (4.21**)
0.475 (6.30**)
1.16 (6.56***)
1.07 (5.61**)
-0.411 (3.95**)
-0.313 (0.088)
-0.822 (0.531)
12.4***
15.0****
0.128
0.152
Tab. 6.11 – Probabilité d’une augmentation de capital dans l’année suivant
l’introduction
ceux de Ginglinger et Faugeron-Crouzet (2001). Ces auteurs travaillent sur
un échantillon de 292 sociétés introduites au Second Marché entre 1983 et
1994. Elles montrent que la probabilité d’un second appel de fonds moins
de quatre ans après l’introduction diminue avec la taille de l’opération et
le désengagement des actionnaires principaux, et augmente avec la sousévaluation.
Sur notre échantillon, les sociétés paraissent attendre un marché boursier favorable et un environnement informationnel propice à une nouvelle levée de
fonds. La probabilité d’une augmentation de capital dans l’année post introduction augmente en effet avec les rentabilités anormales achat-conservation
cumulées sur douze mois, ainsi qu’avec la quantité d’informations diffusées
au cours de la première année de cotation. De manière proche, Aggarwal et
alii (2002) obtiennent une probabilité d’émission de titres post introduction
croissante avec le nombre de recommandations des analystes indépendants.
Plus précisément, l’émission d’1.44 recommandations supplémentaires par
des analystes indépendants augmente de 0.049% le nombre d’actions cédées
par les insiders, par rapport au nombre total d’actions en circulation dans
l’intervalle [-2 mois, +2 mois] encadrant la date d’expiration du lock up.
Le tableau 6.12 analyse la probabilité qu’une société augmente son capital dans les vingt-quatre mois post introduction.
Les coefficients des variables mesurant la quantité et la qualité des informations diffusées sur la société pendant la première année boursière, ne diffèrent
plus statistiquement de zéro. La rentabilité initiale anormale (RIA) voit
son pouvoir explicatif se dégrader. Seules les sociétés du Nouveau Marché
semblent d’autant plus enclines à augmenter leur capital dans les vingt-quatre
mois suivant leur introduction qu’elles sont initialement sous-évaluées. Les
sociétés de l’échantillon semblent donc davantage profiter du «momentum
Chapitre 6
231
échantillon
observations
RIA
PER
Constante
χ2
R2 de Cox-Snell
Variable dépendante : AUG
Nouveau Marché Second Marché
53
116
1.57* (3.82)
0.952 (0.425)
0.0 (0.159)
0.038** (3.94)
0.244 (0.487)
-2.90**** (23.7)
5.53*
8.22**
0.09
0.068
Tab. 6.12 – Probabilité d’une augmentation de capital dans les deux ans
suivant l’introduction
informationnel» induit par la sous-évaluation initiale, avant la fin de leur
première que deuxième année de cotation. Elles reviennent sur le marché,
avant que le signal émis - les informations diffusées par les analystes - ne
perdent de son effet bénéfique.
Enfin, sur le Second Marché, la probabilité d’émettre des actions après l’introduction croı̂t avec le PER. Plus le dirigeant sent le marché confiant dans
les perspectives de sa société, et plus il est incité à revenir sur le marché.
Publication d’informations par les analystes et signal de qualité
Dans le modèle de Chemmanur (1993), les informations produites par les
analystes financiers révèlent au marché la réelle valeur de la société introduite en bourse. Elles influencent donc les cours du titre à la hausse. Les
performances boursières à long terme des sociétés introduites en bourse sont
supposées croı̂tre avec la quantité et la qualité des informations diffusées au
cours de la première année boursière.
Pour tester cette hypothèse (H4), les rentabilités anormales achat-conservation cumulées sur douze (raac-12), vingt-quatre (raac-24) et trente-six
mois (raac-36) sont régressées sur les approximations du nombre et de la
qualité des informations disponibles la première année boursière de la société.
Les modèles les plus significatifs obtenus sont reportés dans le tableau 6.13.
Pour chaque variable explicative apparaissent le coefficient β, la valeur du t
entre parenthèses et les VIF en italique. Le t peut être significatif au seuil de
10% (*) ou de 5% (**).
Au vu du tableau 6.13, le nombre d’analystes suivant la société sa première
année de cotation détermine positivement et significativement les rentabilités
anormales achat-conservation cumulées sur vingt-quatre ou trente-six mois.
Nos résultats prolongent ceux d’Aggarwal et al. (2002). Ces auteurs calculent
les rentabilités achat-conservation (non ajustées) de 618 sociétés admises à
232
Chapitre 6
Constante
NAF
Erreur-analystes
F
R2 ajusté
N
Variable dépendante
raac-12
raac-24
raac-36
-0.525
-1.50
-1.68
(-2.24**) (-2.05**)
(-0.86)
0.529
2.63
(2.44**) (2.38**)
1.006
-0.053
-0.050
(-2.02**) (-1.98*)
1.006
4.665**
3.44**
3.23**
0.071
0.073
0.066
160
121
79
Tab. 6.13 – Explication des performances boursières à long terme par la
sous-évaluation initiale, le nombre et la qualité des informations disponibles
la première année de cotation
la cote américaine entre janvier 1994 et décembre 1999. Ces rentabilités sont
cumulées sur les six premiers mois de cotation. Elles augmentent significativement avec le nombre d’apparitions du titre dans la base de First Call et le
nombre de recommandations publiées par les analystes indépendants.
Nous observons par ailleurs que les raac cumulées sur douze et vingtquatre mois diminuent avec l’erreur moyenne de prévision des analystes
indépendants. Derrien et Degeorge (2001) notent également que le marché
réagit de manière positive et significative à la précision ex post des prévisions
des analystes d’I/B/E/S.
Au total, les performances boursières à long terme des sociétés de l’échantillon
sont d’autant plus élevées qu’elles ont fait l’objet de prévisions nombreuses
et précises de la part des analystes. L’hypothèse H4 est confirmée.
Conclusion
La troisième partie de cette thèse s’intéresse aux moyens d’améliorer l’environnement informationnel des sociétés introduites en bourse. Le chapitre
6 visait à évaluer l’efficacité de la solution au problème de sélection adverse
proposée par Chemmanur (1993). Dans son modèle, Chemmanur montre que
l’actionnaire-dirigeant peut inciter les analystes à informer le marché de la
réelle valeur de la société en sous-évaluant le prix d’introduction. La société
délègue donc aux analystes l’émission du signal. Mais elle en supporte le coût,
à travers la sous-évaluation. Les actionnaires originaires ne se désengagent
Chapitre 6
233
donc que partiellement à la date de l’introduction. Une fois le signal de qualité capté sur le marché secondaire du titre, ils cèdent leurs titres restants à
un meilleur prix qu’en l’absence de sous-évaluation.
Au vu de nos résultats, la sous-évaluation détermine moins la qualité des
informations disponibles sur le candidat à l’introduction, que leur quantité.
Dans les modèles de régression, elle est en effet reliée positivement et significativement au nombre d’analystes suivant la société et à la dispersion de
leurs prévisions. En revanche, l’impact de la sous-évaluation sur la précision
des prévisions des analystes est moins patent.
Par ailleurs, nous observons que de fortes asymétries d’information ex ante
ne suffisent à décider les sociétés à sous-évaluer le prix d’offre. Le degré
d’asymétrie approché par la taille, le marché d’introduction et le secteur
d’activité de la société, n’accroı̂t en effet la sous-évaluation que sur le souséchantillon des sociétés ayant augmenté leur capital dans les deux ans post
introduction. Le coût de production de l’information pour les analystes mais
aussi la perspective d’un nouvel appel public à l’épargne paraissent donc inciter la société à sous-évaluer les titres introduits.
Les régressions logit confirment au demeurant que la probabilité d’une augmentation de capital après l’introduction croı̂t avec la sous-évaluation initiale
et le nombre d’analystes suivant la société sa première année boursière. Autrement dit, les sociétés introduites semblent profiter d’un environnement
informationnel enrichi (suite à la sous-évaluation), pour émettre à nouveau
des titres plutôt dans les douze que vingt-autre mois post introduction.
Enfin, les résultats confirment l’hypothèse d’une signalisation via les informations diffusées par les analystes. Plus une société fait l’objet de prévisions
nombreuses et exactes au cours de sa première année de cotation, meilleures
sont ses performances boursières à douze et vingt-quatre mois. Ainsi, une
société peut accroı̂tre le nombre d’informations disponibles et, dans une
moindre mesure, leur qualité, en sous-évaluant le prix d’introduction. Cet
enrichissement de son environnement informationnel semble bien avoir un
effet positif sur les cours.
Ces résultats prédisent une possible intervention de la société sur son environnement informationnel. La chaı̂ne de production de l’information semble
ainsi se dessiner, telle que représentée sur le schéma 6.3. Dans un premier
temps, le candidat à l’introduction fournit aux analystes les «informations
premières» : le prix d’offre, ses états comptables historiques et son plan de
développement. Les analystes retraitent ces informations dans une optique
de marché. Ils apprécient les perspectives de résultat et de croissance de
la société, qu’ils intègrent ensuite dans leurs modèles d’évaluation. Ils com-
234
Chapitre 6
parent alors la valeur espérée des titres au prix d’offre annoncé par la société
et en déduisent la nature de leur recommandation boursière. Mais ils ne sont
rémunérés pour leurs services informationnels que si leurs recommandations
génèrent des ordres d’achat. Par conséquent, s’ils estiment le prix d’introduction surévalué, ils cesseront leur production d’information. Et le problème de
sélection adverse ne sera pas résorbé.
Les limites de cette étude laissent ouvertes plusieurs voies de recherche.
Chemmanur suppose l’introduction réalisée via une offre à prix ferme. L’impact de la procédure sur la richesse de l’environnement informationnel ou sur
la sous-évaluation mérite donc d’être contrôlé.
Par ailleurs, sur notre échantillon, la sous-évaluation du prix d’introduction augmente la fréquence d’une augmentation de capital pendant les deux
premières années boursières. Mais il reste à vérifier que lors du second appel au marché, les actionnaires récupèrent effectivement le coût de la sousévaluation. Les résultats de Spiess et Pettway (1997) sur le marché américain,
ne vont pas en ce sens. Ces auteurs testent si la société et les anciens actionnaires retirent un gain net de la sous-évaluation initiale. Ils observent 172
sociétés industrielles introduites en bourse entre 1987 et 1991, et ayant augmenté leur capital dans les trois années subséquentes. Sur leur échantillon,
la sous-évaluation des titres introduits est reliée négativement et significativement à la valeur actualisée du produit des deux opérations. Et elle ne
détermine pas significativement le profit net des deux émissions pour les actionnaires.
Investisseurs et société introduite en bourse gagnent à réduire les asymétries d’information. À cette fin, le candidat à l’introduction peut publier lui-même des informations complémentaires utiles aux investisseurs,
comme l’estimation précise des futurs résultats. Il peut au contraire choisir de publier les seules informations requises par la loi, et de déléguer aux
analystes la production de prévisions supplémentaires. Ces initiatives individuelles semblent toutefois insuffisantes. En effet, au regard du chapitre 5,
seules certaines sociétés réduisent l’incertitude des investisseurs sur la valeur de marché espérée des titres, en publiant volontairement des prévisions
de résultat précises. Dans le chapitre 6, la sous-évaluation du prix d’offre
semble bien inciter les analystes à produire des informations sur la société.
Mais elle augmente la dispersion des prévisions publiées et n’influence pas
significativement leur exactitude. Autrement dit, la sous-évaluation encourage la production externe d’information mais n’améliore pas la qualité de
ces informations.
Chapitre 6
235
Une intervention étatique s’impose donc sur le marché de l’information, en
plus de l’auto-régulation. En la matière, l’État agit essentiellement via le
régulateur. La COB a beaucoup oeuvré7 en faveur d’une plus grande transparence de l’information au moment d’une introduction en bourse. Elle semble
avoir acquis une autorité de fait, consacrée par sa future dénomination (Autorité des Marchés Financiers). Le chapitre 7 vise à comprendre les fondements
d’une légitimité, «non acquise d’emblée (...) mais en marchant» (Hubac et
Pisier, 1988, p. 124).
7
La première partie développe les mesures prises par la COB visant à améliorer l’information des investisseurs lors d’une introduction en bourse.
Chapitre 6
236
Taille
PER
Montant
AUG
Disper
Naf
RIA
Rich1
Rich2
Rich3
Rich4
Taille
1
PER
-0.173
1
Taille = ln[chiffre d’affaires(N-1)]
PER = prix intro / BP AN −1
Montant = montant introduit en MF
Montant
0.116
-0.018
1
AUG
-0.110
0.219*
0.018
1
Disper
-0.223*
0.102
0.061
0.068
1
Naf
0.252**
-0.065
0.324**
0.044
0.042
1
RIA
-0.130
0.139
-0.140
0.008
0.138
0.164
1
Rich1
0.415**
-0.161
0.170
-0.078
-0.787**
0.430**
-0.050
1
Tab. 6.14 – Rhô de Spearman - chapitre 6
Rich2
0.276**
-0.112
0.322**
0.162
-0.211*
0.916**
0.123
0.538**
1
Rich3
0.0283**
-0.080
0.305**
0.110
-0.206*
0.949**
0.160
0.534**
0.955**
1
AUG = variable dichotomique, égale à 1 si la société a augmenté son capital dans les vingt-quatre mois suivant son introduction
Dispersion = écart type prév. analystes / BPA réalisé Naf = nombre analystes suivant société
Erreur = erreur moyenne de prévision des analystes non affiliés au chef de file
naf 2
|erreur|∗disper
RIA = rentabilité initiale anormale
RICH1 =
RICH2 = 2naf ∗ − erreur∗ − disper∗
∗2
RICH3 = naf ∗2 − erreur∗ disper∗
naf
RICH4 = ln( erreur
∗ disper ∗ )
Rich4
0.0356**
-0.140
0.182
0.038
-0.699**
0.678**
0.058
0.838**
0.804**
0.825**
1
Chapitre 6
237
Le schéma 6.3 décrit la chaı̂ne de production de l’information.
Marché de l’information et Marché Primaire
OFFRE
Marché de l’information
Informations premières
ANALYSTE
SOCIETE
Prix d’offre
Etats comptables
historiques
Plan développement
Traitement des informations
Prévisions
Valeur espérée
des titres
Recommandation
boursière
INVESTISSEURS
DEMANDE
Optique de marché
Optique patrimoniale
Intermédiaire
Ordre d’achat
Analystes financiers
DEMANDE
INVESTISSEURS
SOCIETE
Marché financier
Commissions
OFFRE
Légende :
flux réel,
flux informationnel,
flux monétaire.
Fig. 6.3 – Marché de l’information et marché primaire
238
Chapitre 6
Chapitre 7
La régulation de l’information
financière
Introduction
L’amélioration de l’information diffusée au moment d’une introduction en
bourse est l’enjeu de deux projets de directives. Le premier1 envisage de créer
un prospectus unique valable dans toute l’Union Européenne. Un système de
dépôt centralisé faciliterait l’accès des investisseurs aux documents publicitaires ; le niveau d’information à fournir serait relevé. La seconde proposition2
concerne les abus de marché. Son article 6.5 dispose que les analystes doivent
présenter de manière impartiale l’information.
Les États membres devront transposer en droit interne ces directives. Ils
sont libres des voies à emprunter pour atteindre les objectifs (ou principescadres) fixés par les directives. Ils auront donc à choisir entre législation et
régulation.
La qualité de l’information diffusée est un des principes de bonne gouvernance énoncés par l’OCDE. Historiquement, le gouvernement d’entreprise3
relève plutôt de la loi en Allemagne, en Italie ou en Suède, et de la régulation
dans les pays anglo-saxons ou en France.
Au-delà des traditions, les États peuvent arbitrer entre législation et régulation
en fonction de l’effectivité et l’efficacité des règles prises. Une norme est effective si elle produit «des effets dans la réalité empirique» ; elle est efficace
1
Le texte intégral est consultable à l’adresse http://www.europa.eu.int/comm/
internal_market
2
Elle est disponible à l’adresse http://www.europa.eu.int/comm/internal_market
3
Le gouvernement d’entreprise désigne l’ensemble des dispositifs organisant et
contrôlant l’exercice du pouvoir dans l’entreprise.
239
240
Chapitre 7
si elle produit «les effets que l’on attendait d’elle» (de Béchillon, 1997).
En matière de gouvernance, les règles semblent d’autant mieux appliquées
qu’elles sont prises par le régulateur. Lors d’une enquête réalisée en 1998
sur les pratiques de gouvernement d’entreprise en Europe, le cabinet d’audit
KPMG constate que «l’incitation légale, quand elle existe, n’est pas aussi
contraignante que les demandes formulées par l’autorité de marché». Il rejoint les conclusions de la Commission des Opérations de Bourse (COB) :
«c’est dans les pays où les autorités de régulation boursière, par le biais des
obligations d’information et de transparence, sont le plus impliquées dans la
promotion des principes de gouvernement d’entreprise, que dans la pratique
ces derniers sont les plus généralisés et les plus appliqués» (bulletin mensuel
no 338, septembre 1999, p. 22).
En France, le régulateur, actuellement la COB et demain l’Autorité des
Marchés Financiers (AMF), est chargé de protéger l’épargne publique et de
veiller au bon fonctionnement des marchés financiers. À ce titre, il circonscrit
l’espace discrétionnaire du dirigeant et constitue un mécanisme de gouvernance externe et institutionnel (Charreaux, 1997, p. 1657-1658). Il encadre
le contenu du prospectus à travers les règlements nos 98-01 et 95-01. Il veille
ensuite au respect de ses règlements par les candidats à l’introduction.
La littérature reconnaı̂t l’effet vertueux de la COB sur la qualité de l’information diffusée par le dirigeant4 . Selon Guyon (1986), la COB est parvenue
à développer l’information financière qu’une conception trop extensive du
secret des affaires limitait auparavant. Michaı̈lesco (1999) constate que les
rapports annuels des sociétés cotées sont de meilleure qualité que ceux des
sociétés non cotées. Elle attribue cette qualité différenciée à l’action de la
COB. La cotation implique en effet des obligations et un contrôle informationnels accrus. D’après Dessertine (1997, p. 83), «la commission est (...) un
acteur clé autant dans l’élaboration des règles de l’information financière que
dans leur contrôle».
Depuis sa création, le régulateur a standardisé les informations à publier et
augmenté leur nombre. Il a surtout sensibilisé les entreprises à l’importance
de la transparence, dans le communiqué de presse du premier février 1999, le
chapitre 2 du rapport annuel 2001 ou la recommandation de mars 2002 par
exemple.
4
Les sociétés cotées françaises appliquent diversement les autres dispositifs disciplinaires
préconisés par le régulateur. Par exemple, en 1998, 20% seulement des sociétés du CAC
40 distinguent les fonctions de président et de directeur général. 73% par contre ont créé
un comité d’audit (source : enquête KPMG).
Chapitre 7
241
La littérature atteste que la COB agit efficacement en matière d’information. Mais, à notre connaissance, elle n’expliquait pas comment. Nous
nous sommes aussi demandés comment le régulateur imposait avec succès
ses exigences informationnelles aux sociétés nouvellement cotées. Pourquoi
la régulation est-elle préférée à la législation pour encadrer la diffusion d’information ? Comment le régulateur parvient-il à gouverner effectivement les
comportements des sociétés en matière d’information ? Par quel processus
fait-il force de loi ?
L’analyse sémantique de la régulation éclaire déjà notre question de recherche. La régulation dépasse la simple réglementation, traduction du mot
anglais regulation (voir également Turrillo, 2002, p. 514). Elle désigne5 le fait
de «maintenir en équilibre, d’assurer le fonctionnement correct d’un système
complexe». La recherche de l’équilibre et de l’harmonie semble associée à la
fonction de régulation.
Nous approfondissons nos investigations avec une étude du cas. La formulation de la question de recherche («comment ?»), la nature exploratoire de
notre travail, l’accès possible au terrain et la complexité du problème étudié
(Wacheux, 1996, p. 89) justifient le recours à cette méthodologie.
Nous avons restreint l’observation de l’action de la COB au contexte de l’introduction en bourse. Nous obtenons ainsi un cas extrême (Eisenhardt, 1989,
p. 537) ou critique (Yin, 1989, p. 38). L’introduction en bourse marque en effet le moment où la gouvernance d’entreprise, et donc la transparence de l’information, deviennent nécessaires. En outre, l’autorité du régulateur sur les
sociétés introduites n’est pas biaisée par l’existence de relations antérieures
entre les deux parties.
La méthodologie de l’étude de cas implique d’analyser le phénomène étudié
la politique de légitimation du régulateur dans un environnement large, historique, institutionnel et socio-économique.
Nous avons eu recours, pour notre étude clinique, à des sources de données
multiples. Aux documents écrits, internes (rapports annuels de la COB, bulletins mensuels) et externes (lois, codes, jurisprudence), s’ajoutent des entretiens. L’étude de cas nécessite en effet «une négociation avec les individus
sur le terrain» (Wacheux, 1996).
Ces entretiens sont de type directif à questions ouvertes. Autrement dit, les
questions, précises et libellées à l’avance, suivent un ordre prévu. La personne
interrogée est libre de répondre comme elle le désire dans ce cadre (Grawitz,
5
Le Petit Robert, page 2143
242
Chapitre 7
1996).
Nous avons interrogé, entre février 2001 et août 2002, quatre membres du
régulateur en charge de la réglementation et du contrôle de l’information
financière. Deux d’entre eux travaillent au service des opérations et de l’information financières. L’un s’occupe de la normalisation de l’information financière. Il rédige les bulletins mensuels, recommandations, instructions et
règlements. L’autre contrôle l’information financière diffusée par les sociétés
cotées. Le troisième acteur rencontré est rattaché au services des affaires
comptables. Il analyse l’information comptable des documents déposés par
les sociétés auprès de la COB (prospectus, documents de référence, note
d’information...). Enfin, la quatrième personne questionnée relève du service
juridique. Elle traite des questions de doctrine juridique et s’occupe des relations avec les autorités judiciaires.
Nous avons conduit nos investigations selon la procédure «papier-crayon».
Gianelloni et Vernette (1995) souligne les avantages de ce procédé. D’une
part, il permet d’interpréter facilement le discours. D’autre part, il met l’interlocuteur en confiance.
Nous avons analysé le contenu des entretiens et les sources documentaires.
Le rapport d’étude de cas suit et approfondit le guide d’entretien.
Notre réflexion s’organise en trois parties. La première présente les fondements historiques et institutionnels de la légitimité du régulateur. Nous
étudions, dans la seconde, le procès de création de normes par le régulateur.
La dernière partie envisage les obstacles à la légitimité du régulateur et les
conditions auxquelles il peut conforter son autorité en matière de transparence de l’information.
7.1
Une légitimité historique et institutionnelle
Selon Wirtz (2000, p. 125), «seul le suivi du cas sur un horizon temporel relativement étendu confère potentiellement la capacité à observer les
mécanismes de causalité à l’oeuvre». L’analyse historique menée à partir des
sources documentaires, révèle que la légitimité du régulateur s’est construite
au cours du temps. L’acquisition progressive d’un statut institutionnel lui a
ensuite permis de pérenniser son action et d’accroı̂tre ses moyens d’intervention.
Chapitre 7
7.1.1
243
Un enracinement historique
La politique de légitimation du régulateur est envisagée dans une perspective temporelle. Le contexte des années soixante a favorisé l’apparition
d’une régulation en matière boursière. La construction européenne augure
en effet d’un futur marché unifié des capitaux. Par ailleurs, la légitimité de
l’État est remise en cause à cette époque.
La libre circulation des capitaux
La création de la Bourse à Paris a répondu à la banqueroute de Law. Le
24 septembre et le 14 octobre 1724, Louis XV prend deux arrêts «portant
établissement d’une Bourse dans la ville de Paris». Pour «maintenir la bonne
foi et la sûreté convenable» des transactions, il transfère les négociants en valeurs mobilières dans un lieu clos, et leur impose une réglementation précise,
la première du marché français (Turin, 1993, chapitres 1 et 2).
La Bourse restera longtemps marquée du sceau de la souveraineté étatique.
Jusqu’à la moitié du XIXème siècle, elle accueille principalement la dette publique. Avec la révolution industrielle, nombreuses sont les sociétés à entrer
en bourse pour assouvir leurs besoins de capitaux : le Crédit Mobilier et le
Bon Marché en 1852, la Compagnie Universelle du Canal de Suez en 1858
etc. Mais les obligations demeurent plus populaires auprès des épargnants
que les actions. Enfin, l’État constitue toujours l’unique instance régulatrice
du marché.
La logique d’une réglementation étatique de la Bourse est toutefois incompatible avec la perspective d’un marché unifié des capitaux. Le 25 mars 1957,
le Traité de Rome institue une zone où les marchandises, les hommes et les
capitaux circuleront sans entrave. Mais «comment peut-on encore envisager
une réglementation (au sens de hiérarchie et de souveraineté étatique), dans
le contexte d’un marché global qui ignore les frontières et qui érode la notion même de souveraineté étatique ?» (Turrillo, 2002, p. 514). Les pouvoirs
exécutif ne pouvait donc, sous sa forme traditionnelle, impulser et contrôler
la libéralisation de la Bourse française.
La crise de l’État-Providence
Dans les années soixante-dix, l’opinion publique, influencée par l’idéologie
libérale dominante, conteste la légitimité rationnelle-légale de l’État (Weber,
1995). À cette époque, l’État est un «souverain démiurge» omniprésent (Cubertafond, 1999, p. 22). Il intervient dans un nombre croissant de secteurs,
244
Chapitre 7
via une administration centralisée, bureaucratique et hiérarchisée (Crozier,
2000).
Inconstante, l’opinion publique fustige la toute puissance étatique et le
coût fiscal induit, en même temps qu’elle réclame la protection de l’ÉtatProvidence. Les néo-libéraux (Crozier, Massenet...) appuient cette contestation. Ils dénoncent l’inefficacité, voire la «nécrose6 » de l’administration
française, ainsi que sa politisation abusive. Pour eux, seul le jeu libéral
conduit, après ajustement, à l’équilibre économique et social. Ils appellent
aussi de leurs voeux la création de pouvoirs légers, dépolitisés, humbles
régulateurs des fonctions économiques et sociales, substituts à la souveraineté
volontariste, arbitraire, solennelle. Ces entités harmoniseraient, mettraient en
relation, encourageraient les synergies et l’initiative. Elle appliqueraient «les
règles de juste conduite» (Hayek, 1979).
La fonction de régulation ne peut s’exercer dans un espace administratif
fermé, encadré de manière rigide par l’État. Elle ne s’observe que dans les
régimes libéraux (Moderne, 1988, p. 190). Dans les années 60-70, la crise de
l’État et la poussée du libéralisme obligent l’appareil administratif français
à s’ouvrir. Elles permettent ainsi à l’autorité de régulation de prendre corps.
7.1.2
L’inadaptation des pouvoirs traditionnels aux besoins de régulation
Pas plus que le pouvoir exécutif, les autres instances classiques du pouvoir
ne sont à même de satisfaire les besoins nouveaux de régulation dans les
domaines boursier et financier.
Le pouvoir législatif
Le contrôle de l’information et des opérations financières exige une souplesse et une adaptabilité dans le temps que contrarient la généralité et la
normativité strictes de la loi. Il renvoie à une réalité trop diverse pour être
traité de manière uniforme par la loi. La politisation du Parlement, «ratificateur sacralisateur obéissant à l’exécutif» (Cubertafond, 1999, p. 48), entrave
la régulation efficace des marchés financiers.
6
A. Peyrefitte, Le mal français, Plon, 1976, p. 333.
Chapitre 7
245
Le pouvoir judiciaire
Le juge ne peut édicter d’arrêts de règlement7 et n’intervient qu’a posteriori. Protéger la transparence et l’intégrité du marché suppose au contraire
d’agir préventivement et rapidement. Moraliser les comportements professionnels requiert plus de convaincre que de contraindre.
En outre, les procédures juridictionnelles, même d’urgence, sont lentes et
formelles (Hamon et Maisl, 1982). Elles se prêtent mal à l’exigence de rapidité
dans la vie des affaires. Leur formalisme dissuade souvent les actionnaires ou
investisseurs de faire reconnaı̂tre leurs droits.
Enfin, l’approche positiviste du droit restreint l’activité du juge à une
application stricte de la loi. Le syllogisme, fondement du raisonnement judiciaire, en témoigne. «En présence de tout délit, le juge doit former un
syllogisme parfait : la majeure doit être la loi générale, la mineure l’acte
conforme ou non à la loi, la conclusion l’acquittement ou la condamnation»
(Timsit, 1993, p. 21). En conséquence le juge, «bouche de la loi » (Montesquieu8 ), rencontre des difficultés à enserrer certaines infractions boursières
dans le cadre du droit pénal (table ronde COB, 2001).
Pas plus que le Législateur, le juge ne peut donc assurer seul l’encadrement des marchés financiers.
Les forces professionnelles
Le contrôle du marché boursier aurait pu être confié à une autorité composée uniquement de professionnels, à l’instar du Panel9 créé à Londres en
1968.
Toutefois, la régulation du marché financier ne se réduit pas à la police
d’une seule profession. Elle concerne de nombreux intervenants. Son caractère
d’intérêt général justifiait que l’État en conservât la maı̂trise.
Par ailleurs, l’hégémonie d’experts au sein d’une instance créant du droit
est susceptible de dérive anti-démocratique. Castel (1991) (cité par Turrillo,
2001, p. 525) met en garde contre les risques d’une «expertise instituante».
7
«Il est défendu aux juges de prononcer par voies de dispositions générales et
réglementaires sur les causes qui leur sont soumises» (article 5 du Code civil).
8
L’esprit des lois, XI, 6, Editions Garnier Flammarion.
9
Récemment, des scandales et compromissions ont remis en cause l’auto-organisation
de la City. Une nouvelle autorité financière a été instituée, la Financial Services Authority,
plus bureaucratisée.
246
Chapitre 7
«En donnant une fonction instituante à l’expertise, on risque d’institutionnaliser une confusion entre l’instance de la connaissance ou du savoir, l’instance de la décision ou du pouvoir, et l’instance du jugement ou du droit.
(...) La réduction de cette différence de nature entre ordre cognitif, ordre
praxéologique et ordre juridique est au fondement des figures du totalitarisme».
Ainsi, les pouvoirs traditionnels ne pouvaient satisfaire le besoin de régulation en matière boursière. Une autorité de régulation10 ad hoc s’imposait
donc. À l’image du régulateur originel11 , elle devait servir d’intermédiaire
entre l’État et les opérateurs boursiers, et permettre le bon fonctionnement
du marché. Mais sans statut institutionnel, elle n’aurait pu réguler efficacement les marchés financiers.
7.1.3
Une légitimité institutionnelle
Une institution est «l’expression juridique d’un groupe social animé par
une idée d’oeuvre à réaliser, laquelle détermine à la fois la structure qui
l’organise et le droit qui le régit» (Picard, 1984, p. 470). La nature institutionnelle de la COB est fortement ancrée dans les représentations des acteurs
rencontrés. Il ressort de l’étude documentaire que par sa mission, sa structure
et son pouvoir normatif, le régulateur est une institution.
«Une idée d’oeuvre à réaliser»
La mission du régulateur détermine sa raison d’être et son titre de légitimité. Elle semble donner sens au travail des personnes interrogées. Le
régulateur doit veiller au bon fonctionnement des marchés financiers, à la
protection de l’épargne investie et à l’information des investisseurs (art. L.
621-1 Code monétaire et financier). Son champ d’intervention s’est rapidement étendu. Initialement, il se limitait au milieu fermé des sociétés anonymes. Puis il s’est élargi aux sociétés civiles de placement immobilier (L.
31 décembre 1970), aux fonds communs de placement (L. 13 juillet 1979,
art. 23) et enfin aux titres émis par les associations faisant appel public à
l’épargne (L. 11 juillet 1985).
10
Une floraison d’autorités administratives indépendantes apparaissent dans les années
70 et 80. Les unes régulent l’économie de marché, comme la Commission de la concurrence
créée en 1977. Les autres protègent les libertés publiques, à l’image de la Commission
nationale de l’informatique et des libertés, instituée en 1978.
11
Originellement, le régulateur est une pièce d’horlogerie. Il limite l’énergie libérée par
le ressort, de sorte à faire tourner le système à vitesse constante.
Chapitre 7
247
Une autorité juridique
Sa structure indépendante et ses pouvoirs en constante augmentation ont
permis à la COB d’asseoir sa légitimité et d’agir efficacement.
Une structure indépendante
L’indépendance de la COB est en premier lieu organique.
Elle se manifeste par sa composition collégiale, ni technocratique ni corporatiste, fondée sur les vertus «d’humanité, de responsabilité et de sagesse»
(Donnedieu de Vabres, 1980, p. 237). Trois hauts fonctionnaires et magistrats
sont présents pour leur neutralité supposée. Six représentants des milieux professionnels sont choisis pour leur compétence financière et leur expérience en
matière d’appel public à l’épargne. Selon l’avant-projet de loi sur la sécurité
financière, la future Autorité des Marchés Financiers conserverait cette composition plurielle (voir le schéma 7.2 en annexe de ce chapitre). Les présidents
des assemblées, des grandes juridictions et des institutions financières nommeraient huit de ses membres. Les huit autres, désignés par le ministre des
finances, représenteraient les professionnels et les salariés.
Enfin, des garanties statutaires renforcent l’indépendance organique du régulateur. L’article L. 621-4 du Code monétaire et financier prévoient des règles
d’incompatibilité et d’immunité. La durée des mandats (quatre ou six ans) est
en outre plus longue en moyenne que celle d’un gouvernement. Les membres
de la COB sont ainsi préservés des pressions des pouvoirs publics et privés.
L’indépendance du régulateur est ensuite fonctionnelle.
Il n’est ni un prolongement du pouvoir législatif ou judiciaire, ni subordonné
au pouvoir exécutif. Il ne reçoit ni ordre ni instruction ; il ne sollicite pas
d’autorisation et n’attend pas d’approbation. À son encontre ne s’exerce aucun pouvoir hiérarchique ou tutelle12 . Il est en marge de l’administration et
du pouvoir exécutif. Son contrôle juridictionnel est ténu et plutôt de nature
à renforcer son indépendance. Le juge reconnaı̂t en effet à la COB un large
pouvoir d’appréciation au fond.
Cette indépendance permet au régulateur d’influencer les autres pouvoirs.
En témoigne comment le président de la COB est parvenu, en 1982, à faire
passer dans le droit positif sa conception d’une juste indemnisation des actionnaires des sociétés nationalisées. Opposé au régime d’indemnisation voté
en première lecture par l’Assemblée nationale, il est intervenu successivement
auprès du gouvernement, du Conseil d’État, des Commissions parlementaires
12
Depuis la loi du 2 août 1989, la COB échappe à la tutelle directe d’un ministère.
248
Chapitre 7
et enfin du Conseil constitutionnel13 . Grâce à l’autorité tirée de la présidence
d’une institution reconnue pour son autonomie et son utilité, il a pu faire
prévaloir son point de vue dans les règles finalement adoptées (rapport COB,
1981, p. 246).
Enfin, son autonomie de gestion lui permet de remplir efficacement sa mission. Sur le plan administratif, le régulateur recrute son propre personnel
librement. Sur le plan financier, il est exempté du principe de contrôle des
dépenses engagées. Il collecte lui-même ses ressources, au travers de redevances perçues sur les organismes contrôlés (ord. 1967 art. 1, al. 3 nouveau,
loi du 29 décembre 1984). Il équilibre son budget sans aide de l’État depuis
1986. L’avant-projet de loi sur la sécurité financière maintient ce système.
Des pouvoirs étendus
Dans sa spécialité, le régulateur dispose de pouvoirs étendus, appropriés
à une régulation a posteriori comme a priori.
La COB défend les droits des investisseurs par ses pouvoirs de contrôle,
d’expertise et de sanction.
Elle dispose d’un pouvoir d’investigation quasi juridictionnel (art. L.621-9 à
13 du Code monétaire et financier). Par exemple, elle peut mener des enquêtes
au siège des candidats à l’introduction.
Son pouvoir d’expertise protège également les investisseurs, notamment contre
les délits boursiers. En principe, seul l’avis de la COB est requis avant le jugement d’un délit d’initié (ord. 1967, art. 12-1). Dans la pratique cependant, elle
diligente la plupart des poursuites. Des outils informatiques lui permettent
de déceler les mouvements anormaux sur un titre avant la diffusion d’une
information importante (Robert et Viandier, 1984 ; Tunc, 1982, p. 335).
La COB peut enfin prononcer des injonctions, des sanctions administratives
ou disciplinaires lorsqu’elle constate des infractions à ses règlements (art.
L.621-14 à 17 du Code monétaire et financier). «Par son pouvoir de coercition, la COB a les capacités de faire évoluer les mentalités» et de faire respecter les normes relatives à l’information financière (Dessertine, 1997, p.81).
Mais la COB ne corrige pas simplement les abus. Par son pouvoir normatif, elle exerce une régulation a priori.
La COB édicte des règles générales qui encadrent le fonctionnement des
marchés ou prescrivent des règles professionnelles (art. L. 621-6 Code monétaire et financier). Elles prennent diverses formes, réglementaires ou non (ins13
Cons. Const., 16 janvier 1982, Rev. soc., 1982, 132
Chapitre 7
249
tructions, recommandations, avis) (Guillaume-Hoffnung, 1982, p. 683). Le
régulateur prend également des décisions individuelles. Par exemple, il admet les valeurs mobilières à la cote et prononce leur radiation (art. L.621-8
Code monétaire et financier).
Le régulateur tire sa légitimité de son ancrage historique et institutionnel. Mais son autorité tient surtout à la conscience que les opérateurs sur
les marchés et les épargnants ont de son intérêt. L’autorité de la COB nous
semble moins moins donnée que construite. Nous la qualifions de «sociologique» au sens où elle émane du secteur régulé, le marché.
7.2
Une autorité «sociologique»
Le régulateur exerce ses pouvoirs sur un mode original et définit empiriquement les règles de bonne conduite. Il tente ainsi de modifier progressivement et efficacement les comportements des sociétés.
7.2.1
Un mode différent d’exercice du pouvoir
L’analyse documentaire a révélé l’originalité de la démarche du régulateur.
Il se démarque par sa proximité avec les acteurs économiques et les autres
pouvoirs, ainsi que par le recours à des moyens simples et informels.
Un rapprochement avec la société civile
Sa composition, sa transparence et son accessibilité rapprochent le régulateur du marché. Ses membres issus des milieux professionnels se font l’écho
des préoccupations de la communauté financière. Contrairement aux autres
institutions, il agit de manière transparente. Il publie annuellement un rapport, mensuellement un bulletin et quotidiennement le relevé de ses décisions.
Enfin, il est accessible gratuitement et sans formalisme. En 2000, il a traité
1 377 questions-réponses par courrier électronique et 10 990 demandes de
renseignements.
La collaboration avec les autres pouvoirs
La COB est l’alliée des pouvoirs étatiques, des organisations professionnelles et de ses homologues étrangers.
Elle participe au travail de réglementation et aux Commissions parlementaires. Le régulateur est actuellement associé à la refonte de la loi du
250
Chapitre 7
24 juillet 1966. Il peut être consulté pour avis sur les projets de textes
législatifs ou réglementaires. Il peut lui-même proposer des modifications
de lois ou règlements. Le pouvoir législatif peut ensuite codifier les suggestions du régulateur. Ainsi la loi du 2 mai 2001 sur les Nouvelles Régulations
Économiques a intégré les réflexions de la COB sur le déroulement des introductions en bourse de l’été 1999.
Le régulateur est un auxiliaire de justice. En matière de droit pénal boursier,
il sert de relais au ministère public. Lorsqu’il constate un manquement aux
dispositions législatives et réglementaires, il peut saisir le Tribunal de grande
instance de Paris. Le législateur encourage le régulateur et le juge judiciaire
à collaborer, afin d’accélérer la répression des délits boursiers. L’avant-projet
de loi sur la sécurité financière conserve ainsi la double sanction administrative et pénale des manquements d’initiés.
Ensuite, le régulateur travaille en liaison étroite avec les organisations professionnelles. Il est représenté au Conseil National de la Comptabilité (CNC)
et au Comité de la Réglementation Comptable (CRC). Il est associé à toutes
les réflexions menées par le CNC. Un groupe de travail associant la COB
et la CNCC a ainsi révisé la norme 354 relative au contrôle par les commissaires aux comptes des prospectus d’introduction. Le régulateur apparaı̂t
également comme le gardien des normes comptables. Ses pouvoirs coercitifs
lui permettent de «faire appliquer ces normes, sans passer par de longues
actions en justice» (Dessertine, 1997, p. 73). Par conséquent, la COB influence de fait la réflexion comptable, même si elle ne produit pas elle-même
des normes comptables.
Enfin, la COB a signé de nombreuses conventions de coopération avec
les régulateurs étrangers. Elle appartient ainsi à l’organisation internationale
des commissions de valeurs (OICV) ou au comité européen des régulateurs
de valeurs mobilières (CESR). Dans le cadre de ces réseaux, les régulateurs
échangent informations et expériences. Ils tentent de coordonner leurs actions
normatives ou de contrôle des marchés. En 2002, le CESR a par exemple
réfléchi aux mesures techniques de transposition des directives «abus de
marché» et «prospectus» (rapport annuel COB, 2002, p. 245).
La collaboration du régulateur avec les autres pouvoirs renforce son ancrage institutionnel et sa légitimité.
Le recours privilégié aux voies extra-juridiques
La COB exerce surtout son action par des voies extra-juridiques. Elle
recourt à la persuasion et à la dissuasion plutôt qu’à la contrainte (voir
Chapitre 7
251
1999
2000
2001
2002
exécutoires
Règlements
Instructions
Total
6
1
7
2
2
4
0
3
3
3
5
8
exécutoires
Recommandations
Communiqués de presse
Positions
Total
4
40
5
49
3
28
9
40
1
38
12
51
2
30
17
49
et sanctions
Médiations
Enquêtes
Décisions
Décisions
tableau 7.1).
Enquêtes
Ouverture procédure de sanction COB
Transmission au parquet
Sanction COB prononcées
88
10
16
11
90
6
19
0*
85
20
19
7
Demandes de médiation et conciliation
850
1 000
843
Tab. 7.1 – Bilan de l’action de la COB (1999-2002)
* Suspension des procédures de sanction en cours, suite à l’arrêt de la Cour d’appel de
Paris du 7 mars 2000.
Sources : Rapports annuels de la COB 1999, 2000, 2001, 2002
Entre 1999 et 2001, elle a adopté 189 décisions non exécutoires contre 22
règlements. Habilitée à recevoir et à traiter les réclamations des investisseurs
(article 4 ord. 1967), elle privilégie les règlements à l’amiable au contentieux.
Elle interfère de plus en plus dans les litiges individuels par voie de médiation
ou de conciliation. Sur la période 1999-2001, elle a enregistré 2 693 demandes
de conciliation et de médiation. En comparaison, elle a prononcé 18 sanctions
et transmis au Parquet 54 dossiers.
Les moyens informels employés par la COB prennent plusieurs formes.
La COB a protégé les actionnaires minoritaires en menaçant les actionnaires majoritaires de poursuites judiciaires. Elle ne disposait en la matière
d’aucun pouvoir propre (Bezard et Chaput, 1982, p. 480).
Elle vise les documents d’information publiés lors des appels publics à l’épargne. Sans ce visa, l’offre publique ne peut avoir lieu (article L. 621-8 du
252
Chapitre 7
Code monétaire et financier). Le régulateur s’est servi de cette obligation
formelle pour faire connaı̂tre et imposer sa doctrine en matière d’information financière. Tant que le prospectus ou la note d’information ne respectait
pas ses exigences, il retardait ou refusait l’octroi du visa. Compte tenu de
la volatilité des marchés, le report de l’opération pénalisait le dirigeant. Par
ce moyen de pression, le régulateur a par exemple limité les pratiques de
diffusion sélective d’information. Certains dirigeants ne communiquaient en
effet leur plan de développement qu’aux analystes. Ils ont dû le réintégrer
dans le prospectus, sous peine de voir l’opération non visée (rapport annuel
de la COB, 1998).
L’autorité de régulation rappelle encore à l’ordre les sociétés qui communiquent au marché les termes de leur appel public à l’épargne avant la fin
de l’instruction du dossier (bulletin mensuel, juin 2002, no 369).
Le régulateur peut assortir son visa d’un avertissement. Il alerte ainsi les
épargnants et attire leur attention sur certains facteurs de risque. Entre 1996
et 2000, respectivement 34 et 68 sociétés introduites sur les Second et Nouveau Marchés ont fait l’objet d’un avertissement.
Selon Dessertine (1997, p. 81), la COB ferait évoluer les mentalités de
par son pouvoir de coercition. Au contraire, elle nous semble parvenir aux
meilleurs résultats en employant des moyens simples et informels, sans caractère obligatoire. L’exemple des informations prévisionnelles contenues dans
le prospectus d’introduction est à ce titre illustratif.
La qualité des prévisions publiées dans le prospectus est appréciée au
regard de leur exactitude (tableau 7.2), puis de leur effet sur la rentabilité
initiale anormale (tableau 7.3). Dans les tableaux ci-dessous, erreur-dirigeant
désigne l’erreur de prévision du dirigeant ; SM, le Second Marché et NM le
Nouveau Marché. L’erreur de prévision du dirigeant équivaut au rapport
(BPA prévu un an après l’introduction - BPA réel)/BPA réel. La rentabilité
C c i,t0
Ibc 0
initiale anormale RIA vaut P OD
− Ibc t t−1
où C c i,t est le cours de clôture
i
0
du titre i le jour t ; P ODi , le prix d’offre définitif ; Ibc t , le cours de clôture
de l’indice boursier SBF250 à la date t. t0 est la date de l’introduction en
bourse. Les prévisions et le prix d’offre définitif proviennent des prospectus
d’introduction ; les réalisations de la base d’I/B/E/S et les données boursières
d’Euronext.
Chapitre 7
Marché
1994-1995
1996-2000
253
Erreur moyenne
de prévision
NM
SM
1.83
9.36
0.997
1994
2.68
1995
1.05
1996
1.51
0.099
1997
1.78
0.460
1998
0.964
1.82
1999
18.4
0.227
2000
1.83
0.002
Tests diff. moyennes
erreur-dirigeant SM / NM
Erreur médiane
de prévision
NM
SM
0.148
0.314
-0.017
Écart-type
46.2
0.148
0.121
0.363
-0.041
1.78
-1.16
0.314
0.053
0.462
-0.004
-1.05
0.002
Diff. moyennes
-8.37*
6.44
1.83
2.35
1.49
2.98
2.04
1.28
3.71
67.4 0.768
6.35
0.36
Statistique t
-1.875
NM
SM
4.64
2.44
Nombre
d’observations
NM
SM
22
32
166
3
2
8
15
4
Sig.
0.063
10
12
28
40
65
26
7
N
166/32
Tab. 7.2 – Exactitude des prévisions NM-SM
Constante
Erreur-dirigeant
F
R2 ajusté
N
RIA-NM
0.283
(2.837)***
1.7210−5
(0.008)
0.000
-0.033
32
RIA-SM
0.191
(1.655)
8.6710−2
(2.521)**
6.356**
0.050
166
Tab. 7.3 – Valeur informative des prévisions contenues dans les prospectus
d’introduction au NM et SM
La COB oblige les sociétés du Nouveau Marché à publier leur plan de
développement. Rendre obligatoire la publication des prévisions garantit certes
la présence de ces informations au sein du prospectus, mais pas leur qualité.
Les sociétés du NM commettent une erreur moyenne de 936%, et médiane
de 31.4% (voir le tableau 7.2). Leurs prévisions de résultats ne semblent pas
informatives pour les investisseurs. Elles n’expliquent pas significativement la
rentabilité initiale anormale (voir tableau 7.3). L’obligation de publier a donc
des effets pervers. Instituée au nom de l’utilité des prévisions, elle se traduit
en fait par des estimations imprécises et donc peu utiles aux investisseurs.
La COB recommande aux impétrants sur le Second Marché de communiquer leurs perspectives de développement. Mais elle ne les y oblige pas. Elle
s’appuie sur le marché et la justice pour contrôler la bonne information des
254
Chapitre 7
investisseurs. Les sociétés du Second Marché semblent suivre les recommandations de la COB. Elles sont en effet de plus en plus nombreuses à publier
des prévisions dans leur prospectus (voir tableau 7.4).
Année
1er
1994
1995
1996
1997
1998
1999
semestre 2000
Nombre introductions
sur le Second Marché
33
26
33
43
76
33
18
Nbre sociétés ayant publiées
des prévisions chiffrées
10
12
28
40
65
26
7
Fréquences
30%
46%
85%
93%
85.5%
79%
39%
Tab. 7.4 – Publication de prévision par les sociétés du Second Marché dans
leur prospectus
La qualité de leurs prévisions s’améliore également d’année en année,
contrairement à la tendance observée sur le Nouveau Marché (tableau 7.2).
En moyenne sur le Second Marché, les estimations des dirigeants s’éloignent
de 183% du bénéfice réalisé en 1994 et 1995, et de 71.5% entre 1996 et 2000.
Les sociétés du Second Marché se trompent significativement moins dans
leurs anticipations que les firmes du Nouveau Marché (au seuil de 10%).
Leurs erreurs de prévision déterminent positivement et significativement la
rentabilité initiale anormale (tableau 7.3). Les estimations des sociétés du
Second Marché semblent donc réduire l’incertitude des investisseurs.
Les statistiques calculées ne contrôlent pas l’impact d’autres facteurs
sur la décision du dirigeant de publier des prévisions, ou sur la qualité des
prévisions publiées. Elles doivent donc être interprétées avec prudence. Nous
avons demandé aux professionnels de la COB rencontrés de commenter les
résultats. Ils attribuent aux pressions du marché, relayées par la COB, la
plus grande fréquence et l’amélioration observées des prévisions publiées par
les sociétés du Second Marché. En France, le marché semble mieux garantir
la bonne information des investisseurs que la justice. Les dirigeants voient
rarement leur responsabilité engagée pour absence préjudiciable ou mauvaise
qualité des prévisions. En Australie au contraire, la justice veille à ce que
l’absence de prévision n’empêche pas le jugement éclairé d’un investisseur.
La Cour peut enjoindre un émetteur de publier des prévisions dans son prospectus, si elle estime ces informations utiles aux investisseurs (exemple de
l’affaire Pancontinental Mining Ltd v. Goldfielfs Ltd, 1995).
Chapitre 7
255
L’incitation à publier des prévisions paraı̂t ainsi plus efficace que l’obligation. Elle permet au régulateur de mieux protéger les intérêts des investisseurs. en conciliant utilité et crédibilité des prévisions.
Le régulateur préfère aux armes classiques du pouvoir (décisions exécutoires et sanctions) des moyens moins contraignants (recommandations, conciliations). Il serait ainsi plus une autorité au sens sociologique que juridique.
Mais comment expliquer que les sociétés respectent ses règles de bonne
conduite en l’absence de toute obligation légale ? D’où ces règles tirent-elles
leur pouvoir contraignant ? Ces questions nous ont conduits à étudier le processus d’élaboration des normes par le régulateur.
7.2.2
Le procès de création du droit par le régulateur
L’élaboration de normes par le régulateur a des caractères de décision
publique. Le processus de décision publique comprend généralement deux
étapes : le travail préparatoire et la décision proprement dite (voir Edwards
et Sharkansky, 1981 par exemple). Ce schéma réducteur ne convenait pas au
procès de création de normes par le régulateur, qui se poursuit au-delà de
leur promulgation.
Les sciences juridique nous ont paru un cadre d’analyse plus approprié.
Nous avons successivement abordé les fondements, la mise à jour puis l’application des normes du régulateur. L’analyse documentaire et les entretiens
réalisés montrent que les règles du régulateur proviennent d’un cadre hérité,
mais ont surtout des fondements réels (voir schéma 7.1 en annexe du chapitre). La création de normes par le régulateur relève ainsi plus d’une approche «génétique» (Ripert, 1955) que positiviste. Elle est une sécrétion du
social et du temps ; elle résulte d’un compromis de forces. Elle répond à une
nécessité sociale qui explique son application effective.
Les sources du droit créé par le régulateur
Les règles élaborées par la COB sont à la fois conditionnées par le droit
et appelées par le réel.
• Les fondements positivistes des normes du régulateur
L’environnement réglementaire et institutionnel détermine les règles créées
par le régulateur.
La Constitution définit en effet une hiérarchie des normes, où le droit est
256
Chapitre 7
engendré par degré, selon des critères procéduraux et formels précis. Le droit
européen enserre de plus en plus le pouvoir normatif du régulateur. Le Conseil
d’État a progressivement reconnu le primat des traités, règlements et directives européennes sur les lois françaises, même postérieures, respectivement
lors des arrêts Nicolo (20 octobre 1989), Boisdet (24 septembre 1990), Rothmans et Philippe Moris (28 février 1992).
Plusieurs exemples témoignent de la prégnance du droit européen. La COB
doit adapter le contenu du prospectus aux schémas des directives européennes.
Elle a également dû conformer sa procédure de sanction à la Convention Européenne de sauvegarde des droits de l’homme et des libertés fondamentales.
L’élaboration de la structure de la future autorité des marchés financiers
s’est enfin faite dans le cadre des règles européennes. La formation chargée
des sanctions est séparée du collège plénier, conformément à la directive sur
les abus de marché et à la Convention européenne des droits de l’homme.
Sous l’effet de la globalisation des économies et des marchés, les environnements législatifs et réglementaires se font concurrence. Compte tenu
de la puissance de leur marché boursier et de leur expérience, les États-Unis
tendent à imposer leurs normes en matière d’information financière (Turrillo,
2002, p. 524). Le régulateur américain, la SEC, influence non seulement les
modalités de fonctionnement de la COB, mais aussi la lettre et l’esprit des
normes prises par la COB concernant l’information financière.
La COB a été créée sur le modèle de la SEC. Les deux institutions se ressemblent donc à travers leurs tâches et fonctions, la nomination et le statut
de leurs membres14 . Elles sont en porte à faux avec la Constitution et voient
leur autonomie limitée par les autres pouvoirs.
Par ailleurs, la participation des acteurs sociaux à l’élaboration des normes
rappelle le contractualisme américain. L’interdiction des pratiques de diffusion sélective fait pendant à la réaffirmation du principe de «fair disclosure»
par la SEC. Sur le modèle de la SEC encore, la COB a réformé sa procédure
de délivrance du visa (bulletin mensuel juillet-août 2002).
La COB apparaı̂t ainsi comme «une institution pragmatique, défiant
allègrement l’esprit cartésien et (...) introduisant dans notre système juridique un germe d’exotisme anglo-saxon» (Guillaume-Hoffnung, 1982).
14
Ainsi, les cinq membres de la SEC sont nommés par le Président, mais sur avis et
avec l’accord du Sénat. Trois membres au plus peuvent appartenir au même parti. Leur
mandat est de cinq ans, échelonnés de sorte qu’une seule administration ne puisse composer
la Commission. Ils ne peuvent ni exercer un autre emploi ni avoir aucun lien avec les
entreprises liées à leurs fonctions. Ils ne peuvent être révoqués que pour motif déterminé.
Chapitre 7
257
Les règles créées par le régulateur résultent certes de sources formelles.
Mais des «forces créatrices» (Ripert15 , 1955) les déterminent également. Les
aspirations et mouvements du réel inspirent le régulateur.
•Les sources réelles du droit créé par le régulateur
Trois types de forces réelles s’exercent sur le jeu législatif du régulateur.
- Les marchés financiers conditionnent son action normative.
Les normes du régulateur évoluent au rythme des changements du paysage boursier. La COB a ainsi adapté la réglementation du prospectus aux
spécificités du marché d’introduction. En 1996 est créé le Nouveau Marché,
accueillant les valeurs de croissance. Le régulateur constate que les candidats à l’introduction sur le Nouveau Marché sont très jeunes. Leur historique
comptable et financier est insuffisant pour prendre une décision d’investissement éclairée. La COB rend donc obligatoire la publication, par ces sociétés,
de leur plan de développement. Il observe ensuite la tendance haussière de ce
marché et l’optimisme excessif des intervenants. Il multiplie alors les avertissements en première page des prospectus. En 2000 notamment, il adresse des
avertissements à 63 sociétés introduites sur le Nouveau Marché. Face ensuite
au retournement du marché, le régulateur affirme sa volonté d’améliorer la
présentation et le contrôle des comptes (bulletin mensuel COB, novembre
2002, page 71).
- L’environnement économique et social détermine également le pouvoir
normatif de l’autorité de régulation.
«La pression sociale est de plus en plus grande (...), le citoyen refuse aujourd’hui que les règles du jeu ne soient pas les mêmes pour tous» déclare un
membre de la COB interrogé. Les professionnels exigent d’être «étroitement
associés au régulateur et de participer à l’élaboration de la réglementation».
Ils profitent des consultations pour influencer les choix du régulateur dans
un sens qui leur est favorable. Ainsi, lors de la réforme de la procédure de
visa, les prestataires de services d’investissement ont obligé la COB à renvoyer à une consultation de place la délimitation de leur responsabilité dans
l’élaboration du prospectus d’introduction.
15
En 1955, Ripert invite à sortir de la «zone glacée du droit pur» pour rechercher les
véritables motifs de la règle, in Les Forces créatrices du droit, LGDJ, 1955, p. 79.
258
Chapitre 7
- L’environnement technologique oriente le pouvoir normatif de l’autorité
de régulation.
Les avancées technologiques amènent enfin la COB à créer de nouvelles
règles.
Ainsi, la COB projette de reconnaı̂tre Internet comme un vecteur de communication à part entière. Le prospectus serait réputé public dès que mis
en ligne, à condition de publier parallèlement un résumé dans un quotidien
d’information économique et financière de diffusion nationale.
Par ailleurs, Internet a permis une désintermédiation bancaire. Les titres introduits en bourse peuvent être directement souscrits via Internet. Le marché
du courtage en ligne est en phase de croissance. Il attire une demande de plus
en plus jeune et aux revenus modestes. Les courtiers (comme la banque netIPO) s’y livrent une concurrence agressive. Afin de protéger les investisseurs,
la COB a récemment affirmé son intention d’accompagner le développement
de ce marché (bulletin no 348 juillet-août 2000).
Le droit régulatoire est bien la «formulation secondaire des phénomènes
sociaux qui les déterminent» (Ansart, 1993). Nous analysons maintenant
comment le régulateur met en forme ses principes de bonne conduite, aux
fondements formels et réels. Sa manière de faire le droit explique l’efficacité
des règles produites.
La mise à jour des règles
Les règles créées par le régulateur sont efficaces et effectives car consensuelles.
Le régulateur recherche a priori l’adhésion des acteurs. Il sollicite leur avis.
Sur les problèmes inédits et complexes, il engage une réflexion collective et recherche les solutions idoines, non idéologiques. Il parvient à un accord par la
persuasion et la négociation. Ainsi, il a soumis sa réforme de la procédure de
contrôle du prospectus d’introduction à une consultation de place en juillet
2001, avant de la codifier en juillet 2002. La norme est d’autant mieux acceptée qu’elle est réfléchie et élaborée en liaison avec les acteurs concernés.
Elle reflète les différents points de vue.
Toutefois, certaines normes résultent plus d’un compromis que d’un réel
consensus, et supposent des concessions de la part des parties prenantes. La
COB a ainsi dû renoncer à ses propositions visant à encadrer les opérations
sur le capital pré-introduction. Les professionnels s’y sont en effet fortement
opposés lors de la consultation de place. Ils ont par contre suggéré d’améliorer
Chapitre 7
259
l’information sur la composition du capital au moment de l’introduction, et
sur la dilution du capital induite par certains titres (stock-options, bons de
souscription d’action etc.). Selon un professionnel interrogé, la COB travaille
actuellement à «restructurer le chapitre 3-2 du prospectus» relatif à la structure du capital.
La nouvelle norme 354 précisant les diligences des commissaires aux comptes
lors d’une introduction résulte également d’un compromis. La COB a accepté
de limiter la revue des commissaires aux seules informations comptables et
financières. En contrepartie, les commissaires doivent attester l’absence d’incohérences et d’erreurs manifestes dans l’ensemble du prospectus.
La formulation souple des règles par le régulateur témoigne encore de la
recherche d’un consensus. Les principes généraux énoncés restent en débat
et sont révisables. Ils s’analysent comme «un droit-proposition, la définition
provisoire d’une ligne de conduite, l’essai de règlement d’un conflit d’intérêts»
(Cubertafond, 1999).
L’application et la «re-création» des règles
La création du droit n’est pas achevée à ce stade. Une fois émises officiellement, les règles du régulateur sont plus ou moins déformées, interprétées,
appliquées.
Les normes du régulateur peuvent entrer en conflit. La COB essaie alors
de les harmoniser, de les hiérarchiser ou de les préciser a posteriori.
Ainsi, les informations contenues dans le prospectus doivent être «exactes,
précises et sincères» (article 2 du règlement 98-07), tout en préservant le
secret des affaires. Le régulateur tente, dans ses règlements, de concilier ces
principes contradictoires. Il autorise l’émetteur à taire les informations dont
la divulgation serait contraire à l’intérêt social, à condition que la non publication n’induise pas le public en erreur (article 7 règlement 95-01).
Les normes du régulateur peuvent s’avérer incohérentes entre elles. Le règlement no 95-01 prévoyait l’obligation pour les candidats à l’introduction sur le
Nouveau Marché de publier leur plan de développement, alors que l’instruction de novembre 1996 considérait cette publication comme facultative. Dans
son rapport annuel de 1998, la COB tranche : «le prospectus d’introduction
au Nouveau marché comporte la présentation d’un plan de développement
stratégique à trois ans, en contrepartie de l’absence du minimum d’historique
habituellement requis» (page 46).
Par sa lecture de la norme, le juge fait évoluer les règles du régulateur.
260
Chapitre 7
La Cour d’appel de Paris a ainsi peu à peu précisé la portée du visa de la
COB sur les prospectus. En 1977, la Cour d’appel affirme que le visa dépasse
«le simple contrôle formel de l’information» (CA Paris, 18 novembre 1977,
Henri de la Tour d’Auvergne c/ Société Radar). Plus tard, elle indiquera que
«le visa de la COB ne vaut pas authentification des éléments financiers et
comptables contenus la note» (CA Paris, 7 juillet 1995, M. Noël et autres
c/ Crédit Lyonnais). Elle estime enfin que «par l’octroi de son visa, la COB
(...) certifie qu’ont été vérifiées la pertinence et la cohérence de l’information
à publier à l’occasion d’une offre publique» (CA Paris, 13 novembre 1996,
ADAM/CFF ; CA Paris, 19 mai 1998, Buckel c/ Société Fermière du Casino
Municipal de Cannes). La COB se fonde alors sur les arrêts rendus pour
actualiser la formulation du visa en octobre 2000 (bulletin mensuel, octobre
2000, p.1).
Enfin la COB amende ses règles lorsqu’elles ne sont plus adaptées à la
réalité des marchés. Ainsi, le régulateur a réduit les délais d’instruction et
supprimer le visa définitif afin de faciliter le déroulement des opérations sur le
marché (règlement no 2002-05 modifiant les règlements nos 95-01, 98-01 et 9808). Il continue d’encadrer les conditions de l’offre (prix, calendrier, nombre
de titres) dans un souci d’«efficacité, de sécurité et de rapidité» (bulletin
mensuel, juillet 2002, p. 3).
Le réalisme des règles prises par le régulateur explique leur effectivité. À
l’image du sage chinois décrit par Jullien (1996, p. 28, cité par Cubertafond),
il ne pose pas de solution a priori. Il discerne la situation, analyse les faits,
tire parti du «potentiel de situation». Il précise peu à peu les règles du jeu.
7.3
Obstacles à la légitimité du régulateur et
perspectives
L’autorité historique, institutionnelle et «sociologique» de la COB pourrait expliquer l’efficacité et l’effectivité de ses règles encadrant les informations publiées au moment d’une introduction en bourse. Toutefois, la
légitimité de la commission n’est pas acquise ; elle se construit. Nous présentons
tout d’abord les obstacles rencontrés par la COB sur la voie de la légitimation.
Nous envisageons ensuite à quelles conditions l’autorité du régulateur en
matière d’information financière pourrait être confortée.
Chapitre 7
7.3.1
261
Un déficit de légitimité
La fragilité de son assise constitutionnelle, son autonomie relative et la
portée limitée de ses normes font actuellement pièce à l’affirmation de la
légitimité du régulateur.
Une certaine fragilité constitutionnelle
Comme la SEC, la COB est en porte à faux avec la Constitution. Le cumul
des pouvoirs et le caractère hybride du régulateur (autorité administrative
et indépendante) font peser un doute sur sa constitutionnalité et sa légitimité.
Le Conseil constitutionnel a expressément condamné les institutions qui
portent «atteinte aux pouvoirs et attributions des institutions de la République» (décision des 29-30 décembre 1976, assemblée européenne16 ). Or l’autorité de régulation dit le droit, contrôle et sanctionne. Sa compétence réglementaire bat en brèche le monopole réglementaire du Premier Ministre prévu
à l’art.20 alinéa premier de la Constitution.
Ses pouvoirs de sanction mettent en cause le monopole du juge en matière
répressive.
Son pouvoir normatif concurrence celui du Législateur, garant des libertés
publiques selon l’article 34 de la Constitution.
Sa double compétence, normative et répressive, contrevient également au
principe de séparation des pouvoirs. Le Conseil Constitutionnel a affirmé en
198417 , en matière de liberté de la presse, que «la répression ne saurait être
confiée à une autorité administrative».
La COB est, selon l’article L.621-1 du Code monétaire et financier, une
autorité administrative indépendante. Or la Constitution ne prévoit pas expressément que des autorités administratives puissent être échapper au contrôle gouvernemental. Le gouvernement, sous le contrôle du parlement, «dispose de l’administration» (article 21 de la Constitution). Le régulateur perturbe le schéma de l’appareil administratif largement dominé par le modèle
wéberien. Il engendrerait même, selon Chevallier (1986), «un modèle nouveau
de type polycentrique caractérisé par la coexistence de plusieurs centres de
décision et de responsabilité».
16
«Les Instances de régulation et la Constitution», Revue du droit public, février 1990,
p.160-161.
17
Conseil Constitutionnel 10 et 11 octobre 1984, note Bienvenu, AJDA, 1984, p. 684.
262
Chapitre 7
Une autonomie relative
L’indépendance du régulateur, indispensable à l’exercice efficace de sa
mission, est fragile et discutée (Chevallier, 1986) .
En premier lieu, le régulateur ne peut s’émanciper complètement de l’État.
Sous son couvert, «l’État s’avancerait masqué pour mieux contrôler les choses»
(Sabourin, 1983). Il ferait mine de s’effacer derrière des normes objectives
et nécessaires prises par un organe indépendant. Ce relais faciliterait en
réalité une intervention étatique plus poussée dans le domaine économique. Le
régulateur permettrait à l’État de «se réapproprier le consensus» (TeitgenColly, 1990).
De plus, les organes classiques de l’État et les membres du régulateur, souvent de même origine sociale et formation, sont idéologiquement proches.
À cette connivence idéologique s’ajoute une dépendance statutaire. L’institution comme la suppression du régulateur relève de la seule volonté législative.
Dans le domaine de l’audiovisuel, les autorités régulatrices ont ainsi disparu
puis été remplacées au gré des alternances politiques.
L’absence de personnalité morale limite encore l’indépendance de la COB à
l’égard de l’État. Toutefois, la nouvelle autorité de régulation devrait être
dotée de la personnalité morale de droit public, comme la Banque de France.
Le gouvernement intervient également dans le fonctionnement interne de
la COB. D’une part, il nomme son Président par décret et quatre de ses
membres par arrêté. D’autre part, un commissaire du gouvernement, désigné
par le ministre, siège auprès de la commission. En principe il peut seulement,
dans un délai de quatre jours, provoquer une seconde délibération. Mais en
réalité il assiste à toutes les délibérations, exprime son point de vue et peut
poser des questions. Enfin, le Ministre de l’économie, en homologuant les
règlements de la COB, est associé à leur élaboration. Les règlements ont à ce
propos une nature juridique mixte. Ils sont à la fois des arrêtés ministériels
et des décisions de la COB (Decoopman, 1980, p.5).
En second lieu, la doctrine, les juges administratif et constitutionnel encadrent l’action du régulateur.
Ainsi, le Conseil d’État a le 20 décembre 2000, invalidé les articles 19, 25,
26, 36 et 37 du règlement 98-01, et l’article 5 du règlement 98-08, sur le fondement de la loi du 4 août 1994, relative à l’emploi de la langue française. Il
précise que le prospectus doit être intégralement rédigé en français, sauf cas
prévus par le règlement COB 2002-03.
Par ailleurs, le Conseil constitutionnel a précisé et canalisé les pouvoirs
de toutes les autorités indépendantes dont la COB, à l’occasion de quatre
Chapitre 7
263
décisions18 prises entre 1984 et 1987. Il exclut une indépendance absolue des
instances régulatrices. Il condamne toute compétence de nature législative à
ces instances, limite le contenu et la portée de leur pouvoir réglementaire et
impose le contrôle juridictionnel de leurs actes. Il les rappelle à l’impartialité. Enfin, il exige que la répression administrative soit assortie des mêmes
garanties que la répression pénale.
En troisième lieu, selon la théorie de la «capture», les sociétés contrôlées
pourraient finir par contrôler le régulateur. Ainsi, les banques introductrices
engagent souvent d’anciens membres du régulateur pour gérer les relations
avec la COB. En France, contrairement aux États-Unis, aucune loi ne vise à
prévenir ces collusions d’intérêts.
En dernier lieu, le manque de moyens humains, matériels et financiers de
la COB, comparée à la SEC, limiterait sa marge de manoeuvre (Dessertine,
1997, p. 81).
La portée limitée des normes de la COB
Les règles prises par le régulateur ont une portée juridique assez faible, au
sein de la hiérarchie des normes19 . Elles n’ont pas autorité de chose légiférée20 .
Contrairement aux normes produites par des organes souverains, elles ne
s’imposent d’elles-mêmes, a priori. Le secteur régulé les valide in fine (FrisonRoche, 2001). Il participe en effet à leur élaboration et détermine leurs effets.
Les règles prises par le régulateur valent tant que leurs destinataires n’en
remettent pas en cause le bien fondé. Elles conviennent mieux aux situations
de paix sociale que de conflits. En période de crise, l’unanimité conventionnelle est remise en cause ; un droit plus dogmatique et souverain s’impose :
«il faut du droit prenant en compte les forces en présence mais réussissant
à les sublimer dans le cadre d’un intérêt supérieur commun qui, porté par
l’État, s’imposera à tous» (Cubertafond, 1999, p. 37).
Ce rappel au règlement pacificateur et réintégrateur s’observe aujourd’hui
aux États-Unis. La régulation a modelé le capitalisme libéral américain depuis
le début du XXème siècle. Mais elle cède actuellement la place à une logique de
18
Déc. 84-173 DC du 26 juillet 1984, R.63 ; Déc. 86-210 DC du 29 juillet 1986 ; Déc.
86-217 du 18 septembre 1986 ; Déc. 86-224 DC du 25 janvier 1987.
19
Les normes ayant la plus grande force juridique sont, par ordre décroissant, la Constitution, le droit international, la loi, les règlements, la jurisprudence, les usages et la doctrine.
20
Seule la loi promulguée est un acte non contestable et non fautif (Vedel et Delvolvé,
1982, p. 86).
264
Chapitre 7
réglementation. La puissance publique américaine intervient de plus en plus
dans l’édiction des règles relatives au gouvernement d’entreprise. Elle agit
directement en légiférant, comme par exemple avec la loi Sarbanes-Oxley du
30 juillet 2002.
7.3.2
Perspectives
Selon Max Weber, la légitimité d’une institution dépend de sa capacité
à faire valoir durablement un titre de légitimité qui est sa raison d’être. Le
régulateur garantira d’autant mieux la transparence des opérations d’introduction que sa légitimité politique et juridique sera consacrée.
La place du régulateur dans le paysage institutionnel
Dessertine (1997, p. 81) évoque «la position unique de la commission»
conjuguant «les intérêts de l’approche boursière et ceux des pouvoirs publics,
dans une organisation à la fois administrative et indépendante». La nature
administrative du régulateur garantit qu’il oeuvre dans l’intérêt général, et
non corporatiste de quelques professions. Son indépendance lui permet d’intervenir de manière plus consensuelle, souple et rapide que les organes classiques de l’État. Ce statut original du régulateur explique en partie l’efficacité et l’effectivité de sa réglementation des informations publiées au moment
d’une introduction en bourse. Mais il diffracte le pouvoir politique. Où situer
une telle autorité dans le paysage institutionnel français ? Sur ce point, le
législateur est muet. La logique de l’instituant ou de l’institué conduisent à
des réponses différentes.
La logique de l’instituant ou l’attraction des modèles traditionnels de pouvoir
La stratégie d’institution qui anime le régulateur risque de banaliser son
statut. Il concurrence en effet la légitimité mieux établie des pouvoirs traditionnels. Dans la logique de l’instituant, il serait alors rattaché aux autorités
administrative, judiciaire ou parlementaire.
Héritier de traditions jacobines et régaliennes, l’État français pourrait
subordonner le régulateur, l’enfermer dans le circuit administratif.
Il en ferait alors une autorité administrative, définitivement ou provisoirement. Le régulateur serait transformé en un établissement public autonome
chargé d’exercer, sous le contrôle du juge et la tutelle du pouvoir politique, sa
Chapitre 7
265
mission. D’anciennes autorités de régulation ont connu ce sort dans d’autres
domaines, comme le Conseil National de la Cinématographie.
Le régulateur pourrait encore être qualifié d’administration de mission.
Son destin serait alors plus précaire. Une fois la protection des épargnants
enracinée dans les moeurs et donc sa mission réussie, il serait supprimé. Le
législateur et le gouvernement codifieraient et entérineraient la déontologie
définie par le régulateur ; les tribunaux en contrôleraient l’application.
Le régulateur pourrait encore devenir une juridiction spécialisée assortie
d’un pouvoir d’avis, comme l’ancienne Commission de la concurrence devenu
le Conseil de la concurrence. Compte tenu de la polychromie des affaires
boursières, tribunaux, gouvernement et régulateur se partageraient les pouvoirs. En ce sens, l’avant-projet de loi sur la sécurité financière prévoit de
doter la nouvelle autorité de régulation d’un collège des sanctions.
Le rattachement parlementaire du régulateur serait encore un scénario
envisageable, au regard de sa fonction de régulation économique et de protection des libertés. La loi du 2 juillet 1996 a déjà rapproché la COB du
pouvoir législatif. Le Président de la COB peut être entendu ou demandé à
l’être par les commissions des finances du Parlement. Il fait également rapport
aux Présidents des assemblées. Enfin, le Parlement participe à la composition
du régulateur.
Si un avenir proche confirmait l’un de ces scénarios, le régulateur perdrait
un statut qui explique pourtant en partie l’efficacité de son action.
La logique de l’institué
Dans cette logique, le régulateur resterait hors la trilogie traditionnelle des
pouvoirs. Trois moyens permettraient de régler la question de sa légitimité
politique.
Son statut pourrait être déclaré constitutionnel, suite à un amendement
ou à une interprétation large de la Constitution. La consécration constitutionnelle serait la meilleure garantie pour le régulateur ; elle empêcherait le
politique d’être maı̂tre de son sort. À défaut, la Constitution pourrait se fonder sur ses principes généraux pour justifier le statut d’autorité indépendante
du régulateur. Ainsi, en Allemagne, une interprétation assez large de l’article
88 de la loi fondamentale a permis de réconcilier l’indépendance fonctionnelle
et la dépendance organique de la Bundesbank.
266
Chapitre 7
Hubac et Pisier (1988) choisissent de situer le régulateur dans la sphère
de l’éthique. Autorité morale éclairée, le régulateur ne souffrirait ainsi pas
d’un déficit de légitimité par rapport au législateur élu ou au juge. Il tirerait
sa force, non pas de dire le droit positif, mais de suggérer des conduites et
des comportements, de dégager des opinions communes.
Si l’organe de régulation devenait communautaire, les pouvoirs nationaux
ne pourraient en contester la légitimité. Les ministres des finances allemands
et britanniques ont avancé l’idée d’une autorité supranationale de supervision de la Bourse, des métiers de l’assurance et de la banque, sur le modèle
de la Banque Centrale Européenne. Celle-ci gère la monnaie européenne et
applique les «règles de juste conduite », à l’abri des pressions des élus et sans
tenir compte des majorités électorales. En France, la nécessaire harmonisation du régulateur avec ses homologues européens a déjà conduit au projet
de création d’une unique autorité des marchés.
Le régulateur ne doit pas seulement être reconnu sur le plan politique
et institutionnel, mais aussi comme «entrepreneur législatif» (Cubertafond,
1999).
La régulation et les normes créées par le régulateur dans le système
juridique
Nous avons précédemment montré que le régulateur recourait principalement à des moyens simples, informels et non impératifs. Pour autant, il fait
autorité.
Ce paradoxe explique les difficultés du droit positif à qualifier la régulation
de pouvoir normatif. Traditionnellement, la jurisprudence et la doctrine assimilent le régulateur à une autorité administrative classique. Elles considèrent
alors qu’au sein de la fonction de régulation, seule l’élaboration de règlements
est une activité de droit. Parfois, elles reconnaissent l’existence d’une fonction
de régulation mais lui refusent le caractère de pouvoir. Dans cette logique, le
régulateur édicterait deux types d’actes : les recommandations, relevant de
la régulation mais non contraignantes ; les décisions, expression d’un pouvoir
réglementaire classique.
De même, le droit positif hésite à qualifier de normes juridiques, les
moyens non contraignants employés par la COB (avertissements, recommandations, visa, communiqué de presse etc). Ces derniers ne présentent pas les
critères classiques de normativité (tableau 7.5).
Chapitre 7
267
Conception traditionnelle de la normativité
Extériorité de la norme
La norme est imposée de l’extérieur au
groupe social.
Conception originale de la normativité
Elaboration endogène de la norme
Le groupe social élabore les normes et se les impose
à lui-même.
Impérativité de la norme
Le non respect de la norme est sanctionné
par la contrainte.
Disparition de la contrainte
Les normes sont obligatoires mais non contraignantes.
Leur respect est fondé sur des mécanismes de
persuasion, d’incitation, de recommandation. A la
notion de sanction et de peine se substitue celle de
«réponse sociale».
Généralité et impersonnalité
La loi énonce les conditions de son
application. Elle précise les situations
concrètes auxquelles elles’appliquera.
Singularité et contextualisation de la norme
Le régulateur édicte des principes généraux. Il les
décline ensuite a posteriori au cas par cas.
Il invente la solution appropriée à chaque situation
individuelle.
Cette fonction de spécification de la norme
explique que l’égalité soit conçue comme
uniformité.
Les principes généraux et abstraits donnent
lieu à exécution individuelle et impersonnelle.
Cette fonction de contextualisation de la norme conduit
à une conception de l’égalité - universalité.
Les orientations générales sont mises en oeuvre de
manière différenciée, contextualisée et proportionnalisée.
Tab. 7.5 – Comparaison des normes élaborées par le législateur et le
régulateur
La loi encadre l’activité des acteurs de la vie économique de l’extérieur.
Au contraire, l’autorité de régulation élabore les règles de bonne conduite de
manière endogène. Destinateur et destinataire des normes sont confondus.
La loi est impérative et sanctionnée par la contrainte. Avec la régulation,
la notion d’impérativité s’efface et laisse place à la coopération. Même les
injonctions du régulateur ne visent pas à réprimer ou réparer, mais à corriger et rétablir une situation (De Coopman, 1980). La production comme
l’application effective des normes, est une oeuvre collective. En témoigne
la responsabilisation, par le régulateur, de tous les acteurs impliqués dans
la rédaction du prospectus d’introduction. Les auteurs sont responsables, à
hauteur de leur contribution, du respect des normes encadrant le contenu du
prospectus. La société est la principale responsable de l’information publiée.
Mais le régulateur considère que les prestataires de services financiers effectuent des diligences particulières de nature à fonder une responsabilité ad
hoc.
La loi est générale et impersonnelle ; elle comporte les conditions de son
exécution singulière. Inversement, la COB ajuste la norme à chaque situation, reconfigure à chaque cas l’application de la norme générale. Son pouvoir
d’appréciation permet de rendre la norme générale appropriée aux situations
268
Chapitre 7
singulières. Il introduit de la souplesse dans l’exercice du pouvoir normatif.
L’exécution individuelle de la loi se fait, pour préserver son impersonnalité,
dans des conditions uniformes. La loi conçoit donc l’égalité comme uniformité. Autrement dit, deux situations sont égales au regard de la loi si elles
remplissent les conditions légales pour leur application. L’égalité est affectée
d’un caractère rigide. Par contre, avec la régulation, l’égalité est plus universelle, différenciée, c’est-à-dire mieux adaptée à chacun des individus.
Pourtant, les modes d’action simples, informels et non impératifs du
régulateur «modifient les situations des personnes ou groupements concernés,
leur ouvrent des voies d’action, peuvent être prises en compte devant des administrations ou juridictions». Ils ont donc bien des effets juridiques. La
Cour d’appel de Paris l’a récemment rappelé (arrêt Elyo, 1998). Selon elle,
l’appréciation par la COB du communiqué annonçant une offre publique s’apparente dans sa démarche à un contrôle, et dans son expression à une décision
administrative faisant grief et susceptible de recours.
Par conséquent, reconnaı̂tre les effets juridiques des moyens informels et
non impératifs employés par la COB, suppose de renoncer à une conception
trop classique de l’élaboration du droit et des normes juridiques.
Timsit (1997, p. 161-231) voit déjà dans les évolutions jurisprudentielles et
doctrinales récentes la possibilité d’appréhender la régulation comme une
nouvelle forme du pouvoir normatif. Les arrêts Notre Dame de Kreisker21
(1954) et Crédit Foncier de France22 (1970) entrouvrent un espace pour la
fonction de régulation, entre l’interprétation et la réglementation. Timsit invoque également les conclusions du commissaire du gouvernement sur l’arrêt
Labbé et Gaudin23 (C.E., Assemblée, 20 mai 1985) : «la recommandation
a une force réellement contraignante». Elle est obligatoire et son degré de
contrainte dépend de sa précision.
Timsit invite à sortir de la distinction classique droit/non droit et à accepter l’idée d’une gradation dans la normativité. Les caractères spécifiques des
règles de conduite édictées par le régulateur justifieraient de les considérer
comme des normes juridiques à part entière, d’un nouveau type.
La doctrine, s’appuyant sur les travaux de J. Habermas et G. Teubner,
suggère également que la composition du régulateur et sa manière de créer
le droit, puissent légitimer ses normes. «La légitimité de la régulation les
21
CE, Ass., 29-1-1954, Institution Notre-Dame du Kreisker, R. 64 ; revue pratique de
droit administratif , 1954, 50, concl. Tricot.
22
CE, section 11-12-1970, Crédit foncier de France c/ Demoiselle Gaupillat et Dame
Ader, concl. Bertrand, R. 750 ; GAJA, 10e éd., p. 637.
23
Revue française de droit administratif, 1985, p. 554-565.
Chapitre 7
269
normes mixtes tient au fait qu’elle met en oeuvre une logique interactive,
évolutive, professionnelle et pluraliste. (...) Légitimée par la composition des
organismes producteurs de la norme, la normalisation (au sens de normes
privées) l’est aussi par ses procédures» (Boy, 1998, p. 134 à 139, cité par
Turrillo).
Conclusion
Dans ce chapitre, nous sommes partis de deux constats. D’une part, le
régulateur plus que le législateur réglemente les informations à publier au moment d’une introduction en bourse en France. D’autre part, il semble avoir
effectivement sensibilisé les sociétés à l’importance de la transparence. Nous
avons alors cherché à dévoiler les fondements, mais aussi les limites, de l’autorité de la COB en matière d’information, à partir de sources documentaires
et d’entretiens.
Les résultats suivants ressortent de l’étude de cas.
Le régulateur est né dans un contexte de crise de l’État. L’acquisition progressive d’un statut institutionnel a ensuite inscrit dans la durée une légitimité
au départ simplement historique. L’action du régulateur est surtout efficace
car en phase avec la réalité. La COB met à jour puis formule les règles de
bonne conduite de manière consensuelle et empirique. Ces règles trouvent
leur force plus dans l’adhésion que dans la sanction. Elles cherchent l’assentiment de ceux auxquels elles s’appliquent. Le régulateur s’impose donc par
une autorité plus «sociologique» que juridique.
Un certain nombre d’obstacles compromettent toutefois sa légitimité actuelle
et à venir. Son assise constitutionnelle est fragile et son autonomie relative.
Le droit positif hésite à reconnaı̂tre les effets juridiques des moyens informels auxquels recourt principalement le régulateur. Il est mal à l’aise avec
les normes crées par le régulateur. Élaborées et appliquées de manière endogène, ancrées dans le réel et contextualisées, elles ne présentent pas les
caractères traditionnels d’extériorité, d’impérativité et de généralité. La jurisprudence et la doctrine ne considèrent encore que rarement la régulation
comme une nouvelle forme du pouvoir normatif. Leurs hésitations illustrent
la difficulté de transposer dans notre système juridique codifié, une autorité
originaire d’un pays de droit coutumier.
Les limites de cette étude en suggèrent les prolongements. Nous soulignons
le déterminisme historique et institutionnel de la régulation de l’information
en France. Il rend difficile la généralisation des résultats. Une démarche com-
270
Chapitre 7
parative compléterait utilement notre approche. Elle spécifierait les environnements favorables à la régulation. De surcroı̂t, l’acceptation par les acteurs
et la cohérence logique du procès de régulation identifié ne suffisent pas à
garantir la validité. La confrontation aux expériences étrangères confirmerait
ou infirmerait sa pertinence. Elle permettrait enfin de savoir si la France, par
son mode de régulation de l’information, constitue un modèle. La longévité
de l’autorité de régulation, le consensus dont elle fait l’objet et son bilan
plaident en ce sens. Reste à déterminer l’originalité de la formule. Si elle
était avérée, elle affirmerait la légitimité interne et externe du régulateur,
notamment par rapport aux États-Unis.
Chapitre 7
271
Fig. 7.1 – Le procès de création de normes par le régulateur
Dans une relation de déterminisme, B ajuste ses choix à la situation A
qu’il perçoit. Dans une relation de contingence, le facteur d’environnement A
modifie les caractéristiques du facteur B. Une relation de médiation lie deux
facteurs dont l’un permet l’action du second. Dans une relation de condition,
le paramètre ou la contrainte A conditionne l’action B (voir Michaı̈lesco,
1999, p. 90).
272
Chapitre 7
Fig. 7.2 – Composition envisagée de l’Autorité des Marchés Financiers
Conclusion
La présente recherche traite de l’environnement informationnel des introductions en bourse, c’est-à-dire des informations diffusées sur le candidat
à l’introduction. Nous apprécions en particulier la qualité des prévisions de
résultat disponibles sur les admissions à la cote du Second Marché entre le
premier janvier 1994 et le 30 juin 2000, et du Nouveau Marché entre le premier janvier 1996 et le 30 juin 2000. Le dirigeant de la société introduite,
les analystes financiers de l’entreprise d’investissement spécialiste et les analystes ayant transmis leurs estimations à I/B/E/S constituent les producteurs d’information retenus. Cette thèse visait tout d’abord à tester si des
considérations d’agence expliquent l’offre d’information du dirigeant et des
analystes. Elle analyse ensuite comment le dirigeant et le régulateur tentent
d’enrichir l’environnement informationnel de la société introduite. Nous rappelons la démarche et les résultats afférents à chaque chapitre, avant d’en
souligner globalement l’originalité et les limites.
La première partie fixe le cadre de la recherche. Nous y présentons le
marché de l’information au moment d’une introduction en bourse, en particulier ses acteurs, les informations échangées et la réglementation. Nous
exposons ensuite le paradoxe qui fonde la problématique. Malgré les vertus
prêtées à la bonne information des investisseurs, les informations diffusées sur
les sociétés introduites semblent inégalement réparties et imprécises, au vu
de la littérature. La première partie s’achève sur des explications et solutions
théoriques au paradoxe soulevé et ouvre la voie à leur vérification empirique.
La deuxième partie analyse l’environnement informationnel des introductions en bourse à la lumière de la théorie de l’agence. Les producteurs d’information sont donc envisagés dans leurs relations avec leur mandant. Nous
cherchons à déterminer l’influence des contraintes d’agence sur leur offre d’information.
Le chapitre 2 teste si les pressions des actionnaires et des créanciers expliquent
la qualité des prévisions publiées par le dirigeant. Nous mettons en évidence
273
274
Conclusion
l’excès d’optimisme du dirigeant, comparé à un modèle naı̈f de prévision ou
aux analystes financiers. Cet optimisme est cependant difficilement imputable aux pressions des actionnaires, telles que nous avons pu les mesurer.
Il croı̂t par ailleurs avec le niveau d’incertitude sur les bénéfices estimés. Le
dirigeant préserverait ainsi sa réputation. De leur côté, les créanciers et le
marché financier semblent inciter le dirigeant à révéler précisément ses anticipations. Au vu de nos résultats, expliquer la qualité des prévisions publiées
comme un compromis entre les pressions des diverses parties prenantes est
plausible mais insuffisant. De surcroı̂t, la précision des prévisions du dirigeant
semble moins réduire les coûts d’agence escomptés par les investisseurs que
leur incertitude.
Le chapitre 3 s’intéresse aux analystes de l’entreprise d’investissement
spécialiste. Ces analystes sont chargés de rédiger une étude financière, jointe
au prospectus d’introduction. Ils y prévoient les futurs résultats de la société
et le prix d’équilibre espéré. Nous avons mené une enquête auprès de 334
analystes à deux fins : mieux comprendre comment ces analystes travaillent ;
vérifier leur indépendance dans l’exercice de leur métier. L’instrument de recherche a été administré à la fois via Internet et par la poste.
Premièrement, nous montrons que la société représente pour les 37 répondants
retenus une source d’information essentielle, mais imparfaite. Pour autant,
les répondants ne perçoivent pas l’impact de la qualité des informations publiées par la société sur leur propres estimations.
Deuxièmement, plusieurs indices témoignent des pressions subies par les analystes quand leur employeur est affilié à une banque. Le cas échéant, les
répondants reconnaissent être incités à faciliter l’obtention puis l’exécution
du mandat de placement. 70% disent être sollicités par le département origination. Leur expertise, leur connaissance du secteur et du marché servent en
effet d’argument commercial à la banque. Lorsque la banque du groupe est
mandatée, tous les répondants affirment prendre en compte ses intérêts commerciaux dans leur étude. Ils semblent ainsi justifier le prix d’introduction
fixé par l’introducteur, en appliquant une décote au prix d’équilibre (qu’ils
soutiennent estimer librement). Par contre, seulement 2% des répondants
reconnaissent surestimer leurs prévisions de résultat, dans l’intérêt de l’introducteur... L’évaluation objective de la société introduite par les analystes
de l’entreprise d’investissement peut compromettre les intérêts commerciaux
de la banque. Pour éviter les conflits d’intérêts, la banque tend à impliquer les
analystes de sa filiale dans la préparation de l’introduction. Elle les contrôle
ainsi plus facilement. De leur côté, les analystes prouvent par leur coopération
qu’ils agissent bien dans l’intérêt du mandant. Mais leur participation à l’introduction rend difficile l’évaluation impartiale de la société introduite. Elle
Conclusion
275
est donc préjudiciable aux investisseurs. Elle les éloigne également de leur
métier d’origine (l’analyse financière fondamentale).
Troisièmement, sur le plan méthodologique, Internet s’est révélé le vecteur
de communication le plus efficace, au regard des critères de coût, de taux
de retour, de rapidité et de qualité des informations obtenues. Toutefois,
ce média de recueil ne convient pas à tous les problèmes de recherche ni à
toutes les populations étudiées. Nous développons aussi, outre le protocole
expérimental suivi, les conditions auxquelles cette méthode d’enquête, forte
de ses spécificités, nous semble pouvoir s’avérer utile à la recherche en finance.
Les analystes considérés dans le chapitre 4 sont affiliés à une maison
de courtage extérieure au syndicat de placement. Lorsqu’ils suivent un titre
nouvellement coté, ils produisent des informations et donc enrichissent l’environnement informationnel de la société concernée. Le chapitre 4 met à jour
les caractéristiques des sociétés couvertes par les analystes d’I/B/E/S. Sur
notre échantillon, le nombre d’analystes suivant une société augmente avec
le volume moyen de titres échangés le premier mois de cotation, le nombre
de titres mis à la disposition du public et la perspective d’une augmentation
de capital post introduction. Il diminue avec la petite taille de la société, la
participation au capital du dirigeant après l’introduction et le dynamisme du
marché primaire. Ainsi, les analystes semblent prendre leur décision en fonction des gains nets attendus de la couverture. Ils comparent les commissions
de courtage et/ou de placement espérées au coût de production de l’information. Ce faisant, ils satisfont à la fois les préférences de leur employeur et
leur utilité personnelle24 . Ils évitent donc les conflits d’agence.
La deuxième partie suggère d’ores et déjà quelques moyens d’améliorer la
qualité et la quantité d’informations disponibles sur les sociétés introduites
en bourse. À l’issue du chapitre 2, le dirigeant semble publier des prévisions
de résultat plus précises, sous les pressions des créanciers et des investisseurs. Les parties prenantes ont donc un rôle incitatif à jouer, afin d’être
mieux informées. Au vu du chapitre 3, l’analyste semble enclin à surévaluer
le candidat à l’introduction, lorsque son employeur appartient au syndicat
de placement. Il appartient aux autorités professionnelles et/ou étatiques de
garantir l’indépendance d’esprit des analystes, et d’identifier les situations
porteuses de conflits d’intérêts préjudiciables aux tiers. Le chapitre 4 conclut
à une inégale couverture des sociétés introduites par les analystes non affiliés au chef de file. Afin de limiter les asymétries d’information, la COB
24
Une partie de la rémunération des analystes varie en effet en fonction des résultats de
l’établissement financier.
276
Conclusion
pourrait recommander au candidat à l’introduction de publier une analyse financière rédigée par un établissement non membre du syndicat de placement.
La communauté financière devrait valoriser et mieux reconnaı̂tre les analystes
émettant des recommandations pertinentes et des prévisions précises.
La troisième partie approfondit les investigations sur les moyens d’enrichir l’environnement informationnel des introductions en bourse. Les intérêts
du candidat à l’introduction et des investisseurs sont ici supposés confondus.
Les deux parties gagnent à éliminer le phénomène d’anti-sélection, c’est-àdire l’inégale information sur la qualité des titres échangés.
Les chapitres 5 et 6 évaluent l’efficacité des solutions au problème de sélection
adverse, déduites des modèles de signalisation. L’avantage informationnel du
candidat à l’introduction le prédispose à agir. L’alternative suivante s’offre à
lui.
Le dirigeant peut réduire l’incertitude du marché sur la valeur espérée
des titres, en diffusant volontairement ses prévisions de résultat. Telle est
l’idée du modèle de Hughes (1986), testée empiriquement dans le chapitre
5. La publication de prévisions précises, non demandées par la loi, prouve
la capacité du dirigeant à anticiper correctement les changements de l’environnement économique et à y répondre efficacement. Elle informe donc le
marché d’un élément par ailleurs inobservable. À ce titre, elle constitue un
signal de qualité.
Nous ne vérifions que partiellement les prédictions du modèle de Hughes sur
notre échantillon. Nos résultats font apparaı̂tre que l’acte volontaire de publication n’a pas d’attribut informatif pour les investisseurs ou les analystes. En
effet, il n’influence pas significativement la sous-évaluation des titres, l’exactitude ou la dispersion des estimations des analystes. De surcroı̂t, les sociétés
sans prévision dans leur prospectus sont suivies par deux fois plus d’analystes
que les autres.
En revanche, la qualité des prévisions du dirigeant semble informative pour
les analystes et les investisseurs. Elle accroı̂t significativement le nombre
d’analystes suivant la société introduite, l’exactitude et l’homogénéité de
leurs estimations. Nous observons parallèlement une sous-évaluation croissante avec l’erreur de prévision du dirigeant.
Enfin, les sociétés de l’échantillon semblent utiliser des mécanismes de signalisation différents, selon leurs caractéristiques ; le marché, l’année et la
procédure d’introduction. Ainsi, les sociétés les plus jeunes, de la Nouvelle
Économie, introduites par placement ou offre à prix minimal après 1996,
semblent lever l’incertitude des investisseurs en publiant des prévisions précises.
Nos résultats confortent plutôt l’hypothèse d’une signalisation par sous--
Conclusion
277
évaluation, pour les sociétés les plus âgées, d’un secteur traditionnel, introduites en 1994 et 1995 par offre à prix ferme.
Le chapitre 6 envisage une solution parallèle au problème de sélection
adverse. Dans le modèle de Chemmanur (1993), le dirigeant d’une société
performante délègue aux analystes l’émission du signal mais en assume le
coût. Il sous-évalue en effet délibérément le prix d’introduction pour inciter les analystes à produire des informations sur la société. Les informations
publiées par les analystes permettent au marché de valoriser précisément
les titres introduits. Elles influencent favorablement les cours. Les actionnaires initiaux attendent donc que le marché ait capté le signal, avant de se
désengager.
D’après nos résultats, le dirigeant peut, en sous-évaluant le prix d’introduction, espérer augmenter le nombre d’informations diffusées sur la société,
mais pas améliorer leur qualité. En effet, la sous-évaluation accroı̂t le nombre
d’analystes suivant la société et la dispersion de leurs estimations. Son effet
sur l’erreur de prévision des analystes est mitigé. Les sociétés de l’échantillon
semblent toutefois subordonner la sous-évaluation au coût de production de
l’information pour les analystes et à la perspective d’une augmentation de capital au plus tard vingt-quatre mois après l’introduction. La probabilité d’une
augmentation de capital douze ou vingt-quatre mois post introduction augmente au demeurant avec la sous-évaluation initiale et le nombre d’analystes
suivant la société sa première année boursière. La sous-évaluation semble
donc créer un contexte informationnel propice à une nouvelle émission de
titres. Enfin, nos résultats confortent l’hypothèse que les informations produites par les analystes constituent un signal de qualité. Sur notre échantillon,
les performances boursières à douze et vingt-quatre mois des sociétés introduites croissent avec le nombre et l’exactitude des prévisions des analystes. L’enrichissement de l’environnement informationnel, induit par la
sous-évaluation, semble bien avoir un impact positif sur les cours.
À l’issue des chapitres 5 et 6, les initiatives prises par le dirigeant pour
améliorer l’environnement informationnel de la société semblent insuffisantes.
Elles sont complétées, mais aussi souvent impulsées par un autre acteur, la
Commission des Opérations de Bourse (COB). En France, l’État a choisi la
voie de la régulation plus que de la législation, pour garantir la bonne information des investisseurs. Le dernier chapitre retrace comment la COB est
parvenue à asseoir son autorité et à imposer ses exigences en matière d’information aux candidats à l’introduction. Il se démarque des cinq chapitres
précédents par la démarche inductive, et non déductive, adoptée. L’étude de
cas réalisée révèle que l’ancrage historique et institutionnel du régulateur,
278
Conclusion
sa manière originale d’exercer ses pouvoirs et de créer les règles de bonne
conduite expliquent son autorité. Mais sa fragile légitimité politique et juridique limite encore l’efficacité de son action.
Le résumé des résultats obtenus invite à s’interroger sur leur intérêt.
En premier lieu, notre travail complète le corpus de littérature relatif au
producteur légal d’information : le dirigeant.
Nous apprécions tout d’abord l’exactitude et le biais des prévisions publiées
par les sociétés introduites sur le marché français. Les études antérieures
évaluant la qualité des prévisions contenues dans les prospectus, nombreuses
sur le plan international, demeuraient rares en France. Elles se situaient par
ailleurs dans le cadre de la théorie de l’efficience. L’offre d’information du
dirigeant est ici analysée à la lumière de la théorie de l’agence. Nous montrons
que des considérations d’agence expliquent en partie l’erreur moyenne de
prévision des dirigeants.
Notre thèse approfondit ensuite la connaissance des pratiques de signalisation
des sociétés lors de leur introduction en bourse. Selon leur âge, leur secteur
d’activité, l’année et la procédure d’introduction, les sociétés de l’échantillon
semblent «se signaler» par sous-évaluation ou bien par publication volontaire
de prévisions précises jointe, le cas échéant, à la participation au capital du
dirigeant. L’approche multi-signaux et temporelle adoptée nous distingue des
études antérieures.
Nous précisons enfin comment le dirigeant et les producteurs externes d’information (les analystes) peuvent jouer des rôles complémentaires. Dans le
cadre du modèle de Chemmanur (1993) revisité, nous montrons que le dirigeant peut inciter les analystes à produire des informations sur sa société en
sous-évaluant le prix d’introduction. Ces informations enrichissent l’environnement informationnel de la société, dont nous proposons une définition et
quatre indicateurs de mesure. La sous-évaluation délibérée du prix d’offre accroı̂t donc le nombre d’informations échangées sur la société. Son effet «momentum informationnel» n’avait jusqu’alors été attesté que sur le marché
américain (Aggarwal et alii, 2002). Enfin, l’impact boursier positif des informations diffusées par les analystes s’observe plus tardivement sur notre
échantillon (vingt-quatre mois) que sur celui d’Aggarwal et alii (six mois).
En second lieu, nos résultats enrichissent la connaissance du métier d’analyste et la compréhension de leurs comportements au moment d’une introduction en bourse.
Les études quantitatives antérieures suggéraient l’existence de conflits d’intérêts
pour expliquer l’optimisme des analystes. Nous avons vérifié auprès d’analystes affiliés à l’entreprise d’investissement spécialiste la réalité des pressions
Conclusion
279
qu’ils subissent, et situé celles-ci au sein du processus de suivi des introductions en bourse. Les données primaires collectées renforcent l’acceptabilité de
l’hypothèse relative aux conflits d’agence.
Les caractéristiques et les déterminants de la couverture des admissions à
la cote française par les analystes d’I/B/E/S sont mis à jour. À notre connaissance, ils ne l’avaient pas été antérieurement. L’analyse réalisée est à la fois
statique et dynamique. Elle rend en effet compte du niveau, du délai et de
la probabilité instantanée de couverture des sociétés de l’échantillon.
En dernier lieu, nous traitons de la régulation de l’information financière
lors d’une introduction en bourse. L’action normative de la COB est tout
d’abord abordée de manière descriptive. La première partie expose les règles
encadrant la production et la diffusion d’information lors d’une introduction
en bourse. Dans son prolongement, le chapitre 7 propose une réflexion sur
les fondements historiques, institutionnels et sociologiques de l’autorité du
régulateur.
Cette thèse présente néanmoins des limites, ouvrant de nouvelles perspectives de recherche.
En premier lieu, nous avons effectué nos études empiriques quantitatives non
sur la population totale des admissions à la cote du Second Marché ou du
Nouveau Marché, mais sur des échantillons. De plus, le recours à de multiples
bases de données explique la taille variable des échantillons d’un chapitre à
l’autre. Les résultats doivent donc être interprétés à l’aune de ces limites. Une
collecte additionnelle de données permettra d’élargir la taille des échantillons
utilisés.
En second lieu, nos résultats éclairent de façon insatisfaisante l’influence de
la structure d’actionnariat sur l’offre d’information des analystes et du dirigeant. Nous approfondissons actuellement ce sujet, dans deux études en
collaboration.
En troisième lieu, la publication d’informations de qualité est considérée dans
le chapitre 2 comme un outil de contrôle du dirigeant. Son interdépendance
avec les autres dispositifs de «gouvernance» pourrait être approfondie. Les
investissements en actifs corporels, l’actionnariat institutionnel ou l’institution de comités spécialisés sont-ils souvent associés ou exclusifs d’une communication financière de qualité ? Pour quelles raisons ?
En quatrième lieu, les résultats obtenus dans les chapitres 3 et 7 présentent
une validité externe limitée, liée aux méthodologies qualitatives employées
(enquête et étude de cas respectivement). Ils peuvent cependant être généralisés de manière analytique, idem est par multiplication des mises à l’épreuve.
En cinquième lieu, dans les chapitres 5 et 6, une société performante est sup-
280
Conclusion
posée signaler aux investisseurs sa qualité en publiant des prévisions précises
ou via les informations des analystes. Toutefois, nous ne testons ces hypothèses de signalisation que de façon incomplète et imparfaite.
Ainsi, dans le chapitre 5, nous observons que la publication volontaire de
prévisions précises réduit l’incertitude des investisseurs sur le prix d’équilibre
anticipé et donc le coût du capital pour la société. Mais nous ne montrons
pas que les sociétés publiant volontairement des prévisions exactes sont effectivement de meilleure qualité. L’influence favorable de l’acte volontaire
de publication sur les performances boursières à long terme de la société
mériterait d’être vérifiée.
De même, le chapitre 6 établit que les rentabilités anormales achat conservation des titres introduits, cumulées sur douze ou vingt quatre mois, augmentent avec le nombre d’estimations diffusées par les analystes. Mais nous
ne déterminons pas si l’enrichissement voulu de l’environnement informationnel soutient les cours de manière artificielle, ou reflète réellement la qualité
de la société.
Dans les parties 2 et 3, les individus cherchent, à travers la publication
d’information, à résorber soit les conflits d’intérêts, soit les asymétries d’information. Ces incitations ne nous semblent pas conduire à significativement
améliorer la qualité des informations diffusées ou l’efficience des marchés.
La deuxième partie montre que le dirigeant et l’analyste ajustent leur offre
d’information aux intérêts de leur principal. Ils préviennent ainsi les conflits
d’agence. Mais l’information alors produite peut être insatisfaisante du point
de vue des tiers. Si le primat des intérêts du principal incite le dirigeant à
publier des prévisions plus précises, il semble au contraire conduire les analystes à biaiser la sélection des titres suivis et les informations diffusées.
Dans la troisième partie, la volonté d’éviter le problème de sélection adverse
encourage le dirigeant à donner lui-même ou via les analystes, toujours plus
d’informations au marché. Elle explique également une normalisation et une
régulation croissantes de l’information publiée au moment d’une introduction en bourse. Cependant, nos résultats n’établissent pas clairement que les
signaux émis aident effectivement les investisseurs à discriminer les introductions de qualité des autres. Quant à la COB, la littérature reconnaı̂t certes ses
efforts pour mieux informer les marchés. Mais sa contribution à l’efficience
des marchés n’a jamais été rigoureusement évaluée. Sa légitimité reste par
ailleurs fragile, et son contrôle de l’information, formel.
Au vu de nos résultats, les producteurs d’information apparaissent maximiseurs et individualistes. Ainsi, les analystes suivent les sociétés et produisent les informations maximisant le profit de leur employeur et conformes
Conclusion
281
à leurs propres intérêts. La satisfaction des intérêts du dirigeant semble
également déterminer sa politique informationnelle. La publication de prévisions précises lui permet en effet de se dédouaner au moindre coût. D’une
part, elle rassure les parties prenantes sur les perspectives de croissance
de l’entreprise. D’autre part, son coût marginal de production est nul car
le dirigeant dispose souvent de ces informations en interne. Pour les mandants, la publication d’informations constitue un levier disciplinaire. De leur
côté, les actionnaires originaires, en publiant volontairement des informations, réduisent le coût du capital et donc servent leurs intérêts. Ils semblent
encore espérer que l’effet positif des informations produites par les outsiders
sur les cours, compense la sous-évaluation coûteuse du prix d’offre. Ils escomptent se désengager du capital à un prix plus élevé qu’en l’absence de
sous-évaluation. Enfin, les intéressés appelant de leurs voeux une régulation
de l’information, cherchent ensuite à en restreindre les effets.
L’exigence accrue de transparence apparaı̂t inconciliable avec la vision de
l’homme, sous-jacente à l’approche contractuelle des organisations (Bessire,
2003). L’individu est guidé par ses seuls intérêts et entretient des rapports
de méfiance avec les autres. En tant que producteur d’information, il agit
donc de sorte à maximiser sa fonction de profit et à satisfaire son utilité
personnelle. Parce que l’insuffisance et la mauvaise qualité de l’information
sont rendues responsables de la crise de confiance des marchés, la transparence devient en retour une finalité, un objectif à atteindre. Mais elle n’est
en réalité qu’une règle du jeu, interprétée, appliquée, voire contournée par
les acteurs dans leur seul intérêt. Selon P. Viveret25 , «(...) on ne peut avoir
une économie financière qui a besoin impérativement de fonctionner sur la
transparence et la confiance, dans un système de rapports sociaux guerriers
qui fonctionnent en permanence à la méfiance et à l’opacité. Il y a un moment
où les fondamentaux économiques et les fondamentaux anthropologiques et
sociologiques commencent à diverger (...) dans la défiance, la transparence
est un jeu ; ce n’est pas une réalité».
25
cité par Bessire, 2003, page 16 ; Confédération mondiale des experts-comptables sans
frontières, 2002, page 10.
282
Bibliographie
Bibliographie
[1] A.H. Adrem. Essays on disclosure practices in Sweden - Causes and
effects. Ph.D. dissertation, Lund University, Sweden, 1999.
[2] J. Affleck-Graves, L.R. Davis, and R.R. Mendenhall. Forecasts of
earnings per share : Possible sources of analyst superiority and bias.
Contemporary Accounting Research, 6 :501–517, 1990.
[3] R. Aggarwal, L. Krigman, and K. Womack. Strategic IPO underpricing, information momentum, and lockup expiration selling. Journal
of Financial Economics, 66 :105–137, 2002.
[4] G.A. Akerlof. The market for «lemons» : Quality and the market
mechanism. The Quarterly Journal of Economics, 84 :488–500, spring
1970.
[5] A.A. Alchian and H. Demsetz. Production, information costs and economic organization. American Economic Review, 62(5) :777–795, 1972.
[6] J.C. Alexander. Refining the degree of earnings surprise : a comparison
of statistical and analysts’forecasts. The Financial Review, 30(3) :469–
506, août 1995.
[7] F. Allen and G.A. Faulhaber. Signalling by underpricing in the IPO
market. Journal of Financial Economics, 23(2) :303–323, 1989.
[8] B. Amable, R. Barré, and R. Boyer. Les systèmes d’innovation à l’ère
de la globalisation. Economica, Paris, mai 1997.
[9] Y. Amihud, S. Hauser, and A. Kirsh. Allocations, adverse selection
and cascades in IPOs : Evidence from Israel. 2001.
[10] P. Ansart. Droit et Politique, chapter Durkheim, la sociologie et la
science politique, pages 262–268. PUF, curap edition, 1993.
[11] K.J. Arrow. Rationality of self and others in an economic system. The
Journal of Business, 59 :385–399, 1986.
[12] K.J. Arrow. L’économie de l’information : un exposé.
23 :119–128, 1996.
283
Empirica,
284
Bibliographie
[13] K.J. Arrow. Technical information and industrial structure. Journal
of Industrial and Corporate Change, 5(2) :645–652, 1996.
[14] A.H. Ashton and R.H. Ashton. Aggregating subjective forecasts : Some
empirical results. Management Science, 31 :1499–1508, 1985.
[15] D. Bachmann, J. Elfrink, and G. Vazzana. Tracking the progress of
the e-mail vs. snail mail. Marketing Research, 8(2) :30–36, 1996.
[16] S.P. Baginski, E.J. Conrad, and J.M. Hassel. The effect of management
forecast precision on equity pricing and the assessment of earnings uncertainty. The Accounting Review, 68(4) :913–927, octobre 1993.
[17] S.P. Baginski and J.M. Hassell. Determinants of management forecast
precision. The Accounting Review, 72 :303–312, april 1997.
[18] S.P. Baginski, J.M. Hassell, and J.D. Neill. Predicting subsequent management forecasting behavior at the date of an initial public offering.
Review of Quantitative Finance and Accounting, 12 :5–20, 1999.
[19] M. Bajaj, S.C. Mazumdar, and A. Sarin. Securities class action settlements. Papier de recherche, novembre 2000.
[20] B. Baldwin. Segment earnings disclosure and the ability of security
analysts to forecast earnings per share. Accounting Review, pages 376–
389, juillet 1984.
[21] R. Balvers, B. McDonald, and R.E. Miller. Underpricing of new issues and choice of auditor as a signal of investment banker reputation.
Accounting review, 63(4) :605–622, octobre 1988.
[22] S.P. Bandyopadhyay, L.D. Brown, and G.D. Richardson. The importance of analysts’earnings forecasts to their stock price forecasts. University of Waterloo, papier de recherche, 1993.
[23] S. Bar-Yosef and J. Livnat. Auditor selection : an incentive-signalling
approach. Accounting and Business Research, pages 301–309, automne
1984.
[24] D.P. Baron. A model of the demand for investment banking advising
and distribution services for new issues. Journal of Finance, 37 :955–
976, 1982.
[25] C.B. Barry and S.J. Brown. Limited information as a source of risk.
The Journal of Portfolio Management, pages 66–72, 1986.
[26] M.E. Barth and A.P. Hutton. Information intermediaries and the pricing of accruals. Stanford University, working paper, 2000.
[27] S. Basu, L. Hwang, and C.L. Jan. International variation in accounting
measurement rules and analysts’earnings forecast errors. Journal of
Business Finance and Accounting, 25(9-10) :1027–1247, 1998.
Bibliographie
285
[28] R. Beatty. Auditor reputation and the pricing of initial public offerings.
The Accounting Review, 64(4) :693–709, octobre 1989.
[29] R. Beatty and J. Ritter. Investment banking, reputation, and the underpricing of initial public offerings. Journal of Financial Economics,
15 :213–232, 1986.
[30] B. Belletante and R. Paliard. Does knowing who sells matter in IPO
pricing ? the French second market experience. Cahier Lyonnais de
recherche en gestion, 14(42-74), 1993.
[31] M.D. Beneish. Stock prices and the dissemination of analysts’recommandations. Journal of Business, 64 :393–416, 1991.
[32] M.D. Beneish. Incentives and penalties related to earnings overstatements that violate GAAP. The Accounting Review, 74 :425–457, 1999.
[33] L. Benveniste and P. Spindt. How investment bankers determine the offer price and allocation of new issues. Journal of Financial Economics,
24 :343–361, 1989.
[34] L. Benveniste and W. Wilhelm. A comparative analysis of IPO proceeds under alternative regulatory environments. Journal of Financial
Economics, 28 :173–208, 1990.
[35] D. Bessire. Gouvernement d’entreprise : que cache le discours sur
la transparence ? Colloque gouvernement d’entreprise et nouvelle
économie Mons, 19-20 mai 2003.
[36] P. Bezard and P. Chaput. La COB et la protection des actionnaires
minoritaires dans les groupes de sociétés. Revue des Sociétés, 1982.
[37] R. Bhushan. Firm characteristics and analysts’following. Journal of
Accounting and Economics, 11 :255–274, 1989.
[38] S. Biggs. Financial analysts : information search in the assessment of
corporate earning power. Accounting, Organization and Society, 9 :313–
323, 1984.
[39] A. Blanchet and A. Gotman. L’enquête et ses méthodes : L’Entretien.
Nathan, 2ème edition, octobre 2001.
[40] G. Bolliger. The characteristics of individual analysts’forecasts in Europe. papier de recherche, Université de Neuchâtel et FAME, juillet
2001.
[41] J.R. Booth and L. Chua. Ownership dispersion, costly information and
IPO underpricing. Journal of Financial Economics, 41 :291–310, 1996.
[42] C.A. Botosan. Disclosure level and the cost of equity capital. The
Accounting Review, 72(3) :323–350, 1997.
286
Bibliographie
[43] C.A. Botosan. Evidence that greater disclosures lowers the cost of
equity capital. Bank of American Journal of Applied Corporate Finance, 12(4) :60–69, 2000.
[44] C.A. Botosan and M.A. Plumlee. A re-examination of disclosure level
and expected cost of capital. working paper, University of Utah, 2000.
[45] P. Bourdieu. La Distinction - critique sociale du jugement. Éditions
de Minuit, Paris, 1979.
[46] M. Bouwman and P. Frishkoff. How do financial analysts make decisions ? A process model of the investment screening decision. Accounting, Organizations and Society, 12 :1–30, 1987.
[47] L. Boy. Normes. Revue internationale de droit économique, 2, 1998.
[48] M. Brennan and P. Hughes. Stock prices and the supply of information.
The Journal of Finance, XLVI(5) :1665–1687, 1991.
[49] M.J. Brennan and C. Tamarowksi. Investor relations, liquidity, and
stock prices. Journal of Applied Corporate Finance, 12(4) :26–37, 2000.
[50] M. Bromwich. Information and capital markets, chapter Financial reporting. Pitman, 1992.
[51] L.D. Brown. Forecast selection when all forecasts are not equally recent.
International Journal of Forecasting, 7 :349–356, 1991.
[52] L.D. Brown. Earnings forecasting research : its implications for capital
market research. International Journal of Forecasting, 9 :295–320, 1993.
[53] L.D. Brown. Analyst forecasting errors : Additional evidence. Financial
Analysts’Journal, pages 81–88, nov./déc. 1997.
[54] L.D. Brown, P.A. Griffin, R.L. Hagerman, and M.E. Zmijewski. An
evaluation of alternative proxies for the market’s expectations of earnings. Journal of Accounitng and Economics, 9 :159–193, 1987.
[55] L.D. Brown and M.S. Rozeff. The superiority of analyst forecasts as
measures of expectations. Journal of Finance, 33 :1–16, 1978.
[56] G. Broye. Choix des cabinets d’audit et évaluation des titres introduits
au second marché. Comptabilité Contrôle Audit, 2 :105–124, novembre
2001.
[57] R. Bushman, J. Piotroski, and A. Smith. What determines corporate
transparency ? University of North Carolina and University of Chicago,
Papier de recherche 2001.
[58] J. Campbell. Understanding risk and return. Journal of Political Economy, 104(2), 1996.
Bibliographie
287
[59] J. Capstaff, K. Paudyal, and W. Rees. Revisions of earnings forecasts and security returns : evidence from three countries. Working
paper, University of Strathcycle, University of Durham and University
of Glasgow, 2000.
[60] R. Carter and S. Manaster. Initial public offerings and underwriter
reputation. Journal of Finance, 65 :1045–1067, 1990.
[61] R. Castel. Savoirs d’expertise et productions de normes, page 177. F.
Chazel et J. Cormail, LGDJ edition, 1991.
[62] S. Chahine. Long run onderperformance after IPOs and optimistic
analyst’s forecasts. Conférence de l’European Financial Management
Association (EFMA), Juin 2001. Lugano.
[63] S. Chahine and J.-P. Mathieu. Valorisation stratégique par contexte
de valeurs : le cas des introductions sur le Nouveau Marché. Finance
Contrôle et Stratégie, 6(2) :91–114, Juin 2003.
[64] A.M. Chan, C.L. Sit, M.M. Tong, D.C. Wong, and R.W. Chan. Possible
factors of the accuracy of prospectus earnings forecasts in Hong Kong.
International Journal of Accounting, 31(3) :381–398, 1996.
[65] J. Chang, T. Khana, and K. Palepu. Analyst activity around the world.
Harvard Business School, working paper, Janvier 2000.
[66] L.S. Chang and K.S. Most. The perceived usefulness of financial statements for investors’decisions. Gainesville, University Presses of Florida, 1985.
[67] G. Chareaux. De nouvelles théories pour gérer l’entreprise du XXIème
siècle, chapter 2 : La théorie positive de l’agence : lecture et relectures.,
pages 61–141. Economica edition, 1999.
[68] G. Charreaux. Encyclopédie de gestion, volume 2, chapter Le gouvernement des entreprises : théories et faits, pages 1653–1661. Economica,
1997.
[69] G. Charreaux. La théorie positive de l’agence : positionnement et apports. Revue d’économie industrielle, (92) :193–214, 2ème et 3ème trimestres 2000.
[70] T. Chemmanur and P. Fulghieri. A theory of the going-public decision.
Review of Financial Studies, 12 :249–279, 1999.
[71] Thomas J. Chemmanur. The pricing of initial public offerings : a dynamic model with information production. The Journal of Finance,
XLVIII(1) :285–304, March 1993.
[72] G. Chen, M. Firth, and G.V. Krishnan. Earnings forecast errors in IPO
prospectuses and their associations with initial stock return. Journal
of Multinational Financial Management, 11 :225–240, 2001.
288
Bibliographie
[73] H. Chen and J. Ritter. The sevent percent solution. Journal of Finance,
55 :1105–1131, 2000.
[74] T. Cheng and M. Firth. An empirical analysis of the bias and rationality of profit forecasts published in new issues prospectuses. Journal of
Business Finance and Accounting, 27(3-4) :423–446, 2000.
[75] C.S. Cheung and I. Krinsky. Information asymmetry and the underpricing of initial public : Further empirical evidence. Journal of Business
and Accounting, 21(5) :739–747, 1994.
[76] J. Chevalier. Réflexion sur l’institution des autorités administratives
indépendantes. JCP, I(20) :3254, 1986.
[77] A.A. Christie. On cross-sectional analysis in accounting research. Journal of Accounting and Economics, 9 :231–258, 1987.
[78] P. Clarkson, J. Guedes, and R. Thompson. On the diversification,
observability, and measurement of estimation risk. Journal of Financial
and Quantitative Analysis, pages 69–84, March 1996.
[79] P. Clarkson and D. Simunic. The association between audit quality,
retained ownership and firm-specific risk in US vs. Canadian IPO markets. Journal of Accounting and Economics, 17(1 et 2) :207–228, janvier
1994.
[80] P.M. Clarkson, A. Dontoh, G.D. Richardson, and S.E. Sefcik. The voluntary inclusion of earnings forecasts in IPO prospectuses. Contemporary Accounting Research, 2 :601–626, spring 1992.
[81] P.M. Clarkson, J.L. Kao, and G.D. Richardson. The voluntary inclusion
of forecasts in the MD & A section of annual reports. Contemporary
Accounting Research, 11(1) :451–488, fall 1994.
[82] E. Cohen. Analyse Financière, chapter 16, page 635. Economica, 4ème
edition, 1997.
[83] Collectif. Analyse statistique des données de survie. Flammarion, 2ème
edition, 1996.
[84] R.M. Conroy and R.S. Harris. Analysts’earnings forecasts in Japan : Accuracy and sell-side optimism. Pacific-Basin Finance Journal,
3 :393–408, 1995.
[85] F. Cornelli and D. Goldreich. Bookbuilding : How informative is the
order book ? working paper, London Business School, 2001.
[86] D.R. Cox and D. Oakes. Analysis of survival data. Chapman et Hall,
Londres, 1984.
[87] E.P. Cox. The optimal number of reponse alternatives for a scale : a
review. Journal of Marketing Research, 17 :407–422, novembre 1980.
Bibliographie
289
[88] M. Crozier. Crise et renouveau dans l’Administration française, volume 2, chapter 3, pages 56–85. Seli Arslan, 2000.
[89] B. Cubertafond. La création du droit. Ellipses, 1999.
[90] S. Das, R.-J. Guo, and H. Zhang. Initiation of analyst coverage and
long-term performance of initial public offerings. University of Illinois
at Chicago, papier de recherche, janvier 2002.
[91] O. Davanne. Instabilité du système financier international. La documentation française, Conseil d’analyse économique, Paris, 1998.
[92] D. de Béchillon. Qu’est-ce qu’une règle de droit. Odile Jacob, 1997.
[93] E. De Leeuw and J. Van DerZouwen. La qualité de l’information dans
les enquêtes, chapter Data Quality and Mode of Data Collection : Methodology and Explanatory Model, pages 11–31. Dunod, Paris, 1992.
[94] F. de Singly. L’enquête et ses méthodes : Le Questionnaire. Nathan
Université, 2ème edition, juillet 2001.
[95] L. DeAngelo. Auditor size and audit quality. Journal of Accounting
and Economics, 3 :183–199, 1981.
[96] W.F. DeBondt and R.M. Thaler. Do security analysts overreact ? American Economic Review, 80 :52–57, 1990.
[97] P. Dechow, A. Hutton, and R. Sloan. The relation between analysts’forecasts of long-term earnings growth and stock price performance following equity offerings. Contemporary Accounting Research, 17 :1–32,
2000.
[98] P. Dechow, R. Sloan, and P. Sweeney. Causes and consequences of
earnings manipulation : an analysis of firms subject to enforcement
actions by the SEC. Contemporary Accounting Research, 13 :1–36,
1996.
[99] N. Decoopman. La commission des opérations de bourse et le droit des
sociétés. Economica, 1980.
[100] F. Degeorge, J. Patel, and R. Zeckhauser. Earnings manipulation to
exceed thresholds. The Journal of Business, 72(1) :1–33, January 1999.
[101] F. Derrien. Issuers, underwriters and institutional investors : Why they
all like the book-building IPO procedure. Papier de recherche, janvier
2002.
[102] F. Derrien and F. Degeorge. IPO performance and earnings expectations : some French evidence. 29 mars 2001. Journée sur les introductions en bourse, papier de recherche.
290
Bibliographie
[103] P. Dessertine. La commission de contrôle des marchés dans la normalisation comptable : comparaison entre la COB et la SEC. Comptabilité
Contrôle Audit, 3(1) :69–87, mars 1997.
[104] D. Dhaliwal, K. Lee, and N. Fargher. The association between unexpected earnings and abnormal security returns in the présence of financial
leverage. Contemporary Accounting Research, 8 :20–41, 1991.
[105] D. Diamond. Financial intermediation and delegated monitoring. Review of Economic Studies, 51(3) :393–414, juillet 1984.
[106] D. Diamond and R. Verrecchia. Disclosure, liquidity and the cost of
capital. Journal of Finance, 66 :1325–1355, 1991.
[107] J. Donnedieu de Vabres. La COB une administration de mission. Revue
administrative, mai-juin 1980.
[108] du Pontavice. Les autorités boursières créatrices de droit, chapter
L’évolution du droit des sociétés à travers la COB. Editions nationales administratives et juridiques, 1981.
[109] A. Dugar and S. Nathan. The effect of investment banking relationships
on financial analysts’earnings forecasts and investment recommandations. Contemporary Accounting Research, 12(1) :131–160, Fall 1995.
[110] É. Durkheim. Le suicide. PUF, Paris, 2ème edition, 1991.
[111] R. Dye. Mandatory versus voluntary disclosures : the cases of financial
and real externalities. Accounting Review, 65(1) :1–24, 1990.
[112] G.C. Edwards and I. Sharkansky. Les politiques publiques, élaboration
et mise en oeuvre. Les éditions d’organisation, management public
edition, 1981.
[113] K. Eisenhardt. Building theories from case study research. Academy
of management review, 14(4) :532–550, 1989.
[114] R. Espahbodi, A. Dugar, and H. Tehranian. Further evidence on optimism and underreaction in analysts’forecasts. Review of Financial
Economics, 10 :1–21, 2001.
[115] S. Espenlaub, A. Gregory, and I. Tonks. Re-assessing the long-run
underperformance of UK initial public offerings. European Financial
Management, 6(3), 2000.
[116] Y. Évrard, B. Pras, and E. Roux. Market, études et recherches en
marketing. Dunod, Paris, 2ème edition, 2000.
[117] F. Fabre-Azéma. Les pratiques d’évaluation des analystes financiers
lors des introductions en bourse sur le second marché de la bourse de
Paris : le retour vers des variables fondamentales. Congrès International
de l’AFFI, Strasbourg, 24-26 juin 2002.
Bibliographie
291
[118] E. Fama. Efficient capital markets : a review of theory and empirical
work. Journal of Finance, pages 383–417, mai 1970.
[119] E. Farragher, R. Kleiman, and M. Bazaz. Do investor relations
make a difference ? The Quarterly Review of Economics and Finance,
34(4) :403–412, 1994.
[120] A.M. Faugeron-Crouzet. Les introductions en bourse : théorie et analyse empirique du cas français. Thèse en sciences de gestion, Université
de Toulouse, 1997.
[121] A.M. Faugeron-Crouzet and E. Ginglinger. Introductions en bourse,
signal et émissions d’actions nouvelles sur le second marché français.
Finance, 22(2) :51–74, 2001.
[122] M. Fereres and G. Rivière. L’introduction en bourse, mode d’emploi.
Nouvelles Éditions fiduciaires, Éditions d’organisation edition, 1999.
[123] M. Firth. IPO profit forecasts and their role in signalling firm value and
explaining post-listing returns. Applied Financial Economics, 8(1) :29–
39, 1998.
[124] M. Firth and C.K. Liau-Tan. Auditor quality, signalling and the valuation of initial public offerings. Journal of Business, Finance and
Accounting, pages 145–165, janvier-mars 1998.
[125] M. Firth and A. Smith. Selection of audit firms by companies in the
new issue markets. Applied Economics, 24 :247–255, 1992.
[126] L. Fontowicz. Facteurs de révision des prévisions et rémunération des
analystes financiers - les résultats d’une enquête réalisée auprès des
membres de la SFAF. Journée de recherche : Qualité de l’information
et marchés financiers, Lille, mars 1999.
[127] L. Fontowicz. Incertitude et optimisme des analystes financiers, une
approche du cas français à partir du consensus I/B/E/S. Journée de
recherche : Qualité de l’information et marchés financiers, Lille, mars
1999.
[128] G. Foster. Externalities and financial reporting. Journal of Finance,
mai 1980.
[129] J. Francis and D. Philbrick. Analysts’decision as products of a multitask environment. Journal of Accounting Research, 31(2) :216–230,
automne 1993.
[130] R. Frankel, M. McNichols, and G.P. Wilson. Discretionary disclosure
and external financing. Accounting Review, 70(1) :135–150, 1995.
[131] D. Fried and D. Givoly. Financial analysts’forecasts of earnings : a
better surrogate for market expectations. Journal of Accounting and
Economics, 4 :85–107, 1982.
292
Bibliographie
[132] M.-A. Frison-Roche. Le droit de la régulation. Le Dalloz, (7) :610–616,
2001.
[133] C. Frost. Organisation et qualité des marchés financiers, chapter
VII, La communication prévisionnelle, pages 131–155. PUF, Paris,
décembre 1997.
[134] E. Garaud. La transparence en matière commerciale. Thèse de doctorat
en droit, Université de Limoges, 1995.
[135] M. Garcia. L’impact de la mise en place des contrats d’animation de
marché : une étude événement sur les réunions d’information organisées
par la SFAF. papier de recherche, GERME, 1996.
[136] D. Gelb and P. Zarowin. Corporate disclosure policy and the informativeness of stock prices. New York University, papier de recherche,
2000.
[137] J.-L. Gianelloni and E. Vernette. Études de marché. 1995.
[138] M. Gibbins, A. Richardson, and J. Waterhouse. The management of
financial disclosure : Theory and perspectives. monographie de recherche 20, La Fondation de recherche de l’Association des comptables
généraux licenciés du Canada, 1992.
[139] G. Gniewosz. The share investment decision process and information
use : an exploratory case study. Accounting and Business Research,
20(79) :223–230, 1990.
[140] L. Godard and D. Poincelot. Performances boursières et conflits
d’intérêts après l’introduction : le cas français. Congrès AFFI Strasbourg, juin 2002.
[141] E. Goffman. La mise en scène de la vie quotidienne, volume 1. La
présentation de soi. Éditions de Minuit, Paris, traduction française
edition, 1973.
[142] P. Gompers and J. Lerner. The really long-term performance of initial
public offerings : the pre-NASDAQ evidence. Harvard Business School,
papier de recherche, 2001.
[143] P. Gompers and A. Metrick. Institutional investors and equity price.
Quarterly Journal of Economics, 1999.
[144] N. Gonedes, N. Dopuch, and S. Penman. Disclosure rules, informationproduction, and capital market equilibrium : the case of forecast disclosure rules. Journal of Accounting Research, printemps 1976.
[145] V. Govindarajan. The objectives of financial statements : an empirical study of the use of cash flow and earnings by security analysts.
Accounting, Organizations and Society, 5 :383–392, 1980.
Bibliographie
293
[146] J.S. Goyder. The silent majority : non respondents on sample surveys.
Boulder, CO, 1987.
[147] P. Grandin. Production d’informations privées et gestion de portefeuille. PUF, Paris, 1995.
[148] M. Granovetter. Economic action and social structure : the problem of
embeddedness. American Journal of Sociology, 91(3) :481–510, 1985.
[149] J. Grant, R. Bricker, T. Fogarty, and G. Previts. Determinants of
analyst following. Journal of Corporate Communication, août 1999.
[150] J. Grant, R. Bricker, T. Fogarty, and G. Previts. Complexity and analyst following of multinational firms. Case Western Reserve University,
mai 2000.
[151] M. Grawitz. Méthodes des sciences sociales. Dalloz, Paris, 10ème edition, juin 1996.
[152] J.-P. Grémy. Trente ans d’enquête par sondage : bilan d’une évolution.
Actes du colloque «Trente ans de sociologie», Lille :23–25 octobre, 1996.
[153] J.M. Griffin and G.A. Karolyi. Another look at the role of the industrial
structure of markets for international diversification strategies. Journal
of Financial Economics, 50 :351–373, 1998.
[154] M. Grinblatt and C. Hwang. Signalling and the pricing of new issues.
Journal of Finance, 44(2) :393–420, 1989.
[155] J.M. Grobras. Méthodes statistiques des sondages. Économica, Paris,
1987.
[156] S. Grossman and O. Hart. Corporate financial structure and managerial
incentives. Economic Theory Discussion Paper, février 1980.
[157] R.M. Groves and R. Kahn. Survey Research by Telephone. New york,
1979.
[158] M. Guillaume-Hoffnung. Les actes juridiques de la COB. Actualité
juridiques, droit administratif, 1982.
[159] M. Guillaume-Hoffnung. Réflexions sur la nature juridique de la COB.
Revue du droit public, Octobre 1982.
[160] Y. Guyon. Droit des affaires. Economica, 4ème edition, 1986.
[161] N. Hakansson. Interim and public forecast : an economic analysis and
a framework for choice. The Accounting Review, avril 1977.
[162] F. Hamon and H. Maisl. Droit, chapter L’urgence et la protection des
libertés contre l’administration, page 49. 1982.
[163] P. Handa and S. Linn. Arbitrage pricing with estimation risk. Journal
of Financial Economics, pages 81–1000, March 1993.
294
Bibliographie
[164] K.W. Hanley. Underpricing of initial public offerings and the partial
adjustment phenomenon. Journal of Financial Economics, 34 :231–
250, 1993.
[165] R.A. Hansen. A self perception interpretation of the effect of monetary and non monetary incentives on mail survey respondent behavior.
Journal of the Market Research Society, 17(1) :63–68, 1980.
[166] R.S. Hansen and A. Sarin. Is honesty the best policy ? An examination
of security analyst behavior around seasoned equity offerings. working
parper, Pamplin College of Business, 1996.
[167] N. Hartnett and Römcke. Normalised historic financial data and naı̈ve
forecast modelling in the context of IPO disclosure. working paper,
The University of Newcastle, 2002.
[168] F.A. Hayek. Droit, législation et libertés. PUF, 1979.
[169] R.M. Hayes. The impact of trading commission incentives on stock
coverage and earnings forecast decisions by security analysts. Northwestern University, 1998.
[170] C. Hayn. The information content of losses. Journal of Accounting and
Economics, 20 :125–153, septembre 1995.
[171] P.M. Healy, K. Palepu, and A.P. Hutton. Stock performance and
intermediation changes surrounding sustained increases in disclosure.
Contemporary Accounting Research, 16(3) :485–520, 1999.
[172] P.M. Healy, K. Palepu, and A. Sweeney. Disclosure strategy changes :
what prompts them and what are their capital market consequences ?
Harvard University, papier de recherche, 1994.
[173] P.M. Healy and K.G. Palepu. Information asymetry, corporate disclosure and the capital markets : a review of the empirical disclosure
literature. Journal of Accounting and Economics, 31 :405–440, 2001.
[174] J.J. Heckman. Sample selection bias as a specification error. Econometrica, 47(1) :153–161, janvier 1979.
[175] F. Héran. L’assise statistique de la sociologie. Économie et Statistique,
(169) :23–36, 1984.
[176] K.A. Hickman and G.H. Petry. Comparison of stock price prediction
using court accepted formulas, dividend discount and P/E models. Financial Management, pages 76–85, Summer 1990.
[177] J. Holland. Private disclosure and financial reporting. Accounting and
Business Research, 28(4) :255–269, 1998.
Bibliographie
295
[178] K.M. Holland and J.G. Horton. Initial public offerings on the unlisted
securities market : the impact of professional advisers. Accounting and
Business Research, 24(93) :19–34, winter 1993.
[179] B. Holmström and P. Milgrom. The firm as an incentive system. American Economic Review, 84(4) :972–991, 1994.
[180] O. Hope. The relation between accounting and institutional factors
and analysts’s forcasts : an international study. Working paper,Kellogg
Graduate School of Mangement, 2001. Working paper.
[181] O.-K. Hope. Disclosure practices, enforcement of accounting standards
and analysts’forecast accuracy : an international study. novembre 2002.
[182] A.G. Hopwood. On trying to study accounting in the contexts in which
it operates. Accounting, Organizations and Society, 8(2/3) :287–305,
1983.
[183] S. Hubac and E. Pisier. Les autorités administratives indépendantes,
chapter Chapitre IV, Les autorités face aux pouvoirs, pages 117–131.
1988.
[184] P.J. Hughes. Signalling by direct disclosure under asymmetric information. Journal of Accounting and Economics, 8(2) :119–143, june
1986.
[185] L.S. Hwang, C.J. Jan, and S. Basu. International variation in accounting measurement rules and analysts’earnings forecast errors. Journal
of Business, Finance and Accounting, 25(9/10) :1207–1247, 1998.
[186] R. Ibbotson, J.L. Sindelar, and J. Ritter. Initial public offerings. Journal of Applied Corporate Finance, 1 :37–45, 1988.
[187] R. Ibbotson, J.L. Sindelar, and J. Ritter. The market problems with
the pricing of initial public offerings. Journal of Applied Corporate
Finance, 6 :66–74, 1994.
[188] R.G. Ibbotson. Price performance of common stock new issues. Journal
of Financial Economics, 3 :235–272, 1975.
[189] R.G. Ibbotson and J.F. Jaffe. ”hot issue” markets. Journal of Finance,
30 :1027–1042, 1975.
[190] R.G. Ibbotson and J.R. Ritter. Initial Public Offerings, volume 9, pages
993–1016. R. Jarrow et al. Eds, Handbooks in OR and MS, Elsevier
Science B.V., 1995.
[191] J.R. Imhoff and P.V. Pare. Analysis and comparison of earnings forecasts vis a vis analysts’forecasts agents. Journal of Accounting Research, 20, automne 1982.
296
Bibliographie
[192] A.J. Irani. Ex post bias in management earnings forecasts : A study
of potential determinants. University of New Hampshire, papier de
recherche, septembre 1999.
[193] B. Jacquillat and M. Levasseur. Signaux, mandats et gestion financière :
une synthèse de la littérature. Finance, (5) :7–83, 1984.
[194] C. Jaffeux. Bourse et financement des entreprises, page 125. Précis
Dalloz, Paris, 1994.
[195] B. Jaggi. Accuracy of forecast information disclosed in the IPO prospectuses of Hong Kong companies. The International Journal of Accounting, 32(3) :301–319, 1997.
[196] D. Jeffers, E. et Plihon. Investisseurs institutionnels et gouvernance
des entreprises. Revue d’Économie Financière, 63, 2002.
[197] N. Jegadeesh, M. Weinstein, and I. Welch. An empirical investigation
of IPO returns and subsequent equity offerings. Journal of Financial
Economics, 34 :153–175, 1993.
[198] R. Jelic, B. Saadouni, and R. Briston. The accuracy of earnings forecasts in IPO prospectuses on the Kuala Lumpur stock exchange.
Accounting and Business Research, 29(1) :57–72, 1998.
[199] M. Jensen and W. Meckling. Theory of the firm : Managerial behavior,
agency costs and ownership structure. Journal of Financial Economics,
3(4) :305–360, 1976.
[200] M. Jensen and W. Meckling. The nature of man. Journal of Applied
Corporate Finance, page 38, été 1994.
[201] M.C. Jensen. Organization theory and methodology. Accounting Review, 58 :319–339, april 1983.
[202] M.C. Jensen. Free cash flow and the effects of mergers and acquisitions
on the economy. In The merger Boom, volume 31. Federal Reserve
Bank of Boston, janvier 1988.
[203] M.C. Jensen and E.F. Fama. Agency problems and residual claims.
Journal of Law and Economics, 26 :327–350, june 1983a.
[204] M.C. Jensen and E.F. Fama. Separation of ownership and control.
Journal of Law and Economics, 26 :301–326, june 1983b.
[205] V. Jog and B.J. McConomy. Voluntary disclosure of management earnings forecasts in IPO prospectuses. november 2000.
[206] J. Johnson and R. Miller. Investment banker prestige and the underpricing of initial public offerings. Financial Management, 16 :19–29,
1988.
Bibliographie
297
[207] W. Jordan. Producer protection, prior market structure and the effects
of government regulation. Journal of Law and Economics, avril 1972.
[208] F. Jullien. Traité de l’efficacité. Grasset, 1996.
[209] D. Kahneman and D. Lovallo. Timid choices and bold forecasts : A
cognitive perspective on risk taking. Management Science, 39 :17–31,
1993.
[210] D. Kahneman and A. Tversky. On the psychology of prediction. Psychological Review, 80 :237–251, 1973.
[211] K. Keasey and P. Mac-Guiness. An empirical investigation of the role
of signalling in the valuation of unseasoned equity issued. Accounting
and Business Research, 22(86) :133–142, spring 1992.
[212] K. Keasey and P. McGuinness. Prospectus earnings forecasts and the
pricing of new issues on the unlisted securities market. Accounting and
Business Research, 21(82) :133–145, 1991.
[213] M. Kim and J.R. Ritter. Valuing IPOs. Journal of Financial Economics, 53 :409–437, 1999.
[214] O. Kim and R. Verrecchia. Market liquidity and volume around earnings announcements. Journal of Accounting and Economics, 17 :41–
68, 1994.
[215] M.J. Kittleson. An assessment of the response rate via the postal
service and e-mail. Health Values, 18 :27–29, 1995.
[216] R. Klein and V. Bawa. The effects of estimation risk on optimal portofolio choice. Journal of Financial Economics, 3(2) :215–231, 1976.
[217] (coordonné par)G. Koenig. De nouvelles théories pour gérer l’entreprise
du XXIème siècle. Économica, Paris, 1999.
[218] S.P. Kothari. The role of financial reporting in reducing financial risks
in the market. Federal Reserve Bank of Boston Conference series 44,
juin 2000.
[219] S.P. Kothari and J.B. Warner. Measuring long-horizon security price
performance. Journal of Financial Economics, 43 :301–339, 1997.
[220] L. Krigman, W.H Shaw, and K.L. Womack. The persistence of IPO
mispricing and the predictive power of flipping. Journal of Finance,
54 :1015–1044, 1999.
[221] L. Krigman, W.H Shaw, and K.L. Womack. Why do firms switch
underwriters ? Journal of Financial Economics, 60 :245–284, 2001.
[222] R. La Porta, F. Lopez-de Silanes, A. Shleifer, and R. Vishny. Legal
determinants of external finance. Journal of Finance, 52 :1131–1150,
1997.
298
Bibliographie
[223] R. La Porta, F. Lopez-de Silanes, A. Shleifer, and R. Vishny. Law and
finance. Journal of Political Economy, 106 :113–1155, 1998.
[224] M. Lang, K. Lins, and D. Miller. Do analysts matter most when investors are protected least ? International evidence. papier de recherche,
septembre 2002.
[225] M. Lang and R. Lundholm. Cross-sectional determinants of analyst ratings of corporate disclosures. Journal of Accounting Research,
31(2) :246–271, automne 1993.
[226] M. Lang and R. Lundholm. Corporate disclosure policy and analyst
behavior. The Accounting Review, 71(4) :467–492, octobre 1996.
[227] M. Lang and R. Lundholm. The relation between security returns, firm
earnings and industry earnings. Contemporary Accounting Research,
13(2) :607–629, fall 1996.
[228] M. Lang and R. Lundholm. Voluntary disclosure and equity offerings :
reducing information asymmetry or hyping the stock ? Contemporary
Accounting Research, 17(4) :623–662, hiver 2000.
[229] L. Law and C. Callum. A legal analysis of disclosure of earnings forecasts in prospectuses. The University of Queensland, Australia, 2002.
[230] L. Lebart. La qualité de l’information dans les enquêtes. Dunod, Paris,
1992.
[231] P. Lee, S. Taylor, and T. Walter. IPO underpricing explanations : Implications from investor application and allocation schedules. Journal
of Financial and Quantitative Analysis, 34 :425–444, 1999.
[232] P. Lee, C. Yee, and M. Yee. Prospectus earnings forecasts : Evidence
and explanations. Australian Accounting Review, pages 31–32, 1993.
[233] R. Leftwich. Market failure fallacies and accounting information. Journal of Accounting and Economics, 2 :193–211, 1980.
[234] M. Lejeune and E. Bied-Charrenton. La qualité de l’information dans
les enquêtes, chapter Comparaison des modes postal et en face à face
dans une enquête lourde. Dunod, Paris, 1992.
[235] H. Leland and D. Pyle. Informational asymmetries, financial structure,
and financial intermediation. Journal of Finance, 32(2) :371–387, mai
1977.
[236] B.F. Leleux. Post-IPO performance : a French appraisal. Finance,
14(2) :79–106, 1993.
[237] C. Leuz and R. Verrecchia. The economic consequences of increased
disclosure. Journal of Accounting Research, à paraı̂tre, 2000.
Bibliographie
299
[238] B. Lev and S. Penman. Voluntary forecast disclosure, nondisclosure,
and stock prices. Journal of Accounting Research, 28 :49–76, spring
1990.
[239] M. Levasseur, J.-F. L’Her, and J.-M. Suret. Anticipations hétérogènes
et rendements boursiers : le cas du marché français. papier de recherche,
Lille 2, 1999.
[240] M. Levis. The long-run performance of initial public offerings : The
UK experience 1980-1988. Financial Management, 22 :22–41, 1993.
[241] H. Lin and M. McNichols. Underwriting relationships and analysts’forecasts and investment recommendations. Journal of Accounting and
Economics, 25 :101–127, 1998.
[242] F. Lordon. Les illusions de la transparence.
(3) :39–43, 2002.
Analyse Financière,
[243] T. Loughran and J.R. Ritter. The new issues puzzle. Journal of Finance, 50(1) :23–51, 1995.
[244] M. Lowry and G.W. Schwert. IPO market cycles : Bubbles or sequential
learning ? Journal of Finance, 57(3) :1171–1200, 2002.
[245] T. Lys and S. Sohn. The association between revisions of financial
analysts’earnings forecasts and security price changes. Journal of Accounting and Economics, 13 :341–364, 1990.
[246] M. Mahérault. Des caractéristiques financières spécifiques aux entreprises familiales non cotées. Revue du Financier, (114) :59–74, 1998.
[247] Y.T. Mak. The voluntary review of earnings forecasts disclosed
in IPOs’prospectuses. Journal of Accounting and Public Policy,
13(2) :141–158, 1994.
[248] C. Marston. Firm characteristics and analyst following in the UK.
British Accounting Review, 29(4) :335–347, 1997.
[249] D. Matsumoto. Management’s incentives to avoid negative earnings
surprises. Harvard Business School, papier de recherche, 2000.
[250] P. McCullagh. Regression models for ordinal data. Journal of the royal
statistical society, 42 :109–142, 1980.
[251] M. McNichols. Evidence on informational asymmetries from management earnings forecasts and stock returns. The Accounting Review,
64 :1–27, janvier 1989.
[252] M. Mcnichols and P.C. O’Brien. Self-selection and analyst coverage.
Journal of Accounting Research, 35(supplément) :167–199, 1997.
300
Bibliographie
[253] M. McNichols and B. Trueman. Public disclosure, private information
collection, and short-term trading. Journal of accounting and economics, 17 :69–94, january 1994.
[254] R. Mehta and E. Sivadas. Comparing response rates and response
content in mail versus electronic mail surveys. Journal of the Market
Research Society, 37 :429–439, 1995.
[255] Y.M. Mensah, X. Song, and S. Ho. The long-term payoff from increased corporate disclosures. Journal of Accounting and Public Policy,
22 :107–150, 2003.
[256] R. Michaely and K.L. Womack. Conflicts of interest and the credibility
of underwriter analyst recommandations. Review of Financial Studies,
12(4) :653–686, 1999.
[257] C. Michaı̈lesco. Une étude empirique des déterminants de la qualité
de l’information diffusée par les entreprises françaises au cours de la
période 1991-1995. Comptabilité Contrôle Audit, 5(1) :83–108, 1999.
[258] C. Michaı̈lesco. Perspectives pour la recherche sur les déterminants
de l’offre d’information des entreprises. Comptabilité Contrôle Audit,
(numéro spécial) :83–94, décembre 2000.
[259] F. Moderne. Les autorités administratives indépendantes, chapter Les
modèles étrangers : étude comparée. PUF,Les voies du droit, 1988.
[260] P. Moiser. Auditor reputation : the international empirical evidence.
International Journal of Auditing, 1(1) :61–74, 1997.
[261] Banque Mondiale. The road to recovery : East Asia after the crisis.
Oxford, 1998.
[262] Montesquieu. L’esprit des lois. Garnier Flammarion.
[263] N. Mottis and J.-P. Ponssard. L’influence des investisseurs institutionnels sur le pilotage des entreprises. papier de recherche, ESSEC, 2002.
[264] R.C. Moyer, R.E. Chatfield, and P.M. Sisneros. Security analyst monitoring activity : agency costs and information demands. Journal of
Financial and quantitative analysis, 24(4) :503–512, décembre 1989.
[265] C.J. Muscarella and M.R. Vetsuypens. The underpricing of second
initial public offering. Journal of Financial Research, 12(3) :183–192,
1989.
[266] S. Myers. Determinants of corporate borrowing. Journal of Financial
Economics, (5) :147–175, 1977.
[267] C. Nobes. The causes of financial reporting differences. Issues in Multinational Accounting, 1988.
Bibliographie
301
[268] P. O’Brien and R. Bhushan. Analyst following and institutional ownership. Journal of Accounting Research, 28(supplément) :55–76, 1990.
[269] P.C. O’Brien. Analysts’forecasts as earnings expectations. Journal of
Accounting and Economics, 10 :53–83, 1988.
[270] P. Ogan and D. Ziebart. Corporate reporting and the accounting profession : an interpretive appraisal. Journal of Accounting, Auditing and
Finance, 6(3) :387–406, été 1991.
[271] A. Orléan. Le pouvoir de la finance. éditions Odile Jacob, Paris, octobre
1999.
[272] K. Ota. The usefulness of management forecast information. Kansai
University Graduate School, février 2002.
[273] J.M. Patell. Corporate forecasts of earnings per share and stock price
behavior : Empirical tests. Journal of Accounting Research, 14 :246–
276, fall 1976.
[274] S.H. Penman. The predictive content of forecast and dividends. The
Journal of Finance, 38(4) :1385–1399, September 1983.
[275] D. Philbrick and W.E. Ricks. Using value line and I/B/E/S analysts forecasts in accounting research. Journal of Accounting Research,
29 :397–417, automne 1991.
[276] E. Picard. La notion de police administrative, volume 3. LGDJ, 1984.
[277] J. Piotroski. Discretionary segment reporting decision and the precision
of investor beliefs. papier de recherche, University of Chicago 1999.
[278] R. Posner. Theories of economic regulation. Bell Journal of Economics
and Management Science, automne 1974.
[279] J. Pound. Proxy contests and the efficiency of shareholder oversight.
Journal of Financial Economics, 20 :237–265, 1988.
[280] G. Pownall, C. Wasley, and G. Waymire. The stock price effects of alternative types of management earnings forecasts. Accounting Review,
68(4) :896–912, october 1993.
[281] G. Pownall and G. Waymire. Voluntary disclosure credibility and security prices : évidence from management earnings forecasts 1969-1973.
Journal of Accounting Research, 27(2) :85–105, fall 1989.
[282] S. Press and S. Wilson. Choosing between logistic regression and discriminant analysis. Journal of the American Statistical association,
73 :699–705, 1978.
[283] A.K. Purnanandam and B. Swaminathan. Are IPOs underpriced ? Cornell University, papier de recherche, 2001.
302
Bibliographie
[284] Rajan R. and H. Servaes. Analyst following of initial public offerings.
The Journal of Finance, LII(2) :507–529, juin 1997.
[285] P. Rabinow. Un ethnologue au Maroc. Reflexions sur une enquête de
terrain. traduction française. Hachette, Paris, 1988.
[286] S. Rajgopal, M. Venkatachalam, and J. Jiambalvo. Is institutional ownership associated with earnings management and the extent to which
stock prices reflect future earnings ? University of Washington and
Stanford University, papier de recherche, 1999.
[287] S. Rangan. Earnings management and the performance of seasoned
equity offerings. Journal of financial economics, 50(1) :101–122, 1998.
[288] B. Raybaud-Turrillo. Les processus de normalisation comptable : de la
hiérarchie au marché ?, volume 10 of Collection histoire, gestion, organisations, chapter 4, pages 511–527. Presse de l’Université Toulouse 1
Sciences Sociales, 2002.
[289] J. Riley. Competitive signalling. Journal of Economic Theory, avril
1975.
[290] G. Ripert. Les forces créatrices du droit. LGDJ, 1955.
[291] J. Ritter and I. Welch. A review of IPO activity, pricing, and allocations. Journal of Finance, 57(4) :31795–1828–27, August 2002.
[292] J.R. Ritter. The ”hot issue” market of 1980. Journal of Business,
57(2) :215–240, 1984.
[293] J.R. Ritter. The long-run performance of initial public offerings. Journal of Finance, 46(1) :3–27, 1991.
[294] M.C. Robert and Viandier A. La surveillance des placements et des
marchés. JCP, II, Janvier 1983.
[295] K. Rock. Why new issues are underpriced. Journal of Financial Economics, 15 :187–212, 1986.
[296] S. Sabherwal and S. Smith. Concentrated shareholdings and the number of outside analysts. Federal reserve bank of Atlanta, juillet 1999.
[297] P. Sabourin. Les autorités administratives indépendantes. AJDA, page
275, Mai 1983.
[298] J. Schaaper. La qualité de l’information dans une enquête par sondage
menée sur internet. Cahier CEREGE IAE de Poitiers, (171) :24, janvier
1999.
[299] D.R. Schaefer and D.A. Dillman. Development of a standard e-mail
methodology : Results of an experiment. Public Opinion Quarterly,
62(3) :378–397, automne 1998.
Bibliographie
303
[300] A. Schatt and T. Roy. Modification de la structure de propriété et
valorisation des entreprises introduites en bourse. Banque et Marchés,
(55) :19–29, 2001.
[301] A. Schatt and T. Roy. Analyse empirique des écarts de prévisions de
bénéfices dans prospectus d’introduction : le cas français. Congrès de
l’AFC, mai 2002.
[302] N. Schillewaert, F. Langerak, and T. Duhamel. Non probability sampling for www surveys : a comparison of methods. Journal of the Market
Research Society, 40(4) :307–322, octobre 1998.
[303] K. Schipper. Analysts’forecasts. Accounting Horizons, pages 105–119,
décembre 1991.
[304] H. Sender. Smoke and mirrors. Far Eastern Economic Review, 30 :34–
38, septembre 1999.
[305] P. Sengupta. Corporate disclosure quality and the cost of debt. The
Accounting Review, 73 :459–474, October 1998.
[306] P. Sentis. Performances opérationnelles et boursières des introductions
en bourse : le cas français 1991-1995. Finance, pages 87–117, 2001.
[307] A.E. Sherman and S. Titman. Building the IPO order book : Underpricing and participation limits with costly information. Journal of
Financial Economics, 2002. à paraı̂tre.
[308] A. Shleifer and R. Vishny. A survey of corporate governance. Journal
of Finance, 52 :737–783, 1997.
[309] C. Spatt and S. Srivastava. Preplay communication, participation restrictions and efficiency in initial public offerings. Review of Financial
Studies, 4 :709–726, 1991.
[310] M. Spence. Competitive and optimal responses to signals : an analysis
of efficiency and distribution. Journal of Economic Theory, pages 296–
332, mars 1974.
[311] D.K. Spiess and R.H. Pettway. The IPO and the first seasoned equity
sale : Issue proceeds, owner/manager’s wealth, and the underpricing
signal. Journal of Banking and Finance, 21 :967–988, 1997.
[312] L. Sproull. Using electronic mail for data collection in organizational
research. Academy of Management Journal, 29(1) :159–169, 1986.
[313] C. Sranan-Boiteau. Le métier d’analyste financier en France. Thèse
en Sciences de Gestion, Université de Paris IX, 1999.
[314] R. Stehle, O. Ehrhardt, and R. Przyborowsky. Long-run stock performance of german initial public offerings and seasoned equity issues.
European Financial Management, 6(2), 2000.
304
Bibliographie
[315] G. Stigler. Public regulation of the securities markets. Journal of
Business, avril 1964a.
[316] G. Stigler. Comment. Journal of Business, 1964b.
[317] A. Subrahmanyam and S. Titman. The going public decision and the
development of financial markets. Journal of Finance, 54(3) :1045–
1082, juin 1999.
[318] S. Swaminathan. The impact of SEC mandated segment data on price
volatility. Accounting Review, pages 23–41, janvier 1991.
[319] T.M. Tan. Some evidence on the reliability of profits and dividends
forecasts in prospectuses. Singapore Accountant, pages 21–26, 1987.
[320] É. Tchemini. Les prévisions de résultats des entreprises cotées par les
dirigeants et les analystes financiers : analyse et comparaison. Thèse
de doctorat, 1991. Université de Lille 2.
[321] C. Teitgen Colly. Les instances de régulation et la constitution. Revue
du droit public, pages 160–161, 1990.
[322] S. Teoh, I. Welch, and T. Wong. Earnings management and the longrun performance of initial public offerings. The Journal of Finance,
53 :1935–1974, 1998b.
[323] S. Teoh, T.J. Wong, and G. Rao. Are actuals during an initial public
offering opportunistic ? Review of Accounting Studies, pages 175–208,
May 1998a.
[324] G. Timsit. Les figures du jugement. PUF, 1993. Collection les voies
du droit.
[325] G. Timsit. L’archipel de la norme, les voies du droit Chapitre 6, La
régulation : naissance d’une notion, pages 161–231. PUF, Mars 1997.
[326] S.M. Tinic. Anatomy of initial public offerings of common stocks. Journal of Finance, 43 :789–822, 1988.
[327] S. Titman and B. Trueman. Information quality and the valuation of
new issues. Journal of Accounting and Economics, 8(2) :159–172, juin
1986.
[328] B. Trueman. Why do managers voluntarily release earnings forecasts ?
Journal of Accounting and Economics, 8 :53–71, 1986.
[329] B. Trueman. Analyst forecast and herding behavior. The Review of
Financial Studies, 7(1) :97–124, 1994.
[330] A. Tunc. La lutte contre les opérations d’initiés, neuf ans d’expérience.
Dalloz, 1982. Etudes R. Rodière.
Bibliographie
305
[331] M. Turin. La planète bourse - De bas en hauts. Découverte Gallimard
Histoire, 1993.
[332] J.-C. Usunier and M. Easterby-Smith. Introduction à la recherche en
gestion. Economica (Gestion), 2000.
[333] J. Van Bommel, B. Leleux, and D. Leshinskii. Hot information markets
for initial public offerings. Journée sur les introductions en bourse,
IRG-ESA, Université Paris XII, 2001. working paper.
[334] H. Van Greuning and M. Koen. Normes internationales comptables.
Guide pratique de la banque mondiale, ESCP-EAP, FIDEF, 2000.
[335] G. Vedel and P. Delvolvé. Droit administratif. PUF, 8ème edition, 1982.
[336] R.G.A. Vergoossen. The use and perceived importance of annual reports by investment analysts in the Netherlands. European Accounting
Review, 2/3 :219–244, 1993.
[337] E. Vernette. L’efficacité des instruments d’études : évaluation des
échelles de mesure. Recherche et Applications en Marketing, 6(2) :43–
63, 1991.
[338] R. Verrecchia. Discretionary disclosure. Journal of Accounting and
Economics, pages 179–194, décembre 1983.
[339] R. Verrecchia. Information quality and discretionary disclosure. Journal of Accounting and Economics, 12(4) :365–380, 1990.
[340] R. Verrecchia. Essays on disclosure. Journal of Accounting and Economics, 32 :97–180, 2001.
[341] F. Wacheux.
Méthodes Qualitatives et Recherche en Gestion.
Économica, Paris, 1ère edition, mars 1996.
[342] A. Wagenhofer. Voluntary disclosure with strategic opponent. Journal
of Accounting and Economics, 12(4) :341–363, 1990.
[343] R.G. Walker. A case study of political activity and regulatory capture.
Accounting and business research, 17(67) :269–286, 1987.
[344] S. Walker and D. Duncan. Estimation of the probability of an event as
a function of several independent variables. Biometrics, 54 :167–179,
1967.
[345] R. Watts and J. Zimmerman. Positive accounting theory. Prentice
Hall, 1986.
[346] R. Watts and J. Zimmerman. Positive accounting theory : a ten year
perspective. The Accounting Review, 65 :131–157, 1990.
[347] G. Waymire. Earnings volatility and voluntary management forecast
disclosure. Journal of Accounting Research, 23 :268–295, spring 1986.
306
[348] M. Weber. Economie et société, volume 1. Gallimard, pocket edition,
1995.
[349] N. Weinstein. Unrealistic optimism about future life events. Journal
of Personality and Social Psychology, pages 806–820, 1980.
[350] I. Welch. Seasoned offerings and the pricing of new issues. Journal of
Finance, pages 421–450, 1989.
[351] M. Welker. Disclosure policy, information asymmetry and liquidity in
equity markets. Contemporary Accounting Research, 11 :801–828, 1995.
[352] P.A. Williams, G.D. Moyes, and K. Park. Factors affecting earnings
forecast revisions for the buy-side and sell-side analyst. Accounting
Horizons, 10(3) :112–121, septembre 1996.
[353] O.E. Williamson. The Economic Institutions of Capitalism. Free Press,
1985. traduction française, Les institutions de l’économie, Interéditions,
1994.
[354] O.E. Williamson. Corporate finance and corporate governance. The
Journal of Finance, 43(3) :567–591, juillet 1988.
[355] P. Wirtz. L’étude de cas : réflexions méthodologiques pour une
meilleure compréhension du rôle de la compatibilité financière dans
le gouvernement d’entreprise. Comptabilité Contrôle Audit, pages 121–
135, décembre 2000.
[356] K. Wruck. Equity ownership concentration and firm value : Evidence
from private equity financings. Journal of Financial Economics, 23 :3–
28, 1989.
[357] R. Yin. Case study research : design and methods. SAGE, 2ème edition,
1989.
[358] D. Zéghal. L’effet de l’information non comptable sur la valeur informationnelle des états financiers dans le marché des capitaux. Canadian
Journal of Economics, 14(2) :298–312, mai 1981.
[359] M.E. Zmijewski. Comments on ’earnings forecasting research’. International Journal of Forecasting, 9 :337–342, 1993.
[360] E. Zola. L’Argent. Livre de poche.
Table des matières
I Le paradoxe de l’environnement informationnel
des introductions en bourse
7
1 Présentation de l’environnement informationnel des introduction en bourse
1.1 L’environnement informationnel d’une introduction en bourse :
une revue de la littérature . . . . . . . . . . . . . . . . . . . .
1.1.1 La chaı̂ne de production et de diffusion de l’information
1.1.2 L’unité d’analyse . . . . . . . . . . . . . . . . . . . . .
1.1.3 La qualité de l’environnement informationnel . . . . . .
1.2 L’imperfection des informations : un paradoxe . . . . . . . . .
1.2.1 Impact de la qualité de l’information sur la fonction
d’utilité des producteurs . . . . . . . . . . . . . . . . .
1.2.2 Impact de la qualité de l’information sur le marché
financier . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Le protocole de recherche . . . . . . . . . . . . . . . . . . . . .
1.3.1 Les choix théoriques . . . . . . . . . . . . . . . . . . .
1.3.2 Les choix empiriques . . . . . . . . . . . . . . . . . . .
9
11
11
14
21
26
26
28
34
34
45
II Explication de la richesse de l’environnement informationnel des introductions en bourse
59
2 Qualité des prévisions publiées par le dirigeant et conflits
d’agence
2.1 La publication d’informations de qualité dans le cadre de la
théorie de l’agence . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 La théorie de l’agence : principes généraux . . . . . . .
2.1.2 La publication d’informations de qualité, un mode de
gouvernance . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Application au contexte de l’introduction en bourse . .
2.2 La méthodologie et les variables . . . . . . . . . . . . . . . . .
307
63
65
65
66
67
70
308
2.3
2.2.1 Méthodologie adoptée . . . . . . . . . . . . . . . . . .
2.2.2 Variables utilisées . . . . . . . . . . . . . . . . . . . . .
2.2.3 Les données . . . . . . . . . . . . . . . . . . . . . . . .
Résultats empiriques et discussion . . . . . . . . . . . . . . . .
2.3.1 Mesure de la qualité des prévisions du dirigeant . . . .
2.3.2 Explication de la qualité des prévisions du dirigeant . .
2.3.3 Qualité des prévisions publiées et performances boursières
71
71
73
75
76
78
85
3 Enquête sur l’indépendance des analystes de l’entreprise d’investissement
91
3.1 Les conflits d’agence entre l’analyste et son employeur : fondements empiriques et théoriques . . . . . . . . . . . . . . . . 93
3.2 La méthodologie retenue . . . . . . . . . . . . . . . . . . . . . 99
3.2.1 Justification . . . . . . . . . . . . . . . . . . . . . . . . 99
3.2.2 Les limites d’une méthodologie par questionnaire . . . 101
3.2.3 Le protocole expérimental suivi . . . . . . . . . . . . . 102
3.3 Analyse des réponses au questionnaire . . . . . . . . . . . . . 105
3.3.1 Profil des répondants . . . . . . . . . . . . . . . . . . . 105
3.3.2 Perception par les analystes de leur métier . . . . . . . 107
3.3.3 L’indépendance des analystes . . . . . . . . . . . . . . 108
3.3.4 Les sources d’information des analystes . . . . . . . . . 109
3.4 La qualité des données primaires : Internet versus poste . . . . 114
3.4.1 Efficacité comparée des deux modes d’enquête . . . . . 114
3.4.2 L’utilité d’une enquête Internet en finance d’entreprise 116
4 Les déterminants du suivi d’une introduction en bourse par
les analystes d’I/B/E/S
125
4.1 Revue de littérature et hypothèses . . . . . . . . . . . . . . . . 127
4.1.1 Les critères de suivi des analystes dans la littérature . . 127
4.1.2 Modélisation du comportement des analystes . . . . . . 131
4.2 La méthodologie, les données et l’échantillon . . . . . . . . . . 136
4.2.1 La méthodologie adoptée . . . . . . . . . . . . . . . . . 136
4.2.2 Les variables . . . . . . . . . . . . . . . . . . . . . . . 137
4.2.3 Les données . . . . . . . . . . . . . . . . . . . . . . . . 139
4.2.4 L’échantillon . . . . . . . . . . . . . . . . . . . . . . . 140
4.3 Les résultats de l’étude empirique . . . . . . . . . . . . . . . . 144
4.3.1 Les résultats des tests univariés . . . . . . . . . . . . . 144
4.3.2 Les résultats des tests multivariés . . . . . . . . . . . . 147
309
III L’enrichissement de l’environnement informationnel des introductions en bourse
165
5 La signalisation par publication volontaire de prévisions
5.1 Les modèles de signalisation par publication de prévision et
leurs implications . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Le cadre théorique . . . . . . . . . . . . . . . . . . .
5.1.2 Les implications des modèles de signal . . . . . . . .
5.1.3 Publication de prévision et procédure . . . . . . . . .
5.2 Présentation de la méthodologie
et de l’échantillon . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 La méthodologie adoptée . . . . . . . . . . . . . . . .
5.2.2 Les variables retenues . . . . . . . . . . . . . . . . . .
5.2.3 Présentation de l’échantillon . . . . . . . . . . . . . .
5.3 Les résultats de l’étude empirique . . . . . . . . . . . . . . .
5.3.1 Les résultats des tests univariés . . . . . . . . . . . .
5.3.2 Les résultats des tests multivariés . . . . . . . . . . .
.
.
.
.
172
172
175
177
.
.
.
.
.
.
.
177
177
178
181
183
184
187
6 L’intermédiation de la production d’information
6.1 Le cadre théorique : présentation et implications . . . .
6.1.1 Le modèle de Chemmanur (1993) . . . . . . . .
6.1.2 Implications . . . . . . . . . . . . . . . . . . . .
6.2 Présentation de la méthodologie adoptée et des données
6.2.1 La méthodologie adoptée . . . . . . . . . . . . .
6.2.2 L’origine des données . . . . . . . . . . . . . . .
6.2.3 Les variables retenues . . . . . . . . . . . . . . .
6.2.4 L’échantillon . . . . . . . . . . . . . . . . . . .
6.3 Les résultats de l’étude empirique . . . . . . . . . . . .
6.3.1 Les résultats des tests univariés . . . . . . . . .
6.3.2 Les résultats des tests multivariés . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
205
207
207
210
212
212
213
213
217
220
220
223
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 La régulation de l’information financière
7.1 Une légitimité historique et institutionnelle . . . . . . . . . .
7.1.1 Un enracinement historique . . . . . . . . . . . . . .
7.1.2 L’inadaptation des pouvoirs traditionnels aux besoins
de régulation . . . . . . . . . . . . . . . . . . . . . .
7.1.3 Une légitimité institutionnelle . . . . . . . . . . . . .
7.2 Une autorité «sociologique» . . . . . . . . . . . . . . . . . .
7.2.1 Un mode différent d’exercice du pouvoir . . . . . . .
7.2.2 Le procès de création du droit par le régulateur . . .
7.3 Obstacles à la légitimité du régulateur et perspectives . . . .
169
239
. 242
. 243
.
.
.
.
.
.
244
246
249
249
255
260
310
7.3.1
7.3.2
Un déficit de légitimité . . . . . . . . . . . . . . . . . . 261
Perspectives . . . . . . . . . . . . . . . . . . . . . . . . 264
Table des figures
1.1
Rentabilités anormales achat-conservation . . . . . . . . . . . 56
3.1
Satisfaction des analystes à l’égard de leurs sources d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Utilité perçue des chapitres du prospectus . . . . . . . . . . . 112
Processus d’élaboration d’un questionnaire web . . . . . . . . 121
3.2
3.3
4.1
4.2
6.1
6.2
Représentation 1-fonction de survie estimée par la méthode de
Kaplan-Meier . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
Représentation 1 - fonction de survie estimée par la méthode
de Cox . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
6.3
Le modèle théorique testé dans le chapitre 5 . . . . . . . . . . 212
Rentabilités anormales achat conservation des titres introduits
en bourse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
Marché de l’information et marché primaire . . . . . . . . . . 237
7.1
7.2
Le procès de création de normes par le régulateur . . . . . . . 271
Composition envisagée de l’Autorité des Marchés Financiers . 272
311
312
Liste des tableaux
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
2.1
2.2
2.3
2.4
2.5
2.6
2.7
3.1
3.2
3.3
3.4
3.5
3.6
Communication d’introduction : calendrier indicatif . . . . .
Exactitude et biais des prévisions publiées lors d’une introduction en bourse dans la littérature . . . . . . . . . . . . . . .
Valeur informative des prévisions du dirigeant ou des analystes, dans la littérature . . . . . . . . . . . . . . . . . . . .
Données extraites de la note d’information . . . . . . . . . .
Origines des prévisions des analystes dans la littérature . .
Statistiques descriptives calculées sur le maximum d’observations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tests de différences de moyennes . . . . . . . . . . . . . . .
Taille des échantillons utilisés dans la partie empirique . . .
Statistiques descriptives : échantillon du chapitre 2 . . . . .
Comparaison des erreurs de prévision . . . . . . . . . . . . .
Distribution des erreurs de prévision . . . . . . . . . . . . .
Impact de la précision et du biais des prévisions du dirigeant
Explication de l’erreur de prévision du dirigeant par les variables d’agence . . . . . . . . . . . . . . . . . . . . . . . . .
Explication de la sous-évaluation par l’erreur de prévision du
dirigeant, des variables d’asymétrie et/ou d’agence . . . . . .
Erreurs de prévision du dirigeant selon le marché d’introduction et l’horizon . . . . . . . . . . . . . . . . . . . . . . . .
Erreur moyenne de prévision des analystes selon leur affiliation
(Dechow et al., 2000) . . . . . . . . . . . . . . . . . . . . .
Erreur moyenne de prévision des analystes selon leur affiliation
(Derrien et Degeorge, 2001) . . . . . . . . . . . . . . . . . .
Coefficients de corrélation entre les prévisions d’I/B/E/S et
celles de l’étude financière (Derrien et Degeorge, 2001) . . .
Répartition de la population enquêtée et des répondants . .
Sources d’information des analystes . . . . . . . . . . . . .
Qualité comparée des médias de recueil utilisés . . . . . . . .
313
. 19
. 24
. 25
. 46
. 48
. 50
. 57
. 58
. 75
. 77
. 77
79
. 80
. 81
. 84
. 96
. 97
.
.
.
.
98
102
110
117
314
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
4.14
5.1
5.2
5.3
5.4
5.5
5.6
5.7
5.8
5.9
5.10
6.1
6.2
6.3
6.4
Représentativité de l’échantillon du chapitre 4 . . . . . . . .
Statistiques descriptives du chapitre 4 . . . . . . . . . . . . .
Couverture des sociétés de l’échantillon par année . . . . . .
Nombre d’analystes dans les bases d’I/B/E/S . . . . . . . .
Distribution délai de couverture . . . . . . . . . . . . . . . .
Rhô de Spearman - chapitre 4 . . . . . . . . . . . . . . . . .
Caractéristiques des sociétés selon leur marché d’introduction
et leur suivi par les analystes . . . . . . . . . . . . . . . . . .
Explication du niveau et du délai de couverture d’une société
nouvellement cotée . . . . . . . . . . . . . . . . . . . . . . .
Probabilité de couverture d’une société : modèles logit . . .
Modèle de Cox . . . . . . . . . . . . . . . . . . . . . . . . .
Synthèse revue de littérature (1) . . . . . . . . . . . . . . .
Synthèse revue de littérature (2) . . . . . . . . . . . . . . .
Exemple de données de survie . . . . . . . . . . . . . . . . .
Exemple de tableau de survie . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
140
141
142
143
144
145
Statistiques descriptives de l’échantillon du chapitre 5 . . . .
Explication de la sous-évaluation par l’erreur de prévision du
dirigeant . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
La valeur informative de l’acte volontaire de publication et de
la précision des prévisions du dirigeant pour les analystes .
L’efficacité d’une signalisation par publication volontaire de
prévisions avant 1996 / après 1996 . . . . . . . . . . . . . .
Probabilité d’une publication de prévisions dans le prospectus
d’introduction . . . . . . . . . . . . . . . . . . . . . . . . . .
tests de différences de moyennes - chapitre 5 . . . . . . . . .
Tests du Chi-deux - chapitre 5 . . . . . . . . . . . . . . . . .
Impact de la procédure sur la publication de prévision et la
sous-évaluation . . . . . . . . . . . . . . . . . . . . . . . . .
Utilité des prévisions du dirigeant pour les investisseurs . .
Corrélations bi-variées : Rhô de Spearman - chapitre 5 . . .
. 182
. 146
.
.
.
.
.
.
.
148
151
154
159
160
161
162
. 189
. 190
. 194
. 196
. 199
. 200
. 201
. 202
. 203
Statistiques descriptives calculées sur l’échantillon du chapitre 6217
Performances boursières à long terme pour différentes périodes
calculées sur l’échantillon du chapitre 6 . . . . . . . . . . . . . 219
Impact du secteur et du marché sur la sous-évaluation et la
richesse de l’environnement informationnel . . . . . . . . . . . 221
Lien entre la réalisation d’une augmentation de capital post
introduction, la sous-évaluation et la richesse de l’environnement informationnel . . . . . . . . . . . . . . . . . . . . . . . 222
315
6.5
6.6
6.7
6.8
6.9
6.10
6.11
6.12
6.13
6.14
7.1
7.2
7.3
7.4
7.5
Influence du degré de sous-évaluation sur la richesse de l’environnement informationnel et la réalisation d’une augmentation
de capital post introduction . . . . . . . . . . . . . . . . . . . 223
Explication de la richesse de l’environnement informationnel
par la sous-évaluation . . . . . . . . . . . . . . . . . . . . . . . 224
Explication de la richesse informationnelle par la sous-évaluation
et le niveau d’asymétrie sur l’échantillon total . . . . . . . . . 225
Nouveau Marché : explication de la richesse informationnelle
par la sous-évaluation et le niveau d’asymétrie . . . . . . . . . 226
Second Marché : explication de la richesse informationnelle par
la sous-évaluation et le niveau d’asymétrie . . . . . . . . . . . 227
Explication de la sous-évaluation par le niveau d’asymétrie . . 228
Probabilité d’une augmentation de capital dans l’année suivant l’introduction . . . . . . . . . . . . . . . . . . . . . . . . 230
Probabilité d’une augmentation de capital dans les deux ans
suivant l’introduction . . . . . . . . . . . . . . . . . . . . . . . 231
Explication des performances boursières à long terme par la
sous-évaluation initiale, le nombre et la qualité des informations disponibles la première année de cotation . . . . . . . . . 232
Rhô de Spearman - chapitre 6 . . . . . . . . . . . . . . . . . . 236
Bilan de l’action de la COB (1999-2002) . . . . . . . . . . . . 251
Exactitude des prévisions NM-SM . . . . . . . . . . . . . . . 253
Valeur informative des prévisions contenues dans les prospectus d’introduction au NM et SM . . . . . . . . . . . . . . . . 253
Publication de prévision par les sociétés du Second Marché
dans leur prospectus . . . . . . . . . . . . . . . . . . . . . . . 254
Comparaison des normes élaborées par le législateur et le régulateur267