Université Paris XII Val de Marne
Transcription
Université Paris XII Val de Marne
Université Paris XII Val de Marne L’environnement informationnel des introductions en bourse Florence AMANS-LABÉGORRE Thèse de Doctorat en Sciences de Gestion soutenue le 26 novembre 2003 THÈSE DE DOCTORAT en Sciences de Gestion L’environnement informationnel des introductions en bourse Florence AMANS-LABÉGORRE Université Paris XII Val de Marne Thèse de doctorat Spécialité : Sciences de Gestion présentée par Florence AMANS-LABÉGORRE pour l’obtention du titre de Docteur en Sciences de Gestion sur le sujet L’environnement informationnel des introductions en bourse directeur de thèse Pr. Édith GINGLINGER (Université de Paris Dauphine) soutenue le 26 novembre 2003 devant le jury composé de : Pr. Pr. Pr. Pr. Pr. Laurent BATSCH François DEGEORGE (rapporteur) Jean-François GAJESWSKI Édith GINGLINGER Pascal LOUVET (rapporteur) Université Université Université Université Université de de de de de Paris IX Dauphine Lugano Paris XII Val de Marne Paris IX Dauphine Grenoble II «(...) les chiffres restaient vagues. Madame Caroline ne pouvait arriver à une appréciation exacte des gains, car les opérations de Bourse se font en plein mystère, et le secret professionnel est strictement gardé par les agents de change.», (Zola, L’Argent, chapitre XI, page 447) Remerciements Je tiens avant tout à exprimer ma profonde gratitude au Professeur Édith Ginglinger pour avoir dirigé ce travail. Ses conseils pertinents, sa disponibilité et ses encouragements ont amplement contribué à la bonne réalisation de cette thèse. Je remercie également les Professeurs Nathalie Mourgues, Jean-François Gajewski puis Suzanne Pontier de m’avoir accueillie au sein de l’équipe de recherche de l’IRG. Je remercie Messieurs les Professeurs François Degeorge, Pascal Louvet, Jean-François Gajewski et Laurent Batsch qui me font l’honneur de participer à mon jury de thèse. La partie empirique n’aurait pu être menée à bien sans le concours de nombreux professionnels. Je remercie Patrice Genovèse, sans lequel je n’aurais pu obtenir de précieux contacts à la COB. Marie Christine Livinec et Jean-Louis Betriou de KBC Securities, Denise Veyrenc de Natexis Capital, Nathalie Fournier-Delugeard et Marcon Derric d’ING-Ferri entre autres, ont pris le temps de répondre à mes questions sur le métier d’analyste. Geoffroy de Coatparquet et Yannick Mazet de la SFAF m’ont aidée à améliorer le questionnaire envoyé aux analystes. J’ai pu m’entretenir avec Bernard Hinfray et Benoı̂t Boucly de Jacques Wenig et associés, Patrick Iweins de RSM Salustro Reydel des diligences des commissaires aux comptes lors d’une introduction en bourse. Jean-Jacques Vaxelaire de Cyril Corporate, Jean-Michel Cabriot et Sandrine Chanat de Natexis Capital m’ont fait partager leur expérience du montage d’une opération d’introduction. J’ai mieux appréhendé la préparation de la communication d’introduction grâce à Fabienne Deneck de Capital Events et Antoine Denry d’Eurorscg. Enfin, j’ai pu recueillir auprès de Philippe Kienast le point de vue d’un di- 10 rigeant ayant introduit sa société en bourse. Qu’ils soient tous sincèrement remerciés du temps qu’ils m’ont consacrée. Je remercie gracieusement I/B/E/S International Inc. qui, dans le cadre de son programme académique, m’a donné accès aux prévisions des analystes. Mes remerciements s’adressent également à Arnaud Thauvron, toujours de bon conseil ; à Stéphanie Serve et Sabri Boubaker, pour leur amitié et leur aide constante. Enfin, un grand merci à mon mari, dont le soutien a été si précieux tout au long de cette recherche. Introduction L’exigence d’une information de qualité sonne comme une antienne sur les marchés internationaux. Pour la Banque Mondiale (1998) ou Sender (1999), les marchés asiatiques auraient connu une crise en 1997, parce que leurs besoins informationnels étaient insatisfaits. Plus récemment, le Président de la COB (Commission des Opérations de Bourse) associe la «correction boursière» de l’année 2002, à la «crise de confiance dans l’information financière ayant notamment pour origine (...) les défauts de communication de certaines sociétés» (présentation du 35ème rapport annuel, 14 mai 2003). Les marchés ont besoin d’être correctement informés pour allouer les capitaux de manière optimale. Leurs dysfonctionnements sont donc logiquement attribués à l’insuffisante quantité et qualité des informations à la disposition des investisseurs. Sur le plan micro-économique, une société doit se plier aux exigences informationnelles du marché dès son introduction en bourse. Tant qu’elle n’est pas cotée, elle produit des informations pour les besoins de sa gestion interne. Elle communique éventuellement ces informations aux banquiers pourvoyeurs de fonds. Mais l’ouverture du capital s’accompagne d’un partage attendu d’informations de qualité. La COB exige que la candidat à l’introduction informe le public de manière «exacte, précise et sincère» (règlement no 98-07). Elle subordonne au demeurant l’admission définitive de la société sur un marché réglementé, à la qualité de l’information publiée les trois premières années de cotation (article 34 du règlement no 98-01). L’efficience des marchés est à ce prix. La COB estime que la qualité des informations publiées garantit l’efficience et l’intégrité des marchés (rapport annuel 2001, p. 61). L’obligation d’une bonne information des marchés participe d’une exigence plus générale de transparence1 , incombant aux sociétés cotées. En en1 «La transparence correspond à un environnement dans lequel l’information sur les 1 2 Introduction trant sur le marché, la société doit devenir visible, transparente. «Tout se passe comme si les entrepreneurs français, habitués à la pratique du tiroir fermé, devaient se convertir à la politique de la maison de verre. L’opacité des échanges est supplantée par la clarté des transactions ; les fortunes obscures deviennent des patrimoines transparents ; la clandestinité des comptes cède le pas à la publicité des écritures ; des sûretés occultes se transforment en garanties révélées aux tiers ; les délibérations sociétaires, prises dans l’ombre, font place à des processus décisionnels contrôlés» (Garaud, 1995, p. 12, cité par Bessire, 2003, p. 2). Toutefois, l’actualité pourfend la qualité des informations disponibles lors d’une introduction en bourse, compte tenu des contre-performances de nombreux titres nouvellement cotés. Certains dirigeants ont surestimé les perspectives de leur société, afin de convaincre les investisseurs. Tel est le cas du dirigeant et fondateur de la société Cryo, introduite sur le Second Marché en 1998. Ses prévisions d’équilibre financier pour 2001 se soldent en réalité par un déficit de 16.5 millions d’euros. Alors qu’il promettait une croissance du chiffre d’affaires de 30% et une marge d’exploitation positive pour 2002, Cryo est mise en liquidation judiciaire en juillet 2002. L’impartialité des analystes financiers affiliés aux banques introductrices est également mise en cause. Certains actionnaires leur reprochent d’avoir recommandé à l’achat des valeurs introduites, contre toute logique financière. Le cabinet de défense des actionnaires minoritaires Deminor a ainsi porté plainte contre le Crédit Lyonnais. Il soupçonne la banque d’avoir publié des analyses biaisées lors de l’introduction en bourse de la société Kalisto en 1999. Les analystes financiers du Crédit Lyonnais prédisaient alors une belle réussite à cette entreprise. Pourtant, les pertes atteignent le décuple du chiffre d’affaires en 2000. Et la société est liquidée en 2002. Aux États-Unis, Henry Blodget a été radié de la profession d’analyste pour avoir publié des informations trompeuses. Ses recommandations à l’achat auraient permis à son employeur Merrill Lynch d’obtenir des mandats de conseil pour un montant de 115 millions de dollars2 . Les investisseurs ne semblent donc disposer que d’une information imparfaite lors d’une introduction en bourse. L’écart entre la réalité et l’exigence théorique d’une information de qualité nous a conduits à nous intéresser à conditions, les décisions et les actions est rendue accessible, visible et compréhensible pour tous les acteurs du marché» Van Greuning et Koen, p. 1, cités par Bessire, 2003, p. 5. 2 Les exemples relatés dans ce paragraphe sont inspirés du dossier «spécial mensonges» de la revue Capital, no 141, juin 2003, pages 60-99. Introduction 3 l’environnement informationnel des introductions en bourse. Nous souhaitions mieux comprendre pourquoi les informations diffusées sur les sociétés admises à la cote semblaient peu fiables. Notre recherche se distingue des travaux antérieurs à trois titres. Traditionnellement, les informations diffusées par les analystes et le dirigeant sont analysées dans le cadre de la théorie de l’efficience des marchés. Les études antérieures testent si le marché anticipe correctement le biais des prévisions du dirigeant ou des analystes. Le cas échéant, les erreurs de prévision ex post du dirigeant ou des analystes ne doivent pas expliquer significativement les performances boursières de la société considérée. Dans cette thèse, nous avons choisi deux autres optiques. Nous considérons tout d’abord l’offre d’information du dirigeant et des analystes financiers comme un levier disciplinaire. Dans le cadre de la théorie de l’agence, les pressions des mandants (les actionnaires et les créanciers de la société introduite ; l’employeur de l’analyste) sont supposées déterminer le comportement des producteurs d’information. Le dirigeant et les analystes évitent de coûteux conflits d’agence en intégrant les préférences de leur principal dans leur offre d’information. Nous envisageons ensuite les prévisions publiées par le dirigeant et les analystes comme des variables de signalisation. Dans le cadre des modèles de signal, nous présumons que les investisseurs peuvent inférer la vraie valeur de la société introduite, à partir des prévisions publiées par le dirigeant ou les analystes financiers. Notre travail se singularise ensuite sur le plan méthodologique. Nous avons tout d’abord varié les méthodologies employées. Aux méthodes quantitatives, classiques en finance, nous adjoignons une enquête et une étude de cas. Nous exploitons donc des données primaires et secondaires. Nous tentons par ailleurs d’expliquer le délai de couverture des titres nouvellement cotés par les analystes, grâce à une méthode originale, l’analyse de survie. Nous proposons enfin une réflexion sur l’efficacité d’Internet et de la voie postale comme méthodes d’administration d’enquête. Enfin, les apports de notre travail sont empiriques. Les investisseurs utilisent les prévisions publiées par le dirigeant et les analystes pour estimer la valeur espérée des titres introduits. La qualité de ces informations importe donc. Nous évaluons et comparons l’exactitude et le biais des prévisions contenues dans le dossier d’introduction et dans les bases d’I/B/E/S. Par ailleurs, le processus de décision des analystes est peu étudié. Nous identifions les facteurs qui les amènent à suivre un titre nouvellement coté. Notre travail révèle également les diverses variables utilisées comme signaux par les sociétés ad- 4 Introduction mises à la cote française entre 1994 et 2000. Nous dépassons enfin l’approche descriptive du rôle de la COB en matière d’information financière. Nous reconstituons en effet comment le régulateur met à jour, formule puis applique les normes relatives aux informations publiées dans le dossier d’introduction. La démarche retenue est la suivante. La première partie comporte un seul chapitre. Elle précise le cadre théorique et empirique de la recherche. Elle présente tout d’abord la structure de l’environnement informationnel des introductions en bourse. Elle oppose ensuite les bénéfices théoriques attendus d’une information de qualité, au constat empirique de la mauvaise qualité des informations diffusées sur les sociétés introduites. Dans un troisième temps, nous justifions l’analyse de ce paradoxe à la lumière des théories de l’agence et du signal. Nous exposons enfin la démarche empirique retenue. La deuxième partie analyse le comportement des producteurs d’information dans le cadre de la théorie de l’agence. Le chapitre 2 se focalise sur le dirigeant de la société introduite ; les chapitres 3 et 4, sur les analystes financiers. Dans le chapitre 2, nous mesurons la précision et le biais des informations publiées par le dirigeant dans le prospectus d’introduction. Nous testons ensuite si les pressions des actionnaires et des créanciers influencent l’erreur de prévision du dirigeant. En confrontant les bénéfices prévus et réels, les créanciers et actionnaires peuvent aisément contrôler l’efficacité de la gestion du dirigeant. La publication de prévisions constitue donc un mécanisme de gouvernement. Nous vérifions si les investisseurs anticipent de moindres conflits d’agence en présence de prévisions exactes. Le chapitre 3 s’intéresse aux analystes évaluant la société en cours d’introduction. Il rapporte les résultats d’une enquête administrée via Internet et la poste, auprès des analystes affiliés à l’entreprise d’investissement spécialiste. Ces analystes rédigent l’étude financière incluse dans le dossier d’introduction. Ils y présentent la société et l’opération d’introduction. Ils établissent notamment le plan de développement de la société et anticipe le prix d’équilibre attendu. Les études quantitatives antérieures montrent que les analystes sont excessivement optimistes lorsqu’ils évaluent une société ayant mandaté leur employeur. Elles avancent, sans le prouver, que les intérêts commerciaux de l’employeur contraignent l’offre d’information des analystes. Le chapitre 3 se propose d’apprécier la réelle indépendance des analystes de Introduction 5 la société de bourse spécialiste, à travers leurs réponses à un questionnaire. Le chapitre 4 considère les analystes financiers indépendants de la banque introductrice et enregistrés dans les bases d’I/B/E/S. Dans le cadre de la théorie de l’agence, ils cherchent à prévenir les conflits d’intérêts avec leur employeur. Ils sont donc présumés suivre les sociétés nouvellement cotées, susceptibles de maximiser le profit de leur employeur. Autrement dit, ils sont supposés décider, au vu des commissions de courtage et/ou de placement anticipées, nettes du coût de production de l’information. Ce faisant, ils agissent également dans leur intérêt, puisqu’une partie de leur rémunération dépend des résultats de leur employeur. Dans le chapitre 4, nous testons cette hypothèse et déterminons les caractéristiques des admissions à la cote du Nouveau Marché ou du Second Marché, suivies par les analystes indépendants d’I/B/E/S. La troisième partie s’intéresse aux moyens d’enrichir l’environnement informationnel des introductions en bourse. Elle se penche notamment sur l’action du dirigeant de la société introduite et du régulateur. Au moment d’une introduction en bourse, les investisseurs ne peuvent aisément discerner les bons placements des mauvais à partir des seules informations publiques obligatoires. Ils sont confrontés à un problème de sélection adverse. Le dirigeant peut aider les investisseurs à distinguer les réelles caractéristiques de sa société en émettant des signaux. Il peut tout d’abord publier des informations prévisionnelles supplémentaires, non exigées par la loi. Hughes (1986) montre dans son modèle que le dirigeant signale efficacement la valeur de la société en diffusant volontairement aux investisseurs ses prévisions de résultat. Dans le modèle de Trueman (1986), la précision des prévisions publiées par le dirigeant prouve sa capacité à prévoir correctement les changements de l’environnement économique, et à y répondre. Elle peut donc constituer un signal de qualité. Le chapitre 5 évalue l’efficacité d’une signalisation par publication volontaire de prévisions exactes. Chemmanur (1993) propose une autre solution au problème de sélection adverse. Dans son modèle, les sociétés performantes délèguent aux analystes la tâche de révéler leur qualité. Les insiders doivent alors sous-évaluer les titres introduits pour inciter les analystes à diffuser des informations sur leur société. Ils ne se désengagent donc que partiellement lors de l’introduction. Une fois les informations des analystes intégrées dans les cours, ils espèrent céder leurs titres restants à des conditions favorables. Le chapitre 6 teste 6 Introduction empiriquement le modèle de Chemmanur, sur un échantillon d’admissions à la cote du Second Marché et du Nouveau Marché. L’auto-régulation du marché de l’information ne saurait toutefois suffire. Par exemple, nous trouvons que l’acte volontaire de publication ne réduit pas l’incertitude des investisseurs ou des analystes. La qualité de l’information financière dépend également de sa normalisation et de la bonne application des règles adoptées (Kothari, 2000, p. 92). En la matière, la régulation est préférée à la voie législative. Dans le chapitre 7, nous tentons de comprendre pourquoi. La COB jouit d’une autorité réelle, comme en atteste sa future appellation («Autorité des Marchés Financiers») ou la littérature (Guyon, 1986 ; Dessertine, 1997 ; Michaı̈lesco, 1999 par exemple). Au fil du temps, elle serait parvenue à mieux adapter les informations publiées par les sociétés aux attentes du marché. Comment réussit-elle à faire évoluer les informations publiées par les candidats à l’introduction vers plus de transparence ? Première partie Le paradoxe de l’environnement informationnel des introductions en bourse 7 Chapitre 1 Présentation de l’environnement informationnel des introduction en bourse La transparence est un principe fondamental de la finance de marché. Autrement dit, le marché ne fonctionne correctement que s’il dispose de toute l’information pertinente. En effet, sans information suffisante et de qualité, les investisseurs ne peuvent prendre de décision éclairée. La transparence de l’information rend donc possible le jugement rationnel, présumé dans le cadre de la théorie néo-classique. La transparence jouit ainsi d’une certaine caution théorique. Elle fait également l’unanimité auprès des praticiens. Les responsables politiques affirment leur foi en ses vertus. Ils désignent l’opacité comme la fautrice des crises sur le marché financier (rapport Davanne, 1998). Inversement, la transparence garantirait la stabilisation financière1 . En s’introduisant en bourse, une société est supposée accepter la logique du marché et donc «sa mise en transparence». La réalité semble tout autre. Bien moins d’informations semblent disponibles sur une société introduite sur le Second ou Nouveau Marché, que déjà cotée. Sur notre échantillon de 326 sociétés introduites sur les Second et Nouveau Marchés entre 1994 et 2000, 139 seulement ont publié des prévisions de résultat chiffrées dans leur prospectus, soit un tiers (tableau 1.6). 194 ont vu, au cours de leur 1 Certains chercheurs contestent le bien-fondé du primat de la transparence (par exemple Lordon, 2002). Dans des modèles non marchands, la régulation du système financier peut ne pas reposer sur la transparence de l’information. Tel a été le cas du modèle nippon «méso-corporatiste» au moins jusqu’au début des années 80 (Amable et al., 1997, p. 215-217). 9 10 Chapitre 1 première année boursière, leurs futurs résultats prédits par au moins un analyste indépendant2 , collaborant avec I/B/E/S. En comparaison, les analystes d’I/B/E/S ont suivi 62% des sociétés du SBF 250, en moyenne annuelle entre 1994 et 2000. Une société introduite intéresse en moyenne 3 analystes indépendants au cours de sa première année de cotation. Parallèlement, huit analystes suivent une société du SBF 250, en moyenne annuelle entre 1994 et 2000. Les prévisions diffusées sur les sociétés nouvellement cotées semblent de surcroı̂t inexactes. Les 139 dirigeants de notre échantillon se trompent en moyenne d’environ 300% dans leurs prévisions de résultat. Les analystes sont également très optimistes dans leurs anticipations. Ils commettent une erreur moyenne de 50% sur notre échantillon. Toutefois, ils paraissent moins précis lorsqu’ils estiment les résultats à un an d’une société du SBF 250. Par an sur la période 1994-2000, leur erreur moyenne de prévision passe à 348%. Enfin, les asymétries d’information semblent accentuées au moment d’une introduction en bourse. Elles peuvent être approchées par la dispersion des estimations des analystes. Sur notre échantillon d’introductions en bourse, l’écart-type moyen des prévisions des analystes indépendants, normé par le bénéfice par action réel, s’élève à 50%. Il n’est que de 30% sur l’échantillon des sociétés du SBF 250, en moyenne annuelle entre 1994 et 2000. Certes les sociétés nouvellement cotées sont de plus petite taille et moins connues du marché que les sociétés du SBF 250. Elles sont également moins expérimentées en termes de communication financière. Mais ces seuls facteurs ne peuvent suffire à expliquer l’importance de l’écart informationnel entre les marchés primaire et secondaire. Au vu de ces quelques chiffres, dont l’interprétation doit rester prudente, l’admission à la cote déroge au canon de la transparence. Dans la littérature également, les informations disponibles pour évaluer le candidat à l’introduction apparaissent rares, inégalement réparties, imprécises et biaisées. Nous partons ainsi de deux constats. Une société qui entre sur le marché financier est supposée en accepter les principes de fonctionnement. Elle doit en particulier se plier à l’exigence de transparence. Pourtant, une relative opacité entoure une introduction en bourse. Notre question et nos objectifs de recherche émergent de ce paradoxe. Comment expliquer et dépasser cette antinomie ? Nous cherchons à comprendre d’une part, ce manque de transparence ; d’autre part, comment les agents et les institutions tentent 2 L’affiliation de l’analyste détermine la nature et le cadre de son travail. Dans cette thèse, les analystes qualifiés d’«affiliés» désignent ceux rattachés à la banque introductrice (c’est-à-dire chargée de la préparation de l’introduction). Les autres analystes sont dits «indépendants». Chapitre 1 11 d’y remédier. À cette fin, nous nous sommes placée dans le cadre du paradigme positiviste. Ce dernier implique un centrage sur les faits, la recherche de relations causales, une approche analytique et hypothético-déductive. Nous présentons le cadre de notre recherche en trois temps. La section 1 dresse l’état des connaissances sur l’environnement informationnel des introductions en bourse. La section 2 expose les avantages d’une information de qualité, tels qu’avancés dans la littérature. Ces deux premières sections nous conduisent à formuler la problématique et les objectifs de la recherche. Nous y répondons de manière théorique, puis préparons le passage au terrain dans une troisième section. 1.1 L’environnement informationnel d’une introduction en bourse : une revue de la littérature L’environnement informationnel désigne l’ensemble des informations disponibles sur le candidat à l’introduction. Nous présentons tout d’abord sa structure, c’est-à-dire les acteurs et les informations produites. Nous justifions ensuite la limitation de cet environnement aux prévisions de résultat publiées par la société et les analystes sell side. Nous apprécions enfin sa qualité. 1.1.1 La chaı̂ne de production et de diffusion de l’information D’amont en aval, l’information est produite, puis contrôlée et enfin diffusée à ses destinataires au moyen de supports. Mais les composantes de cette chaı̂ne varient selon le statut privé ou public (coté) de la société appréciée. Avant l’introduction en bourse Une société privée produit, via ses services comptables et financiers, les informations exigées par la loi. Ces informations prennent essentiellement la forme du rapport annuel. Le commissaire aux comptes contrôle la fiabilité de ces informations. Il doit ainsi certifier que les comptes annuels sont réguliers, sincères et donnent une image fidèle des résultats, de la situation financière et du patrimoine de l’entreprise. 12 Chapitre 1 Les informations produites servent aux besoins de la gestion interne. Objectives, elles constituent encore un moyen de preuve entre commerçants. Elles permettent aux partenaires financiers et commerciaux d’évaluer la société, et à l’administration fiscale de calculer l’assiette de l’impôt. La non cotation favorise une production et un «partage privés » de l’information (Nobes, 1988). Mais l’introduction en bourse modifie profondément l’environnement informationnel de la société. Après l’introduction en bourse L’introduction en bourse multiplie les producteurs d’information, les contrôleurs, les informations produites, les vecteurs de communication et les destinataires. Les producteurs d’information ne sont plus seulement internes, mais aussi externes. L’intéressé peut s’informer sur l’opération auprès de l’émetteur lui-même, des intermédiaires financiers, des gestionnaires de fonds, des journalistes spécialisés ou des agences de notation. Le contrôle légal concerne toujours uniquement les informations produites par la société. Mais il est désormais dual. En premier lieu intervient le commissaire aux comptes. Dans le cadre de sa mission générale et de l’article L 228 alinéa 3 de la loi sur les sociétés, il vérifie la sincérité et la concordance, avec les comptes annuels, des informations du prospectus. La norme de travail no 354 révisée3 précise ses diligences lors d’une introduction en bourse. Seules les informations comptables et financières entrent dans le champ de sa revue. Sont présumées de nature comptable et financière, toutes les informations chiffrées issues d’un système d’information vérifiable. Le commissaire aux comptes rappelle la nature de son intervention et l’opinion émise sur les comptes historiques. Quant aux informations prévisionnelles, il se prononce sur la pertinence et la cohérence de leurs hypothèses de construction, sauf exceptions prévues aux paragraphes .22, .24, .25 de la norme. À l’issue de ses diligences, il exprime, sous forme d’observation ou d’absence d’observation, sa conclusion sur la sincérité des informations comptables et financières du prospectus. 3 Bulletin COB, no 352 décembre 2000, p. 27. Chapitre 1 13 En second lieu agit la COB (Commission des opérations de bourse). Concernant les informations comptables et financières, la COB s’assure que les commissaires aux comptes ont effectué les diligences nécessaires. À défaut, elle peut leur demander des investigations complémentaires ou faire appel à un cabinet spécialisé extérieur. La COB contrôle a priori la régularité et la complétude des autres informations contenues dans le prospectus. Autrement dit, ces informations doivent être conformes aux règlements. Elles doivent permettre à un investisseur de souscrire en toute connaissance de cause. Lorsque le document d’information satisfait ses exigences, la COB y appose son visa. Elle peut assortir ce visa d’un avertissement, afin d’attirer l’attention des investisseurs sur certains facteurs de risque. Visa et avertissement figurent en première page de la note d’information. Depuis 2002, la COB a assoupli la procédure de délivrance du visa. Elle a supprimé le visa définitif, dès lors que le prix, la quotité et le calendrier définitifs sont arrêtés dans les limites initiales prévues dans le prospectus ou toute communication complémentaire ultérieure. Les informations produites sur la société sont multiformes : rapports, recommandations boursières, commentaires, analyses financières, notes... Des canaux écrits, oraux ou électroniques assurent la transmission des informations. Le normalisateur exige de la société une version papier du document d’information. La publicité légale de l’opération est assurée dans la presse écrite. Les échanges oraux sont également nombreux. Le dirigeant présente sa société et l’opération aux analystes financiers, à l’occasion d’une réunion organisée en collaboration avec la SFAF (Société Française des Analystes Financiers). Il rencontre les investisseurs institutionnels collectivement lors des road shows, ou individuellement lors des one-to-one meetings. Les analystes communiquent avec leurs clients par téléphone. Comme les commissaires aux comptes et la banque introductrice, ils visitent le site de l’entreprise et discutent avec les principaux responsables. Des moyens électroniques couvrent l’événement. La société peut mettre en ligne le prospectus d’introduction sur son site web. Une vidéo-conférence permet parfois de suivre la réunion SFAF. Les analystes diffusent leurs recommandations par fax ou courrier électronique. 14 Chapitre 1 Les destinataires de l’information dépassent les bailleurs de fonds et l’administration fiscale. L’admission à la cote fait connaı̂tre la société au public et à la communauté financière. Facteur de notoriété, elle élargit les cibles de l’information diffusée : actionnaires, investisseurs, analystes, clients et fournisseurs potentiels... L’environnement informationnel d’une introduction en bourse est ainsi pluriel. Nous avons donc dû circonscrire notre objet de recherche afin de le rendre «opérationalisable». 1.1.2 L’unité d’analyse Nous précisons l’unité d’analyse, c’est-à-dire le cadre spatio-temporel, les informations et les producteurs étudiés. Le cadre spatio-temporel La recherche progresse, entre autres, de manière incrémentale. Nous situons notre travail par rapport à l’existant. Nous sommes tout d’abord partie du travail effectué par Anne-Marie Faugeron-Crouzet (1997) sur le marché français. L’auteur met en évidence le comportement stratégique des intermédiaires financiers (la banque introductrice et la société de bourse spécialiste) lors du choix du mécanisme de vente. Elle prouve également l’existence d’asymétries d’information entre les investisseurs. Elle montre enfin que les procédures réduisant les asymétries d’information (le placement et la mise en vente), ne diminuent pas significativement la sous-évaluation du prix d’offre. Elle réalise son étude sur l’ensemble des introductions sur le Second Marché de 1983 à 1994. Dans son prolongement, nous considérons l’hypothèse de conflits d’intérêts au sein de l’émetteur et des établissements financiers suivant l’opération ou y participant. Nous étudions l’impact de ces conflits d’agence non sur la procédure d’introduction, mais sur la qualité des informations produites par le dirigeant et les analystes. Nous approfondissons le lien entre la sousévaluation et la révélation, par les investisseurs, de leurs informations privées. Nous envisageons l’émission de signaux et la régulation de l’information comme moyens de limiter les asymétries d’information. Nous observons les introductions sur le Second Marché entre 1994 et 2000, ou le Nouveau Marché entre 1996 et 2000. Chapitre 1 15 Notre thèse est par ailleurs à la croisée de deux champs de littérature. Le premier concerne les prévisions publiées dans les prospectus d’introduction. Les travaux, rares en France, sont plus nombreux sur les marchés asiatiques ou anglo-saxons (tableau 1.2). Ils testent l’hypothèse d’efficience du marché. Autrement dit, ils regardent si le cours d’équilibre corrige l’optimisme/le pessimisme (mesuré ex post) des prévisions du dirigeant. Enfin, ils expliquent traditionnellement l’imprécision des prévisions du dirigeant par l’incertitude ou un biais cognitif. Dans notre thèse, nous étendons les recherches antérieures au marché français. Nous évaluons la qualité des prévisions des sociétés introduites sur le Second Marché ou le Nouveau Marché. Le contexte légal original rendait cette question intéressante. D’une part, le dirigeant voit rarement sa responsabilité engagée pour diffusion de prévisions inexactes, fausses ou trompeuses. D’autre part, le contrôle légal des prévisions du prospectus est formel et limité. Enfin, la réglementation des informations à publier en vue d’une admission à la cote diffère selon les marchés d’introduction. Par ailleurs, nous abordons la qualité des prévisions du dirigeant à la lumière de la théorie de l’agence. Notre thèse s’inscrit dans un second courant de littérature, relatif aux prévisions des analystes sur les sociétés nouvellement cotées. En la matière, la recherche est bien plus ancienne et abondante aux États-Unis qu’en France. Elle traite classiquement de deux questions : l’affiliation de l’analyste influencet-elle son offre d’information ? Le marché est-il efficient ? Les principaux résultats obtenus sont les suivants. Les analystes affiliés apparaissent significativement plus optimistes que les analystes indépendants (Michaely et Womack, 1999 ; Dechow et al., 2000 ; Derrien et Degeorge, 2001). Les conflits d’intérêts au sein des établissements financiers sont avancés pour rendre compte de cet optimisme excessif. Aux États-Unis, les investisseurs semblent dupes du biais entachant les prévisions des analystes. Les performances boursières à long terme sont moindres pour les introductions recommandées par des analystes affiliés qu’indépendants (Michaely et Womack, 1999). Elles sont significativement liées aux erreur de prévision des analystes, affiliés comme indépendants (Dechow et al., 2000). En France, les investisseurs paraissent correctement anticiper le biais des prévisions contenues dans l’analyse financière jointe au prospectus, à l’horizon du premier ou second exercice fiscal suivant l’introduction. Par contre, l’erreur de prévision des analystes d’I/B/E/S explique significativement les rentabilités moyennes cumulées sur la période [date d’introduction + 10 jours ; fin exercice fiscal + 5 mois] (Derrien et Degeorge,2001). L’indépendance des analystes a été moins sujette à caution en France qu’aux États-Unis, grâce au cadre institutionnel. La banque d’investissement y est 16 Chapitre 1 moins développée et les analystes sont moins médiatisés. La SFAF interdisait dès la première version de son code de déontologie, certaines pratiques répandues aux États-Unis (par exemple l’indexation de la rémunération des analystes sur le produit des introductions en bourse). Elle travaillait déjà au respect de l’objectivité de l’analyste, avant la crise de confiance des marchés. Ces spécificités institutionnelles et le travail de Derrien et Degeorge rendaient nécessaire une approche renouvelée des informations produites par les analystes sur les titres introduits. Les analystes rattachés à l’entreprise d’investissement spécialiste font l’objet d’une première étude qualitative et exploratoire. Nous tentons de vérifier leur réelle indépendance dans l’exercice de leur métier, au travers de leurs réponses à une enquête. Dans une seconde étude quantitative, nous nous intéressons aux analystes «indépendants». En fonction de quels critères ces analystes choisissent-ils de suivre une société nouvellement cotée ? Leur employeur ne participe pas à l’opération d’introduction. L’intérêt des investisseurs devrait donc déterminer la décision des analystes. Nous testons cette hypothèse. Les informations étudiées Parmi les nombreuses informations disponibles sur le candidat à l’introduction, les prévisions de bénéfice par action ont principalement retenu notre attention. Trois raisons ont guidé notre choix. En premier lieu, les prévisions de résultat constituent un outil de décision prisé. Les investisseurs évaluent le candidat à l’introduction au regard de ses performances futures anticipées. Les autres partenaires économiques de l’entreprise doivent décider s’ils contractent ou poursuivent leurs relations avec la société. Tous ont donc besoin de connaı̂tre les bénéfices attendus des investissements financés grâce aux fonds levés (Firth, 1998). Des informations prévisionnelles leur sont nécessaires. Elles déterminent également les recommandations boursières des analystes (Govindarajan, 1980 ; Bandyopadhyay et al., 1993 ; Schipper, 1991). En second lieu, les prévisions sont l’objet d’un courant de recherche fécond. Nous pouvons donc juger de la validité externe de nos résultats, en les confrontant aux travaux antérieurs. En troisième lieu, apprécier la qualité de prévisions chiffrées est aisé. Les propriétés de ces informations (exactitude, biais, dispersion, nombre d’émetteurs, rapidité de diffusion etc) sont autant de critères de qualité. Nous avons également eu besoin d’informations non prévisionnelles. Par exemple, les performances boursières nous ont entre autres permis de mesurer la valeur informative des prévisions. Nous avons considéré certaines Chapitre 1 17 caractéristiques de la société comme déterminants potentiels de la richesse de l’environnement informationnel. Les producteurs d’information étudiés Nous justifions tout d’abord la restriction de nos investigations à deux producteurs d’information : l’émetteur et les analystes financiers sell side. Leur rôle informationnel est ensuite explicité. Justification La société émettrice a été retenue en tant que producteur légal d’information. Ses prévisions sont accessibles gratuitement à tous. Leur fiabilité importe donc. Pourtant, elle n’est appréciée que formellement par les contrôleurs légaux (commissaires aux comptes, COB), et rarement par les chercheurs en France. Les analystes financiers produisent également des prévisions. L’article 2-4-1 du règlement général du CMF (Conseil des marchés financiers) les définit comme des prestataires de services informationnels. «Exerce la fonction d’analyste financier toute personne physique ayant pour mission de produire des analyses financières sur les personnes morales (...) dont l’admission à la négociation est demandée, en vue de formuler et généralement diffuser une opinion sur l’évolution prévisible desdites personnes morales et par conséquence sur l’évolution prévisible du cours de bourse de ces instruments». Les analystes financiers peuvent être buy side ou sell side. Les gestionnaires de fonds et investisseurs institutionnels emploient les analystes dits buy-side. Les analystes sell side travaillent pour des entreprises d’investissement. Eux-seuls ont retenu notre attention, pour trois motifs. Tout d’abord, les informations qu’ils produisent sont diffusées à l’extérieur et donc aisément disponibles. Au contraire, celles produites par les analystes buy side sont réservées à leur employeur. Ensuite, notre thèse est plus facile à vérifier auprès d’analystes sell side que buy side. Leurs fonctions préservent les analystes buy side de contraintes commerciales et donc de partialité dans leur jugement. Enfin, les prévisions des analystes sont utiles aux praticiens comme aux chercheurs. Les investisseurs s’en servent pour évaluer les sociétés et réagissent à leur révision (Capstaff et al., 2000). Jusqu’au début des années 80, les prévisions de résultats établies à partir de modèles en séries temporelles 18 Chapitre 1 approchaient les anticipations du marché. Depuis, les prévisions des analystes les ont remplacées car plus précises (Fried et Givoly, 1982 ou Brown et al., 1987). Elles comprennent en effet des informations plus récentes et plus variées que les modèles statistiques (Alexander, 1995). Rôle informationnel de la société et des analystes - L’émetteur L’émetteur élabore une note d’information ou prospectus avec l’aide du banquier introducteur. Soit le prospectus prend la forme d’un document unique, informant à la fois sur la société et l’opération. Soit il comprend deux documents. Le document de référence présente de manière détaillée la société. La note d’opération décrit les conditions de l’introduction, rappelle les principales caractéristiques de la société ou les actualise le cas échéant. Elle est préliminaire tant que le prix d’offre et le calendrier sont provisoires. Elle devient définitive, une fois le prix d’offre et le déroulement de l’opération fixés. Une agence de communication s’occupe de la préparation matérielle de la communication d’introduction : organisation des réunions, réalisation des supports de communication, communiqués de presse etc. Nous avons établi un calendrier indicatif de la communication d’introduction, à partir de nos entretiens exploratoires4 et du tableau de Fereres et Rivière (1999, page 89). Des acronymes identifient les différents intervenants (tableau 1.1). S désigne la société, B la banque introductrice, EI l’entreprise d’investissement, CAC les commissaires aux comptes, AC l’agence de communication et COB la Commission des opérations de bourse. - Les analystes Les analystes sont chargés de la recherche sur des titres, des émetteurs, des marchés et/ou des secteurs. Leur rapport d’analyse s’accompagne le plus souvent d’un prix cible et d’une recommandation d’investissement avec son échéance de validité. Il est destiné à l’employeur gérant de fonds si l’analyste est buy side. Il est vendu aux clients ou diffusé en interne aux vendeurs lors du 4 Afin de mieux comprendre le déroulement d’une introduction en bourse, nous avons suivi celle de la société Capital Events. Dans cette phase exploratoire de notre travail, nous avons rencontré le banquier introducteur (Natexis Capital), l’une de ses analystes, la directrice de la communication de Capital Events, le commissaire aux comptes et l’agence de communication EuroRSG. Nous avons enfin assisté à la réunion SFAF. Chapitre 1 19 Intervenants S, B, EI, CAC, AC EI S, B, CAC Évènements définition de la stratégie de communication début de l’analyse financière premier projet de note d’information Date S, B, CAC COB EI Dépôt à la COB du dossier d’introduction préliminaire Étude du dossier par la COB Rédaction de l’étude financière COB, B, EI COB, CAC, S AC Visite de la société Visite à la COB Remise à l’imprimeur des documents AC B, EI Envoi des invitations aux journalistes et aux investisseurs J-30 jours COB Visa préliminaire J-19 jours B, S Publication au BALO de la notice légale J-15 jours S, B, AC, EI Réunion SFAF J-14 jours COB Visa définitif J J-15 semaines J-13 semaines J-8 semaines Tab. 1.1 – Communication d’introduction : calendrier indicatif morning meeting, si l’analyste est sell side. Les vendeurs contactent ensuite les clients et leur proposent d’acheter les titres. La réglementation interdit aux analystes d’occuper, même momentanément, la fonction de vendeur. Les analystes peuvent se voir confier d’autres missions, notamment dans le cadre d’une introduction en bourse. Deux situations peuvent se présenter. • La première a lieu lorsque la banque d’affiliation de l’analyste appartient à la syndication, c’est-à-dire au groupe de banquiers organisant l’introduction. La syndication est désignée par la société. Elle comprend un chef de file, éventuellement assisté d’un ou plusieurs co-chefs de file. Les honoraires sont versés au chef de file, qui en rétrocède une quote-part aux autres banques. Le chef de file, maı̂tre d’ouvrage, fixe le calendrier de l’opération. Il aide la société à choisir la procédure d’introduction, l’entreprise d’investissement et l’agence de communication. Il définit la stratégie de communication avec 20 Chapitre 1 l’émetteur et l’agence de communication. Le chef de file prépare et présente le dossier d’introduction aux autorités de marché. Enfin, il diffuse les titres dans le public et participe au contrat de liquidité ou d’animation. L’expertise des analystes peut être utile à la (aux) banque(s) introductrice(s) avant et pendant l’opération. Elle peut constituer un argument commercial lors de la recherche de mandat. Elle sert encore aux moments de la négociation du prix d’introduction et du placement des titres. • Le second cas de figure se réalise quand l’analyse travaille pour l’«entreprise d’investissement spécialiste». Il réalise alors une étude financière jointe à la note d’information. Il y présente l’activité de l’entreprise, sa stratégie, sa situation financière et les conditions de l’opération. En particulier, il calcule la valeur espérée du titre, grâce à plusieurs méthodes d’évaluation. Nous avons observé les méthodes utilisées par les analystes dans quarante quatre études financières jointes au dossier d’introduction. Comme les méthodes d’évaluation sont contingentes au secteur d’activité5 , nous avons retenu uniquement des valeurs technologiques. L’échantillon se compose de trente et une introductions sur le Nouveau Marché en 2000 et treize sur le Second Marché entre 1994 et 1996. Les treize sociétés du Second Marché sont évaluées par comparables boursiers, complétés par une approche intrinsèque pour onze d’entre elles (méthode de Bates, de Gordon Shapiro, de capitalisation des dividendes...) et par l’actualisation des flux de trésorerie disponibles pour les deux autres. L’approche patrimoniale et celle du goodwill ont chacune été utilisées une fois. Vingt et une sociétés du Nouveau Marché ont été estimées par l’approche analogique et l’actualisation des flux de trésorerie disponibles, cinq par la méthode des comparables uniquement, deux par la somme des parties, deux par actualisation des dividendes et une par l’EVA. Ainsi, les analystes semblent surtout utiliser la méthode des comparables boursiers pour évaluer le candidat à l’introduction. Ils la complètent par l’actualisation des dividendes pour une introduction sur le Second Marché, et par l’actualisation des flux de trésorerie disponibles pour une admission au Nouveau Marché. L’étude en coupe longitudinale de Fabre-Azéma (2002) intègre nos observations sur une période plus longue, entre 1991 et 2000. L’auteur analyse l’évolution des pratiques d’évaluation des analystes au moment d’une intro5 Un analyste interrogé a par exemple évoqué «la méthode Champenoise pour les maisons de Champagne ». Chapitre 1 21 duction en bourse, sur un échantillon de 209 sociétés introduites sur le Second Marché. Les analystes recourent surtout au modèle de Bates au début de la décennie. Entre 1993 et 1995, celui-ci est concurrencé par la méthode des rendements. La méthode de Gordon-Shapiro est ensuite prisée entre 1994 et 1998. L’auteur souligne enfin la tendance depuis 1997 à l’évaluation indirecte des actions. Autrement dit, la valeur de l’actif économique est d’abord déterminée par actualisation des flux de trésorerie ou de l’EBE. Elle est ensuite imputée de la valeur de la dette. Il en résulte la valeur des capitaux propres de l’entreprise. Ensuite, l’analyste applique une décote usuelle6 de 10 à 20% au prix d’équilibre anticipé, et obtient le prix d’introduction. Le rôle de l’entreprise d’investissement s’étend au-delà de la rédaction de l’analyse financière. Pendant l’introduction, elle recueille les ordres d’achat et les transmet à Euronext. Après l’introduction, elle anime les échanges sur le titre. Nous apprécions désormais la qualité des informations disponibles sur la société introduite, au regard de la littérature. 1.1.3 La qualité de l’environnement informationnel Au vu de la littérature, l’imperfection des informations disponibles sur la société introduite tient à leur inégale répartition, leur imprécision et leur biais. L’inégale répartition des informations De nombreux modèles théoriques supposent l’existence de fortes asymétries d’information au moment d’une introduction en bourse. Ces asymétries renvoient à deux situations. La première, dite de sélection adverse, se produit lorsque les investisseurs ne peuvent obtenir une information exhaustive sur les caractéristiques de l’introduction. Ils ne parviennent donc pas à la distinguer de candidats apparemment semblables. Ibbotson (1975), Allen et Faulhaber (1989), Welch 6 Les analystes rencontrés disent majorer la décote en cas de forte activité du marché primaire, de faible visibilité des perspectives de l’entreprise, d’attribution de stock options et de risque spécifique élevé. 22 Chapitre 1 (1989), Grinblatt et Hwang (1989) évoquent ce cas de figure. La seconde, dite de hasard moral, a lieu quand l’un des participants cache des informations indispensables au bon fonctionnement du marché ou entreprend des actions non observables. Ainsi, les investisseurs ne sont pas également informés. Les agents non informés incluent l’entreprise et la banque introductrice dans le modèle de Rock (1986) ; les investisseurs occasionnels et la banque introductrice dans les modèles de Benveniste et Spindt (1990) ou Benveniste et Wilhelm (1990). Les investisseurs informés détiennent des informations privées sur la valeur de marché de l’entreprise dans le modèle de Rock. Ils savent combien de titres ils sont prêts à acheter et disposent donc d’un avantage informationnel sur la banque dans les modèles de Benveniste et alii. Ils espèrent retirer des gains de leurs informations privées et ne sont donc pas prêts à les partager. Baron (1982) étudie les asymétries d’information entre la banque introductrice et l’émetteur. La banque conseille l’entreprise lors de la fixation du prix d’offre et distribue les titres. Mais la société ne peut observer les efforts de l’introducteur. De surcroı̂t, la banque est mieux informée sur la demande du marché, avant la signature du mandat. Elle peut être tentée d’occulter ou fausser son information privée, afin d’obtenir une meilleure rétribution. Ces asymétries affectent la société. Elles conduisent à un prix d’offre et à une demande de titres plus faibles qu’en l’absence d’asymétries. Les informations disponibles au moment d’une introduction en bourse apparaissent dans la littérature non seulement inégalement distribuées mais aussi de mauvaise qualité. La mauvaise qualité des informations produites Nous avons essentiellement cantonné l’environnement informationnel d’une introduction en bourse, aux prévisions de résultat diffusées par la société et les analystes financiers. Les prévisions publiées ne sont utiles aux investisseurs que si elles modifient leurs croyances. À cette fin, elles doivent apporter une information nouvelle, être exactes et les motivations du producteur à leur publication doivent être compréhensibles (Patell, 1976). Au regard des travaux empiriques, les prévisions diffusées par les dirigeants de sociétés cotées semblent présenter ces attributs. Elles sont plus informatives que les bénéfices historiques (Waymire, 1986 ; McNichols, 1989). Chapitre 1 23 Suite à leur publication, les investisseurs révisent leurs anticipations et les cours réagissent (Baginski et al., 1993 ; Pownall et al., 1993). Elles fondent également les prévisions des analystes. Ota (2002) montre ainsi que sur 27 939 estimations d’analystes, 81.5% sont identiques à celles des dirigeants. Les études empiriques attestent également de la valeur informative des prévisions publiées par les analystes. Elles sont plus précises que les modèles de série temporelle (Brown et al., 1987 ; Givoly, 1982). Elles ont un impact sur les cours (Lys et Sohn, 1990). Elles s’avèrent plutôt optimistes jusqu’à la fin des années 90 (O’Brien, 1988 ; Fried et Givoly, 1982), pessimistes depuis (Brown, 1997 ; Matsumoto, 2000). Au moment d’une introduction en bourse, la valeur informative des prévisions publiées par le dirigeant et les analystes paraı̂t plus mitigée. L’attribut informatif des prévisions dépend tout d’abord de leur précision et de leur biais. Le tableau 1.2 recense les résultats des études empiriques consultées (non exhaustives). Les prévisions portent sur le bénéfice par action (BP Ap) de la société introduite, à l’horizon d’un an. Leur exactitude se déduit de l’erreur absolue de prévision et leur biais, de l’erreur relative de prévision. Trois formules sont possibles : – (1) : précision = |BP Ar − BP Ap| / |BP Ar| ; biais optimiste si (BPArBPAp) / |BP Ar| < 0 où BP Ar désigne le bénéfice par action réalisé – (2) : précision = |BP Ar − BP Ap| / |BP Ap| ; biais optimiste si (BPArBPAp) / |BP Ap| < 0 – (3) : précision = |BP Ar − BP Ap| / Cours du titre à la date de la prévision ; biais optimiste si (BPAr-BPAp)/ Cours du titre à la date de la prévision < 0 Toutes les erreurs de prévision reportées diffèrent significativement de 0, sauf mention expresse (ns). Nous commentons le tableau 1.2. Imhoff et Pare (1982), puis plus récemment, Hartnett et Römcke (2002) montrent que les résultats sont indépendants de la définition de l’erreur de prévision. Autrement dit, le classement de prévisions en fonction de leur précision est inchangé, quelle que soit la manière de calculer l’erreur de prévision. Globalement, les informations produites par le dirigeant et les analystes au moment d’une introduction en bourse apparaissent de mauvaise qualité. Mais leur caractère excessif et leur biais varient selon les pays et la période étudiée. Le dirigeant s’avère ainsi optimiste en Nouvelle-Zélande et en France, plutôt pessimiste à Hong Kong, en Australie ou en Grande-Bretagne. Son 24 Chapitre 1 Auteurs (année) Jaggi (1997) Chan, Sit, Tong, Wong et Chan (1996) Chen, Firth et Krishnan (2001) Lee, Yee et Yee (1993) Firth et Smith (1992) Tan (1987) Keasey et McGuinness (1991) Schatt et Roy (2002) Degeorge et Derrien (2001) Période Marché 1990-1994 Hong Kong 1990-1992 Hong Kong 1993-1996 Hong Kong 1976-1989 Australie 1983-1986 Nouvelle-Zélande 1972-1984 Singapour 1984-1986 Grande Bretagne 1996-2000 France 1991-1998 France Degeorge et Derrien (2001) 1991-1998 France Chahine (2001) Rajan et Servaes (1997) 1996-1998 France 1975-1987 États-Unis N émetteur 161 société 110 société 162 société 98 société 89 société 51 société 121 société 151 société 945 analystes (I/B/E/S) 137 analystes (prospectus) 168 analystes 327 analystes Méthode (1) (2) (2) (1) (2) (1) (2) (2) erreur absolue Exactitude 12.86% assez exactes 18% assez exactes 21.96% inexactes 1138.3% très inexactes 141% très inexactes 24% assez exactes 11% exactes 42.58% très inexactes (3) (3) (2) (3) erreur relative Biais 3.10% prudence 9.94% pessimisme 994.4% pessimisme -92% optimisme 5% prudence -12.10% (ns) optimisme -0.53% léger optimisme -0.36% (ns) 40.3% inexactes -19.3% optimisme -5.77% optimisme Tab. 1.2 – Exactitude et biais des prévisions publiées lors d’une introduction en bourse dans la littérature erreur fluctue également, indépendamment du mode de calcul retenu. Elle s’échelonne de 11% (Grande-Bretagne) à 140% (Nouvelle-Zélande) avec la méthode (2) ; de 13% (Hong Kong) à 1118% (Australie) avec la méthode (1). Les prévisions contenues dans le prospectus semblent toutefois plus inexactes que celles des analystes, toutes choses égales par ailleurs. Les résultats relatifs aux prévisions des analystes ne permettent pas plus aisément de conclure à un optimisme ou un pessimisme systématique. Sur le marché américain, Rajan et Servaes (1997) évaluent la qualité des prévisions de résultat à un an, émises par les analystes financiers sur 327 introductions en bourse leur première année de vie boursière. Ils rapportent l’écart entre le BPA réalisé et le BPA prévu au cours de l’action à la date de la prévision (formule (3) dans le tableau). Ils parviennent à une erreur moyenne de -5.77%. Or l’erreur commise par les analystes sur 263 sociétés de même secteur et de même taille que les 327 introductions, mais cotées depuis trois ans, n’est que de -3.21%. Reprenant la même méthodologie sur le marché français, Derrien et Degeorge (2001) obtiennent une erreur moyenne de -0.37% sur 125 introductions et de -1.46% sur 88 sociétés cotées. Leurs résultats contredisent les observations de Rajan et Servaes. Les estimations des analystes semblent plus prudentes lorsqu’elles portent sur une société introduite que sur une société cotée. Selon les auteurs, les analystes seraient plus incités à l’exactitude qu’à l’optimisme Chapitre 1 25 au moment d’une introduction en bourse. Le changement de comportement des investisseurs à la date de publication atteste de la valeur informative des prévisions. L’étude d’événement est classiquement utilisée pour détecter un éventuel effet d’annonce sur les cours. L’absence de cotation avant la date d’annonce rend cette méthodologie inapplicable dans le cadre d’une introduction en bourse. Pour mesurer l’impact des prévisions sur les cours, quelques auteurs déjà cités dans le tableau 1.2 ont régressé les performances boursières sur les erreurs de prévision. L’équation de régression testée est : P erf = α+β erreurprevision. L’erreur de prévision est calculée comme dans le tableau 1.2. Les performances boursières initiales ou à long terme constituent les variables à expliquer. L’hypothèse du contenu informatif des prévisions équivaut à un β significativement différent de 07 . Le tableau 1.3 récapitule les valeurs du β obtenues. RAC désigne les rentabilités anormales cumulées ; SEV la sous-évaluation (rapport de l’écart entre le premier cours coté et le prix d’offre définitif, sur le prix d’offre définitif) et RIA la rentabilité initiale anormale, égale à la sous-évaluation corrigée de la rentabilité du marché. auteurs Derrien et Degeorge variable dépendante RAC sur un an variable explicative erreur prév. analystes prospectus (3) Derrien et Degeorge RAC sur un an erreur prév. analystes I/B/E/S (3) Schatt et Roy RAC sur un an erreur prév. dirigeant (2) Chen et al. SEV erreur prév. dirigeant (2) Firth et Smith SEV erreur prév. dirigeant (2) Keasey et McGuinness RIA erreur prév. dirigeant (2) résultats β = 6.52 t = 3.25 β = 3.97 t = 3.25 β = 0.825 t = 3.25 β = 0.372 t = 3.25 β = −0.024 t = 3.25 β = 0.11 t = 3.25 Tab. 1.3 – Valeur informative des prévisions du dirigeant ou des analystes, dans la littérature Les erreurs de prévision du dirigeant ou des analystes sont toujours reliées significativement aux performances boursières, excepté dans l’étude de Firth et Smith. Ces résultats témoignent de l’utilité des informations prévisionnelles pour les investisseurs. La revue de littérature fait ressortir l’inégale répartition et la mauvaise qualité des informations disponibles sur les introductions en bourse. Cette 7 Nous ne jugeons pas ici des anticipations naı̈ves ou rationnelles des investisseurs. 26 Chapitre 1 imperfection de l’information contraste avec les avantages liés à un environnement informationnel riche. 1.2 L’imperfection des informations : un paradoxe La diffusion d’information de qualité maximise la fonction d’utilité des producteurs et améliore le fonctionnement du marché financier. 1.2.1 Impact de la qualité de l’information sur la fonction d’utilité des producteurs Le dirigeant et les analystes n’ont aucun intérêt personnel à la production de mauvaises prévisions. Ils compromettent leur réputation, encourent des sanctions juridiques voire boursières. Le risque juridique Les producteurs d’information s’exposent à des sanctions juridiques. Les analystes qui ont recommandé à l’achat de manière persistante les valeurs Internet voient aujourd’hui leur objectivité mise en cause. Par exemple, le Procureur Général de New York suspecte l’analyste vedette de Citigroup d’avoir favorisé les intérêts de quelques clients importants de la banque d’affaires. La France n’a pas connu d’affaires aussi médiatisées qu’aux États-Unis. Mais les analystes peuvent se voir infliger des sanctions disciplinaires. La COB peut en effet saisir le Conseil des Marchés financiers lorsqu’elle a connaissance d’irrégularités commises par un professionnel des marchés. La responsabilité du dirigeant peut également être engagée, surtout par les actionnaires/investisseurs dans les pays anglo-saxons ; plutôt par le régulateur en France. Aux États-Unis, 12% des 1 312 actions collectives intentées par les actionnaires entre 1996 et 1999 mettent en cause les documents publiés lors d’une introduction en bourse (Bajaj et al., 2000). En Australie, la Cour fédérale a Chapitre 1 27 condamné le dirigeant de la société Burswood 8 pour publication d’informations mensongères dans son prospectus (Law et Callum, 2002, p. 14). En France, le risque juridique est plus faible qu’aux États-Unis (Frost, 1997). Les investisseurs ne demandent ni n’obtiennent souvent réparation du préjudice causé par l’inexactitude des prévisions diffusées par le dirigeant. La procédure de recours collectif n’existe pas. Lorsque des actionnaires veulent engager une action au civil, la charge de la preuve leur incombe. L’instruction au pénal est longue. La jurisprudence de la Cour de cassation considère souvent que les fautes sont inséparables des fonctions (Neuville, 20039 ). Toutefois, pour la COB, le dirigeant a une responsabilité assez large sur la qualité de l’information financière publiée, quelle que soit sa source. Par exemple, la COB exige qu’il confirme ou démente les rumeurs relatives à l’opération. Le dirigeant doit attester par écrit dans le prospectus, l’absence d’erreur ou d’omission significative de nature à fausser le jugement des investisseurs. La COB dispose de moyens d’action à l’encontre du dirigeant ayant publié des informations de mauvaise qualité. Elle peut sanctionner le dirigeant administrativement si les informations publiées sont inexactes, imprécises et ont faussé le fonctionnement du marché (article 3 du règlement n0 90-02). Elle peut prononcer une sanction pécuniaire s’élevant jusqu’à 1,5 million d’euros ou au décuple du profit réalisé. Sa décision est susceptible de recours devant la Cour d’appel de Paris10 . Le Président de la COB peut saisir le Président du Tribunal de grande instance de Paris, afin de mettre fin à des pratiques contraires aux lois et règlements et portant atteinte aux droits des épargnants (exemple : Comptoir des entrepreneurs, TGI Paris, 11ème ch., 17 décembre 1997). Pour l’exécution de ses décisions, le président du Tribunal peut prendre toute mesure conservatoire ou prononcer une astreinte versée au Trésor. En cas de délit boursier ou d’infraction à la loi sur les sociétés commerciales, la COB peut saisir le Parquet. Le Procureur classe le dossier, demande des investigations supplémentaires, ou bien ouvre une information. Dans ce dernier cas, soit l’affaire fait l’objet d’une ordonnance de non-lieu, soit elle est renvoyée pour jugement devant le Tribunal correctionnel. Les sanctions pénales maximales prévues sont un emprisonnement de deux ans et/ou une amende de 900 à 1,5 million d’euros (exemples : Cass. crim., 15 mars 1993 ; 8 Affaire «Famel Pty Ltd v Burswood Management» (1989) 15 ACLR 572 Le Monde, 6 février 2003 10 Par exemple, Société Générale de Fonderie, CA Paris, 9ème ch., 15 janvier 1992 - CA Paris, 16 décembre 1998 9 28 Chapitre 1 Cass. crim., 29 novembre 2000). La sanction du marché La Bourse révise à la baisse la cotation du titre, lorsque la société n’atteint pas ses prévisions. Elle pénalise en outre sévèrement les entreprises en infraction avec la réglementation comptable (Beneish, 1999). Les sociétés accusées par la SEC de manipulation des résultats voient leur cours diminuer en moyenne de 9% (Dechow et al., 1996). Ces réactions boursières affectent personnellement le dirigeant. Elles laminent la valeur des actions éventuellement détenues par le dirigeant. Elles peuvent entraı̂ner la révocation de son mandat. La publication de prévision trop optimistes laisse une mauvaise impression au marché. Elle rend donc difficiles un second appel public à l’épargne et le désengagement ultérieur d’actionnaires. L’imperfection de l’information publiée porte ainsi préjudice aux producteurs d’information. Elle compromet également l’efficience des marchés. 1.2.2 Impact de la qualité de l’information sur le marché financier Les investisseurs prennent leur décision d’investissement en fonction des informations disponibles sur la société considérée. Des déséquilibres apparaissent sur le marché de l’information lorsque l’information diffusée ne répond pas aux attentes des utilisateurs (Ogan et Ziebart, 1991). Ces déséquilibres faussent le fonctionnement du marché secondaire comme primaire11 . Influence de la qualité de l’information sur le marché secondaire L’imperfection des informations disponibles accroı̂t le coût du capital. Elle limite l’efficience allocationnelle et informationnelle. Le coût du capital est lié à la richesse de l’environnement informationnel, comme en témoignent certains travaux théoriques et empiriques. 11 D’après les articles 2 du règlement no 98-07, L. 621-14 et L. 621-15 du Code monétaire et financier, l’information inexacte, imprécise et mensongère a pour effet de fausser le fonctionnement du marché et de porter atteinte aux intérêts des investisseurs. Chapitre 1 29 Dans leurs modèles, Diamond et Verrecchia (1991), Kim et Verrecchia (1994) montrent que la publication volontaire d’information par la société limite les asymétries entre les investisseurs informés et non informés. L’amélioration conséquente de la liquidité du titre attire les investisseurs institutionnels et réduit le coût du capital. En effet, plus les frais de transaction sont faibles, plus les investisseurs acceptent de payer cher les titres et plus l’émetteur lève de fonds (Verrecchia, 2001, p. 165). Pour Barry et Brown (1986) également, les investisseurs exigent un plus faible taux de rentabilité en contrepartie d’une meilleure information. Botosan (2000) montre que la recherche théorique relie la qualité de l’information disponible à une diminution du coût du capital de deux manières. Une information publique de qualité réduit les asymétries d’information entre l’entreprise et les investisseurs, donc le risque estimé et enfin le coût du capital, selon Klein et Bawa (1976), Handa et Linn (1993) ou Clarkson et al. (1996) entre autres. Elle permet une répartition plus équitable des informations entre investisseurs, améliore la liquidité des titres et donc abaisse le coût du capital, d’après Brennan et Tamarowski (2000) par exemple. Les résultats empiriques confortent ces prédictions théoriques. Botosan (1997) trouve que le coût du capital diminue avec la quantité d’information publiée dans le rapport annuel, seulement pour les sociétés faiblement suivies par les analystes. Sengupta (1998) étend l’analyse au coût de la dette. Il mesure la quantité d’information diffusée par une société dans ses rapports annuels, trimestriels, ses communiqués de presse et lors des réunions avec les analystes. Il établit que l’augmentation d’un pourcent de l’indice de diffusion réduit le coût de la dette de 0.02%. Healy et al. (1998) mettent en évidence qu’une publication volontaire d’information améliore la liquidité des titres, attire les analystes et les actionnaires institutionnels. Les sociétés retirent les mêmes avantages d’une augmentation de leur note12 de communication financière (Healy et al., 1999). Pour Piotroski (1999), la publication d’informations segmentées13 complémentaires permet au marché de mieux prévoir les résultats futurs. Cette meilleure visibilité réduit le coût du capital pour la société. Aux États-Unis, les analystes évaluent la communication financière des sociétés cotées. Leur note détermine négativement et significativement le coût du ca- 12 Aux États-Unis, les analystes notent la qualité de la communication financière des sociétés cotées. 13 Informations ventilées par secteur d’activité ou zone géographique. 30 Chapitre 1 pital (Botosan et Plumlee, 2000 ) et le spread 14 . Enfin, Leuz et Verrecchia (2000) montrent que les firmes cotées sur le Neuer Market 15 , astreintes à plus d’obligations informationnelles, avaient un spread significativement plus faible que celles cotées à la Bourse de Frankfurt. Les études empiriques présentées ne sont pas exhaustives (voir également Welker, 1995 ; Botosan, 1997 ; Healy et al., 1999). Toutefois, elles restent peu nombreuses. L’asymétrie d’information est en effet un concept difficile à opérationnaliser. L’impact de la publication d’information supplémentaire sur des marchés déjà bien informés ne peut être que marginal (Verrecchia, 2001, p.175). Ainsi, la qualité de l’information disponible abaisse le coût du capital. L’efficience allocationnelle est également améliorée par la qualité des informations disponibles. L’imperfection de l’information liée à la sélection adverse rend difficile l’équilibre entre l’offre et la demande de capitaux. Les sociétés performantes ne peuvent être distinguées des autres. Leurs titres se négocient donc à un prix inférieur à leur juste valeur. Akerlof (1970) montre alors que le marché est amené à disparaı̂tre. Il prend l’exemple du marché des voitures d’occasion. Il suppose que ces automobiles sont soit de bonne, soit de mauvaise qualité. Seuls les vendeurs connaissent leur qualité réelle. Les acheteurs connaissent la probabilité d’acquérir une bonne ou une mauvaise voiture. Ils n’acceptent de payer que la qualité espérée, à un prix moyen pondéré. Si les vendeurs des meilleurs produits ne parviennent pas à révéler avec succès leur qualité, ils ne pourront les vendre qu’au prix moyen, inférieur à celui qu’ils sont en droit d’attendre. Certains quitteront le marché. Les autres proposeront des produits de moins en moins bonne qualité. Les acheteurs seront alors découragés et quitteront le marché. L’efficience informationnelle est enfin affectée par la qualité de l’information disponible. Plus les cours agrègent d’information, plus ils sont informatifs et proches de la «vraie» valeur du titre. La publication d’une plus grande quantité d’information par la société est 14 15 Écart entre le cours vendeur et le cours de l’acheteur le mieux disant Le Neuer Market sera fermé d’ici fin 2003. Chapitre 1 31 associée à un moindre risque de sous-évaluation16 (Healy et al., 1999) ou à une réaction favorable des cours, toutes choses égales par ailleurs (Healy et al., 1999). Parallèlement, les cours reflètent d’autant plus rapidement l’information que les analystes s’intéressent à la société (Barth et Hutton, 2000) ou que la société publie beaucoup d’informations (Gelb et Zarowin, 2000). Sur le marché primaire également, les imperfections de l’information diffusée rendent compte de phénomènes boursiers. Influence de la qualité de l’information sur le marché primaire Trois phénomènes sont classiquement observés sur le marché primaire : les grappes d’introductions, la sous-évaluation et le déclin des performances boursières. Nous les présentons brièvement, puis les relions à l’imperfection des informations publiées. Des phénomènes universels L’activité du marché primaire est cyclique (La Porta et al., 1997). Aux États-Unis, les introductions ont été moins nombreuses entre 1935 et 1959 que pour la seule année 1969 (Gompers et Lerner, 2001). Le prix d’offre des candidats à l’introduction apparaı̂t sous-évalué par rapport au premier cours coté. Par exemple, Ritter et Welch (2002) obtiennent une sous évaluation moyenne de 18.8%, sur un échantillon de 6 249 sociétés introduites entre 1980 et 2001 sur le marché américain. Le déclin des performances boursières à long terme des sociétés introduites est plus discuté. Les résultats varient en effet selon la méthodologie employée, la période étudiée et l’échantillon (Ritter et Welch, 2002, p. 27 à 32). Par exemple, sur l’échantillon de Ritter et Welch, les titres admis à la cote américaine sous-performent l’indice de marché CRSP de 23.4% et des valeurs cotées comparables (en termes de capitalisation boursière et de Book to Market) de 5.1%. Les études récentes réalisées sur le marché européen mettent en exergue soit une absence de significativité, soit une faible significativité des sous-performances à long terme des introductions en bourse (Stehle et alii, 2000 ; Espenlaub et al., 2000 ; Sentis, 2001). 16 Une société est sous-évaluée si elle est cotée à un prix inférieur à sa valeur fondamentale. 32 Chapitre 1 Explication Ces phénomènes ont longtemps été considérés comme des anomalies car ils contreviennent au principe d’efficience. La sous-évaluation excède en effet largement la prime offerte pour des titres de même niveau de risque. Dans un marché efficient, le cours du titre devrait refléter sa valeur intrinsèque. Le déclin de la rentabilité future des titres introduits ne devrait donc pas être prévisible. Les travaux récents attribuent de plus en plus ces phénomènes boursiers à ce qui se passe sur le marché de l’information. Ils les rendent compatibles avec l’efficience du marché. En premier lieu, les grappes d’introduction peuvent être attribuées à l’inégale répartition des informations au cours du temps. Les périodes où les introductions sont nombreuses correspondraient à des périodes riches en information (Van Bommel et al., 2001) ; Subrahmanyam et Titman, 1999 ; Lowry et Schwert, 2002). En deuxième lieu, la manipulation des résultats par le dirigeant au moment de l’introduction expliquerait le déclin subséquent des performances boursières. Teoh et al. (1998a et b) montrent que les dirigeants gèrent à la hausse les résultats publiés avant l’introduction. Ils espèrent ainsi augmenter le prix d’offre et les performances futures anticipées par les investisseurs. Le marché est dupe initialement. Mais il corrige son excès d’optimisme sur le long terme et sanctionne la société. En troisième lieu, les asymétries d’information expliqueraient la sous-évaluation du prix d’offre. Deux approches peuvent être distinguées. 1. Dans les modèles d’asymétrie, la sous-évaluation permet simplement d’éviter les effets pervers liés aux asymétries entre les investisseurs. Mais elle ne réduit pas le niveau des asymétries. Elle se résume à des dommages et intérêts, garantissant le succès de l’opération (Welch, 1992), et à terme le bon fonctionnement du marché primaire (Rock, 1986). Pour Welch, surévaluer le prix d’offre est risqué, compte tenu du comportement mimétique des investisseurs. Chaque individu s’intéresse aux croyances des autres acteurs. S’il pense que les autres investisseurs estiment le prix d’offre surévalué, il n’acquiert pas de titres. Les autres font de même, conduisant ainsi à l’échec de l’opération. Pour Orléan (1999, p. 58 à 122), ces comportements procèdent d’une «rationalité autoréférentielle». À l’appui de cette thèse, Amihud et al. (2001), montrent que rares sont les opérations moyennement souscrites. L’introduction est soit largement sur-souscrite, soit très faiblement souscrite. Chapitre 1 33 Rock évoque la «malédiction du vainqueur». Si le prix d’offre est trop élevé, seuls les investisseurs non informés souscrivent. Leur demande de titres sous-évalués est par contre rationnée car concurrencée par celle des investisseurs informés. Ils risquent aussi de ne plus participer aux opérations d’introduction. Or les seuls capitaux des investisseurs informés ne peuvent satisfaire les besoins des entreprises. Afin de dédommager et de retenir sur le marché les investisseurs les moins bien informés, la société doit accepter de sous-évaluer ses titres (voir le modèle de Rock, 1986 et son test empirique sur le marché français par Faugeron-Crouzet, 1997). 2. Au contraire, dans les modèles de signal et de collecte de l’information privée, la sous-évaluation contribue à enrichir l’environnement informationnel. Dans les modèles de signal, la sous-évaluation a en elle-même une valeur informative. La société est mieux informée de ses perspectives de rentabilité que les investisseurs. La sous-évaluation permet à la société de révéler sa qualité aux investisseurs et de résoudre le problème de sélection adverse. Son coût est compensé lors d’une émission ultérieure d’actions (Welch, 1989) ou de la réaction favorable du marché à l’annonce d’une distribution de dividendes (Allen et Faulhaber, 1989). L’hypothèse d’une signalisation par la sous-évaluation semble mieux vérifiée sur le marché français (Faugeron-Crouzet et Ginglinger, 2001) que dans les autres pays (Jegadeesh et al., 1993 ; Spiess et Pettway, 1997 par exemple). La sous-évaluation est elle-même une information pour le marché. Elle est un signal de qualité. La sous-évaluation peut enfin être assimilée à un mécanisme incitatif, amenant les participants à révéler leurs préférences et leurs informations privées. Dans les modèles de Benveniste et Spindt (1989), Benveniste et Wilhem (1990), Spatt et Srivastava (1991), la sous-évaluation s’explique par les asymétries d’information entre la banque introductrice et les investisseurs. L’introducteur ignore la demande potentielle de titres. Il va aussi sonder les investisseurs lors des road shows. En contrepartie de leurs intentions d’achat, il leur promet des titres sousévalués et alloués en priorité. Plusieurs études empiriques accréditent l’hypothèse d’une collecte de l’information privée. Selon Hanley (1993), la banque n’ajuste que partiellement le prix d’introduction à la de- 34 Chapitre 1 mande de titres. Lee et al. (1999), Cornelli et Goldreich (2001) montrent que les investisseurs informés se voient allouer de manière préférentielle plus de titres. Les producteurs d’information sont également les principaux intervenants en bourse. Nous avons montré qu’ils gagneraient à la production d’information de qualité et à une meilleure diffusion des informations, sur le marché de l’information comme sur le marché financier. Pourtant, au moment d’une introduction, les informations disponibles semblent de mauvaise qualité et les asymétries patentes. Le premier objectif de notre recherche est d’expliquer ce paradoxe. Pourquoi l’information sur la société introduite est-elle imprécise et biaisée, malgré le gain général à la qualité de l’information ? L’analyse de cette première question devrait permettre de mieux comprendre comment sont produites les informations sur l’émetteur, et ce qui détermine leur qualité. Elle amène ensuite une seconde interrogation : comment enrichir l’environnement informationnel d’une introduction en bourse ? Nous envisagerons quelques solutions existantes et évaluerons leur efficacité. 1.3 Le protocole de recherche Nous avons abordé notre problème de recherche principalement de manière déductive. Aussi précisons-nous les choix théoriques puis empiriques effectués. 1.3.1 Les choix théoriques Nous présentons les cadres conceptuels retenus pour répondre à nos questions de recherche. La théorie de l’efficience des marchés Nous admettons, d’une manière générale, l’efficience semi-forte des marchés (Fama, 1970, p. 383). Autrement dit, le cours d’un titre à la date t reflète toutes les informations publiquement disponibles. Toutefois, l’information publique disponible sur le candidat à l’introduction est plus rare, plus inégalement répartie et de moins bonne qualité que sur une société cotée. Les cours sont moins informatifs car ils agrègent moins d’informations ou de moins bonne qualité, ceteris paribus. Les coûts de transaction, de production et de collecte de l’information ne sont pas nuls. L’ef- Chapitre 1 35 ficience du marché primaire est donc naturellement plus limitée que celle du marché secondaire. Pour autant, sa forme semi-forte ne peut être rejetée. La rationalité des producteurs d’information et leur complémentarité s’ensuivent de l’efficience présumée du marché. Dans la littérature, l’optimisme excessif des analystes (Affleck-Graves et al., 1990 ; DeBondt et Thaler, 1990) et du dirigeant (Kahneman et Tversky, 1973 ; Weinstein, 1980) est parfois imputé à un biais cognitif non intentionnel. Cet argument est incompatible avec l’efficience du marché. En outre, il ne rend pas compte du pessimisme également observé empiriquement. Enfin, il fait apparaı̂tre la production d’information comme le fruit de déterminants exogènes ou inconscients. Nous la considérons au contraire comme une décision stratégique. La société émettrice comme les analystes sont supposés agir de manière cohérente par rapport aux informations qu’ils reçoivent. Leurs informations ne sont pas redondantes. Les prévisions du dirigeant et des analystes ne sont pas des substituts parfaits (Gonedes et al., 1976). Certes, les pouvoirs publics pourraient encourager la société à publier plus d’information, afin de dissuader la recherche privée d’informations. D’après Hakansson (1977), cette solution est socialement plus équitable mais moins efficace. Certains travaux empiriques confortent également le rôle complémentaire supposé de la société et des analystes. Sur le marché américain, Lang et Lundholm (1996) ou Healy et alii (1999) montrent que plus une société publie d’informations et plus nombreux sont les analystes à la suivre. Sur le plan macro-économique, Shleifer et Vishny (1997), La Porta et al. (1998) et Bushman et al. (2001) avancent que l’efficience des marchés dépend du fonctionnement transparent des sociétés. Les informations publiées par la société et les analystes participent de cette transparence. L’explication de la qualité des informations publiées Pour rendre compte du paradoxe décrit précédemment, nous avançons la proposition suivante. Les pressions subies par le dirigeant et les analystes expliquent, entre autres, la qualité de leur offre d’information. La théorie positive de l’agence ou des mandats (TPA) étaye notre hypothèse. Nous évoquons dans un premier temps ses principaux éléments, appliqués à notre problématique. Nous nous appuyons sur les articles fondateurs de Jensen et Meckling (1976), Jensen (1983), Fama et Jensen (1983a, 1983b). Nous analysons dans un second temps la qualité des prévisions publiées à la 36 Chapitre 1 lumière de cette théorie. Les composantes de la théorie des mandats sont tout d’abord développées. Expliquer la qualité de l’information publiée dans la perspective de la TPA nécessite de partir des comportements individuels. Sont pris en compte les individus dont les informations produites par le dirigeant ou les analystes affectent le bien-être. Ces individus sont qualifiés de «parties prenantes». La communication financière du dirigeant concerne les partenaires internes (salariés, actionnaires...) et externes (fournisseurs, banques...) de l’entreprise. Les informations produites par les analystes intéressent leur employeur (banque ou entreprise d’investissement), la société évaluée et les investisseurs. Sont ensuite identifiées, parmi toutes les parties prenantes, celles liées aux producteurs d’information par un contrat d’agence. Les autres subissent les effets des décisions prises, sans avoir pris part aux contrats. Une relation d’agence ou de mandat s’établit entre deux individus si l’un d’eux, l’agent ou le mandataire, accomplit une tâche pour un tiers par délégation de l’autre, le principal ou le mandant (Jensen et Meckling, 1976). Les relations d’agence apparaissent ainsi chaque fois que les facteurs de production ne sont pas mis en oeuvre par leurs propriétaires. Les actionnaires apportent leur capital au dirigeant qui, en contrepartie, met ses qualités de gestionnaire à leur disposition. De même, le créancier délègue au débiteur la mise en valeur de son capital. Les relations entre les actionnaires et le dirigeant d’une part, les actionnaires/dirigeant et les créanciers d’autre part, peuvent donc être qualifiées de relations d’agence. Le contrat de travail entre l’analyste sell-side et son employeur entre également dans ce cadre. L’établissement financier (le principal) recourt aux services d’un analyste (l’agent) pour conseiller en son nom les investisseurs (les tiers). Il lui délègue pour ce faire une partie de son pouvoir décisionnel. Enfin, des contrats d’agence lient la société émettrice respectivement à la banque introductrice et à l’entreprise d’investissement. L’introducteur est mandaté pour préparer et réaliser l’introduction en bourse ; l’entreprise d’investissement, pour rédiger une étude financière et animer le marché secondaire des titres. Les parties aux contrats sont souvent inégalement informées. Leurs intérêts peuvent également diverger. Les relations d’agence deviennent alors conflic- Chapitre 1 37 tuelles. L’introduction en bourse peut être l’occasion pour le dirigeant de s’approprier une partie de la valeur de l’entreprise au détriment des actionnaires. En effet, l’introduction en bourse sépare souvent les fonctions de propriété et de décision au sein de l’entreprise. Cette séparation confère au dirigeant un avantage informationnel sur les actionnaires. Les conflits entre actionnaires et dirigeant naissent de l’incomplétude de l’information. Les actionnaires craignent que le dirigeant prenne des décisions contraires à leurs intérêts (investissements sous-optimaux, dépenses somptuaires, rémunération excessive...). Suite à l’introduction, le groupe actionnaires/dirigeant peut prendre des décisions préjudiciables aux créanciers. Les fonds levés peuvent être, ex post, investis de manière sous-optimale (Myers, 1977) ou versés sous forme de dividendes, contrairement à ce qu’anticipaient ex ante les créanciers. Des désaccords peuvent survenir entre l’analyste et son employeur. Le principal peut inciter l’agent à évaluer favorablement une société qui représente un client effectif ou potentiel. La partialité compromet la réputation de l’analyste, en théorie mandaté dans l’intérêt des tiers-investisseurs. Les conflits d’intérêts ne profitent véritablement à aucune des parties. Par exemple, le marché tient compte de l’éventuel comportement opportuniste du dirigeant lorsqu’il évalue la société. Le risque de prélèvements discrétionnaires influence à la baisse les cours. La moindre valeur boursière de la société affecte les actionnaires comme le dirigeant (Jensen et Meckling, 1976). Principal et agent gagnent donc à coopérer. Ils instituent des mécanismes disciplinaires afin d’éviter de préjudiciables transferts de valeur. Mais ces mécanismes induisent des coûts dits d’agence, de trois sortes. Le principal engage des coûts de contrôle, pour empêcher les comportements opportunistes de l’agent. L’agent lui supporte des coûts de dédouannement car il doit convaincre le mandant qu’il oeuvre dans son intérêt. Enfin, l’impossible contrôle total des activités de l’agent génère des coûts résiduels. Le dirigeant et les analystes cherchent donc le moyen le moins coûteux de réconcilier les intérêts des diverses parties prenantes. Nous supposons qu’ils peuvent prévenir les conflits au travers leur offre d’informations. Le rôle théorique de l’offre d’informations des agents Nous envisageons la qualité des prévisions publiées comme un outil de gestion des relations d’agence. Les producteurs d’information sont supposés rationnels. Ils fixeraient délibérément la qualité des informations publiées, de sorte à satisfaire les intérêts des diverses parties prenantes et à prévenir les conflits. Le choix de la qualité des informations diffusées procède d’un proces- 38 Chapitre 1 sus d’équilibrage entre intérêts divergents. Les intérêts des parties prenantes détermineraient l’offre d’information des analystes et du dirigeant. La qualité de l’information publiée répond à une obligation contractuelle, dans la théorie des mandats. Elle peut également résulter d’une activité de signalisation. L’amélioration de l’information diffusée Au moment d’une introduction, les investisseurs sont imparfaitement informés. Ils ne peuvent donc correctement évaluer les titres introduits. Divers mécanismes, de marché ou normatifs, permettent de réduire les asymétries d’information entre les investisseurs et l’émetteur. L’auto-régulation consiste à laisser au marché l’initiative d’améliorer la qualité de l’information. En réponse à notre deuxième question de recherche, nous suggérons que les prévisions publiées volontairement par le dirigeant signalent aux investisseurs la qualité de l’introduction. La théorie des signaux dote notre proposition d’un cadre théorique. Elle précise pourquoi et à quelles conditions la diffusion volontaire de prévisions est informative. En diffusant volontairement des prévisions, le dirigeant fait part aux investisseurs de ses anticipations sur le devenir de l’entreprise. Par ailleurs, le signal émis est crédible si les dirigeants des entreprises non performantes ne sont pas incités à faire croire le contraire (Spence, 1974 et Riley, 1975). L’émission du signal doit tout d’abord être coûteuse. Le coût de l’activité de signalisation décroı̂t avec la qualité de la société. Les faux signaux doivent ensuite être pénalisés. La valeur signalée ex ante doit enfin pouvoir être vérifiée ex post. La théorie du signal n’intègre pas les conflits entre les parties prenantes. Pour autant, elle n’aboutit pas à des prédictions contradictoires à celles déduites de la théorie de l’agence. La diffusion d’information permettrait soit de prévenir les conflits d’agence dans le modèle d’agence, soit de révéler les véritables caractéristiques de l’introduction dans les modèles de signal. Elle réduirait les asymétries d’information dont pâtissent les ayants droit internes et externes dans le modèle d’agence, externes dans les modèles du signal. Les deux approches participent d’un même courant non unifié, la théorie de Chapitre 1 39 l’information. Deux catégories d’agents sont libres de publier ou non des prévisions sur le candidat à l’introduction : les dirigeants des sociétés introduites sur le Second Marché d’une part ; les analystes dont l’employeur n’appartient pas au syndicat de placement d’autre part. L’alternative suivante s’offre donc au dirigeant. Soit il publie lui-même volontairement des prévisions dans le prospectus, s’il introduit sa société sur le Second Marché. Soit il incite les analystes à produire des estimations sur sa société. Dans un premier temps, nous nous intéressons aux prévisions publiées volontairement par le dirigeant dans le prospectus. Cet acte de publication vérifie tout d’abord les conditions de signaling. En premier lieu, il est coûteux car il requiert un système d’information interne de qualité et peut générer des externalités négatives. Le dirigeant qui publie des prévisions inexactes compromet également sa réputation. En second lieu, les firmes non performantes sont dissuadées d’émettre de fausses prévisions, par crainte d’une sanction boursière. Enfin la fiabilité des prévisions peut bien être contrôlée ex post lors de la publication des réalisations. La publication, par le dirigeant, de prévision de qualité témoigne de sa capacité à anticiper les changements de l’environnement économique et à y répondre (Trueman, 1986). Selon l’hypothèse de signalisation, elle devrait réduire l’incertitude des investisseurs et le coût du capital. En conséquence, l’acte volontaire de publication et la qualité des estimations publiées sont supposés informatifs pour le marché. La société améliorerait son environnement informationnel en publiant volontairement des prévisions de qualité. Nous étudierons en particulier l’influence de l’acte volontaire de publication et la qualité des estimations publiées sur l’évaluation des titres émis. Si la publication volontaire de prévision est un signal efficace, elle devrait limiter la sous-évaluation du prix d’offre. Dans un second temps, nous supposons que le dirigeant confie aux analystes le soin de révéler la qualité de sa société. Il considère que ses prévisions divulguées librement sont moins crédibles, au regard des investisseurs, que celles établies par des analystes externes. Il incite les analystes à produire des informations sur sa société en sous-évaluant le prix d’offre. Les analystes émettent donc le signal. Mais les anciens actionnaires assument le coût de la signalisation, à travers la sous-évaluation. La sous-évaluation est coûteuse car elle limite le produit de la cession des titres et de l’opération. Nous émettons donc la conjecture suivante, dans le cadre de la théorie du signal : la société améliorerait son environnement informationnel en encourageant les analystes 40 Chapitre 1 à produire des informations pertinentes sur la société. Nous analyserons notamment la relation entre les performances futures et les informations produites par les analystes. Si ces dernières sont un signal efficace, on peut s’attendre à ce que les sociétés les plus suivies par les analystes soient les plus performantes à long terme, toutes choses égales par ailleurs. Dans le cadre de notre thèse, les investisseurs sont supposés inférer la qualité de l’introduction à partir de la publication volontaire de prévisions par le dirigeant, ou de l’intérêt des analystes pour la société. Dans les deux cas, la société initie le processus de signalisation. Elle agit sur son environnement informationnel, soit en publiant des informations au-delà des exigences légales, soit en incitant les analystes à produire des informations sur elle. Après la période étudiée dans le cadre de cette thèse, les prestataires de services d’investissement ont également pris des initiatives individuelles en matière de qualité de l’information. Ils ont élaboré un code professionnel17 en 2002. Ils y fixent la nature et la qualité des diligences à effectuer lorsqu’ils participent à une opération financière. Ils s’appuient sur divers documents remis par la société et détaillés dans l’annexe 1 du code, ainsi que sur des entretiens avec les principaux responsables de la société. L’annexe 2 du code précise les thèmes à aborder au cours des entretiens. Le Prestataire ne vérifie pas l’exhaustivité, la véracité et la sincérité des informations écrites et orales collectées. Par contre, il contrôle leur cohérence entre elles et avec les autres informations publiques. Il examine également si le prospectus contient les informations essentielles concernant la société, notamment l’exposé des risques significatifs. Il n’a pas à juger de la probabilité de réalisation des prévisions. Mais il doit s’assurer que ces prévisions sont cohérentes avec les performances passées et la situation actuelle de la société. Au terme de ces diligences et avant la délivrance du visa, le Prestataire remet une attestation écrite à la COB. Il y confirme que le prospectus ne présente aucune inexactitude ou omission significative de nature à fausser le jugement de l’investisseur. Les améliorations de l’environnement informationnel des introductions en bourse peuvent donc relever d’initiatives privées. Mais en France, elles sont avant tout impulsées et mises en place par un autre acteur, le normalisateur. 17 Code professionnel FBF/AFEI relatif aux diligences à effectuer par les prestataires de services d’investissement participant à une opération financière Chapitre 1 41 La réglementation de l’information est envisagée au regard de ses fondements, ses organes, son contenu et son efficacité. • Les fondements de la réglementation de l’information Les limites de l’auto-régulation, les externalités négatives liées à la production d’information et les défaillances du marché justifient la réglementation de l’information. Premièrement, l’auto-régulation peut se révéler insuffisante. Jusqu’à présent, le règlement intérieur de chaque établissement financier comportait des dispositions relatives à la déontologie des opérations financières. Elles n’ont pas empêché la survenance de conflits d’intérêts. Certes la déontologie exige d’un analyste qu’il oeuvre dans l’intérêt des investisseurs. Il doit donc évaluer objectivement l’émetteur. En même temps, il doit entretenir de bonnes relations avec la société s’il veut obtenir les informations utiles à son analyse. Cette société peut en plus être en relation d’affaires avec la banque de l’établissement. L’indépendance d’esprit est donc difficile, en l’absence d’une régulation ad hoc. Deuxièmement, l’information comptable et financière ayant la nature d’un bien public (Leftwich, 1980 ; Watts et Zimmerman, 1986) risque d’être insuffisamment produite sans intervention étatique. Par exemple, les informations contenues dans le dossier d’introduction peuvent être considérées comme des biens publics. Elles sont collectives, c’est-à-dire accessibles à tous les utilisateurs potentiels ; gratuites et à consommation facultative. Leur publication est source d’externalités18 négatives. En effet, les actionnaires supportent seuls le coût des informations produites dont bénéficient tous les utilisateurs. Ils peuvent donc être enclins à produire moins que ce qui serait souhaitable du point de vue collectif. Les informations publiées peuvent encore affaiblir la position concurrentielle et commerciale de l’entreprise (Dye, 1990 ; Verrecchia, 1990 ; Wagenhofer, 1990). Elles peuvent également être sources de coûts politiques et médiatiques (Watts et Zimmerman, 1986). La réglementation permet de résoudre le problème lié aux externalités. D’autres solutions sont théoriquement envisageables, mais en pratique irréalisables (Jacquillat et Levasseur, 1984). 18 Nous reprenons la définition de Foster (1980), telle que Jacquillat et Levasseur l’énoncent dans leur article de 1984. «On dira qu’existe une externalité quand l’utilité d’un individu m (Um ) est fonction non seulement du choix de ses actions (am) et de l’état de nature (Sn), mais aussi des choix d’actions exercées par les individus x, y, ..., c’est-à-dire quand : Um (p(sn, am)) 6= Um (p(sn, am, ax, ay, ...)) ». 42 Chapitre 1 La première suppose d’échanger les informations sur un marché contre paiement. Cette solution défavorise les investisseurs les moins riches. En outre, les asymétries d’information entre l’offre et la demande, ainsi que la possibilité de revendre parallèlement l’information - bien infiniment reproductible - compromettent la viabilité à terme d’un tel marché. La seconde solution est fiscale. La menace d’une pénalité fiscale obligerait les producteurs d’information à faire des choix efficients. Toutefois, fixer une taxe proportionnelle à la mauvaise qualité ou l’insuffisante quantité des informations produites est une tâche difficile. La troisième solution passe par des accords de regroupement. Les sociétés d’un même secteur décideraient, d’un commun accord, de publier des informations les concernant. En réalité, l’organisation d’entente est coûteuse et difficile. Troisièmement, l’État réglemente l’information financière afin de pallier les imperfections du marché. Ainsi, l’asymétrie dans la répartition des informations a des effets sociaux négatifs. Elle appelle donc des règles régulatrices. Par exemple, la COB a voulu empêcher que la banque ne diffuse sélectivement des informations aux investisseurs, et la société aux analystes. En conséquence, elle a enjoint les banques introductrices d’inclure une analyse financière gratuite dans le dossier d’introduction. Parallèlement, elle a demandé aux émetteurs de publier dans le prospectus toutes les informations communiquées aux analystes (bulletin mensuel de la COB, octobre 2000). Autre exemple, Bolliger (2001) montre que le marché du travail n’incite pas les analystes à un effort de précision dans leurs estimations. En effet : en publiant des prévisions exactes, un analyste n’augmente pas ses chances d’être engagé par une maison de courtage prestigieuse. Ces arguments justifiant la réglementation des informations restent théoriques. Ils n’ont jamais été réellement testés empiriquement (Healy et Palepu, 2000, page 10). En France, l’appel public à l’épargne est l’un des moments où l’information financière est la plus encadrée. • La nature de l’intervention de l’État En France, l’État réglemente l’information moins via le législateur que le régulateur. La diffusion d’une information de qualité relève d’une obligation légale. La loi du 24 juillet 1966 organise le contrôle des comptes publiés par les sociétés de capitaux. L’article 467 rappelle que la publication de renseignements faux Chapitre 1 43 ou inexacts dans le prospectus est puni des peines prévues à l’article 405 du Code pénal. Toutefois en France, le législateur est rarement l’initiateur en matière de gouvernement d’entreprise19 . Il impose ce que la pratique ne parvient à mettre en oeuvre. Il protège, à des degrés variables, des intérêts spécifiques comme ceux des minoritaires, des salariés ou certains intérêts nationaux. Il entérine surtout les principes dégagés par la place ou le régulateur. Ainsi, le Gouvernement examine actuellement l’opportunité de légaliser certaines des recommandations du rapport Bouton. L’indépendance des producteurs d’information et la transparence de l’information publiée ne se décrètent pas. Pour être effectives, elles supposent de modifier les comportements des producteurs d’information. Elles ne peuvent être imposées d’en haut. Le législateur laisse donc agir en premier rang des institutions plus proches des acteurs : le Conseil des marchés financiers et la Commission des opérations de bourse. Le Conseil des marchés financiers a peu à peu encadré l’activité des analystes, de sorte à préserver leur objectivité. Nous résumons les principales mesures relatives aux introductions en bourse, contenues dans le titre III du règlement général et la décision no 2002-01 du CMF. Désormais, les analystes ne peuvent acheter ou vendre, pour leur propre compte, les titres de la société introduite. Ils doivent mentionner sur leur rapport si ce dernier résulte d’un contrat passé entre l’émetteur et le prestataire, si l’émetteur l’a relu ou si le prestataire participe au capital de l’entreprise suivie. Ils ne peuvent percevoir de rémunération spécifique lorsqu’ils participent à l’opération d’introduction. La production et la diffusion des analyses financières sont placées sous l’autorité d’un responsable. Chaque prestataire doit instituer des procédures dites de «Muraille de Chine» séparant les différentes activités susceptibles de générer des conflits d’intérêts. Le règlement intérieur doit également prévoir les circonstances et conséquences du franchissement de la Muraille. Le responsable de l’analyse financière et le déontologue doivent donner leur accord. L’analyste qui a passé la Muraille ne retrouve ses fonctions antérieures qu’avec l’aval du déontologue. Les analyses financières ponctuelles publiées à l’occasion d’une introduction sont interdites, à moins que l’analyste ne continue à suivre l’émetteur pen19 Le gouvernement d’entreprise désigne l’ensemble des dispositifs organisant et contrôlant l’exercice du pouvoir dans l’entreprise. La qualité de l’information publiée constitue un principe de bonne gouvernance. 44 Chapitre 1 dant une période raisonnable après l’introduction. Les départements internes du prestataire ne peuvent bénéficier en priorité des études et recommandations des analystes. La réglementation des comportements au sein des établissements financiers devrait rendre plus aisée l’objectivation des conflits d’intérêts pour les chercheurs. En effet, «un phénomène social se laisse d’autant mieux objectiver qu’il l’est déjà dans le monde social» (Héran, 1984). La COB ne se contente pas de contrôler l’information publiée par l’émetteur. Elle réglemente également le contenu du prospectus. Les informations à publier dans le prospectus sont celles «nécessaires aux investisseurs pour fonder leur jugement sur le patrimoine, l’activité, la situation financière, les résultats et les perspectives de l’émetteur, ainsi que sur les droits attachés aux instruments financiers offerts» (règlement n0 98-01). Elles sont définies dans le règlement n0 98-01 et l’instruction de mars 2001 pour une introduction sur le Nouveau Marché ; le règlement n0 95-01 et l’instruction d’application de novembre 1996 pour une introduction sur le Second Marché. Concernant l’opération, sont mentionnés le nombre et la nature des titres offerts, le calendrier de l’opération, la date prévue de cotation des titres, les éléments d’appréciation du prix et la procédure d’introduction. Concernant la société sont spécifiés son statut juridique (forme, objet social etc) ; la structure de son actionnariat (répartition du capital et des droits de vote entre les différents actionnaires, évolution du capital etc) ; son activité économique ; ses comptes sociaux et éventuellement consolidés ; les faits exceptionnels et litiges susceptibles d’affecter l’activité, le patrimoine ou les résultats de la société. S’y ajoutent, pour une admission au Nouveau Marché, la description des différents facteurs de risque et un projet de développement stratégique à trois ans. Suite à la loi sur les nouvelles régulations économiques du 15 mai 2001, la COB a complété les schémas du prospectus (bulletin mensuel janvier 2002). Doivent désormais figurer une information individualisée sur la rémunération des dirigeants, les attributions et levées de stock options. • L’efficacité de la réglementation des informations La recherche théorique et empirique a contesté l’efficacité des réglementations (voir Jordan, 1972 pour une revue). Selon Posner (1974), les entreprises privées finissent par contrôler l’institution chargée de concevoir et d’appliquer la réglementation. Ils l’utilisent dans leur intérêt. Stigler (1964a et b) tente de montrer empiriquement que la réglementation de la SEC en 1933 n’est Chapitre 1 45 pas bénéfique aux investisseurs. Mais les preuves à l’appui de l’inefficacité de la réglementation restent rares et peu convaincantes (Healy et Palepu, 2001). Les méthodologies employées manqueraient de rigueur. En France, la littérature reconnaı̂t l’action efficace de la COB en matière de qualité de l’information diffusée. Nous chercherons à comprendre les raisons de cette efficacité. Pourquoi la COB est-t-elle parvenue à imposer ses exigences informationnelles aux candidats à l’introduction ? Nous aborderons cette question de manière inductive. La réalisation de l’étude de cas et la vérification de nos hypothèses ont nécessité une collecte de données. 1.3.2 Les choix empiriques La validité de la recherche dépend, entre autres, de la fiabilité des données et de la représentativité des résultats. En conséquence, nous précisons dans un premier temps l’origine des données. Dans un second temps, nous présentons l’échantillon global, à partir du plus grand nombre d’observations disponibles pour chaque variable. L’origine des données Les données utilisées dans la partie empirique proviennent essentiellement des dossiers d’introduction, d’ABC Bourse et d’I/B/E/S. Les dossiers d’introduction ont représenté une source essentielle d’information. Entre 1994 et 2000, 256 sociétés se sont introduites sur le Second Marché et 165 sur le Nouveau Marché. 326 dossiers d’introduction ont été consultés au centre de documentation de la COB ou demandés par courrier pour le Nouveau Marché. Mais seulement 295 étaient complets, c’est-à-dire comprenant le prospectus définitif et l’analyse financière. Dans l’étude financière jointe au prospectus, nous avons relevé les prévisions de BPA à l’horizon d’un et deux ans, ainsi que le nom de la société de bourse. La note d’information définitive nous a permis de caractériser l’émetteur et l’émission. Elle est scindée en six ou sept chapitres. Le chapitre 1 indique 46 Chapitre 1 les responsables du prospectus. Il contient également les attestations du dirigeant, des contrôleurs légaux et de l’introducteur. Le chapitre 2 renseigne sur l’opération ; le chapitre 3, sur l’émetteur et son capital. Le chapitre 4 porte sur l’activité de l’émetteur. Le chapitre 5 reprend les derniers comptes sociaux et/ou consolidés. Le chapitre 6 traite de la composition, de la rémunération et des avantages des organes de direction. Il précise également les éventuelles mesures d’intéressement du personnel. Enfin, le chapitre 7 évoque les perspectives d’avenir de l’entreprise. Le tableau 1.4 récapitule les informations extraites des différents chapitres. Chapitre Chapitre 1 Chapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 (comptes consolidés exercice précédant l’introduction) Chapitre 7 Données extraites Noms de l’introducteur et du commissaire aux comptes Montant introduit secteur d’activité buts de l’introduction procédure d’introduction date prévue de l’introduction prix d’offre définitif flottant en % et en nombre de titres nombre de titres nouveaux émis % du capital du dirigeant et des investisseurs institutionnel après l’introduction nombre de titres composant le capital avant et après I.B. date de création historique de la société montant des investissements prévus à un an dettes financières et d’exploitation immobilisations corporelles total bilan résultat net chiffre d’affaires chiffres d’affaires à l’export prévisions de BPA à un et deux ans Tab. 1.4 – Données extraites de la note d’information Des données boursières étaient également nécessaires. Nous avons acquis auprès d’ABC Bourse Ltd, un cédérom comprenant toutes les cotations quotidiennes des valeurs et indices français depuis 1990. Créée en 1999, ABC Bourse est une société indépendante spécialisée dans l’information financière. Elle compile les cours fournis par Euronext Paris. Elle réajuste deux fois par mois, les valeurs historiques des éventuelles divisions du nominal et autres opérations sur titres. Pour chaque titre ou indice Chapitre 1 47 sont indiqués le code sicovam, la date de cotation, le cours d’ouverture, le cours le plus haut et le plus bas, le cours de clôture et le volume de titres traité. À partir de cette base, nous avons calculé les performances boursières des sociétés introduites, ainsi que le nombre de titres moyen échangés les vingt-cinq premiers jours de cotation. La base d’I/B/E/S a fourni le matériau de nos études empiriques. Cette base comprend les estimations des analystes afférentes au marché américain depuis 1976, et aux marchés étrangers depuis 1987. En contrepartie de leurs prévisions et révisions, les analystes accèdent gratuitement aux données de consensus sur le marché suivi. Pour réaliser nos études empiriques, nous avons extrait et traité certaines informations des bases d’I/B/E/S au 1er janvier 2001 : les prévisions individuelles et consensuelles des analystes, le nombre d’analystes suivant les sociétés introduites, le nombre d’estimations publiées dans l’intervalle [-6 mois, +12 mois] entourant l’introduction, les dates des premières et dernières estimations diffusées sur les sociétés introduites. Nous avons calculé les erreurs de prévision à partir des réalisations de BPA fournies par I/B/E/S. Cet organisme contrôle la cohérence comptable des bénéfices réels et des bénéfices prévus par les analystes financiers. Il veille également à ce que les ratios BPA prennent en compte le même nombre de titres (Philbrick et Ricks, 1991 ; Levasseur et al., 1999). Ces vérifications rendent fiable la comparaison des prévisions avec les réalisations. La recherche empirique sur la qualité des estimations des analystes a exploité d’autres bases de données. Fried et Givoly (1982) ont utilisé Standard and Poor’s Earnings Forecaster ; Brown et al. (1987), Value Line quaterly forecasts ; Brown (1991), Zacks Investment Research Data ; Grandin (1995), la base d’Associés en Finance. Dans le contexte d’une introduction en bourse, les auteurs évaluent la capacité prédictive des analystes principalement à partir des bases d’I/B/E/S (voir le tableau 1.5). Nous présentons brièvement le contenu de la base d’I/B/E/S et ses limites. La Detailed History Data Base contient les prévisions individuelles des analystes. Elle s’organise en plusieurs fichiers. 48 Chapitre 1 Auteurs Degeorge et Derrien (2001) Chahine (2001) Rajan et Servaes (1997) Sources document d’information I/B/E/S Jacques Chahine Finance SA I/B/E/S Nature des prévisions prévisions individuelles prévisions individuelles prévisions consensuelles prévisions consensuelles Tab. 1.5 – Origines des prévisions des analystes dans la littérature deffili.int comprend les estimations des analystes financiers. Les codes de la société évaluée, de l’analyste-producteur et de son employeur caractérisent chaque prévision. Suivent ensuite la date d’entrée de la prévision dans la base puis la date jusqu’à laquelle l’analyste financier a maintenu son estimation. Sont encore indiqués la devise dans laquelle l’estimation a été diffusée, l’horizon de prévision et son objet (bénéfice par action, dividende par action, taux de croissance à long terme des résultats). idfili.int est le fichier des sociétés suivies. Il mentionne le code de la société dans I/B/E/S, sa raison sociale, son secteur d’activité et la date d’entrée dans ce secteur, le facteur de dilution. branfili.int contient les noms et les codes des maisons de courtage et des analystes. actfili.int donne, pour chaque société, ses réalisations de BPA, de dividendes et de taux de croissance. curfili.int précise les taux de change des devises. La notice I/B/E/S Detailed History, a guide to analyst-by-analyst historical earnings database, U.S. Edition spécifie le format de lecture de toutes ces informations. La Summary History Data Base comprend les estimations consensuelles. Pour chaque société, I/B/E/S calcule la moyenne des prévisions des analystes à l’horizon N le troisième mercredi de chaque mois. Le consensus obtenu est disponible la semaine suivante. Aux États-Unis, les praticiens utilisent le consensus d’I/B/E/S comme reflet des anticipations du marché, ou pour jauger la capacité prédictive d’un analyste. Plusieurs fichiers regroupent les données de consensus : – hiout1.int comprend les estimations du consensus ; – hiout2.int contient les réalisations de BPA, de DPA, de taux de croissance ; – hiout3.int caractérise les sociétés suivies ; – hiout6.int indique les taux de change des devises. En principe, le consensus est plus informatif que les prévisions indivi- Chapitre 1 49 duelles des analystes. Il élimine en effet les prévisions les plus aberrantes. En outre, il commet les plus faibles erreurs. Il est révisé dès qu’un analyste modifie ses anticipations. L’agrégation d’information réduit encore l’erreur due à l’idiosyncrasie (Ashton et Ashton, 1985). Mais la littérature souligne les limites du consensus d’I/B/E/S. Sur le marché japonais, Conroy et Harris (1995) comparent la base d’I/B/E/S à celle de Toyo Keizai. Ils montrent que le consensus d’I/B/E/S est plus optimiste et inexact que celui de Toyo Keizai. Selon eux, I/B/E/S compile les estimations individuelles sur un mois mais ne vérifie pas si les analystes ont, au cours du mois, révisé leurs estimations. Selon O’Brien (1988) également, le consensus d’I/B/E/S est moins précis que les prévisions individuelles des analystes. Il incluerait des prévisions datant de plus de six mois. Ces limites et la nécessité d’identifier les analystes nous ont conduits à travailler principalement à partir des prévisions individuelles. D’autres sources ont été accessoirement utilisées. Nous avons relevé les dates des augmentations de capital subséquentes à l’introduction, dans la base d’informations financières de la COB. Chaque année, le rapport de la COB indique le nombre total d’introductions réalisées sur les différents marchés. Ces informations nous ont permis d’apprécier l’activité du marché primaire. Pour chaque année de la période étudiée, nous avons déterminé les sociétés de bourse affiliées aux introducteurs à partir de leurs sites internet respectifs. Les échantillons Nous donnons dans le tableau 1.6 quelques statistiques descriptives sur le maximum d’observations disponibles pour les variables utilisées ultérieurement. Les variables précédées d’une étoile sont calculées à partir des derniers états comptables certifiés avant l’introduction en bourse. Nous dressons cidessous la nomenclature des variables non explicites : - L’âge de la société est le nombre d’années séparant son introduction en bourse de sa création. - La taille de la société est approchée par le logarithme népérien de son chiffre d’affaires. - Le PER est le rapport du prix d’offre définitif sur le bénéfice par action de l’année précédant l’introduction. - L’endettement subroge le rapport dettes financières et d’exploitation/total bilan. Chapitre 1 50 Variables Âge * Taille * PER * Invest. prévus / total bilan * Actifs corporels / total bilan * endettement * Chiffre affaires export * Marge nette * Rentabilité financière TCR AD Montant introduit (MF) flottant (%) NbBanques Risque CAPPUB VOL-ECH RIA Raac-3mois Raac-6mois Raac-12mois Raac-24mois Raac-36mois Erreur-dirigeant Erreur-analyste-prospectus Erreur-analyste-CF Erreur-analyste-NCF NAF-NCF NAF-CF Dispersion-NCF Délai-NCF Délai-CF Durée-NCF Durée-CF NEST-NCF NEST-CF Procédures Cotation directe Offre prix ferme Offre prix minimal Placement garanti AMP faible activité forte activité N 295 295 295 295 295 295 205 295 295 295 295 295 295 295 215 301 301 300 285 283 246 189 106 139 164 68 193 194 68 124 247 100 247 100 194 68 Fréquences (sur 308) 0.6% 6.8% 24.4% 63.6% Fréquences (sur 320) 32.2% 67.8% Moyenne 24.7 5.22 -28.4 22.9 29.9 52.0 33.0 4.21 21.8 0.467 53.6 146 24.6 2.13 0.222 914 733 23 869 0.226 0.018 - 0.945 0.035 (1.056) 0.052 (1.040) 0.296 (1.837) 1.21 (1.426) 2.92 (1.524) 1.31 (3.466***) -0.131 (-0.785) 0.494 (3.357***) 3.02 1.03 0.512 180 185 308 462 5.03 1.96 Aug. capital [date intro., + 12 mois] [date intro., + 24 mois] [date intro., + 36 mois] pas d’aug. capital dans les 3 ans Secteur NTIC (=1) Autre (=0) Médiane 13.0 5.09 17.6 10.1 25.8 55.8 27.0 4.90 21.2 0.252 64.0 61.3 21.7 2.00 0.200 397 465 14 705 0.101 -0.015 -0.041 -0.115 -0.265 -0.420 0.013 (2.347**) 0.031 (3.25***) -0.071 (-1.809*) 0.012 (2.225**) 2.00 1.00 0.087 186 194 231 391 3.00 1.00 Fréquences (sur 318) 8.2% 19.8% 23.6% 76.4% Fréquences (sur 314) 79.0% 21.0% Tab. 1.6 – Statistiques descriptives calculées sur le maximum d’observations Écart-type 32.2 1.76 913 29.2 22.2 23.8 30.8 12.9 23.0 9.25 30.1 276 14.2 1.00 0.010 1 500 536 27 000 0.739 0.313 0.556 0.788 2.21 8.70 22.3 4.84 1.38 2.04 2.654 0.170 2.38 89 98 302 450 5.11 1.251 Chapitre 1 51 - AD désigne la part de capital conservée par le dirigeant après l’introduction en bourse. - TCR représente le taux de croissance du résultat net au cours des deux derniers exercices précédents l’introduction. - NbBanques est le nombre de banques participant à l’introduction. - Le risque correspond à l’écart-type de la rentabilité de l’action sur les 200 jours suivant l’introduction en bourse, les 10 premiers jours de cotation exclus. - CAPPUB est le nombre de titres mis à la disposition du public. - VOL-ECH qualifie le volume de titres échangés les 25 premiers jours de cotation. - RIA, rentabilité initiale anormale, se calcule ainsi : RIAi = C c i,t0 Ibc t − c 0 P odi Ib t0 −1 où C c i,t est le cours de clôture du titre i, Ibt celui de l’indice boursier SBF250, P odi le prix d’offre définitif et t0 la date de l’introduction en bourse. - Les prévisions retenues ont pour horizon l’exercice fiscal suivant l’introduction en bourse. Leur émetteur est respectivement le dirigeant (erreurdirigeant), l’entreprise d’investissement spécialiste (erreur-analysteprospectus), les analystes d’I/B/E/S, affiliés au chef de file (erreuranalyste-CF) ou non (erreur-analyste-NCF). Les erreurs de prévision résultent du rapport (BP Aprevu − BP Areel ) / |BP Areel |. Nous rapportons, à côté de l’erreur moyenne (respectivement médiane) et entre parenthèses, la valeur du t (respectivement du Z). L’erreur moyenne ou médiane peut différer significativement de 0 au seuil de 10% (*), 5% (**), 1% (***). - NAF est le nombre d’analystes d’I/B/E/S ayant émis au moins une estimation annuelle dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. - La variable dispersion désigne l’écart-type des estimations des analystes, publiées dans l’intervalle [- 6 mois ; +12 mois] autour de la date d’introduction. L’écart-type est normé par le bénéfice par action réalisé. - La variable délai est déterminée en quatre temps. Tout d’abord, nous identifions les analystes suivant la société considérée dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. Ensuite, nous calculons, pour chaque analyste, le nombre de jours séparant sa première estimation de la date d’introduction. En troisième lieu, nous faisons la moyenne des délais des différents analystes. Chaque société se caractérise donc par un délai moyen de couverture. Nous calculons enfin la moyenne sur l’ensemble des sociétés suivies. - La durée de la couverture s’obtient également en plusieurs étapes. Nous 52 Chapitre 1 décrivons la procédure de calcul pour une société. Nous considérons uniquement les analystes ayant suivi la société dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. Pour chacun de ces analystes, nous connaissons la date de leur première estimation. Nous cherchons alors la date de leur dernière estimation dans les bases d’I/B/E/S, émise moins de 12 mois après l’avant-dernière. Nous calculons le nombre de jours séparant la première estimation de celle qualifiée de dernière. Nous établissons enfin la durée moyenne sur tous les analystes retenus. - NEST est le nombre total d’estimations (révisions comprises), diffusées par les analystes entre [-6 mois, +12 mois] autour de la date d’introduction. - AMP, activité du marché primaire, est égale à 0/1 si la société s’est introduite en période de faible/forte activité du marché primaire. Nous avons comparé les fonds levés sur une période de douze mois encadrant la date d’introduction d’une société, au montant annuel moyen introduit entre 1994 et 2000. La variable AMP vaut 1 si la différence relative à la moyenne est positive ; 0 si elle est négative. - Les variables raac équivalent aux rentabilités anormales achat-conservation. Elles sont calculées dix jours de bourse après le jour de l’introduction, par capitalisation des rentabilités quotidiennes anormales, selon l’expression : raaci τ,T = [ T Y (1 + rai,t )] − 1 t=τ où τ est le nj eme jour après l’introduction en bourse et T le dernier jour de la période d’étude retenue. rai,t est la rentabilité anormale de la société i à la date t. Elle s’obtient par différence entre la rentabilité du titre de la société et une rentabilité normative estimée à partir de l’indice SBF 250 : rai,t = ri,t − rnt Un test paramétrique permet de tester l’hypothèse nulle selon laquelle la rentabilité anormale achat-conservation pour l’ensemble des entreprises de l’échantillon est égale à zéro. Nous indiquons, à côté de la raac moyenne et entre parenthèses, la valeur du t de Student. Nous analysons les statistiques du tableau 1.6, à la lumière des travaux antérieurs. Les caractéristiques exogènes, puis comptables et financières des sociétés de l’échantillon sont tout d’abord présentées. Les sociétés de l’échantillon attendent en moyenne 24 ans avant de s’introduire en bourse. Derrien et Degeorge (2001) rapportent un âge moyen plus faible (18 ans), calculé sur 243 sociétés introduites sur le Nouveau ou Chapitre 1 53 le Second Marché entre 1991 et 1998. Pour le Second Marché uniquement et sur la période 1983-1994, Faugeron-Crouzet obtient un âge moyen de 32 ans. Les entreprises françaises semblent plus âgées au moment de leur introduction que les sociétés américaines (13 ans en moyenne, Ritter, 1991). Toutefois l’écart s’estompe au fil du temps. Sur notre échantillon, les sociétés sont plutôt de petite taille. Elles réalisent un chiffre d’affaires moyen de 257 millions20 de francs l’année précédant leur introduction, bien inférieur aux 640 millions avancés par Faugeron-Crouzet sur la période 1983-1994. Le déficit affiché par certaines sociétés du Nouveau Marché peu avant leur introduction rend compte du signe négatif du PER moyen (-28.4). Le résultat net a augmenté en moyenne de 46% au cours des deux exercices précédents l’introduction. La rentabilité financière moyenne approche les 22%. Les dettes représentent en moyenne 52% de l’actif total, les actifs corporels 30% et les projets d’investissement 23%. Sur l’échantillon de Sentis (2001), les dettes valent 64% de l’actif total. Les sociétés de notre échantillon effectuent en moyenne un tiers de leur activité à l’étranger. Leur marge nette moyenne (bénéfice net/chiffre d’affaires) est faible, de l’ordre de 4%. Nous confirmons la tendance à la baisse mise en évidence par FaugeronCrouzet. Sur son échantillon, la marge nette moyenne s’élève à 12% entre 1983 et 1988, puis elle stagne à 7% entre 1989 et 1994. Sur notre échantillon, les deux tiers des sociétés relèvent de la nouvelle économie. Faugeron-Crouzet soulignait déjà la tertiarisation croissante des sociétés introduites en bourse, au cours des années 80. La structure du capital des sociétés de l’échantillon est ensuite décrite. Malgré l’introduction en bourse, le capital des sociétés semble rester relativement fermé. Les dirigeants conservent en moyenne 54% du capital après l’introduction, tandis que le flottant moyen est de 25%. Selon FaugeronCrouzet (1997), entre 1983 et 1994, les fondateurs détenaient en moyenne 39.56% du capital après l’introduction. Les candidats à l’introduction sur le Second Marché n’offraient en moyenne à la vente que 14% de leur capital. Les caractéristiques des opérations d’introduction sont commentées. 20 Ln(757) = 6.63 et ln(257) = 5.22 54 Chapitre 1 Une société qui s’introduit sur le Nouveau ou le Second Marché lève en moyenne 295 millions de Francs. La tendance semblerait à l’augmentation de la taille des opérations. En effet, sur son échantillon de 321 sociétés introduites sur le Second Marché entre 1983 et 1994, Faugeron-Crouzet évalue en moyenne les émissions des titres à 54 millions de francs, avec un maximum de 356 millions. Sur la période 1994-2000, le placement garanti (PG) et l’offre à prix minimal (OPM) semblent les procédures les plus usitées, à hauteurs respectives de 64% et 24%. Degeorge et Derrien, sur la période 1991-1998, mentionnent des fréquences similaires, de 47% pour le PG et 38% pour l’OPM. Avant 1994, la procédure de placement n’existait pas en France. Les sociétés recouraient, à proportion égale, à la mise en vente, à la procédure ordinaire et à l’offre publique de vente (Faugeron-Crouzet, 1997, page 161). Conformément à la littérature, les sociétés de notre échantillon semblent en majorité choisir une période de forte activité du marché pour s’introduire en bourse. Elles maximiseraient ainsi les chances de réussite de l’opération (Ritter, 1984). En moyenne sur notre échantillon, deux banques organisent l’introduction. Entre 1983 et 1994, 138 des 325 sociétés introduites sur le Second Marché ont mandaté une seule banque (Faugeron-Crouzet, 1997). Aux ÉtatsUnis, trois banques appartiennent en moyenne au syndicat de placement (Das et alii, 2002). 23 869 titres sont échangés en moyenne les 25 premiers jours de cotation. Ce chiffre est à rapporté aux 914 733 titres mis en moyenne à la disposition du public sur notre échantillon, bien supérieurs à l’offre moyenne de 202 548 titres observée par Faugeron-Crouzet (1997) sur le Second Marché entre 1983 et 1994. Les performances boursières à court terme puis à long terme, des sociétés de l’échantillon retiennent maintenant notre attention. Sur notre échantillon, la rentabilité initiale anormale s’élève à 22%. Elle est comparable à celle obtenue par Derrien et Degeorge, de 17.5% entre 1991 et 1998. Faugeron-Crouzet (1997), puis Ginglinger et Faugeron-Crouzet (2001) rapportent une sous-évaluation moyenne de 18%, respectivement sur 321 et 292 observations entre 1983 et 1994. Par contre, cette rentabilité est Chapitre 1 55 plus de deux fois supérieure à celle donnée par Sentis (2001) de 9.2% pour le marché français, entre 1991 et 1995. La nature de l’échantillon peut expliquer la différence de résultat. La période étudiée par Sentis exclut per se les admissions à la cote du Nouveau Marché, créé en 1996. Les rentabilités d’un titre, ses deux cents premiers jours de cotation, paraissent dispersées, au vu d’un écart-type moyen de 22%. Sur notre échantillon, les rentabilités anormales achat-conservation (raac) calculées à 3, 6, 12 et 36 mois s’élèvent respectivement en moyenne à 1.8%, 3.5%, 5.2% et 29.6%. Seules celles observées au bout de 24 mois diffèrent significativement de 0. En outre, les raac médianes sont toutes négatives mais non significativement différentes de 0 (le test des rangs de Wilcoxon n’est pas rapporté dans le tableau). Nos résultats ne permettent de conclure à l’existence de performances boursières à long terme significativement négatives ou positives. Ils rejoignent ceux obtenus sur le marché français. Sentis (2001) travaille sur un échantillon de 61 sociétés introduites sur le Premier ou le Second Marché entre 1991 et 1995. Il trouve des raac moyennes, calculées à partir de l’indice SBF 250 et du dixième jour de bourse, de 4% à 3 mois, 6.9% à 6 mois, 16.5% à 12 mois, 15.8% à 24 mois et 10.8% à 36 mois. Seules les raac à 3 et 12 mois sont statistiquement différentes de 0. Sur leur échantillon de 243 sociétés introduites sur le Second Marché ou le Nouveau Marché entre janvier 1991 et juillet 1998, Derrien et Degeorge (2001) n’obtiennent pas de rentabilités anormales par rapport à l’indice MIDCAC, à des indices sectoriels ou à un portefeuille d’entreprises comparables en termes de taille et de book-to-market. Leurs rentabilités sont calculées sur la période [date d’introduction + 10 jours, date d’introduction + 36 mois]. Par contre, Ritter (1991) sur le marché américain et Levis (1993) sur le marché britannique établissent que les entreprises introduites en bourse sous-performent l’indice de marché dès la deuxième année post introduction. La figure 1.1 permet de comparer l’évolution des raac par marché. Nous avons représenté les rentabilités anormales achat-conservation de 60 sociétés introduites sur le Nouveau Marché, 129 sur le Second Marché. Les sociétés introduites sur le Second Marché voient leurs performances croı̂tre continûment. Au contraire, les raac des entreprises admises à la cote du Nouveau marché augmentent plus faiblement et de manière discontinue, avec des phases de déclin, notamment entre le 350ème et le 400ème jour postintroduction. Toutefois, les différences de performances boursières à long 56 Chapitre 1 SM Echantillon NM Fig. 1.1 – Rentabilités anormales achat-conservation terme entre les deux marchés ne sont pas statistiquement significatives (elles ne sont pas rapportées). L’environnement informationnel des sociétés de l’échantillon est enfin apprécié. L’erreur moyenne de prévision du dirigeant s’élève à 292%, mais ne diffère pas significativement de 0. Leur erreur médiane est très faible. Une grande dispersion caractérise ainsi les prévisions contenues dans les prospectus d’introduction. Schatt et Roy (2002) obtiennent des erreurs de prévision bien inférieures, peut-être parce que calculées différemment. Sur leur échantillon de 151 sociétés introduites sur le Nouveau marché ou le Second Marché entre 1996 et 2000, les prévisions excèdent en moyenne de 12.1% les réalisations. Trois analystes indépendants suivent en moyenne une société et émettent 5 estimations dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. En moyenne et dans le même intervalle, un analyste affilié publie 2 Chapitre 1 57 prévisions. Les analystes qui rédigent l’étude financière jointe au prospectus se trompent en moyenne de 131% dans leurs estimations de résultats. Les analystes d’I/B/E/S apparaissent significativement plus précis que les analystes de l’entreprise d’investissement spécialiste (voir le tableau 1.7). Ceux dits «affiliés» suivent en moyenne aussi rapidement mais significativement plus longtemps la société introduite que les analystes «indépendants». Les analystes affiliés sont plus exacts et prudents dans leurs prévisions que les analystes indépendants. Lin et McNichols (1998), Dechow et alii (2000) sur le marché américain, Degeorge et Derrien (2001) sur le marché français obtiennent des résultats contraires. Ils montrent que l’optimisme des analystes s’accentue avec leur affiliation au chef de file. erreur analystes prospectus / CF erreur analyste prospectus / NCF erreur analyste NCF / CF délai NCF / CF durée NCF / CF N 111 36 57 80 80 moyennes 1.27 / 0.49 1.67 / -0.078 0.215 / -0.217 182 / 179 292 / 462 diff. moyen. 0.775 1.75 0.432 -2.7 170 t 1.76 1.80 1.779 -0.22 4.51 sig. 0.08 0.07 0.08 0.82 0.000 Tab. 1.7 – Tests de différences de moyennes La diversité des sources d’information explique la taille variable de nos échantillons. Par exemple, les analystes, affiliés et indépendants, ont transmis à I/B/E/S des estimations21 sur 266 des 326 sociétés dont le prospectus était consultable. Leur erreur de prévision n’a cependant pu être calculée que pour 204 des 266 sociétés ; les bénéfices par action réalisés des 62 autres sociétés n’étaient en effet pas disponibles dans les bases d’I/B/E/S. Pour chaque étude empirique, nous avons cylindré l’échantillon sur les variables utilisées dans les modèles explicatifs testés (tableau 1.8). Baginski et al. (1999, p. 9), dans leur étude des facteurs expliquant la publication ou non de prévision par le dirigeant après l’introduction, constituent leur échantillon de cette manière. Nous avons ainsi présenté, dans cette première partie, le cadre de notre recherche. La revue de littérature a mis en évidence un paradoxe. La mauvaise qualité des informations disponibles sur les introductions en bourse s’oppose en effet au gain général à la diffusion d’information de qualité. Nous tentons d’expliquer puis de résoudre cette antinomie. Nous avons formulé deux propositions. Tout d’abord, le dirigeant et les analystes sont supposés choisir la qualité des informations publiées de sorte à concilier les intérêts de diverses parties prenantes. Ensuite, la société est présumée enrichir son 21 L’horizon des prévisions est ici indifférent. 58 Chapitre 1 Observations nombre chapitre 1 90 chapitre 3 chapitre 4 218 160 chapitre 5 134 informations restrictives prévisions dans le prospectus réalisations dans I/B/E/S Marge nette, PER, AD, VOL-ECH CA export, InvInst, RIA, dette AD, taille, AMP, VOL-ECH, CAPPUB, AUG NAF, erreur-analystes RIA, AUG, montant introduit, PER, taille PER, RIA, secteur, procédure, AMP, taille, âge Tab. 1.8 – Taille des échantillons utilisés dans la partie empirique environnement informationnel en publiant elle-même ou via les analystes, des informations légalement non demandées. Nous envisageons également, à titre complémentaire, l’amélioration de la qualité de l’information par le régulateur. Ces réponses anticipées constituent nos deux axes de recherches. Elles sont mises à l’épreuve de la réalité dans les deux parties suivantes. Deuxième partie Explication de la richesse de l’environnement informationnel des introductions en bourse 59 61 Le premier objectif de cette thèse est d’évaluer et d’expliquer la qualité des informations diffusées sur les sociétés admises à la cote. Il nécessite donc de comprendre les motivations des producteurs d’information. Cette deuxième partie analyse leur comportement à la lumière de la théorie de l’agence. La théorie de l’agence repose sur une certaine conception du comportement humain (Jensen et Meckling, 1994). Tout d’abord, les individus sont supposés avoir une rationalité limitée et contextuelle. Autrement dit, ils agissent consciemment, en fonction de leur environnement et de leurs objectifs. Mais ils ne sont pas omniscients et peuvent se tromper (Charreaux, 1999, p. 72). Ensuite, les individus agissent de façon à maximiser leur fonction d’utilité, à améliorer leur satisfaction. Pour ce faire, ils confrontent les avantages et inconvénients attendus de leur décision. La théorie de l’agence est également fondée sur l’existence de relations d’agence. Ces relations apparaissent lorsqu’un individu délègue des responsabilités à un autre. Les dirigeants sont ainsi les agents des actionnaires et des créanciers ; les analystes, ceux de leur employeur. Ces relations d’agence sont porteuses de conflits. En effet, les agents sont supposés rechercher leur intérêt privé, éventuellement aux dépens du principal. En outre, leurs compétences et actions ne sont pas parfaitement observables. Et les contrats sont par nature incomplets. Les mandants craignent donc les comportements déviants ou opportunistes, c’est-à-dire contraires à leurs intérêts. Des dispositifs dits de gouvernement sont alors institués, pour encourager l’agent à oeuvrer dans l’intérêt du principal. Ils peuvent être incitatifs (comme les rémunérations) ou coercitifs (comme les contrôles directs). Ils varient en fonction de l’organisation. Dans le cadre de la théorie de l’agence, la deuxième partie de cette thèse suppose que le dirigeant et les analystes déterminent leur offre d’information, de sorte à satisfaire au mieux les intérêts du principal et leurs intérêts personnels. Cette hypothèse est testée dans différents contextes organisationnels. Le chapitre 2 considère les relations d’agence entre le dirigeant et les actionnaires d’une part, le dirigeant et les créanciers d’autre part. Ce «noeud de contrats» devrait créer des incitations à la publication d’informations de qualité. Les deux chapitres suivants s’intéressent aux relations d’agence entre l’analyste et son employeur. Dans le cadre de la théorie de l’agence, le statut de l’agent, sa place au sein d’un système, déterminent ses décisions. L’affiliation de l’analyste devrait donc rendre compte de son offre d’information. Ainsi, la recherche quantitative met en évidence le plus grand optimisme des 62 analystes dont l’employeur participe à l’introduction en bourse. Elle en déduit la primauté des intérêts commerciaux du principal sur le devoir d’objectivité de l’analyste. Mais elle ne prouve pas l’existence de conflits d’agence, ni ne montre comment s’exerce l’influence du principal sur l’agent. Pallier ces limites nécessitait une démarche qualitative, permettant d’appréhender les analystes dans le cadre de leur environnement de travail. Nous avons choisi la voie de l’interrogation. Le chapitre 3 rapporte les résultats d’une enquête sur le travail des analystes affiliés à l’entreprise d’investissement spécialiste. Au travers des réponses des analystes, les pressions avancées dans la littérature devaient être décelées et situées au sein du processus de préparation de l’introduction. Les analystes dont l’employeur n’appartient pas directement ou indirectement au syndicat de placement, font l’objet du chapitre 4. Leur décision de suivre ou non un titre nouvellement introduit est analysée dans le cadre de la théorie de l’agence. Elle est supposée permettre à l’analyste de concilier sa satisfaction personnelle aux préférences du principal. L’analyste ferait son choix, après comparaison des gains et coûts espérés du suivi. Chapitre 2 Qualité des prévisions publiées par le dirigeant et conflits d’agence Introduction L’introduction en bourse modifie les relations de pouvoir entre l’entreprise et son environnement. Les partenaires de l’entreprise doivent décider s’ils contractent ou poursuivent leurs relations avec elle. Ils ont donc besoin de connaı̂tre les bénéfices attendus des investissements financés grâce aux fonds levés. Les informations prévisionnelles recherchées sont disponibles auprès des analystes financiers et/ou du candidat à l’introduction. Seules les prévisions publiées par la société retiennent ici notre attention. Elles ne sont utiles aux intéressés que si elles réduisent leur incertitude. Leur qualité, c’est-à-dire leur biais (optimiste/pessimiste) et leur exactitude, a été évaluée dans la plupart des pays (tableau 1.2, première partie), mais pas en France. Le chapitre 2 se propose donc de mesurer la qualité des prévisions de résultat publiées par le dirigeant qui introduit sa société sur le Nouveau Marché ou le Second Marché1 . L’intérêt du sujet est triple. Premièrement, seuls Schatt et Roy (2002) ont travaillé sur ce thème à notre connaissance. Cependant leur échantillon confond les prévisions incluses dans le prospectus et dans l’étude financière jointe. Or ces prévisions proviennent d’émetteurs distincts, à savoir le dirigeant et l’entreprise d’in1 La publication de prévision dans le prospectus est obligatoire pour les introductions sur le Nouveau Marché depuis 1996 (art. 2 règlement no 95-01 de la COB). Elle est facultative pour les admissions au Second Marché (instruction mars 2001, schémas A, chapitre 5.5). 63 64 Chapitre 2 vestissement. Leur qualité nous semble devoir être appréciée distinctement. Deuxièmement, les garanties institutionnelles de la qualité des prévisions publiées dans le prospectus sont faibles. En France, les ayants droit ne portent pas souvent plainte contre le dirigeant qui publie des prévisions de mauvaise qualité. Par ailleurs, le contrôle de la COB est formel. Les diligences des commissaires aux comptes sont aussi limitées. Ils ne révisent pas les prévisions comme en Grande-Bretagne, mais en attestent simplement la sincérité. De plus, ils sont autorisés dans certains cas2 , à ne pas se prononcer sur la pertinence et la cohérence des hypothèses sous-jacentes aux prévisions3 . Troisièmement, les informations du prospectus sont publiques. Elles sont donc susceptibles de fonder les choix de nombreux agents. Par exemple, les actionnaires et les investisseurs y recourent pour décider de conserver ou d’acheter des titres. Les créanciers s’en servent pour évaluer les flux de trésorerie à venir et la capacité de remboursement de la société. Généralement, les auteurs recherchent, à titre accessoire, les déterminants de la qualité des prévisions du dirigeant. Ils testent principalement si le marché est efficient et donc capable d’anticiper l’erreur de prévision du dirigeant. Ils attribuent l’imprécision des prévisions au niveau de risque ou d’incertitude, approché par les caractéristiques de la société. Certains imputent l’optimisme du dirigeant à un biais cognitif (Kahneman et Tversky, 1973 ; Weinstein, 19804 ). Ces facteurs explicatifs présentent des limites. D’une part, ils expliquent faiblement et partiellement la mauvaise qualité des prévisions déterminée empiriquement. Ils ne rendent ainsi pas compte du pessimisme également observé. D’autre part, ils considèrent la communication prévisionnelle moins comme le fruit d’une décision stratégique que de déterminants exogènes ou inconscients. Compte tenu de ces limites, nous analysons les erreurs de prévision du dirigeant sous un autre angle que la théorie de l’efficience. Nous testons si les conflits d’agence déterminent l’offre d’information du dirigeant. La publication d’information est supposée permettre au dirigeant de gérer ses relations d’agence avec les actionnaires et les créanciers. Autrement dit, le dirigeant fixerait le biais et la précision de ses prévisions, de sorte à satisfaire les intérêts des diverses parties prenantes. Enfin, nous vérifions si la publication d’informations de qualité est un mécanisme de gouvernement efficace. Autrement dit, limite-t-elle les conflits d’agence anticipés par le marché ? 2 paragraphes .22, .24, .25 norme no 354 révisée bulletin COB, no 352 décembre 2000, p. 27 4 Certaines situations conduiraient naturellement les individus à des prédictions optimistes et exagérées. 3 Chapitre 2 65 La recherche empirique étaye l’hypothèse d’une gestion stratégique de l’information par le dirigeant. Sur le marché américain, Teoh et al. (1998b) mettent en évidence une gestion à la hausse des résultats publiés l’année de l’introduction et les trois années suivantes. Lors de l’introduction, le dirigeant pourrait de cette manière justifier un prix d’offre plus élevé, et donc avantager les actionnaires cessionnaires. Après l’introduction, il manipulerait les résultats afin qu’ils confirmassent les prévisions des analystes. Il s’assurerait ainsi la complaisance des analystes. Lang et Lundholm (2000) montrent que les sociétés américaines modifient leur communication financière avant un appel public à l’épargne. Elles formulent les prévisions de manière littérale et non chiffrée. Elles respectent ainsi la lettre, et non l’esprit, des règlements de la SEC. Elles semblent encore augmenter le nombre d’informations publiées afin de gonfler artificiellement le cours des titres. Hayn (1995) représente la distribution de 75 878 BPA annuels publiés par des sociétés cotées américaines entre 1963 et 1990. Autour de zéro, les points sont répartis de manière asymétrique. Ils sont concentrés du côté positif et clairsemés du côté négatif. L’auteur en déduit que les dirigeants aident le résultat à passer «la ligne rouge». Sur des données trimestrielles, Degeorge et al. (1999) déterminent la hiérarchie des incitations à la gestion des résultats. Le déficit précède la diminution des résultats et le non respect des prévisions des analystes. Le reste de l’étude comprend trois parties. L’hypothèse d’une bonne gouvernance par publication d’information de qualité est déduite de la théorie de l’agence dans la section 2.1. Elle est testée empiriquement dans la section 2.3, après présentation de la méthodologie et des données utilisées. 2.1 La publication d’informations de qualité dans le cadre de la théorie de l’agence Nous analysons la qualité des prévisions publiées par le dirigeant et son impact sur les performances boursières de la société dans le cadre de la théorie de l’agence. 2.1.1 La théorie de l’agence : principes généraux Nous rappelons brièvement les principes de base de la théorie de l’agence. 66 Chapitre 2 La théorie de l’agence repose sur une certaine conception des comportements individuels et de l’entreprise (Jensen et Meckling, 1976, 1994). Les individus sont supposés agir de sorte à maximiser leur fonction d’utilité. Ils anticipent également correctement l’impact des relations d’agence sur leur richesse future. L’organisation est, elle, considérée comme un «noeud de contrats» ou un «centre contractant». Elle peut également être appréhendée comme un système d’incitations (Holmström et Milgrom, 1994). La dissociation de la gestion et de la propriété des facteurs de production peut rendre conflictuelles les relations d’agence. En effet, le dirigeant, gestionnaire et décideur, est mieux informé que les bailleurs de fonds. Supposé maximiser sa fonction d’utilité, il peut profiter de son avantage informationnel et allouer les ressources dans son seul intérêt. Les relations d’agence deviennent alors antagonistes. Mais les partenaires gagnent à coopérer (voir première partie). Ils cherchent donc le moyen le moins coûteux de réconcilier leurs intérêts. Le dirigeant opère cet ajustement au niveau de l’organisation, c’est-à-dire pour l’ensemble des relations d’agence. 2.1.2 La publication d’informations de qualité, un mode de gouvernance Jensen et Meckling (1976) envisagent la publication d’information de qualité comme un moyen efficace d’éviter les conflits entre les créanciers et le dirigeant. Leur raisonnement est le suivant. Le prêteur a intérêt à ce que le dirigeant alloue les fonds à des projets rentables. Il peut donc, dans le contrat de prêt, prévoir des clauses protectrices. Les emprunts supplémentaires, les dividendes, les ventes d’actifs peuvent ainsi être restreints. Mais ces clauses présentent des limites. D’une part, elles ne pallient que partiellement l’incomplétude du contrat. Elles ne peuvent en effet anticiper toutes les causes possibles de conflits. D’autre part, elles induisent des coûts, comme la rémunération d’experts juridiques ou la renonciation à des opportunités d’investissement rentables. Ces coûts affectent la valeur de l’entreprise et donc la richesse de toutes les parties prenantes. Jensen et Meckling (1976) avancent alors que la publication, par le dirigeant, d’informations de qualité est un mécanisme de gouvernement efficace. Bien informés, les bailleurs de fonds contrôlent en effet plus aisément l’emploi des ressources. De son côté, le dirigeant se dédouane efficacement et gagne la confiance des mandants. Ce mécanisme est peu coûteux car le dirigeant dispose d’ores et déjà de ces informations pour les besoins de sa gestion interne. Chapitre 2 67 La publication de prévisions de qualité apparaı̂t ainsi comme une nouvelle règle du jeu garantissant la pérennité de l’entreprise (Michaı̈lesco, 1999). Elle rend l’entreprise visible à son environnement et stabilise ses relations avec ses partenaires. 2.1.3 Application au contexte de l’introduction en bourse En l’espèce, nous avons considéré les relations d’agence entre actionnaires et dirigeant d’une part, actionnaires/dirigeant et créanciers d’autre part (Jensen et Meckling, 1976). Or l’introduction en bourse est une source potentielle de conflits entre principal et agent, et donc d’incitations à la publication d’informations de qualité. Ces incitations émanent principalement des actionnaires, des créanciers et du marché financier. Les pressions des actionnaires L’introduction en bourse modifie la structure de financement et de propriété de l’entreprise. À ce titre, elle est susceptible de créer des conflits entre actionnaires et dirigeant. Le financement par fonds propres fait pièce aux intérêts des actionnaires. Il accroı̂t les ressources contrôlées par le dirigeant. La gestion des fonds propres est en effet souple et assurée en interne. Au contraire, la dette est un mode de gouvernement plus rigide (Williamson, 1988). Elle réduit les coûts d’agence entre actionnaires et dirigeant (Jensen et Meckling, 1976). Elle implique en effet des décaissements à dates et montants fixes. Elle conduit donc le dirigeant à maximiser les flux de trésorerie et elle limite la part des free cash flows 5 à la discrétion du dirigeant (Jensen, 1988, p. 29). Avec l’entrée de la société sur le marché, les actionnaires ont donc intérêt à contrôler l’emploi des fonds collectés. Or lorsque le dirigeant estime le résultat à venir, il intègre les bénéfices attendus des fonds levés. Les actionnaires le pressent donc de rendre publiques ses prévisions de résultat. L’ouverture et la composition de l’actionnariat peuvent inciter le dirigeant à publier des prévisions précises. Moins le dirigeant est impliqué dans le capital après l’introduction, moins les actionnaires sont en mesure d’apprécier ses efforts et plus le dirigeant devra leur rendre des comptes. Les coûts de contrôle et de dédouanement diminuent 5 Flux de trésorerie en excès, après financement des projets d’investissement à la valeur actuelle nette positive 68 Chapitre 2 donc avec la participation au capital du dirigeant. Selon Jensen et Meckling (1976), la publication d’informations de qualité permet de réduire les coûts d’agence. En particulier, la diffusion de prévisions de résultat oblige implicitement le dirigeant. Elle devrait modérer ses tentations d’opportunisme. En rapprochant les réalisations des prévisions, les actionnaires peuvent en effet facilement vérifier l’efficacité de la gestion. Dans la même logique, Moyer et al. (1989) présument que les actionnaires acquièrent des informations auprès des analystes pour contrôler le dirigeant. Ils montrent que le nombre de prévisions diffusées par les analystes diminue avec la participation au capital des insiders. Les actionnaires ont d’autant moins besoin d’information privée que leurs intérêts et ceux du dirigeant convergent. Dans le cadre de la théorie positive de l’agence, l’ouverture du capital est supposée amener le dirigeant à fournir aux actionnaires des informations précises sur les perspectives de l’entreprise. Nous formulons donc l’hypothèse suivante : H1- Le dirigeant publie des prévisions d’autant plus précises qu’il conserve peu d’actions après l’introduction. Par ailleurs, tous les actionnaires n’ont pas les mêmes besoins informationnels. Les investisseurs institutionnels sont présumés demander plus d’informations que les actionnaires particuliers (Moyer et al., 1989, p. 505). Selon Mottis et Ponssard (2002), leur exigence de transparence requiert «une grande fiabilité et rapidité des systèmes de reporting et de prévision des résultats». En outre, certains institutionnels s’engagent dans le temps et sur un grand nombre de titres. Ils ont alors besoin de prévisions pour évaluer la capacité de croissance de l’entreprise pendant la durée d’immobilisation de leurs fonds. Ainsi, leur présence au sein de l’actionnariat devrait peser sur la décision du dirigeant de révéler précisément ses anticipations de résultats. D’où l’hypothèse : H2- La précision des prévisions du dirigeant augmente avec l’actionnariat institutionnel. Les pressions des créanciers Même lorsque l’introduction en bourse accroı̂t les fonds propres de l’entreprise, les créanciers restent incertains de l’usage des fonds levés. Le groupe dirigeant-actionnaires peut investir le montant introduit dans des projets très risqués, ou les distribuer sous forme de dividendes, contrairement aux intérêts et aux anticipations ex ante des créanciers (Myers, 1977). Plus la valeur de l’entreprise repose sur d’importants projets d’investissements et de faibles actifs corporels, plus les créanciers risquent d’être spoliés au profit des Chapitre 2 69 actionnaires (Myers, 1977). Dans ces conditions, ils peuvent réduire l’espace discrétionnaire du dirigeant en lui imposant des contraintes d’information plus sévères. Nous déduisons l’hypothèse suivante de la théorie de l’agence : H3- La précision des prévisions publiées par le dirigeant croı̂t avec le niveau d’investissements prévus et décroı̂t avec le montant des actifs corporels. Les pressions du marché financier Le marché financier a besoin d’informations prévisionnelles fiables pour valoriser les sociétés cotées. Il peut jouer un rôle disciplinaire (Jensen et Meckling, 1976, p. 328-329). Supposé efficient, il finit toujours par discerner et sanctionner l’opportunisme du dirigeant. Les sociétés cotées qui gèrent à la hausse leur résultat (Teoh et al., 1998a ; Rangan, 1998), ou augmentent le nombre d’informations publiées (Lang et Lundholm, 2000) avant une augmentation de capital, accusent un déclin de leurs performances boursières à long terme. La crainte d’une sanction boursière est donc supposée dissuader le dirigeant d’utiliser les informations publiées comme levier d’enracinement, c’est-à-dire dans une optique contraire à la maximisation de la valeur. Selon la théorie positive de l’agence, nous devrions observer : H4- L’exactitude des prévisions publiées par le dirigeant augmente avec les pressions du marché financier. La réputation du dirigeant Dans le cadre de la théorie de l’agence, le dirigeant maximise sa fonction d’utilité. Il peut notamment attribuer de la valeur à des éléments non pécuniaires, comme sa réputation (Charreaux, 1999, p. 69). Or en publiant des prévisions précises, il soutient les intérêts des actionnaires et des créanciers, mais aussi sa réputation. Par ailleurs, la mise de confiance du marché facilitera un ultérieur appel public à l’épargne. Ainsi, dans le modèle de Diamond (1984), la réputation du dirigeant dépend de son respect des échéances. Elle détermine entre autres le choix des investisseurs de lui confier leurs fonds. Empiriquement, Teoh et al. (1998b) montrent qu’une société revient d’autant moins sur le marché primaire qu’elle a géré ses résultats à la hausse lors de son introduction en bourse. Dans le cadre de la TPA, les actionnaires, les créanciers, le marché financier et la volonté de préserver sa réputation inciteraient le dirigeant à publier des prévisions précises. Mais les investisseurs considèrent-ils la publication d’informations de qualité comme un mécanisme de gouvernement efficace ? Valorisent-ils mieux les sociétés aux prévisions de qualité ? 70 Chapitre 2 Qualité des prévisions publiées et valeur de la firme Chen et al. (2001), Firth et Smith (1992), Keasey et McGuinness (1991), déjà évoqués dans le tableau 1.2 de la première partie, ont étudié l’impact de l’erreur de prévision du dirigeant sur les rentabilités initiales anormales. Ils testent l’hypothèse d’efficience du marché. Ils considèrent que la société et la banque introductrice fixent de manière unilatérale le prix d’offre, entre autres à partir des prévisions publiées dans le prospectus. Implicitement, les investisseurs n’influencent que la formation du prix d’équilibre. S’ils estiment les prévisions du dirigeant (et donc le prix d’offre) excessifs, ils devraient réviser à la baisse leurs intentions d’achat. La demande de titres diminuerait, et avec elle le cours d’équilibre. Dans cette logique, l’erreur de prévision du dirigeant (telle que nous l’avons calculée) serait supposée déterminer négativement la sous-évaluation. Nous admettons l’efficience du marché et analysons la politique informationnelle du dirigeant à la lumière de la théorie de l’agence. Contrairement aux auteurs précédents, nous considérons que la société et la banque introductrice prennent en compte les anticipations des investisseurs dans la détermination du prix d’offre. Dans un marché efficient, les investisseurs peuvent évaluer la probabilité de conflits entre les parties prenantes. Ils acceptent une moindre décote du prix d’offre quand ils escomptent de faibles conflits d’agence. Par contre, lorsque le risque de conflits d’intérêts est élevé, la société et la banque introductrice doivent davantage sous-évaluer le prix d’introduction, sous peine de voir l’offre de titres excéder la demande. Si la qualité des prévisions publiées est un mécanisme de gouvernement efficace, elle devrait prévenir les conflits d’agence et réconcilier les intérêts divergents. Autrement dit, les investisseurs anticiperaient de moindres conflits d’agence en présence de prévisions de qualité. Les sociétés aux prévisions exactes devraient donc avoir moins besoin de sous-évaluer leur prix d’introduction que les sociétés aux prévisions imprécises. 2.2 La méthodologie et les variables Nous présentons successivement la méthodologie adoptée, les variables utilisées et l’origine des données. Chapitre 2 2.2.1 71 Méthodologie adoptée Dans le cadre de la théorie de l’agence, les actionnaires, les créanciers et le marché financier inciteraient le dirigeant à publier des informations de qualité. La publication d’informations de qualité est supposée un mécanisme de gouvernement efficace. Elle réduirait les conflits d’agence anticipés par les investisseurs. Elle devrait donc se traduire par une moindre sous-évaluation du prix d’offre. Plusieurs outils permettent de vérifier ces relations. En premier lieu, des tests univariés mesurent l’exactitude et le biais des prévisions des dirigeants. Ces dernières sont ensuite comparées à l’extrapolation des résultats historiques et aux estimations des analystes financiers. En second lieu, des régressions multiples sont proposées. L’erreur de prévision de la société puis la sous-évaluation des titres introduits constituent les variables à expliquer. Les variables explicatives permettent de tester les implications de la théorie de l’agence ou représentent des variables de contrôle. 2.2.2 Variables utilisées Nous précisons les variables retenues dans la partie empirique. EPD, EPAF et EPC sont respectivement les erreurs moyennes de prévision de la société ; des analystes financiers indépendants du chef de file (EPAF) et du consensus (EPC6 ). Elles sont ainsi calculées : (prévision - réalisation) / |réalisation|. Les prévisions portent sur le bénéfice par action du premier (EPD0, EPAF0 et EPC0) ou deuxième (EPD1, EPAF1 et EPC1) exercice post introduction. RIA : rentabilité initiale anormale du titre, calculée comme suit : RIAi = C c i,t0 Ibc t0 − Ibc t −1 où C c i,t est le cours de clôture du titre i, Ibt celui de l’indice P odi 0 boursier SBF250. P odi est le prix d’offre définitif. t0 désigne la date de l’introduction en bourse. Les variables ci-après approchent l’éventualité de conflits d’intérêts entre 6 EPC diffère d’EPAF. En effet, le consensus d’I/B/E/S agrège 1.8 estimations en moyenne, dont éventuellement celles des analystes affiliés au chef de file. Ces estimations sont diffusées entre la date d’introduction et le troisième mercredi du mois suivant. Dans EPAF, seules sont retenues les prévisions des analystes indépendants, publiées dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. 72 Chapitre 2 actionnaires et dirigeant. AD : pourcentage du capital détenu par le dirigeant, directement ou indirectement, après l’introduction en bourse. Pour le dirigeant, le risque de conflits avec les actionnaires, et donc son incitation à publier des prévisions précises, devraient croı̂tre avec son désengagement. Inv. Inst : pourcentage de capital détenu par les investisseurs institutionnels après l’introduction. Ces investisseurs professionnels, influents, sont en mesure d’imposer au dirigeant la publication de prévisions de qualité. Ils regroupent les compagnies d’assurance, les banques, les fonds de pension et les organismes de placement collectif (OPC). La banque chef de file peut appartenir à ces actionnaires, directement ou via un OPC7 . Deux variables mesurent la possibilité de conflits entre actionnaires et créanciers. Immo : rapport des immobilisations corporelles sur le total du dernier bilan certifié avant l’introduction en bourse. Les créanciers s’informent d’autant plus sur les perspectives de l’entreprise que peu actifs corporels garantissent leurs créances. Inv. : rapport des investissements prévus8 pour l’année suivant l’introduction sur le total du dernier bilan certifié. Plus l’entreprise envisage d’investir, plus sont probables les transferts de richesse des créanciers vers les actionnaires. La demande d’information des créanciers devrait donc croı̂tre avec l’importance des projets d’investissement. La variable ci-dessous estime le pouvoir disciplinaire du marché financier. LIQ : volume moyen des titres échangés les vingt-cinq premiers jours de cotation. Nous associons l’intérêt du marché au nombre de transactions réalisées. Pour évaluer un titre, le marché a besoin d’informations prévisionnelles fiables. Plus le marché suit la société, plus le dirigeant est donc supposé incité à publier des prévisions de résultat précises. D’autres facteurs peuvent expliquer les erreurs de prévision du dirigeant. Ils sont intégrés comme variables de contrôle dans les régressions. Marge nette : résultat net sur le chiffre d’affaires de l’année précédant l’introduction. La diffusion d’informations sensibles peut porter un préjudice commercial, médiatique ou politique aux sociétés performantes. Autrement dit, les performances réalisées accroissent les coûts de propriété (Verrecchia, 7 En France, les banques contrôlent largement les OPC (Jeffers et Plihon, 2002). Les sociétés évaluent leurs projets d’investissements dans le chapitre 4 ou 7 du prospectus d’introduction. 8 Chapitre 2 73 1983). Elles devraient donc dissuader le dirigeant de publier des prévisions précises (Irani, 1999). La marge nette est supposée reliée positivement aux erreurs de prévision du dirigeant. Dette : ratio des dettes d’exploitation et financières sur le total du dernier bilan certifié. Les résultats des sociétés endettées sont présumés volatils, et donc difficiles à prévoir (Firth et Smith, 1992 ; Jaggi, 1997 ; Chen et al., 2001 ; Schatt et Roy, 2002). Taille : logarithme népérien du chiffre d’affaires de la société, un an avant son introduction en bourse. Cette variable mesure la taille de la société. Les grandes sociétés disposent d’outils informatiques et statistiques, les aidant à prédire les résultats (Firth et Smith, 1992 ; Mak, 1994 ; Jaggi, 1997). Leurs prévisions devraient donc être plus précises que celles des petites sociétés. Âge : nombre d’années séparant l’introduction en bourse, de la création de la société. Plus une société est âgée, mieux elle connaı̂t son métier et son environnement. L’exactitude des prévisions publiées devrait donc croı̂tre avec l’âge de la société (Firth et Smith, 1992 ; Lee et al., 1993 ; Jaggi, 1997 ; Chen et al., 2001 ; Schatt et Roy, 2002). Les variables ci-dessous mesurent le niveau d’incertitude sur les bénéfices estimés. Marché : variable dichotomique prenant la valeur 1 si la société s’introduit sur le Second Marché et 0 sur le Nouveau Marché. Le Nouveau Marché accueille les sociétés de croissance, aux projets d’investissement complexes et à la demande aléatoire. Il est donc associé à des perspectives plus incertaines que le Second Marché. PER : rapport du prix d’offre définitif sur le bénéfice par action de l’année précédant l’introduction en bourse. Un PER élevé indique que le marché est confiant dans la croissance future des bénéfices de l’entreprise. Au contraire, un faible PER correspond à des prévisions incertaines et à une plus grande incertitude. CAE : pourcentage du chiffre d’affaires réalisé à l’étranger par la société l’année précédant son introduction. L’estimation des bénéfices à venir est plus difficile pour les sociétés internationales, et donc plus incertaine. 2.2.3 Les données Nous décrivons l’origine des données utilisées, la procédure de sélection de l’échantillon et enfin l’échantillon lui-même. 74 Chapitre 2 Origine des données La sous-évaluation et le volume moyen des titres échangés sont calculés à partir des données d’ABC Bourse. Proviennent du prospectus d’information définitif les caractéristiques de l’émetteur et de l’émission (composition de l’actionnariat, marché, endettement...), ainsi que les prévisions de bénéfices du dirigeant. Sont extraites des bases d’I/B/E/S : les prévisions du consensus, à la date la plus proche de l’introduction en bourse ; les BPA réalisés ; les prévisions des analystes indépendants du chef de file, émises dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction. La constitution de l’échantillon Nous avons retenu les sociétés admises à la cote du Second Marché entre 1994 et 2000, ou du Nouveau Marché entre 1996 et 2000, dont le prospectus, disponible, contenait des prévisions de résultats chiffrées. Sur la période étudiée, 256 sociétés se sont introduites sur le Second Marché et 165 sur le Nouveau Marché. Le dossier d’introduction complet était consultable pour 295 d’entre elles. 149 des 295 sociétés avaient publié des prévisions de résultat chiffrées dans leur prospectus. Les réalisations de bénéfice par action étaient disponibles pour 139 de ces 149 sociétés. 49 des 139 sociétés présentaient des valeurs manquantes pour au moins l’une des variables utilisées dans les régressions. Finalement, l’échantillon se compose de 90 sociétés dont 29 appartiennent au Nouveau Marché et 61 au Second Marché. Description de l’échantillon Le tableau 2.1 donne les statistiques descriptives des variables utilisées. Les sociétés de l’échantillon ont en moyenne 24 ans lorsqu’elles s’introduisent en bourse. Elles réalisent environ un tiers de leur chiffre d’affaires à l’export. Leur marge nette est faible (3.5% en moyenne). Au regard du niveau et du signe positif du PER (13), elles sont en phase de croissance. Les dettes représentent en moyenne 50% du bilan total et les projets d’investissement un tiers. Ces sociétés se sont probablement introduites en bourse pour financer leur développement. 21 773 titres sont en moyenne échangés les 25 premiers jours de cotation. Les dirigeants conservent en moyenne 60% du capital après l’introduction et les investisseurs institutionnels, 10%. La rentabilité initiale anormale observée est de 28%. Le capital des introductions en bourse françaises est concentré. Sur notre échantillon, le dirigeant conserve en moyenne plus de 60% du capital après l’introduction. Derrien et Chapitre 2 Total Âge Taille PER Immo Inv Dette Inv. Inst AD LIQ RIA Marge nette CAE 75 N 90 90 90 90 90 90 90 90 90 90 90 88 Moyenne 24.1 5.30 13.7 27.9 27.5 47.7 10.8 57.5 21773 0.279 3.57 35.5 Médiane 15.0 5.25 19.9 19.0 14.6 51.9 0.00 67.6 12165 0.075 4.63 28.5 Écart-type 29.6 1.49 149 23.3 28.9 25.5 17.9 29.0 25852 1.171 13.4 32.6 Minimum 1 0.97 -1271 0.00 0.51 0.39 0.00 0.00 696 -1.17 -77.5 0.00 Maximum 170 11.5 202 92.1 116 89.2 90.0 93.6 173614 10.6 38.6 100 Tab. 2.1 – Statistiques descriptives : échantillon du chapitre 2 Âge = âge de la société au moment de son introduction en bourse ; Taille = logarithme népérien du chiffre d’affaires l’année précédant l’introduction ; PER = rapport du prix d’offre définitif sur le BPA de l’exercice précédant l’introduction ; Immo = actifs corporels / total dernier bilan certifié avant l’introduction ; Inv = rapport des investissements prévus sur le total du dernier bilan certifié ; Dette = rapport des dettes financières et d’exploitation sur le total du dernier bilan certifié ; InvInst = pourcentage d’investisseurs institutionnels présents dans le capital après l’introduction ; AD = pourcentage du capital conservé par le dirigeant après l’introduction en bourse ; LIQ = volume moyen des titres échangés les 25 premiers jours de cotation ; RIA = rentabilité initiale anormale ; Marge nette = résultat net / chiffre d’affaires de l’année précédant l’introduction ; CAE = pourcentage du chiffre d’affaires réalisé à l’export l’année précédant l’introduction. Degeorge (2001) observent la structure du capital de 243 sociétés françaises, avant leur introduction. 111 sont détenues à plus de 90% par leur dirigeant. Depuis 1996, la réglementation ne favorise pas l’ouverture du capital. Les actionnaires dirigeants des sociétés demandant leur admission à la cote du Nouveau Marché doivent s’engager à conserver tout ou partie (80%) de leurs titres, respectivement six mois ou un an à compter de la date d’introduction (articles P. 1.1.31 et 1.1.32 des Règles de Marché d’Euronext). Sur le Second Marché, la COB exige le même engagement des investisseurs ayant acquis avant l’introduction en bourse, des titres à un prix inférieur au prix d’offre. 2.3 Résultats empiriques et discussion L’exactitude et le biais des prévisions du dirigeant sont évalués sur notre échantillon de 90 introductions. Nous testons ensuite si les conflits d’agence 76 Chapitre 2 expliquent effectivement la qualité de ces prévisions. Nous apprécions enfin si, du point de vue des investisseurs, la publication d’informations de qualité semble un mécanisme de gouvernement efficace. 2.3.1 Mesure de la qualité des prévisions du dirigeant Le dirigeant, les analystes indépendants du chef de file et le consensus d’I/B/E/S estiment le bénéfice par action de l’exercice fiscal suivant l’introduction. Leurs erreurs moyennes de prévision sont comparées. Elles sont respectivement désignées par EPD0, EPAF0 et EPC0. Elles équivalent −BP Areel au rapport BP Aprevu . Les investisseurs peuvent également anticiper le |BP Areel | résultat d’une société à partir de modèles de prévision. Cheng et Firth (2000) supposent le bénéfice prévu pour l’année t0 égal au résultat réalisé l’année précédente (Rt−1 ). Si Rt0 est le BPA réel de l’exercice t0 , l’erreur de prévision commise avec ce modèle est alors : EP naif 0 = Rt−1 − Rt0 | Rt0 | Cheng et Firth calculent ensuite la variable SUP : SU P (P i , t0 ) = Ln( Rt0 − Rt−1 2 ) Rt0 − P i t0 où P i t0 est le BPA prévu par l’émetteur i à l’horizon t0 . L’erreur de prévision du modèle naı̈f est rapportée à celle de l’émetteur i considéré. Si le numérateur est supérieur au dénominateur, alors les estimations du modèle naı̈f sont moins précises que celles de l’émetteur i. Lorsque le SUP est positif, l’investisseur a donc intérêt à utiliser les prévisions de l’émetteur i. Nous avons calculé cette variable SUP pour les prévisions du dirigeant et du consensus. Le tableau 2.2 compare la capacité prédictive du dirigeant, des analystes financiers indépendants du chef de file, du consensus et du modèle naı̈f d’estimation. Nous testons si les erreurs moyennes et médianes de prévision sont significativement différentes de 0. Le t désigne le test de Student ; le Z, le test de rang de Wilcoxon. Les tests sont bilatéraux. Nous observons enfin si les erreurs moyennes diffèrent significativement entre elles. Le tableau 2.3 rapporte la distribution (% cumulés) des erreurs de prévision des dirigeants, des analystes financiers et du consensus pour les sociétés de l’échantillon. L’erreur moyenne de prévision des dirigeants est significativement supérieure à zéro. 51 erreurs sont positives et donc optimistes ; 39 sont négatives et Chapitre 2 77 EPD0 EPAF0 EPC0 EPNAÏF Sup Dirigeant Sup Consensus EPD0-EPAF0 EPD0-EPC0 EPNAÏF-EPD0 N 90 55 59 90 90 59 N 55 59 90 Moyenne 1.17 0.431 -0.181 -0.155 -0.766 0.287 Dif. moyennes 1.07**** 1.59**** -1.64**** Médiane 0.042 -0.005 -0.133 -0.254 -0.105 0.234 Stat. t 3.845 4.291 -4.623 Écart-type 2.97 1.97 0.733 0.622 4.12 3.37 Sig. 0.000 0.000 0.000 Stat. t 3.725**** 1.712* -1.894* -2.121** -1.578 0.637 Stat. Z 2.782 4.657 5.489 Stat. Z 2.48** 0.33 2.81*** 3.77**** -1.341 -0.81 Sig. 0.005 0.000 0.000 Tab. 2.2 – Comparaison des erreurs de prévision %Erreur 0.10 0.25 0.50 0.75 0.90 >0.9 Dirigeant 22.2 40.0 58.9 64.4 65.6 100.0 Analystes 50.9 76.4 80.0 85.5 89.1 100.0 Consensus (I/B/E/S) 25.4 47.5 55.9 64.4 84.7 100.0 Tab. 2.3 – Distribution des erreurs de prévision donc pessimistes. Les dirigeants optimistes sont significativement plus nombreux que les dirigeants pessimistes (Z = -2.489, significatif au seuil de 5%). Sur notre échantillon, seulement 20% des dirigeants (contre 50% des analystes) commettent une erreur inférieure à 10% (tableau 2.3). Les dirigeants se trompent par ailleurs significativement plus que les analystes financiers, au seuil de 0.1%. Leur erreur moyenne de prévision dépasse les 100%. En nombre, les erreurs des analystes comme du consensus sont inférieures à 0 et donc pessimistes. Elles sont également très précises. Mais celles du consensus diffèrent significativement de 0. En moyenne, les prévisions individuelles des analystes s’écartent de 43% du BPA réel ; celles du consensus de -18%. Les erreurs des analystes individuels sont distribuées de manière plus asymétrique que celles du consensus (tableau 2.3). D’après le tableau 2.2, les estimations du consensus sont plus utiles aux investisseurs que celles issues du modèle naı̈f, puisque la variable SUP est positive en nombre et en moyenne. Par contre, la valeur informative des prévisions du dirigeant n’est pas supérieure à celle du modèle naı̈f : le SUP 78 Chapitre 2 est négatif en moyenne et en médiane. Ce dernier résultat contredit les conclusions de Hartnett et Römcke (2002). Dans leur étude, les prévisions publiées par 203 sociétés admises à la cote australienne paraissent en moyenne significativement plus exactes que celles obtenues avec sept modèles «naı̈fs». Toutefois, nos résultats doivent être interprétés avec prudence car les valeurs moyennes et médianes du SUP ne sont pas statistiquement différentes de zéro. Ainsi, comparé aux analystes financiers ou à un modèle naı̈f d’estimation, le dirigeant est excessivement optimiste. Cet optimisme peut servir les intérêts des anciens actionnaires. Tout d’abord, il permet au dirigeant de négocier à la hausse le prix d’offre (Teoh et al., 1998b). Les actionnaires cessionnaires retirent alors un meilleur prix des titres vendus, tandis que les autres pâtissent d’une moindre dilution. En effet, moins de titres devront être émis pour obtenir les fonds souhaités. Ensuite, la perspective d’une croissance du résultat peut attirer plus aisément les investisseurs. Les analystes affiliés à la banque introductrice semblent ainsi incités à l’optimisme, afin de faciliter le placement des titres (Michaely et Womack, 1999, voir chapitre 2). Or généralement, l’introduction en bourse a vocation à financer des projets d’investissement supposés créateurs de valeur. Son succès affecte donc la richesse des actionnaires originaires qui restent au sein du capital. Mais nos résultats ne permettent pas d’imputer l’optimisme avéré du dirigeant aux pressions des actionnaires originaires. Nous ne disposions en effet pas de données suffisantes sur la répartition du capital pour vérifier clairement ce lien. 2.3.2 Explication de la qualité des prévisions du dirigeant Les pressions des actionnaires, des créanciers et du marché financier expliquent-elles la qualité des prévisions publiées par le dirigeant, toutes choses égales par ailleurs ? Pour répondre à cette question, nous avons réalisé des tests univariés et multivariés. Les résultats sont rapportés dans les tableaux 2.4, 2.5 et 2.6. Chapitre 2 79 Le tableau 2.4 présente les résultats des tests univariés. PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC = 1 si EP D0 ≤ σm . EP D0 est l’erreur de prévision du dirigeant pour l’exercice comptable suivant l’introduction en bourse. σm est l’écart-type des erreurs de prévision des sociétés introduites sur le marché m. Biais : variable dichotomique prenant la valeur 1 si (BPAp-BPAr)/ |BP Ar| est positive et donc optimiste. Nous mesurons l’influence de la précision puis du biais des prévisions du dirigeant sur les variables suivantes : (1) PER = prix d’offre définitif / BPA de l’année antérieure à l’introduction (2) Immo = actifs corporels / total dernier bilan certifié avant l’introduction (3) AD = participation directe ou indirecte du dirigeant dans le capital après l’introduction (4) LIQ = volume moyen des titres échangés les 25 premiers jours de cotation (5) MN = marge nette = résultat net / chiffre d’affaires de l’année précédant l’introduction (6) CAE = pourcentage du chiffre d’affaires réalisé à l’export l’année précédant l’introduction Seules les variables dont l’écart entre les moyennes est statistiquement différent de 0 sont rapportées. PREC = 0/1 PER Immo Marge nette CAE N 32/58 32/58 32/58 32/58 Moyenne -21.6/33.2 21.4/31.5 0.230/5.42 49.9/27.3 Médiane 21.4/18.8 18.2/21.5 3.58/4.80 55.5/6.95 Écart-type 241/44.1 15.5/26.1 20.0/7.44 26.7/32.9 Dif. moy. -54.8* -10.1** -5.19* 22.7*** t (signif.) -1.685 (0.096) -2.004 (0.048) -1.775 (0.079) 3.510 (0.001) Biais = 0/1 AD LIQ Marge nette N 39/51 39/51 39/51 Moyenne 63.5/52.9 27633/17292 0.347/6.04 Médiane 74.9/62.6 11107/12266 4.33/4.67 Écart-type 25.6/30.9 33750/16634 17.5/8.66 Dif. moy. 10.6* 10341* -5.70* t (signif.) 1.773 (0.080) 1.908 (0.060) -1.868 (0.067) Tab. 2.4 – Impact de la précision et du biais des prévisions du dirigeant 80 Chapitre 2 Dans le tableau 2.5, l’erreur de prévision du dirigeant ( (BPAp-BPAr)/ |BP Ar|) est la variable à expliquer. Les variables explicatives sont : (1) InvInst = pourcentage d’investisseurs institutionnels présents dans le capital après l’introduction (2) IMMO = actifs corporels / total dernier bilan certifié avant l’introduction (3) INV = investissements prévus pour l’année suivant l’introduction / total bilan l’année précédant l’introduction (4) LIQ = volume moyen des titres échangés les 25 premiers jours de cotation Les variables muettes sont : (5) PER = prix d’offre définitif / BPA de l’année antérieure à l’introduction (6) MN = marge nette = résultat net / chiffre d’affaires de l’année précédant l’introduction (7) CAE = pourcentage du chiffre d’affaires réalisé à l’export l’année précédant l’introduction Le t de Student peut être significatif au seuil de 10% (*), 5% (**), 1% (***) ou 0.1% (****). En italique sont indiqués les VIF, facteurs d’inflation de la variance. variable dépendante Modèles Constante variables d’incertitude 1 a-b 1.240 0.750 4.08**** 1.113 pressions des créanciers 2 1.186 2.98*** Erreur de prévision du dirigeant pressions du marché financier 3 1.634 3.052*** variable de contrôle 4 1.517 4.115**** InvInst 2.28 10−2 ( 1.71*) Immo -2.8 10−5 (-2.122**) LIQ PER pressions internes et externes 5 a et b 1.186 4.483 2.086** 10.36**** −3 3.93 10 (2.298**) 1.052 -2.4 10−5 (-2.021**) 1.014 -0.006 (-3.06***) 1.008 -0.006 (-2.761***) -2.83 10−2 (-1.878*) 1.35 Inv 4.68 10−2 (2.072**) Marge nette 0.029 (2.674***) CAE R2 ajusté F N -2.74 10−5 (-2.258**) 1.007 0.064 4.256** 90 0.05 5.808** 90 0.021 5.644*** 90 0.024 3.545* 90 0.03 6.561*** 90 4.73 10−2 (2.41**) 1.016 0.025 (2.68***) 1.012 0.249 6.323*** 90 0.0236 (2.657***) 1.02 0.160 6.94**** 90 Tab. 2.5 – Explication de l’erreur de prévision du dirigeant par les variables d’agence Chapitre 2 81 Dans le tableau 2.6, la variable à expliquer est la rentabilité initiale anormale : [PCi / POi] - [Ic / I0] avec, pour une entreprise i, POi : prix d’offre ; PCi : premier cours coté ; Ic = cours de clôture de l’indice SBF 250 le jour de l’introduction et I0 = Cours d’ouverture de l’indice SBF 250. Les variables explicatives sont : (1) InvInst = pourcentage d’investisseurs institutionnels présents dans le capital après l’introduction (2) IMMO = actifs corporels / total dernier bilan certifié avant l’introduction (3) INV = investissements prévus pour l’année suivant l’introduction / total bilan l’année précédant l’introduction Les variables muettes sont : (4) PER = prix d’offre définitif / BPA de l’année antérieure à l’introduction (5) Marché = variable dichotomique prenant la valeur 0 si la société s’introduit sur le Nouveau Marché et 1 sur le Second Marché. Les modèles 6 à 10 visent à expliquer les performances boursières de la société introduite. Ils intègrent l’erreur de prévision du dirigeant (modèle 6), des variables d’agence (modèles 7 a, b et c) ou d’asymétrie (modèle 8). Les modèles 9 a et b incluent les variables d’agence, d’asymétrie et l’erreur de prévision du dirigeant. Le t de Student peut être significatif au seuil de 10% (*), 5% (**), 1% (***) ou 0.1% (****). En italique sont indiqués les VIF, facteurs d’inflation de la variance. var. dépendante Modèles Constante EPD0 Qualité prévision 6 0.158 1.183 0.104 (2.57**) Rentabilité initiale anormale variables d’agence Asymétrie -1.32 -1.80* 7 a-b-c -1.025 -1.135 0.214 2.25** 2.0410−2 (2.52**) 1.024 InvInst 2.5310−3 (1.62*) 1.105 Inv -4.5610−3 (-2.8**) 1.02 Immo PER Marché R2 ajusté F N 8 0.632 5.52**** 0.059 6.561** 90 -5.9210−2 (-2.65**) 1.167 0.102 3.46** 90 0.116 3.23** 90 0.278 3.12** 90 1.3410−3 (1.66**) 1.009 -5.5810−2 (-2.662**) 1.009 0.11 4.96** 90 Qualité prévisions et variables d’agence 9 a-b -0.748 -1.741 -1.85* -2.62** 0.24 0.26 (2.50**) (2.3**) 1.250 1.03 2.710−2 (1.87*) 1.24 4.2310−3 (1.725*) 1.03 -3.210−3 (-2.6*) 1.05 0.354 5.68*** 90 0.425 5.2** 90 Tab. 2.6 – Explication de la sous-évaluation par l’erreur de prévision du dirigeant, des variables d’asymétrie et/ou d’agence 82 Chapitre 2 Les pressions des actionnaires Moins le dirigeant est impliqué dans le capital après l’introduction, plus les actionnaires étaient supposés réclamer des prévisions de qualité. Au vu des tests univariés (tableau 2.4), les dirigeants optimistes restent significativement moins impliqués dans le capital que les dirigeants prudents. Dans les régressions multivariées (tableau 2.5), la rétention de capital par le dirigeant n’explique pas significativement ses erreurs de prévision. Schatt et Roy (2002) relient au contraire significativement la fraction de capital conservée par les actionnaires d’origine à la précision et au pessimisme des estimations du dirigeant. La plus grande taille de leur échantillon (151 observations), et la sélection de tous les actionnaires originels, et pas uniquement de l’actionnaire-dirigeant, peuvent expliquer que leurs résultats diffèrent des nôtres. Les résultats ne permettent donc pas d’accepter ou de rejeter l’hypothèse H1. Le dirigeant était présumé publier des prévisions d’autant plus exactes que des investisseurs institutionnels composent le capital. Nous observons au contraire que les erreurs de prévision du dirigeant croissent avec la participation des investisseurs institutionnels (tableau 2.5, modèle 5a). L’hypothèse H2 est donc infirmée. Pourtant, sur le marché secondaire, les actionnaires institutionnels semblent contrôler efficacement la politique informationnelle du dirigeant, selon Rajgopal et al. (1999). Ils paraissent empêcher une gestion opportuniste des résultats. Partant, la présence possible, parmi l’actionnariat institutionnel, de la banque introductrice pourrait rendre compte de notre résultat. L’introducteur a en effet intérêt à maximiser le produit de l’opération9 . En encourageant le dirigeant comme ses analystes (Michaely et Womack, 1999 ; Dechow et al., 2000) à l’optimisme, il place plus aisément les titres. Cette hypothèse explicative reste à vérifier en prolongement de ce travail. Les pressions des créanciers D’après les tests univariés (tableau 2.4), les sociétés aux prévisions précises et optimistes ont significativement moins d’actifs corporels que les sociétés aux perspectives imprécises et pessimistes. Dans les modèles de régression (tableau 2.5, modèles 2 et 5b), les erreurs de prévision du dirigeant diminuent bien avec le montant des investissements prévus et augmentent avec le niveau des immobilisations corporelles. Lorsque 9 Il perçoit des commissions fonction des fonds levés (de 5 à 7%). Chapitre 2 83 les créanciers supportent un risque important, ils étaient supposés exiger des informations précises sur les perspectives de l’entreprise (H3). Nos résultats semblent accréditer cette hypothèse. Le rôle disciplinaire du marché financier D’après les tests univariés (tableau 2.4), les sociétés prudentes dans leurs prévisions voient leurs titres significativement plus échangés que les sociétés optimistes. Les régressions (tableau 2.5, modèle 3) confortent ce résultat. Le dirigeant diffuse des prévisions d’autant plus exactes que les titres introduits sont échangés et donc particulièrement suivis par le marché financier. Le pouvoir explicatif de la variable liquidité s’améliore lorsque sont ajoutées les autres variables d’agence ou d’incertitude (modèles 5 a et b). L’hypothèse H4 est donc vérifiée. Variable de contrôle • La marge nette, proxy des coûts de propriété D’après les tests univariés, les sociétés aux perspectives précises dégagent une marge nette (5.4%) significativement plus élevée que les sociétés aux prévisions inexactes (0.23%), au seuil de 10%. Nous nous attendions au contraire à ce que les erreurs de prévision soient reliées positivement à la marge nette. La marge nette des sociétés optimistes (6%) dépasse de manière significative celle des sociétés pessimistes (0.3%). Les résultats des régressions avalisent nos anticipations (tableau 2.5, modèle 4). Plus la marge nette est faible, plus le dirigeant diffuse des prévisions exactes. La variables est significative au seuil de 5%. Le R2 s’élève à 3%, tandis que le F de Fisher est significatif au seuil de 5%. L’ajout des variables d’agence confirme le pouvoir explicatif de la marge nette (modèle 5a). • Endettement, taille et âge Ni l’analyse univariée ni les modèles de régression n’établissent de lien significatif entre les erreurs de prévision et l’endettement. L’endettement était supposé accroı̂tre la volatilité des résultats et donc l’imprécision des prévisions. Il rend par ailleurs la publication d’informations de qualité moins nécessaire. En effet, il permet de résoudre les conflits potentiels entre le diri- 84 Chapitre 2 geant et les actionnaires (Jensen et Meckling, 1976 ; Grossman et Hart, 1980). D’après les résultats de Moyer et al. (1989), les actionnaires acquièrent d’autant moins d’informations auprès des analystes que la société est endettée. Sur notre échantillon, l’endettement et la qualité des prévisions publiées sont des variables indépendantes. Ces deux mécanismes de gouvernement semblent donc exclusifs. • Le niveau d’incertitude Le marché d’introduction, l’horizon de prévision, le chiffre d’affaires réalisé à l’étranger et le PER approchent le niveau d’incertitude. Dans le tableau 2.4, les sociétés sont différenciées selon l’exactitude puis le biais des prévisions de leur dirigeant. Les sociétés les moins précises dans leurs estimations présentent des PER significativement plus faibles que les sociétés les plus précises. Leur chiffre d’affaires à l’export est en outre significativement plus élevé. L’incertitude sur les bénéfices estimés semble donc bien diminuer avec le PER et augmenter avec le chiffre d’affaires réalisé à l’étranger. Le tableau 2.7 rapporte les erreurs de prévision du dirigeant à l’horizon d’un an (EPD0) ou de deux ans (EPD1) après l’introduction, pour une société du Nouveau Marché (EPD-NM) ou du Second Marché (EPD-SM). Il indique si les erreurs moyennes et médianes, puis les écarts EPD0-EPD1 et EPDNMEPDSM sont statistiquement différents de 0. EPD0 EPD1 EPD0-NM EPD0-SM EPD0-EPD1 N 90 54 29 61 N 54 Moyenne 1.17 2.95 1.29 1.11 Dif. moyennes -1.515**** Médiane 0.042 0.661 0.305 0.026 Stat. t -3.422 Écart-type 2.97 5.34 3.44 2.74 Sig. 0.001 Stat. t 3.725**** 3.916**** 2.011* 3.155*** Stat. Z 5.713 Stat. Z 2.48** 5.75**** 1.71* 1.75* Sig. 0.000 Tab. 2.7 – Erreurs de prévision du dirigeant selon le marché d’introduction et l’horizon En moyenne, les prévisions du dirigeant sont plus optimistes et inexactes pour les introductions au Nouveau Marché (129%) qu’au Second Marché (111%). Les erreurs médianes sont optimistes quel que soit le marché d’introduction, et de moins bonne qualité pour les sociétés du Nouveau Marché (30%, contre 2.6% pour le Second Marché). Toutefois, les écarts entre les deux Chapitre 2 85 marchés restent non significatifs, qu’ils soient calculés à partir des moyennes ou des médianes. Les dirigeants sont en moyenne significativement plus optimistes et imprécis à long terme qu’à court terme. Leurs erreurs moyennes sont respectivement de 117% à l’horizon d’un an et de 295% à l’horizon de deux ans. À propos des analystes financiers, Dechow et al. (2000) avancent qu’une erreur de prévision à long terme nuit moins à leur réputation qu’à court terme. L’argument vaut pour les dirigeants. La forte dispersion de nos observations conduit à analyser les médianes. Les estimations des dirigeants sont optimistes à l’horizon d’un an et très précises (avec une erreur de 4.2%). À l’horizon de deux ans, leur qualité se dégrade significativement (l’erreur passe à 66%). Le faible nombre d’observations à deux ans (54) invite à interpréter ces résultats avec prudence. Dans le modèle de régression 1a (tableau 2.5), les erreurs de prévision du dirigeant sont reliées négativement au PER. Moins la communauté financière est confiante dans les perspectives de la société et plus le dirigeant est optimiste dans ses prévisions. Le dirigeant semble également d’autant plus se tromper qu’une part importante de son activité a lieu à l’étranger (modèle 1b). La qualité globale d’ajustement des modèles reste faible, avec des coefficients de détermination de 0.064 et 0.05. Ainsi, les analyses univariée et multivariée relient positivement l’optimisme du dirigeant et l’incertitude sur les bénéfices estimés. Dans un contexte d’incertitude, le marché décèle difficilement si l’erreur de prévision est voulue ou exogène. Le dirigeant gagne donc à être optimiste. Il satisfait ainsi les intérêts des anciens actionnaires sans entacher sa réputation. 2.3.3 Qualité des prévisions publiées et performances boursières La rentabilité initiale anormale est d’abord régressée sur l’erreur de prévision du dirigeant (modèle 6), puis sur les variables d’agence (modèles 7 a, b et c) et sur les variables de contrôle (modèle 8). Enfin, nous étudions les éventuelles interactions entre l’erreur de prévision du dirigeant, les variables d’agence et de contrôle (modèles 9 a et b). Le tableau 2.6 récapitule les modèles les plus significatifs obtenus. Qualité des prévisions et sous-évaluation L’erreur de prévision du dirigeant influence positivement et de manière significative la sous-évaluation, au seuil de 5%. Le pouvoir explicatif du modèle 86 Chapitre 2 6 est faible, avec un coefficient de détermination de 5%, mais le F de Fisher est significatif au seuil de 5%. La publication par le dirigeant de prévisions de qualité semble garantir une moindre sous-évaluation du prix d’offre. Elle peut réduire l’incertitude des investisseurs ou les conflits d’agence qu’ils anticipent. Le modèle obtenu ne permet pas de privilégier une explication. Nos résultats diffèrent de ceux de la littérature. Keasey et McGuiness (1991) sur le marché britannique ou Chen et al. (2001) sur le marché de Hong Kong, obtiennent une relation positive et significative entre la sous-évaluation et l’erreur de prévision du dirigeant, calculée ainsi : (BP Ar − BP Ap) / |BP Ap|. Plus le dirigeant est optimiste et moins les titres apparaissent sousévalués. Sur le marché new-zélandais, sous-évaluation et erreur de prévision du dirigeant ne sont pas significativement liées (Firth et Smith, 1992). Variables d’agence et sous-évaluation Les variables d’agence déterminent la probabilité de conflits entre l’entreprise et ses parties prenantes. Le prix d’offre devrait être d’autant plus sous-évalué que les investisseurs anticipent des oppositions d’intérêts. Dans le cadre de la théorie de l’agence, plus le dirigeant participe au capital, plus ses intérêts rejoignent ceux des actionnaires. Les coûts d’agence et la sous-évaluation initiale étaient donc supposés diminuer avec la rétention de capital par le dirigeant. Toutefois, dans les régressions, le désengagement du dirigeant n’influence pas significativement la sous-évaluation. Il ne semble pas non plus affecter les performances boursières à long terme des sociétés introduites (Godard et Poincelot, 2002). En France, la structure fermée du capital et la faible protection des actionnaires minoritaires rendent plus probables les conflits d’intérêts entre propriétaires (minoritaires/majoritaires) qu’entre le dirigeant et les actionnaires. Nous avons supposé les actionnaires institutionnels plus susceptibles de s’opposer au dirigeant que les actionnaires non professionnels. Sur notre échantillon, l’actionnariat institutionnel est relié positivement et significativement - au seuil de 10% - à la sous-évaluation (modèle 7 a). Selon notre hypothèse, le marché associerait ces actionnaires à de prévisibles coûts d’agence, et donc demanderait une plus forte sous-évaluation du prix d’offre. Mais nous pouvons interpréter notre résultat à la lumière d’autres théories que la TPA. Les investisseurs institutionnels, bien informés (Rock, 1986) ou coalisés avec le banquier introducteur (Derrien, 2002 ; Sherman et Titman, 2002), bénéficient en priorité des titres sous-évalués. Sur le plan empirique, l’ac- Chapitre 2 87 tionnariat institutionnel est plus considéré comme un organe de contrôle du dirigeant, que comme une variable d’agence. Son impact sur la valeur de la société, escompté favorable, s’avère en réalité ambigu. Wruck (1989) analyse les réactions boursières à l’acquisition, par les investisseurs institutionnels, de nouveaux titres émis par 128 sociétés cotées. Il n’observe de rentabilité anormale positive que si les institutionnels détiennent, après l’émission, plus de 25% du capital. Plus les actifs corporels sont importants (modèle 7c) ou les projets d’investissement faibles (modèle 7b), plus la sous-évaluation apparaı̂t diminuer. Dans le cadre de la TPA, nous avons supposé le risque de conflits entre dirigeant et créanciers diminuant avec le montant des immobilisations corporelles et augmentant avec le niveau des investissements prévus. Nos observations vont dans le sens de cette hypothèse. Les investisseurs anticiperaient une économie de coûts d’agence et accepteraient une moindre sous-évaluation du prix d’offre. Asymétrie et sous-évaluation La sous-évaluation apparaı̂t significativement (au seuil de 5%) plus importante pour les sociétés du Nouveau Marché et à PER élevé dans le modèle 8. Elle croı̂t donc avec le niveau d’asymétrie, conformément aux études empiriques antérieures (Ginglinger et Faugeron-Crouzet, 2001 par exemple). La qualité globale d’ajustement du modèle est faible. Le R2 s’élève à 11% ; le F de Fisher est significatif à 5%. Qualité des prévisions, variables d’agence, d’asymétrie et sousévaluation L’erreur de prévision est incluse dans les modèles de régression, en même temps que les variables d’asymétrie et d’agence. La qualité d’ajustement des modèles (9 a et b) s’améliore. Les R2 passent à 0.3 et le seuil de significativité du F à 0.1%. Les variables d’asymétrie n’influencent plus significativement la sousévaluation. En publiant des prévisions exactes, le dirigeant semble donc bien lever l’incertitude des investisseurs. La publication de prévisions de qualité ne neutralise que partiellement l’impact des variables d’agence sur la sous-évaluation. La fraction de capital détenue par les investisseurs institutionnels reste si- 88 Chapitre 2 gnificative à 10% (modèle 9a) et le signe de son coefficient, positif. Dans le cadre de la TPA, nous avons envisagé la présence d’investisseurs institutionnels comme un risque de conflit entre actionnaires et dirigeant. Au vu de nos résultats, la publication de prévisions de qualité n’éliminerait pas ce risque. Les investisseurs exigent toujours une sous-évaluation majorée, même lorsque la variable InvInst est introduite avec l’erreur de prévision du dirigeant. La part des immobilisations corporelles dans la valeur totale de la firme voit son pouvoir explicatif se dégrader (de 5 à 10%), mais reste négativement liée à la sous-évaluation (modèle 9 a). De même, le montant des projets d’investissement détermine toujours positivement et significativement la sousévaluation (modèle 9b). Malgré la diffusion d’informations précises, les investisseurs considèrent possible un conflit entre créanciers et dirigeant lorsque les garanties des créanciers sont faibles. Les variables actifs corporels / total bilan et investissements prévus / total bilan sont censées mesurer l’éventualité d’une opposition entre dirigeant et créanciers. Mais la première constitue elle-même un moyen de gérer la relation d’agence. En acquérant des immobilisations corporelles, le dirigeant accroı̂t les garanties des créanciers et limite le risque de conflit. Ce dispositif de gouvernement semble compatible avec la publication de prévisions de qualité. Conclusion Dans cette étude, nous nous sommes demandés si la diffusion d’information de qualité pouvait être considérée comme un mécanisme de gouvernance efficace. Autrement dit, la qualité des estimations publiées réconcilie-t-elle les intérêts du dirigeant avec ceux des autres parties prenantes ? En présence de prévisions de qualité, les investisseurs anticipent-ils de moindres conflits d’agence ? Acceptent-ils une plus faible sous-évaluation du prix d’offre ? Les principaux résultats mis en évidence sont les suivants. Nous soulignons l’excès d’optimisme du dirigeant comparé aux analystes financiers ou à un modèle naı̈f de prévision. Son optimisme est accentué en présence d’une forte incertitude sur les bénéfices estimés. Le dirigeant préserverait ainsi sa réputation. Une structure d’actionnariat ouverte, comprenant des investisseurs institutionnels, était supposée accroı̂tre la probabilité de conflits entre le dirigeant et les actionnaires, et donc la précision des prévisions publiées. Les résultats ne rejoignent pas nos prédictions. D’une part, la présence d’investisseurs institutionnels dans le capital est reliée positivement, et non négativement, aux erreurs de prévision. D’autre part, la qualité des prévisions émises est indépendante de la séparation de la propriété Chapitre 2 89 et de la gestion, approchée imparfaitement par la participation du dirigeant au capital après l’introduction. La structure des actifs et la politique d’investissement étaient présumées déterminer le risque des créanciers et donc leurs exigences informationnelles. Elles expliquent bien significativement les erreurs de prévision du dirigeant. Le dirigeant publie des prévisions d’autant plus exactes que les titres introduits sont échangés. Le pouvoir explicatif du volume moyen échangé n’est toutefois significatif qu’à 10%. Nos résultats n’attestent donc que faiblement le rôle disciplinaire du marché financier. L’endettement, la taille et l’âge de la société n’ont pas d’effet significatif sur l’erreur de prévision du dirigeant. Enfin, l’exactitude des prévisions du dirigeant influence la richesse des actionnaires. Elle est associée à une moindre sous évaluation du prix d’offre. Mais au regard des investisseurs, elle ne semble pas un mécanisme de gouvernement très efficace. Introduite avec les autres variables d’agence, elle n’empêche pas les investisseurs d’anticiper de possibles conflits d’intérêts entre le dirigeant et les actionnaires ou les créanciers. Les nombreuses limites de cette étude ouvrent de nouvelles perspectives de recherche. La qualité d’ajustement de nos modèles est faible. Nous avons pu omettre des facteurs explicatifs. Des considérations autres que d’agence peuvent encore affecter la qualité des prévisions diffusées. Par ailleurs, la mesure des variables d’agence est approximative et leur interprétation ambivalente. Par exemple, nous avons utilisé les immobilisations corporelles pour approcher la probabilité de conflits entre le dirigeant et les créanciers. Mais le dirigeant peut aussi recourir à cette variables pour gérer les relations d’agence avec les créanciers. Les investissements en actifs corporels constituent donc eux-mêmes un mécanisme de gouvernement. Enfin, l’analyse plus fine de la répartition du capital avant et après l’introduction permettrait de mieux comprendre l’influence des différentes catégories d’actionnaires sur la politique informationnelle du dirigeant. L’entrée sur le marché d’une société bouleverse la structure de son bilan. Les bailleurs de fonds craignent que ces changements ne fragilisent leur situation. La publication d’information de qualité peut alors prévenir à moindre coût les conflits d’intérêts. Elle permet aux actionnaires et aux créanciers d’évaluer et de contrôler le dirigeant sans recherche extérieure d’information. De son côté, le dirigeant se dédouane à peu de frais, notamment quand il dispose en interne des informations publiées. Le mécanisme de gouvernement étudié dans le chapitre 1 satisfait donc les cocontractants, tout en étant optimal d’un point de vue social. 90 Chapitre 2 Dans le chapitre 2, l’analyste tient le rôle d’agent ; son employeur, celui de principal. Là encore, l’agent peut empêcher que la relation d’agence ne devienne conflictuelle, en diffusant des informations conformes aux attentes du principal. Mais dans certains cas, les informations produites par l’analyste en fonction des préférences du principal peuvent s’avérer biaisées. Ainsi, la littérature établit l’optimisme excessif des analystes dont l’employeur participe à l’introduction. Elle suggère, sans le prouver, que les analystes sont incités à l’optimisme dans l’intérêt commercial de leur employeur. Nous nous proposons donc, dans le chapitre 3, d’apprécier l’indépendance réelle des analystes affiliés à l’entreprise d’investissement spécialiste. Nous cherchons également à comprendre comment et à quels moments se manifestent les incitations à l’optimisme avancées dans la littérature. Chapitre 3 Enquête sur l’indépendance des analystes de l’entreprise d’investissement Introduction Les analystes de l’entreprise d’investissement spécialiste produisent de nombreuses informations sur la société en cours d’introduction. Dans leur étude financière, ils présentent l’activité de la société, sa stratégie et sa situation financière. Ils estiment également ses résultats à venir. Ils utilisent ensuite leurs prévisions pour déterminer la valeur espérée du titre. Sur notre échantillon, les analystes de l’entreprise d’investissement spécialiste s’avèrent significativement plus optimistes que les analystes d’I/B/E/S, affiliés ou non au chef de file (tableau 1.7, première partie). Les premiers évaluent la société avant son introduction en bourse. Leur erreur moyenne de prévision1 s’élève à 131% (voir tableau 1.6, première partie). Les seconds transmettent à I/B/E/S leurs prévisions dans l’année suivant l’introduction. Ils commettent une erreur moyenne de -13.1% ou 49.4%, selon qu’ils sont affiliés ou non à l’introducteur (tableau 1.6, première partie). Sur l’échantillon de Derrien et Degeorge (2001) également, les analystes de l’entreprise d’investissement spécialiste apparaissent plus optimistes que les analystes d’I/B/E/S. Leurs erreurs moyennes de prévision valent respectivement -2.08% et -1.63%. Elles sont calculées ainsi : (BPA réel - BPA prévu) / 1 Les prévisions portent sur le BPA. Elles ont pour horizon l’exercice fiscal suivant l’exercice de l’introduction. L’erreur de prévision rapporte l’écart entre les BPA prévu et réel, à la valeur absolue du BPA réel. 91 92 Chapitre 3 Cours du titre le jour de l’introduction. La presse financière et la recherche évoquent la difficile objectivité des analystes dont l’employeur prépare une opération sur le marché primaire avec la société évaluée. Dès la fin des années 80, la presse dénonce l’optimisme des analystes, contraire à la logique financière. Ainsi, en 1994, Eurotunnel décide l’émission de nouvelles actions. Bien que les titres soient surévalués par rapport à leur valeur intrinsèque, ils sont recommandés à la vente par seulement deux analystes indépendants. Au contraire, les analystes affiliés aux banques créancières du projet incitent le public à souscrire à l’augmentation de capital. De son côté, la recherche empirique souligne le plus grand optimisme des analystes affiliés comparés aux analystes indépendants. Les analystes affiliés semblent surestimer les futurs résultats d’une société cliente de leur employeur (Lin et McNichols, 1998 ; Dechow et al., 2000 ; Derrien et Degeorge, 2001). Michaely et Womack (1999) montrent que les analystes recommandent davantage à l’achat, un titre introduit en bourse par leur employeur. Pour expliquer leurs résultats, la plupart des auteurs suggèrent l’existence de conflits d’agence au sein des établissements financiers. Seuls Michaely et Womack testent la plausabilité de cette hypothèse auprès de professionnels. Dans leur prolongement, nous souhaitions interroger des analystes sur la réalité des pressions avancées dans la littérature. Nous voulions également comprendre comment et à quels moments de la préparation de l’introduction, le principal influence son agent. Ce chapitre a un objectif principalement exploratoire. Il est préalable à une étude quantitative sur les relations entre l’affiliation de l’analyste et son offre d’information. Il vise également à enrichir la connaissance du métier d’analyste, et à mieux comprendre comment les analystes affiliés à l’entreprise d’investissement spécialiste travaillent. Nous les questionnons, à ce titre, sur leurs sources d’information. L’interrogation nous est apparue comme un moyen plus fiable et moins coûteux que l’observation de répondre à nos objectifs de recherche. Nos investigations comprennent un corpus d’entretiens exploratoires, suivi d’une enquête par questionnaire auprès de 334 analystes. L’enquête a été administrée par voie postale et via Internet, entre décembre 2000 et février 2001. 34 analystes ont répondu au questionnaire web et 4 au questionnaire postal. Le reste de l’étude s’organise de la manière suivante. La section 3.1 présente les fondements empiriques et théoriques des conflits d’agence entre Chapitre 3 93 l’analyste et son employeur. Ensuite, nous justifions et développons la méthodologie retenue. La section 3.3 analyse les réponses des analystes. Enfin, la section 3.4 compare l’utilité des deux modes de recueil utilisés, Internet et la voie postale. 3.1 Les conflits d’agence entre l’analyste et son employeur : fondements empiriques et théoriques Au regard des études empiriques, les analystes semblent plus optimistes lorsque leur employeur entretient des relations d’affaires avec la société évaluée. Dans le cadre de la théorie de l’agence, l’analyste (l’agent) adapterait son offre d’information aux intérêts commerciaux du principal (l’employeur). Revue de la littérature Un certain nombre d’auteurs étudient les analystes dans le cadre de leur environnement de travail. Dugar et Nathan (1995) sont les premiers à considérer l’offre d’information des analystes comme circonstancielle. Ils s’intéressent aux analystes travaillant dans des établissements multi-activités. Au sein d’un groupe, banque et entreprise d’investissement peuvent simultanément proposer leurs services au même client. Or les activités de courtage sont bien moins lucratives que les opérations de haut de bilan. La primauté des intérêts de la banque d’investissement est supposée contraindre l’analyste2 à l’optimisme dans son jugement sur la société. Les auteurs vérifient cette hypothèse sur la période 1983-1988, à partir de 500 prévisions de résultat et 500 recommandations. Ces informations proviennent pour moitié d’analystes de courtiers, pour le reste d’analystes de banques. Sur cet échantillon, les auteurs obtiennent une erreur médiane de -0.24% pour les analystes des banques et de -0.13% pour les analystes des courtiers. Ils calculent l’erreur en rapportant l’écart entre les BPA réel et prévu, au cours de l’action au début de l’exercice fiscal. Au vu du test des rangs de Wilcoxon, les analystes des banques sont significativement plus optimistes que les analystes des courtiers. Leurs recommandations s’avèrent également significativement plus favorables en nombre. Dugar et 2 Par commodité, nous dénommons analystes de banques (respectivement de courtiers) ceux dont l’employeur a (respectivement n’a pas) des relations de banque d’investissement avec la société évaluée. 94 Chapitre 3 Nathan évaluent ensuite la précision des prévisions des deux groupes d’analystes. La différence de leurs erreurs médianes de prévision au carré n’est pas statistiquement significative. Au total, les analystes des banques apparaissent aussi précis dans leurs estimations de résultat, mais plus optimistes que les analystes des courtiers. Pour les auteurs, ces résultats reflètent la situation duale des analystes des banques. Ils bénéficient d’un accès privilégié à l’information ; en même temps ils sont encouragés à apprécier favorablement le client de la banque. Plus récemment, Bolliger (2001) évalue la précision de 99 000 prévisions de résultats, émises par des analystes sell side entre 1993 et 1999, sur 2812 sociétés européennes. Il établit que l’erreur moyenne de prévision des analystes augmente avec la taille de leur employeur. Selon l’auteur, les analystes des grandes maisons de courtage font les frais non de conflits d’intérêts, mais de récentes restructurations. Les grandes maisons ont en effet réorganisé leur activité de recherche en Europe. Leurs analystes suivent toutes les sociétés européennes de leur secteurs de spécialité. Certes la spécialisation sectorielle permet aux analystes de réaliser des économies d’échelle dans la production de l’information. Mais simultanément, la couverture d’un portefeuille géographiquement diversifié est plus coûteuse. En effet, les marchés européens ne sont que partiellement intégrés (Griffin et Karolyi, 1998). Par ailleurs, la variété des normes comptables, fiscales et des informations à publier en Europe complique la tâche des analystes (Hope, 2001). Par conséquent, la connaissance du marché local confère un avantage comparatif aux analystes des plus petites maisons. Les travaux développés ci-après différencient également les analystes selon leur affiliation. Mais ils se situent dans le contexte d’une émission d’actions. Selon Hansen et Sarin (1996), les analystes se soucient de leur réputation et accentuent leurs efforts au moment des appels publics à l’épargne. Les analystes affiliés au chef de file apparaissent aussi précis dans leurs estimations de résultat annuel que les analystes indépendants. Lin et McNichols (1998) apprécient la qualité des informations produites par les analystes sur des sociétés cotées augmentant leur capital. Ils retiennent les prévisions de résultat (à venir et à un an), les prévisions de croissance du résultat dans les 5 ans et recommandations diffusées l’année précédant l’appel public à l’épargne. Ils apparient chaque information publiée par un analyste affilié à l’instant t, avec une information de même nature, diffusée par un analyste indépendant dans les six jours suivant t. Leur échantillon Chapitre 3 95 comprend 1 069 prévisions et 769 recommandations produites par les analystes affiliés sur 2 400 sociétés ayant émis des actions entre 1989 et 1994. Au vu de leurs résultats, les analystes affiliés ne se trompent pas significativement plus dans leurs prévisions de résultat que les analystes indépendants. Leurs erreurs moyennes de prévision3 s’élèvent respectivement à 7.04% et 7.09% à l’horizon fin de l’exercice en cours ; à 9.88% et 9.8% à l’horizon d’un an. Lin et McNichols (1998) confirment les résultats de Hansen et Sarin (1996). Par contre, les analystes affiliés apparaissent légèrement plus optimistes dans leurs anticipations du taux de croissance. Ils commettent une erreur moyenne de 21.29%, contre 20.73% pour les analystes indépendants. La différence des moyennes est statistiquement significative au seuil de 10%. Au cours des trois années antérieures ou postérieures à l’émission, les analystes affiliés émettent enfin significativement plus de recommandations favorables que les analystes indépendants. D’après les auteurs, les résultats corroborent aussi bien l’une que l’autre des explications suivantes. La société pourrait choisir le banquier introducteur dont les analystes sont bienveillants à son égard. Ou bien le banquier pourrait inciter ses analystes à l’optimisme afin d’obtenir le mandat de placement. Michaely et Womack (1999) étudient les informations produites par les analystes sur 200 titres cotés pour la première fois en 1990 ou 1991 aux ÉtatsUnis. En premier lieu, ils analysent la nature des 360 recommandations diffusées sur ces titres au cours de leur première année boursière. 112 des 214 recommandations d’achat émanent d’analystes affiliés au chef de file. Les trois seules recommandations de vente proviennent d’analystes indépendants. Ainsi, les analystes recommandent plus facilement à l’achat les titres introduits lorsqu’ils sont affiliés au chef de file. En second lieu, Michaely et Womack cumulent les rentabilités anormales achat-conservation sur le mois précédant la publication des recommandations d’achat. Les titres recommandés à l’achat par les analystes affiliés affichent une rentabilité anormale moyenne de -1.6%, contre 4.1% pour les valeurs conseillées à l’achat par les analystes indépendants. La différence des rentabilités moyennes est statistiquement significative (t=2.36). Les analystes affiliés semblent donc recommander à l’achat des titres contre-performants. Les auteurs proposent deux explications alternatives à leurs résultats. Soit les analystes affiliés croient sincèrement en les perspectives de croissance de la société. Leur opinion favorable a, au demeurant, pu conduire la société à choi3 Les auteurs rapportent la différence entre la prévision et la réalisation, au cours de l’action le jour précédant la publication de la prévision. 96 Chapitre 3 sir leur employeur comme introducteur. En recommandant à l’achat le titre, les analystes affiliés signalent de bonne foi une opportunité de placement aux investisseurs. Leur excès d’optimisme est donc involontaire. Soit les analystes affiliés forcent délibérément le trait optimiste de leur évaluation. Ils espèrent ainsi favoriser les relations d’affaires de leur employeur avec la société. Mais ils nuisent aux intérêts des investisseurs. Le biais optimiste constaté est alors stratégique et voulu. Afin de déterminer l’explication la plus pertinente, les auteurs interrogent 31 professionnels achetant ou vendant des titres introduits. Les 26 répondants se répartissent équitablement entre gestionnaires de portefeuille et banquiers introducteurs. 88.5% considèrent l’hypothèse des conflits d’intérêts comme la plus plausible. Dechow et al. (2000) se demandent si l’affiliation d’un analyste détermine l’optimisme de ses prévisions. Leur échantillon inclut 7 169 prévisions d’analystes, publiées dans l’intervalle [-9 mois ; +3 mois] centré sur les dates de 1 179 émissions d’actions par des sociétés cotées. Les prévisions portent sur les perspectives de croissance du résultat à 5 ans. Les analystes affiliés au chef de file sont incités à évaluer favorablement les clients effectifs ou potentiels de leur employeur. Le cas échéant, les analystes affiliés/non affiliés harmonisent leurs estimations avec celles des analystes non affiliés/affiliés. Leur optimisme est donc supposé fonction de leur affiliation, mais aussi du comportement des autres analystes. Dechow et al. testent cette hypothèse sur le marché américain. Les estimations de l’échantillon sont réparties selon leur producteur (analyste affilié/non affilié) et la présence ou l’absence de prévisions concurrentes. L’exactitude des quatre groupes de prévisions est ensuite déterminée, par différence entre les taux de croissance réels et prévus. Le tableau 3.1 indique les erreurs moyennes de prévision obtenues, et entre parenthèses les effectifs de chaque groupe. Plus les analystes sont proches du chef de file et plus ils se révèlent optimistes dans leurs anticipations. prévision concurrente oui non Producteur analyste affilié analyste non affilié -14.3% (491) -10.5% (2 938) -14.8% (131) -10% (3 609) Tab. 3.1 – Erreur moyenne de prévision des analystes selon leur affiliation (Dechow et al., 2000) Enfin, Dechow et al. testent si les commissions perçues par le chef de file expliquent l’erreur de prévision de ses analystes. Ils obtiennent, à partir de Chapitre 3 97 622 observations, l’équation de régression4 suivante : erreur de prévision = - 0.0096** - 0.047* x commissions. Le coefficient de détermination vaut 0.4. Plus le chef de file perçoit d’importantes commissions, plus ses analystes surévaluent les prévisions concernant l’émetteur. Derrien et Degeorge (2001) étudient également l’influence de l’affiliation d’un analyste sur la qualité de ses prévisions. Dans un premier temps, ils prolongent le travail de Dechow et al. aux sociétés admises à la cote française. Les prévisions de résultat annuel de 243 sociétés introduites sur le Nouveau Marché et le Second Marché entre janvier 1991 et juillet 1998, constituent leur échantillon. Elles sont extraites des bases d’I/B/E/S, puis classées selon la taxinomie de Dechow et al.. Le tableau 3.2 donne l’erreur moyenne de prévision et l’effectif de chaque classe. Les prévisions considérées ici concernent l’exercice fiscal suivant celui de l’introduction en bourse. prévision concurrente oui non Producteur analyste affilié analyste non affilié -2.03% (387) -1.66% (1320) -4% (54) -0.51% (279) Tab. 3.2 – Erreur moyenne de prévision des analystes selon leur affiliation (Derrien et Degeorge, 2001) Les analystes affiliés semblent d’autant plus optimistes qu’ils sont les seuls à émettre des prévisions sur la société introduite. De leur côté, les analystes non affiliés apparaissent plus précis dans leurs estimations, notamment en l’absence de toute influence du chef de file. Les résultats de Dechow et al. semblent donc vérifiés dans le contexte d’une introduction en bourse. Dans un second temps, Derrien et Degeorge mesurent les relations entre d’une part, les quatre classes de prévisions originaires d’I/B/E/S ; d’autre part, les prévisions publiées dans l’analyse financière du dossier d’introduction. Ces prévisions ne sont pas faites au même moment. Les analystes transmettent en majorité leurs estimations à I/B/E/S, une fois le titre introduit et coté sur le marché secondaire. Au contraire, les analystes de l’entreprise d’investissement produisent leurs estimations lorsque la société est en cours d’introduction. Leur employeur participe à l’introduction, comme celui des analystes dits affiliés. Si les analystes prennent en compte les intérêts commerciaux de leur employeur, alors les prévisions des analystes affiliés et des 4 Les coefficients peuvent être significatifs à 10% (*) ou 5%(**) 98 Chapitre 3 analystes de l’entreprise d’investissement devraient avoisiner. Les coefficients de corrélation obtenus corroborent cette hypothèse. Ils sont rapportés dans le tableau 3.3. Entre parenthèses figure le nombre d’observations. prévision concurrente oui non Producteur analyste affilié analyste non affilié 0.7568 (265) 0.6784 (873) 0.8697 (34) 0.2713 (179) Tab. 3.3 – Coefficients de corrélation entre les prévisions d’I/B/E/S et celles de l’étude financière (Derrien et Degeorge, 2001) Globalement, la recherche empirique suggère l’existence de conflits d’agence entre l’analyste et son employeur, notamment quand ce dernier est mandaté par la société évaluée. Hypothèse Dans le cadre de la théorie de l’agence, nous tentons de prédire le comportement des analystes employé par l’entreprise d’investissement spécialiste. Les relations entre l’analyste et son employeur peuvent être qualifiées d’agence. L’entreprise d’investissement délègue à l’analyste le soin de fournir aux tiers-investisseurs des services informationnels. En principe, intérêts du principal, de l’agent et des tiers convergent. Mais en faisant preuve d’objectivité et d’indépendance dans leur jugement, les analystes peuvent porter préjudice aux intérêts du mandant. Ils subiraient alors des pressions pour se conformer aux objectifs du principal. Ainsi, lorsque l’entreprise d’investissement participe à l’introduction, elle devrait encourager ses analystes à faciliter l’exécution du mandat. Elle est chargée de rédiger une étude financière, d’animer le marché et de recueillir les ordres d’achat. Ses analystes devraient donc être incités à évaluer favorablement la société cliente et à proposer un cours d’équilibre anticipé attractif. Les intérêts commerciaux du principal priment en effet le devoir d’objectivité des analystes. Parfois l’entreprise d’investissement spécialiste est une filiale de la banque introductrice. Ses analystes devraient alors être incités à favoriser le placement des titres, et donc à l’optimisme. En effet, leurs estimations ne peuvent Chapitre 3 99 convaincre les investisseurs de passer des ordres d’achat que si elles sont optimistes. Enfin, dans ce cas, l’analyste subit la «malédiction du vainqueur». Autrement dit, il devrait justifier, dans l’étude financière, le prix d’offre élevé proposé par la banque. Plus le principal est impliqué dans la préparation de l’introduction, plus l’agent devrait voir son indépendance d’esprit compromise. Dans le cadre de la théorie de l’agence, notre hypothèse est donc : H- Les intérêts commerciaux de leur employeur contraignent les analystes dans leur tâche d’évaluation. 3.2 La méthodologie retenue Nous justifions le choix d’une méthodologie par enquête, avant d’en préciser les étapes et les limites. 3.2.1 Justification L’enquête est apparue une méthodologie appropriée à notre problème de recherche et à la population étudiée. Une méthodologie adaptée au problème de recherche La résolution de notre problème de recherche requérait des données primaires. • Des données primaires nécessaires Peu de chiffres descriptifs étaient disponibles pour répondre à notre objectif exploratoire. À notre connaissance, aucune étude n’avait été réalisée sur le segment des analystes évaluant les sociétés en cours d’introduction. En outre, la SFAF diffuse peu de statistiques sur ses membres. Par ailleurs, lorsque l’entreprise d’investissement spécialiste et la banque introductrice appartiennent à un même groupe, les études antérieures soulignent l’excès d’optimisme des analystes du broker. Elles en déduisent l’existence de conflits d’intérêts au sein des établissements financiers. Mais elles ne précisent ni comment ni à quels moments de la préparation de l’introduction la banque influence l’analyste. Ces informations ne pouvaient être recueillies qu’auprès des analystes eux-mêmes. 100 Chapitre 3 Une fois établie la nécessité de données primaires, restait à choisir le mode de collecte de ces informations. • Entretien ou questionnaire ? Plusieurs éléments nous ont amenés à utiliser la technique de l’entretien à titre exploratoire, et le questionnaire à titre principal. En premier lieu, les analystes interrogés oralement se sont exprimés avec réticence sur leur réelle indépendance dans l’exercice de leur métier. L’objectivation de leur discours (Rabinow5 , 1988, p. 137) et la régionalisation de leurs représentations (Goffman, 1973) peuvent expliquer ces résistances. Autrement dit, construire leur discours en parlant, sans préparation, et évoquer les conflits d’intérêts avec leur employeur sur leur lieu de travail ont pu embarrasser les analystes interrogés. Le cadre spatial des entretiens a empêché les analystes de se sentir en confiance pour évoquer la question de leur indépendance. Or la déontologie des enquêtes exclut que l’entretien puisse porter préjudice à l’enquêté. D’après l’article 5 de la Convention 108 du Conseil de l’Europe, les informations demandées doivent être «adéquates, pertinentes et non excessives par rapport aux finalités pour lesquelles elles sont enregistrées». En second lieu, le questionnaire rend plus aisée l’objectivation, c’est-àdire l’appréhension du phénomène étudié de l’extérieur. L’entretien permet de découvrir le sens subjectif des comportements des acteurs ; le questionnaire cherche à saisir le sens objectif de leur conduite (de Singly, 2001). Dans le questionnaire, l’enquêteur sélectionne les éléments pertinents et élimine les informations secondaires en fonction de critères théoriques. En entretien, il laisse au contraire la personne interrogée décider des informations conservées ou éliminées. Enfin, les réponses au questionnaire sont plus aisées à traiter statistiquement que le discours issu de l’entretien. Les chiffres dissolvent par sommation les différences individuelles secondaires. Ils ne conservent que les régularités statistiques. Toutefois, le chercheur n’est jamais complètement extérieur au phénomène approché par questionnaire. Il s’implique subjectivement lorsqu’il formule l’objet de recherche et les questions, ou qu’il trie les informations collectées. 5 «Les faits existent en tant que réalité vécue, mais ils sont fabriqués au cours des processus d’interrogation, d’observation et d’expérience». Chapitre 3 101 En troisième lieu, nous souhaitions interroger le plus grand nombre d’analystes possible. L’entretien convient mieux à l’étude de l’individu ou de groupes restreints. Une méthodologie a priori adaptée à la population étudiée Une enquête en face-à-face ou téléphonique n’aurait pas permis d’interroger de nombreux analystes rapidement et à un coût raisonnable. De plus, les analystes financiers semblaient a priori bien correspondre au profil type des internautes. Les études antérieures soulignent en effet la forte représentation masculine et de cadres des cyber -échantillons (Schaaper, 1999). En septembre 2001, 59.5% des internautes appartenaient aux catégories socio-professionnelles supérieures ; 64% étaient des hommes (source Jupiter MMXI). Nous avons donc choisi d’administrer le questionnaire essentiellement par Internet. Toutefois, nous l’avons également envoyé par la poste afin de ne pas exclure les analystes non connectés ou réticents à l’utilisation d’Internet. 3.2.2 Les limites d’une méthodologie par questionnaire Nous sommes conscients de l’incertitude des indices obtenus à partir d’une méthodologie par questionnaire. Comment contrôler la fiabilité et la véracité des déclarations des analystes sur le thème sensible de leur indépendance ? La triangulation, c’est-à-dire l’utilisation de multiples sources de données, atténue cette limite. Nous confrontons donc autant que possible les réponses au questionnaire à d’autres sources documentaires (presse financière, recherche antérieure). Des méthodes qualitatives autres que l’enquête auraient pu nous permettre d’identifier les informations utilisées par les analystes. Par exemple, Govindarajan(1980) étudie le contenu de 976 rapports d’analyse, tandis que Bouwman et al. (1987) recourent aux protocoles verbaux. Parallèlement, une méthodologie quantitative aurait permis de tester l’influence de l’affiliation de l’analyste sur son offre d’information. Elle est envisagée en prolongement de cette thèse. Nous précisons maintenant comment l’enquête a été réalisée. 102 Chapitre 3 3.2.3 Le protocole expérimental suivi Nous avons sélectionné le cyber -échantillon, puis conçu et enfin administré le questionnaire web. La sélection du cyber -échantillon Un plan de sondage en quatre étapes a permis de constituer l’échantillon. La population étudiée a tout d’abord été définie. Elle comprend les analystes qui rédigent l’analyse financière jointe au prospectus d’introduction. Ces analystes travaillent pour une entreprise d’investissement, adossée ou non à une banque d’affaires. Nous avons ensuite élaboré la base de sondage à partir de deux sources : l’annuaire de la Société Française des Analystes Financiers (SFAF) et les analyses financières des dossiers d’introduction. L’annuaire de la SFAF donne les coordonnées professionnelles des analystes membres. Il recense en 2001 environ 1700 analystes, dont 29% d’analystes sell-side, 9% d’analystes buy-side, 25% de gérants de portefeuille, 4% de gérants (source : SFAF, 2001). Nous avons sélectionné les analystes rattachés à une entreprise d’investissement ou à un prestataire indépendant. Nous avons également consulté les études financières des dossiers d’introduction à la COB. Les adresses électroniques ou postales de leurs auteurs ont été relevées. La base de sondage a permis de délimiter la population enquêtée. À partir de l’annuaire de la SFAF, nous avons formé un premier échantillon de 305 analystes (voir tableau 3.4). Répartition Internet Poste annuaire SFAF Dossiers d’introduction Analystes contactés 334 200 134 305 39 Répondants 38 34 4 16 22 Tab. 3.4 – Répartition de la population enquêtée et des répondants 178 analystes ont reçu le questionnaire via Internet, et les 127 restants par voie postale. La consultation des 295 études financières a permis d’envoyer 22 nouveaux questionnaires web et 17 questionnaires postaux. L’échantillon Chapitre 3 103 se compose donc au total de 334 analystes. Nous avons administré le questionnaire entre le 22 décembre 2000 et le 22 janvier 2001. L’étalement des envois était destiné à limiter le risque de mimétisme dans les réponses des analystes travaillant dans la même équipe. La concentration des analystes dans la région parisienne (95% des membres de la SFAF sont situés à Paris) élimine les difficultés d’échantillonnage liées à la répartition géographique. Enfin, restait à choisir la méthode de sondage. L’échantillon aléatoire, idéal statistique, aurait supposé une liste exhaustive de la population de référence. La méthode des quotas aurait nécessité de connaı̂tre la structure de la population étudiée. Le recours à une méthode non aléatoire s’est donc imposé. Il était par ailleurs cohérent avec les objectifs de l’enquête, l’existence d’une base de sondage et le budget disponible. L’élaboration du questionnaire Six entretiens exploratoires semi-directifs ont préalablement été menés. Ils ont permis de mieux connaı̂tre le langage des analystes et leur métier. Ils ont précisé ce qui méritait d’être abordé ou confirmé par le questionnaire. Une analyse thématique a ensuite permis de passer du matériel discursif à la rédaction du questionnaire. Le nombre, l’ordre et le format des questions ont été définis. La sensibilité des analystes au problème de leur indépendance et leur professionnalisme nous ont permis de concevoir un questionnaire long6 . La construction du questionnaire a respecté la technique de l’«entonnoir». La page d’introduction présente le contexte de l’étude. La première partie traite de l’évaluation des introductions par les analystes. La seconde partie s’intéresse aux informations qu’ils utilisent et produisent. Le suivi des sociétés post introduction fait l’objet de la dernière partie. Une fiche signalétique en fin de questionnaire regroupe les questions plus personnelles et d’identification. Nous avons principalement utilisé des questions fermées ou pré-formées. Comparées aux questions ouvertes, elles permettent aux opinions moyennes de s’exprimer. Leur traitement est également plus aisé et moins coûteux. 6 La longueur du questionnaire nous a dissuadée de le joindre en annexe de ce document. Il est par contre consultable à l’adresse http ://mapage.noos.fr/blabegrre1/enquete.htm. 104 Chapitre 3 Elles sont enfin adaptées aux contraintes de temps des analystes. La formulation des questions ne devait pas influencer les réponses des analystes. À cette fin, nous avons posé les questions sensibles, sur la réelle séparation des activités des marchés primaire et secondaire, de manière impersonnelle (Grawitz, 1996). Le pilotage du questionnaire auprès de trois membres de la SFAF (un stagiaire, le responsable de la communication et un administrateur responsable de la Commission du Second Marché) a permis de contrôler la clarté des questions et la durée du sondage. Les échelles de mesure ont enfin été choisies, et leur qualité contrôlée. Les analystes rapportent les faits sur des échelles simples (à une seule question) ; leurs attitudes et opinions sur des échelles multiples de Likert7 ou de Thurstone8 . Nous avons retenu ces échelles pour leur rapidité d’administration, leur simplicité de compréhension et de traitement, leur adaptabilité à tout mode de collecte (Vernette, 1991, p. 54 ). Nous avons ensuite vérifié la qualité des échelles de mesure utilisées selon les critères proposés par Évrard et al. (2001, p. 287). Ainsi, l’instrument de mesure semble fiable, au vu des réponses convergentes et des alpha de Cronbach satisfaisants (entre 0.6 et 0.7). Il paraı̂t également sensible car les répondants peuvent exprimer leur position de manière nuancée, sur des échelles de mesure entre 3 et 6 points. Enfin, afin d’améliorer la validité nomologique du questionnaire, nous avons explicitement interrogé les analystes sur leurs représentations des conflits d’agence (par exemple : «Le banquier introducteur peut-il influencer l’estimation par l’analyste du ”vrai” prix du titre ?»). L’administration du questionnaire par Internet Nous aurions pu envoyer directement les questionnaires aux enquêtés par courrier électronique. Mais nous risquions de bloquer la messagerie des destinataires. Nous aurions également perdu la mise en forme du questionnaire. Enfin, les messages non sollicités ne sont pas conformes à l’éthique du Net (ensemble de règles non écrites encadrant les comportements des utilisateurs d’Internet). Eu égard à ces inconvénients, nous avons choisi de publier le 7 Plusieurs questions relatives au même sujet sont posées. Le répondant indique son degré d’accord ou de désaccord sur une échelle en cinq points. 8 Contrairement à l’échelle de Likert, les énoncés des réponses sont considérés comme équidistants. L’échelle peut comporter plus ou moins de 5 points. Chapitre 3 105 questionnaire sur le web. La mise en oeuvre est maintenant précisée. • La programmation du questionnaire web Le questionnaire web a été généré en plusieurs étapes. Tout d’abord, nous nous sommes procurée un accès à Internet avec la possibilité d’héberger des pages web sur le serveur du fournisseur d’accès. Un logiciel d’édition de pages web ou de fichier HTM, téléchargeable sur le site http://www. pierresoft.cm/wck., a ensuite permis d’écrire la page d’accueil du site web (http://mapage.noos.fr/blabegrre1) et le questionnaire. Ces deux fichiers HTM ont enfin été transférés sur le serveur du fournisseur d’accès à Internet, à l’aide d’un logiciel freeware téléchargé à l’adresse http://www. ipswitch.com/Products/WS. • Le signalement du site web Nous avons incité les analystes à aller sur le site et à remplir le questionnaire par publipostage électronique, moyen simple, rapide, peu coûteux et conforme à la Net-étiquette de faire connaı̂tre son site (Schaaper, 1999). Un lien hyper-texte les renvoie ensuite directement au questionnaire. 3.3 Analyse des réponses au questionnaire Trente-quatre analystes ont répondu au courrier électronique incitatif et quatre au questionnaire postal. Leur profil et leur perception du métier d’analyste sont présentés. Nous vérifions ensuite la réalité des pressions subies par les répondants rattachés à la filiale d’une banque. Les sources d’information des analystes sont enfin étudiées. 3.3.1 Profil des répondants Une enquête a pour ambition d’expliquer ce que les acteurs font par ce qu’ils sont (Bourdieu, 1979). L’organisation d’affiliation, l’expérience et la réputation des répondants définissent leur identité professionnelle. Organisation d’affiliation Le cadre de travail des enquêtés devait être spécifié car il détermine les tâches à accomplir et les conflits d’intérêts à gérer par les analystes (Francis et Philbrick, 1993). Nous avons donc interrogé les analystes sur le statut et 106 Chapitre 3 la taille de leur employeur. Sur 38 répondants, 32 affirment travailler pour une société de bourse. Une société d’études stratégiques et financières emploie le 33ème . Cet analyste n’évalue pas les titres émis. Son questionnaire n’a donc pas été conservé. Mais il révèle un aspect original du métier d’analyste. Le 34ème est un analyste free-lance. Il réalise les études financières au nom et pour le compte des sociétés de bourse. Il illustre, comme le précédent, la diversité du métier d’analyste. L’indépendance liée à son statut rend sa participation à l’enquête intéressante. Nous avons donc exploité ses réponses. Enfin, les quatre derniers répondants travaillent pour la SG securities et le Crédit Lyonnais small caps. Ils s’estiment salariés d’une banque, et analystes à la fois sell-side et buy-side. Or ils sont en réalité employés par les entreprises d’investissement affiliées aux deux banques Société Générale et Crédit Lyonnais. Leur sentiment de travailler en même temps pour la maison mère et la filiale révèle la fragilité de la «Muraille de Chine» entre les départements corporate et recherche des établissements. À partir des réponses des analystes, nous avons reclassé les organisations citées en fonction de leur statut réel : entreprise d’investissement filiale d’une banque ou indépendante ; autres organisations. Douze analystes sur trente sept peuvent être considérés comme affiliés à une entreprise d’investissement indépendante ; vingt-cinq à la filiale d’une banque. Les établissements d’affiliation des répondants sont de taille moyenne. Ils emploient environ quarante-deux analystes et suivent d’une à trente-cinq introductions par an. Parcours et distinction professionnels Les répondants ont un niveau élevé de formation. 59% viennent de l’Université et 41% d’une école de commerce. Les enquêtes antérieures sur les analystes évoquent également cet aspect de la profession (Sranan-Boiteau, 1999 ou Fontowicz, 1999). Les répondants sont plutôt expérimentés. Vingt-deux analystes le sont depuis plus de cinq ans ; un tiers depuis en moyenne trois ans et demi. Fontowicz obtient quant à lui une expérience moyenne de 12.56 années sur une population étudiée de vingt-huit analystes, majoritairement sell-side. L’analyse financière n’est pas le métier d’origine des vingt-deux analystes les plus expérimentés. Mais sa professionalisation ne date que de 1953. Chapitre 3 107 Enfin, 38% des répondants ont été nominés ou distingués. Cette forte proportion ne nous semble pas limiter la représentativité de l’échantillon. Les concours organisés par la communauté financière consacrent en effet plus le professionnalisme des analystes concernés que leur réelle notoriété (Fontowicz, 1999). 3.3.2 Perception par les analystes de leur métier Lors des entretiens exploratoires, les analystes ont souligné l’importance de l’expertise, de l’indépendance, de la rigueur, de l’intuition et des qualités relationnelles dans l’exercice de leur métier. Nous avons ensuite demandé aux répondants au questionnaire de situer ces qualités sur une échelle de Thurstone à trois points (très important/important/utile). Nous avons affecté aux énoncés respectivement les codes 3, 2 et 1 et calculé la moyenne des scores cochés. Une question ouverte permettait des commentaires qualitatifs. Dans un premier temps, nous analysons les réponses de tous les répondants. La rigueur (moyenne de 2.81), l’expertise (moyenne de 2.53) et l’indépendance (moyenne de 2.4) sont les critères de satisfaction les plus cités. Parallèlement, les qualités relationnelles (moyenne de 2.25) et l’intuition (2.06) forment un deuxième groupe homogène. Rigueur, expertise et qualités relationnelles détermineraient leur capacité prédictive ; l’intuition (le «feeling boursier»), la pertinence de leurs recommandations boursières. La question ouverte a révélé une autre catégorie : la reconnaissance de la profession. La valeur qu’un analyste accorde à son travail dépend de sa notoriété au sein de la communauté financière. Dans un second temps, nous avons différencié les analystes selon leur affiliation. Les douze analystes rattachés à une entreprise d’investissement indépendante attachent le plus d’importance, par ordre décroissant, à l’expertise, les qualités relationnelles, la rigueur, l’indépendance et l’intuition. Les vingt-cinq analystes employés par des filiales de banques mettent l’indépendance en première position. Suivent la rigueur, l’expertise, les qualités relationnelles et l’intuition. Plus les répondants sont susceptibles d’être exposés à des conflits d’intérêts, plus ils semblent sensibles à l’indépendance dans l’exercice de leur métier. 108 3.3.3 Chapitre 3 L’indépendance des analystes Vingt-cinq répondants travaillent pour des entreprises d’investissement adossées à une banque. Lorsque leur employeur est affilié à la banque introductrice, les analystes disent participer à la préparation de l’opération. L’influence de la banque semble se manifester lors de l’origination de l’opération, de la valorisation du prix d’offre et du placement des titres. L’origination de l’opération Les vingt-cinq répondants semblent encouragés à informer la banque de possibles candidats à l’introduction. 70% reconnaissent être sollicités par le département origination. Ils affirment encore être exhortés à la complaisance avec les clients potentiels du département corporate. La presse financière rapporte de son côté que «la valeur d’un analyste est de plus en plus conditionnée par sa capacité à apporter des affaires»9 . La justification du prix d’offre Dans l’étude financière, les analystes estiment le cours d’équilibre attendu. Mais quelle est leur marge de manoeuvre lorsque leur employeur est chef de file ? 72% des vingt-cinq répondants affirment anticiper le prix d’équilibre librement, sans intervention de l’introducteur. Mais tous disent veiller aux relations d’affaires de leur employeur avec la société suivie. L’influence de la banque pourrait donc s’exercer au niveau de la décote10 . L’analyste diminuerait le prix d’équilibre estimé de sorte à retrouver le prix d’introduction négocié entre la banque et l’émetteur. Au vu des 295 études financières par ailleurs consultées, le niveau de décote n’est au demeurant jamais justifié. Le placement des titres Seize analystes sur les vingt-cinq reconnaissent fréquemment publier des prévisions optimistes sur la société dont leur établissement pilote l’introduction. Quinze affirment intégrer les intérêts commerciaux de l’introducteur dans leur évaluation (question 29). Mais paradoxalement, seulement deux 9 D’après R. Lowenstein, ”Today’s analyst often wears two hats”, The Wall Street Journal, 2 mai 1996 10 La décote est appliquée à la valeur espérée des titres calculée par les analystes. Elle diffère donc de la sous-évaluation, différence entre le cours d’équilibre réel, observé sur le marché, et le prix d’introduction. Chapitre 3 109 analystes attribuent leurs erreurs de prévision au primat des intérêts de la banque d’affaires sur leur devoir d’objectivité (question 55) ... Les taux de non réponse aux trois questions sont très élevés (36%). Les contradictions et omissions des répondants permettent de relier l’optimisme des analystes à leur participation au placement des titres. La recherche de synergies et d’économies peut expliquer que la banque introductrice sollicite les analystes du département equity research (Michaely et Womack, 1999). Mais la déontologie de la profession interdit ce transfert de compétences. De surcroı̂t, un excès d’optimisme entache la réputation des analystes. Afin que les analystes consentent plus facilement à franchir la «Muraille de Chine» ou à entacher leur réputation, ils se voient proposer des compensations financières. Selon Bernard Coupez, président de la SFAF11 , les analystes sont d’autant plus incités à se transformer en «superVRP du placement des titres» qu’ils perçoivent souvent des bonus très élevés en contrepartie. L’enquête, appuyée d’autres sources documentaires, montre que les intérêts commerciaux du principal influencent l’offre d’information des analystes au détriment des investisseurs. Les conflits d’agence expliquent donc de manière plausible l’optimisme des analystes. 3.3.4 Les sources d’information des analystes Les analystes suivant une société cotée s’informent principalement auprès de son dirigeant (Schipper, 1991). À notre connaissance, la dépendance informationnelle des analystes vis-à-vis du dirigeant n’avait pas été illustrée empiriquement en France dans le cadre d’une introduction en bourse. Les analystes ont donc été interrogés sur leurs sources d’information. Répondent-elles à leurs attentes ? La qualité des informations utilisées contraint-elle l’offre d’information des analystes ? Utilité perçue des diverses sources d’information Nous avons demandé aux analystes de sélectionner les sources d’information qu’ils utilisent le plus fréquemment pour évaluer une introduction (question 37). Les entretiens exploratoires avaient révélé que ces sources d’information n’étaient pas hiérarchisables et constituaient un «faisceau d’indicateurs». Nous reportons dans le tableau 3.5 la fréquence puis le classement 11 Le Monde, 12 avril 2002, p. 22. 110 Chapitre 3 obtenus par chaque source. Sources rapport annuel presse sectorielle presse financière dossier d’introduction relations avec le dirigeant études d’autres analystes Fréquences 18.7% 15% 13.3% 21.3% 18.7% 12.7% Classement 2 3 4 1 2 5 Tab. 3.5 – Sources d’information des analystes Le dossier d’introduction et les contacts avec les dirigeants sont les plus fréquemment cités. L’information sectorielle et économique est également bien classée. Par contre, les études des autres analystes obtiennent le plus mauvais score. Une analyse multi-dimensionnelle des similarité permet de représenter les perceptions des analystes dans un espace à deux dimensions. La carte perceptuelle 3.1 résulte de la procédure PROXSCAL du logiciel SPSS. Le s-stress selon la formule de Kruskal est égal à 0.05, ce qui est satisfaisant (Évrard et al., 2001). Nous avons entouré les sources d’information jugées de même utilité par les analystes. La première dimension pourrait distinguer les sources d’information en fonction de leur provenance (société/autres sources). La seconde correspondrait davantage à l’utilité des informations. Les variables «prospectus» et «dirigeant» apparaissent proches de l’origine de la deuxième dimension, preuve de leur utilité pour les analystes. Le tri à plat et la carte perceptuelle confirment que les analystes travaillent principalement à partir des informations diffusées par la société. Les répondants précisent quand ils recourent au prospectus, puis quels contacts ils entretiennent avec les dirigeants. Les analystes semblent surtout utiliser le prospectus lors de la phase de familiarisation et de découverte de l’introduction. 62.5% des répondants y recourent pour se constituer un dossier d’information sur la société et 37.5% seulement pour prendre une décision d’investissement (question 39). Dans la taxinomie de Gniewosz (1990), le prospectus d’introduction relèverait des informations routinières. De la même manière, le rapport annuel semble constituer, pour les analystes, une source d’information nécessaire mais insuffisante sur les sociétés cotées (Vergoossen, 1993 ; Chang et Most, 1985). Par ailleurs, les analystes interrogés oralement soutiennent comparer leurs prévisions à celles incluses dans le prospectus. Ils recherchent ensuite les causes d’un Chapitre 3 111 Fig. 3.1 – Satisfaction des analystes à l’égard de leurs sources d’information éventuel écart. Les dirigeants informent les analystes publiquement et collectivement lors de la réunion organisée par la SFAF. Les analystes sollicitent également des rencontres individuelles avec le dirigeant. Elles leur permettent de se familiariser avec l’entreprise et son secteur d’activité, de mettre à jour leurs informations ou d’interroger le dirigeant sur un problème découvert à la lecture des comptes. Elles sont très informatives et donc activement recherchées. Mais elles remettent en cause le principe d’égal accès des investisseurs à l’information. À ce propos, 22% des répondants considèrent les relations avec le dirigeant comme une source risquée d’information. Qualité perçue du prospectus d’introduction La majorité des analystes dénoncent l’insuffisante qualité des informations du prospectus. Les répondants ont apprécié l’utilité des différents chapitres du prospectus sur une échelle de Thurstone à trois points (question 40). Les chapitres sont ensuite classés sur la base de leur note moyenne. Les analystes accordent le plus d’intérêt au chapitre 7 (perspectives de développement de la société), 112 Chapitre 3 suivi du chapitre 4 (présentation de l’activité de la société) et du chapitre 5 (les derniers états comptables certifiés). Chahine et Mathieu (2002) soulignent également la valeur informative du chapitre 4. Leur échantillon comprend 50 sociétés introduites sur le Nouveau Marché entre 1998 et 2000. Selon ces auteurs, les informations relatives aux atouts technologiques et humains de la société déterminent la rentabilité anormale observée le premier jour de cotation (de 22% en moyenne sur leur échantillon). La carte multi-dimensionnelle 3.2 positionne les chapitres du prospectus d’introduction en fonction de leur utilité appréciée par les analystes. Fig. 3.2 – Utilité perçue des chapitres du prospectus Les analystes semblent percevoir de la même manière les chapitres 4, 5 et 7. Le chapitre 6 apparaı̂t comme le moins utile. Les indicateurs prévisionnels du prospectus, financiers ou stratégiques, gagneraient à être améliorés selon 40.6% des répondants (question 42). L’enquête atteste que la société constitue la principale source d’information des analystes. Elle montre également dans quelle mesure cette dépendance peut affecter l’offre d’information des analystes. Chapitre 3 113 Conséquences sur les prévisions des analystes D’une part, le dirigeant semble user de sa position de principal informateur pour inciter les analystes à évaluer favorablement son entreprise. 60.5% des répondants reconnaissent en effet nuancer leur opinion en fonction de la qualité de leurs relations avec la société (question 20). Francis et Philbrick (1993) évoquent également les pressions du dirigeant sur l’analyste. Selon McNichols et O’Brien (1997), les analystes préféreraient s’«autocensurer» plutôt que perdre leurs contacts privilégiés avec les dirigeants. En conséquence, le consensus serait optimiste parce que les analystes s’abstiendraient de publier leurs estimations pessimistes. L’Institutional Investor a réalisé une enquête auprès de l’All-American Research Team en 1989. 61% des analystes interrogés ont déclaré avoir dû, au moins une fois dans leur carrière, modérer une recommandation négative sous l’injonction du dirigeant. D’autre part, la relation entre l’exactitude des estimations des analystes et la qualité des informations à leur disposition affleure peu de l’enquête. Certes les répondants se déclarent insatisfaits de la qualité des informations publiées par le dirigeant. Mais curieusement, seulement 20% attribuent leurs erreurs de prévision aux insuffisances de l’offre informationnelle de la société (question 55). La recherche empirique quantitative obtient également des résultats mitigés. La qualité des informations diffusées améliore significativement la précision des prévisions des analystes aux États-Unis (Lang et Lundholm, 1996), mais pas en Suède (Adrem, 1999). Au niveau macroéconomique, les indices mesurant la quantité d’informations publiées par la société déterminent postivement et significativement l’exactitude des prévisions des analystes (Hwang et alii, 1998, sur un échantillon de sept pays ; Khana et al., sur un échantillon de 37 pays). Hope (2002) observe 1309 sociétés de vingt-deux pays. Il montre que la quantité d’informations dans le rapport annuel est reliée de manière positive et significative à la précision des prévisions des analystes. Mensah et al. (2003) se démarquent des travaux précédents par leur étude longitudinale. Ils testent si l’accroissement du nombre d’informations publiées par les sociétés américaines entre 1983 et 1998 a permis de réduire les asymétries d’information entre entreprise et investisseurs. Ils utilisent un modèle autorégressif multivarié et des tests de cointégration. Les sociétés de l’échantillon clôturent leur exercice fiscal en novembre, décembre ou janvier, et sont suivies par au moins quatre analystes. Les résultats montrent que l’augmentation, sur la période, de la quantité d’informations publiées par les sociétés a accru significativement la précision et l’homogénéité des prévisions des analystes. Ils restent stables, même si la complexité de l’environnement de l’entreprise, la conjoncture économique et 114 Chapitre 3 le degré de gestion des résultats par le dirigeant changent. Dans la section suivante, nous contrôlons la qualité des données primaires collectées. 3.4 La qualité des données primaires : Internet versus poste Dans un premier temps, nous apprécions l’utilité des deux modes de recueil utilisés, Internet et la voie postale. Dans un second temps, nous envisageons les conditions d’efficacité d’une enquête web en finance d’entreprise. 3.4.1 Efficacité comparée des deux modes d’enquête Sur le modèle de Schaaper (1999), nous comparons les deux types d’enquêtes - via Internet et par voie postale - au regard de leur coût effectif, du taux de retour obtenu, de la rapidité de la collecte et de la qualité des réponses fournies (De Leeuw et Van der Zouwen, 1992). Coûts initiaux et marginaux d’envoi d’une enquête Dans le cas d’une enquête via Internet, les coûts initiaux s’avèrent assez élevés. Ils comprennent l’investissement dans un ordinateur équipé d’un modem ; l’achat d’un logiciel de programmation en langage HTML ; l’abonnement à un service de connexion auprès d’un fournisseur d’accès sur Internet ; le coût de connexion pendant l’administration de l’enquête. L’enquête postale, quant à elle, ne requiert pas d’équipement matériel spécifique. De surcroı̂t, l’Université a supporté les coûts d’impression et d’envoi des questionnaires. L’utilisation d’Internet permet par contre d’éliminer les coûts marginaux d’impression et de postage liés au mode d’enquête postal. Les pages web programmées peuvent servir pour un autre questionnaire sans coût supplémentaire. Les adresses électroniques valides des enquêtés forment une base de sondage ré-exploitable. Taux de retour et mode d’enquête Le taux de non-réponses partielles, rapport du nombre de réponses au nombre de questions, s’est révélé deux fois plus important dans l’enquête Chapitre 3 115 postale (2%) que web (1%). Un questionnaire long gagne donc à être envoyé par Internet. Le taux de retour d’un cyber -envoi se définit comme le nombre de questionnaires dûment remplis et retournés, divisé par le nombre de courriers électroniques de signalement envoyés. 34 analystes ont répondu au mail incitatif, ce qui donne un taux de retour de 17%. Quatre analystes ont répondu au questionnaire postal qui leur était adressé, ce qui porte le taux de retour à 3%. Nous obtenons un taux bien inférieur à ceux de Williams et al. en 1996 (14%) ou de Fontowicz en 1999 (13%). Mais ces auteurs s’intéressaient à la population totale des analystes ; nous n’en ciblions qu’un segment. Le taux de 3% est également inférieur au taux habituel d’un envoi anonyme et aléatoire par voie postale au grand public (environ 5%). La rapidité du mode de collecte de données La mise au point d’une enquête par Internet est plus longue que celle d’une enquête postale car plus technique. L’envoi multiple par courrier électronique est par contre très rapide. Les réponses au questionnaire web se sont échelonnées entre un et quatre jours après l’envoi. La moitié d’entre elles ont été reçues dès le lendemain. De plus, la validité des adresses des enquêtés est immédiatement connue. Les réponses au questionnaire postal ont été bien plus tardives. Elles nous sont parvenues plus d’un mois après leur envoi. Un script de réception permet d’automatiser, et donc d’accélérer, le dépouillement d’une enquête web. Dans notre cas, le traitement manuel des réponses, compte tenu de leur faible nombre, ne nous a pas permis de bénéficier de cet avantage. Globalement, conformément aux résultats des enquêtes web antérieures (Bachmann et al. 1996 ; Kittleson, 1995 ; Mehta et Sivadas, 1995 ; Sproull, 1986), nous soulignons le gain de temps réalisé grâce au mode de recueil via Internet. La qualité des réponses La qualité des réponses s’apprécie à la représentativité de l’échantillon et à l’exactitude des réponses (De Leeuw et Van der Zouwen, 1992). - Représentativité de l’échantillon La base de sondage a pu limiter la représentativité de l’échantillon. En effet, l’annuaire de la SFAF ne permet pas d’identifier les analystes évaluant les introductions en bourse. Le faible nombre de répondants biaise également la représentativité de l’échantillon, en raison de la différence possible de comportement entre les répondants 116 Chapitre 3 et les non répondants (Grobras, 1987). Nous avons pourtant multiplié et personnalisé les contacts. Nous avons également réalisé l’enquête à une période a priori de plus faible activité des analystes : les introductions en bourse sont plus rares en décembre et en janvier. La combinaison des deux modes d’enquête (postal et via Internet) a au contraire permis d’améliorer la représentativité de l’échantillon. En premier lieu, elle a réduit le risque d’erreur de couverture, puisque les analystes sans adresse électronique ont été contactés par voie postale. En second lieu, elle a équilibré la répartition des répondants en termes de sexe. Alors que 70.6% des répondants à l’enquête web sont des hommes, les répondants à l’enquête postale sont équitablement répartis entre hommes (50%) et femmes (50%). Fontowicz (1999), dans son enquête postale sur la rémunération des analystes, obtient 35.7% de réponses de la part d’analystes femmes. Conformément aux études antérieures, les femmes sont plus réceptives au questionnaire postal que web. Leurs taux de retour aux questionnaires postaux puis web sont respectivement de 3.4% et 12.8%, contre 2.6% et 19.7% pour les hommes. - Exactitude des réponses Les réponses du cyber -échantillon et de l’échantillon postal nous ont semblé cohérentes. Les analystes ne paraissent pas comprendre les questions ou y répondre différemment selon le mode de recueil. Le recoupement des questions sensibles nous a permis de contrôler la cohérence des réponses afférentes. Nous obtenons cependant des réponses aux questions ouvertes plus complètes dans les questionnaires web que postaux. Certaines réponses nous ont par ailleurs semblé biaisées. Trois analystes ont estimé que le format fermé des questions préjugeait des réponses. Le désir de valorisation peut encore expliquer l’optimisme de certaines réponses. Par exemple, 30% des répondants déclarent faire des prévisions toujours exactes... 3.4.2 L’utilité d’une enquête Internet en finance d’entreprise Un mode d’administration d’enquête n’est pas meilleur que les autres. Il a ses caractéristiques propres et son utilité (Schaaper, 1999). Par exemple, «si la précision des réponses est une priorité par rapport au taux de non Chapitre 3 Critères Longueur Souplesse Maı̂trise de la Séquence des questions Rapidité Coût Recueil informations supplémentaires Maı̂trise par l’enquêteur de : Identité répondant Dispersion géographique taux de non-réponse 117 Enquête postale = - Enquête par ordinateur = + - ++ - + + = + - = + + Tab. 3.6 – Qualité comparée des médias de recueil utilisés Le tableau 3.6 reprend les résultats de la comparaison effectuée, sur le modèle d’Évrard et alii (2001, p.169). Le signe + (-) signifie que le mode de recueil s’est avéré bien (mal) placé sur le critère concerné dans le cadre de notre enquête. Le signe = traduit notre incapacité à départager les deux modes de collecte de l’information, au vu des résultats. Chaque mode de recueil est évalué à son adaptation à la longueur de notre questionnaire, à sa souplesse, à la maı̂trise par l’enquêteur de la séquence des questions, au coût de revient de l’enquête. Permet-il de recueillir des informations supplémentaires, notamment dans les questions ouvertes ? Informe-t-il sur l’identité des répondants ? Répond-il aux préoccupations d’un échantillon dispersé géographiquement ? Limite-t-il le taux de non réponse ? réponse, le mode postal est une bonne alternative à une enquête en face-àface, souvent trop coûteuse. Ceci à la condition que les questions ne soient pas trop complexes» (De Leeuw et Van der Zouwen, 1992, cités par Shaaper, 1999). À partir de notre expérience et de celle de Schapper (1999), nous envisageons les conditions auxquelles la méthode d’administration d’enquête par Internet, forte de ses spécificités, peut s’avérer utile en finance. Définition des objectifs de recherche L’enquête web peut répondre à un objectif de recherche tant exploratoire, descriptif que confirmatoire. Ainsi, Schaaper (1999) a réalisé en 1997 une enquête web exploratoire. Il s’intéressait aux facteurs pris en compte par les parents lorsqu’ils achètent des jouets pour des enfants âgés de trois à douze ans. Le Centre National d’Enseignement à Distance a également mené un sondage via Internet auprès des étudiants inscrits. Le but, descriptif, était de mieux cerner leur profil. Enfin, l’enquête que nous avons conduite auprès des analystes financiers nous a permis de tester des hypothèses. Sa finalité était, entre autres, confirmatoire. 118 Chapitre 3 La formulation de la question de recherche permet de cerner la population à étudier. Mais pour être réceptive à une enquête web, celle-ci doit présenter certaines caractéristiques socio-démographiques. Caractéristiques de la population étudiée Une enquête web convient aux études ne nécessitant pas une représentativité rigoureuse en termes de quotas socio-professionnels (Schaaper, 1999). En effet, 35.7% des foyers français (soit 16.4 millions) sont équipés de microordinateurs et 21.9% ont accès à Internet au premier trimestre 2002. Il est donc difficile d’atteindre un échantillon représentatif d’une population courante via Internet. Par contre, l’enquête via Internet répond aux préoccupations d’un échantillon géographiquement dispersé. Il permet au sondage aléatoire simple de retrouver ses lettres de noblesse, pourvu que l’on dispose d’une base de sondage. Il se prête encore bien à l’étude d’un échantillon de grande taille, le coût marginal d’un envoi supplémentaire étant quasi-nul. Identification des besoins en information Le recours à une enquête web se justifie si la résolution du problème de recherche requiert des données primaires. Des données secondaires peuvent exister mais être insuffisamment précises ou pertinentes. Choix du mode de recueil des informations L’observation et l’interrogation permettent de collecter les données primaires. L’observation, méthode stimulative, découle du paradigme cognitif. Elle vise à dévoiler et à comprendre comment une décision est prise. Elle nécessite que les données soient accessibles et fiables, dans un délai et à un coût raisonnables (Évrard et al., 2001, p. 32). L’interrogation appartient aux méthodes non directives issues du paradigme motivationnel. Les acteurs sociaux sont supposés ignorer les raisons objectives de leur conduite. L’interrogation permet de rechercher ce qui les pousse à agir. Toutefois, les informations recueillies par enquête sont empruntes de subjectivité. Elles résultent de l’observation effectuée par le sujet sur ses propres conduites. Aussi l’interprétation ne vaut-elle que si elle discerne dans les réponses les exagérations valorisantes, les oublis sélectifs, les déformations. Le chercheur doit également s’assurer de la cohérence des com- Chapitre 3 119 portements déclarés et réels, par exemple en contrôlant le professionnalisme ou l’âge des enquêtés. Choix de la méthode d’administration Une enquête peut se dérouler en face-à-face avec l’enquêteur, par téléphone, par voie postale ou par ordinateur. À partir de notre expérience et dans le prolongement de Schaaper, nous suggérons quelques situations plus adaptées à l’utilisation d’Internet comme média de recueil que la voie postale. Internet permet le transport simultané de la voix et de l’image. Il s’impose donc lorsque les réponses à certaines questions nécessitent une aide visuelle (par exemple le recours à une carte-réponse). Quand le budget disponible pour la réalisation de l’enquête est faible et que l’institut de recherche est connecté sur Internet, le questionnaire web semble à privilégier. Une enquête postale se heurte à des coûts d’impression et de postage incompressibles. Certes, le temps de mise au point d’une enquête web varie en fonction des compétences informatiques de l’enquêteur et du type de signalement choisi. Mais les retours d’enquêtes et le dépouillement des données sont bien plus rapides que pour une enquête postale, notamment si un script de réception des données est programmé. Le questionnaire web semble donc pertinent quand la conduite de l’enquête est limitée dans le temps. «Espace de communication12 », Internet permet à l’enquêteur et à l’enquêté d’échanger. Son interactivité s’avère utile si la population ciblée est difficile d’accès (faible implication sur le sujet, indisponibilité...) ou si le sujet du questionnaire est technique et complexe. Le mode d’administration par Internet permet d’obtenir des réponses plus longues aux questions ouvertes que par le mode postal. Il est donc préférable lorsque l’enquête comprend principalement ce type de questions. Toutefois, ces arguments ne doivent pas occulter les intérêts à combiner Internet à la voie postale. En effet, le choix du média de recueil doit intégrer les préférences individuelles de la population enquêtée pour certains modes d’enquête. Utiliser plusieurs modes peut également améliorer le taux de réponse (Goyder, 1987). Le chercheur peut se servir d’Internet comme premier mode de contact puis s’orienter, pour les non répondants, vers la méthode postale, jusqu’à atteindre un niveau acceptable de réponse. 12 Angehrn et Barsoux, 1997, Élargir sa clientèle par l’internet, Les Échos, pp 8-9, novembre 1997. 120 Chapitre 3 La méthode d’enquête par Internet ne convient ni à toutes les problématiques de recherche ni à toutes les populations d’étude. Le schéma 3.3 récapitule les conditions d’application de cette méthodologie. Chapitre 3 121 Processus d'élaboration d'un questionnaire WEB Formulation du problème et des objectifs de recherche Problème : comprendre l'influence des AFs sur la sous-évaluation des titres introduits Objectif exploratoire : processus de suivi des introductions en bourse Objectif confirmatoire : explication de l'optimisme des AFs par la théorie de l'agence Identification de la population étudiée et de ses caractéristiques Population étudiée : AFs spécialisés sur le marché primaire Caractéristiques : profil type de l'internaute Identification des besoins en informations Données secondaires : inexistantes ou non pertinentes =>Données primaires : nécessaires Choix du mode de recueil des informations Observations : durée, receuil, coût, accessibilité, fiabilité => Interrogation Entretiens exploratoires Rédaction instrument de recherche Formulation des questions : format, contenu, modalités de réponse Dynamique du questionnaire : plan, nombre de questions, ordre Pré-test du questionnaire Compréhension, absence de biais lié à la formulation Codification et distribution des réponses Programmation du questionnaire Moyen : accès internet et éditeur WEB Action : programmation page WEB et transfert site extérieur Signalement du questionnaire WEB - Référencement moteur recherche - Groupes discussion - Liste de diffusion - Base de sondage personnelle - Envoi multiple (annuaire SFAF, dossier IB) Receuil et traitement des réponses Fig. 3.3 – Processus d’élaboration d’un questionnaire web 122 Chapitre 3 Conclusion Les analystes de l’entreprise d’investissement spécialiste ont ici retenu notre attention. Ils sont supposés surévaluer la valeur espérée des titres ou les futurs résultats du candidat à l’introduction, lorsque ce dernier a mandaté leur employeur. Nous avons interrogé 334 analystes sur la pertinence de ces hypothèses. Sur les trente-sept répondants retenus, vingt-cinq travaillent pour la filiale d’une banque ; douze pour une entreprise d’investissement indépendante. Les apports de l’enquête sont les suivants. Premièrement, les analystes interrogés estiment l’indépendance d’autant plus indispensable à l’exercice de leur métier que leur employeur est la filiale d’une banque. Deuxièmement, les répondants considèrent la société émettrice comme une source d’information essentielle, mais imparfaite. Pour autant, ils ne semblent pas percevoir l’impact de la qualité des informations publiées par la société sur leur propres estimations. Troisièmement, la «Muraille de Chine » semble fragile entre la banque et le bureau d’analyse d’un même groupe. Les banques sollicitent les vingt-cinq répondants employés par leurs filiales. Ces analystes reconnaissent être encouragés à informer le département origination d’éventuels candidats à l’introduction. Quand la banque est chef de file, les analystes paraissent tenir compte de ses intérêts commerciaux dans leur étude financière. Ils semblent ainsi incités à publier des prévisions optimistes pour faciliter le placement des titres. Ils disent déterminer librement la valeur espérée des titres introduits. Mais la décote appliquée au prix d’équilibre anticipé leur permet de justifier le prix d’introduction fixé par l’introducteur. Au vu des réponses des analystes, l’hypothèse de conflits d’agence entre l’analyste et son employeur semble plausible. Quatrièmement, nous avons comparé l’efficacité des deux modes d’enquête utilisés, web et postal. Au regard des critères de rapidité, de taux de retour et de qualité des réponses obtenues, Internet s’est révélé un mode de recueil plus performant que le mode postal traditionnel. En outre, nous précisons comment élaborer un questionnaire web. Enfin, nous suggérons quelques situations adaptées à l’utilisation d’une enquête web en finance. Le cas échéant, les analystes financiers semblent devoir faciliter l’exécution du mandat confié à leur employeur. Ils paraissent alors incités à l’optimisme dans leur étude financière. Ils évitent ainsi les conflits d’agence, au détriment de leur devoir d’objectivité et donc des intérêts des investisseurs. Chapitre 3 123 Une fois la société introduite, l’entreprise d’investissement spécialiste et la banque introductrice sont contractuellement tenues de l’animation et de la liquidité du marché. Leurs analystes continuent donc de produire des informations biaisées afin de soutenir les cours (Michaely et Womack, 1999 ; Teoh et al., 1998). Dans le chapitre 4, nous nous intéressons aux analystes «indépendants». Ces analystes doivent décider s’ils suivent ou non la nouvelle société introduite. Mais en fonction de quels critères prennent-ils leur décision ? Les intérêts du principal prévalent-ils encore contre ceux des investisseurs ? 124 Chapitre 3 Chapitre 4 Les déterminants du suivi d’une introduction en bourse par les analystes d’I/B/E/S Introduction Cette thèse se propose, entre autres, d’expliquer la richesse de l’environnement informationnel des introductions en bourse, c’est-à-dire la quantité et la qualité de l’information disponible sur les titres introduits. Les analystes financiers participent de cet environnement en tant que producteurs d’information. Leur décision de suivre un titre récemment admis à la cote influence le niveau d’information disponible sur la société concernée. Toutes les sociétés ne sont pas également couvertes par les analystes. Nous nous intéressons, dans ce chapitre, aux critères de choix des analystes. De nombreuses études déterminent et/ou rendent compte de la valeur informative des informations produites par les analystes sur les sociétés introduites. Ainsi, Rajan et Servaes (1997) soulignent l’excès d’optimisme des analystes qui estiment les résultats et le taux de croissance des sociétés introduites. Sur leur échantillon, le déclin des performances à long terme des sociétés de leur échantillon s’accentue avec les erreurs de prévision des analystes. Autrement dit, le marché serait dupe de l’optimisme des prévisions des analystes au moment de leur publication. Mais il corrigerait ses anticipations ultérieurement et sanctionnerait les titres surévalués. Michaley et Womack (1999) montrent que les analystes affiliés émettent deux fois plus de recommandations d’achat que les analystes indépendants. Selon eux, les analystes affiliés seraient incités à recommander à l’achat ou à évaluer favorablement 125 126 Chapitre 4 les sociétés en relation commerciale avec leur employeur. Plus rares sont les travaux relatifs au processus de décision des analystes. Ils concernent en outre uniquement le marché américain. Ils peuvent s’appuyer sur des méthodes qualitatives (entretien, expérience en laboratoire, questionnaire). Biggs (1984) observe ainsi comment onze analystes utilisent les états comptables et financiers pour prévoir les capacités bénéficiaires des entreprises. Dans le contexte d’une introduction en bourse, Rajan et Servaes (1997) ont été les premiers à identifier les caractéristiques des titres suivis par les analystes. Ils établissent que l’intérêt des analystes croı̂t avec la sousévaluation du prix d’offre, le nombre de firmes cotées dans le secteur d’activité de la société introduite, la capitalisation boursière et le nombre de banquiers introducteurs. Plus récemment, Das et alii (2002) confirment les résultats de Rajan et Servaes. Ils montrent en outre que le nombre d’analystes augmente avec la réputation du chef de file et la rapidité de la couverture. Ils rendent compte enfin du délai de couverture. La sous-évaluation, la réputation du chef de file, l’activité du marché primaire, le nombre d’introducteurs, le nombre d’entreprises dans le secteur de la société concernée, le marché d’introduction et la capitalisation boursière ont simultanément un effet positif significatif sur la rapidité de la couverture. Dans leur prolongement, nous étudions en fonction de quels critères les analystes sélectionnent les titres introduits sur le marché français, avec plus ou moins de célérité. Le sujet nous semble intéressant à deux titres. Premièrement, il rend indirectement compte des asymétries d’information attestées au moment d’une introduction en bourse. Les analystes produisent en effet des informations sur les sociétés suivies. Leur décision de couverture influence donc le nombre d’information disponible sur la société considérée. Deuxièmement, les sociétés nouvellement cotées se disputent l’attention des analystes. En effet, l’analyste supporte un coût marginal non nul lorsqu’il ajoute un titre à son portefeuille de valeurs suivies (Hayes, 1998). De plus, le nombre croissant d’introductions en bourse entre 1994 et 20001 accentue la concurrence entre valeurs. Connaı̂tre les critères de choix des analystes peut être utile aux futurs candidats à l’introduction. Nous analysons le comportement des analystes à la lumière de la théorie de l’agence. Un contrat d’agence relie les analystes à leur employeur. L’agent (l’analyste) est pressé d’agir dans l’intérêt du principal. Les deux parties 1 51 sociétés se sont introduites sur le Nouveau Marché et le Second Marché en 1994 ; 119 en 1998 et 71 en 2000 Chapitre 4 127 gagnent par ailleurs à coopérer. En conséquence, les analystes sont supposés choisir les titres susceptibles de rapporter des commissions de courtage et/ou de placement à leur employeur. Ce faisant, ils augmentent également leur propre satisfaction. En effet, une partie de leur rémunération croı̂t avec les résultats de l’entreprise d’investissement. Nous vérifions cette hypothèse sur un échantillon de 218 sociétés introduites sur le Second Marché entre le premier janvier 1994 et le 30 juin 2000, ou sur le Nouveau Marché entre le premier janvier 1996 et le 30 juin 2000. Nous avons uniquement pris en considération les analystes «indépendants» du chef de file. Ces analystes sont libres de suivre ou non le titre introduit car leur employeur ne participe pas à l’opération d’introduction. Le phénomène de couverture est enfin envisagé de manière dynamique. Une analyse de survie permet d’estimer puis d’expliquer la probabilité de suivi instantané d’une société. Le reste de l’étude se compose de trois parties. Dans la section 4.1, nous déduisons de la revue de littérature notre système d’hypothèses. La section 4.2 présente la méthodologie adoptée, les variables utilisées puis l’échantillon. La section 4.3 analyse les résultats obtenus. 4.1 Revue de littérature et hypothèses Un certain nombre de travaux se sont intéressés aux caractéristiques des sociétés suivies par les analystes. La présente section en propose une synthèse. 4.1.1 Les critères de suivi des analystes dans la littérature Nous présentons les travaux relatifs à la couverture des sociétés cotées sur le marché secondaire, puis primaire. Sur le marché secondaire Les chercheurs analysent les critères de décision des analystes sur un plan national ou individuel. Les déterminants macro-économiques Chang et alii (2000) comparent l’activité des analystes dans 47 pays. Ils calculent leurs erreurs de prévision, la dispersion de leurs estimations et le nombre d’analystes ayant suivi les 30 capitalisations boursières les plus 128 Chapitre 4 élevées le onzième mois de l’exercice fiscal 1996. Ils constatent une grande disparité dans l’intensité et la qualité de la couverture des analystes, à travers le monde. Des facteurs institutionnels semblent expliquer significativement les différences observées : la capitalisation boursière moyenne, la taille du marché boursier comparée au PNB, la qualité des informations comptables (mesurée par un indice évaluant la présence ou l’absence de quatre-vingt-dix items dans les rapports annuels de 1990), le système juridique (romano-germanique ou de common law ). Les auteurs montrent également que les groupes à structure pyramidale, répandus dans les pays en voie de développement, ont plus de chances d’être suivis par les analystes mais de manière plus imprécise, toutes choses égales par ailleurs. Lang et alii (2002) mettent en évidence l’influence de la qualité du gouvernement d’entreprise sur le suivi des analystes. Leur échantillon comprend 2 510 sociétés de vingt-sept pays. En 1996, les analystes semblent moins enclins à suivre les sociétés susceptibles de dissimuler ou manipuler l’information. En effet, la couverture des analystes diminue significativement avec le degré de contrôle de la famille ou du management. Par contre, les autres blocs de contrôle n’ont pas d’impact significatif sur la couverture des analystes. Dans les pays caractérisés par une faible protection des investisseurs, le suivi de sept analystes supplémentaires annule la perte moyenne de valeur due à un actionnariat concentré. La valeur ajoutée des analystes augmente quand ils suivent des sociétés avec de faibles mécanismes de gouvernement (internes et externes) et originaires d’un pays de droit civil. Les déterminants micro-économiques Les travaux suivants ont une perspective moins large. Ils étudient la couverture par les analystes, de sociétés cotées sur une seule place boursière. Ils sont présentés en fonction de leur cadre théorique. Bhushan (1989) modélise le niveau de couverture d’une société. Il considère l’offre et la demande de services informationnels auprès des analystes, comme fonction de caractéristiques exogènes de la société. À l’équilibre, le nombre d’analystes suivant la société est à l’intersection des courbes d’offre et de demande. Bhushan identifie a priori un ensemble de variables explicatives possibles : les parts de capital détenues respectivement par les investisseurs institutionnels et les dirigeants, le nombre d’investisseurs institutionnels présents dans le capital, la capitalisation boursière, la volatilité du titre, le nombre d’activités de l’entreprise et le bêta du modèle de marché. Il teste ensuite son modèle sur un échantillon de 1409 sociétés cotées sur le NYSE ou l’AMEX Chapitre 4 129 en 1985. Les caractéristiques retenues semblent bien déterminer significativement le niveau de couverture d’une société. Marston (1997) a appliqué le modèle de Bhushan à un échantillon de 251 sociétés cotées sur le marché britannique. Comme sur le marché américain, la couverture des analystes apparaı̂t diminuer avec la participation des insiders au capital ; augmenter avec la taille de la société et la volatilité du titre. Elle est également sensible au secteur d’activité de la société. La corrélation de la rentabilité du titre à celle du marché détermine significativement le suivi des analystes, mais à un moindre degré sur le marché britannique. Contrairement aux résultats de Bhushan, la complexité approchée par le nombre d’activités de l’entreprise n’explique pas significativement le suivi des analystes en Grande-Bretagne. Par ailleurs, Bhushan obtenait une relation positive et significative entre le nombre d’analystes et l’actionnariat institutionnel. La variable utilisée pour mesurer la participation des investisseurs institutionnels ne donne pas les résultats attendus dans l’étude de Marston. Enfin, Marston ajoute un indicateur de multi-cotation aux caractéristiques testées par Bhushan. La cotation sur une place étrangère semble un atout pour attirer les analystes. Dans le cadre du modèle de Bhushan (1989), Lang et Lundholm (1996) analysent plus particulièrement l’impact de la la qualité de la communication financière sur l’offre d’information des analystes. Sur le marché américain entre 1985 et 1989, ils montrent que la qualité de l’information publiée par la société accroı̂t significativement le nombre d’analystes suivant la société, la qualité et l’homogénéité de leurs estimations. Elle apparaı̂t également réduire la volatilité des révisions. Bricker et alii (2000) prolongent également le modèle de Bhushan, sur un échantillon de 249 sociétés cotées aux États-Unis en 1996. Ils approfondissent la relation entre la complexité de l’activité et le suivi des analystes. Ils proposent trois mesures différentes de la complexité : le nombre d’activités, le nombre d’implantations géographiques, le produit du nombre d’activités par celui des zones géographiques. Le niveau de couverture d’une société s’avère diminuer avec le bêta, la participation des insiders et le degré de complexité ; croı̂tre avec la valeur de marché de la société. Le coefficient de la participation des investisseurs institutionnels ne diffère pas significativement de zéro. La mesure agrégée de la complexité n’améliore pas le pouvoir explicatif des modèles de régression. Sabherwal et Smith (1999) extrapolent la théorie de l’intermédiation fi- 130 Chapitre 4 nancière de Diamond (1984). Dans celle-ci, les prêteurs ou outsiders peuvent éluder le problème de hasard moral en étant bien informés des actions du débiteur. Mais ils doivent décider entre produire eux-mêmes l’information nécessaire au contrôle, ou déléguer cette tâche. D’après Diamond, plus les outsiders sont nombreux et plus ils ont intérêt à recourir aux services informationnels d’un tiers. Sabherwal et Smith analysent la relation actionnaires/dirigeant à l’aune de ce modèle. Les actionnaires outsiders sont assimilés aux prêteurs. Les auteurs prédisent alors une relation négative entre le nombre d’analystes suivant une société et la concentration de l’actionnariat. Ils testent cette hypothèse sur un échantillon de 1178 sociétés, construit pour l’année 1995. Ils évaluent la concentration de l’actionnariat à partir d’indices Herfindhal2 , des participations au capital des institutionnels, des insiders et des outsiders. Les résultats confirment leurs anticipations. Plus le capital est concentré et moins les analystes suivent la société. Les coefficients des variables de contrôle introduites dans les modèles de régression ont le signe attendu. Le nombre d’analystes augmente avec la taille de la société, la variance des rentabilités boursières quotidiennes, le nombre d’actions en circulation, le nombre d’actionnaires institutionnels, la corrélation entre la rentabilité du titre et celle du marché. Il ne s’explique pas significativement par l’effet de levier. Les auteurs ont moins étudiés sur la couverture des sociétés cotées sur le marché primaire que secondaire. Sur le marché primaire Rajan et Servaes (1997), puis de Das et al. (2002) se sont penchés sur les caractéristiques des sociétés nouvellement cotées, suivies par les analystes financiers. Rajan et Servaes (1997) analysent la couverture dans les bases d’I/B/E/S, de 2 274 sociétés admises à la cote américaine entre 1975 et le deuxième trimestre 1987. Le taux de couverture moyen s’élève à 56%. Il s’améliore au cours de la période étudiée car I/B/E/S a progressivement complété ses bases. Une régression classique aurait donc seulement exclu les sociétés de l’échantillon que des analystes, pas encore contactés par I/B/E/S, auraient pourtant suivies leur première année boursière. Afin d’éviter ce biais de sélection, Rajan et Servaes appliquent la procédure en deux étapes d’Heckman (1979). Dans un premier temps, un modèle probit explique la pro2 L’indice d’Herfindhal élève au carré la somme des participations des cinq principaux actionnaires. Chapitre 4 131 babilité qu’au moins un analyste enregistré dans les bases d’I/B/E/S, ait prédit le résultat des sociétés de l’échantillon, avant la fin de leur première année de cotation. Le nombre d’acteurs dans le secteur à la date de l’introduction, la capitalisation boursière, l’introduction sur l’une des principales places boursières (AMEX, Nyse, Nasdaq) et plutôt à la fin de la période étudiée augmentent significativement les chances de suivi. Dans un deuxième temps, le nombre d’analystes couvrant la société est régressé sur de possibles déterminants. Sur l’échantillon total, il apparaı̂t croı̂tre significativement avec la sous-évaluation, la capitalisation boursière et le nombre de sociétés du même secteur cotées depuis au moins trois ans. La procédure répétée sur l’échantillon de contrôle, comprenant 803 sociétés introduites entre 1985 et 1987, confirme le pouvoir explicatif de ces variables. Elle révèle par ailleurs celui du nombre de banques introductrices. Das et alii (2002) ont travaillé sur un échantillon de 3 186 sociétés introduites sur le marché américain entre 1985 et 1995. Ils rendent compte du niveau et de la rapidité de la couverture d’une introduction par les analystes, à travers respectivement des modèles de régression et de Cox. Le nombre mensuel d’analystes suivant la société introduite au cours des trois premiers mois de couverture mesure l’intérêt des analystes pour une introduction. Le délai de couverture correspond au nombre de mois séparant la date d’introduction du premier mois de suivi dans les bases d’I/B/E/S. Ces deux variables sont déterminées significativement et positivement par la capitalisation boursière de la société, la réputation de l’introducteur, la sous-évaluation, le marché d’introduction, le nombre d’introducteurs et de co-introducteurs, le nombre de sociétés du même secteur et le nombre de celles introduites en bourse la même année. Le niveau et le délai de couverture s’avèrent également reliés négativement et significativement. Les auteurs montrent enfin que les introductions suivies le plus rapidement et par le plus grand nombre d’analystes enregistrent les meilleures performances à long terme. Les tableaux 4.11 et 4.12 récapitulent, à la fin du chapitre 4, l’ensemble des travaux évoqués. 4.1.2 Modélisation du comportement des analystes Le cadre d’analyse Certains chercheurs considèrent que la nature ou la qualité des informations produites par les analystes résultent de choix stratégiques. Les analystes décideraient des caractéristiques de leur offre d’information, de sorte à sa- 132 Chapitre 4 tisfaire au mieux les diverses parties prenantes (leur employeur, la société évaluée, les investisseurs) et leurs intérêts personnels. Le biais entachant les informations publiées ou les titres suivis serait voulu et délibéré. Les analystes évalueraient les gains et les coûts attendus des informations offertes. Ils dresseraient une sorte de bilan coûts/avantages. La littérature offre de nombreuses applications de ce raisonnement. Nous en citons quelques-unes. Selon McNichols et O’Brien (1997), les analystes diffuseraient avec réticence des informations défavorables, susceptibles de compromettre les intérêts de la banque d’investissement, les relations avec le dirigeant ou les perspectives de commissions de courtage. Les analystes sélectionneraient donc uniquement les sociétés performantes ex ante. Les résultats confirment le biais supposé de sélection des titres. Les révisions à la baisse des prévisions se révèlent plus tardives et moins fréquentes que les révisions à la hausse. Parallèlement, les chercheurs trouvent que les sociétés nouvellement suivies affichent une meilleure rentabilité financière et sont davantage recommandées à l’achat que les sociétés anciennement suivies. Pour O’Brien et Bhushan (1990) également, les analystes décideraient de suivre une société, après en avoir pesé les coûts et les bénéfices attendus. Le coût de production de l’information varierait avec le secteur d’activité de l’entreprise. Les analystes sont présumés préférer les secteurs où l’information publique est très réglementée et/où les entrants sont nombreux. Ils choisiraient par ailleurs des valeurs peu suivies par leurs pairs, susceptibles de générer des commissions de courtage. Selon Bricker et alii (1999), les revenus et les coûts escomptés du suivi détermineraient la décision des analystes. Les auteurs supposent en particulier que la forte implication des insiders et des investisseurs institutionnels dans le capital amoindrit les commissions de courtage anticipées, et donc dissuade les analystes de suivre la société concernée. En outre, Bricker et al. considèrent que les analystes, attachés à leur réputation, veillent à minimiser leurs erreurs de prévision. Ils éviteraient donc les titres risqués, plus difficiles à évaluer. Leur coût de production de l’information diminuerait avec la qualité des informations publiées par la société et augmenterait avec la complexité de l’activité. Espahbodi et alii (2001) avancent que la décision des analystes de diffuser des prévisions optimistes est calculée. Les analystes sont supposés n’être optimistes dans leurs estimations que si les bénéfices attendus en excèdent Chapitre 4 133 les coûts3 . Ils devraient donc être peu enclins à publier des prévisions optimistes sur une société au bord de la faillite. Ils risqueraient en effet de voir leur responsabilité engagée par les investisseurs insatisfaits. Par ailleurs, ils n’ont pas besoin de s’attirer les faveurs d’un dirigeant sur le départ. Enfin, les investisseurs notamment institutionnels se détournent des sociétés en difficulté, trop risquées. Francis et Philbrick (1993) modélisent l’offre d’information des analystes. De par leur fonction, les analystes sont sous influence. Ils doivent à la fois ménager les dirigeants des sociétés évaluées, favoriser les activités de courtage et de banque d’investissement de leur employeur. Ils s’acquittent en outre de nombreuses tâches. Ils estiment en particulier les résultats à venir des sociétés suivies et conseillent les investisseurs dans leurs choix d’investissement. Selon Francis et Philbrick (1993), les analystes joueraient sur la pluralité de leur offre d’information pour gérer aux mieux les intérêts contradictoires auxquels ils sont soumis. Ils choisiraient donc de publier des prévisions optimistes si préalablement ils avaient recommandé le titre concerné à la vente. Ainsi, ils préserveraient leurs relations avec le dirigeant. Notre modélisation du comportement des analystes s’inscrit dans le prolongement de ces travaux. Nous analysons la décision des analystes de suivre ou non un nouveau titre coté, dans le cadre de leur relation d’agence avec leur employeur. Les analystes sont supposés rationnels. L’intérêt du principal guiderait leur choix. Autrement dit, ils sélectionneraient les titres susceptibles de rapporter au moindre coût, des commissions de courtage et/ou de placement. Ils maximiseraient simultanément leur fonction d’utilité. En effet, leur rémunération et la sécurité de leur emploi dépendent, au moins en partie, des profits de leur employeur. Nous déclinons cette proposition générale en plusieurs hypothèses. Les hypothèses Un analyste est supposé suivre un titre nouvellement coté s’il en attend des gains nets pour son employeur. Autrement dit, les commissions de courtage et/ou de placement espérées doivent excéder le coût de collecte et de production de l’information. Dans les travaux antérieurs, les analystes apparaissent sensibles à la sousévaluation du prix d’offre (Rajan et Servaes, 1997 ; Chen et Ritter, 2000 ; Das 3 «We extend the argument that the analyst’s decision to issue optimistic earnings forecasts is based on a comparison of the costs and benefits of doing so», page 3. 134 Chapitre 4 et al., 2002) et la qualité des informations publiées par le dirigeant (Lang et Lundholm, 1996 ; Bricker et al., 1999 ; Chang et al., 2000). Mais la société peut utiliser ces facteurs pour attirer les analystes. Ainsi, dans les modèles de Chemmanur (1993) et plus récemment d’Aggarwal et al. (2002), la société sous-évalue délibérément les titres introduits afin d’attirer les analystes. Afin d’éviter le risque d’endogénéité, seules des caractéristiques exogènes de la société sont considérées comme déterminant les gains attendus de la couverture et le coût de production de l’information. Dans le modèle de Bhushan (1989), la capitalisation boursière détermine la fonction de profit de l’analyste. Bricker et alii (1999) affinent ce proxy. Ils utilisent la valeur de marché des actions émises (respectivement échangées) pour approcher les commissions de placement (respectivement de courtage) attendues du suivi du titre. Nous avons pris en compte la spécificité du contexte de l’introduction en bourse dans le choix des indicateurs. Compte tenu des rentabilités initiales anormales observées les premiers jours de l’introduction, nous avons mesuré les commissions de courtage anticipées par le nombre de titres mis à la disposition du public et le volume moyen des titres échangés, plutôt que par leur valeur de marché. Par ailleurs, certaines sociétés projettent, dès leur introduction, de revenir rapidement sur le marché primaire. Les analystes anticipent alors de futurs mandats de placement à obtenir pour leur employeur. Nous supposons donc qu’ils assimilent la perspective d’une augmentation capital peu après l’introduction, à l’espérance de commissions de placement. Sur le marché secondaire, la volonté des analystes de générer des ordres d’achat semble expliquer l’optimisme de leurs prévisions (Dugar et Nathan, 1995, page 135) ou leur décision de suivre une société (Hayes, 1998). Elle pourrait également expliquer le choix des titres suivis sur le marché primaire. Or un marché animé et profond offre des perspectives de commissions de courtage aux analystes. Il limite en effet le risque lié aux transactions informées (Bhushan, 1989, page 190). Plus les titres introduits sont nombreux et échangés, plus ils devraient donc retenir l’attention des analystes. Nous formulons ainsi notre première hypothèse : H1- L’intérêt des analystes pour un titre augmente avec le volume moyen échangé et l’ouverture du capital. La maison de courtage qui emploie l’analyste est souvent la filiale d’une banque d’investissement. Or la récente diminution des commissions de courtage a conduit les groupes financiers à privilégier leur activité de placement, plus lucrative (Healy et Palepu, 2001 ; Michaely et Womack, 1999). La banque Chapitre 4 135 d’affaires exerce sa domination sur les analystes du broker. Elle les encourage à publier des recommandations et des prévisions de résultat optimistes sur ses clients (Dugar et Nathan, 1995). Michaely et Womack (1999, page 654) avancent que le primat des intérêts du département corporate pourrait également affecter la sélection des titres suivis par les analystes. Les analystes du broker choisiraient ainsi en priorité les sociétés susceptibles de mandater la banque du groupe dans de futures opérations sur le marché primaire. Ils y trouveraient également leur intérêt, à travers des bonus accordés aux apporteurs d’affaires (Dechow et alii, 2000) ou de la part variable de leur rémunération. Nous en déduisons l’hypothèse suivante : H2- Les analystes s’intéressent d’autant plus à une société qu’elle envisage de revenir sur le marché primaire après l’introduction. Les gains espérés du suivi d’une nouvelle société doivent être appréciés nets du coût de collecte et de production de l’information. Celui-ci est supposé fonction de l’activité du marché primaire, de la taille de la société et de sa structure d’actionnariat. Lorsque de nombreuses sociétés comparables - en termes de secteur et de taille - s’introduisent au même moment, les marchés sont riches en information (Van Bommel et alii, 2001). Les analystes réalisent alors des économies d’échelle dans la collecte et l’usage de l’information. Leur coût de production d’information diminue (Booth et Chua, 1996). De surcroı̂t, les vagues d’introductions succèdent à des périodes de forte sous-évaluation (Lowry et Schwert, 2002). Les gains espérés de transactions informées sur ces titres est donc élevée. Conformément au modèle d’offre et de demande de Bhushan (1989), l’intérêt des analystes pour les sociétés introduites devrait croı̂tre avec l’activité du marché primaire. Notre hypothèse s’énonce ainsi : H3- Une société est suivie d’autant plus intensément et rapidement qu’elle s’introduit en période de forte activité du marché primaire. L’influence de la taille de la société sur le coût de production de l’information n’est pas évidente a priori 4 . Les grandes sociétés ont généralement une activité plus complexe et donc plus coûteuse à évaluer que les petites sociétés. En même temps, la quantité d’information disponible augmente avec la taille de la société (Zéghal, 1981). En conséquence, l’analyste suivrait une société 4 Traditionnellement, les commissions espérées, et donc l’intérêt des analystes, sont supposées augmenter avec la capitalisation boursière, proxy de la taille. Dans notre étude, la taille détermine la fonction de coûts et non de profits de l’analyste. Elle n’est pas mesurée par la capitalisation boursière. Nous ne pouvions donc prédire un lien positif entre la taille et le niveau de couverture. 136 Chapitre 4 de grande taille si l’économie réalisée dans la collecte de l’information excède le coût de production supplémentaire induit par la complexité de l’activité, toutes choses égales par ailleurs. La nature du lien, positif ou négatif, entre la taille de l’entreprise et sa couverture par les analystes ne peut donc être établie qu’empiriquement. H4- La taille de la société détermine son suivi par les analystes. Plus le dirigeant détient une fraction importante du capital et moins il est incité à rendre compte de sa gestion. La concentration du capital entre les mains des insiders est associée à un faible partage de l’information et donc à un coût de collecte de l’information élevé pour les outsiders. Elle devrait dissuader les analystes de suivre la société (Saberwhal et Smith, 1999 ; Lang et alii, 2002). L’hypothèse suivante est avancée : H5- L’intérêt des analystes pour une société diminue avec la rétention de capital par le dirigeant. 4.2 La méthodologie, les données et l’échantillon Nous présentons successivement la méthodologie adoptée, les variables retenues, l’origine des données et enfin l’échantillon. 4.2.1 La méthodologie adoptée Nous étudions pourquoi les analystes décident de suivre ou non une société nouvellement introduite et, le cas échéant, avec plus ou moins de rapidité. Dans le cadre de la théorie de l’agence, la volonté de minimiser les coûts d’agence est supposée déterminer le choix des analystes (suivre/ne pas suivre), ainsi que le délai de couverture. Les analystes chercheraient, à travers leur choix, à satisfaire au mieux les intérêts du principal. Cette hypothèse est testée à partir de plusieurs outils. Des tests univariés permettent d’une part, de comparer les caractéristiques des sociétés suivies et non suivies ; d’autre part, d’observer l’influence du marché d’introduction, de l’activité du marché primaire et de l’anticipation d’une augmentation de capital post introduction sur le suivi des analystes. Des régressions multivariées sont ensuite conduites. Le niveau puis le délai de couverture représentent les variables dépendantes. Les coûts et les bénéfices attendus du suivi constituent les variables indépendantes. Chapitre 4 137 Une régression logistique binaire explique la probabilité que les analystes suivent un titre introduit. Enfin, une analyse de survie5 est proposée. À l’issue de la période étudiée (2000), certaines introductions de notre échantillon ne sont toujours pas couvertes. Les modèles de régression classiques excluent ces observations dites censurées. En revanche l’analyse de survie estime des modèles de durée à l’évènement «être suivie» avec les observations censurées. Contrairement aux régressions logistiques, elle appréhende de manière dynamique le passage de l’état de «non suivi» à celui de «suivi». Les modèles de Kaplan-Meier et de Cox permettent respectivement de tester l’effet d’une variable binaire et de plusieurs paramètres sur le délai de couverture. 4.2.2 Les variables Les variables suivantes mesurent le degré et la rapidité de la couverture d’une société par les analystes. • NAF : nombre d’analystes ayant émis des prévisions sur la société considérée dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction. L’horizon de prévision est indifférent. Seuls les analystes indépendants du chef de file sont pris en compte. Cette variable mesure le niveau de couverture d’une société. • NEST : nombre de prévisions diffusées sur une société donnée, dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction, quel que soit l’horizon. Les émetteurs sont les analystes indépendants du chef de file. Cette variable rend compte de l’intérêt des analystes pour la société. • PAF : variable binaire égale à 1 si la société a été suivie par au moins un analyste d’I/B/E/S, dans l’intervalle [-6 mois ; +12 mois] entourant la date d’introduction. Pendant cette période, au moins un analyste doit donc avoir estimé les futurs résultats de cette société, et transmis sa prévision à I/B/E/S. • Délai : nombre de jours séparant la première estimation apparue dans les bases d’I/B/E/S sur la société considérée, de sa date d’introduction. Les prévisions proviennent d’analystes indépendants et sont à tout horizon. Cette variable mesure le délai de couverture d’une société. Les variables ci-dessous approchent les bénéfices attendus du suivi d’une société introduite. 5 Nous développons les principes de cette technique statistique en appendice du chapitre 4, (pages 161 à 164). 138 Chapitre 4 • CAPPUB : nombre d’actions en circulation à l’issue du premier jour de cotation. Cette variable mesure la taille du marché potentiel des investisseurs (Bhushan, 1989). Les commissions de courtage espérées augmentent avec la profondeur du marché des titres. Les analystes devraient donc être sensibles au flottant en titres. • AUG : indicateur de la réalisation (AUG = 1) ou non (AUG = 0) d’une augmentation de capital dans les trois ans suivant l’introduction et avant 2000. Une société qui envisage de lever des fonds rapidement après l’introduction représente une cliente potentielle pour l’établissement financier employant l’analyste. La perspective de nouvelles opérations sur le marché primaire devrait donc inciter les analystes à suivre la société. • VOL-ECH : volume moyen des titres échangés les vingt-cinq premiers jours de cotation. Contrairement à leurs homologues américains, les analystes français sont autorisés à diffuser des informations sur la société introduite les vingt-cinq premiers jours de cotation. En pratique, ils attendent en moyenne quatre mois avant de formuler leurs premières estimations. VOL-ECH peut donc être considéré comme exogène, c’est-à-dire indépendant des informations diffusées par les analystes sur la société introduite. Les gains nets espérés d’une transaction informée sont d’autant plus élevés que le marché du titre est animé. Ils sont également fonction de la rapidité d’intervention. Le volume moyen des titres échangés devrait être relié positivement au niveau et à la rapidité de la couverture de la société par les analystes. Les variables ci-après déterminent le coût de production de l’information des analystes. • AMP : variable dichotomique égale à 0/1 si la société s’est introduite en période de faible/forte activité du marché primaire. Nous avons comparé les fonds levés sur une période de douze mois encadrant la date d’introduction d’une société, au montant annuel moyen6 introduit entre 1994 et 2000. La variable AMP vaut 1 si la différence relative à la moyenne est positive ; 0 si elle est négative. Les périodes de forte activité du marché primaire sont liées à des externalités informationnelles et donc à un moindre coût de production de l’information pour les analystes. Elles devraient favoriser le suivi d’une société par les analystes. • Taille : le logarithme népérien du chiffre d’affaires réalisé l’année précédant l’introduction mesure la taille de la société. Les asymétries d’information diminuent avec la taille de la société. En conséquence, les analystes privilégieraient les sociétés de grande taille, moins coûteuses à suivre que les 6 La somme des montants introduits de toutes les sociétés de l’échantillon est rapportée à l’effectif de l’échantillon. Chapitre 4 139 petites sociétés (Brennan et Hughes, 1991 ; Bhushan, 1989). • AD : part du capital conservée par le dirigeant, directement ou indirectement, après l’introduction en bourse. Les analystes semblent s’écarter des sociétés contrôlées par les insiders (Bricker et alii, 1999 par exemple). Ils les suspecteraient de dissimuler ou manipuler l’information publiée (Lang et alii, 2002). Ils escompteraient encore une moindre demande d’information privées (Bhushan, 1989). Plus la participation au capital des insiders augmente et plus, corollairement, celle des outsiders diminue. Nous avons enfin retenu le secteur comme variable de contrôle dans les modèles de régression. • Secteur : variable muette égale à 1 si la société appartient au secteur des nouvelles technologies de l’information et de la communication (NTIC), et à 0 sinon. D’après les résultats de Bhushan (1989), Marston (1997), Saberwhal et Smith (1999), le secteur d’activité d’une société a un impact significatif sur son niveau de couverture. Il détermine à la fois le coût de production de l’information et les gains espérés du suivi. Ainsi, les sociétés des NTIC sont plus difficiles à évaluer que les autres. Elles se prêtent mal aux méthodes classiques de valorisation. En outre, leurs projets d’investissement sont complexes, avec des perspectives de rentabilités incertaines. Toutefois, les analystes bénéficient d’un moindre coût relatif de production de l’information. Par ailleurs, sur la période étudiée, le marché s’est engoué pour les sociétés des NTIC, suscitant une demande d’information privée auprès des analystes. Au total, l’intérêt des analystes est supposé plus marqué pour les sociétés des NTIC que les autres. 4.2.3 Les données Les données d’I/B/E/S ont permis de calculer le niveau et le délai de couverture des sociétés introduites. La fraction de capital conservée par le dirigeant après l’introduction, le chiffre d’affaires réalisé l’année t0 − 1, les éventuelles prévisions du dirigeant, le prix d’offre définitif et le nombre de titres introduits proviennent du prospectus définitif. La sous-évaluation, le volume moyen de titres échangés et le nombre d’actions en circulation sont obtenus à partir des données d’Euronext. Les dates des augmentations de capital postérieures à l’introduction sont relevées dans la base financière de la COB. Enfin, les rapports annuels de la COB ont fourni les nombres totaux de sociétés introduites sur le Second Marché et le Nouveau Marché. 140 4.2.4 Chapitre 4 L’échantillon Nous indiquons la procédure de constitution de l’échantillon, avant de le décrire. Constitution Entre 1994 et 2000, 262 sociétés se sont introduites sur le Second Marché et 165 sur le Nouveau Marché. Nous avons écarté celles dont l’une des variables suivantes était indisponible : la rentabilité initiale anormale, le volume moyen échangé, l’indicateur d’augmentation de capital, le flottant en titres, la part de capital conservée par le dirigeant après l’introduction, la taille et l’indicateur d’activité du marché primaire. L’échantillon est donc «cylindré» au regard de ces variables. Il comprend 218 sociétés dont 57 appartiennent au Nouveau Marché et 161 au Second Marché. Les analystes d’I/B/E/S ont émis des prévisions sur 171 d’entre elles, soit 78.4%. Année 1994 1995 1996 1997 1998 1999 2000 Nb total introductions Nouveau Marché Second Marché 33 26 18 33 20 43 43 76 32 33 52 18 échantillon : % du nb total introductions Nouveau Marché Second Marché 66.7% 53.8% 16.7% 81.8% 50% 74.4% 32.6% 54% 47% 57.6% 28.8% 33.3% Tab. 4.1 – Représentativité de l’échantillon du chapitre 4 Notre échantillon inclut environ 60% des sociétés introduites sur le Second Marché entre janvier 1994 et décembre 2000, et un tiers de celles admises à la cote du Nouveau Marché entre janvier 1996 et décembre 2000. Le tableau 4.1 appelle deux remarques. Premièrement, les sociétés introduites sur le Second Marché en 1994, 1996, 1997 et 1999, ou sur le Nouveau Marché en 1997 et 1999 sont les mieux représentées dans l’échantillon. Les taux de représentativité sont faibles en 2000 car notre période d’étude s’achève le 30 juin 2000. Le nombre de sociétés introduites au cours du premier semestre 2000 et présentes dans l’échantillon est donc rapporté à un nombre annuel d’introductions. Deuxièmement, l’échantillon est plus typique des introductions sur le Second Marché que sur le Nouveau Marché. En effet, les prospectus des sociétés introduites sur le Nouveau Marché n’étaient pas consultables Chapitre 4 141 à la COB. Notre échantillon ne comprend donc que les sociétés du Nouveau Marché ayant répondu à notre demande de prospectus. Description Le tableau 4.2 caractérise les émetteurs et les émissions de l’échantillon, ainsi que leur couverture par les analystes financiers d’I/B/E/S. Variables Âge (année intro t0 - année création) Taille (ln chiffre d’affaires année t0 -1) AD (part de capital du dirigeant post intro) Erreur-dirigeant (-1 + BPA prévu/BPA réel) Montant introduit (en millions francs) Flottant (% du capital rendu public) VOL-ECH (volume moyen de titres échangés les 25 premiers jours de cotation) RIA (rentabilité initiale anormale) NAF (nb analystes indépendants suivant la société) NEST (nb estimations diffusées) Délai de couverture (date 1ère estimation - date d’introduction, exprimé en jours) moyenne 27.1 5.45 54.4 1.09 140 22.5 23013 médiane 16 5.32 65.9 0.013 57 20 13929 écart-type 32.2 1.89 30.3 3.29 265 13.3 24182 N 218 218 218 128 218 218 218 0.23 3.57 0.089 2 0.821 3.11 218 171 19.3 122 11 101 20.4 101 171 171 Tab. 4.2 – Statistiques descriptives du chapitre 4 Les sociétés de l’échantillon attendent en moyenne 27 ans avant de s’introduire en bourse. Elles réalisent un chiffre d’affaires moyen de 233 millions de francs (35.5 millions d’euros). Les dirigeants conservent la majorité du capital après l’introduction. Leurs estimations de résultat sont de qualité très disparate. Les sociétés de l’échantillon lèvent en moyenne 140 millions de francs (21.3 millions d’euros), soit 22.5% du capital. 23 013 titres sont en moyenne échangés les 25 premiers jours de cotation. Les titres introduits s’avèrent sous-évalués en moyenne de 23% par rapport au prix d’offre. Dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction, trois analystes et demi suivent en moyenne une société et produisent une vingtaine d’estimations. La première prévision est enregistrée environ 4 mois après la date d’introduction. Das et alii (2002) retiennent le nombre d’analystes ayant suivi l’introduction les trois premiers mois de couverture, nécessairement compris dans les trois premières années de cotation. La moyenne mensuelle constitue leur mesure de l’intensité de la couverture. Elle s’élève à 2.03/1.56 lorsque la couverture débute au cours du premier/second semestre post introduction. Selon Chang et alii (2000), 23.2 analystes suivent en moyenne dans les 142 Chapitre 4 bases d’I/B/E/S, les trente plus grandes capitalisations boursières françaises en novembre 1996, soit un peu moins d’un analyste par société. À titre de comparaison, rappelons que sur notre échantillon, 3.5 analystes s’intéressent en moyenne à une société au cours de sa première année boursière. Toutes choses égales par ailleurs, les sociétés semblent donc particulièrement attirer les analystes lors de leur admission à la cote. La couverture d’une société introduite varie selon les années (tableau 4.3). Année 1994 1995 1996 1997 1998 1999 2000 Suivi par les analystes (PAF) oui (1) non (0) fréquence PAF=1 12 10 54.5 11 3 78.6 29 1 96.7 37 5 88.1 42 13 76.4 27 7 79.4 13 8 61.9 Nombre d’analystes (NAF) moyenne médiane écart-type 4.58 2 5.28 3.55 3 3.01 4.62 3 3.37 3.19 2 2.99 3.14 2 2.63 3.63 3 2.57 2.61 1 2.76 Tab. 4.3 – Couverture des sociétés de l’échantillon par année 54.5% des sociétés de l’échantillon sont suivies en 1994, contre en moyenne 80% entre 1995 et 1999. Sur leur échantillon, Das et alii (2002) obtiennent un taux de couverture de 75% en 1994 et 83% en 1995. 96.7% des sociétés introduites en 1996 et présentes dans l’échantillon s’avèrent suivies. Au minimum 4.5 analystes assurent en moyenne la couverture d’un titre introduit en 1994 et 1996. Ils sont en moyenne 3.5 en 1995, 1997, 1998 et 1999, et seulement 2.6 en 2000. Les titres introduits une année i sont suivis à 50% par deux ou trois analystes, dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. Les variations annuelles du niveau de couverture, notamment entre 1994 et 1995, peuvent refléter l’intérêt changeant de la communauté financière pour le marché primaire. Mais elles peuvent aussi résulter de l’évolution de l’offre globale de services informationnels. Afin de trancher la question, nous avons extrait d’I/B/E/S : - le nombre total d’analystes ayant suivi les marchés français entre janvier 1994 et décembre 2000 ; - le nombre total d’analystes ayant transmis des estimations sur les introductions au Second Marché et Nouveau Marché, dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. Les introductions sont réalisées entre le 01/01/1994 et le 31/12/2000 ; - le nombre total d’analystes ayant formulé des prévisions sur les sociétés de Chapitre 4 143 l’échantillon dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. Le tableau 4.4 récapitule ces informations. année 1994 1995 1996 1997 1998 1999 2000 marchés français 4785 7090 6356 5516 5422 5314 4998 Nombre total d’analystes suivant intro. SM et NM (1) échantillon (2) 65 62 39 37 118 95 102 86 102 87 99 79 70 35 100 x (2)/(1) 95.4% 94.9% 80.5% 84.3% 85.3% 79.8% 50.0% Tab. 4.4 – Nombre d’analystes dans les bases d’I/B/E/S Le nombre total d’analystes couvrant les marchés français dans les bases d’I/B/E/S a augmenté de 32% entre 1994 et 1995. Deux raisons sont possibles. Entre 1994 et 1995, le marché de l’analyse financière a pu fortement croı̂tre ; ou bien I/B/E/S a pu compléter ses bases. Le marché primaire n’a pas bénéficié de la croissance observée. Ainsi, 39 analystes ont couvert les sociétés introduites en 1995 au cours de leur première année boursière, contre 65 en 1994. Par ailleurs, les opérations ont été aussi nombreuses en 1994 qu’en 1995 (voir tableau 4.1). Seul un moindre intérêt de la communauté financière pour le marché primaire peut donc expliquer que les sociétés de l’échantillon introduites en 1994 soient suivies dans une moindre proportion que celles introduites en 1995. Depuis 1995, le nombre total d’analystes suivant les valeurs françaises dans I/B/E/S a diminué pour se stabiliser aux environs de 5000. Seulement 1 à 2% de cette offre globale s’intéressent aux sociétés introduites sur le Nouveau Marché ou le Second Marché. Les analystes qui suivent les sociétés de notre échantillon représentent plus de 80% du nombre total d’analystes affectés à la couverture des introductions sur le NM et le SM dans les bases d’I/B/E/S. La proportion est plus faible en 2000 (50%) car l’échantillon n’inclut que les sociétés introduites au cours du premier semestre 2000. Dans le tableau 4.5, les 171 sociétés de l’échantillon suivies par les analystes d’I/B/E/S sont réparties selon leur délai de couverture. Les analystes semblent en majorité émettre leur première estimation sur un titre introduit après quatre mois de cotation. Treize sociétés de l’échantillon sont suivies par les analystes avant même leur introduction en bourse. Au bout de 6 mois, 73% des sociétés de l’échantillon sont couvertes. Les analystes 144 Chapitre 4 Nombre de mois après introduction avant introduction date intro. + 1 mois date intro. + 2 mois date intro. + 3 mois date intro. + 4 mois date intro. + 5 mois date intro. + 6 mois date intro. + 7 mois date intro. + 8 mois date intro. + 9 mois date intro. + 10 mois date intro. + 11 mois date intro. + 12 mois effectifs N 13 21 25 16 23 19 9 8 9 8 7 6 7 fréquence en % N/171 6.5 12.4 14.8 9.5 13.6 11.2 5.3 4.7 5.3 4.7 4.1 3.6 4.1 fréquences cumulées échantillon Nouveau Second Marché total Marché Marché 6.5 0 8.7 18.9 7 23 33.7 11.6 41.3 43.2 23.3 50 56.8 44.2 61.1 68 60.5 70.6 73.4 65.1 76.2 78.1 72.1 80.2 83.4 81.4 84.1 88.2 86 88.9 92.3 90.7 92.9 95.9 95.3 96 100 100 100 Tab. 4.5 – Distribution délai de couverture paraissent plus prompts à couvrir les sociétés du Second Marché que du Nouveau Marché. Sur notre échantillon, 50% des sociétés du Second Marché sont suivies trois mois après l’introduction, contre 23% des sociétés du Nouveau marché. Le retard est rattrapé le onzième mois de cotation : la proportion des sociétés couvertes est alors identique sur les deux marchés. Les analystes semblent donc différer leur décision de couverture des titres admis à la cote du Nouveau Marché. Le caractère spéculatif des introductions sur le Nouveau Marché pourrait expliquer l’attentisme des analystes. 4.3 Les résultats de l’étude empirique Nos hypothèses sont testées sur un échantillon de 218 sociétés introduites sur le Nouveau Marché entre le premier janvier 1996 et le 30 juin 2000, ou le Second Marché entre le premier janvier 1994 et le 30 juin 2000. 4.3.1 Les résultats des tests univariés Le tableau 4.6 rapporte la matrice des corrélations bi-variées. Il met tout d’abord en évidence des corrélations significatives entre le suivi des analystes et des variables approchant les coûts ou les bénéfices attendus du suivi, au seuil de 5% (**) ou de 10% (*). Le nombre d’analystes (NAF) et le nombre d’estimations diffusées sur la société introduite (NEST) sont ainsi reliés positivement et significative- NAF NEST Délai PAF VOL-ECH AUG AD Taille Erreur-dirigeant AMP Flottant CAPPUB NAF 1 NEST 0.911** 1 Délai -0.380** -0.351** 1 VOL-ECH 0.390** 0.395** -0.160* 0.162* 1 AUG 0.032 0.010 0.084 0.123 -0.015 1 AD -0.154* -0.143 -0.142 0.063 -0.239** -0.005 1 Taille 0.285** 0.264** -0.087 0.107 0.159* -0.161* -0.049 1 Erreur-dirigeant -0.211* -0.228* 0.208* -0.048 -0.133 0.172 -0.158 0.007 1 Tab. 4.6 – Rhô de Spearman - chapitre 4 1 PAF AMP 0.069 -0.008 0.017 0.073 0.152* -0.027 -0.002 0.085 -0.127 1 Flottant -0.011 0.044 0.085 -0.018 0.160* 0.119 -0.482** -0.195** 0.136 -0.143* 1 CAPPUB 0.227** 0.268** 0.014 0.065 0.548** -0.017 -0.352** 0.096 0.009 -0.028 0.376** 1 Chapitre 4 145 146 Chapitre 4 ment, au seuil de 5%, au volume moyen des titres échangés les vingt-cinq premiers jours de cotation (VOL-ECH), au nombre d’actions en circulation (CAPPUB) et à la taille de la société (taille). Le nombre d’analystes et le délai de couverture (Délai) sont liés négativement et significativement à l’erreur de prévision du dirigeant (erreur-dirigeant). Le nombre d’analystes est corrélée négativement, au seuil de 10%, à part de capital détenue par le dirigeant après l’introduction (AD). Certaines variables explicatives apparaissent également significativement corrélées entre elles. Le nombre moyen de titres échangés les vingt-cinq premiers jours de bourse est lié positivement à la taille (0.16*), à l’indicateur d’activité du marché primaire AMP (0.15*), au nombre d’actions en circulation CAPPUB (0.548**) et au flottant (0.16*) ; négativement à la fraction de capital conservée par le dirigeant (-0.24**). Le coefficient de corrélation entre la fraction de capital conservée par le dirigeant (AD) et le nombre d’actions en circulation (CAPPUB) vaut -0.352 et est statistiquement différent de 0 au seuil de 5%. Enfin le flottant est relié négativement à la taille (-0.19**), à la part de capital détenue par le dirigeant (-0.48**) et à l’indicateur d’activité du marché (-0.14*) ; positivement au nombre d’actions en circulation (0.376**). Nous avons ensuite mesuré l’effet de l’activité du marché primaire (faible/forte), du marché d’introduction (NM/SM), de la réalisation ou non d’une augmentation de capital dans les trois ans subséquents à l’introduction, sur l’intensité et la rapidité de la couverture des analystes. Nous avons également testé si les sociétés présentaient des caractéristiques différentes selon leur suivi ou non par les analystes d’I/B/E/S. Le tableau 4.7 récapitule les différences de moyennes significatives obtenues, au seuil de 10% (*), 5% (**) ou 1% (***). Impact Marché NAF délai Impact suivi analystes (PAF) VOL-ECH (vol. moyen des titres échangés) PER (prix offre / BPA t0 -1) Montant introduit (en millions de francs) Moyen. NM/SM 2.84/3.82 150/112 Moyen. 0/1 17623/24495 Dif. moy. -0.98 37 Dif. moy. -6872 Stat. t -2.07** 2.22** Stat. t -1.925* Sig. 0.041 0.030 Sig. 0.058 N 44/127 44/127 N 47/171 -254/19.9 82.4/159 -274 -76.6 -1.973** -1.782* 0.043 0.076 47/171 47/171 Tab. 4.7 – Caractéristiques des sociétés selon leur marché d’introduction et leur suivi par les analystes Les analystes semblent significativement plus nombreux, au seuil de 10%, à suivre une société introduite sur le Second Marché. Un plus faible degré Chapitre 4 147 d’asymétrie et donc un moindre coût de production de l’information caractérisent le Second Marché comparé au Nouveau Marché. Les sociétés suivies lèvent en moyenne significativement plus de fonds que les sociétés non suivies : 159 millions de francs, contre 82. Elles semblent également offrir de meilleures perspectives de croissance. Leur PER moyen est en effet positif et significativement plus élevé. Leur marché de titres paraı̂t enfin significativement plus animé. 4.3.2 Les résultats des tests multivariés Les régressions multivariées Le nombre d’analystes suivant la société (NAF), le nombre d’estimations diffusées (NEST) et le délai de couverture (délai) sont régressés sur des variables mesurant les coûts et bénéfices espérés du suivi. Les régressions sont menées sur 171 observations. Le tableau 4.8 reprend les modèles de régression les plus significatifs obtenus. Les t de Student sont donnés entre parenthèses, tandis que des étoiles indiquent leur significativité : 10% (*), 5% (**), 1% (***), 0.1% ****. Les facteurs d’inflation de la variance, en italique (VIF ), permettent de contrôler la multicolinéarité des variables explicatives. L’indépendance linéaire implique un VIF égal à 1 ; la colinéarité, un VIF supérieur à 10. Le volume moyen de titres échangés les 25 premiers jours de cotation (VOL-ECH), l’indicateur d’une émission d’actions post introduction (AUG), le nombre d’actions mises à la disposition du public (CAPPUB), la taille de la société (taille), la fraction de capital conservée par le dirigeant après l’introduction ((AD) et la variable mesurant l’activité du primaire (AMP) ont un coefficient significativement différent de 0. La quantité moyenne de titres échangés les vingt-cinq premiers jours de bourse, le flottant en titres et l’indicateur d’une augmentation de capital après l’introduction approchent les bénéfices espérés du suivi d’une société. Ils influencent de manière positive et significative, respectivement aux seuils de 0.1% (modèles 1 à 3), 5% (modèle 3) et 10% (modèle 2), le nombre d’analystes suivant la société. Nous validons ainsi les hypothèses H1 et H2. Sur le marché secondaire américain, le nombre d’actions en circulation (Saberwhal et Smith, 1999) détermine également positivement et significativement l’intensité de la couverture. Dans l’étude de Bricker et alii (1999), les valeurs de marché des actions émises/échangées approchent les commissions de placement/de courtage espérées. Elles ont un impact positif et significatif sur le Chapitre 4 148 Variable dépendante Modèle Constante VOL-ECH CAPPUB AUG Taille AD AMP F R2 ajusté N 1 2.285**** (7.517) 5.24 10−5 (6.010)**** 1 * 36.1**** 0.171 171 NAF 2 2.608*** (0.010) 4.94 10−5 (5.582)**** 1.083 0.933 (1.731)* 1.035 0.215 (1.968)* 1.034 -0.015 (-1.869)* 1.229 10.0**** 0.210 171 3 -0.293 (-0.333) 3.66 10−5 (3.152)**** 1.641 8.37 10−7 (2.155)** 1.557 0.416 (2.89)*** 1.071 13.0**** 0.261 171 4 11.14 (5.56)**** 3.3 10−4 (5.819)**** 1.00 33.9**** 0.162 171 NEST 5 2.876 (0.632) 3.3 10−4 (5.799)**** 1.004 6.551 (1.832)* 1.023 1.281 (1.761)* 1.027 13.4**** 0.180 171 6 -6.875 (-1.07) 2.4 10−4 (2.82)*** 1.652 4.88 10−6 (1.690)* 1.565 7.682 1.966 1.036 3.075 (2.834)*** 1.107 -6.223 (-1.774)* 1.011 8.06**** 0.217 171 -0.609 (-2.311)** 1.079 7.86*** 0.063 171 -0.956 (-2.804)*** 1 Délai 7 8 169 183 (8.495)**** (7.95)**** -0.001 (-1.687)* 1.079 3.28** 0.026 171 Tab. 4.8 – Explication du niveau et du délai de couverture d’une société nouvellement cotée Chapitre 4 149 nombre d’analystes suivant la société. Lorsque le nombre d’estimations diffusées, et non le nombre d’analystes, mesure l’intérêt des analystes pour une société, les résultats précédents sont confortés (modèles 4 à 6). Seule la part de capital conservée par le dirigeant voit son pouvoir explicatif disparaı̂tre. Par contre, l’activité du marché primaire apparaı̂t reliée négativement et significativement, au seuil de 10%, au nombre d’estimations (modèle 6). Le dynamisme du marché était supposé générer des externalités informationnelles et donc diminuer le coût de production de l’information. Au vu des résultats, il semble plutôt contraindre l’offre d’information des analystes. Notre hypothèse H3 est infirmée. Dans l’étude de Das et alii (2002), l’activité du marché primaire est mesurée par le nombre d’entreprises du même secteur et introduites la même année, que la société considérée. Elle ne détermine pas significativement le nombre d’analystes suivant la société. Par ailleurs, plus la société est de grande taille et plus les analystes s’y intéressent (modèles 2 et 3). La notoriété et la richesse de l’environnement informationnel des grandes sociétés pourraient attirer les analystes, malgré une activité plus complexe à évaluer. Globalement, le coût de production de l’information pour les analystes semble diminuer avec la taille de l’entreprise. La taille, mesurée par le logarithme de l’actif total, et le nombre d’analystes sont également liés positivement et significativement sur l’échantillon de 2510 sociétés appartenant à 27 pays de Lang et alii (2002). Les autres études obtiennent une relation similaire mais approchent la taille par la capitalisation boursière. Ainsi mesurée, la taille est implicitement associée aux bénéfices attendus du suivi. Nous avons choisi un autre proxy de la taille, afin qu’elle estime le coût anticipé du suivi. Nous validons l’hypothèse H4. Le nombre d’analystes suivant la société diminue avec la part de capital détenue par le dirigeant après l’introduction, mais au seuil de 10% seulement (modèle 2). La faible significativité du coefficient de régression ne nous permet de vérifier que partiellement l’hypothèse H5. Une structure du capital fermée implique un faible partage de l’information et donc un coût de collecte de l’information élevé. Par ailleurs, le nombre d’outsiders susceptibles d’acquérir des informations privées auprès des analystes diminue avec la participation au capital des insiders. Les analystes ont donc probablement moins intérêt à suivre les sociétés dont les gérants sont fortement impliqués dans le capital. Nos observations rejoignent celles de Bhushan (1989), Marston (1997), Bricker et alii (1999 et 2000), Saberwhal et Smith (1999) et Lang et alii (2002). 150 Chapitre 4 Enfin, nous avons régressé le délai de couverture sur les coûts et bénéfices attendus du suivi. Les analystes suivent d’autant plus rapidement un titre que son marché est animé (modèle 7). Nous confirmons l’hypothèse H1. Sur notre échantillon, la rétention de capital par le dirigeant accélère significativement, aux seuils de 5 et 1%, la couverture de la société par les analystes (modèles 7 et 8). Nous escomptions le résultat contraire (H5). L’anticipation de moindres conflits d’agence pourrait décider les analystes à suivre les sociétés de type familiales. Les analystes pourraient encore considérer l’engagement du dirigeant comme un signal de qualité, conformément au modèle de Leland et Pyle (1977). Les coefficients de détermination des modèles 1 à 5 varient de 16.2% à 26.1%. Ils sont inférieurs à ceux observés dans la littérature (voir tableau 4.8), entre autres parce qu’obtenus sur un plus petit échantillon. La qualité d’ajustement des modèles 1 à 5 est supérieure à celle des modèles explicatifs du délai de couverture. Les régressions logistiques binaires Le modèle logit suivant est testé sur notre échantillon de 218 introductions : 1 P (P AFi ) = 1 + exp −[α + Xi 0 β] où P (P AFi ) est la probabilité qu’au moins un analyste d’I/B/E/S prédise le BPA de la société i dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. Xi regroupe les variables mesurant les coûts et bénéfices attendus de la couverture. Le tableau 4.9 présente les modèles logit les plus significatifs. Il spécifie le coefficient β, la statistique de Wald entre parenthèses et son seuil de significativité (10% (*), 5% (**) et 0.1% (****). Le pouvoir explicatif des variables ci-après s’est révélé significatif : AUG, égale à 1 si la société a augmenté son capital dans les trois ans suivant son introduction et 0 sinon ; taille, équivalente au logarithme népérien du chiffre d’affaires réalisé un an avant l’introduction en bourse. Enfin le secteur d’activité de la société a été intégré comme variable de contrôle. Il vaut 1 pour le secteur des NTIC et 0 sinon. Les analystes travaillent souvent pour une maison de courtage affiliée à une banque d’investissement. Nous avons supposé qu’ils étaient incités à repérer de futurs clients pour la banque, comme les sociétés envisageant Chapitre 4 151 Modèles Constante AUG Taille Secteur χ2 R Cox Snell N 2 Variable dépendante : PAF A B C 1.16 -0.344 0.592 (43.9****) (0.147) (3.99**) 0.981 1.21 (3.11*) (4.47**) 0.344 (3.84**) 0.089 (4.95**) 3.78* 4.24** 8.95** 0.017 0.033 0.040 218 218 218 Tab. 4.9 – Probabilité de couverture d’une société : modèles logit de lever des fonds peu après leur introduction. Au vu des résultats de la régression logistique, les analystes sont d’autant plus enclins à suivre la société qu’elle émet des actions après son introduction en bourse. L’hypothèse H3 est confirmée. La probabilité pour une société d’être couverte au cours de la première année de cotation augmente par ailleurs avec sa taille. La taille de l’entreprise facilite l’accès à l’information. Par contre, elle accroı̂t la complexité de l’activité et la difficulté de l’évaluation. Mais le moindre coût de collecte de l’information semble l’emporter sur l’augmentation du coût de production de l’information, et donc décider les analystes de s’intéresser aux sociétés de grande taille. Enfin, nos résultats attestent que les analystes choisissent de suivre une société en fonction de son secteur d’activité. Lang et alii (2002) sur un échantillon international ; Saberwhal et Smith (1999), Rajan et Servaes (1997), Bhushan (1989) sur le marché secondaire américain ; Marston (1997) sur le marché secondaire britannique et enfin Das et alii (2002) sur le marché primaire américain obtiennent des résultats similaires. En particulier, sur notre période d’étude, les analystes semblent être nombreux à suivre les sociétés de la nouvelle économie. Les gains espérés du suivi paraissent excéder le coût marginal de production d’information sur ces sociétés. L’analyse de survie Les régressions multivariées et logistiques binaires expliquent, à un instant t, respectivement le nombre d’analystes suivant une société ou sa probabilité de couverture. Elles analysent donc de manière statique le phénomène de couverture. En outre, elles ne prennent pas en compte les sociétés suivies après la date considérée ou dont l’état (suivi/non suivi) est inconnu en t. 152 Chapitre 4 L’analyse de survie intègre ces informations. Elle estime le risque instantané d’apparition d’un évènement en fonction du temps et éventuellement de paramètres. La méthode non paramétrique de Kaplan-Meier permet de prédire la probabilité, pour un nouvel admis à la cote, d’être suivi rapidement dans sa première année de vie boursière. Le modèle semi-paramétrique de Cox évalue l’espérance de couverture d’une société dans l’année suivant son introduction, en fonction de plusieurs facteurs. Nous appliquons ces deux méthodes qui nécessitent préalablement de définir les données de survie. • Les données de survie 11 sociétés ont été exclues de l’échantillon initial de 218. Suivies avant leur introduction en bourse, elles présentaient en effet une variable de temps négative. L’analyse de survie a donc été menée sur les 207 sociétés restantes, exposées au risque de couverture. 26 sociétés sur les 207 ont été suivies par les analystes mais plus d’un an après leur introduction. À la date de point, leur état est «non suivi» (PAF = 0). Ces 26 sociétés constituent donc des «exclues vivantes». L’état de 21 autres sociétés est inconnu à la date de point. Autrement dit, ces sociétés n’apparaissent jamais dans les bases d’I/B/E/S entre 1994 et le 31/12/2000. Elles représentent des «perdues de vue». Au total, 47 des 207 sociétés sont des observations censurées. • La méthode de Kaplan-Meier À partir de durées de vie observées (y compris les censurées), la méthode de Kaplan Meier évalue la proportion des individus qui survivraient une durée donnée dans les mêmes circonstances. L’estimation est réalisée à la date de chaque évènement. Dans notre cas, la fonction de survie estimée avec le modèle de Kaplan-Meier correspond au pourcentage cumulé des sociétés non suivies à un instant t. Elle donne la probabilité pour une société j, de ne pas Q ck être couverte à l’instant t. Soit encore : S(tj ) = jk=1 1 − nc où ck est le k nombre d’introductions suivies au cours de l’intervalle de temps tk et nck le nombre de sociétés non suivies juste avant tk . La figure 4.1 représente la fonction 1 - S(tj ), c’est-à-dire la probabilité qu’au moins un analyste émette une prévision sur la société j à l’instant t, sachant que la société n’était pas suivie au début de l’intervalle de temps. La probabilité conditionnelle est calculée à chaque fois qu’une nouvelle société est couverte. Elles croı̂t au cours de la première année de cotation. Elle s’élève à 34% au 89ème jour, à 50% le 133ème jour (délai médian de couverture) et à 62% le 179ème jour. À partir d’un échantillon de sociétés admises à la Chapitre 4 153 cote américaines, Das et alii (2002) trouvent au contraire une probabilité conditionnelle décroissante avec le temps. Elle passe de 46.67% le premier trimestre, à 33.3% le second trimestre, 21.3% le troisième trimestre et 13.37% le dernier trimestre. Sur notre échantillon, une société a 85% de chances d’être couverte dans les 300 premiers jours de cotation, et donc 15% au-delà. La procédure de Kaplan-Meier s’arrête le 855ème jour. Autrement dit, sur notre échantillon, une société a très peu de chances d’être suivie passés 855 jours de bourse. Das et alii (2000) établissent que 83% des sociétés de leur échantillon sont couvertes avant leur troisième anniversaire d’introduction. Fig. 4.1 – Représentation 1-fonction de survie estimée par la méthode de Kaplan-Meier La procédure de Kaplan Meier permet également d’apprécier l’effet d’un paramètre sur le taux de survie. Les sociétés doivent alors réparties en deux groupes, selon un critère dichotomique : leur marché d’introduction (NM/SM), l’activité du marché primaire (forte/faible) ou l’indicateur d’augmentation de capital (0/1) par exemple. Pour chacun des critères retenus, les fonctions (1fonction de survie cumulée) des deux groupes de sociétés sont représentées graphiquement. La statistique Log rank permet de juger si les deux courbes diffèrent significativement, c’est-à-dire si le critère a un effet significatif sur le taux de survie. Sur notre échantillon, la volonté d’à nouveau faire appel public à l’épargne, l’introduction sur le Second Marché ou en période de forte activité du marché n’augmentent pas significativement la probabilité, pour 154 Chapitre 4 une société, d’être suivie plus rapidement au cours de sa première de cotation. • Le modèle de Cox Contrairement à la méthode de Kaplan-Meier, le modèle de Cox permet d’analyser simultanément les effets de plusieurs variables sur le délai de couverture. D’une façon générale, il estime la probabilité hi (t) qu’un événement particulier affecte à l’instant t un individu i, encore épargné au début de l’intervalle de temps. hi (t) s’écrit comme le produit d’une fonction de hasard de base h0 (t) et d’une fonction linéaire de j co-variables Xi . Soit encore : hi (t) = S0 (t)exp(b1 X1 + b2 X2 ... + bj Xj ). Nous appliquons ce modèle général à notre étude. La variable PAF constitue l’évènement étudié. Elle vaut 1 si la société est couverte par les analystes dans les 365 jours suivant son introduction, 0 sinon. La date d’origine est la date d’introduction en bourse de la société. Le 31/12/2000 est la date des dernières nouvelles (date de la dernière estimation présente dans les bases d’I/B/E/S). Les co-variables Xj mesurent les coûts et bénéfices attendus du suivi. Le délai séparant la date d’origine de la date de survenue de l’évènement équivaut à la variable de temps T. Les dates de point s’obtiennent en ajoutant 365 jours aux dates d’introduction. Sur le sous-échantillon de 207 sociétés, le modèle le plus significatif obtenu est le suivant : h(t) = h0 (t) × exp(0.008 × AD + 1.1 × 10−5 × VOL-ECH) où AD est la part de capital conservée par le dirigeant après l’introduction et VOL-ECH, le volume moyen des titres échangés les vingt-cinq premiers jours de cotation. Il est spécifié dans le tableau 4.10. AD VOL-ECH χ2 N B 0.008 1.110−5 Wald Sig. 7.80** 0.05 13.3**** 0.000 17.1**** 207 exp(B) 1.008 1.1 10−5 Tab. 4.10 – Modèle de Cox Les coefficients de régression B diffèrent significativement de 0, aux seuils de 5% et 0.1%. Ils sont positifs. En conséquence, les deux co-variables favorisent la survenue de l’évènement. Les analystes étaient présumés attirés par les titres au marché animé, car vecteurs de commissions de courtage. Sur notre échantillon, le risque instantané de couverture augmente effectivement Chapitre 4 155 avec le volume moyen échangé, toutes choses égales par ailleurs. Par exemple, si le nombre moyen de titres échangés augmente de 10 000, la probabilité de couverture à l’instant t s’accroı̂t de 100 × [1 − exp(1.1 × 10−5 × 10000)] = 12%. Par ailleurs, le coût de production était supposé diminuer avec le désengagement du dirigeant. Sur notre échantillon, la probabilité pour une société d’être suivie à la date t s’avère en réalité croı̂tre avec l’actionnariat du dirigeant. Ainsi, si le dirigeant décide de conserver 10% d’actions supplémentaires, il augmente de 8.3%7 les chances de la société d’être suivie par les analystes à la date t. La théorie du signal pourrait expliquer ce résultat contraire à nos anticipations. Leland et Pyle (1977) montrent en effet dans leur modèle que la rétention de capital par le dirigeant signale efficacement la qualité de la société. Les analystes seraient alors incités à suivre les sociétés familiales. Enfin, la qualité d’ajustement du modèle est bonne, avec un Khi-deux de 17.1, significatif au seuil de 0.1%. La fonction de survie S(t) désigne la probabilité de survie d’un individu au-delà de l’instant t. Dans notre cas, elle correspond à la probabilité qu’aucun analyste ne suive la société considérée à la date t. Le modèle de Cox propose une autre estimation de la fonction S(t) que la méthode de Kaplan Meier : S(t) = [S0 (t)]exp β x . S0 (t) est la fonction de de survie dont les co-variables AD et VOL-ECH sont nulles. Elle est dénommée fonction de référence. Par défaut sont prises, dans la deuxième partie de la fonction (exp β x), les moyennes des co-variables. 1 - S(t) cumulée à la moyenne des co-variables est la probabilité qu’une société soit couverte le tème jour de sa première année de cotation, l’impact des des co-variables AD et VOL-ECH étant contrôlé. Sa représentation graphique (figure 4.2) rappelle celle de la fonction 1-S(t) estimée par la méthode de Kaplan-Meier (figure 4.1). Elle s’en démarque toutefois car elle prend en compte l’influence des paramètres AD et VOL-ECH sur la probabilité de couverture. Conclusion Cette étude nous a tout d’abord permis de caractériser la couverture du marché primaire français par les analystes financiers d’I/B/E/S. En moyenne sur notre échantillon, 3.5 analystes produisent une vingtaine d’estimations sur une société pendant la première année boursière. La première prévision apparaı̂t en moyenne quatre mois après l’introduction. Nous obtenons un taux de couverture de 78%, avec de faibles variations annuelles sur la période 7 8.3% = 100 × [1 − exp(0.008 × 10)] 156 Chapitre 4 Fig. 4.2 – Représentation 1 - fonction de survie estimée par la méthode de Cox étudiée. Toutefois, l’intérêt des analystes pour le marché primaire semble moindre en 1994, où seulement 54% des sociétés introduites sont couvertes. La probabilité instantanée de couverture croı̂t fortement au cours de la première année de cotation. Elle atteint 85% au 300ème jour. 15% des sociétés de l’échantillon ont été suivies plus d’un an après leur introduction. L’objectif était ensuite d’identifier les facteurs explicatifs du niveau de couverture. Les analystes ont été présumés décider en fonction des coûts et bénéfices attendus du suivi. Les résultats montrent que le nombre d’analystes augmente avec le volume moyen des titres échangés les 25 premiers jours de bourse, le nombre de titres mis à la disposition du public et la réalisation d’une augmentation de capital subséquente à l’introduction. Ces variables approchaient les commissions de courtage et de placement attendues du suivi. Les coûts de production de l’information étaient eux supposés diminuer avec la taille de la société, la faible implication du dirigeant dans le capital et la forte activité du marché primaire. Sur notre échantillon, la taille de la société accroı̂t significativement son niveau de couverture. L’actionnariat du dirigeant est relié négativement et significativement au nombre d’analystes, mais seulement au seuil de 10%. Les titres introduits en période de forte activité du marché semblent moins suivis par les analystes, peut être parce que trop risqués ou spéculatifs. Chapitre 4 157 Enfin nous avons mesuré, grâce à une analyse de survie, l’influence des caractéristiques exogènes précédentes sur la probabilité instantané de couverture. Nous trouvons que le nombre moyen de titres échangés a un effet positif et significatif sur le délai de couverture. Par ailleurs, une société semble avoir d’autant plus de chances d’être suivie à l’instant t que son dirigeant participe au capital. La théorie du signal pourrait expliquer ce résultat contraire à nos anticipations. Dans ce cadre, les analystes interpréteraient la rétention de capital par le dirigeant comme un signal de qualité. Au vu des résultats, les analystes semblent bien suivre les titres susceptibles d’induire des commissions de courtage et/ou de placement supérieures au coût de production de l’information. Ils satisfont ainsi les intérêts de leur employeur sans préjudice personnel. Dans la deuxième partie de cette thèse, nous avons évalué la qualité de l’information diffusée sur les sociétés introduites en bourse. Nous avons expliqué le comportement des producteurs d’information, dans une perspective d’agence. Notre démarche positiviste invite à une action normative. Les résultats obtenus dans les trois premiers chapitres suggèrent quelques moyens d’améliorer l’environnement informationnel des introductions en bourse. Le chapitre 2 montre que le dirigeant publie des prévisions plus exactes, sous les pressions des créanciers et du marché financier. Les mandants doivent donc effectivement jouer leur rôle d’incitateur à la production d’information de qualité. Ils pourraient négocier des clauses d’informations complémentaires dans les contrats de prêt, de fourniture de biens ou de services. Les chapitres 3 et 4 établissent que les analystes déterminent leur offre d’information principalement en fonction des préférences de leur employeur. Mais ce schéma de décision peut conduire à la production d’informations biaisées. Il renforce également les asymétries d’information entre sociétés. Les analystes ne semblent en effet suivre que les introductions susceptibles de maximiser le profit de leur employeur. Mais le jugement des analystes ne peut contribuer à l’efficience des marchés que s’il est impartial et guidé par les intérêts des investisseurs. Des mesures garantissant l’indépendance d’esprit des analystes sont donc nécessaires. Par ailleurs, le régulateur pourrait recommander à la société de joindre au prospectus, au moins une analyse financière réalisée par une entreprise d’investissement indépendante de l’introducteur et ne participant pas à l’opération. La troisième partie approfondit la réflexion sur les moyens d’améliorer la qualité des informations disponibles sur les sociétés admises à la cote. Bien que fondée sur la théorie du signal, elle prolonge la deuxième partie. Les in- 158 Chapitre 4 terrelations entre théorie de l’agence et théorie du signal sont en effet fortes. En premier lieu, ces deux théories réfutent l’hypothèse de transparence de la théorie néo-classique. Elles supposent l’information imparfaite et inéquitablement partagée. Ainsi, dans une relation d’agence, l’agent est mieux informé que le principal. La théorie des signaux, de son côté, part de l’avantage informationnel des membres de l’organisation (insiders) sur les non-membres (outsiders). Dans les deux cadres théoriques, l’information est considérée comme un bien économique. En second lieu, l’hypothèse classique d’unicité d’objectif est abandonnée. Chaque individu est supposé avoir ses propres aspirations. Les divergences de vue peuvent devenir conflictuelles. En troisième lieu, théories de l’agence et du signal proposent des solutions permettant au marché d’atteindre l’équilibre, malgré les problèmes d’agence et d’asymétries informationnelles. Dans la théorie de l’agence, les individus engagent des coûts de dédouanement et de contrôle pour assurer la convergence de leurs intérêts. Dans la théorie du signal, le dirigeant émet un signal permettant aux investisseurs de valoriser exactement les titres échangés. Mécanismes de gouvernement et de signalisation induisent des coûts supplémentaires, prix du retour à l’équilibre et aux postulats néoclassiques. Research Holdings Ltd 2510 sociétés 1868 sociétés 2274 IPOs 195 sociétés 249 sociétés 1178 sociétés 510 recommandations 521 prévisions Lang et al. 2002 Lang et lundholm 1996 Rajan et Servaes 1997 Bricker et al. 1999 Bricker et al. 2000 Saberwhal et Smith 1999 McNichols et O’Brien 1990 1990-1994 1995 1996 1996 1975-1987 1985-1989 1996 1996 Période EU EU EU EU EU EU 27 47 Pays Observations - Distribution recommandations analystes - Test rangs Wilcoxon Régressions MCO Régressions MCO Régressions MCO Procédure d’Heckman 1979 Régressions MCO Régressions MCO - Régressions MCO - Equations simultanées Méthode 73% 60% 33% à 75% 45% à 52% ∼ = 40% 36.3% à 40.8% R2 performances anticipées taille (+), dette/capitaux propres (ns) dispersion boursière (+) corrélation rentabilités titre/marché (+) nb activités (-), nb actions circulation (+) nb invest. inst. (+), secteur, % capital insiders (-) indice Herfindhal inv. inst. (-) indice Herfindhal insiders (-) % capital blocs non insiders (-) nb blocs non insiders (-) valeur de marché société (+) β (-), part capital inv. inst (ns) % capital insiders (-), nb activités (-) nb implantations géographiques (-) nb activités x nb zones géographiques (-) complexité (-) sous évaluation (+) taille (+) nombre sociétés même secteur depuis 3 ans (+) nombre d’introductions (+) valeur de marché des actions échangées (+), émises (+), en circulation (+) β (-), qualité info. compt. (+) part capital insiders (-) % capital inv. institutionnels (-) Complexité (-) qualité communication financière (+) capitalisation boursière moyenne (+) taille marché boursier (+) qualité des infos comptables (+) système juridique contrôle étatique/familial (-) multi-cotation (+), taille (+), secteur contrôle famille/dirigeant (-) contrôle étatique (-), autres blocs contrôle (-) corrélations bénéfices/cours (+) dispersion rentabilité (-), surprise résultats (-) Déterminants couverture Tab. 4.11 – Synthèse revue de littérature (1) I/B/E/S Nelson’s Directory Investment Nelson’s Directory Investment I/B/E/S I/B/E/S Consensus I/B/E/S Consensus Consensus I/B/E/S 30 sociétés/pays Chang et al. 2000 Source Échantillon Auteurs Chapitre 4 159 Chapitre 4 160 Das et al. 2002 O’Brien et Bhushan 1990 Auteurs 251 sociétés 3186 IPOs 1347 sociétés Échantillon Nelson’s Directory Wall Sheet Research Questionnaire I/B/E/S I/B/E/S Source 1985 1991 1985-1995 1985-1987 Période EU GB EU EU Pays Régressions MCO Régressions MCO Régressions - MCO - modèle Cox Régressions - MCO - Eq. Simul. Méthode 70% 45.7% R2 Marston 1997 966 sociétés 32% 13.27% Bhushan 1989 Résultats (déterminants) ∆nb inv. inst. (+) nb entrants ds secteur net des sortants (+) secteur (+), rent. titre ajustée par rent. marché (+) volatilité (-), NAF année antérieure (-) nb inv. inst. année antérieure (+) taille (+), réputation chef de file (+) sev (+), marché d’intro. (+) nb introducteurs et co-introducteurs (+) nb sociétés même secteur (+) nb sociétés même secteur introduites même année (ns) délai de couverture (-) act. inst. (-), nb act. principaux (+) % capital insiders (-) σ rent. action. (+) taille (+), complexité (ns) R2 rent. titre / rent. marché (+) secteur industriel (oui) multi-cotation (+) act. inst. (-), nb act. principaux (+) % capital insiders (+) σ rent. action. (-) taille (+), complexité (-) R2 rent. titre / rent. marché (+) secteur industriel (oui) multi-cotation (+) Tab. 4.12 – Synthèse revue de littérature (2) Chapitre 4 161 Annexe : analyse de survie L’analyse de survie n’est pas couramment employée en finance. Nous avons aussi jugé utile de présenter brièvement les bases de cette technique statistique en appendice. Nous précisons notamment un certain nombre de termes cités dans la section 4.3. 1- Les données de survie L’analyse de survie requiert de définir des données de survie. • La date d’origine ou de début d’observation correspond à la date d’introduction en bourse de la société. Elle définit le temps 0. • L’état di désigne les modalités de l’évènement étudié. Une société est «suivie» (di = 1) ou «non suivie» (di = 0). • La date des dernières nouvelles est nécessaire. • La durée de surveillance est l’écart entre la date des dernières nouvelles et la date d’origine. • La date de point est la date au delà de laquelle on ne tiendra pas compte des informations. L’état de chaque société est recherché à cette date. • Le temps de participation s’obtient par différence entre la date des dernières nouvelles et la date d’origine lorsque la date des dernières nouvelles est antérieure à la date de point. Par contre, ti = date de point-date d’origine si les dernières nouvelles sont postérieures à la date de point. • Une société est dite perdue de vue lorsque son état est inconnu à la date de point. Elle est exclue vivante quand elle n’est pas suivie à la date de point (les sociétés A et B par exemple). Les «perdues de vue» et les «exclues vivantes» sont des données censurées. Le tableau 4.13 illustre les données de survie exposées. Nom Société A B C D Date origine date d’IB 01/01/1996 01/01/1997 01/01/1999 01/04/1999 Date et état aux dernières nouvelles suivie le 01/02/02 non suivie le 01/02/02 suivie le 31/12/00 non suivie le 31/12/00 état à la date de point 31/12/01 non suivie non suivie suivie perdue de vue temps de particip. ti 72 mois 60 mois 24 mois 21 mois état di en ti 0 0 1 0 Tab. 4.13 – Exemple de données de survie 2- Lois de probabilité de la durée de vie La durée de survie X est une variable aléatoire positive ou nulle, et continue. La fonction de survie et la fonction de risque définissent sa loi de probabilité. La fonction de survie S(t) est la probabilité de survie au-delà de l’instant t. La survie équivaut à la non survenance de l’évènement, c’est-à-dire au temps pendant lequel la société n’est pas couverte par les analystes. Si T désigne la durée de vie alors S(t) = prob(T ≥ t). S(0) = 1 et quand t tend vers l’infini, lim S(t) = 0. La fonction de survie est 162 Chapitre 4 monotone, décroissante et continue. La fonction de risque h(t) s’appelle encore risque instantané de décès. Le décès correspond dans notre cas au suivi de la société par les analystes. h(t) est la probabilité pour une société d’être suivie peu de temps après t, sachant qu’elle n’était pas couverte jusqu’à l’instant t. Autrement dit, elle donne le risque instantané de suivi pour les sociétés encore non couvertes. Des méthodes non paramétriques ou semi-paramétriques permettent d’estimer la fonction de survie S(t). 3- La méthode non paramétrique de Kaplan Meier A partir des durées de vie observées (y comprises les censurées) d’un groupe d’individus, la méthode estime la proportion qui survivrait une durée donnée dans les mêmes circonstances. L’estimation est réalisée à la date de chaque évènement. L’estimateur est encore appelé produit-limite car il s’obtient comme la limite d’un produit. Il est construit à partir d’un tableau du type suivant, dit table de survie : Jour 0 10 25 exposée 218 218 216 Suivie 0 2 1 censurées 0 0 0 P(suivie) 0 2 218 =0.009 1 216 = 0.005 P(pas suivie) 1 1-0.991=0.991 1-0.005 =0.995 Pcum (pas suivie) 1 0.991 × 1 = 0.991 0.991 × 0.995 = 0.986 Tab. 4.14 – Exemple de tableau de survie • Jour : délai en jours entre le l’entrée dans l’étude et la survenue de l’évènement. L’apparition des évènements détermine donc les intervalles de temps. • exposées : nombre de sociétés exposées au risque d’être suivies au jour j • Suivies : nombre de sociétés couvertes au jour j • PDV : nombre de perdus de vue au jour j • P(suivie) : probabilité pour une société d’être suivie le jour j = nombre de sociétés suivies le jour j / nombre de sociétés exposées au jour j • P(pas suivie) : probabilité au jour j de ne pas être suivie = 1 - P(suivie) • Pcum (pas suivie) : probabilité cumulée de survie (c’est-à-dire en l’espèce de non couverture) au jour j = probabilité de ne pas être couverte en J0 et J1 et .... et Jn = PJ0 (passuivie) × PJ1 (passuivie) × ... × PJn (passuivie). Les évènements sont en effet indépendants. Les probabilités estimées de survie peuvent être représentées sur un graphe, dit courbe de survie. La méthode de Kaplan-Meier permet également d’observer l’influence d’un seul paramètre (variable binaire) sur l’espérance de survie. Les individus sont répartis en deux groupes, selon la valeur du paramètre. La comparaison des courbes de survie ne peut en principe reposer sur de simples impressions visuelles. Elle nécessite des tests statistiques formels, comme le test de log-rank. 4- Le modèle de Cox Chapitre 4 163 Comme la méthode de Kaplan-Meier, le modèle de Cox permet d’estimer la fonction de survie. Son originalité réside dans les points suivants : il permet d’évaluer l’effet de plusieurs facteurs, appelés co-variables, ou d’un seul facteur non nominal sur la durée de vie. Il ne considère pas une distribution particulière de durées de vie. Il suppose que les effets des différentes variables sont constantes dans le temps et se cumulent. - Caractéristiques du modèle Le modèle de Cox est multi-varié. Il exprime le risque instantané de survenue de l’évènement («être suivie») en fonction de facteurs explicatifs Xj et de l’instant t. Il est semi-paramétrique car il ne donne pas à la fonction de survie une forme paramétrique précise. Le modèle de Cox est dit à risques proportionnels. Le rapport du risque instantané de deux individus est indépendant du temps. Il ne dépend que de leurs variables explicatives8 . Enfin, le modèle de Cox est multiplicatif. Le risque instantané de survenue de l’évènement est multiplié par une constante quand la valeur d’une variable explicative est modifiée. - Les données La variable à expliquer est dichotomique (PAF par exemple). Les variables explicatives Xj peuvent être qualitatives ou quantitatives. La variable T est le délai entre la date d’origine et la date d’apparition de l’évènement. Pour chaque individu, les données usuelles de survie sont nécessaires : la date d’origine, la date des dernières nouvelles, la date de point, l’état de la société à la date de point et les observations censurées. - Le risque instantané Le risque instantané est le produit de deux fonctions, h0 (t) et c(b, X). h0 (t) n’est fonction que du temps, tandis que c(b, X) est indépendante du temps. Le vecteur des coefficients de régression b mesureP la dépendance. Le risque instantané s’écrit donc encore : λ = (t, X1 , X2 , ...) = λ0 (t) exp βj Xj Supposons que les variables Xj représentent certaines caractéristiques des sociétés et qu’elles soient toutes égales à 0. λ0 (t) est alors le risque instantané de couverture des sociétés ne présentant aucune des caractéristiques Xj . Elle est la référence ou la fonction hasard fondamentale. Elle correspond à la probabilité de suivi lorsque toutes les co-variables sont nulles. Le modèle ne précise pas la forme de λ0 (t). Il apprécie par contre l’impact de chacun des facteurs Xj sur le délai de couverture. Les coefficients βj doivent donc être déterminés. D’une manière générale, ils mesurent l’effet de la caractéristique Xj sur la survenue de l’évènement. Si βj =0, alors la jième caractéristique n’a pas d’impact sur l’évènement. Prenons maintenant le cas où βj est positif et où deux sociétés ne se distinguent que par leur jième caractéristique. Le risque instantané de couverture augmente alors avec la valeur de 8 Ces modèles ont été originellement développés en médecine. Les variables explicatives constituent souvent des facteurs de risque, d’où le terme de «risques» proportionnels. 164 Chapitre 4 Xj . - Estimation et test Le modèle de Cox ne cherche à estimer que les βj , et non la fonction λ0 (t). La méthode du maximum de vraisemblance permet d’obtenir les estimateurs des βj . Le test du score, de Wald ou du rapport de vraisemblance permet d’infirmer ou de confirmer l’hypothèse H0 selon laquelle le vecteur (β1 , β2 , ...) est nul. Troisième partie L’enrichissement de l’environnement informationnel des introductions en bourse 165 167 Au moment d’une introduction en bourse, les investisseurs sont confrontés à un problème de sélection adverse. Autrement dit, ils ne distinguent pas facilement la qualité des candidats à partir des informations disponibles. Ils risquent donc de réaliser de mauvais placements. Ces asymétries d’information présentent également des inconvénients pour la société. D’une part, elles peuvent l’empêcher de trouver les capitaux nécessaires à ses besoins de financement sur le marché primaire (Akerlof, 1970). D’autre part, elles la conduisent à vendre ses titres à un prix inférieur à leur valeur de marché espérée. Elles augmentent donc le coût du capital, mesuré par l’écart entre le premier cours coté et le prix d’offre encore dénommé sousévaluation. Dans leur modèle, Beatty et Ritter (1986) montrent ainsi que la sous-évaluation «est directement reliée à l’incertitude ex ante sur la valeur de l’introduction». Ils vérifient empiriquement leur prédiction sur le marché américain, après Ritter (1984). Sur le Second Marché français, Ginglinger et Faugeron-Crouzet (2001) trouvent également que la sous-évaluation croı̂t avec le niveau d’asymétrie. Cette troisième partie s’intéresse aux moyens de limiter les préjudiciables asymétries d’information entre la société et les investisseurs. Les chapitres 5 et 6 s’inscrivent dans le cadre de la théorie du signal. Le dirigeant peut révéler au marché la réelle valeur de sa société en émettant des «signaux». Nous testons, dans le chapitre 5, si la publication de prévisions précises, non exigées par la réglementation, est informative pour les investisseurs et les analystes. Autrement dit, réduit-elle leur incertitude sur la valeur espérée des titres ? Le dirigeant peut encore choisir de déléguer la production d’informations de qualité aux analystes. Il devrait alors sous-évaluer les titres introduits, afin de dédommager les analystes de leur coût de production de l’information. Le marché considérerait la couverture de la société par les analystes comme un signal de qualité. Nous vérifions ces hypothèses dans le chapitre 6. Les initiatives du dirigeant ne peuvent à elles seules suffire à rétablir l’équilibre informationnel entre les investisseurs et la société. La régulation du marché de l’information est nécessaire. En France, elle est principalement assurée par la COB. Le chapitre 7 met en évidence les fondements et les limites de l’autorité du régulateur. 168 Chapitre 5 La signalisation par publication volontaire de prévisions Deux méthodes permettent traditionnellement de déterminer la valeur espérée d’un titre introduit : les comparables boursiers et l’actualisation des flux de trésorerie disponibles. La première nécessite de constituer un échantillon de sociétés cotées comparables à l’entreprise à évaluer. La seconde suppose de connaı̂tre les flux de trésorerie prévisionnels générés par l’actif économique, sur les dix ou vingt ans à venir. Ces méthodes ne s’appliquent pas facilement au cas de titres introduits sur le Second Marché. Rares sont en effet les sociétés déjà cotées de même secteur d’activité, même niveau de risque, de croissance et de rentabilité que la société introduite. Par ailleurs, le candidat à l’introduction sur le Second Marché n’est obligé de publier que des informations rétrospectives. Les investisseurs ne peuvent donc aisément distinguer la qualité de la société. Compte tenu de l’incertitude ex ante sur la valeur de la société, ils exigent un prix d’offre sous-évalué par rapport au prix d’équilibre anticipé. Corollairement, le coût du capital augmente pour la société émettrice. En outre, les investisseurs risquent de quitter le marché primaire s’ils réalisent de mauvais placements (Akerlof, 1970). Les asymétries d’information peuvent donc à terme rendre aléatoire le financement par introduction en bourse. Le dirigeant comme les investisseurs gagneraient donc à endiguer les asymétries d’information. Diverses solutions sont possibles. Les modèles de signal supposent implicitement que l’avantage informationnel du dirigeant le prédispose à agir. Il limiterait l’incertitude des investisseurs en émettant des signaux, qui peuvent être de différentes natures. La réputation du chef de file signalerait ainsi efficacement la valeur de la 169 170 Chapitre 5 société introduite, selon les modèles de Carter et Manaster (1990) ou Chemmanur et Fulghieri (1994). Empiriquement, elle semble effectivement diminuer la sous-évaluation des titres introduits sur le marché américain (Carter et Manaster, 1990 ; Johnson et Miller, 1987), mais pas en France (Broye, 1998). La réputation du commissaire aux comptes apparaı̂t comme un signal crédible dans le modèle de Titman et Trueman (1986). Cette hypothèse semble vérifiée empiriquement. Sur le marché français (Broye, 2001) et américain (Beatty, 1989 ou Balvers et al., 1988), la réputation du commissaire aux comptes est reliée négativement à la sous-évaluation des titres. Toutefois, via la réputation des intermédiaires financiers, les investisseurs ne peuvent inférer qu’indirectement la valeur de la société. Nous envisageons ici l’hypothèse d’une signalisation directe par publication de prévisions. Hughes (1986) et Trueman (1986) montrent dans leurs modèles, que les prévisions publiées volontairement1 par le dirigeant sont informatives pour le marché, indépendamment de la nouvelle annoncée. Lev et Penman (1990) avancent également que les prévisions de résultat constituent un outil de signalisation pour le dirigeant. Autrement dit, la publication de prévisions précises attesterait la capacité du dirigeant à anticiper les changements de l’environnement économique (Trueman, 1986). Elle signalerait aux investisseurs la qualité de la société. Elle limiterait les asymétries d’information dont ils pâtissent. Ces deux effets attendus de l’émission d’un signal sont traditionnellement confondus (Baginski et al., 1999). En conséquence, nous testerons si le choix du dirigeant de publier des prévisions précises réduit l’incertitude ex ante des investisseurs, et donc le coût du capital. En contrepartie de leur effort de transparence, les sociétés lèvent-elles des fonds à des conditions plus avantageuses ? La recherche empirique semble valider le rôle de signal des prévisions émises facultativement par le dirigeant dans le prospectus d’introduction. Sur le marché canadien par exemple, Clarkson et al. (1992) sur un échantillon de 185 entreprises ; Jog et McConomy (2000) sur un échantillon de 258 introductions, relient négativement sous-évaluation et publication volontaire de prévisions. Notre étude complète les travaux antérieurs. Les sociétés introduites sur le Second Marché nous ont semblé bien se prêter à la vérification empirique 1 Nous dénommons «volontaires» ou «facultatives» les informations publiées, bien que non exigées par la réglementation. Chapitre 5 171 de l’hypothèse d’une signalisation par publication de prévisions, pour les raisons suivantes. En premier lieu, l’activité de signalisation est coûteuse. Elle se justifie donc uniquement lorsque les investisseurs ne peuvent évaluer correctement la société à partir des informations disponibles. Or les introductions sur le Second Marché semblent se dérouler dans un contexte d’asymétries d’information. Elles apparaissent en effet de petite taille et familiales, entre 1983 et 1994 (Faugeron-Crouzet et Ginglinger, 2001). En second lieu, la publication de prévisions est facultative lors d’une admission à la cote du Second Marché (règlement no 98-01 de la COB). Elle est donc plus susceptible de réduire les asymétries d’information que les informations obligatoires (McNichols et Trueman, 1994). En troisième lieu, les dirigeants voient encore rarement leur responsabilité engagée en cas de prévisions incorrectes, fausses ou trompeuses. Ce faible risque juridique allège le coût d’une signalisation par publication de prévision. Il la rend donc plus probable2 . Enfin, les commissaires aux comptes contrôlent uniquement la sincérité des prévisions du prospectus (norme de travail no 354). L’absence de révision légale permet une qualité différenciée des prévisions publiées. On peut donc s’attendre à ce que le choix de publier des estimations précises ait un effet de signal. L’originalité de notre travail est triple. De nombreux chercheurs évaluent l’exactitude, le biais des prévisions du dirigeant et la réaction des cours à leur publication (par exemple Patell, 1976 ; Penman, 1983 ou Pownall et Waymire, 1989). Par contre, les facteurs amenant le dirigeant à publier de son fait des prévisions sont moins étudiés. De surcroı̂t, la littérature ne relie qu’indirectement l’accroissement des informations publiées par le dirigeant et la réduction du coût du capital. Healy et al. (1999) ; Lang et Lundholm (2000) établissent ainsi que le dirigeant publie davantage d’informations avant de faire appel public à l’épargne. Ils en déduisent que la volonté d’abaisser le coût du capital incite le dirigeant à publier davantage d’informations. Baginski et al. (1999), de leur côté, observent la politique informationnelle post introduction, de 763 sociétés admises à la cote américaine entre 1982 et 1984. La réputation du chef de file, du commissaire aux comptes et la part de capital conservée par le dirigeant après l’introduction augmentent la probabilité que la société publie des prévisions de résultat entre 1982 et 1987. La société peut utiliser ces variables comme si2 Au contraire, jusqu’en 1995, le système juridique américain dissuadait les dirigeants de publier des prévisions. Les dirigeants étaient en effet fréquemment sanctionnés au titre des prévisions publiées, faute de prouver facilement leur bonne foi (Frost, 1997, p. 134). 172 Chapitre 5 gnaux de qualité lors de son introduction. Selon les auteurs, la volonté initiale de réduire le coût du capital prédirait la nature et la fréquence des informations publiées après l’introduction. Contrairement aux auteurs précédents, nous évaluons directement l’impact d’une plus grande quantité d’information publiée sur le coût du capital. Enfin, les auteurs se concentrent généralement sur l’efficacité d’un seul signal. Le modèle de Hughes permet d’envisager les interactions entre deux signaux, l’acte volontaire de publication et la fraction de capital conservée par le dirigeant. En outre, nous montrons que les outils de signalisation utilisés par les sociétés introduites en bourse ont évolué au cours de la période étudiée (1994-2000). Le reste de l’étude s’organise de la façon suivante. La section 5.1 présente les modèles de signalisation et leurs implications. La section 5.2 décrit la méthodologie, les données et variables utilisées. La section 5.3 analyse les résultats obtenus. 5.1 Les modèles de signalisation par publication de prévision et leurs implications Dans cette section, nous justifions théoriquement que les investisseurs puissent inférer la valeur de la société introduite à partir des prévisions publiées volontairement par le dirigeant. Nous formalisons ensuite nos hypothèses. 5.1.1 Le cadre théorique Dans un premier temps, nous précisons à quelles conditions la publication de prévision peut être informative pour le marché et donc considérée comme un signal. Dans un second temps, nous présentons comment Hughes a modélisé la publication volontaire de prévisions dans le cadre d’une introduction en bourse. Les conditions de signalisation En présence d’une information imparfaite, le marché peut atteindre l’équilibre grâce à des signaux. Spence (1974) et Riley (1975) précisent à quelles conditions. Le signal émis doit être crédible. Autrement dit, les dirigeants des entreprises non performantes doivent être dissuadés de faire croire le Chapitre 5 173 contraire. À cette fin, l’émission du signal doit être coûteuse, les faux signaux pénalisés et la valeur signalée ex ante doit pouvoir être vérifiée ex post. La publication facultative de prévisions précises respecte ces exigences. Premièrement, elle est onéreuse pour la firme. Elle nécessite un système d’information interne de qualité et lève le secret des affaires (voir première partie). Deuxièmement, le marché (Teoh et al., 1998), le régulateur et/ou la justice sanctionnent les dirigeants qui ont surévalué leurs prévisions. Ainsi, Clarkson et al. (1992, 605) montrent qu’au Canada la crainte d’une condamnation pour publication mensongère, inexacte ou trompeuse détermine le choix des dirigeants de publier ou non des prévisions. Pendant longtemps, l’appareil judiciaire en France était moins favorable aux plaignants que dans les pays anglo-saxons (Frost, 1997). Mais les jugements récents marquent un changement. Les intérêts des victimes du délit de fausse information semblent mieux pris en compte. La COB peut ouvrir une procédure aux fins de sanctions administratives contre un dirigeant3 ayant publié de mauvaises prévisions (voir première partie). Dans l’affaire «Société Les beaux Sites», elle a infligé au dirigeant une amende de 300 000 F en application de l’art. 9-2 de l’ordonnance du 28 septembre 1967, modifiée par la loi no 89-53 du 2 août 1989. La Cour d’appel de Paris peut toutefois annuler4 ou réformer partiellement5 les sanctions prononcées. Le dirigeant encourt encore des sanctions pénales. Dans l’affaire SA S en janvier 1998, le dirigeant avait présenté la situation de sa société sous des apparences faussement rassurantes dans la note d’information relative à une augmentation de capital. Il avait également annoncé au cours d’une conférence de presse un accord fictif avec un groupe publicitaire et un bénéfice net prévisionnel pour 1990. Or «la situation réelle de la société S était celle d’une entreprise en cessation de paiement». Sur le fondement de l’article 433, 2o de la loi du 24 juillet 1966, le dirigeant a été déclaré coupable du délit d’obtention frauduleuse de souscriptions et de versements par publication de faits faux. Il a été condamné à une peine de dix-huit mois d’emprisonnement avec sursis et à une amende d’un million de francs. 3 Le dirigeant comme la société tombent sous le coup de la réglementation de la COB. La Cour de Cassation a rejeté le pourvoi d’un dirigeant qui contestait devoir être soumis aux règlements de la COB (Cass.com., 14 nov. 1995). 4 Société Fermière du Casino Municipal de Cannes, CA Paris, 1ère ch., 11 janvier 2000 5 SA Verneuil Finance, CA Paris, 1ère ch., 2000. 174 Chapitre 5 Troisièmement, la fiabilité de la prévision peut être contrôlée ex post lors de la publication des réalisations. La publication de prévisions précises vérifie donc les conditions de Spence (1974) et Riley (1975). Elle peut constituer un outil de signalisation. Hughes (1986) montre dans son modèle que la publication volontaire de prévisions et la part de capital conservée par le dirigeant peuvent aider les investisseurs à discriminer les introductions de qualité des autres. Le modèle de Hughes (1986) Le modèle de Hughes (1986) se situe dans le cadre d’une introduction en bourse. Il généralise le modèle univarié de Leland et Pyle (1977). Outre sa participation au capital α, le dirigeant publie volontairement ses prévisions de flux de trésorerie Y pour signaler la valeur de sa société. Par hypothèse, lui seul connaı̂t la distribution de probabilité N(µ,σ 2 ) d’Y. Hughes propose empiriquement d’approcher les flux de trésorerie prévisionnels par les prévisions de résultat. La séquence des événements est la suivante. - Au début de la période, les investisseurs attribuent à µ une distribution de probabilité a priori N(x0 ,σ0 2 ). Le dirigeant émet un signal sur µ en publiant Y, la valeur attendue des cash flows futurs. L’émission d’Y est coûteuse. La société doit en effet rétribuer les intermédiaires financiers chargés de réviser les informations publiées. De surcroı̂t, le dirigeant encourt une pénalité P en cas d’erreur de prévision. Le risque de sanction P augmente avec Y et diminue avec µ et σ 2 . Dans un marché imparfait, les investisseurs ne peuvent correctement interpréter le signal Y sans apprécier son coût. Ils ont donc besoin de connaı̂tre σ 2 . Le dirigeant leur indique le niveau d’incertitude à travers sa participation au capital α. Une valeur élevée d’α signale une faible incertitude (σ 2 ). Le dirigeant est en effet supposé rationnel et avoir une faible propension au risque. Il ne garde donc une part importante du capital que si son projet est de qualité et peu risqué. α et Y permettent aux investisseurs d’inférer la valeur de µ sans ambiguı̈té. - À la fin de la période, les investisseurs observent les flux de trésorerie réels. Ils révisent leurs anticipations et pénalisent le dirigeant s’ils jugent son erreur de prévision excessive. Sous certaines conditions, le modèle conduit à un équilibre séparateur où Chapitre 5 175 la valeur anticipée de la société est fonction d’Y et d’α. V (Y, α) = [9bP Y 3 1 α ]3 (1 − α) + ln(1 − α) Le dirigeant signale efficacement la valeur de la société en communiquant aux investisseurs ses estimations de résultat, et en restant actionnaire. 5.1.2 Les implications des modèles de signal Le système d’hypothèses est principalement déduit du modèle de Hughes (1986). Toutefois, le modèle de Trueman (1986) nous a semblé mieux fonder l’hypothèse d’une signalisation par la précision des prévisions publiées (H2). Contrairement au modèle de Hughes, il n’est pas spécifique aux introductions en bourse et ne prévoit pas explicitement de pénalité en cas d’émission de faux signaux. La crainte d’une sanction boursière à l’annonce du résultat réel, est supposée dissuader le dirigeant de sur-évaluer ses estimations dans le modèle de Trueman. Publication de prévision et signal Dans le cadre du modèle de Hughes, l’acte volontaire de publication est un signal efficace. Autrement dit, le dirigeant qui publie volontairement ses prévisions de résultat réduit l’incertitude des investisseurs sur la valeur espérée des titres. Il limite donc «le coût du capital lié aux asymétries d’information» (Verrecchia, 2001) dont rend compte la sous-évaluation du prix d’offre. Sa société devrait être moins sous-évaluée qu’en l’absence de publication, toutes choses égales par ailleurs. Nous formulons ainsi notre hypothèse de signalisation : H1- La publication volontaire de prévisions par le dirigeant limite la sousévaluation des titres introduits. Nous considérons également l’exactitude des prévisions publiées comme un signal de qualité. En effet, depuis 1996, les sociétés du Second Marché sont de plus en plus nombreuses à publier des prévisions dans leur prospectus, sous les pressions du marché financier et de la COB (voir le chapitre 7, tableau 7.4). L’acte de publication devient donc plus contraint que voulu. Il risque de perdre de son efficacité en tant que signal, au profit du degré de précision des prévisions publiées. Trueman (1986) explique dans son modèle que la précision du résultat prévu ne permet pas seulement aux investisseurs de connaı̂tre plus tôt le résultat de l’exercice. Le cas échéant, elle n’augmenterait pas la valeur de marché 176 Chapitre 5 de la société à la fin de la période. Elle révélerait surtout aux investisseurs un élément inobservable par ailleurs : la capacité du dirigeant à anticiper correctement les changements de l’environnement économique, et à gérer la production en conséquence. En cela, elle constituerait un signal de qualité (Trueman, 1986, p. 54). Rassuré sur la valeur espérée du titre, le marché6 accepterait alors une moindre sous-évaluation du prix d’offre. Dans le cadre du modèle de Trueman (1986), notre hypothèse s’énonce ainsi : H2- La sous-évaluation des titres introduits augmente avec l’erreur de prévision du dirigeant. Publication de prévision et structure du capital Dans le modèle de Hughes, les investisseurs évaluent le candidat à l’introduction en actualisant ses flux de trésorerie futurs. Les cash flows sont supposés suivre une distribution normale. Mais les investisseurs en ignorent les deux paramètres, à savoir la moyenne µ et l’écart-type σ. Deux signaux sont donc nécessaires. Le premier est Y, le résultat anticipé par le dirigeant. Il révèle les informations privées du dirigeant concernant les perspectives de développement de l’entreprise. Le second est α, la part de capital conservée par le dirigeant. Il permet aux investisseurs d’estimer le niveau d’incertitude et donc le coût de Y. Grâce à l’émission simultanée de ces deux signaux, les investisseurs évaluent sans ambiguı̈té l’introduction. α et Y jouent donc des rôles complémentaires. Autrement dit, H3- La publication volontaire de prévision et la part de capital conservée par le dirigeant influencent simultanément à la baisse la sous-évaluation. Publication de prévision et niveau d’asymétrie Dans le cadre du modèle de Hughes, les signaux Y et α interagissent avec le niveau d’asymétrie. Si l’émission de l’un devient plus coûteuse, le dirigeant emploiera davantage l’autre, et réciproquement. Ainsi, lorsque l’avenir de la société est incertain, le risque lié aux titres augmente. Parallèlement, le marché sanctionne moins sévèrement les erreurs de prévision. Le dirigeant a donc intérêt à se désengager du capital et à révéler ses anticipations au marché. Par contre, si les investisseurs ont une bonne visibilité des perspectives de l’entreprise, ils peuvent estimer eux-même avec exactitude les résultats à venir. La part de capital conservée par le dirigeant est plus informative pour eux de la qualité de la société. Elle est, corollairement, le signal le moins coûteux à émettre pour le dirigeant. 6 Le marché est supposé efficient et donc à même d’apprécier l’erreur de prévision du dirigeant dès l’annonce de la prévision. Chapitre 5 177 Ainsi, en présence de fortes asymétries, la signalisation par publication de prévision devrait s’avérer plus utile aux investisseurs, moins coûteuse pour le dirigeant et donc plus fréquente. Nous testons les hypothèses suivantes, dans le cadre du modèle de Hughes : H4 - La publication volontaire de prévisions limite d’autant plus la sousévaluation que le niveau d’asymétrie augmente. Ou, autrement formulé : H4 bis- Le niveau d’asymétrie accroı̂t la probabilité de publication volontaire de prévisions par le dirigeant. 5.1.3 Publication de prévision et procédure L’incertitude sur la valeur de marché encourage le dirigeant à publier des prévisions non exigées par la loi. Elle détermine également le choix de la procédure d’introduction. La banque recourt à une offre à prix ferme lorsqu’elle anticipe précisément la demande de titres et la valeur de la société. Elle conseille plutôt une offre à prix minimal ou un placement quand l’incertitude sur le cours d’équilibre est forte. Mais les titres placés sont assurés de trouver preneurs. Le syndicat bancaire garantit en effet généralement la bonne fin de l’opération. Réduire l’incertitude des investisseurs est donc moins nécessaire avec un placement qu’une offre à prix minimal. Par ordre décroissant, le dirigeant devrait ainsi plutôt publier des informations supplémentaires dans le cadre d’une offre à prix minimal, d’un placement et d’une offre à prix ferme. 5.2 Présentation de la méthodologie et de l’échantillon Nous décrivons la méthodologie adoptée, les variables utilisées et l’échantillon. 5.2.1 La méthodologie adoptée Le modèle de Hughes prédit un lien positif entre la publication volontaire de prévisions par le dirigeant et la valeur de la firme. L’acte de publication et la précision des prévisions sont supposés des signaux efficaces. Leur caractère informatif est vérifié à partir de plusieurs outils. 178 Chapitre 5 En premier lieu, une analyse univariée permet de tester si la sous-évaluation initiale et le comportement des analystes diffèrent selon la présence ou non de prévisions dans le prospectus, puis selon la qualité des prévisions émises. Elle permet également d’explorer les relations entre signaux directs (acte volontaire de publication et qualité des prévisions) et indirect (l’actionnariat du dirigeant). La nature des variables, métriques ou nominales, nous a conduite à utiliser les tests t de Student, du Chi-deux et les coefficients de corrélation de Spearman. En second lieu, des régressions multivariées sont proposées. La méthode des moindres carrés ordinaires permet d’estimer les paramètres des équations de régression. La rentabilité initiale anormale constitue la principale variable dépendante. Nous expliquons également, à titre complémentaire, l’intensité et la qualité de la couverture d’une société par les analystes. Les variables explicatives retenues vérifient les implications des modèle de signal ou représentent des variables de contrôle. Enfin, une régression logistique binaire explique la probabilité d’une publication de prévision par les sociétés du Second Marché. La nature dichotomique de la variable à expliquer Y (McCullagh, 1980), la distribution non multinormale des variables explicatives (Press et Wilson, 1978) justifient son emploi. Après avoir spécifié la méthodologie retenue, nous indiquons l’origine des données et les variables utilisées. 5.2.2 Les variables retenues Origine des données Les réalisations de bénéfice par action proviennent des bases d’I/B/E/S. Les caractéristiques de l’émetteur (taille, âge, PER, bénéfice par action prévu) et de l’émission (procédure, marché...) ont pour origine le prospectus d’information définitif de la société. Des rapports annuels de la COB sont extraits les nombres totaux d’introductions sur le Second Marché par an. Enfin, les performances boursières des sociétés introduites sont calculées à partir des données d’Euronext. Les variables utilisées Les variables utilisées sont les suivantes. RIA : rentabilité initiale anormale. Elle se calcule ainsi : RIAi = Ibc t C c i,t0 − c 0 P odi Ib t0 −1 Chapitre 5 179 où C c i,t est le cours de clôture du titre i le jour t, Ibt celui de l’indice boursier SBF 250. P odi désigne le prix d’offre définitif et t0 , la date de l’introduction en bourse. Si la publication volontaire de prévision est un signal efficace, elle devrait limiter la sous-évaluation initiale. Nous évaluons également l’intérêt d’une publication volontaire de prévision pour les analystes. Seuls les analystes non affiliés à la banque introductrice sont pris en compte. L’intensité et la qualité de leur couverture sont appréhendées grâce aux variables ci-après. NAF : nombre d’analystes suivant la société considérée dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction. Cette variable mesure le niveau de couverture de la société. Dispersion : écart-type des estimations des analystes, publiées dans l’intervalle [-6 mois ; +12 mois] autour de la date d’introduction. Il est normé par le bénéfice par action (BPA) réalisé. Cette variable évalue la divergence d’opinions des analystes. Erreur-analystes : erreur moyenne de prévision des analystes, égale au rapport : (BP Aprevu − BP Areel ) / |BP Areel |. Les prévisions ont pour horizon l’année consécutive à l’introduction en bourse. Cette variable apprécie la précision des analystes dans leurs estimations. Les variables suivantes mesurent le niveau d’asymétrie d’information entre l’entreprise et les investisseurs. Taille : logarithme népérien du chiffre d’affaires l’année t0 − 1. Il approche la taille de la société (Baginski et al., 1999). Les analystes sont d’autant plus nombreux à suivre une société qu’elle est de grande taille. La taille de la société est donc supposée liée positivement à la quantité d’information disponible, ou négativement au niveau d’asymétrie d’information. De plus, elle approche les coûts et gains attendus d’une publication de prévision. Selon Waymire (1986) ou Lev et Penman (1990), les sociétés publient d’autant plus fréquemment des prévisions qu’elles sont de grande taille. Secteur : variable binaire égale à 1 si la société appartient au secteur des nouvelles technologies de l’information et de la communication (NTIC). Nous supposons plus coûteuse l’évaluation d’une société de la Nouvelle Économie que d’une activité traditionnelle. Le secteur des NTIC est donc associé à un plus fort degré d’asymétrie. ÂGE : nombre d’années séparant la date d’introduction de la création historique de la société. Selon Michaı̈lesco (2000), l’âge détermine entre autres la position du service comptable au sein de l’entreprise, son expérience et son degré d’organisation. La qualité du système d’information interne, et donc celle de l’information offerte, est présumée augmenter avec l’âge de la société 180 Chapitre 5 (voir Baginski et al. également, 1999, p. 12). Autrement dit, l’âge est relié négativement au niveau d’asymétrie d’information. Les variables de signalisation, directes puis indirecte, sont précisées cidessous. Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions de résultat chiffrées, et à 0 sinon. Erreur-dirigeant : erreur moyenne de prévision du dirigeant, égale au rapport : (prévision - réalisation) / réalisation. Les prévisions portent sur le bénéfice par action et ont pour horizon l’année qui suit l’introduction en bourse. PREC : nous avons construit une variable dichotomique mesurant la précision des prévisions du dirigeant. P REC = 1 si erreur − dirigeant ≤ σm , où σm est l’écart-type des erreurs de prévision des dirigeants. Biais : variable binaire valant 1 si l’erreur moyenne de prévision du dirigeant est positive et donc optimiste. La qualité des prévisions publiées ne s’apprécie en effet pas seulement à leur précision, mais aussi à leur biais. α : part du capital conservée par le dirigeant, directement ou indirectement, après l’introduction en bourse. Dans le cadre du modèle de Hughes, la sous-évaluation initiale est supposée expliquée par la publication volontaire de prévision. Mais elle dépend également d’autres facteurs, intégrés comme variables de contrôle dans les modèles de régression. PER : rapport du prix d’offre définitif sur le bénéfice par action de l’année t0 − 1. Lorsque le marché anticipe une forte croissance des bénéfices d’une société, il est prêt à en payer cher les titres. La société présente alors un PER, mais aussi un niveau de risque, élevés. Par conséquent, la rentabilité initiale anormale est présumée augmenter avec le PER. AMP : variable dichotomique égale à 0/1 si la société s’est introduite en période de faible/forte activité du marché primaire. La sous-évaluation initiale est plus importante en période de forte activité du marché primaire (Leleux, 1993 par exemple). Nous avons aussi comparé les fonds levés sur une période de douze mois encadrant la date d’introduction d’une société, au montant annuel moyen introduit entre 1994 et 2000. La variable AMP vaut 1 si la différence relative à la moyenne est positive ; 0 si elle est négative. Procédure : variable d’état prenant la valeur 1 si la procédure d’introduction est l’offre à prix minimal ou le placement garanti. Plus le mécanisme de vente permet d’adapter le prix des titres à la demande du marché, moins le cours d’équilibre s’éloignera du prix d’introduction et plus la sous-évaluation sera faible. Ainsi, la cotation directe et l’offre à prix ferme laissent place à une Chapitre 5 181 plus faible sous-évaluation que l’offre à prix minimal et le placement garanti. La cotation directe (ou procédure ordinaire) permet d’égaliser l’offre et la demande de titres. L’émetteur indique au marché un prix minimal deux jours avant la date prévue d’introduction. Il peut majorer ce minimum jusqu’à 10% si la demande d’actions excède largement l’offre. Lors d’une offre à prix ferme (anciennement offre publique de vente), le prix et la quantité offerts sont fixes. Ce mécanisme ne permet donc pas a priori d’ajuster l’offre et la demande de titres. Mais la hausse du cours par rapport au prix d’introduction reste maı̂trisée. D’une part, la demande de titres est rationnée à hauteur de l’offre. D’autre part, cette procédure est utilisée lorsque le banquier introducteur connaı̂t bien la valeur de la société et la demande de titres. Le prix d’offre est donc précis et conforme aux attentes du marché. L’offre à prix minimal (autrefois mise en vente) s’apparente à une vente aux enchères. Le prix d’introduction est déterminé en deux temps. Un prix minimal est tout d’abord proposé, cinq jours avant l’introduction. Les investisseurs soumettent ensuite leurs ordres achat à cours limité. Le prix final est décidé la veille de l’introduction, au vu de ces intentions d’achat. Mais il ne reflète que partiellement la demande totale des investisseurs. D’une part, les ordres aux prix les plus élevés sont éliminés. D’autre part, le prix final ne doit pas être supérieur à une fois et demie le prix minimum. La sous-évaluation des titres introduits par offre à prix minimal reste de ce fait importante. Un placement garanti peut précéder la procédure ordinaire ou l’offre à prix ferme. Il comporte deux étapes. Dans un premier temps, la banque introductrice consulte le marché et publie une fourchette de prix. Dans un second temps, après l’obtention du visa de la COB, elle ouvre un livre d’ordres. Elle y recueille les intentions d’achat des investisseurs. À l’issue de cette période de pré-marketing, elle fixe le prix définitif. En principe, le placement garanti devrait limiter la sousévaluation car la banque décide du prix après avoir sondé le marché. Mais en réalité, les banques n’adaptent que partiellement le prix d’offre à la demande du marché. Elles devaient convaincre le marché de l’intérêt de cette procédure, lors de son introduction en France (Faugeron-Crouzet, 1997). En outre, elles doivent inciter les investisseurs à révéler leurs réelles intentions d’achat (Derrien, 2002). Elles doivent donc garantir un niveau de sous-évaluation attractif. 5.2.3 Présentation de l’échantillon Nous avons sélectionné les sociétés introduites sur le Second Marché entre le premier janvier 1994 et le 31 juin 2000, en fonction de trois critères. Ces sociétés ne provenaient pas du marché libre. Leurs BPA réalisés étaient disponibles dans les bases d’I/B/E/S. Leur dossier d’introduction était consultable. L’échantillon final comprend ainsi 139 sociétés, soit environ 80% de 182 Chapitre 5 l’ensemble des introductions sur le Second Marché entre 1994 et le premier semestre 2000. Le tableau 5.1 décrit l’échantillon. Variables Âge Taille PER Investissement Endettement Flottant Montant RIA α Procédures Cotation directe Offre prix ferme Offre prix minimal Placement garanti Biais Pessimiste Optimiste Y non publication (=0) publication (=1) N 139 139 139 139 139 139 139 139 139 Fréquences (sur 139) 0.7% 12.2% 46.8% 38.1% Fréquences (sur 82) 48.8% 51.2% Fréquences (sur 139) 36% 64% Moyenne 32.99 5.80 21.05 11.32 58.37 20.62 135.2 0.280 55.61 Secteur NTIC (=1) Médiane 21.0 5.54 16.0 6.88 60.82 16.99 42.62 0.149 68.6 Fréquences (sur 139) 61.9% Autre (=0) 38.1% PREC Fréquences (sur 82) 52.4% 47.6% imprécises (=0) précises (=1) Écart-type 36.25 1.433 15.67 15.63 19.60 14.38 307.9 0.975 32.80 Tab. 5.1 – Statistiques descriptives de l’échantillon du chapitre 5 Âge : âge de la société au moment de son introduction en bourse Taille : logarithme népérien du chiffre d’affaires l’année précédant l’introduction PER : rapport du prix d’offre définitif sur le BPA de l’exercice précédant l’introduction Investissement : rapport des investissements prévus sur le total du dernier bilan certifié Endettement : rapport des dettes financières et d’exploitation sur le total du dernier bilan certifié Flottant : pourcentage du capital introduit Montant : montant introduit en millions de francs RIA : rentabilité initiale anormale α : pourcentage du capital conservé par le dirigeant après l’introduction en bourse Erreur-dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé| Biais : variable binaire, prenant la valeur 1 si le dirigeant est optimiste dans ses estima- Chapitre 5 183 tions, c’est-à-dire si prévision - réalisation) / |réalisation| > 0 PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC = 1 si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs des dirigeants Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions de résultat chiffrées Secteur : variable binaire égale à 1 si la société appartient au secteur des nouvelles technologies de l’information et de la communication, à 0 sinon À partir du tableau 5.1, nous caractérisons successivement les émetteurs, les émissions et les variables de signalisation. Au moment de leur introduction, les sociétés de l’échantillon sont de taille moyenne, avec un chiffre d’affaires moyen de 50.3 millions d’euros. Elles se présentent sur le marché en moyenne 33 ans après leur création. Leurs projets d’investissement représentent en moyenne 11% de leur bilan, et leurs dettes financières et d’exploitation 58%. Le PER moyen est élevé (21), sans doute parce que 62% de l’échantillon appartient au secteur de la Nouvelle Économie. Au vu de ces éléments, les sociétés de l’échantillon semblent s’introduire en bourse pour re-financer leur développement. Le produit moyen de l’opération s’élève à 135 millions de francs (20.5 millions d’euros). Les mécanismes de vente les plus utilisés sont l’offre à prix minimal (47%), suivie du placement garanti (38%) et de l’offre à prix ferme (12%). Une seule société s’est introduite par cotation directe. En moyenne, le premier cours coté excède de 28% le prix d’offre. Les sociétés introduites par une offre à prix minimal ou un placement apparaissent significativement plus sousévaluées que les autres, au seuil de 5% (tableau 5.8 en appendice du chapitre 5). Sur un échantillon de 292 introductions au Second Marché réalisées entre 1983 et 1994, Faugeron-Crouzet et Ginglinger (2001) obtiennent une sousévaluation moyenne plus faible, de 18.67%. L’absence de sociétés introduites par placement dans leur échantillon peut expliquer cet écart. Le capital des sociétés de notre échantillon reste assez fermé, malgré l’admission à la cote. Les actionnaires-dirigeants conservent en moyenne plus de la moitié du capital après l’introduction. En outre, le flottant moyen n’est que de 21%. Il vaut toutefois deux fois le minimum requis (10%) ou celui observé par Faugeron-Crouzet et Ginglinger entre 1983 et 1994 (11.64%). Enfin, 64% des sociétés de l’échantillon publient volontairement des prévisions de résultat dans leur prospectus d’introduction. 5.3 Les résultats de l’étude empirique Nous examinons les hypothèses précédemment exposées sur notre échantillon d’introductions au Second Marché entre 1994 et 2000. 184 5.3.1 Chapitre 5 Les résultats des tests univariés Les tableaux 5.6, 5.7, 5.8, 5.9 et 5.10 rapportent les résultats des tests univariés. Ils sont reportés dans cet ordre en annexe du chapitre 5. Valeur informative de l’acte volontaire de publication Dans le cadre du modèle de Hughes, l’acte volontaire de publication (Y) est supposé informatif pour les investisseurs et les analystes. Il devrait donc limiter leur incertitude. Les tests univariés n’établissent pas de lien significatif entre Y et les performances boursières le jour de l’introduction. Les sociétés du Second Marché qui choisissent de diffuser des prévisions de résultat dans leur prospectus sont plus sous-évaluées en moyenne, mais non significativement : 33% contre 19% pour le groupe «Y=0» (tableau 5.6). L’analyse des médianes conduit aux résultats contraires : une moindre sous-évaluation pour le groupe «Y=1». Dans la matrice des corrélations (tableau 5.10), l’acte volontaire de publication est bien relié négativement à la sous-évaluation, mais non significativement. Sur notre échantillon, l’acte volontaire de publication ne semble pas non plus informatif pour les analystes. L’écart-type de leurs estimations et leur erreur moyenne de prévision ne sont pas significativement plus élevés pour le groupe «Y=0» que «Y=1» (tableau 5.6). Leur décision de suivre la société est indépendante de la révélation, par le dirigeant, de ses anticipations (voir le test du Chi-deux, tableau 5.7). Enfin, les sociétés qui ne publient pas de prévision sont suivies par deux fois plus d’analystes que les autres (tableau 5.6). Valeur informative de la qualité des prévisions publiées Nous analysons les propriétés des prévisions du dirigeant, puis la réaction des investisseurs et des analystes à leur précision. Les prévisions publiées par le dirigeant sont utiles aux investisseurs si elles sont exactes, non biaisées et plus informatives qu’un modèle naı̈f de prévision. Sur notre échantillon, les prévisions des dirigeants apparaissent de qualité très diverse (tableau 5.9). En moyenne, elles sont entachées d’une erreur7 de 110%, 7 Nous de disposions des BPA réels que pour 82 des 89 sociétés ayant oublié des prévisions. L’erreur moyenne de prévision est donc calculée sur 82 observations. Chapitre 5 185 significativement distincte de 0. À l’inverse, l’erreur médiane de prévision ne diffère pas significativement de 0. La grande dispersion des observations explique l’écart entre les valeurs moyenne et médiane. Nous avons différencié les sociétés de l’échantillon selon le biais, puis le degré de précision de leurs estimations (tableau 5.6). Le critère de précision retenu (Prec) répartit les sociétés en deux groupes homogènes. De même, les sociétés pessimistes sont globalement aussi nombreuses que les entreprises optimistes. Mais elles se trompent moins dans leurs estimations de résultat que les sociétés optimistes. Leur erreur moyenne de prévision s’élève à 31%, contre 248% pour le groupe optimiste. L’analyse des médianes confirme la plus grande précision des sociétés pessimistes, mais dans une moindre mesure : 22% contre 35%. Sur notre échantillon, les estimations des dirigeants ne sont pas plus informatives que celles déduites du modèle élémentaire de prévision développé par Cheng et Firth (2000) (tableau 5.9). Le SUP est en effet négatif en moyenne et en médiane. Mais il ne diffère pas significativement de zéro. Les résultats doivent donc être interprétés avec prudence. Nous observons enfin si le comportement des investisseurs et des analystes varie en fonction de la précision des estimations du dirigeant. Contrairement à nos anticipations, les sociétés prudentes ou précises dans leurs estimations n’apparaissent pas significativement moins sous-évaluées (tableau 5.6). D’après le test du Chi-deux réalisé (tableau 5.7), le suivi d’une société par au moins un analyste non affilié au chef de file dépend significativement, au seuil de 0.1%, de la variable de précision PREC. Toutefois, les analystes ne sont pas plus nombreux à suivre les sociétés du groupe «PREC=1» que «PREC=0» (tableau 5.6). Les erreurs de prévision du dirigeant sont par ailleurs positivement et significativement corrélées, d’une part aux erreurs de prévision des analystes, d’autre part à l’écart-type des estimations des analystes (tableau 5.10). Ainsi, au vu des tests univariés, l’exactitude des prévisions émises par la société n’influence pas l’intensité de sa couverture par les analystes. Elle semble par contre améliorer la capacité prédictive des analystes, et l’homogénéité de leurs estimations. Publication de prévision et actionnariat du dirigeant L’originalité du modèle de Hughes réside dans l’émission simultanée de deux signaux : la publication volontaire de prévision (Y) et l’actionnariat du dirigeant (α). Y et α devraient donc être reliés positivement dans les tests univariés. 186 Chapitre 5 Les résultats confortent cette conjecture. Les dirigeants qui publient leurs prévisions détiennent une plus grande part du capital après l’introduction que les autres : 60% en moyenne, contre 47% (tableau 5.6). Le coefficient de corrélation entre α et Y vaut 0.232 et est significatif à 5% (tableau 5.10). α et Y apparaissent donc bien utilisés conjointement. Dans l’étude de Mak (1994) au contraire, publication volontaire de prévision et actionnariat des dirigeants sont liés négativement. Parallèlement, le rhô de Spearman entre le flottant et la variable Y est négatif et significatif à 5% (tableau 5.10). Le partage de l’information ne semble pas le versant de l’ouverture du capital. Publication de prévision et asymétrie d’information Selon l’hypothèse de signalisation, les sociétés seraient d’autant plus enclines à révéler délibérément leurs prévisions de résultat que leurs perspectives de développement sont peu visibles. Les 89 firmes qui publient volontairement des prévisions semblent effectivement pâtir de plus fortes asymétries d’information ex ante que les autres. Elles appartiennent à 58% au secteur des NTIC (tableau 5.7). Elles lèvent significativement moins de fonds et sont donc moins en vue sur le marché. Elles sont en moyenne significativement plus jeunes au moment de leur introduction que les autres : 28 ans, contre 42 ans (tableau 5.6). Ces résultats vont dans le sens attendu. Ils rejoignent ceux de Mak (1994), obtenus sur un échantillon de 53 admissions à la cote australienne8 entre 1970 et 1983. Par contre, les 39 sociétés aux meilleures prédictions ne sont pas significativement plus jeunes que les autres (tableau 5.6). Au contraire, l’erreur moyenne de prévision est reliée de manière négative et significative à l’âge (tableau 6.14). Les sociétés prudentes et précises dans leurs estimations apparaissent significativement plus âgées que les autres. Ainsi, le niveau d’asymétrie, tel que nous avons pu l’apprécier, accentue l’utilité d’une publication d’informations au-delà des exigences légales. Mais il décrédibilise les prévisions publiées le cas échéant. Publication de prévision et procédure d’introduction La procédure d’introduction fixe le cadre de l’opération. Elle devrait également influencer la communication financière. 8 La publication de prévision dans la note d’information est facultative en Australie. Chapitre 5 187 89 sociétés de l’échantillon total ont publié volontairement des prévisions dans leur prospectus. Parmi elles, 50 se sont introduites par offre à prix minimal (OPM), 28 par placement (PG), 10 via une offre à prix ferme (OPF) et une par cotation directe (CD) (tableau 5.8). Au total, 87.6% des sociétés qui diffusent volontairement leur plan de développement sont admises à la cote par une offre à prix minimal ou à un placement. Ces deux procédures sont utilisées lorsque la valeur de marché de l’entreprise est incertaine. Elles supposent de fortes asymétries d’information entre l’entreprise et les investisseurs. Elles semblent donc bien adaptées à l’hypothèse d’une signalisation par publication délibérée d’information. En revanche, les sociétés introduites par offre à prix minimal ou placement apparaissent plus imprécises en moyenne, et plus pessimistes en médiane, dans leurs estimations de résultat (tableau 5.8). Leurs erreurs moyennes de prévision s’élèvent respectivement à 85.6% et 159%, contre 0.561% pour les offres à prix ferme et 0.148% pour la cotation directe. Leurs erreurs médianes sont de -1.21%, -2.25%, contre 2.56% pour les offres à prix fermes et 0.148% pour la cotation directe. Toutefois, les erreurs moyennes et médianes des deux groupes de sociétés (OPM-placement et OPF-CD) ne diffèrent pas significativement. Au regard des tests univariés, l’acte volontaire de publication et la qualité des prévisions publiées n’ont pas d’incidence significative sur la sousévaluation des titres introduits. Par contre, la précision des estimations du dirigeant semble bien avoir un effet positif sur l’exactitude et l’homogénéité des prévisions des analystes. En outre, le signal Y paraı̂t bien utilisé en même temps que l’actionnariat du dirigeant α, comme le prédisait le modèle de Hughes. Enfin, la publication de prévisions non demandées par la loi émane plutôt de sociétés jeunes, des NTIC, introduites par offre à prix minimal ou placement. La qualité des prévisions publiées semble, elle, croı̂tre avec l’âge de la société. Nous mettons maintenant les résultats de ces tests univariés à l’épreuve de méthodes explicatives. 5.3.2 Les résultats des tests multivariés Les résultats des régressions multivariées • Signaux directs 188 Chapitre 5 Nous testons la valeur informative de l’acte volontaire de publication (Y), puis de la qualité des prévisions publiées (erreur-dirigeant). - Dans un premier temps, nous apprécions l’intérêt de ces deux variables pour les investisseurs. À cette fin, nous observons leur impact sur la sousévaluation (RIA). Les variables muettes ci-après sont introduites dans les modèles de régression : AMP, variable dichotomique égale à 1/0 si l’activité du marché primaire est forte/faible ; PER, rapport du prix d’offre définitif sur le BPA de l’exercice précédant l’introduction ; Secteur, variable binaire égale à 1 si la société appartient au secteur des NTIC, à 0 sinon ; Procédure, variable dichotomique égale à 1 si la société s’est introduite par offre à prix minimal (OPM) ou placement (PG) et à 0 si elle a utilisé une offre à prix ferme (OPF) ou une cotation directe (CD) ; Taille : logarithme népérien du chiffre d’affaires l’année précédant l’introduction. Le tableau 5.2 récapitule les modèles obtenus. Les t de Student sont indiqués entre parenthèses, et les VIF en italique. Des astérisques signalent les seuils de significativité (* = 10% ; ** = 5% ; *** = 1% ; **** = 0.1%). Les régressions sont conduites sur l’échantillon total, puis sur des sous-échantillons par secteur (NTIC ou non), âge (< ou > à l’âge moyen, 33 ans) et procédure (OPF/CD ou PG/OPM). Dans aucun modèle testé, l’acte volontaire de publication n’explique significativement la sous-évaluation initiale. Nous ne pouvons donc confirmer ou infirmer notre première hypothèse. Sur le marché canadien au contraire, les sociétés qui publient volontairement leurs prévisions sont moins sousévaluées (Clarkson et al., 1992, sur un échantillon de 185 introductions ; Jog et McConomy, 2000, sur un échantillon de 258 entreprises introduites entre 1983 et 1994). Par contre, sur notre échantillon total, l’erreur de prévision du dirigeant accroı̂t significativement la sous-évaluation, au seuil de 5% (modèle 1, tableau 5.2). En contrepartie d’estimations précises, les investisseurs semblent accepter une moindre décote du prix d’offre par rapport à la valeur espérée des titres. Nous confirmons l’hypothèse H2. Nos résultats n’avalisent pas ceux de Firth et Smith (1992). Dans leur régression, conduite sur 89 introductions néo-zélandaises, l’erreur de prévision du dirigeant n’influence pas significativement la sous-évaluation. - Les estimations des analystes approchent traditionnellement les anticipations des investisseurs. Aussi observons-nous, dans un second temps et à Chapitre 5 échant. Modèle Constante Erreur dirigeant 189 Total 1 0.235 (1.66) 9.2710−2 (2.38)** Secteur=1 2 0.348 (1.44) 0.114 (1.97)* α AMP PER variable dépendante : RIA Secteur=0 âge<33ans âge>33ans 3 4 5 -0.114 0.176 7.5410−2 (-1.25) (0.978) (1.89)* 0.216 (3.44)*** 1.6910−3 1.8310−3 (2.38)** (2.40)** 1.155 0.17 (2.75)*** 1.234 3.4810−3 (2.77)*** 1.125 âge>33ans 6 0.094 (0.337) OPF/CD 7 -0.135 (-1.59) 1.6110−3 (2.33)** 1.019 -0.216 (-2.78)*** 1.017 1.2310−3 (1.96)* 1.018 1.3810−2 (2.67)** 1.062 9.8310−2 (2.06)** 1.011 0.147 (2.39)** 1.024 Secteur Procédure Taille F R2 ajusté N PG/OPM 8 0.279 (1.74)* 9.5410−2 (2.27)** 5.66** 0.054 82 3.896* 0.058 48 4.272*** 0.182 53 11.8*** 0.151 62 5.774* 0.102 43 6.529**** 0.356 43 -2.3310−3 (-2.04)* 1.065 3.927** 0.305 19 5.156** 0.055 78 Tab. 5.2 – Explication de la sous-évaluation par l’erreur de prévision du dirigeant titre complémentaire, comment les analystes réagissent à la publication de prévisions non demandées par la loi, et à leur précision. Le tableau 5.3 présente les modèles les plus significatifs obtenus. Les t de student figurent entre parenthèses. Ils peuvent être significatifs aux seuils de 10% (*), de 5% (**), de 1% (***) et de 0.1% (****). Pour contrôler la multicolinéarité des variables explicatives, nous indiquons en italique le facteur d’inflation de la variance (VIF). Sur notre échantillon, l’acte volontaire de publication n’explique significativement ni l’exactitude, ni l’homogénéité des estimations des analystes. Ce résultat diverge de nos anticipations et des travaux antérieurs. Parmi les informations dont la publication est discrétionnaire figurent les informations segmentés. Suite à leur diffusion, les prévisions des analystes semblent plus précises (Baldwin, 1984) et consensuelles (Swaminathan, 1991). Par ailleurs, nous trouvons que le signal Y détermine bien significativement le nombre d’analystes suivant la société, mais négativement (modèle a). Autrement dit, les sociétés n’ayant pas publié leurs prévisions attirent davantage les analystes. Elles sont significativement plus âgées et ouvertes que celles du groupe «Y=1» (tableau 5.6). Leur environnement informationnel peut raisonnablement être supposé plus riche9 . Les sociétés semblent donc susciter 9 Lang et al. (2002) associent ainsi richesse de l’environnement informationnel et ouver- 190 Chapitre 5 var. dépendante Modèle Constante NAF a -0.331 (-0.256) Erreur dirigeant Secteur Taille Y RIA F R2 ajusté N 0.710 (3.552)*** 1.043 -1.230 (-2.293)** 1.054 0.537 (2.479)** 1.011 9.07**** 0.205 69 NAF b -3.22 (-2.990)*** -0.128 (-2.479)** 1.128 0.989 (2.522)** 1.064 0.922 (5.014)**** 1.049 Erreur-analystes c 0.969 (1.787)* 0.361 (13.3)**** 1.113 0.498 (3.722)**** 1.108 11.45**** 0.427 64 -0.214 (-3.069)*** 1.08 50.3**** 0.758 64 Dispersion d 0.115 (1.966)* 0.173 (4.529)**** 2.1 Dispersion e 0.010 (1.563) 9.6210−2 (3.341)*** 1 -0.120 (-2.773)*** 2.1 10.5**** 0.352 36 11.2*** 0.225 36 -0.167 (-1.730)* 1.032 Tab. 5.3 – La valeur informative de l’acte volontaire de publication et de la précision des prévisions du dirigeant pour les analystes Le nombre d’analystes non affiliés au chef de file, suivant la société dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction (NAF) ; leur erreur moyenne de prévision à un an (erreur-analystes = [BPA prévu - BPA réel] / |BPA réel|) et l’écart-type de leurs estimations, normé par le BPA réel (dispersion) sont régressées sur la variable binaire Y, égale à 1 si la société a publié dans son prospectus des prévisions de résultat chiffrées, puis sur l’erreur de prévision du dirigeant (erreur-dirigeant = [BPA prévu - BPA réel] / |BPA réel|). L’appartenance de la société au secteur des NTIC (secteur = 1), sa taille (mesurée par le logarithme népérien du chiffre d’affaires l’année précédant l’introduction) et la sous-évaluation des titres (RIA) sont intégrées comme variables de contrôle. d’autant plus l’intérêt des analystes que de faibles asymétries d’information ex ante les caractérisent. L’acte volontaire de publication ne suffit pas en lui-même à rendre les sociétés jeunes et au capital fermé, plus transparentes au yeux des analystes. Au total, sur notre échantillon, les analystes suivent moins nombreux les sociétés publiant au-delà des normes. L’acte volontaire ture du capital. Chapitre 5 191 de publication n’a pas d’effet significatif sur l’exactitude et la dispersion des prévisions des analystes. Par contre, nous trouvons que l’erreur de prévision du dirigeant explique significativement l’intensité et la qualité de la couverture de la société par les analystes. La précision des prévisions publiées augmente le nombre d’analystes suivant la société (modèle b). Elle rend probablement moins coûteuse la production d’information pour les analystes. Elle améliore également leur capacité prédictive (modèle c). Elle limite enfin la dispersion de leurs estimations (modèles d et e), sans doute parce qu’elle atténue les asymétries d’information entre les analystes. Nos résultats rejoignent ceux obtenus sur le marché secondaire américain. Aux États-Unis, les analystes attribuent une note aux sociétés cotées pour leur communication financière «volontaire». Plus cette note est élevée, plus les analystes sont nombreux à suivre la société (Lang et Lundholm, 1996 ; Healy et al., 1994), plus leurs estimations semblent exactes (Lang et Lundholm, 1996) et homogènes (Lang et Lundholm, 1996 ; Farragher et al., 1994). Des facteurs autres que la quantité et la qualité des informations publiques déterminent l’intérêt des analystes pour une société, l’exactitude et l’homogénéité de leurs prévisions. Ainsi, les prévisions des analystes sont d’autant plus exactes et consensuelles que les titres introduits sont sous-évalués (modèles c et d). Comme Rajan et Servaes (1997) ou Chen et Ritter (2000), nous observons que le nombre d’analystes suivant l’introduction croı̂t avec la sous-évaluation (modèle a). À l’instar de Brennan et Hughes (1991) ou Bhushan (1989), la variable «NAF» augmente avec la taille de la société (modèles a et b). Enfin, les analystes prévoient plus précisément le résultat des sociétés de grande taille (modèle c). Similairement, Derrien et Degeorge (2001) obtiennent une relation négative entre l’erreur moyenne de prévision des analystes et le logarithme de la capitalisation boursière, approximation de la taille. • Signal indirect Dans le modèle de Hughes, la part de capital conservée par le dirigeant (α) signale également efficacement la valeur de la société introduite. Nos résultats ne nous permettent pas d’accepter ou de rejeter l’hypothèse d’une signalisation via l’actionnariat du dirigeant. En effet, sur notre échantillon total, α n’a pas d’effet significatif sur la sous-évaluation. Dans les autres pays, seul Beatty (1989) obtient une relation négative et significative entre 192 Chapitre 5 la sous-évaluation et α. Il travaille sur un échantillon de 2215 sociétés introduites entre 1975 et 1984 sur le marché américain. Les résultats des autres études ne corroborent pas la théorie du signal. Firth et Smith (1992) observent un échantillon de 89 introductions sur le marché néo-zélandais entre 1983 et 1986. Ils montrent qu’α détermine négativement mais non significativement la sous-évaluation. La part de capital conservée par le dirigeant explique positivement la sous-évaluation, significativement sur le marché australien (Lee et al., 1993 , sur un échantillon de 266 sociétés introduites entre 1976 et 1989) ; non significativement sur le marché britannique (Holland et Horton 1993, sur 230 introductions entre 1986 et 1989). • Le niveau d’asymétrie d’information Dans le modèle de Hughes, publication de prévision et structure du capital sont des signaux complémentaires. Leur combinaison optimale dépend du niveau d’incertitude. Lorsque l’avenir de l’entreprise est peu visible, le dirigeant révélerait plutôt au marché ses anticipations de résultat et réduirait sa participation au capital. Nous vérifions ces prédictions sur des sous-échantillons par secteur et âge. Les sociétés des NTIC et jeunes sont supposées pâtir de plus fortes asymétries d’information. Le tableau 5.2 récapitule les modèles les plus significatifs. Sur les sous-échantillons des sociétés plus jeunes que la moyenne et des NTIC, la sous-évaluation diminue avec la qualité des prévisions publiées (modèles 2 et 4). Par contre, l’erreur de prévision du dirigeant n’influence pas la sous-évaluation des sociétés les plus âgées ou des secteurs traditionnels (modèles 3 et 5). La publication de prévisions précises semble donc d’autant plus utile aux investisseurs qu’elle relève d’une société jeune ou de la nouvelle économie. Autrement dit, la valeur informative des prévisions publiées augmente avec le niveau d’asymétrie. Nous confirmons l’hypothèse H4. Dans les modèles 2 et 4, nous avons intégré l’erreur de prévision du dirigeant en même temps que sa participation au capital. Le pouvoir explicatif de la variable α n’est pas significatif. Hughes supposait au contraire nécessaire le recours simultané aux deux signaux Y et α, même si elle prédisait une moindre utilisation d’Y au profit d’α en présence d’incertitude. De plus faibles asymétries d’information sont supposées caractériser les sociétés les plus âgées et des secteurs traditionnels. Pour ces sociétés, la rétention de capital par le dirigeant accroı̂t la sous-évaluation initiale de manière significative, au seuil de 5% (modèles 3, 5 et 6). Les sociétés mâtures ou de l’économie traditionnelle semblent donc se signaler en sous-évaluant Chapitre 5 193 délibérément les titres introduits. Cette sous-évaluation est coûteuse. En conséquence, les actionnaires-dirigeants se désengagent peu lors de l’introduction. Ainsi, en présence de faibles asymétries d’information, les modèles de signalisation par sous-évaluation (Allen et Faulhaber, 1989 ; Welch, 1989 et Grinblatt et Hwang, 1989) rendent mieux compte de la réalité que l’hypothèse d’une signalisation par publication de prévision (Hughes, 1986). • Procédure d’introduction Les résultats des régressions confirment ceux des tests univariés. La signalisation par publication volontaire de prévision ne s’observe que pour les sociétés introduites via un placement ou une offre à prix minimal (modèle 8, tableau 5.2). Sur ce sous-échantillon, l’exactitude des prévisions publiées par le dirigeant réduit la sous-évaluation du prix d’offre. Sur le sous-échantillon des offres à prix fermes, α a un impact positif et significatif sur la sous-évaluation (modèle 7, tableau 5.2). L’actionnaire-dirigeant accepte d’autant mieux de sous-évaluer les titres introduits qu’il conserve une part importante de ses titres après l’introduction. La sous-évaluation des titres semble donc davantage signaler la valeur des sociétés introduites par une offre à prix ferme ; la qualité des prévisions publiées, celle des offres à prix minimal et des placements. • Période d’introduction En principe, seules les sociétés demandant leur admission à la cote du Nouveau Marché doivent inclure un plan de développement dans le prospectus. Toutefois, depuis 1996, la COB presse également les impétrants sur le Second Marché de publier des prévisions chiffrées. Elle relaierait les attentes du marché, selon les membres de la COB rencontrés. Nous avons donc supposé la qualité des prévisions publiées plus discriminante que la présence de prévisions dans le prospectus, depuis 1996. Nous apprécions l’efficacité d’une signalisation par publication délibérée de prévision avant 1996, puis après. Pour chaque période, nous avons constitué des sous-échantillons par secteur et par âge. Le tableau 5.4 rapporte les modèles de régression les plus significatifs obtenus. Ginglinger et Faugeron-Crouzet (2001) considèrent 292 sociétés introduites sur le Second Marché entre 1983 et 1994. Elles montrent que les sociétés les plus petites et les plus familiales signalent la valeur de leurs projets par une sous-évaluation délibérée du prix d’offre. Nous obtenons des résultats similaires entre 1994 et 1995. Ces années-là, ni 194 Chapitre 5 période Modèle Constante Erreur dirigeant α Taille F R2 ajusté N variable dépendante : RIA avant 1996 après 1996 9 10 11 12 13 âge>33ans âge<33ans 0.041 0.027 0.149 1.034 1.476 (0.325) (0.494) (0.533) (1.892)* (1.816)* 0.256 0.27 0.27 (3.39)*** (3.65)*** (3.07)*** 1.011 1.007 3.2910−3 4.6410−4 -1.410−2 -2.0310−2 (1.696)* (4.06)*** (-1.79)* (-1.79)* 1.011 1.011 1.007 -0.141 (-1.92)* 1.011 3.70** 16.5*** 11.5*** 7.67*** 5.90*** 0.065 0.66 0.204 0.246 0.246 38 9 41 41 31 14 secteur=1 0.106 (0.308) 0.547 (4.54)**** 20.6**** 0.461 24 Tab. 5.4 – L’efficacité d’une signalisation par publication volontaire de prévisions avant 1996 / après 1996 L’erreur de prévision du dirigeant (erreur-dirigeant = [BPA prévu - BPA réel] / |BPA réel|), sa participation au capital après l’introduction (α) et la taille de la société (logarithme népérien du chiffre d’affaires réalisé le dernier exercice certifié) expliquent significativement la rentabilité initiale anormale (RIA). Leurs coefficients de corrélations peuvent statistiquement différer de 0, au seuil de 10% (*), 5% (**), 1% (***) et 0.1%. Les VIF apparaissent en italique. l’acte volontaire de publication, ni la qualité des prévisions publiées n’influencent significativement la sous-évaluation. Par contre, α est reliée positivement et significativement à la sous-évaluation, notamment sur le souséchantillon des sociétés les plus âgées (modèles 9 et 10). Avant 1996, nos observations semblent conformes aux prédictions des modèles de signalisation par sous-évaluation. La sous-évaluation des titres et la fraction de capital conservée par le dirigeant signaleraient la valeur des sociétés, surtout celle des plus âgées. Entre 1996 et 2000, l’erreur de prévision du dirigeant détermine de manière positive et significative la sous-évaluation (modèles 11 et 12). Mais ce lien ne s’observe pas sur les sous-échantillons des sociétés les plus âgées ou des secteurs traditionnels (modèles 13 et 14). En outre, sur cette période, les signaux Y et α semblent utilisés conjointement et de façon complémentaire (modèle 12), en particulier par les sociétés Chapitre 5 195 les plus jeunes (modèle 13). Dans les modèles 12 et 13, la sous-évaluation diminue avec la part de capital conservée par le dirigeant et l’exactitude de ses prévisions. Notre hypothèse H3 ne se vérifie donc que pour les sociétés les plus jeunes, introduites entre 1996 et 2000. Au total, les travaux antérieurs et nos résultats empiriques tendent à valider l’hypothèse d’une signalisation par sous-évaluation entre 1983 et 1995. Mais les sociétés qui recourent à ce signal présentent des caractéristiques différentes au cours du temps. Elles apparaissent plutôt petites et familiales entre 1983 et 1994 (Ginglinger et Faugeron-Crouzet, 2001) ; âgées et familiales entre 1994 et 1995. Entre 1996 et 2000, les sociétés les plus jeunes et des NTIC semblent réduire l’incertitude des investisseurs en publiant des prévisions précises. Sur le sous-échantillon des sociétés les plus jeunes, Y et α agissent simultanément et à la baisse sur la sous-évaluation. Les prédictions du modèle de Hughes ne se réalisent donc que pour une partie des sociétés. Les résultats des régressions logistiques Nous étudions la probabilité qu’une société du Second Marché émette volontairement des prévisions dans son prospectus. Le modèle logit suivant est testé : P (Yi ) = 1 1 + exp −[α + Xi 0 β] où P (Yi ) est la probabilité qu’une société i publie des prévisions de résultat dans son prospectus. Le vecteur Xi comprend l’âge de la société au moment de son introduction en bourse et α, le pourcentage du capital conservé par le dirigeant après l’introduction. Le tableau 5.5 reprend les modèles les plus significatifs obtenus. Le coefficient bêta, puis la statistique de Wald (entre parenthèses) et son seuil de significativité sont indiqués (* = 10% ; ** = 5% ; *** = 1% et **** = 0.1%). Les sociétés de l’échantillon sont d’autant plus enclines à publier leurs prévisions qu’elles sont jeunes (modèle 1). Le niveau d’asymétrie d’information était supposé décroı̂tre avec l’âge de la firme. Notre résultat va donc dans le sens de l’hypothèse H4 bis. Il confirme également les résultats de la littérature. Dans l’étude de Mak (1994) sur le marché canadien, l’absence d’historique disponible10 détermine 10 Mak prend en compte trois variables d’asymétrie d’information : l’historique disponible, le pourcentage de capital conservé par le dirigeant et la taille de l’entreprise. 196 Chapitre 5 Modèles Constante Âge α χ2 R Cox Snell N 2 Y 1 2 1.020 0.542 (16.1)**** (0.643) 0.000 0.423 -0.010 -0.009 (3.934)** (3.335)* 0.047 0.068 0.671 (5.941)** 0.015 4.072** 10.3*** 0.030 0.076 139 139 Tab. 5.5 – Probabilité d’une publication de prévisions dans le prospectus d’introduction significativement la probabilité d’occurrence d’une prévision auditée. Baginski et Hassell (1997) ont analysé 1 212 prévisions de résultat annuel et trimestriel, publiées par les dirigeants de sociétés cotées américaines. La taille de la société et le nombre d’analystes suivant la société approchent respectivement la quantité d’information publique et privée disponible avant la publication. Les auteurs trouvent que la précision des prévisions de résultat annuel augmente avec la taille de la société et diminue avec le nombre d’analystes. Autrement dit, plus les asymétries d’information sont importantes, plus le dirigeant est incité à publier des prévisions précises. Deux facteurs peuvent expliquer notre résultat. En premier lieu, le coût lié à la publication délibérée de prévisions diminue avec l’âge de la société. En cas d’erreur de prévision, le marché est probablement plus indulgent à l’égard des sociétés jeunes. En second lieu, la COB recommande11 aux sociétés jeunes de pallier leur faible historique comptable par la publication d’informations prospectives. Les sociétés jeunes sont donc davantage pressées de publier des prévisions. Par ailleurs, la part du capital conservée par le dirigeant après l’introduction influence significativement et positivement la probabilité d’une publication volontaire de prévisions (modèle 2). Nous escomptions ce résultat. Dans le modèle de Hughes en effet, les signaux α et Y sont employés simul11 «Lorsque les comptes historiques ne sont pas représentatifs de la situation de l’émetteur, l’émetteur fournit des prévisions financières (...)» (schémas A et B, instruction mars 2001, chapitre 5.) Chapitre 5 197 tanément. Conclusion Les sociétés s’introduisent en bourse dans un contexte de fortes asymétries. Elles peuvent réduire l’incertitude des investisseurs, et donc le coût du capital levé, de différentes manières. Dans son modèle, Hughes (1986) montre que la publication délibérée de prévisions (Y) et la rétention de capital par le dirigeant (α) sont des signaux efficaces et complémentaires. Autrement dit, ils permettent aux investisseurs d’évaluer sans ambiguı̈té le candidat à l’introduction. Nous testons les prédictions de ce modèle, sur un échantillon de 139 sociétés introduites sur le Second Marché entre le premier janvier 1994 et le 30 juin 2000. Nous mettons en évidence les résultats suivants. En premier lieu, sur le Second Marché français, l’acte volontaire de publication ne semble pas informatif pour les investisseurs ou les analystes. Il n’influence significativement ni la sous-évaluation des titres, ni l’exactitude ou la dispersion des estimations des analystes. Les sociétés n’ayant pas publié de prévisions semblent au contraire davantage attirer les analystes. Sur notre échantillon, elles apparaissent significativement plus âgées et ouvertes que les autres. En second lieu, les analystes et les investisseurs semblent réagir favorablement et significativement lorsque le dirigeant choisit de révéler précisément ses anticipations de résultat. Nous établissons que le nombre d’analystes suivant l’introduction, l’exactitude et l’homogénéité de leurs estimations diminuent avec l’erreur de prévision du dirigeant. Sur notre échantillon, les sociétés les plus jeunes, de la nouvelle économie, introduites par offre à prix minimal ou placement entre 1996 et 2000, affichent de plus faibles rentabilités initiales anormales lorsqu’elles publient des prévisions précises. Sur le sous-échantillon des sociétés les plus jeunes introduites en bourse après 1995, la part de capital conservée par le dirigeant et la qualité des prévisions publiées agissent simultanément et à la baisse sur la sous-évaluation. Seule une partie des sociétés semble donc vérifier les prédictions du modèles de Hughes. Les sociétés les plus âgées de notre échantillon, appartenant à un secteur traditionnel, admises à la cote en 1994 et 1995, via une offre à prix ferme, paraissent plutôt utiliser la sous-évaluation comme mécanisme de signalisation. Dans le chapitre 5, le dirigeant complète lui-même l’information des investisseurs. Mais il peut également confier cette tâche à des prestataires de ser- 198 Chapitre 5 vices informationnels, les analystes financiers. Dans le modèle de Chemmanur (1993) et plus récemment, d’Aggarwal et al. (2002), le dirigeant sous-évalue les titres introduits pour inciter les analystes à produire des informations sur sa société. Il accepte donc, au moment de l’introduction, une augmentation du coût du capital en échange d’une meilleure information des investisseurs. Les informations diffusées par les analystes révéleraient la vraie valeur de la société. Nous testons, dans le chapitre 6, si elles constituent un signal de qualité. Autrement-dit, influencent-elles favorablement la valeur de la société sur le long terme ? Chapitre 5 199 Le tableau 5.6 présente les tests univariés réalisés. Seules les différences significatives sont reportées. Y=0/1 Âge Montant α RIA Dispersion Erreur-analystes NAF Y 0-1 Âge Montant α NAF N 50/89 50/89 50/89 50/89 23/38 38/69 38/69 différence moyennes 13.64 51.1 -12.5 1.48 Moyenne 41.72/28.08 168/117 47.6/60.1 0.186/0.333 0.481/0.168 0.55/0.35 4.12/2.64 Statistique t 2.157 1.866 -2.21 2.59 Médiane 22/21 49.3/40.8 58.0/75.0 0.152/0.143 0.069/0.065 -0.018/0.00 2.5/2.00 Signification 0.033 0.051 0.029 0.011 Écart-type 43.09/30.96 363/272 31.4/32.9 0.204/1.21 1.61/0.40 2.93/1.48 3.49/2.07 PREC=0/1 Âge α RIA Dispersion Erreur-analystes NAF N 43/39 43/39 43/39 22/14 37/27 37/27 Moyenne 27.4/29.7 60.2/62.8 0.496/0.162 0.249/0.0506 0.61/0.0002 2.81/2.16 Médiane 15.0/26 74.9/79.6 0.129/0.149 0.0877/0.0479 0.008/-0.008 2.00/2.00 Écart-type 37.5/24.9 31.1/33.7 1.71/0.188 0.513/0.0357 2.01/0.085 2.10/1.52 Biais=0/1 Âge α Erreur-dirigeant RIA Dispersion Erreur-analystes NAF Biais 0-1 Âge Erreur-dirigeant Erreur-analystes N 40/42 40/42 40/42 40/42 16/20 37/27 37/27 différence moyennes 15.96 -2.817 -0.919 Moyenne 36.7/20.7 66.8/56.3 -0.314/2.48 0.164/0.503 0.0516/0.268 -0.064/0.855 2.47/2.59 Statistique t 2.293 -3.979 -2.353 Médiane 26.0/14.5 80.8/72.4 -0.224/0.346 0.162/0.069 0.0476/0.085 -0.029/0.058 2.00/2.00 Signification 0.025 0.00 0.022 Écart-type 38.2/22.5 29.9/33.7 0.324/4.47 0.160/1.74 0.0335/0.535 0.14/2.14 1.85/1.95 Secteur Âge α Erreur-dirigeant RIA Dispersion Erreur-analystes NAF Secteur 0-1 RIA N 53/86 53/86 34/48 53/86 18/43 40/67 40/67 différence moyennes -0.234 Moyenne 32.8/32.6 55.8/56.2 0.712/1.38 0.139/0.373 0.092/0.367 0.284/0.503 2.68/3.44 Statistique t -1.679 Médiane 23.0/21.0 68.8/68.6 -0.023/0.0137 0.125/0.155 0.068/0.066 -0.021/0.004 2.0/2.0 Signification 0.097 Écart-type 37.5/36.2 33.8/32.0 2.64/3.98 0.184/1.25 0.085/1.23 1.57/2.36 2.45/2.87 Tab. 5.6 – tests de différences de moyennes - chapitre 5 Y : variable dichotomique égale à 1 si la société a publié dansson prospectus des prévisions de résultat chiffrées, PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC = 1 si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs de prévision des dirigeants, Biais : variable binaire, prenant la valeur 1 si le dirigeant est optimiste dans ses estimations, c’est-à-dire si (prévision - réalisation) / |réalisation| > 0, Âge : âge de la société au moment de son introduction en bourse, Montant : montant introduit en millions de francs, α : pourcentage du capital conservé par le dirigeant après l’introduction en bourse, RIA : rentabilité initiale anormale, Erreur-dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé|, Dispersion : écart-type des estimations à un an des analystes non affiliés au chef de file, normé par le BPA réalisé, Erreur-analystes : (BPA prévu par les analystes non affiliés au chef de file à un an - BPA réalisé) / |BPA réalisé|, NAF : nombre d’analystes non affiliés au chef de file, ayant suivi la société dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction. 200 Chapitre 5 Le tableau 5.7 rapporte les tests du Chi-deux réalisés. Entre parenthèses figurent les effectifs théoriques. Y=0 12 (11.5) PAF = 1 38 (38.5) Total 50 valeur Chi-deux 0.042 PREC = 0 PAF = 0 6 (9.4) PAF = 1 37 (33.6) Total 43 (43) valeur Chi-deux 3.375 Y=0 Secteur = 0 16 (19.1) Secteur = 1 34 (30.9) Total 50 (50) valeur Chi-deux 1.388 PAF = 0 Y=1 total 20 32 (20.5) (32) 69 107 (68.5) (107) 89 139 signification 0.837 PREC = 1 total 12 18 (8.6) (18.0) 27 64 (30.4) (64.0) 39 82 (39) (82) signification 0.066 Y=1 total 37 53 (33.9) (53) 52 86 (55.1) (86) 89 139 (89.0) (139) signification 0.239 Tab. 5.7 – Tests du Chi-deux - chapitre 5 Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions de résultat chiffrées PAF : variable binaire égale à 1 si au moins un analyste indépendant du chef de file a émis une prévision sur la société considérée, dans l’intervalle [- 6 mois ; +12 mois] autour de la date d’introduction PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC = 1 si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs des dirigeants Secteur : variable binaire égale à 1 si la société appartient au secteur des NTIC, à 0 sinon Chapitre 5 201 Le tableau 5.8 permet d’observer l’influence de la procédure d’introduction sur la présence ou non de prévisions chiffrées dans le prospectus, l’erreur de prévision du dirigeant et la sous-évaluation des titres. Procédure Y=0 Y=1 Total Y=0 Y=1 Erreur-dirigeant moyenne Erreur-dirigeant médiane N Procédure RIA moyenne CD-OPF / OPM-PG CD 0 1 1 0% 100% 0.148 0.148 1 CD -0.018 diff. moyennes -0.242 OPF 8 10 18 44% 56% 1.061 0.0256 7 OPF 0.0935 t -2.41 OPM 16 50 66 24% 76% 0.856 -0.0121 49 OPM 0.269 signif. 0.017 PG 26 28 54 48% 52% 1.590 -0.0225 25 PG 0.375 N 19/120 Total 50 89 139 36% 64% 1.102 82 Tab. 5.8 – Impact de la procédure sur la publication de prévision et la sousévaluation CD désigne la cotation directe ; OPF l’offre à prix ferme ; OPM l’offre à prix minimal et PG le placement garanti. Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions de résultat chiffrées Erreur-dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé| RIA est la rentabilité initiale anormale 202 Chapitre 5 Le tableau 5.9 permet d’apprécier la valeur informative des prévisions publiées par le dirigeant dans le prospectus d’introduction. Nous calculons ainsi l’erreur de prévision du dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé|. Sur le modèle de Cheng et Firth (2000), nous déterminons ensuite l’erreur commise avec un modèle naı̈f d’estimation, où le bénéfice prévu pour l’année t0 est supposé égal au résultat réalisé l’année précédente (Rt−1 ). Si Rt0 est le BPA réel de l’exercice t0 , Rt − Rt0 Erreur − modele.naif = −1 | Rt0 | Nous rapportons enfin l’erreur commise avec le modèle naı̈f à celle du dirigeant i considéré : SU P (P i , t0 ) = Ln( Rt0 − Rt−1 2 ) Rt0 − P i t0 où P i t0 est le BPA prévu par le dirgeant i à l’horizon t0 . Si le numérateur est supérieur au dénominateur, alors les estimations du modèle naı̈f sont moins précises que celles du dirigeant. Lorsque le SUP est positif, l’investisseur a donc intérêt à utiliser les prévisions du dirigeant. Nous testons enfin si les erreurs de prévision moyennes et médianes du dirigeant et du modèle naı̈f diffèrent significativement de 0, puis l’une de l’autre. σ désigne l’écart-type des erreurs de prévision. N Moyenne t Sig. Médiane Z Sig. σ diff. moyennes t Sig. diff. médianes Z Wilcoxon Sig. N Erreur-dirigeant Erreur-modèle.naı̈f 82 114 1.10 0.069 2.86*** 0.34 0.005 0.73 0.0008 -0.17 -1.05 -5.74 0.29 0.00 3.49 2.16 Erreurs dirigeant - modèle.naı̈f 1.02 3.41 0.001 -0.19 -3.94 0.00 82 Sup 82 -0.62 -1.4 0.16 -0.21 -1.27 0.20 3.63 Tab. 5.9 – Utilité des prévisions du dirigeant pour les investisseurs 1.0 0.208* 1.0 Taille 0.136 -0.008 0.053 1.0 flottant -0.140 -0.133** 0.031 -0.529** 1.0 α -0.128 -0.107 0.034 -0.206* 0.232** 1.0 Y Erreur dirigeant -0.232* 0.047 -0.117 0.204 -0.172 . 1.0 -0.013 0.034 0.140 0.015 -0.027 -0.102 0.117 1.0 Secteur -0.146 -0.117 -0.036 0.038 -0.035 0.008 -0.012 0.062 1.0 AMP 0.216 -0.112 0.019 -0.169 0.111 . -0.101 0.008 -0.268* 1.0 PREC 0.123 -0.10 0.186* -0.003 0.187* 0.019 -0.183 -0.127 -0.018 -0.093 1.0 Procédure -0.101 -0.101 0.097 -0.057 0.177* -0.033 -0.010 0.153 -0.001 0.012 0.217* 1.0 RIA Tab. 5.10 – Corrélations bi-variées : Rhô de Spearman - chapitre 5 PER PER -0.043 -0.052 1.0 .041 .371** .134 .078 -.314** -.177 -.015 .189 .019 -.134 .046 .319** 1.0 NAF .092 .190 .035 .176 -.277 -.040 .417** -.037 -.158 -.263 .103 .220 .115 1.0 disper. Erreur analystes -.032 .133 .128 .156 -.181 .072 .505** .108 -.146 -.092 .003 .051 -.040 .349** 1.0 Les corrélations de Y avec l’erreur des prévisions des dirigeants ou avec leurs précisions ne peuvent être calculées dans la mesure où pour ces variables Y vaut 1 par définition. Erreur-analystes : (BPA prévu par les analystes non affiliés au chef de file à un an - BPA réalisé) / |BPA réalisé| Dispersion : écart-type des estimations à un an des analystes non affilié au chef de file, normé par le BPA réalisé NAF : nombre d’analystes non affiliés au chef de file, suivant la société dans l’intervalle [-6 mois, +12 mois] autour de la date d’introduction RIA : rentabilité initiale anormale Procédure : l’offre à prix minimal et le placement sont codés 1 ; l’offre à prix ferme et la cotation directe sont codées 0 PREC : variable dichotomique mesurant la précision des prévisions du prospectus. P REC = 1 si Erreur − dirigeant ≤ σm . σm est l’écart-type des erreurs des dirigeants AMP : variable dichotomique égale à 1/0 si l’activité du marché primaire est forte/faible Secteur : variable binaire égale à 1 si la société appartient au secteur des nouvelles technologies de l’information et de la communication, à 0 sinon Erreur-dirigeant : (BPA prévu par le dirigeant à un an - BPA réalisé) / |BPA réalisé| Y : variable dichotomique égale à 1 si la société a publié dans son prospectus des prévisions de résultat chiffrées α : pourcentage du capital conservé par le dirigeant après l’introduction en bourse flottant : pourcentage du capital introduit en bourse PER : rapport du prix d’offre définitif sur le BPA de l’exercice précédant l’introduction Taille : logarithme népérien du chiffre d’affaires l’année précédant l’introduction Âge : âge de la société au moment de son introduction en bourse Âge taille PER flottant α Y Err-dirigeant Secteur AMP PREC Procédure RIA NAF Dispersion Err.-analystes Âge Chapitre 5 203 204 Chapitre 5 Chapitre 6 L’intermédiation de la production d’information Introduction Au moment d’une introduction en bourse, les informations sont inégalement réparties entre les protagonistes. Le candidat à l’introduction est naturellement le mieux informé de ses perspectives. Il est de surcroı̂t inconnu du marché, tant qu’il n’est pas public. Les investisseurs ne distinguent donc pas facilement sa qualité. Ces asymétries d’information entre la société et les investisseurs sont coûteuses. Elles peuvent conduire les investisseurs à réaliser de mauvaises affaires. Rock (1986) montre ainsi que les titres surévalués, c’est-à-dire dont le prix d’offre excède le premier cours coté, sont servis en priorité aux investisseurs les moins bien informés. La société pâtit également de la dissymétrie d’information, à travers une augmentation des coûts d’introduction (Chemmanur et Fulghieri, 1999). À terme, elle risque même de ne plus trouver les capitaux nécessaires à ses besoins de financement sur le marché primaire (Akerlof, 1970). La troisième partie de cette thèse s’interroge sur les moyens d’améliorer l’information disponible sur les introductions en bourse. La recherche théorique offre différentes solutions. Dans son modèle, Rock (1986) suppose les asymétries d’information données. Il avance qu’une sous-évaluation délibérée des titres introduits en atténue les inconvénients. De cette manière, la société dédommage et retient sur le marché les investisseurs les moins bien informés. En revanche, elle ne rétablit pas l’équilibre informationnel.Le modèle de Rock (1986) pallie donc les asymétries informationnelles mais ne les résorbe pas. 205 206 Chapitre 6 Au contraire, les modèles de signalisation visent à enrichir l’environnement informationnel de la société introduite, c’est-à-dire l’ensemble des informations à la disposition des investisseurs. Dans ce cadre, le dirigeant indique au marché la réelle valeur de sa société en émettant des signaux aux formes diverses. Le chapitre 5 envisageait l’hypothèse d’une signalisation par publication d’informations de qualité, non demandées par la loi. Nous montrons que l’acte volontaire de publication n’est pas informatif pour les investisseurs ou les analystes. Par contre, la précision des prévisions publiées volontairement par le dirigeant semble bien réduire l’incertitude des investisseurs sur le prix d’équilibre anticipé, et donc le coût du capital pour la société. Mais ce résultat ne s’observe que pour les sociétés les plus jeunes, des nouvelles technologies de l’information et de la communication, introduites entre 1966 et 2000 via une offre à prix minimal ou un placement. Il n’atteste pas que la publication de prévisions précises, non exigées par la loi, permet de discriminer les firmes de qualité des autres, et donc de résoudre le problème de sélection adverse. Ibbotson (1975), Grinblatt et Hwang (1989), Allen et Faulhaber (1989) ou Welch (1989) considèrent que l’actionnaire principal peut signaler aux investisseurs la qualité de son entreprise en sous-évaluant les actions introduites. Ginglinger et Faugeron-Crouzet (2001) testent l’hypothèse d’une signalisation par sous-évaluation, sur un échantillon de 292 sociétés introduites sur le Second Marché entre 1983 et 1994. Elles obtiennent des résultats mitigés. Les modèles de signalisation ne semblent donc vérifiés que partiellement sur le marché primaire français. Le candidat à l’introduction ne parvient à informer lui-même efficacement le marché de sa qualité. Chemmanur (1993) propose une solution alternative au problème de sélection adverse. Il montre dans son modèle, que la société introduite en bourse peut inciter les outsiders à informer le marché de sa vraie valeur en sous-évaluant le prix d’offre. Tout se passe comme si la société déléguait l’émission du signal aux producteurs externes d’information (les analystes). Mais elle en assume le coût, via la sous-évaluation du prix d’offre. Le marché secondaire du titre intègre le signal, à savoir les informations pertinentes diffusées par les analystes. Le contexte informationnel et boursier est alors favorable à une nouvelle émission de titres sur le marché primaire. À cette occasion, les actionnaires originaires espèrent à cette occasion céder leurs titres à un prix plus élevé qu’en l’absence de sous-évaluation. Le chapitre 6 teste empiriquement le modèle de Chemmanur, en trois temps. Le modèle est exposé et son originalité soulignée dans la section 6.1. Chapitre 6 207 La section 6.2 décrit la méthodologie adoptée et les variables utilisées. Elle définit notamment la notion de «richesse de l’environnement informationnel» et en propose plusieurs indicateurs de mesure. La présentation de l’échantillon conclut cette deuxième section. Enfin, la section 6.3 analyse les résultats obtenus. 6.1 Le cadre théorique : présentation et implications Dans un premier temps, nous développons le modèle de Chemmanur et mettons en lumière son originalité par rapport aux modèles de signal et de «collecte de l’information privée». Dans un second temps, nous formalisons le système d’hypothèses. 6.1.1 Le modèle de Chemmanur (1993) Présentation Le modèle repose sur les hypothèses suivantes. Il existe, au moment de l’introduction, de fortes asymétries d’information entre les investisseurs et la société émettrice. L’introduction peut être de qualité (VH ) ou non (VL ). Seuls les insiders savent le type de leur société. Les outsiders ne connaissent que la probabilité que l’entreprise soit de valeur (α). Tous les agents sont indifférents au risque. Une seule société est supposée s’introduire en bourse. L’introduction se déroule selon la procédure de prise ferme : elle a lieu même si toutes les actions ne se sont pas vendues. La banque introductrice achète les actions invendues au prix d’offre F . L’actionnaire-dirigeant fixe le prix d’offre en fonction du prix affiché par l’autre type de firme, et de la valeur d’équilibre anticipée par les investisseurs. À la date de l’introduction (t0 ), il a intérêt à fixer le prix d’offre le plus élevé possible. Il permet ainsi aux actionnaires de vendre moins de titres en t0 et plus en t1 . Mais un prix trop élevé dissuade les outsiders de souscrire et/ou de produire des informations sur la société. Sans ces informations, le marché ne peut distinguer la qualité de la société. Les anciens propriétaires ne peuvent alors espérer céder leurs titres restants à un prix intéressant sur le marché secondaire. Le prix d’offre doit donc être suffisamment sous-évalué pour rémunérer les outsiders de leur production d’information. Une fois le prix annoncé, l’actionnaire-dirigeant ne peut le modifier pour l’ajuster à la 208 Chapitre 6 demande. L’investisseur peut acheter les titres introduits ou des actifs sans risque. Il peut, ou non, s’informer sur le candidat à l’introduction. Ses choix dépendent du niveau du prix d’offre. Si le prix d’offre est excessif (supérieur à F̄ ), aucun investisseur ne produit d’information ni ne participe à l’introduction. En-deçà d’un certain seuil (F ), il souscrit sans rechercher de plus amples informations. Quand F < F < F̄ , il collecte des informations supplémentaires sur la société. Il ne participe à l’opération que s’il en espère un gain supérieur à celui d’une souscription non informée. À l’équilibre, l’actionnaire-dirigeant choisit le prix d’offre qui maximise le produit espéré des deux cessions, lors de l’introduction (t0 ) puis ultérieurement (t1 ). En l’absence d’information, les investisseurs externes évaluent le prix des titres sur le marché secondaire à αVH +(1−α)VL . α est la probabilité a priori que l’entreprise soit de valeur. Par conséquent, l’équilibre de sous-évaluation apparaı̂t lorsque les insiders fixent un prix d’offre inférieur à αVH +(1−α)VL . Ils arbitrent alors en faveur de la production d’information. Le prix d’équilibre intègre les informations produites par les investisseurs et correspond aux cash-flows attendus par action. Sa valeur informative est supérieure à celle des informations détenues par un seul investisseur. Plus il agrège d’informations, plus il approche la «vraie» valeur de la société et plus le profit marginal d’un nouveau producteur d’information est faible. À l’équilibre, la sous-évaluation décroı̂t avec le montant S de l’offre et la probabilité a priori que l’entreprise soit de valeur (α). Une opération de grande taille ou un α élevé suscitent naturellement l’intérêt des investisseurs, sans que la société ait besoin de sous-évaluer son prix d’offre. Elles incitent donc les insiders à plutôt se désengager lors de l’introduction. Le prix d’offre à l’équilibre et le nombre de producteurs d’information diminuent si le coût de production de l’information (C) augmente. Les investisseurs choisissent de produire de l’information quand le prix d’offre à l’équilibre est faible. À l’équilibre, le nombre de producteurs d’information croı̂t donc avec la sous-évaluation. La sous-évaluation augmente avec le taux de souscription. Une introduction sur-souscrite signifie que de nombreux outsiders l’évaluent favorablement. Elle est bien cotée sur le marché secondaire. Chapitre 6 209 Originalité Nous mettons en évidence l’originalité de l’approche de Chemmanur (1993) par rapport aux modèles de signal puis de collecte de l’information privée. Chemmanur (1993) est généralement rattaché aux modèles de signalisation par sous-évaluation (Spiess et Pettway, 1997, p. 968). Dans leur lignée, il envisage la sous-évaluation comme solution aux asymétries d’information. Il conçoit également l’information comme réductrice d’incertitude, endogène et imparfaite (Arrow, 1996, p. 119-128). Il adopte la même séquence d’événements. À la date de l’introduction, les actionnaires-dirigeants cèdent une partie de leurs titres à un prix sous-évalué. Ils envisagent d’ores et déjà d’augmenter le capital de la société après l’introduction. Dans un deuxième temps, le marché secondaire intègre l’information sur la qualité de la firme. Enfin, les anciens propriétaires reviennent sur le marché. Ils y cèdent le reste de leurs actions à un prix supérieur à ce qu’il aurait été sans sous-évaluation initiale. Ils récupèrent ainsi le coût de la sous-évaluation. Toutefois, Chemmanur se démarque des modèles de signalisation par sousévaluation. Dans son modèle, les investisseurs externes, et non le candidat à l’introduction, détiennent les informations pertinentes sur la valeur de la société. La sous-évaluation n’est pas un signal1 crédible de qualité. Elle n’est pas en elle-même une information. La sous-évaluation a pour Chemmanur une valeur pécuniaire. Mais elle ne se résume pas à des «dommages et intérêts» comme chez Rock (1986). Elle est plutôt une incitation monétaire à la production externe d’information sur la société. Le modèle de Chemmanur peut également paraı̂tre, a priori, proche des modèles dits de «collecte de l’information privée». Dans leurs modèles, Benveniste et Spindt (1989), Sherman et Titman (2002) supposent que les investisseurs sont mieux informés de la réelle valeur de la société que la banque introductrice et la société. L’introducteur incite alors ces investisseurs à révéler leurs informations privées en leur allouant prioritairement des titres sous-évalués. Benveniste et Spindt (1989), Sherman et Titman (2002) assignent donc la même fonction à la sous-évaluation que Chemmanur (1993). La société sous-évalue délibérément le prix d’offre pour inciter les investisseurs avertis à diffuser leurs informations. Ces informations privées permettent au banquier introducteur et à la société d’anticiper précisément 1 Nous ne partageons donc pas la lecture qu’ont Spiess et Pettway (1997) du modèle de Chemmanur. Dans le modèle de Chemmanur, les informations produites par les outsiders, et non la sous-évaluation, nous semblent permettre la détermination d’un prix révélateur de la valeur de l’entreprise. 210 Chapitre 6 le prix d’équilibre chez Sherman et Titman (2002). Chez Chemmanur (1993), elles visent à révéler au marché la valeur de la société. Autrement dit, elles constituent un signal de qualité dans le modèle de Chemmanur, et non dans celui de Sherman et Titman. Par ailleurs, seules les sociétés de qualité ont intérêt à faire parler d’elles et donc à sous-évaluer les titres introduits dans le modèle de Chemmanur. Selon Sherman et Titman (2002), les sociétés les plus risquées ou les plus jeunes devraient s’avérer les plus sous-évaluées. Elles ont en effet besoin des informations privées des investisseurs participant au placement, pour réduire l’incertitude sur le prix d’équilibre et la volatilité ex ante des titres. 6.1.2 Implications Il résulte du modèle de Chemmanur les propositions suivantes. Sous-évaluation et richesse de l’environnement informationnel Selon le modèle de Chemmanur, l’actionnaire-dirigeant peut inciter les investisseurs à produire des informations en sous-évaluant le prix d’introduction. Il permet ainsi à la société d’enrichir son environnement informationnel. De même, dans le modèle d’Aggarwal et al. (2002) prolongeant celui de Chemmanur, la sous-évaluation des titres attire l’attention des analystes et médiatise l’opération. Elle crée un «information momentum 2 » c’est-à-dire une intensification des flux informationnels sur la société. Nous testons donc l’hypothèse suivante, faisant de la sous-évaluation l’un des déterminants de la richesse de l’environnement informationnel : H1 - La sous-évaluation des titres introduits encourage les investisseurs à produire des informations sur la société. Asymétrie d’information et sous-évaluation En présence de faibles asymétries d’information, les investisseurs peuvent évaluer la société à un coût raisonnable et non dissuasif. La société n’a alors pas besoin d’utiliser le mécanisme coûteux de la sous-évaluation. Par contre, lorsque les informations sont rares, leur collecte est coûteuse pour les investisseurs. Ces derniers ne produisent d’information qu’en contrepartie d’une incitation monétaire, la sous-évaluation. La sous-évaluation devrait ainsi croı̂tre avec le coût de production de l’information, ou corollairement le 2 La notion de momentum est empruntée aux sciences physiques. Le momentum est le produit d’une masse par une accélération. Chapitre 6 211 niveau d’asymétrie d’information. Nous déduisons donc l’hypothèse suivante du modèle de Chemmanur : H2- La sous évaluation augmente avec le coût de production de l’information pour les investisseurs. Sous-évaluation et augmentation ultérieure de capital Dans le cadre du modèle de Chemmanur, la société peut agir sur son environnement informationnel en sous-évaluant le prix d’introduction. Cette sousévaluation représente un manque-à-gagner pour les anciens propriétaires. Aussi ne cèdent-ils qu’une partie de leurs actions au moment de l’introduction. Grâce aux informations produites par les investisseurs, ils espèrent que le marché secondaire cotera la société à sa vraie valeur. Ils pourront alors vendre leurs titres restants à un prix intéressant et récupérer le coût de la sous-évaluation. Mais l’augmentation de capital doit intervenir rapidement après l’introduction en bourse. Une mauvaise nouvelle peut en effet amener les investisseurs à réviser leur jugement sur la société. Les insiders perdraient dans ce cas le bénéfice de l’effort informationnel réalisé lors de l’introduction. Une forte sous-évaluation des titres introduits devrait donc s’ensuivre d’une émission d’actions peu après l’introduction. Nous testons l’hypothèse suivante, dans le cadre du modèle de Chemmanur : H3 - Les sociétés sont d’autant plus enclines à sous-évaluer leurs titres introduits qu’elles envisagent d’augmenter leur capital après l’introduction. Nous pouvons formuler autrement cette hypothèse : H3 bis- La probabilité d’une augmentation de capital post introduction croı̂t avec la sous-évaluation des titres introduits. Production externe d’information et performances à long terme Dans le modèle de Chemmanur3 , les informations diffusées par les investisseurs informés révèlent au marché la qualité de la société. Elles signalent efficacement la valeur de la société introduite. En effet, une société ne gagne à se faire connaı̂tre via les outsiders informés que si elle est de qualité. Une société contre-performante ne va pas sous-évaluer délibérément le prix d’introduction, pour que les investisseurs publient leurs informations privées et ternissent son image. Par conséquent, une relation positive entre la richesse de 3 Selon Healy et Palepu (2000, p. 3) également, les informations privées produites par des intermédiaires tels que les analystes ou les agences de notation, permettent de résoudre le problème de sélection adverse. 212 Chapitre 6 l’environnement informationnel d’une société et ses performances boursières à long terme est déduite du modèle de Chemmanur. Soit encore : H4- Plus une société suscite l’intérêt des investisseurs informés lors de son introduction, meilleures sont ses performances à long terme. Le schéma 6.1 récapitule le modèle théorique testé. Fig. 6.1 – Le modèle théorique testé dans le chapitre 5 6.2 Présentation de la méthodologie adoptée et des données Nous présentons successivement la méthodologie adoptée, l’origine des données, les variables utilisées et enfin l’échantillon. 6.2.1 La méthodologie adoptée D’après le modèle de Chemmanur, la sous-évaluation initiale permet à la société d’enrichir son environnement informationnel. Elle croı̂t par ailleurs Chapitre 6 213 avec les asymétries d’information. Elle incite ensuite la société à émettre de nouvelles actions rapidement après l’introduction. Enfin, les informations diffusées par les analystes financiers sont supposées révéler la qualité de la société. Richesse de l’environnement informationnel au moment de l’introduction et performances boursières à long terme devraient donc être reliées positivement. Plusieurs outils permettent de vérifier ces prédictions. Des tests univariés non paramétriques différencient la sous-évaluation selon le niveau d’asymétrie d’information, puis la réalisation (ou non) d’une émission ultérieure d’actions. Des régressions multivariées sont ensuite proposées. La richesse informationnelle puis la sous-évaluation et enfin les performances boursières à long terme constituent les variables dépendantes. Les variables explicatives retenues permettent de tester les implications du modèle de Chemmanur ou représentent des variables de contrôle. Enfin, une régression logistique binaire explique la probabilité d’un retour sur le marché primaire après l’introduction. 6.2.2 L’origine des données La base d’I/B/E/S a fourni les prévisions des analystes, les BPA réels un an après l’introduction et le nombre d’analystes suivant les sociétés de l’échantillon. Les caractéristiques de l’émetteur et de l’émission sont extraites du prospectus d’introduction. Nous avons relevé les dates des décisions d’augmentation de capital dans la base d’informations financières de la COB (Commission des Opérations de Bourse). Enfin, les performances boursières sont calculées à partir des données d’Euronext. 6.2.3 Les variables retenues La richesse informationnelle Nous définissons le concept de richesse de l’environnement informationnel, puis présentons ses indicateurs de mesure. Selon Chemmanur, seules les informations produites par les investisseurs indiquent au marché la qualité du candidat à l’introduction. Les analystes financiers indépendants du chef de file peuvent être considérés comme représentatifs des investisseurs (Derrien et Degeorge, 2001). Par ailleurs, le marché évalue la société au regard de ses performances futures anticipées. Il a donc 214 Chapitre 6 essentiellement besoin de prévisions (Firth, 1998). Nous limitons donc l’environnement informationnel aux prévisions émises par les analystes non affiliés au chef de file. La richesse est ainsi définie littéralement4 : «1 - possession de grands biens ou d’argent en grande quantité 2 - caractère de ce qui a un grand prix, une grande valeur ou présente un grand intérêt 3 - caractère de ce qui contient beaucoup d’éléments ou de nombreux éléments de grande importance ». La richesse est associée à l’abondance. Elle a une dimension quantitative. Nous qualifions l’environnement informationnel de riche si de nombreuses informations sont disponibles sur le candidat à l’introduction. La richesse est également liée à la valeur. Elle revêt une dimension qualitative. Les prévisions des analystes sont informatives si elles sont exactes et homogènes. Autrement dit, elles doivent traduire le plus fidèlement et objectivement possible l’avenir de l’entreprise. Et la valeur anticipée de la société doit faire l’objet d’un consensus. En conséquence, la richesse de l’environnement informationnel désigne la quantité et la qualité des prévisions émises par les analystes indépendants du chef de file sur la société introduite. Des prévisions de qualité anticipent correctement les perspectives de l’entreprise et les rendent visibles pour tout investisseur. Les variables ci-dessous mesurent la richesse de l’environnement informationnel. Les prévisions des analystes réduisent l’incertitude des investisseurs sur l’évolution de la société si elles sont abondantes, exactes et consensuelles. À chacun de ces critères est associé un indicateur de mesure. NAF : nombre d’analystes indépendants du chef de file qui suivent la société sa première année de vie boursière. Il approche la quantité d’informations disponibles sur l’émetteur (Baginski et Hassell, 1997 ; Hope, 2002). Dans la littérature, la taille est souvent utilisée comme variable subrogée de l’information non comptable disponible (Zéghal, 1981). Or la société comme les analystes produisent des informations non comptables. Nous ne voulions appréhender que la quantité d’informations produites par les investisseurs/analystes car elles-seules signalent la qualité de la société dans le modèle de Chemmanur. Erreur-analystes-NCF : erreur moyenne de prévision des analystes indépendants du chef de file. Elle est égale au rapport : (BP A prévu - BP Areel ) / |BP Areel | Elle mesure la précision des prévisions des analystes (Keasey et McGuinness, 1991 ; Firth et Smith, 1992 par exemple). Les prévisions sont formulées à l’horizon d’un an ; au cours de la première année de cotation du 4 Le Petit Robert, dictionnaire de la langue française, édition 2001. Chapitre 6 215 titre, avant l’arrivée de nouvelles informations5 . Dispersion-NCF : écart-type des estimations des analystes non affiliés au chef de file, normé par la valeur absolue du BPA réalisé. Il mesure la divergence d’opinion des analystes sur une société (Fontowicz, 1999). Dans le reste de l’étude, ces variables seront notées sans le suffixe «NCF» par souci de concision. À titre complémentaire, nous avons défini des indicateurs globaux de richesse (Rich). La richesse dépend de la quantité et de la qualité des prévisions diffusées sur l’introduction en bourse. Elle croı̂t avec le nombre d’analystes financiers qui suivent la société introduite. Elle décroı̂t avec la dispersion des estimations des analystes, ainsi qu’avec leur erreur moyenne de prévision. Les indicateurs sont construits de sorte à s’interpréter facilement comme des fonctions croissantes de la richesse de l’environnement informationnel : naf 2 |erreur| ∗ disper = 2naf ∗ − erreur∗ − disper∗ = naf ∗ 2 − erreur∗ disper∗ naf ∗ 2 ) = ln( erreur∗ disper∗ Rich1 = Rich2 Rich3 Rich4 Les étoiles indiquent que les variables sont réduites entre 0 et 1. Rich2 , Rich3 et Rich4 sont relatifs à l’échantillon considéré, contrairement à Rich1 . Ils ne permettent pas de comparer la richesse informationnelle de deux échantillons distincts. Autres variables Nous précisons les autres variables retenues dans nos tests. RIA : rentabilité initiale anormale (ou sous-évaluation) d’un titre i. Elle se C c i,t0 Ibc t0 calcule comme suit : riai = P OD − où C c i,t0 est le cours de clôture du Ibc t0 −1 i titre i le jour de l’introduction t0 et P ODi le prix d’offre définitif du titre. Ibt est la valeur de l’indice boursier SBF 250 à la date t. raac : rentabilités anormales achat-conservation. Elles sont calculées dix jours de bourse après le jour de l’introduction, par capitalisation des rentabilités quotidiennes anormales, selon l’expression : raaci τ,T = [ 5 T Q t=τ (1 + rai,t )] − 1 En moyenne, les sociétés de l’échantillon publient leurs résultats onze mois après leur introduction en bourse. 216 Chapitre 6 où τ est le nj eme jour après l’introduction en bourse et T le dernier jour de la période considérée. rai,t est la rentabilité anormale de la société i à la date t. Elle s’obtient par différence entre la rentabilité du titre de la société et une rentabilité normative estimée à partir de l’indice SBF 250 : rai,t = ri,t − rnt . Les variables suivantes mesurent le niveau d’asymétrie d’information entre l’entreprise et les investisseurs. Certaines sont significativement corrélées (voir le tableau 6.14 en annexe du chapitre 6). Nous introduisons donc sélectivement les variables d’asymétrie dans les modèles de régression. Taille : logarithme népérien du chiffre d’affaires de la société l’année précédant son introduction. Il mesure la taille de la société. Le nombre d’informations disponibles sur une société augmente avec sa taille (Zéghal, 1981). Montant : montant introduit en bourse, exprimé en millions de francs. Il détermine, entre autres, l’intérêt de la communauté financière pour l’opération (Chemmanur, 1993). Le niveau d’asymétrie d’information et le coût de production de l’information pour les outsiders devraient donc décroı̂tre avec la taille de l’introduction. PER : rapport du prix d’offre définitif sur le bénéfice par action de l’année précédant l’introduction en bourse. Les sociétés de croissance présentent des PER élevés. L’incertitude et le coût de production de l’information devraient donc être positivement corrélés au PER. Secteur : variable dichotomique prenant la valeur 1 si la société appartient au secteur des nouvelles technologies de l’information et de la communication (NTIC). Nous supposons l’asymétrie moindre pour les firmes relevant de secteurs traditionnels. Marché : variable binaire égale à 1 si la société s’introduit sur le Second Marché (SM), et à 0 sur le Nouveau Marché (NM). Sur le Nouveau Marché, les sociétés sont plutôt jeunes et en phase de croissance. Elles s’introduisent pour financer des projets d’investissement risqués, complexes et à rentabilité incertaine. Elles sont associées à de plus fortes asymétries. Les variables ci-dessous indiquent l’émission ou non d’actions après l’introduction. AUG et ACAP : indicateurs d’augmentation de capital. Ils valent 0 si la société n’a pas augmenté son capital depuis son introduction en bourse et sur la période étudiée. Ils prennent la valeur 1 si elle a émis des actions dans les deux ans (AUG) ou l’année (ACAP) suivant sa cotation. Les sociétés pour lesquelles AUG ou ACAP valent un, sont supposées plus sous-évaluées initialement que les autres. Chapitre 6 6.2.4 217 L’échantillon Formation de l’échantillon Nous avons retenu les sociétés introduites sur le Second Marché entre le premier janvier 1994 et le 30 juin 2000, ou sur le Nouveau Marché entre le premier janvier 1996 et le 30 juin 2000, dont le prospectus définitif était consultable et dont des analystes financiers indépendants avaient estimé le BPA à venir. Compte tenu de ces contraintes, l’échantillon comprend 160 sociétés. 107 appartiennent au Second Marché et 53 au Nouveau Marché. Description de l’échantillon Le tableau 6.1 rapporte les statistiques descriptives des variables utilisées dans l’étude empirique, sur l’échantillon global puis par marché. Seules les différences de moyennes significatives y sont incluses. Variables Âge Taille PER Investissement Dettes Montant Flottant RIA Naf Erreur-analystes Dispersion Définition variables date intro. N - date création société ln(chiffre d’affaires(N-1)) prix intro / BPA(N-1) inv. prévus / total bilan(N-1) dettes(N-1) / total bilan(N-1) montant introduit en MF en % rent. initiale anormale nombre analystes suivant société erreur prévision analystes écart type prév. analystes / |BP Areel | N 160 160 160 155 160 160 160 160 160 160 116 Moyenne 25.3 5.35 32.4 22.9 52.2 153 22.6 0.296 2.99 0.455 0.500 Médiane 13.5 5.23 19.9 10.1 54.0 60.9 20.0 0.144 2.00 0.00 0.090 écart-type 32.2 1.55 178 30.6 22.5 300 12.6 0.944 2.48 2.04 2.06 RICH1 RICH2 RICH3 2naf ∗ − erreur ∗ − disper∗ naf ∗2 − erreur ∗ disper ∗ 116 116 116 2.84 0.311 0.103 3.10 0.177 0.0275 1.42 0.461 0.18 RICH4 ln( erreur∗ disper∗ ) 1.84 2.07 1.07 N variables Âge Taille PER investissement dettes Montant introduit Flottant RIA Âge Taille investissement dettes Flottant naf 2 |erreur|∗disper naf ∗2 Moyenne 8.72 4.36 53.2 48.8 41.7 155 27.1 0.292 Dif. moyennes -24.8**** -1.49**** 38.2**** -15.4**** 6.62**** Nouveau Marché 53 Médiane 7.00 4.33 38.9 43.8 38.6 69.9 27.7 0.145 Statistique t -4.90 -6.01 8.94 -4.16 3.60 écart-type 5.99 1.53 310 39.7 26.0 219 9.55 0.442 Sig. 0.000 0.000 0.000 0.000 0.000 Second Marché 107 Moyenne Médiane écart-type 33.5 21.0 36.5 5.84 5.80 1.32 22.2 17.6 17.2 10.6 7.10 12.9 57.0 59.9 19.0 151 49.4 334 20.4 16.8 13.3 0.298 0.143 1.11 Tab. 6.1 – Statistiques descriptives calculées sur l’échantillon du chapitre 6 Nous présentons successivement les caractéristiques des émetteurs, des introductions en bourse et de leur environnement informationnel. 218 Chapitre 6 • Les émetteurs Les sociétés de l’échantillon ont en moyenne 25 ans quand elles s’introduisent en bourse. Elles sont assez grandes (32 millions d’euros de chiffre d’affaires) et endettées (plus de 50% du total du bilan). Leurs projets d’investissement s’élèvent en moyenne à 23% de l’actif total. Les sociétés du NM sont significativement plus jeunes, plus petites et moins endettées que celles du SM. Elles ont 8 ans en moyenne au moment de leur introduction, contre 33 pour celles du SM. Leur chiffre d’affaires moyen est de 12 millions d’euros, rapportés à 52 millions pour celles du SM. Elles sont endettées à hauteur de 42% du bilan total, contre 57% pour les sociétés du SM. Enfin, leurs projets d’investissement représentent 49% du bilan total, contre seulement 10% pour les sociétés du SM. • Les émissions Les sociétés ont levé en moyenne 23 millions d’euros lors de leur introduction, soit 20% de leur capital pour celles du SM et 27% pour celles du NM. 96% des sociétés du NM ont utilisé la procédure de placement. Sur le Second Marché, 49% des sociétés ont eu recours à un placement et 38% à une offre à prix minimal. Le prix d’offre des sociétés de l’échantillon paraı̂t en moyenne sous-évalué de 29% par rapport au premier cours coté. Derrien et Degeorge (2001) observent également à une rentabilité initiale anormale de 13.23%, calculée sur 264 admissions à la cote française entre 1992 et 1998. Chahine (2001) obtient quant à lui une rentabilité initiale anormale de 10.92% à partir d’un échantillon de 168 introductions sur le Second Marché et le Nouveau Marché entre 1996 et 1998. L’échantillon de Schatt et Roy (2001) comprend 192 introductions sur les Second et Nouveau Marchés entre 1996 et 2000. Leur prix d’offre apparaı̂t en moyenne sous-évalué de 2.92% par rapport au cours de clôture de la première séance. Le tableau 6.2 reporte les rentabilités achat-conservation des titres de l’échantillon, cumulées sur trois, six, douze, vingt-quatre ou trente-six mois après le dixième jour de bourse. Raac et RAC désignent respectivement les rentabilités ajustées ou non de celles de l’indice SBF 250. Le test t de Student peut être significatif au seuil de 10% (*), 5% (**) ou 1% (***). La figure 6.2 représente les rentabilités anormales achat-conservation, cumulées sur 750 jours à compter du dixième jour de cotation et calculées avec différentes rentabilités normatives (MIDCAC, SBF SM, SBF 250). Les sociétés de l’échantillon ne semblent pas sous- ou sur-performer significativement l’indice SBF 250 leurs trois premières années de cotation. Eu égard aux Kurtosis et Skewness très élevés, l’interprétation des résultats Chapitre 6 219 RAAC Moyenne Médiane Kurtosis Skewness Écart-type t Student Sig. N RAC Moyenne Médiane Kurtosis Skewness Écart-type t Student Sig. N 3 mois -0.006 -0.035 0.993 3.79 0.250 -0.295 0.769 160 3 mois -0.021 -0.029 -1.05 7.60 0.267 -0.975 0.331 160 6 mois -0.009 -0.062 3.65 25.7 0.453 -0.233 0.816 160 6 mois -0.051 -0.043 -0.798 6.25 0.421 -1.492 0.138 160 12 mois 0.0021 -0.140 4.33 29.3 0.769 0.033 0.973 160 12 mois -0.097 -0.083 -0.597 5.47 0.626 -1.871* 0.063 160 24 mois 0.238 -0.319 5.42 34.1 2.11 1.182 0.240 121 24 mois -0.136 -0.165 0.807 2.67 0.558 -2.686*** 0.008 121 36 mois 1.27 -0.375 8.07 66.2 10.0 1.046 0.299 79 36 mois -0.217 -0.292 1.22 3.95 0.716 -2.695*** 0.009 79 Tab. 6.2 – Performances boursières à long terme pour différentes périodes calculées sur l’échantillon du chapitre 6 du t de Student doit rester prudente. En nombre, les raac sont toujours négatifs, indépendamment de la période d’observation. En moyenne, les rentabilités anormales achat-conservation deviennent positives douze mois après le dixième jour de cotation. Mais elles ne diffèrent pas statistiquement de zéro. Seules les rentabilités achat-conservation non ajustées apparaissent significativement négatives dès la première année boursière. • L’environnement informationnel Trois analystes indépendants suivent en moyenne les sociétés de l’échantillon leur première année de cotation. Les sociétés cotées sur le marché secondaire américain sont nettement plus couvertes, avec une moyenne de 13.94 analystes par société (Bhushan, 1989). Sur notre échantillon, les analystes se trompent en moyenne de 45% dans leurs prévisions, par ailleurs très dispersées. Ils s’avèrent plutôt optimistes dans leurs estimations. Ce résultat est conforme aux travaux antérieurs. Chahine (2001) a également évalué la capacité prédictive des analystes suivant les introductions en bourse franèaises. Leurs prévisions à l’horizon d’un an après l’introduction excèdent en moyenne de 19%6 les réalisations. 6 Chahine calcule l’erreur de prévision de la manière suivante : (BP Areel BP Aprevu )/BP Aprevu . 220 Chapitre 6 Performances boursières des titres de l'échantillon 1,40 Rentabilité anormale achat conservation 1,20 1,00 MIDCAC 0,80 0,60 0,40 SBFSM 0,20 0,00 SBF250 -0,20 0 100 200 300 400 500 600 700 800 Nombre de jours après introduction en bourse Fig. 6.2 – Rentabilités anormales achat conservation des titres introduits en bourse En calculant le rapport (BP Areel - BP Aprevu )/Cours du titre, Derrien et Degeorge (2001) obtiennent une erreur moyenne à un an de -0.37% sur le marché primaire français ; Rajan et Servaes (1997), de -5.77% sur le marché primaire américain. 6.3 Les résultats de l’étude empirique Nous vérifions nos hypothèses sur l’échantillon de 160 sociétés, introduites sur le Nouveau Marché entre 1996 et 2000, ou le Second Marché entre 1994 et 2000. 6.3.1 Les résultats des tests univariés Nous mesurons l’influence du niveau d’asymétrie puis de la réalisation d’une augmentation de capital post introduction sur la richesse de l’environnement informationnel et la sous-évaluation. Nous observons enfin si la sous-évaluation incite les analystes à produire des informations, et la société à revenir rapidement sur le marché primaire. Chapitre 6 221 Impact du niveau d’asymétrie Nous supposons le degré d’asymétrie d’autant plus élevé que la société appartient au secteur des nouvelles technologies de l’information et de la communication (NTIC) ou au Nouveau Marché. Le tableau 6.3 récapitule les différences de moyennes significatives. Variables Définition variables Influence du secteur (autre que NTIC =0 - NTIC = 1) moyennes Dif. moyennes (0-1) naf 2 |erreur|∗disper Rich1 RIA rentabilité initiale anormale Variables Naf Disper Influence du marché (Nouveau Marché = 0 - Second Marché = 1) Définition variables moyennes Dif. Moyennes (0-1) nombre analystes suivant société 2.66/3.47 -0.81* écart type prév. analystes / |BP Areel | 0.975/0.250 0.725* Rich1 Rich4 naf 2 |erreur|∗disper naf ∗ 2 ln( erreur ∗ disper∗ ) 3.48/2.66 0.128/0.352 0.816*** -0.224** Stat. t Sig. N 2.61 -2.18 0.010 0.031 25/91 40/120 Stat. t -1.76 1.82 Sig. 0.082 0.071 N 53/107 40/76 1.90/3.33 -1.43**** -5.88 0.000 40/76 1.2967/2.092 -0.7952**** -3.853 0.000 40/76 Tab. 6.3 – Impact du secteur et du marché sur la sous-évaluation et la richesse de l’environnement informationnel D’après le tableau 6.3, les analystes sont significativement plus nombreux à suivre les introductions sur le Second Marché (3.5 en moyenne) que sur le Nouveau Marché (2.5 en moyenne). Leurs estimations sont également significativement moins dispersées quand elles portent sur les résultats des sociétés du Second Marché. L’environnement informationnel des sociétés du Nouveau Marché ou des NTIC apparaı̂t globalement moins riche, aux seuils respectifs de 1% et 0.1%. Le coût de production de l’information semble donc bien croı̂tre avec le niveau d’asymétrie d’information. Les tests univariés ne relient pas clairement le recours à la sous-évaluation à la présence de fortes asymétries d’information. Certes les sociétés des NTIC (secteur = 1) sont significativement plus sous-évaluées (35% en moyenne) que celles des autres secteurs (13% en moyenne). Mais la rentabilité initiale anormale n’est pas significativement plus forte pour les sociétés du Nouveau Marché que pour celles du Second Marché. Impact d’une émission subséquente d’actions L’émission ou non d’actions après l’introduction en bourse nous a permis de partitionner l’échantillon. 15 sociétés sont revenues sur le marché primaire leur première année de cotation ; 33 dans les vingt-quatre mois. 145 (respectivement 127) sociétés n’ont pas augmenté leur capital entre 1994 et 2000, ou bien l’ont fait plus d’un an (respectivement deux ans) après leur introduction. Nous comparons la richesse informationnelle, la sous-évaluation et 222 Chapitre 6 l’asymétrie d’information de ces groupes de sociétés (voir le tableau 6.4). Ne figurent que les différences de moyennes significatives. Variables Taille Naf Erreur RIA Variables RIA Non réalisation (=0) / Réal. (=1) d’une augm. de cap. un an après l’introduction définition variables Moyennes (0/1) Dif. moyennes (0-1) Stat. t ln(chiffre d’affaires(N-1)) 28.3/15.0 0.881* 1.744 nombre analystes suivant société 2.89/4.07 -1.17* -1.675 erreur prévision analystes 0.467/0.031 0.436* 1.87 rentabilité initiale anormale 0.223/0.801 -0.577** -2.25 Non réalisation (=0) / Réal. (=1) d’une augm. de cap. 2 ans après l’introduction définition variables Moyennes (0/1) Dif. moyennes (0-1) Stat. t rentabilité initiale anormale 0.221/0.582 -0.361** -1.973 Sig. 0.10 0.096 0.064 0.026 N 145/15 145/15 145/15 145/15 Sig. 0.05 N 127/33 Tab. 6.4 – Lien entre la réalisation d’une augmentation de capital post introduction, la sous-évaluation et la richesse de l’environnement informationnel Les sociétés ayant augmenté leur capital leur première année de cotation sont significativement plus petites que les autres, au seuil de 10%. Elles sont significativement plus suivies par les analystes (quatre en moyenne). Les analystes sont très précis quand ils anticipent les résultats de ces sociétés. Il se trompent significativement plus (au seuil de 10%) quand ils évaluent l’autre groupe de sociétés : leur erreur moyenne approche les 300%. L’émission subséquente de titres n’influence significativement ni l’écart-type des estimations des analystes, ni les critères globaux de richesse informationnelle (Rich). Sur notre échantillon, les sociétés ayant émis des actions douze ou vingtquatre mois après leur introduction apparaissent significativement plus sousévaluées (70% en moyenne) que les autres (22%). Ce résultat rejoint les prédictions du modèle de Chemmanur. Les sociétés ne récupèrent le coût de la sous-évaluation que si elles reviennent sur le marché primaire. Leur qualité n’est en effet révélée et intégrée que sur le marché secondaire. Seules les sociétés qui envisagent dès l’introduction un second appel au marché sous-évaluent leurs titres introduits. Nos observations sont conformes à celles de Faugeron-Crouzet et Ginglinger (2001). Leur échantillon comprend 292 introductions sur le Second Marché entre 1983 et 1994. Un quart ont augmenté leur capital dans les quatre ans. Ces sociétés sont significativement plus sous-évaluées que les autres, de l’ordre de 7%. Impact du degré de sous-évaluation Les sociétés de l’échantillon sont regroupées selon les niveaux de sousévaluation définis par Krigman et alii (1999) : moins de 0%, entre 0 et 10%, entre 10 et 60% et plus de 60%. La première classe compte 37 sociétés ; la seconde, 38 ; la troisième, 61 et la dernière 24. Le tableau 6.5 évalue la richesse de l’environnement informationnel des quatre groupes. Il indique également Chapitre 6 223 la proportion de chaque groupe ayant augmenté leur capital dans l’année ou les deux ans post introduction. N NAF Erreur-analystes Dispersion Définition variables effectifs nombre analystes suivant société erreur prévision analystes écart type prév. analystes / |BP Areel | Rentabilité initiale anormale (%) <0 [0 ; 10 ] [10 ; 60] > 60 37 38 61 24 2.30 2.55 3.36 3.79 0.821 0.709 0.245 0.019 0.214 0.33 0.569 1.45 − disper∗ naf ∗2 − erreur∗ disper∗ 2.74 0.162 0.045 2.88 0.216 0.055 2.98 0.443 0.158 2.99 0.444 0.118 1.63 0.054 0.16 1.73 0.0789 0.18 1.94 0.115 0.21 2.01 0.125 0.25 naf 2 |erreur|∗disper 2naf ∗ − erreur∗ RICH1 RICH2 RICH3 RICH4 Acap = 1 AUG = 1 ∗2 naf ln( erreur ∗ disper ∗ ) aug. cap. dans l’année post intro. aug. cap. dans les deux ans post intro. Tab. 6.5 – Influence du degré de sous-évaluation sur la richesse de l’environnement informationnel et la réalisation d’une augmentation de capital post introduction Nous observons que le nombre d’analystes suivant une société et donc, logiquement, l’écart-type de leurs estimations augmentent avec la sous-évaluation. Cependant, l’erreur moyenne de prévision des analystes diminue avec la sous-évaluation. Autrement dit, en présence d’une forte sous-évaluation, les prévisions sont plus nombreuses et plus dispersées. Mais les estimations optimistes et pessimistes semblent ici se compenser dans le calcul de l’erreur moyenne de prévision. Par conséquent, les prévisions des analystes apparaissent globalement plus précises, bien que plus hétérogènes. Les indicateurs de richesse Rich1 à Rich4 croissent avec la sous-évaluation. Enfin, le groupe des sociétés les plus sous-évaluées augmente plus fréquemment son capital dans l’année ou les deux ans suivant l’introduction que les autres groupes. Au total, la sous-évaluation des titres introduits semble inciter les analystes à diffuser des prévisions, et la société à émettre de nouvelles actions peu après l’introduction. 6.3.2 Les résultats des tests multivariés Sous-évaluation et richesse de l’environnement informationnel La richesse de l’environnement informationnel est régressée sur la rentabilité initiale anormale. Elle est mesurée par le nombre d’analystes suivant la société considérée (Naf), l’écart-type des estimations des analystes (Disper), l’erreur moyenne de prévision des analystes (Erreur), des critères naf 2 ; Rich2 =2naf ∗ − erreur∗ − disper∗ ). globaux (Rich1 = |erreur|∗disper 224 Chapitre 6 Les régressions sont menées sur l’échantillon total (160 observations), puis par marché d’introduction. Le tableau 6.6 donne les modèles les plus significatifs obtenus. Nous indiquons les t de Student entre parenthèses et précisons leur significativité par des étoiles (* (10%), ** (5%), *** (1%), **** (0.1%)). échantillon Constante RIA F R2 ajusté N Nouveau Marché et Second Marché Naf Disper Rich1 Rich2 2.815 3.436 3.14 9.2710−2 (14.0****) (0.854) (28.72****) (5.05) 0.582 10.08 0.224 2.5810−2 (2.85***) (2.28**) (1.84*) (1.701*) 8.14*** 5.202** 2.38* 2.89* 0.043 0.024 0.013 0.018 160 116 116 116 NM Naf 2.18 (6.59****) 1.645 (2.62**) 6.85** 0.101 53 SM Naf 3.00 (11.6****) 0.499 (2.208**) 4.88** 0.035 107 Tab. 6.6 – Explication de la richesse de l’environnement informationnel par la sous-évaluation Sur l’échantillon total ou scindé par marché, la quantité d’information diffusée sur le candidat à l’introduction augmente avec la sous-évaluation. Nous confirmons les résultats obtenus sur le marché américain. Par exemple, Chen et Ritter (2000) et Das et al. (2002) trouvent que les titres introduits les plus sous-évalués sont aussi les mieux couverts. Sur un échantillon de 2274 sociétés introduites entre 1975 et 1987, Rajan et Servaes (1997) montrent que la sous-évaluation détermine positivement et très significativement (β = 0.99, t=6.51) le nombre moyen d’estimations publiées par les analystes la première année de cotation. Sur l’échantillon d’Aggarwal et alii (2002), les titres sousévalués de 50% font l’objet d’1.44 recommandations supplémentaires d’analystes indépendants du chef de file, comparé aux sociétés non sous-évaluées. Sur nos 160 observations, les erreurs de prévision des analystes ne diminuent pas significativement avec le degré de RIA. Les indicateurs globaux de richesse sont positivement et significativement (au seuil de 10%) reliés à la sous-évaluation. Mais contrairement à nos anticipations, l’écart-type des estimations des analystes croı̂t avec la rentabilité initiale anormale. Le pouvoir explicatif des modèles est faible, de 1.3% à 4.3%. Toutefois les F de Fisher sont significatifs. Au vu de nos résultats, la sous-évaluation explique mieux la quantité d’informations disponibles sur la société introduite, que leur qualité. Nous ne validons donc que partiellement l’hypothèse H1. Dans les modèles suivants (tableau 6.7), la rentabilité initiale anormale (RIA) est intégrée en même temps que les variables d’asymétrie (la taille Chapitre 6 225 de la société, le montant introduit, le PER d’introduction) et l’indicateur d’augmentation de capital (AUG). Les variables dépendantes sont les mêmes que dans le tableau 6.6. S’y ajoutent Rich3 = naf ∗ 2 − erreur∗ disper∗ et naf ∗2 Rich4 =ln( erreur ∗ disper ∗ ) (l’étoile signifie que les variables sont réduites entre 0 et 1). Les VIF sont précisés en italique. Ils permettent de contrôler la multicolinéarité des variables explicatives. L’indépendance linéaire implique un VIF égal à 1. échant. Constante RIA Taille (= ln(CAHT)) Montant PER (prix intro/BP AN −1 ) F R2 ajusté N Naf 0.695 (1.076) 0.629 (3.32****) 1.002 3.21 (2.79***) 1.007 2.5410−3 (4.25****) 1.008 12.5**** 0.178 160 Nouveau Marché et Erreur Rich1 0.525 1.771 (3.24***) (8.72****) -1.57410−3 0.567 (-1.71*) (2.86***) 1.001 1.008 7.4310−4 (2.21**) 1.008 2.1610−3 (2.42**) 1.001 5.83** 0.029 160 9.2**** 0.223 116 Second Marché Rich2 Rich3 -4.510−2 -2.3310−2 (-0.306) (-0.404) 7.1810−2 2.8910−2 (1.924*) (1.977*) 1.005 1.005 4.7410−2 1.6510−2 (1.896*) (1.682*) 1.003 1.003 3.4210−4 1.2010−4 (2.84***) (2.546**) 1.006 1.006 5.02*** 0.105 116 4.28*** 0.087 116 Rich4 0.975 2.8*** 0.155 (2.584**) 1 6.72** 0.055 116 Tab. 6.7 – Explication de la richesse informationnelle par la sous-évaluation et le niveau d’asymétrie sur l’échantillon total Sur l’échantillon total, la sous-évaluation est reliée de manière significative, positivement au nombre d’analystes suivant la société (Naf) et aux critères globaux de richesse (Rich1 à Rich3 ) ; négativement aux erreurs de prévision des analystes. Nous observons également que de plus nombreuses informations, de meilleure qualité sont diffusées sur la société introduite en présence de faibles asymétries. Ainsi, la taille de la société et de l’opération détermine positivement et significativement Naf et les indicateurs agrégés de richesse (Rich). Sur leur échantillon, Rajan et Servaes (1997) obtiennent également une relation positive entre le nombre d’analystes suivant la société introduite et la taille de celle-ci (β = 0.59 ; t = 17.8). Bhushan (1989), sur un échantillon de 1409 sociétés cotées sur le NYSE ou l’AMEX en 1985, montre que la taille de la société est reliée positivement et significativement au niveau de couverture par les analystes. Produire des informations sur une société ou une opération de grande taille semble moins coûteux (Zéghal, 1981) et donc plus incitatif pour les analystes. Par ailleurs, les prévisions des analystes s’avèrent d’autant moins exactes que le Per de la société est 226 Chapitre 6 élevé. Autrement dit, les analystes estiment d’autant moins précisément les résultat d’une entreprise que celle-ci a un fort potentiel de croissance. Degeorge et Derrien (2001) montrent, quant à eux, que les erreurs de prévision des analystes diminuent avec la taille de la société (β = 0.008 ; t = 4.4). Ils s’intéressent aux analystes suivant un échantillon de 1 522 sociétés introduites ou cotées sur le marché secondaire français. L’analyse est désormais conduite sur le sous-échantillon des sociétés du Nouveau Marché (tableau 6.8). échant. Constante RIA Montant Naf 1.328 (4.16****) 1.746 (3.38****) 1.002 5.2910−3 (5.07****) 1.002 AUG F R2 ajusté N 17.9**** 0.394 53 Nouveau Rich2 -0.183 (-1.933*) 0.298 (2.771***) 1.086 9.15010−4 (4.257****) 1.011 0.321 (2.836***) 1.077 9.343**** 0.439 40 Marché Rich3 -6.4510−2 (-2.472**) 0.143 (4.769****) 1.086 3.32810−4 (5.538****) 1.011 7.10510−2 (2.242**) 1.077 16.45**** 0.592 40 Rich4 0.818 (3.558***) 0.611 (1.979*) 1.061 0.746 (2.335**) 1.061 3.794** 0.153 40 Tab. 6.8 – Nouveau Marché : explication de la richesse informationnelle par la sous-évaluation et le niveau d’asymétrie Les résultats confortent ceux obtenus sur l’échantillon total. La richesse de l’environnement informationnel des sociétés du Nouveau Marché croı̂t avec la sous-évaluation et diminue avec le coût de production de l’information. La sous-évaluation augmente significativement aussi bien la quantité d’informations disponibles (modèle 1 du tableau 6.8) que les critères globaux de richesse (modèles 2 à 4). Ces derniers croissent également avec le montant introduit. Enfin, l’environnement informationnel est d’autant plus riche que les sociétés augmentent leur capital au cours de leurs deux premières années de cotation. Enfin, nous menons les régressions sur le sous-échantillon des sociétés du Second Marché (tableau 6.9). L’impact de la sous-évaluation sur la richesse informationnelle des sociétés Chapitre 6 227 échant. Constante RIA Taille Naf -0.573 (1.01) 0.548 (2.36**) 1.004 0.675 (3.23***) 1.004 Montant PER F R2 ajusté N 13.6**** 0.263 107 Disper -0.179 (-1.16) 9.685 (2.20**) 1.003 -6.2810−4 (-2.28**) 1.203 2.3010−2 (4.14****) 1.203 8.78**** 0.172 76 Second Marché Rich1 Rich2 3.518 -0.149 (15.9****) (-0.608) 1.18 (1.67*) 1.003 9.29110−2 (2.522**) 1.054 -1.3810−3 1.0710−3 3.73910−4 (-2.34**) (2.70**) (2.546**) 1.031 1.031 1.265 5.0210−2 1.6310−2 -6.9010−3 (4.37****) (2.06**) (-2.334**) 1.207 1.062 1.274 9.71**** 4.18** 4.874*** 0.141 0.078 0.181 107 76 76 Erreur -0.533 (-1.83*) -2.2310−3 (-1.65*) 1.003 Rich3 -0.135 (-1.409) Rich4 2.289 (11.96****) 4.16710−2 (2.681**) 1.0 7.189*** 0.081 76 6.98810−4 (2.108**) 1.196 -1.3810−2 (-2.076**) 1.196 3.117* 0.059 76 Tab. 6.9 – Second Marché : explication de la richesse informationnelle par la sous-évaluation et le niveau d’asymétrie du Second Marché est plus faible, voire disparaı̂t (colonnes 6 et 7, tableau 6.9). L’indicateur d’augmentation de capital n’est plus significatif. Les sociétés du Second Marché sont caractérisées par de plus faibles asymétries d’information que celles du Nouveau Marché. Par conséquent, elles auraient moins besoin de recourir à la sous-évaluation puis de revenir sur le marché primaire. Ainsi, sur notre échantillon, la quantité d’informations et les critères globaux de richesse augmentent avec la taille de la société. L’inexactitude et la dispersion des estimations des analystes croissent avec le PER et diminuent avec le montant introduit. Le Per et la taille de l’opération déterminent respectivement négativement et positivement les critères globaux de richesse. Sous-évaluation et asymétrie d’information La rentabilité initiale anormale constitue la variable dépendante. Le marché d’introduction (égal à 1 pour le Second Marché, 0 pour le Nouveau Marché), la taille de la société (mesurée par le logarithme népérien du chiffre d’affaires l’année précédant l’introduction), son secteur d’activité (égal à 0 pour les secteurs traditionnels et à 1 pour les NTIC) approchent le degré d’asymétrie. Les t de Student, entre parenthèses, peuvent être significatifs à 10% (*), 5% (**), 1% (***) ou 0.1% (****). Seule l’analyse réalisée sur les 127 sociétés n’ayant pas émis de titres après leur introduction, ou l’ayant fait au-delà de 24 mois, donne des résultats significatifs. La taille de la société a une influence négative et significative au 228 Chapitre 6 Constante Marché Taille secteur F R2 ajusté N Variable dépendante : RIA Modèle 1 Modèle 2 Modèle 3 0.349 0.542 0.451 (6.337)**** (5.228)**** (3.923)**** -0.174 (-2.702)*** -5.9010−2 -5.7310−2 (-3.212)*** (-3.141)*** 1.003 0.111 (1.764)* 1.003 7.301*** 10.32*** 6.801*** 0.048 0.069 0.084 127 127 127 Tab. 6.10 – Explication de la sous-évaluation par le niveau d’asymétrie seuil de 1% sur la sous-évaluation (modèles 2 et 3). Les sociétés apparaissent également d’autant plus sous-évaluées qu’elles appartiennent au Nouveau Marché ou au secteur des NTIC (modèles 1 et 3). En supposant la taille, le secteur et le marché d’introduction de la société liés au niveau d’asymétrie, ces résultats confortent l’idée d’une sous-évaluation croissante avec le niveau d’asymétrie. Nous confirmons l’hypothèse H2 et les résultats des études antérieures. Sur le marché américain, Muscarella et Vetsuypens (1989) et Ritter (1991) établissent une relation positive significative entre la sous-évaluation et le niveau d’asymétrie. Sur le Second Marché français, Ginglinger et FaugeronCrouzet (2001) obtiennent une sous-évaluation croissante avec le PER et décroissante avec la taille de l’opération. L’influence de la sous-évaluation sur la qualité des informations diffusées semble donc devoir être interprétée en fonction du niveau d’asymétrie d’information. Dans le modèle de Chemmanur, les sociétés ne sous-évaluent leurs titres introduits qu’en présence de fortes asymétries. Elles rémunèrent ainsi les investisseurs pour leur production d’information, dont le coût croı̂t avec le niveau d’asymétrie. Le degré d’asymétrie n’explique pas significativement la sous-évaluation des trente trois sociétés revenues sur le marché primaire moins de deux ans après leur introduction. Nous avions par ailleurs observé que ces trente trois sociétés étaient significativement plus sous-évaluées que les cent vingt sept autres (tableau 6.4). Dans le modèle de Chemmanur, les sociétés envisageant Chapitre 6 229 dès l’introduction un second appel au marché, sont plus enclines à sousévaluer initialement leurs titres. La sous-évaluation encourage alors les investisseurs à produire des informations qui résorbent les asymétries. Elle «neutralise» l’impact des variables d’asymétrie dans les modèles de régression. La probabilité d’une émission ultérieure d’actions Dans le modèle de Chemmanur, les sociétés performantes sous-évaluent les titres introduits en bourse pour inciter les analystes à informer le marché de leur qualité. Les actionnaires originaires ont donc intérêt à céder leurs titres, une fois les informations des analystes intégrées dans les cours. La sous-évaluation initiale et un environnement informationnel riche rendent donc probable une nouvelle émission d’actions peu après l’introduction. Nous testons cette hypothèse, via les deux modèles logit suivants : P (ACAPi ) = 1 1 + exp −[α + Xi β] P (AU Gi ) = 1 1 + exp −[α + Xi β] et . P (ACAPi ) et P (AU Gi ) désignent les probabilités qu’une société i augmente son capital dans les douze/vingt-quatre mois suivant son introduction. Le vecteur Xi comprend la rentabilité initiale anormale (RIA) et les indicateurs de richesse de l’environnement informationnel. Sont enfin incluses comme variables de contrôle, les rentabilités anormales achat-conservation cumulées sur douze ou vingt-quatre mois (raac-12 et raac-24) et des variables d’asymétrie. Les tableaux 6.11 et 6.12 présentent les modèles logit obtenus. NAF est le nombre d’analystes indépendants suivant la société au cours de sa première année boursière. La taille est égale au logarithme népérien du chiffre d’affaires. Le PER est le rapport du prix d’offre sur le bénéfice par action de l’année précédant l’introduction. Les coefficients bêta sont donnés et les statistiques de Wald sont précisées entre parenthèses. D’après les résultats de la régression logistique, les sociétés semblent d’autant enclines à émettre des actions dans l’année suivant leur introduction en bourse que la sous-évaluation est importante. L’hypothèse H3 bis est donc confirmée. La probabilité d’une augmentation de capital au plus tard un an après l’admission à la cote décroı̂t avec la taille de la société. Ces résultats confortent 230 Chapitre 6 observations RIA NAF raac-12 Taille Constante χ2 R2 de Cox-Snell Variable dépendante : ACAP Modèle 1 Modèle 2 160 160 0.361 (4.21**) 0.475 (6.30**) 1.16 (6.56***) 1.07 (5.61**) -0.411 (3.95**) -0.313 (0.088) -0.822 (0.531) 12.4*** 15.0**** 0.128 0.152 Tab. 6.11 – Probabilité d’une augmentation de capital dans l’année suivant l’introduction ceux de Ginglinger et Faugeron-Crouzet (2001). Ces auteurs travaillent sur un échantillon de 292 sociétés introduites au Second Marché entre 1983 et 1994. Elles montrent que la probabilité d’un second appel de fonds moins de quatre ans après l’introduction diminue avec la taille de l’opération et le désengagement des actionnaires principaux, et augmente avec la sousévaluation. Sur notre échantillon, les sociétés paraissent attendre un marché boursier favorable et un environnement informationnel propice à une nouvelle levée de fonds. La probabilité d’une augmentation de capital dans l’année post introduction augmente en effet avec les rentabilités anormales achat-conservation cumulées sur douze mois, ainsi qu’avec la quantité d’informations diffusées au cours de la première année de cotation. De manière proche, Aggarwal et alii (2002) obtiennent une probabilité d’émission de titres post introduction croissante avec le nombre de recommandations des analystes indépendants. Plus précisément, l’émission d’1.44 recommandations supplémentaires par des analystes indépendants augmente de 0.049% le nombre d’actions cédées par les insiders, par rapport au nombre total d’actions en circulation dans l’intervalle [-2 mois, +2 mois] encadrant la date d’expiration du lock up. Le tableau 6.12 analyse la probabilité qu’une société augmente son capital dans les vingt-quatre mois post introduction. Les coefficients des variables mesurant la quantité et la qualité des informations diffusées sur la société pendant la première année boursière, ne diffèrent plus statistiquement de zéro. La rentabilité initiale anormale (RIA) voit son pouvoir explicatif se dégrader. Seules les sociétés du Nouveau Marché semblent d’autant plus enclines à augmenter leur capital dans les vingt-quatre mois suivant leur introduction qu’elles sont initialement sous-évaluées. Les sociétés de l’échantillon semblent donc davantage profiter du «momentum Chapitre 6 231 échantillon observations RIA PER Constante χ2 R2 de Cox-Snell Variable dépendante : AUG Nouveau Marché Second Marché 53 116 1.57* (3.82) 0.952 (0.425) 0.0 (0.159) 0.038** (3.94) 0.244 (0.487) -2.90**** (23.7) 5.53* 8.22** 0.09 0.068 Tab. 6.12 – Probabilité d’une augmentation de capital dans les deux ans suivant l’introduction informationnel» induit par la sous-évaluation initiale, avant la fin de leur première que deuxième année de cotation. Elles reviennent sur le marché, avant que le signal émis - les informations diffusées par les analystes - ne perdent de son effet bénéfique. Enfin, sur le Second Marché, la probabilité d’émettre des actions après l’introduction croı̂t avec le PER. Plus le dirigeant sent le marché confiant dans les perspectives de sa société, et plus il est incité à revenir sur le marché. Publication d’informations par les analystes et signal de qualité Dans le modèle de Chemmanur (1993), les informations produites par les analystes financiers révèlent au marché la réelle valeur de la société introduite en bourse. Elles influencent donc les cours du titre à la hausse. Les performances boursières à long terme des sociétés introduites en bourse sont supposées croı̂tre avec la quantité et la qualité des informations diffusées au cours de la première année boursière. Pour tester cette hypothèse (H4), les rentabilités anormales achat-conservation cumulées sur douze (raac-12), vingt-quatre (raac-24) et trente-six mois (raac-36) sont régressées sur les approximations du nombre et de la qualité des informations disponibles la première année boursière de la société. Les modèles les plus significatifs obtenus sont reportés dans le tableau 6.13. Pour chaque variable explicative apparaissent le coefficient β, la valeur du t entre parenthèses et les VIF en italique. Le t peut être significatif au seuil de 10% (*) ou de 5% (**). Au vu du tableau 6.13, le nombre d’analystes suivant la société sa première année de cotation détermine positivement et significativement les rentabilités anormales achat-conservation cumulées sur vingt-quatre ou trente-six mois. Nos résultats prolongent ceux d’Aggarwal et al. (2002). Ces auteurs calculent les rentabilités achat-conservation (non ajustées) de 618 sociétés admises à 232 Chapitre 6 Constante NAF Erreur-analystes F R2 ajusté N Variable dépendante raac-12 raac-24 raac-36 -0.525 -1.50 -1.68 (-2.24**) (-2.05**) (-0.86) 0.529 2.63 (2.44**) (2.38**) 1.006 -0.053 -0.050 (-2.02**) (-1.98*) 1.006 4.665** 3.44** 3.23** 0.071 0.073 0.066 160 121 79 Tab. 6.13 – Explication des performances boursières à long terme par la sous-évaluation initiale, le nombre et la qualité des informations disponibles la première année de cotation la cote américaine entre janvier 1994 et décembre 1999. Ces rentabilités sont cumulées sur les six premiers mois de cotation. Elles augmentent significativement avec le nombre d’apparitions du titre dans la base de First Call et le nombre de recommandations publiées par les analystes indépendants. Nous observons par ailleurs que les raac cumulées sur douze et vingtquatre mois diminuent avec l’erreur moyenne de prévision des analystes indépendants. Derrien et Degeorge (2001) notent également que le marché réagit de manière positive et significative à la précision ex post des prévisions des analystes d’I/B/E/S. Au total, les performances boursières à long terme des sociétés de l’échantillon sont d’autant plus élevées qu’elles ont fait l’objet de prévisions nombreuses et précises de la part des analystes. L’hypothèse H4 est confirmée. Conclusion La troisième partie de cette thèse s’intéresse aux moyens d’améliorer l’environnement informationnel des sociétés introduites en bourse. Le chapitre 6 visait à évaluer l’efficacité de la solution au problème de sélection adverse proposée par Chemmanur (1993). Dans son modèle, Chemmanur montre que l’actionnaire-dirigeant peut inciter les analystes à informer le marché de la réelle valeur de la société en sous-évaluant le prix d’introduction. La société délègue donc aux analystes l’émission du signal. Mais elle en supporte le coût, à travers la sous-évaluation. Les actionnaires originaires ne se désengagent Chapitre 6 233 donc que partiellement à la date de l’introduction. Une fois le signal de qualité capté sur le marché secondaire du titre, ils cèdent leurs titres restants à un meilleur prix qu’en l’absence de sous-évaluation. Au vu de nos résultats, la sous-évaluation détermine moins la qualité des informations disponibles sur le candidat à l’introduction, que leur quantité. Dans les modèles de régression, elle est en effet reliée positivement et significativement au nombre d’analystes suivant la société et à la dispersion de leurs prévisions. En revanche, l’impact de la sous-évaluation sur la précision des prévisions des analystes est moins patent. Par ailleurs, nous observons que de fortes asymétries d’information ex ante ne suffisent à décider les sociétés à sous-évaluer le prix d’offre. Le degré d’asymétrie approché par la taille, le marché d’introduction et le secteur d’activité de la société, n’accroı̂t en effet la sous-évaluation que sur le souséchantillon des sociétés ayant augmenté leur capital dans les deux ans post introduction. Le coût de production de l’information pour les analystes mais aussi la perspective d’un nouvel appel public à l’épargne paraissent donc inciter la société à sous-évaluer les titres introduits. Les régressions logit confirment au demeurant que la probabilité d’une augmentation de capital après l’introduction croı̂t avec la sous-évaluation initiale et le nombre d’analystes suivant la société sa première année boursière. Autrement dit, les sociétés introduites semblent profiter d’un environnement informationnel enrichi (suite à la sous-évaluation), pour émettre à nouveau des titres plutôt dans les douze que vingt-autre mois post introduction. Enfin, les résultats confirment l’hypothèse d’une signalisation via les informations diffusées par les analystes. Plus une société fait l’objet de prévisions nombreuses et exactes au cours de sa première année de cotation, meilleures sont ses performances boursières à douze et vingt-quatre mois. Ainsi, une société peut accroı̂tre le nombre d’informations disponibles et, dans une moindre mesure, leur qualité, en sous-évaluant le prix d’introduction. Cet enrichissement de son environnement informationnel semble bien avoir un effet positif sur les cours. Ces résultats prédisent une possible intervention de la société sur son environnement informationnel. La chaı̂ne de production de l’information semble ainsi se dessiner, telle que représentée sur le schéma 6.3. Dans un premier temps, le candidat à l’introduction fournit aux analystes les «informations premières» : le prix d’offre, ses états comptables historiques et son plan de développement. Les analystes retraitent ces informations dans une optique de marché. Ils apprécient les perspectives de résultat et de croissance de la société, qu’ils intègrent ensuite dans leurs modèles d’évaluation. Ils com- 234 Chapitre 6 parent alors la valeur espérée des titres au prix d’offre annoncé par la société et en déduisent la nature de leur recommandation boursière. Mais ils ne sont rémunérés pour leurs services informationnels que si leurs recommandations génèrent des ordres d’achat. Par conséquent, s’ils estiment le prix d’introduction surévalué, ils cesseront leur production d’information. Et le problème de sélection adverse ne sera pas résorbé. Les limites de cette étude laissent ouvertes plusieurs voies de recherche. Chemmanur suppose l’introduction réalisée via une offre à prix ferme. L’impact de la procédure sur la richesse de l’environnement informationnel ou sur la sous-évaluation mérite donc d’être contrôlé. Par ailleurs, sur notre échantillon, la sous-évaluation du prix d’introduction augmente la fréquence d’une augmentation de capital pendant les deux premières années boursières. Mais il reste à vérifier que lors du second appel au marché, les actionnaires récupèrent effectivement le coût de la sousévaluation. Les résultats de Spiess et Pettway (1997) sur le marché américain, ne vont pas en ce sens. Ces auteurs testent si la société et les anciens actionnaires retirent un gain net de la sous-évaluation initiale. Ils observent 172 sociétés industrielles introduites en bourse entre 1987 et 1991, et ayant augmenté leur capital dans les trois années subséquentes. Sur leur échantillon, la sous-évaluation des titres introduits est reliée négativement et significativement à la valeur actualisée du produit des deux opérations. Et elle ne détermine pas significativement le profit net des deux émissions pour les actionnaires. Investisseurs et société introduite en bourse gagnent à réduire les asymétries d’information. À cette fin, le candidat à l’introduction peut publier lui-même des informations complémentaires utiles aux investisseurs, comme l’estimation précise des futurs résultats. Il peut au contraire choisir de publier les seules informations requises par la loi, et de déléguer aux analystes la production de prévisions supplémentaires. Ces initiatives individuelles semblent toutefois insuffisantes. En effet, au regard du chapitre 5, seules certaines sociétés réduisent l’incertitude des investisseurs sur la valeur de marché espérée des titres, en publiant volontairement des prévisions de résultat précises. Dans le chapitre 6, la sous-évaluation du prix d’offre semble bien inciter les analystes à produire des informations sur la société. Mais elle augmente la dispersion des prévisions publiées et n’influence pas significativement leur exactitude. Autrement dit, la sous-évaluation encourage la production externe d’information mais n’améliore pas la qualité de ces informations. Chapitre 6 235 Une intervention étatique s’impose donc sur le marché de l’information, en plus de l’auto-régulation. En la matière, l’État agit essentiellement via le régulateur. La COB a beaucoup oeuvré7 en faveur d’une plus grande transparence de l’information au moment d’une introduction en bourse. Elle semble avoir acquis une autorité de fait, consacrée par sa future dénomination (Autorité des Marchés Financiers). Le chapitre 7 vise à comprendre les fondements d’une légitimité, «non acquise d’emblée (...) mais en marchant» (Hubac et Pisier, 1988, p. 124). 7 La première partie développe les mesures prises par la COB visant à améliorer l’information des investisseurs lors d’une introduction en bourse. Chapitre 6 236 Taille PER Montant AUG Disper Naf RIA Rich1 Rich2 Rich3 Rich4 Taille 1 PER -0.173 1 Taille = ln[chiffre d’affaires(N-1)] PER = prix intro / BP AN −1 Montant = montant introduit en MF Montant 0.116 -0.018 1 AUG -0.110 0.219* 0.018 1 Disper -0.223* 0.102 0.061 0.068 1 Naf 0.252** -0.065 0.324** 0.044 0.042 1 RIA -0.130 0.139 -0.140 0.008 0.138 0.164 1 Rich1 0.415** -0.161 0.170 -0.078 -0.787** 0.430** -0.050 1 Tab. 6.14 – Rhô de Spearman - chapitre 6 Rich2 0.276** -0.112 0.322** 0.162 -0.211* 0.916** 0.123 0.538** 1 Rich3 0.0283** -0.080 0.305** 0.110 -0.206* 0.949** 0.160 0.534** 0.955** 1 AUG = variable dichotomique, égale à 1 si la société a augmenté son capital dans les vingt-quatre mois suivant son introduction Dispersion = écart type prév. analystes / BPA réalisé Naf = nombre analystes suivant société Erreur = erreur moyenne de prévision des analystes non affiliés au chef de file naf 2 |erreur|∗disper RIA = rentabilité initiale anormale RICH1 = RICH2 = 2naf ∗ − erreur∗ − disper∗ ∗2 RICH3 = naf ∗2 − erreur∗ disper∗ naf RICH4 = ln( erreur ∗ disper ∗ ) Rich4 0.0356** -0.140 0.182 0.038 -0.699** 0.678** 0.058 0.838** 0.804** 0.825** 1 Chapitre 6 237 Le schéma 6.3 décrit la chaı̂ne de production de l’information. Marché de l’information et Marché Primaire OFFRE Marché de l’information Informations premières ANALYSTE SOCIETE Prix d’offre Etats comptables historiques Plan développement Traitement des informations Prévisions Valeur espérée des titres Recommandation boursière INVESTISSEURS DEMANDE Optique de marché Optique patrimoniale Intermédiaire Ordre d’achat Analystes financiers DEMANDE INVESTISSEURS SOCIETE Marché financier Commissions OFFRE Légende : flux réel, flux informationnel, flux monétaire. Fig. 6.3 – Marché de l’information et marché primaire 238 Chapitre 6 Chapitre 7 La régulation de l’information financière Introduction L’amélioration de l’information diffusée au moment d’une introduction en bourse est l’enjeu de deux projets de directives. Le premier1 envisage de créer un prospectus unique valable dans toute l’Union Européenne. Un système de dépôt centralisé faciliterait l’accès des investisseurs aux documents publicitaires ; le niveau d’information à fournir serait relevé. La seconde proposition2 concerne les abus de marché. Son article 6.5 dispose que les analystes doivent présenter de manière impartiale l’information. Les États membres devront transposer en droit interne ces directives. Ils sont libres des voies à emprunter pour atteindre les objectifs (ou principescadres) fixés par les directives. Ils auront donc à choisir entre législation et régulation. La qualité de l’information diffusée est un des principes de bonne gouvernance énoncés par l’OCDE. Historiquement, le gouvernement d’entreprise3 relève plutôt de la loi en Allemagne, en Italie ou en Suède, et de la régulation dans les pays anglo-saxons ou en France. Au-delà des traditions, les États peuvent arbitrer entre législation et régulation en fonction de l’effectivité et l’efficacité des règles prises. Une norme est effective si elle produit «des effets dans la réalité empirique» ; elle est efficace 1 Le texte intégral est consultable à l’adresse http://www.europa.eu.int/comm/ internal_market 2 Elle est disponible à l’adresse http://www.europa.eu.int/comm/internal_market 3 Le gouvernement d’entreprise désigne l’ensemble des dispositifs organisant et contrôlant l’exercice du pouvoir dans l’entreprise. 239 240 Chapitre 7 si elle produit «les effets que l’on attendait d’elle» (de Béchillon, 1997). En matière de gouvernance, les règles semblent d’autant mieux appliquées qu’elles sont prises par le régulateur. Lors d’une enquête réalisée en 1998 sur les pratiques de gouvernement d’entreprise en Europe, le cabinet d’audit KPMG constate que «l’incitation légale, quand elle existe, n’est pas aussi contraignante que les demandes formulées par l’autorité de marché». Il rejoint les conclusions de la Commission des Opérations de Bourse (COB) : «c’est dans les pays où les autorités de régulation boursière, par le biais des obligations d’information et de transparence, sont le plus impliquées dans la promotion des principes de gouvernement d’entreprise, que dans la pratique ces derniers sont les plus généralisés et les plus appliqués» (bulletin mensuel no 338, septembre 1999, p. 22). En France, le régulateur, actuellement la COB et demain l’Autorité des Marchés Financiers (AMF), est chargé de protéger l’épargne publique et de veiller au bon fonctionnement des marchés financiers. À ce titre, il circonscrit l’espace discrétionnaire du dirigeant et constitue un mécanisme de gouvernance externe et institutionnel (Charreaux, 1997, p. 1657-1658). Il encadre le contenu du prospectus à travers les règlements nos 98-01 et 95-01. Il veille ensuite au respect de ses règlements par les candidats à l’introduction. La littérature reconnaı̂t l’effet vertueux de la COB sur la qualité de l’information diffusée par le dirigeant4 . Selon Guyon (1986), la COB est parvenue à développer l’information financière qu’une conception trop extensive du secret des affaires limitait auparavant. Michaı̈lesco (1999) constate que les rapports annuels des sociétés cotées sont de meilleure qualité que ceux des sociétés non cotées. Elle attribue cette qualité différenciée à l’action de la COB. La cotation implique en effet des obligations et un contrôle informationnels accrus. D’après Dessertine (1997, p. 83), «la commission est (...) un acteur clé autant dans l’élaboration des règles de l’information financière que dans leur contrôle». Depuis sa création, le régulateur a standardisé les informations à publier et augmenté leur nombre. Il a surtout sensibilisé les entreprises à l’importance de la transparence, dans le communiqué de presse du premier février 1999, le chapitre 2 du rapport annuel 2001 ou la recommandation de mars 2002 par exemple. 4 Les sociétés cotées françaises appliquent diversement les autres dispositifs disciplinaires préconisés par le régulateur. Par exemple, en 1998, 20% seulement des sociétés du CAC 40 distinguent les fonctions de président et de directeur général. 73% par contre ont créé un comité d’audit (source : enquête KPMG). Chapitre 7 241 La littérature atteste que la COB agit efficacement en matière d’information. Mais, à notre connaissance, elle n’expliquait pas comment. Nous nous sommes aussi demandés comment le régulateur imposait avec succès ses exigences informationnelles aux sociétés nouvellement cotées. Pourquoi la régulation est-elle préférée à la législation pour encadrer la diffusion d’information ? Comment le régulateur parvient-il à gouverner effectivement les comportements des sociétés en matière d’information ? Par quel processus fait-il force de loi ? L’analyse sémantique de la régulation éclaire déjà notre question de recherche. La régulation dépasse la simple réglementation, traduction du mot anglais regulation (voir également Turrillo, 2002, p. 514). Elle désigne5 le fait de «maintenir en équilibre, d’assurer le fonctionnement correct d’un système complexe». La recherche de l’équilibre et de l’harmonie semble associée à la fonction de régulation. Nous approfondissons nos investigations avec une étude du cas. La formulation de la question de recherche («comment ?»), la nature exploratoire de notre travail, l’accès possible au terrain et la complexité du problème étudié (Wacheux, 1996, p. 89) justifient le recours à cette méthodologie. Nous avons restreint l’observation de l’action de la COB au contexte de l’introduction en bourse. Nous obtenons ainsi un cas extrême (Eisenhardt, 1989, p. 537) ou critique (Yin, 1989, p. 38). L’introduction en bourse marque en effet le moment où la gouvernance d’entreprise, et donc la transparence de l’information, deviennent nécessaires. En outre, l’autorité du régulateur sur les sociétés introduites n’est pas biaisée par l’existence de relations antérieures entre les deux parties. La méthodologie de l’étude de cas implique d’analyser le phénomène étudié la politique de légitimation du régulateur dans un environnement large, historique, institutionnel et socio-économique. Nous avons eu recours, pour notre étude clinique, à des sources de données multiples. Aux documents écrits, internes (rapports annuels de la COB, bulletins mensuels) et externes (lois, codes, jurisprudence), s’ajoutent des entretiens. L’étude de cas nécessite en effet «une négociation avec les individus sur le terrain» (Wacheux, 1996). Ces entretiens sont de type directif à questions ouvertes. Autrement dit, les questions, précises et libellées à l’avance, suivent un ordre prévu. La personne interrogée est libre de répondre comme elle le désire dans ce cadre (Grawitz, 5 Le Petit Robert, page 2143 242 Chapitre 7 1996). Nous avons interrogé, entre février 2001 et août 2002, quatre membres du régulateur en charge de la réglementation et du contrôle de l’information financière. Deux d’entre eux travaillent au service des opérations et de l’information financières. L’un s’occupe de la normalisation de l’information financière. Il rédige les bulletins mensuels, recommandations, instructions et règlements. L’autre contrôle l’information financière diffusée par les sociétés cotées. Le troisième acteur rencontré est rattaché au services des affaires comptables. Il analyse l’information comptable des documents déposés par les sociétés auprès de la COB (prospectus, documents de référence, note d’information...). Enfin, la quatrième personne questionnée relève du service juridique. Elle traite des questions de doctrine juridique et s’occupe des relations avec les autorités judiciaires. Nous avons conduit nos investigations selon la procédure «papier-crayon». Gianelloni et Vernette (1995) souligne les avantages de ce procédé. D’une part, il permet d’interpréter facilement le discours. D’autre part, il met l’interlocuteur en confiance. Nous avons analysé le contenu des entretiens et les sources documentaires. Le rapport d’étude de cas suit et approfondit le guide d’entretien. Notre réflexion s’organise en trois parties. La première présente les fondements historiques et institutionnels de la légitimité du régulateur. Nous étudions, dans la seconde, le procès de création de normes par le régulateur. La dernière partie envisage les obstacles à la légitimité du régulateur et les conditions auxquelles il peut conforter son autorité en matière de transparence de l’information. 7.1 Une légitimité historique et institutionnelle Selon Wirtz (2000, p. 125), «seul le suivi du cas sur un horizon temporel relativement étendu confère potentiellement la capacité à observer les mécanismes de causalité à l’oeuvre». L’analyse historique menée à partir des sources documentaires, révèle que la légitimité du régulateur s’est construite au cours du temps. L’acquisition progressive d’un statut institutionnel lui a ensuite permis de pérenniser son action et d’accroı̂tre ses moyens d’intervention. Chapitre 7 7.1.1 243 Un enracinement historique La politique de légitimation du régulateur est envisagée dans une perspective temporelle. Le contexte des années soixante a favorisé l’apparition d’une régulation en matière boursière. La construction européenne augure en effet d’un futur marché unifié des capitaux. Par ailleurs, la légitimité de l’État est remise en cause à cette époque. La libre circulation des capitaux La création de la Bourse à Paris a répondu à la banqueroute de Law. Le 24 septembre et le 14 octobre 1724, Louis XV prend deux arrêts «portant établissement d’une Bourse dans la ville de Paris». Pour «maintenir la bonne foi et la sûreté convenable» des transactions, il transfère les négociants en valeurs mobilières dans un lieu clos, et leur impose une réglementation précise, la première du marché français (Turin, 1993, chapitres 1 et 2). La Bourse restera longtemps marquée du sceau de la souveraineté étatique. Jusqu’à la moitié du XIXème siècle, elle accueille principalement la dette publique. Avec la révolution industrielle, nombreuses sont les sociétés à entrer en bourse pour assouvir leurs besoins de capitaux : le Crédit Mobilier et le Bon Marché en 1852, la Compagnie Universelle du Canal de Suez en 1858 etc. Mais les obligations demeurent plus populaires auprès des épargnants que les actions. Enfin, l’État constitue toujours l’unique instance régulatrice du marché. La logique d’une réglementation étatique de la Bourse est toutefois incompatible avec la perspective d’un marché unifié des capitaux. Le 25 mars 1957, le Traité de Rome institue une zone où les marchandises, les hommes et les capitaux circuleront sans entrave. Mais «comment peut-on encore envisager une réglementation (au sens de hiérarchie et de souveraineté étatique), dans le contexte d’un marché global qui ignore les frontières et qui érode la notion même de souveraineté étatique ?» (Turrillo, 2002, p. 514). Les pouvoirs exécutif ne pouvait donc, sous sa forme traditionnelle, impulser et contrôler la libéralisation de la Bourse française. La crise de l’État-Providence Dans les années soixante-dix, l’opinion publique, influencée par l’idéologie libérale dominante, conteste la légitimité rationnelle-légale de l’État (Weber, 1995). À cette époque, l’État est un «souverain démiurge» omniprésent (Cubertafond, 1999, p. 22). Il intervient dans un nombre croissant de secteurs, 244 Chapitre 7 via une administration centralisée, bureaucratique et hiérarchisée (Crozier, 2000). Inconstante, l’opinion publique fustige la toute puissance étatique et le coût fiscal induit, en même temps qu’elle réclame la protection de l’ÉtatProvidence. Les néo-libéraux (Crozier, Massenet...) appuient cette contestation. Ils dénoncent l’inefficacité, voire la «nécrose6 » de l’administration française, ainsi que sa politisation abusive. Pour eux, seul le jeu libéral conduit, après ajustement, à l’équilibre économique et social. Ils appellent aussi de leurs voeux la création de pouvoirs légers, dépolitisés, humbles régulateurs des fonctions économiques et sociales, substituts à la souveraineté volontariste, arbitraire, solennelle. Ces entités harmoniseraient, mettraient en relation, encourageraient les synergies et l’initiative. Elle appliqueraient «les règles de juste conduite» (Hayek, 1979). La fonction de régulation ne peut s’exercer dans un espace administratif fermé, encadré de manière rigide par l’État. Elle ne s’observe que dans les régimes libéraux (Moderne, 1988, p. 190). Dans les années 60-70, la crise de l’État et la poussée du libéralisme obligent l’appareil administratif français à s’ouvrir. Elles permettent ainsi à l’autorité de régulation de prendre corps. 7.1.2 L’inadaptation des pouvoirs traditionnels aux besoins de régulation Pas plus que le pouvoir exécutif, les autres instances classiques du pouvoir ne sont à même de satisfaire les besoins nouveaux de régulation dans les domaines boursier et financier. Le pouvoir législatif Le contrôle de l’information et des opérations financières exige une souplesse et une adaptabilité dans le temps que contrarient la généralité et la normativité strictes de la loi. Il renvoie à une réalité trop diverse pour être traité de manière uniforme par la loi. La politisation du Parlement, «ratificateur sacralisateur obéissant à l’exécutif» (Cubertafond, 1999, p. 48), entrave la régulation efficace des marchés financiers. 6 A. Peyrefitte, Le mal français, Plon, 1976, p. 333. Chapitre 7 245 Le pouvoir judiciaire Le juge ne peut édicter d’arrêts de règlement7 et n’intervient qu’a posteriori. Protéger la transparence et l’intégrité du marché suppose au contraire d’agir préventivement et rapidement. Moraliser les comportements professionnels requiert plus de convaincre que de contraindre. En outre, les procédures juridictionnelles, même d’urgence, sont lentes et formelles (Hamon et Maisl, 1982). Elles se prêtent mal à l’exigence de rapidité dans la vie des affaires. Leur formalisme dissuade souvent les actionnaires ou investisseurs de faire reconnaı̂tre leurs droits. Enfin, l’approche positiviste du droit restreint l’activité du juge à une application stricte de la loi. Le syllogisme, fondement du raisonnement judiciaire, en témoigne. «En présence de tout délit, le juge doit former un syllogisme parfait : la majeure doit être la loi générale, la mineure l’acte conforme ou non à la loi, la conclusion l’acquittement ou la condamnation» (Timsit, 1993, p. 21). En conséquence le juge, «bouche de la loi » (Montesquieu8 ), rencontre des difficultés à enserrer certaines infractions boursières dans le cadre du droit pénal (table ronde COB, 2001). Pas plus que le Législateur, le juge ne peut donc assurer seul l’encadrement des marchés financiers. Les forces professionnelles Le contrôle du marché boursier aurait pu être confié à une autorité composée uniquement de professionnels, à l’instar du Panel9 créé à Londres en 1968. Toutefois, la régulation du marché financier ne se réduit pas à la police d’une seule profession. Elle concerne de nombreux intervenants. Son caractère d’intérêt général justifiait que l’État en conservât la maı̂trise. Par ailleurs, l’hégémonie d’experts au sein d’une instance créant du droit est susceptible de dérive anti-démocratique. Castel (1991) (cité par Turrillo, 2001, p. 525) met en garde contre les risques d’une «expertise instituante». 7 «Il est défendu aux juges de prononcer par voies de dispositions générales et réglementaires sur les causes qui leur sont soumises» (article 5 du Code civil). 8 L’esprit des lois, XI, 6, Editions Garnier Flammarion. 9 Récemment, des scandales et compromissions ont remis en cause l’auto-organisation de la City. Une nouvelle autorité financière a été instituée, la Financial Services Authority, plus bureaucratisée. 246 Chapitre 7 «En donnant une fonction instituante à l’expertise, on risque d’institutionnaliser une confusion entre l’instance de la connaissance ou du savoir, l’instance de la décision ou du pouvoir, et l’instance du jugement ou du droit. (...) La réduction de cette différence de nature entre ordre cognitif, ordre praxéologique et ordre juridique est au fondement des figures du totalitarisme». Ainsi, les pouvoirs traditionnels ne pouvaient satisfaire le besoin de régulation en matière boursière. Une autorité de régulation10 ad hoc s’imposait donc. À l’image du régulateur originel11 , elle devait servir d’intermédiaire entre l’État et les opérateurs boursiers, et permettre le bon fonctionnement du marché. Mais sans statut institutionnel, elle n’aurait pu réguler efficacement les marchés financiers. 7.1.3 Une légitimité institutionnelle Une institution est «l’expression juridique d’un groupe social animé par une idée d’oeuvre à réaliser, laquelle détermine à la fois la structure qui l’organise et le droit qui le régit» (Picard, 1984, p. 470). La nature institutionnelle de la COB est fortement ancrée dans les représentations des acteurs rencontrés. Il ressort de l’étude documentaire que par sa mission, sa structure et son pouvoir normatif, le régulateur est une institution. «Une idée d’oeuvre à réaliser» La mission du régulateur détermine sa raison d’être et son titre de légitimité. Elle semble donner sens au travail des personnes interrogées. Le régulateur doit veiller au bon fonctionnement des marchés financiers, à la protection de l’épargne investie et à l’information des investisseurs (art. L. 621-1 Code monétaire et financier). Son champ d’intervention s’est rapidement étendu. Initialement, il se limitait au milieu fermé des sociétés anonymes. Puis il s’est élargi aux sociétés civiles de placement immobilier (L. 31 décembre 1970), aux fonds communs de placement (L. 13 juillet 1979, art. 23) et enfin aux titres émis par les associations faisant appel public à l’épargne (L. 11 juillet 1985). 10 Une floraison d’autorités administratives indépendantes apparaissent dans les années 70 et 80. Les unes régulent l’économie de marché, comme la Commission de la concurrence créée en 1977. Les autres protègent les libertés publiques, à l’image de la Commission nationale de l’informatique et des libertés, instituée en 1978. 11 Originellement, le régulateur est une pièce d’horlogerie. Il limite l’énergie libérée par le ressort, de sorte à faire tourner le système à vitesse constante. Chapitre 7 247 Une autorité juridique Sa structure indépendante et ses pouvoirs en constante augmentation ont permis à la COB d’asseoir sa légitimité et d’agir efficacement. Une structure indépendante L’indépendance de la COB est en premier lieu organique. Elle se manifeste par sa composition collégiale, ni technocratique ni corporatiste, fondée sur les vertus «d’humanité, de responsabilité et de sagesse» (Donnedieu de Vabres, 1980, p. 237). Trois hauts fonctionnaires et magistrats sont présents pour leur neutralité supposée. Six représentants des milieux professionnels sont choisis pour leur compétence financière et leur expérience en matière d’appel public à l’épargne. Selon l’avant-projet de loi sur la sécurité financière, la future Autorité des Marchés Financiers conserverait cette composition plurielle (voir le schéma 7.2 en annexe de ce chapitre). Les présidents des assemblées, des grandes juridictions et des institutions financières nommeraient huit de ses membres. Les huit autres, désignés par le ministre des finances, représenteraient les professionnels et les salariés. Enfin, des garanties statutaires renforcent l’indépendance organique du régulateur. L’article L. 621-4 du Code monétaire et financier prévoient des règles d’incompatibilité et d’immunité. La durée des mandats (quatre ou six ans) est en outre plus longue en moyenne que celle d’un gouvernement. Les membres de la COB sont ainsi préservés des pressions des pouvoirs publics et privés. L’indépendance du régulateur est ensuite fonctionnelle. Il n’est ni un prolongement du pouvoir législatif ou judiciaire, ni subordonné au pouvoir exécutif. Il ne reçoit ni ordre ni instruction ; il ne sollicite pas d’autorisation et n’attend pas d’approbation. À son encontre ne s’exerce aucun pouvoir hiérarchique ou tutelle12 . Il est en marge de l’administration et du pouvoir exécutif. Son contrôle juridictionnel est ténu et plutôt de nature à renforcer son indépendance. Le juge reconnaı̂t en effet à la COB un large pouvoir d’appréciation au fond. Cette indépendance permet au régulateur d’influencer les autres pouvoirs. En témoigne comment le président de la COB est parvenu, en 1982, à faire passer dans le droit positif sa conception d’une juste indemnisation des actionnaires des sociétés nationalisées. Opposé au régime d’indemnisation voté en première lecture par l’Assemblée nationale, il est intervenu successivement auprès du gouvernement, du Conseil d’État, des Commissions parlementaires 12 Depuis la loi du 2 août 1989, la COB échappe à la tutelle directe d’un ministère. 248 Chapitre 7 et enfin du Conseil constitutionnel13 . Grâce à l’autorité tirée de la présidence d’une institution reconnue pour son autonomie et son utilité, il a pu faire prévaloir son point de vue dans les règles finalement adoptées (rapport COB, 1981, p. 246). Enfin, son autonomie de gestion lui permet de remplir efficacement sa mission. Sur le plan administratif, le régulateur recrute son propre personnel librement. Sur le plan financier, il est exempté du principe de contrôle des dépenses engagées. Il collecte lui-même ses ressources, au travers de redevances perçues sur les organismes contrôlés (ord. 1967 art. 1, al. 3 nouveau, loi du 29 décembre 1984). Il équilibre son budget sans aide de l’État depuis 1986. L’avant-projet de loi sur la sécurité financière maintient ce système. Des pouvoirs étendus Dans sa spécialité, le régulateur dispose de pouvoirs étendus, appropriés à une régulation a posteriori comme a priori. La COB défend les droits des investisseurs par ses pouvoirs de contrôle, d’expertise et de sanction. Elle dispose d’un pouvoir d’investigation quasi juridictionnel (art. L.621-9 à 13 du Code monétaire et financier). Par exemple, elle peut mener des enquêtes au siège des candidats à l’introduction. Son pouvoir d’expertise protège également les investisseurs, notamment contre les délits boursiers. En principe, seul l’avis de la COB est requis avant le jugement d’un délit d’initié (ord. 1967, art. 12-1). Dans la pratique cependant, elle diligente la plupart des poursuites. Des outils informatiques lui permettent de déceler les mouvements anormaux sur un titre avant la diffusion d’une information importante (Robert et Viandier, 1984 ; Tunc, 1982, p. 335). La COB peut enfin prononcer des injonctions, des sanctions administratives ou disciplinaires lorsqu’elle constate des infractions à ses règlements (art. L.621-14 à 17 du Code monétaire et financier). «Par son pouvoir de coercition, la COB a les capacités de faire évoluer les mentalités» et de faire respecter les normes relatives à l’information financière (Dessertine, 1997, p.81). Mais la COB ne corrige pas simplement les abus. Par son pouvoir normatif, elle exerce une régulation a priori. La COB édicte des règles générales qui encadrent le fonctionnement des marchés ou prescrivent des règles professionnelles (art. L. 621-6 Code monétaire et financier). Elles prennent diverses formes, réglementaires ou non (ins13 Cons. Const., 16 janvier 1982, Rev. soc., 1982, 132 Chapitre 7 249 tructions, recommandations, avis) (Guillaume-Hoffnung, 1982, p. 683). Le régulateur prend également des décisions individuelles. Par exemple, il admet les valeurs mobilières à la cote et prononce leur radiation (art. L.621-8 Code monétaire et financier). Le régulateur tire sa légitimité de son ancrage historique et institutionnel. Mais son autorité tient surtout à la conscience que les opérateurs sur les marchés et les épargnants ont de son intérêt. L’autorité de la COB nous semble moins moins donnée que construite. Nous la qualifions de «sociologique» au sens où elle émane du secteur régulé, le marché. 7.2 Une autorité «sociologique» Le régulateur exerce ses pouvoirs sur un mode original et définit empiriquement les règles de bonne conduite. Il tente ainsi de modifier progressivement et efficacement les comportements des sociétés. 7.2.1 Un mode différent d’exercice du pouvoir L’analyse documentaire a révélé l’originalité de la démarche du régulateur. Il se démarque par sa proximité avec les acteurs économiques et les autres pouvoirs, ainsi que par le recours à des moyens simples et informels. Un rapprochement avec la société civile Sa composition, sa transparence et son accessibilité rapprochent le régulateur du marché. Ses membres issus des milieux professionnels se font l’écho des préoccupations de la communauté financière. Contrairement aux autres institutions, il agit de manière transparente. Il publie annuellement un rapport, mensuellement un bulletin et quotidiennement le relevé de ses décisions. Enfin, il est accessible gratuitement et sans formalisme. En 2000, il a traité 1 377 questions-réponses par courrier électronique et 10 990 demandes de renseignements. La collaboration avec les autres pouvoirs La COB est l’alliée des pouvoirs étatiques, des organisations professionnelles et de ses homologues étrangers. Elle participe au travail de réglementation et aux Commissions parlementaires. Le régulateur est actuellement associé à la refonte de la loi du 250 Chapitre 7 24 juillet 1966. Il peut être consulté pour avis sur les projets de textes législatifs ou réglementaires. Il peut lui-même proposer des modifications de lois ou règlements. Le pouvoir législatif peut ensuite codifier les suggestions du régulateur. Ainsi la loi du 2 mai 2001 sur les Nouvelles Régulations Économiques a intégré les réflexions de la COB sur le déroulement des introductions en bourse de l’été 1999. Le régulateur est un auxiliaire de justice. En matière de droit pénal boursier, il sert de relais au ministère public. Lorsqu’il constate un manquement aux dispositions législatives et réglementaires, il peut saisir le Tribunal de grande instance de Paris. Le législateur encourage le régulateur et le juge judiciaire à collaborer, afin d’accélérer la répression des délits boursiers. L’avant-projet de loi sur la sécurité financière conserve ainsi la double sanction administrative et pénale des manquements d’initiés. Ensuite, le régulateur travaille en liaison étroite avec les organisations professionnelles. Il est représenté au Conseil National de la Comptabilité (CNC) et au Comité de la Réglementation Comptable (CRC). Il est associé à toutes les réflexions menées par le CNC. Un groupe de travail associant la COB et la CNCC a ainsi révisé la norme 354 relative au contrôle par les commissaires aux comptes des prospectus d’introduction. Le régulateur apparaı̂t également comme le gardien des normes comptables. Ses pouvoirs coercitifs lui permettent de «faire appliquer ces normes, sans passer par de longues actions en justice» (Dessertine, 1997, p. 73). Par conséquent, la COB influence de fait la réflexion comptable, même si elle ne produit pas elle-même des normes comptables. Enfin, la COB a signé de nombreuses conventions de coopération avec les régulateurs étrangers. Elle appartient ainsi à l’organisation internationale des commissions de valeurs (OICV) ou au comité européen des régulateurs de valeurs mobilières (CESR). Dans le cadre de ces réseaux, les régulateurs échangent informations et expériences. Ils tentent de coordonner leurs actions normatives ou de contrôle des marchés. En 2002, le CESR a par exemple réfléchi aux mesures techniques de transposition des directives «abus de marché» et «prospectus» (rapport annuel COB, 2002, p. 245). La collaboration du régulateur avec les autres pouvoirs renforce son ancrage institutionnel et sa légitimité. Le recours privilégié aux voies extra-juridiques La COB exerce surtout son action par des voies extra-juridiques. Elle recourt à la persuasion et à la dissuasion plutôt qu’à la contrainte (voir Chapitre 7 251 1999 2000 2001 2002 exécutoires Règlements Instructions Total 6 1 7 2 2 4 0 3 3 3 5 8 exécutoires Recommandations Communiqués de presse Positions Total 4 40 5 49 3 28 9 40 1 38 12 51 2 30 17 49 et sanctions Médiations Enquêtes Décisions Décisions tableau 7.1). Enquêtes Ouverture procédure de sanction COB Transmission au parquet Sanction COB prononcées 88 10 16 11 90 6 19 0* 85 20 19 7 Demandes de médiation et conciliation 850 1 000 843 Tab. 7.1 – Bilan de l’action de la COB (1999-2002) * Suspension des procédures de sanction en cours, suite à l’arrêt de la Cour d’appel de Paris du 7 mars 2000. Sources : Rapports annuels de la COB 1999, 2000, 2001, 2002 Entre 1999 et 2001, elle a adopté 189 décisions non exécutoires contre 22 règlements. Habilitée à recevoir et à traiter les réclamations des investisseurs (article 4 ord. 1967), elle privilégie les règlements à l’amiable au contentieux. Elle interfère de plus en plus dans les litiges individuels par voie de médiation ou de conciliation. Sur la période 1999-2001, elle a enregistré 2 693 demandes de conciliation et de médiation. En comparaison, elle a prononcé 18 sanctions et transmis au Parquet 54 dossiers. Les moyens informels employés par la COB prennent plusieurs formes. La COB a protégé les actionnaires minoritaires en menaçant les actionnaires majoritaires de poursuites judiciaires. Elle ne disposait en la matière d’aucun pouvoir propre (Bezard et Chaput, 1982, p. 480). Elle vise les documents d’information publiés lors des appels publics à l’épargne. Sans ce visa, l’offre publique ne peut avoir lieu (article L. 621-8 du 252 Chapitre 7 Code monétaire et financier). Le régulateur s’est servi de cette obligation formelle pour faire connaı̂tre et imposer sa doctrine en matière d’information financière. Tant que le prospectus ou la note d’information ne respectait pas ses exigences, il retardait ou refusait l’octroi du visa. Compte tenu de la volatilité des marchés, le report de l’opération pénalisait le dirigeant. Par ce moyen de pression, le régulateur a par exemple limité les pratiques de diffusion sélective d’information. Certains dirigeants ne communiquaient en effet leur plan de développement qu’aux analystes. Ils ont dû le réintégrer dans le prospectus, sous peine de voir l’opération non visée (rapport annuel de la COB, 1998). L’autorité de régulation rappelle encore à l’ordre les sociétés qui communiquent au marché les termes de leur appel public à l’épargne avant la fin de l’instruction du dossier (bulletin mensuel, juin 2002, no 369). Le régulateur peut assortir son visa d’un avertissement. Il alerte ainsi les épargnants et attire leur attention sur certains facteurs de risque. Entre 1996 et 2000, respectivement 34 et 68 sociétés introduites sur les Second et Nouveau Marchés ont fait l’objet d’un avertissement. Selon Dessertine (1997, p. 81), la COB ferait évoluer les mentalités de par son pouvoir de coercition. Au contraire, elle nous semble parvenir aux meilleurs résultats en employant des moyens simples et informels, sans caractère obligatoire. L’exemple des informations prévisionnelles contenues dans le prospectus d’introduction est à ce titre illustratif. La qualité des prévisions publiées dans le prospectus est appréciée au regard de leur exactitude (tableau 7.2), puis de leur effet sur la rentabilité initiale anormale (tableau 7.3). Dans les tableaux ci-dessous, erreur-dirigeant désigne l’erreur de prévision du dirigeant ; SM, le Second Marché et NM le Nouveau Marché. L’erreur de prévision du dirigeant équivaut au rapport (BPA prévu un an après l’introduction - BPA réel)/BPA réel. La rentabilité C c i,t0 Ibc 0 initiale anormale RIA vaut P OD − Ibc t t−1 où C c i,t est le cours de clôture i 0 du titre i le jour t ; P ODi , le prix d’offre définitif ; Ibc t , le cours de clôture de l’indice boursier SBF250 à la date t. t0 est la date de l’introduction en bourse. Les prévisions et le prix d’offre définitif proviennent des prospectus d’introduction ; les réalisations de la base d’I/B/E/S et les données boursières d’Euronext. Chapitre 7 Marché 1994-1995 1996-2000 253 Erreur moyenne de prévision NM SM 1.83 9.36 0.997 1994 2.68 1995 1.05 1996 1.51 0.099 1997 1.78 0.460 1998 0.964 1.82 1999 18.4 0.227 2000 1.83 0.002 Tests diff. moyennes erreur-dirigeant SM / NM Erreur médiane de prévision NM SM 0.148 0.314 -0.017 Écart-type 46.2 0.148 0.121 0.363 -0.041 1.78 -1.16 0.314 0.053 0.462 -0.004 -1.05 0.002 Diff. moyennes -8.37* 6.44 1.83 2.35 1.49 2.98 2.04 1.28 3.71 67.4 0.768 6.35 0.36 Statistique t -1.875 NM SM 4.64 2.44 Nombre d’observations NM SM 22 32 166 3 2 8 15 4 Sig. 0.063 10 12 28 40 65 26 7 N 166/32 Tab. 7.2 – Exactitude des prévisions NM-SM Constante Erreur-dirigeant F R2 ajusté N RIA-NM 0.283 (2.837)*** 1.7210−5 (0.008) 0.000 -0.033 32 RIA-SM 0.191 (1.655) 8.6710−2 (2.521)** 6.356** 0.050 166 Tab. 7.3 – Valeur informative des prévisions contenues dans les prospectus d’introduction au NM et SM La COB oblige les sociétés du Nouveau Marché à publier leur plan de développement. Rendre obligatoire la publication des prévisions garantit certes la présence de ces informations au sein du prospectus, mais pas leur qualité. Les sociétés du NM commettent une erreur moyenne de 936%, et médiane de 31.4% (voir le tableau 7.2). Leurs prévisions de résultats ne semblent pas informatives pour les investisseurs. Elles n’expliquent pas significativement la rentabilité initiale anormale (voir tableau 7.3). L’obligation de publier a donc des effets pervers. Instituée au nom de l’utilité des prévisions, elle se traduit en fait par des estimations imprécises et donc peu utiles aux investisseurs. La COB recommande aux impétrants sur le Second Marché de communiquer leurs perspectives de développement. Mais elle ne les y oblige pas. Elle s’appuie sur le marché et la justice pour contrôler la bonne information des 254 Chapitre 7 investisseurs. Les sociétés du Second Marché semblent suivre les recommandations de la COB. Elles sont en effet de plus en plus nombreuses à publier des prévisions dans leur prospectus (voir tableau 7.4). Année 1er 1994 1995 1996 1997 1998 1999 semestre 2000 Nombre introductions sur le Second Marché 33 26 33 43 76 33 18 Nbre sociétés ayant publiées des prévisions chiffrées 10 12 28 40 65 26 7 Fréquences 30% 46% 85% 93% 85.5% 79% 39% Tab. 7.4 – Publication de prévision par les sociétés du Second Marché dans leur prospectus La qualité de leurs prévisions s’améliore également d’année en année, contrairement à la tendance observée sur le Nouveau Marché (tableau 7.2). En moyenne sur le Second Marché, les estimations des dirigeants s’éloignent de 183% du bénéfice réalisé en 1994 et 1995, et de 71.5% entre 1996 et 2000. Les sociétés du Second Marché se trompent significativement moins dans leurs anticipations que les firmes du Nouveau Marché (au seuil de 10%). Leurs erreurs de prévision déterminent positivement et significativement la rentabilité initiale anormale (tableau 7.3). Les estimations des sociétés du Second Marché semblent donc réduire l’incertitude des investisseurs. Les statistiques calculées ne contrôlent pas l’impact d’autres facteurs sur la décision du dirigeant de publier des prévisions, ou sur la qualité des prévisions publiées. Elles doivent donc être interprétées avec prudence. Nous avons demandé aux professionnels de la COB rencontrés de commenter les résultats. Ils attribuent aux pressions du marché, relayées par la COB, la plus grande fréquence et l’amélioration observées des prévisions publiées par les sociétés du Second Marché. En France, le marché semble mieux garantir la bonne information des investisseurs que la justice. Les dirigeants voient rarement leur responsabilité engagée pour absence préjudiciable ou mauvaise qualité des prévisions. En Australie au contraire, la justice veille à ce que l’absence de prévision n’empêche pas le jugement éclairé d’un investisseur. La Cour peut enjoindre un émetteur de publier des prévisions dans son prospectus, si elle estime ces informations utiles aux investisseurs (exemple de l’affaire Pancontinental Mining Ltd v. Goldfielfs Ltd, 1995). Chapitre 7 255 L’incitation à publier des prévisions paraı̂t ainsi plus efficace que l’obligation. Elle permet au régulateur de mieux protéger les intérêts des investisseurs. en conciliant utilité et crédibilité des prévisions. Le régulateur préfère aux armes classiques du pouvoir (décisions exécutoires et sanctions) des moyens moins contraignants (recommandations, conciliations). Il serait ainsi plus une autorité au sens sociologique que juridique. Mais comment expliquer que les sociétés respectent ses règles de bonne conduite en l’absence de toute obligation légale ? D’où ces règles tirent-elles leur pouvoir contraignant ? Ces questions nous ont conduits à étudier le processus d’élaboration des normes par le régulateur. 7.2.2 Le procès de création du droit par le régulateur L’élaboration de normes par le régulateur a des caractères de décision publique. Le processus de décision publique comprend généralement deux étapes : le travail préparatoire et la décision proprement dite (voir Edwards et Sharkansky, 1981 par exemple). Ce schéma réducteur ne convenait pas au procès de création de normes par le régulateur, qui se poursuit au-delà de leur promulgation. Les sciences juridique nous ont paru un cadre d’analyse plus approprié. Nous avons successivement abordé les fondements, la mise à jour puis l’application des normes du régulateur. L’analyse documentaire et les entretiens réalisés montrent que les règles du régulateur proviennent d’un cadre hérité, mais ont surtout des fondements réels (voir schéma 7.1 en annexe du chapitre). La création de normes par le régulateur relève ainsi plus d’une approche «génétique» (Ripert, 1955) que positiviste. Elle est une sécrétion du social et du temps ; elle résulte d’un compromis de forces. Elle répond à une nécessité sociale qui explique son application effective. Les sources du droit créé par le régulateur Les règles élaborées par la COB sont à la fois conditionnées par le droit et appelées par le réel. • Les fondements positivistes des normes du régulateur L’environnement réglementaire et institutionnel détermine les règles créées par le régulateur. La Constitution définit en effet une hiérarchie des normes, où le droit est 256 Chapitre 7 engendré par degré, selon des critères procéduraux et formels précis. Le droit européen enserre de plus en plus le pouvoir normatif du régulateur. Le Conseil d’État a progressivement reconnu le primat des traités, règlements et directives européennes sur les lois françaises, même postérieures, respectivement lors des arrêts Nicolo (20 octobre 1989), Boisdet (24 septembre 1990), Rothmans et Philippe Moris (28 février 1992). Plusieurs exemples témoignent de la prégnance du droit européen. La COB doit adapter le contenu du prospectus aux schémas des directives européennes. Elle a également dû conformer sa procédure de sanction à la Convention Européenne de sauvegarde des droits de l’homme et des libertés fondamentales. L’élaboration de la structure de la future autorité des marchés financiers s’est enfin faite dans le cadre des règles européennes. La formation chargée des sanctions est séparée du collège plénier, conformément à la directive sur les abus de marché et à la Convention européenne des droits de l’homme. Sous l’effet de la globalisation des économies et des marchés, les environnements législatifs et réglementaires se font concurrence. Compte tenu de la puissance de leur marché boursier et de leur expérience, les États-Unis tendent à imposer leurs normes en matière d’information financière (Turrillo, 2002, p. 524). Le régulateur américain, la SEC, influence non seulement les modalités de fonctionnement de la COB, mais aussi la lettre et l’esprit des normes prises par la COB concernant l’information financière. La COB a été créée sur le modèle de la SEC. Les deux institutions se ressemblent donc à travers leurs tâches et fonctions, la nomination et le statut de leurs membres14 . Elles sont en porte à faux avec la Constitution et voient leur autonomie limitée par les autres pouvoirs. Par ailleurs, la participation des acteurs sociaux à l’élaboration des normes rappelle le contractualisme américain. L’interdiction des pratiques de diffusion sélective fait pendant à la réaffirmation du principe de «fair disclosure» par la SEC. Sur le modèle de la SEC encore, la COB a réformé sa procédure de délivrance du visa (bulletin mensuel juillet-août 2002). La COB apparaı̂t ainsi comme «une institution pragmatique, défiant allègrement l’esprit cartésien et (...) introduisant dans notre système juridique un germe d’exotisme anglo-saxon» (Guillaume-Hoffnung, 1982). 14 Ainsi, les cinq membres de la SEC sont nommés par le Président, mais sur avis et avec l’accord du Sénat. Trois membres au plus peuvent appartenir au même parti. Leur mandat est de cinq ans, échelonnés de sorte qu’une seule administration ne puisse composer la Commission. Ils ne peuvent ni exercer un autre emploi ni avoir aucun lien avec les entreprises liées à leurs fonctions. Ils ne peuvent être révoqués que pour motif déterminé. Chapitre 7 257 Les règles créées par le régulateur résultent certes de sources formelles. Mais des «forces créatrices» (Ripert15 , 1955) les déterminent également. Les aspirations et mouvements du réel inspirent le régulateur. •Les sources réelles du droit créé par le régulateur Trois types de forces réelles s’exercent sur le jeu législatif du régulateur. - Les marchés financiers conditionnent son action normative. Les normes du régulateur évoluent au rythme des changements du paysage boursier. La COB a ainsi adapté la réglementation du prospectus aux spécificités du marché d’introduction. En 1996 est créé le Nouveau Marché, accueillant les valeurs de croissance. Le régulateur constate que les candidats à l’introduction sur le Nouveau Marché sont très jeunes. Leur historique comptable et financier est insuffisant pour prendre une décision d’investissement éclairée. La COB rend donc obligatoire la publication, par ces sociétés, de leur plan de développement. Il observe ensuite la tendance haussière de ce marché et l’optimisme excessif des intervenants. Il multiplie alors les avertissements en première page des prospectus. En 2000 notamment, il adresse des avertissements à 63 sociétés introduites sur le Nouveau Marché. Face ensuite au retournement du marché, le régulateur affirme sa volonté d’améliorer la présentation et le contrôle des comptes (bulletin mensuel COB, novembre 2002, page 71). - L’environnement économique et social détermine également le pouvoir normatif de l’autorité de régulation. «La pression sociale est de plus en plus grande (...), le citoyen refuse aujourd’hui que les règles du jeu ne soient pas les mêmes pour tous» déclare un membre de la COB interrogé. Les professionnels exigent d’être «étroitement associés au régulateur et de participer à l’élaboration de la réglementation». Ils profitent des consultations pour influencer les choix du régulateur dans un sens qui leur est favorable. Ainsi, lors de la réforme de la procédure de visa, les prestataires de services d’investissement ont obligé la COB à renvoyer à une consultation de place la délimitation de leur responsabilité dans l’élaboration du prospectus d’introduction. 15 En 1955, Ripert invite à sortir de la «zone glacée du droit pur» pour rechercher les véritables motifs de la règle, in Les Forces créatrices du droit, LGDJ, 1955, p. 79. 258 Chapitre 7 - L’environnement technologique oriente le pouvoir normatif de l’autorité de régulation. Les avancées technologiques amènent enfin la COB à créer de nouvelles règles. Ainsi, la COB projette de reconnaı̂tre Internet comme un vecteur de communication à part entière. Le prospectus serait réputé public dès que mis en ligne, à condition de publier parallèlement un résumé dans un quotidien d’information économique et financière de diffusion nationale. Par ailleurs, Internet a permis une désintermédiation bancaire. Les titres introduits en bourse peuvent être directement souscrits via Internet. Le marché du courtage en ligne est en phase de croissance. Il attire une demande de plus en plus jeune et aux revenus modestes. Les courtiers (comme la banque netIPO) s’y livrent une concurrence agressive. Afin de protéger les investisseurs, la COB a récemment affirmé son intention d’accompagner le développement de ce marché (bulletin no 348 juillet-août 2000). Le droit régulatoire est bien la «formulation secondaire des phénomènes sociaux qui les déterminent» (Ansart, 1993). Nous analysons maintenant comment le régulateur met en forme ses principes de bonne conduite, aux fondements formels et réels. Sa manière de faire le droit explique l’efficacité des règles produites. La mise à jour des règles Les règles créées par le régulateur sont efficaces et effectives car consensuelles. Le régulateur recherche a priori l’adhésion des acteurs. Il sollicite leur avis. Sur les problèmes inédits et complexes, il engage une réflexion collective et recherche les solutions idoines, non idéologiques. Il parvient à un accord par la persuasion et la négociation. Ainsi, il a soumis sa réforme de la procédure de contrôle du prospectus d’introduction à une consultation de place en juillet 2001, avant de la codifier en juillet 2002. La norme est d’autant mieux acceptée qu’elle est réfléchie et élaborée en liaison avec les acteurs concernés. Elle reflète les différents points de vue. Toutefois, certaines normes résultent plus d’un compromis que d’un réel consensus, et supposent des concessions de la part des parties prenantes. La COB a ainsi dû renoncer à ses propositions visant à encadrer les opérations sur le capital pré-introduction. Les professionnels s’y sont en effet fortement opposés lors de la consultation de place. Ils ont par contre suggéré d’améliorer Chapitre 7 259 l’information sur la composition du capital au moment de l’introduction, et sur la dilution du capital induite par certains titres (stock-options, bons de souscription d’action etc.). Selon un professionnel interrogé, la COB travaille actuellement à «restructurer le chapitre 3-2 du prospectus» relatif à la structure du capital. La nouvelle norme 354 précisant les diligences des commissaires aux comptes lors d’une introduction résulte également d’un compromis. La COB a accepté de limiter la revue des commissaires aux seules informations comptables et financières. En contrepartie, les commissaires doivent attester l’absence d’incohérences et d’erreurs manifestes dans l’ensemble du prospectus. La formulation souple des règles par le régulateur témoigne encore de la recherche d’un consensus. Les principes généraux énoncés restent en débat et sont révisables. Ils s’analysent comme «un droit-proposition, la définition provisoire d’une ligne de conduite, l’essai de règlement d’un conflit d’intérêts» (Cubertafond, 1999). L’application et la «re-création» des règles La création du droit n’est pas achevée à ce stade. Une fois émises officiellement, les règles du régulateur sont plus ou moins déformées, interprétées, appliquées. Les normes du régulateur peuvent entrer en conflit. La COB essaie alors de les harmoniser, de les hiérarchiser ou de les préciser a posteriori. Ainsi, les informations contenues dans le prospectus doivent être «exactes, précises et sincères» (article 2 du règlement 98-07), tout en préservant le secret des affaires. Le régulateur tente, dans ses règlements, de concilier ces principes contradictoires. Il autorise l’émetteur à taire les informations dont la divulgation serait contraire à l’intérêt social, à condition que la non publication n’induise pas le public en erreur (article 7 règlement 95-01). Les normes du régulateur peuvent s’avérer incohérentes entre elles. Le règlement no 95-01 prévoyait l’obligation pour les candidats à l’introduction sur le Nouveau Marché de publier leur plan de développement, alors que l’instruction de novembre 1996 considérait cette publication comme facultative. Dans son rapport annuel de 1998, la COB tranche : «le prospectus d’introduction au Nouveau marché comporte la présentation d’un plan de développement stratégique à trois ans, en contrepartie de l’absence du minimum d’historique habituellement requis» (page 46). Par sa lecture de la norme, le juge fait évoluer les règles du régulateur. 260 Chapitre 7 La Cour d’appel de Paris a ainsi peu à peu précisé la portée du visa de la COB sur les prospectus. En 1977, la Cour d’appel affirme que le visa dépasse «le simple contrôle formel de l’information» (CA Paris, 18 novembre 1977, Henri de la Tour d’Auvergne c/ Société Radar). Plus tard, elle indiquera que «le visa de la COB ne vaut pas authentification des éléments financiers et comptables contenus la note» (CA Paris, 7 juillet 1995, M. Noël et autres c/ Crédit Lyonnais). Elle estime enfin que «par l’octroi de son visa, la COB (...) certifie qu’ont été vérifiées la pertinence et la cohérence de l’information à publier à l’occasion d’une offre publique» (CA Paris, 13 novembre 1996, ADAM/CFF ; CA Paris, 19 mai 1998, Buckel c/ Société Fermière du Casino Municipal de Cannes). La COB se fonde alors sur les arrêts rendus pour actualiser la formulation du visa en octobre 2000 (bulletin mensuel, octobre 2000, p.1). Enfin la COB amende ses règles lorsqu’elles ne sont plus adaptées à la réalité des marchés. Ainsi, le régulateur a réduit les délais d’instruction et supprimer le visa définitif afin de faciliter le déroulement des opérations sur le marché (règlement no 2002-05 modifiant les règlements nos 95-01, 98-01 et 9808). Il continue d’encadrer les conditions de l’offre (prix, calendrier, nombre de titres) dans un souci d’«efficacité, de sécurité et de rapidité» (bulletin mensuel, juillet 2002, p. 3). Le réalisme des règles prises par le régulateur explique leur effectivité. À l’image du sage chinois décrit par Jullien (1996, p. 28, cité par Cubertafond), il ne pose pas de solution a priori. Il discerne la situation, analyse les faits, tire parti du «potentiel de situation». Il précise peu à peu les règles du jeu. 7.3 Obstacles à la légitimité du régulateur et perspectives L’autorité historique, institutionnelle et «sociologique» de la COB pourrait expliquer l’efficacité et l’effectivité de ses règles encadrant les informations publiées au moment d’une introduction en bourse. Toutefois, la légitimité de la commission n’est pas acquise ; elle se construit. Nous présentons tout d’abord les obstacles rencontrés par la COB sur la voie de la légitimation. Nous envisageons ensuite à quelles conditions l’autorité du régulateur en matière d’information financière pourrait être confortée. Chapitre 7 7.3.1 261 Un déficit de légitimité La fragilité de son assise constitutionnelle, son autonomie relative et la portée limitée de ses normes font actuellement pièce à l’affirmation de la légitimité du régulateur. Une certaine fragilité constitutionnelle Comme la SEC, la COB est en porte à faux avec la Constitution. Le cumul des pouvoirs et le caractère hybride du régulateur (autorité administrative et indépendante) font peser un doute sur sa constitutionnalité et sa légitimité. Le Conseil constitutionnel a expressément condamné les institutions qui portent «atteinte aux pouvoirs et attributions des institutions de la République» (décision des 29-30 décembre 1976, assemblée européenne16 ). Or l’autorité de régulation dit le droit, contrôle et sanctionne. Sa compétence réglementaire bat en brèche le monopole réglementaire du Premier Ministre prévu à l’art.20 alinéa premier de la Constitution. Ses pouvoirs de sanction mettent en cause le monopole du juge en matière répressive. Son pouvoir normatif concurrence celui du Législateur, garant des libertés publiques selon l’article 34 de la Constitution. Sa double compétence, normative et répressive, contrevient également au principe de séparation des pouvoirs. Le Conseil Constitutionnel a affirmé en 198417 , en matière de liberté de la presse, que «la répression ne saurait être confiée à une autorité administrative». La COB est, selon l’article L.621-1 du Code monétaire et financier, une autorité administrative indépendante. Or la Constitution ne prévoit pas expressément que des autorités administratives puissent être échapper au contrôle gouvernemental. Le gouvernement, sous le contrôle du parlement, «dispose de l’administration» (article 21 de la Constitution). Le régulateur perturbe le schéma de l’appareil administratif largement dominé par le modèle wéberien. Il engendrerait même, selon Chevallier (1986), «un modèle nouveau de type polycentrique caractérisé par la coexistence de plusieurs centres de décision et de responsabilité». 16 «Les Instances de régulation et la Constitution», Revue du droit public, février 1990, p.160-161. 17 Conseil Constitutionnel 10 et 11 octobre 1984, note Bienvenu, AJDA, 1984, p. 684. 262 Chapitre 7 Une autonomie relative L’indépendance du régulateur, indispensable à l’exercice efficace de sa mission, est fragile et discutée (Chevallier, 1986) . En premier lieu, le régulateur ne peut s’émanciper complètement de l’État. Sous son couvert, «l’État s’avancerait masqué pour mieux contrôler les choses» (Sabourin, 1983). Il ferait mine de s’effacer derrière des normes objectives et nécessaires prises par un organe indépendant. Ce relais faciliterait en réalité une intervention étatique plus poussée dans le domaine économique. Le régulateur permettrait à l’État de «se réapproprier le consensus» (TeitgenColly, 1990). De plus, les organes classiques de l’État et les membres du régulateur, souvent de même origine sociale et formation, sont idéologiquement proches. À cette connivence idéologique s’ajoute une dépendance statutaire. L’institution comme la suppression du régulateur relève de la seule volonté législative. Dans le domaine de l’audiovisuel, les autorités régulatrices ont ainsi disparu puis été remplacées au gré des alternances politiques. L’absence de personnalité morale limite encore l’indépendance de la COB à l’égard de l’État. Toutefois, la nouvelle autorité de régulation devrait être dotée de la personnalité morale de droit public, comme la Banque de France. Le gouvernement intervient également dans le fonctionnement interne de la COB. D’une part, il nomme son Président par décret et quatre de ses membres par arrêté. D’autre part, un commissaire du gouvernement, désigné par le ministre, siège auprès de la commission. En principe il peut seulement, dans un délai de quatre jours, provoquer une seconde délibération. Mais en réalité il assiste à toutes les délibérations, exprime son point de vue et peut poser des questions. Enfin, le Ministre de l’économie, en homologuant les règlements de la COB, est associé à leur élaboration. Les règlements ont à ce propos une nature juridique mixte. Ils sont à la fois des arrêtés ministériels et des décisions de la COB (Decoopman, 1980, p.5). En second lieu, la doctrine, les juges administratif et constitutionnel encadrent l’action du régulateur. Ainsi, le Conseil d’État a le 20 décembre 2000, invalidé les articles 19, 25, 26, 36 et 37 du règlement 98-01, et l’article 5 du règlement 98-08, sur le fondement de la loi du 4 août 1994, relative à l’emploi de la langue française. Il précise que le prospectus doit être intégralement rédigé en français, sauf cas prévus par le règlement COB 2002-03. Par ailleurs, le Conseil constitutionnel a précisé et canalisé les pouvoirs de toutes les autorités indépendantes dont la COB, à l’occasion de quatre Chapitre 7 263 décisions18 prises entre 1984 et 1987. Il exclut une indépendance absolue des instances régulatrices. Il condamne toute compétence de nature législative à ces instances, limite le contenu et la portée de leur pouvoir réglementaire et impose le contrôle juridictionnel de leurs actes. Il les rappelle à l’impartialité. Enfin, il exige que la répression administrative soit assortie des mêmes garanties que la répression pénale. En troisième lieu, selon la théorie de la «capture», les sociétés contrôlées pourraient finir par contrôler le régulateur. Ainsi, les banques introductrices engagent souvent d’anciens membres du régulateur pour gérer les relations avec la COB. En France, contrairement aux États-Unis, aucune loi ne vise à prévenir ces collusions d’intérêts. En dernier lieu, le manque de moyens humains, matériels et financiers de la COB, comparée à la SEC, limiterait sa marge de manoeuvre (Dessertine, 1997, p. 81). La portée limitée des normes de la COB Les règles prises par le régulateur ont une portée juridique assez faible, au sein de la hiérarchie des normes19 . Elles n’ont pas autorité de chose légiférée20 . Contrairement aux normes produites par des organes souverains, elles ne s’imposent d’elles-mêmes, a priori. Le secteur régulé les valide in fine (FrisonRoche, 2001). Il participe en effet à leur élaboration et détermine leurs effets. Les règles prises par le régulateur valent tant que leurs destinataires n’en remettent pas en cause le bien fondé. Elles conviennent mieux aux situations de paix sociale que de conflits. En période de crise, l’unanimité conventionnelle est remise en cause ; un droit plus dogmatique et souverain s’impose : «il faut du droit prenant en compte les forces en présence mais réussissant à les sublimer dans le cadre d’un intérêt supérieur commun qui, porté par l’État, s’imposera à tous» (Cubertafond, 1999, p. 37). Ce rappel au règlement pacificateur et réintégrateur s’observe aujourd’hui aux États-Unis. La régulation a modelé le capitalisme libéral américain depuis le début du XXème siècle. Mais elle cède actuellement la place à une logique de 18 Déc. 84-173 DC du 26 juillet 1984, R.63 ; Déc. 86-210 DC du 29 juillet 1986 ; Déc. 86-217 du 18 septembre 1986 ; Déc. 86-224 DC du 25 janvier 1987. 19 Les normes ayant la plus grande force juridique sont, par ordre décroissant, la Constitution, le droit international, la loi, les règlements, la jurisprudence, les usages et la doctrine. 20 Seule la loi promulguée est un acte non contestable et non fautif (Vedel et Delvolvé, 1982, p. 86). 264 Chapitre 7 réglementation. La puissance publique américaine intervient de plus en plus dans l’édiction des règles relatives au gouvernement d’entreprise. Elle agit directement en légiférant, comme par exemple avec la loi Sarbanes-Oxley du 30 juillet 2002. 7.3.2 Perspectives Selon Max Weber, la légitimité d’une institution dépend de sa capacité à faire valoir durablement un titre de légitimité qui est sa raison d’être. Le régulateur garantira d’autant mieux la transparence des opérations d’introduction que sa légitimité politique et juridique sera consacrée. La place du régulateur dans le paysage institutionnel Dessertine (1997, p. 81) évoque «la position unique de la commission» conjuguant «les intérêts de l’approche boursière et ceux des pouvoirs publics, dans une organisation à la fois administrative et indépendante». La nature administrative du régulateur garantit qu’il oeuvre dans l’intérêt général, et non corporatiste de quelques professions. Son indépendance lui permet d’intervenir de manière plus consensuelle, souple et rapide que les organes classiques de l’État. Ce statut original du régulateur explique en partie l’efficacité et l’effectivité de sa réglementation des informations publiées au moment d’une introduction en bourse. Mais il diffracte le pouvoir politique. Où situer une telle autorité dans le paysage institutionnel français ? Sur ce point, le législateur est muet. La logique de l’instituant ou de l’institué conduisent à des réponses différentes. La logique de l’instituant ou l’attraction des modèles traditionnels de pouvoir La stratégie d’institution qui anime le régulateur risque de banaliser son statut. Il concurrence en effet la légitimité mieux établie des pouvoirs traditionnels. Dans la logique de l’instituant, il serait alors rattaché aux autorités administrative, judiciaire ou parlementaire. Héritier de traditions jacobines et régaliennes, l’État français pourrait subordonner le régulateur, l’enfermer dans le circuit administratif. Il en ferait alors une autorité administrative, définitivement ou provisoirement. Le régulateur serait transformé en un établissement public autonome chargé d’exercer, sous le contrôle du juge et la tutelle du pouvoir politique, sa Chapitre 7 265 mission. D’anciennes autorités de régulation ont connu ce sort dans d’autres domaines, comme le Conseil National de la Cinématographie. Le régulateur pourrait encore être qualifié d’administration de mission. Son destin serait alors plus précaire. Une fois la protection des épargnants enracinée dans les moeurs et donc sa mission réussie, il serait supprimé. Le législateur et le gouvernement codifieraient et entérineraient la déontologie définie par le régulateur ; les tribunaux en contrôleraient l’application. Le régulateur pourrait encore devenir une juridiction spécialisée assortie d’un pouvoir d’avis, comme l’ancienne Commission de la concurrence devenu le Conseil de la concurrence. Compte tenu de la polychromie des affaires boursières, tribunaux, gouvernement et régulateur se partageraient les pouvoirs. En ce sens, l’avant-projet de loi sur la sécurité financière prévoit de doter la nouvelle autorité de régulation d’un collège des sanctions. Le rattachement parlementaire du régulateur serait encore un scénario envisageable, au regard de sa fonction de régulation économique et de protection des libertés. La loi du 2 juillet 1996 a déjà rapproché la COB du pouvoir législatif. Le Président de la COB peut être entendu ou demandé à l’être par les commissions des finances du Parlement. Il fait également rapport aux Présidents des assemblées. Enfin, le Parlement participe à la composition du régulateur. Si un avenir proche confirmait l’un de ces scénarios, le régulateur perdrait un statut qui explique pourtant en partie l’efficacité de son action. La logique de l’institué Dans cette logique, le régulateur resterait hors la trilogie traditionnelle des pouvoirs. Trois moyens permettraient de régler la question de sa légitimité politique. Son statut pourrait être déclaré constitutionnel, suite à un amendement ou à une interprétation large de la Constitution. La consécration constitutionnelle serait la meilleure garantie pour le régulateur ; elle empêcherait le politique d’être maı̂tre de son sort. À défaut, la Constitution pourrait se fonder sur ses principes généraux pour justifier le statut d’autorité indépendante du régulateur. Ainsi, en Allemagne, une interprétation assez large de l’article 88 de la loi fondamentale a permis de réconcilier l’indépendance fonctionnelle et la dépendance organique de la Bundesbank. 266 Chapitre 7 Hubac et Pisier (1988) choisissent de situer le régulateur dans la sphère de l’éthique. Autorité morale éclairée, le régulateur ne souffrirait ainsi pas d’un déficit de légitimité par rapport au législateur élu ou au juge. Il tirerait sa force, non pas de dire le droit positif, mais de suggérer des conduites et des comportements, de dégager des opinions communes. Si l’organe de régulation devenait communautaire, les pouvoirs nationaux ne pourraient en contester la légitimité. Les ministres des finances allemands et britanniques ont avancé l’idée d’une autorité supranationale de supervision de la Bourse, des métiers de l’assurance et de la banque, sur le modèle de la Banque Centrale Européenne. Celle-ci gère la monnaie européenne et applique les «règles de juste conduite », à l’abri des pressions des élus et sans tenir compte des majorités électorales. En France, la nécessaire harmonisation du régulateur avec ses homologues européens a déjà conduit au projet de création d’une unique autorité des marchés. Le régulateur ne doit pas seulement être reconnu sur le plan politique et institutionnel, mais aussi comme «entrepreneur législatif» (Cubertafond, 1999). La régulation et les normes créées par le régulateur dans le système juridique Nous avons précédemment montré que le régulateur recourait principalement à des moyens simples, informels et non impératifs. Pour autant, il fait autorité. Ce paradoxe explique les difficultés du droit positif à qualifier la régulation de pouvoir normatif. Traditionnellement, la jurisprudence et la doctrine assimilent le régulateur à une autorité administrative classique. Elles considèrent alors qu’au sein de la fonction de régulation, seule l’élaboration de règlements est une activité de droit. Parfois, elles reconnaissent l’existence d’une fonction de régulation mais lui refusent le caractère de pouvoir. Dans cette logique, le régulateur édicterait deux types d’actes : les recommandations, relevant de la régulation mais non contraignantes ; les décisions, expression d’un pouvoir réglementaire classique. De même, le droit positif hésite à qualifier de normes juridiques, les moyens non contraignants employés par la COB (avertissements, recommandations, visa, communiqué de presse etc). Ces derniers ne présentent pas les critères classiques de normativité (tableau 7.5). Chapitre 7 267 Conception traditionnelle de la normativité Extériorité de la norme La norme est imposée de l’extérieur au groupe social. Conception originale de la normativité Elaboration endogène de la norme Le groupe social élabore les normes et se les impose à lui-même. Impérativité de la norme Le non respect de la norme est sanctionné par la contrainte. Disparition de la contrainte Les normes sont obligatoires mais non contraignantes. Leur respect est fondé sur des mécanismes de persuasion, d’incitation, de recommandation. A la notion de sanction et de peine se substitue celle de «réponse sociale». Généralité et impersonnalité La loi énonce les conditions de son application. Elle précise les situations concrètes auxquelles elles’appliquera. Singularité et contextualisation de la norme Le régulateur édicte des principes généraux. Il les décline ensuite a posteriori au cas par cas. Il invente la solution appropriée à chaque situation individuelle. Cette fonction de spécification de la norme explique que l’égalité soit conçue comme uniformité. Les principes généraux et abstraits donnent lieu à exécution individuelle et impersonnelle. Cette fonction de contextualisation de la norme conduit à une conception de l’égalité - universalité. Les orientations générales sont mises en oeuvre de manière différenciée, contextualisée et proportionnalisée. Tab. 7.5 – Comparaison des normes élaborées par le législateur et le régulateur La loi encadre l’activité des acteurs de la vie économique de l’extérieur. Au contraire, l’autorité de régulation élabore les règles de bonne conduite de manière endogène. Destinateur et destinataire des normes sont confondus. La loi est impérative et sanctionnée par la contrainte. Avec la régulation, la notion d’impérativité s’efface et laisse place à la coopération. Même les injonctions du régulateur ne visent pas à réprimer ou réparer, mais à corriger et rétablir une situation (De Coopman, 1980). La production comme l’application effective des normes, est une oeuvre collective. En témoigne la responsabilisation, par le régulateur, de tous les acteurs impliqués dans la rédaction du prospectus d’introduction. Les auteurs sont responsables, à hauteur de leur contribution, du respect des normes encadrant le contenu du prospectus. La société est la principale responsable de l’information publiée. Mais le régulateur considère que les prestataires de services financiers effectuent des diligences particulières de nature à fonder une responsabilité ad hoc. La loi est générale et impersonnelle ; elle comporte les conditions de son exécution singulière. Inversement, la COB ajuste la norme à chaque situation, reconfigure à chaque cas l’application de la norme générale. Son pouvoir d’appréciation permet de rendre la norme générale appropriée aux situations 268 Chapitre 7 singulières. Il introduit de la souplesse dans l’exercice du pouvoir normatif. L’exécution individuelle de la loi se fait, pour préserver son impersonnalité, dans des conditions uniformes. La loi conçoit donc l’égalité comme uniformité. Autrement dit, deux situations sont égales au regard de la loi si elles remplissent les conditions légales pour leur application. L’égalité est affectée d’un caractère rigide. Par contre, avec la régulation, l’égalité est plus universelle, différenciée, c’est-à-dire mieux adaptée à chacun des individus. Pourtant, les modes d’action simples, informels et non impératifs du régulateur «modifient les situations des personnes ou groupements concernés, leur ouvrent des voies d’action, peuvent être prises en compte devant des administrations ou juridictions». Ils ont donc bien des effets juridiques. La Cour d’appel de Paris l’a récemment rappelé (arrêt Elyo, 1998). Selon elle, l’appréciation par la COB du communiqué annonçant une offre publique s’apparente dans sa démarche à un contrôle, et dans son expression à une décision administrative faisant grief et susceptible de recours. Par conséquent, reconnaı̂tre les effets juridiques des moyens informels et non impératifs employés par la COB, suppose de renoncer à une conception trop classique de l’élaboration du droit et des normes juridiques. Timsit (1997, p. 161-231) voit déjà dans les évolutions jurisprudentielles et doctrinales récentes la possibilité d’appréhender la régulation comme une nouvelle forme du pouvoir normatif. Les arrêts Notre Dame de Kreisker21 (1954) et Crédit Foncier de France22 (1970) entrouvrent un espace pour la fonction de régulation, entre l’interprétation et la réglementation. Timsit invoque également les conclusions du commissaire du gouvernement sur l’arrêt Labbé et Gaudin23 (C.E., Assemblée, 20 mai 1985) : «la recommandation a une force réellement contraignante». Elle est obligatoire et son degré de contrainte dépend de sa précision. Timsit invite à sortir de la distinction classique droit/non droit et à accepter l’idée d’une gradation dans la normativité. Les caractères spécifiques des règles de conduite édictées par le régulateur justifieraient de les considérer comme des normes juridiques à part entière, d’un nouveau type. La doctrine, s’appuyant sur les travaux de J. Habermas et G. Teubner, suggère également que la composition du régulateur et sa manière de créer le droit, puissent légitimer ses normes. «La légitimité de la régulation les 21 CE, Ass., 29-1-1954, Institution Notre-Dame du Kreisker, R. 64 ; revue pratique de droit administratif , 1954, 50, concl. Tricot. 22 CE, section 11-12-1970, Crédit foncier de France c/ Demoiselle Gaupillat et Dame Ader, concl. Bertrand, R. 750 ; GAJA, 10e éd., p. 637. 23 Revue française de droit administratif, 1985, p. 554-565. Chapitre 7 269 normes mixtes tient au fait qu’elle met en oeuvre une logique interactive, évolutive, professionnelle et pluraliste. (...) Légitimée par la composition des organismes producteurs de la norme, la normalisation (au sens de normes privées) l’est aussi par ses procédures» (Boy, 1998, p. 134 à 139, cité par Turrillo). Conclusion Dans ce chapitre, nous sommes partis de deux constats. D’une part, le régulateur plus que le législateur réglemente les informations à publier au moment d’une introduction en bourse en France. D’autre part, il semble avoir effectivement sensibilisé les sociétés à l’importance de la transparence. Nous avons alors cherché à dévoiler les fondements, mais aussi les limites, de l’autorité de la COB en matière d’information, à partir de sources documentaires et d’entretiens. Les résultats suivants ressortent de l’étude de cas. Le régulateur est né dans un contexte de crise de l’État. L’acquisition progressive d’un statut institutionnel a ensuite inscrit dans la durée une légitimité au départ simplement historique. L’action du régulateur est surtout efficace car en phase avec la réalité. La COB met à jour puis formule les règles de bonne conduite de manière consensuelle et empirique. Ces règles trouvent leur force plus dans l’adhésion que dans la sanction. Elles cherchent l’assentiment de ceux auxquels elles s’appliquent. Le régulateur s’impose donc par une autorité plus «sociologique» que juridique. Un certain nombre d’obstacles compromettent toutefois sa légitimité actuelle et à venir. Son assise constitutionnelle est fragile et son autonomie relative. Le droit positif hésite à reconnaı̂tre les effets juridiques des moyens informels auxquels recourt principalement le régulateur. Il est mal à l’aise avec les normes crées par le régulateur. Élaborées et appliquées de manière endogène, ancrées dans le réel et contextualisées, elles ne présentent pas les caractères traditionnels d’extériorité, d’impérativité et de généralité. La jurisprudence et la doctrine ne considèrent encore que rarement la régulation comme une nouvelle forme du pouvoir normatif. Leurs hésitations illustrent la difficulté de transposer dans notre système juridique codifié, une autorité originaire d’un pays de droit coutumier. Les limites de cette étude en suggèrent les prolongements. Nous soulignons le déterminisme historique et institutionnel de la régulation de l’information en France. Il rend difficile la généralisation des résultats. Une démarche com- 270 Chapitre 7 parative compléterait utilement notre approche. Elle spécifierait les environnements favorables à la régulation. De surcroı̂t, l’acceptation par les acteurs et la cohérence logique du procès de régulation identifié ne suffisent pas à garantir la validité. La confrontation aux expériences étrangères confirmerait ou infirmerait sa pertinence. Elle permettrait enfin de savoir si la France, par son mode de régulation de l’information, constitue un modèle. La longévité de l’autorité de régulation, le consensus dont elle fait l’objet et son bilan plaident en ce sens. Reste à déterminer l’originalité de la formule. Si elle était avérée, elle affirmerait la légitimité interne et externe du régulateur, notamment par rapport aux États-Unis. Chapitre 7 271 Fig. 7.1 – Le procès de création de normes par le régulateur Dans une relation de déterminisme, B ajuste ses choix à la situation A qu’il perçoit. Dans une relation de contingence, le facteur d’environnement A modifie les caractéristiques du facteur B. Une relation de médiation lie deux facteurs dont l’un permet l’action du second. Dans une relation de condition, le paramètre ou la contrainte A conditionne l’action B (voir Michaı̈lesco, 1999, p. 90). 272 Chapitre 7 Fig. 7.2 – Composition envisagée de l’Autorité des Marchés Financiers Conclusion La présente recherche traite de l’environnement informationnel des introductions en bourse, c’est-à-dire des informations diffusées sur le candidat à l’introduction. Nous apprécions en particulier la qualité des prévisions de résultat disponibles sur les admissions à la cote du Second Marché entre le premier janvier 1994 et le 30 juin 2000, et du Nouveau Marché entre le premier janvier 1996 et le 30 juin 2000. Le dirigeant de la société introduite, les analystes financiers de l’entreprise d’investissement spécialiste et les analystes ayant transmis leurs estimations à I/B/E/S constituent les producteurs d’information retenus. Cette thèse visait tout d’abord à tester si des considérations d’agence expliquent l’offre d’information du dirigeant et des analystes. Elle analyse ensuite comment le dirigeant et le régulateur tentent d’enrichir l’environnement informationnel de la société introduite. Nous rappelons la démarche et les résultats afférents à chaque chapitre, avant d’en souligner globalement l’originalité et les limites. La première partie fixe le cadre de la recherche. Nous y présentons le marché de l’information au moment d’une introduction en bourse, en particulier ses acteurs, les informations échangées et la réglementation. Nous exposons ensuite le paradoxe qui fonde la problématique. Malgré les vertus prêtées à la bonne information des investisseurs, les informations diffusées sur les sociétés introduites semblent inégalement réparties et imprécises, au vu de la littérature. La première partie s’achève sur des explications et solutions théoriques au paradoxe soulevé et ouvre la voie à leur vérification empirique. La deuxième partie analyse l’environnement informationnel des introductions en bourse à la lumière de la théorie de l’agence. Les producteurs d’information sont donc envisagés dans leurs relations avec leur mandant. Nous cherchons à déterminer l’influence des contraintes d’agence sur leur offre d’information. Le chapitre 2 teste si les pressions des actionnaires et des créanciers expliquent la qualité des prévisions publiées par le dirigeant. Nous mettons en évidence 273 274 Conclusion l’excès d’optimisme du dirigeant, comparé à un modèle naı̈f de prévision ou aux analystes financiers. Cet optimisme est cependant difficilement imputable aux pressions des actionnaires, telles que nous avons pu les mesurer. Il croı̂t par ailleurs avec le niveau d’incertitude sur les bénéfices estimés. Le dirigeant préserverait ainsi sa réputation. De leur côté, les créanciers et le marché financier semblent inciter le dirigeant à révéler précisément ses anticipations. Au vu de nos résultats, expliquer la qualité des prévisions publiées comme un compromis entre les pressions des diverses parties prenantes est plausible mais insuffisant. De surcroı̂t, la précision des prévisions du dirigeant semble moins réduire les coûts d’agence escomptés par les investisseurs que leur incertitude. Le chapitre 3 s’intéresse aux analystes de l’entreprise d’investissement spécialiste. Ces analystes sont chargés de rédiger une étude financière, jointe au prospectus d’introduction. Ils y prévoient les futurs résultats de la société et le prix d’équilibre espéré. Nous avons mené une enquête auprès de 334 analystes à deux fins : mieux comprendre comment ces analystes travaillent ; vérifier leur indépendance dans l’exercice de leur métier. L’instrument de recherche a été administré à la fois via Internet et par la poste. Premièrement, nous montrons que la société représente pour les 37 répondants retenus une source d’information essentielle, mais imparfaite. Pour autant, les répondants ne perçoivent pas l’impact de la qualité des informations publiées par la société sur leur propres estimations. Deuxièmement, plusieurs indices témoignent des pressions subies par les analystes quand leur employeur est affilié à une banque. Le cas échéant, les répondants reconnaissent être incités à faciliter l’obtention puis l’exécution du mandat de placement. 70% disent être sollicités par le département origination. Leur expertise, leur connaissance du secteur et du marché servent en effet d’argument commercial à la banque. Lorsque la banque du groupe est mandatée, tous les répondants affirment prendre en compte ses intérêts commerciaux dans leur étude. Ils semblent ainsi justifier le prix d’introduction fixé par l’introducteur, en appliquant une décote au prix d’équilibre (qu’ils soutiennent estimer librement). Par contre, seulement 2% des répondants reconnaissent surestimer leurs prévisions de résultat, dans l’intérêt de l’introducteur... L’évaluation objective de la société introduite par les analystes de l’entreprise d’investissement peut compromettre les intérêts commerciaux de la banque. Pour éviter les conflits d’intérêts, la banque tend à impliquer les analystes de sa filiale dans la préparation de l’introduction. Elle les contrôle ainsi plus facilement. De leur côté, les analystes prouvent par leur coopération qu’ils agissent bien dans l’intérêt du mandant. Mais leur participation à l’introduction rend difficile l’évaluation impartiale de la société introduite. Elle Conclusion 275 est donc préjudiciable aux investisseurs. Elle les éloigne également de leur métier d’origine (l’analyse financière fondamentale). Troisièmement, sur le plan méthodologique, Internet s’est révélé le vecteur de communication le plus efficace, au regard des critères de coût, de taux de retour, de rapidité et de qualité des informations obtenues. Toutefois, ce média de recueil ne convient pas à tous les problèmes de recherche ni à toutes les populations étudiées. Nous développons aussi, outre le protocole expérimental suivi, les conditions auxquelles cette méthode d’enquête, forte de ses spécificités, nous semble pouvoir s’avérer utile à la recherche en finance. Les analystes considérés dans le chapitre 4 sont affiliés à une maison de courtage extérieure au syndicat de placement. Lorsqu’ils suivent un titre nouvellement coté, ils produisent des informations et donc enrichissent l’environnement informationnel de la société concernée. Le chapitre 4 met à jour les caractéristiques des sociétés couvertes par les analystes d’I/B/E/S. Sur notre échantillon, le nombre d’analystes suivant une société augmente avec le volume moyen de titres échangés le premier mois de cotation, le nombre de titres mis à la disposition du public et la perspective d’une augmentation de capital post introduction. Il diminue avec la petite taille de la société, la participation au capital du dirigeant après l’introduction et le dynamisme du marché primaire. Ainsi, les analystes semblent prendre leur décision en fonction des gains nets attendus de la couverture. Ils comparent les commissions de courtage et/ou de placement espérées au coût de production de l’information. Ce faisant, ils satisfont à la fois les préférences de leur employeur et leur utilité personnelle24 . Ils évitent donc les conflits d’agence. La deuxième partie suggère d’ores et déjà quelques moyens d’améliorer la qualité et la quantité d’informations disponibles sur les sociétés introduites en bourse. À l’issue du chapitre 2, le dirigeant semble publier des prévisions de résultat plus précises, sous les pressions des créanciers et des investisseurs. Les parties prenantes ont donc un rôle incitatif à jouer, afin d’être mieux informées. Au vu du chapitre 3, l’analyste semble enclin à surévaluer le candidat à l’introduction, lorsque son employeur appartient au syndicat de placement. Il appartient aux autorités professionnelles et/ou étatiques de garantir l’indépendance d’esprit des analystes, et d’identifier les situations porteuses de conflits d’intérêts préjudiciables aux tiers. Le chapitre 4 conclut à une inégale couverture des sociétés introduites par les analystes non affiliés au chef de file. Afin de limiter les asymétries d’information, la COB 24 Une partie de la rémunération des analystes varie en effet en fonction des résultats de l’établissement financier. 276 Conclusion pourrait recommander au candidat à l’introduction de publier une analyse financière rédigée par un établissement non membre du syndicat de placement. La communauté financière devrait valoriser et mieux reconnaı̂tre les analystes émettant des recommandations pertinentes et des prévisions précises. La troisième partie approfondit les investigations sur les moyens d’enrichir l’environnement informationnel des introductions en bourse. Les intérêts du candidat à l’introduction et des investisseurs sont ici supposés confondus. Les deux parties gagnent à éliminer le phénomène d’anti-sélection, c’est-àdire l’inégale information sur la qualité des titres échangés. Les chapitres 5 et 6 évaluent l’efficacité des solutions au problème de sélection adverse, déduites des modèles de signalisation. L’avantage informationnel du candidat à l’introduction le prédispose à agir. L’alternative suivante s’offre à lui. Le dirigeant peut réduire l’incertitude du marché sur la valeur espérée des titres, en diffusant volontairement ses prévisions de résultat. Telle est l’idée du modèle de Hughes (1986), testée empiriquement dans le chapitre 5. La publication de prévisions précises, non demandées par la loi, prouve la capacité du dirigeant à anticiper correctement les changements de l’environnement économique et à y répondre efficacement. Elle informe donc le marché d’un élément par ailleurs inobservable. À ce titre, elle constitue un signal de qualité. Nous ne vérifions que partiellement les prédictions du modèle de Hughes sur notre échantillon. Nos résultats font apparaı̂tre que l’acte volontaire de publication n’a pas d’attribut informatif pour les investisseurs ou les analystes. En effet, il n’influence pas significativement la sous-évaluation des titres, l’exactitude ou la dispersion des estimations des analystes. De surcroı̂t, les sociétés sans prévision dans leur prospectus sont suivies par deux fois plus d’analystes que les autres. En revanche, la qualité des prévisions du dirigeant semble informative pour les analystes et les investisseurs. Elle accroı̂t significativement le nombre d’analystes suivant la société introduite, l’exactitude et l’homogénéité de leurs estimations. Nous observons parallèlement une sous-évaluation croissante avec l’erreur de prévision du dirigeant. Enfin, les sociétés de l’échantillon semblent utiliser des mécanismes de signalisation différents, selon leurs caractéristiques ; le marché, l’année et la procédure d’introduction. Ainsi, les sociétés les plus jeunes, de la Nouvelle Économie, introduites par placement ou offre à prix minimal après 1996, semblent lever l’incertitude des investisseurs en publiant des prévisions précises. Nos résultats confortent plutôt l’hypothèse d’une signalisation par sous-- Conclusion 277 évaluation, pour les sociétés les plus âgées, d’un secteur traditionnel, introduites en 1994 et 1995 par offre à prix ferme. Le chapitre 6 envisage une solution parallèle au problème de sélection adverse. Dans le modèle de Chemmanur (1993), le dirigeant d’une société performante délègue aux analystes l’émission du signal mais en assume le coût. Il sous-évalue en effet délibérément le prix d’introduction pour inciter les analystes à produire des informations sur la société. Les informations publiées par les analystes permettent au marché de valoriser précisément les titres introduits. Elles influencent favorablement les cours. Les actionnaires initiaux attendent donc que le marché ait capté le signal, avant de se désengager. D’après nos résultats, le dirigeant peut, en sous-évaluant le prix d’introduction, espérer augmenter le nombre d’informations diffusées sur la société, mais pas améliorer leur qualité. En effet, la sous-évaluation accroı̂t le nombre d’analystes suivant la société et la dispersion de leurs estimations. Son effet sur l’erreur de prévision des analystes est mitigé. Les sociétés de l’échantillon semblent toutefois subordonner la sous-évaluation au coût de production de l’information pour les analystes et à la perspective d’une augmentation de capital au plus tard vingt-quatre mois après l’introduction. La probabilité d’une augmentation de capital douze ou vingt-quatre mois post introduction augmente au demeurant avec la sous-évaluation initiale et le nombre d’analystes suivant la société sa première année boursière. La sous-évaluation semble donc créer un contexte informationnel propice à une nouvelle émission de titres. Enfin, nos résultats confortent l’hypothèse que les informations produites par les analystes constituent un signal de qualité. Sur notre échantillon, les performances boursières à douze et vingt-quatre mois des sociétés introduites croissent avec le nombre et l’exactitude des prévisions des analystes. L’enrichissement de l’environnement informationnel, induit par la sous-évaluation, semble bien avoir un impact positif sur les cours. À l’issue des chapitres 5 et 6, les initiatives prises par le dirigeant pour améliorer l’environnement informationnel de la société semblent insuffisantes. Elles sont complétées, mais aussi souvent impulsées par un autre acteur, la Commission des Opérations de Bourse (COB). En France, l’État a choisi la voie de la régulation plus que de la législation, pour garantir la bonne information des investisseurs. Le dernier chapitre retrace comment la COB est parvenue à asseoir son autorité et à imposer ses exigences en matière d’information aux candidats à l’introduction. Il se démarque des cinq chapitres précédents par la démarche inductive, et non déductive, adoptée. L’étude de cas réalisée révèle que l’ancrage historique et institutionnel du régulateur, 278 Conclusion sa manière originale d’exercer ses pouvoirs et de créer les règles de bonne conduite expliquent son autorité. Mais sa fragile légitimité politique et juridique limite encore l’efficacité de son action. Le résumé des résultats obtenus invite à s’interroger sur leur intérêt. En premier lieu, notre travail complète le corpus de littérature relatif au producteur légal d’information : le dirigeant. Nous apprécions tout d’abord l’exactitude et le biais des prévisions publiées par les sociétés introduites sur le marché français. Les études antérieures évaluant la qualité des prévisions contenues dans les prospectus, nombreuses sur le plan international, demeuraient rares en France. Elles se situaient par ailleurs dans le cadre de la théorie de l’efficience. L’offre d’information du dirigeant est ici analysée à la lumière de la théorie de l’agence. Nous montrons que des considérations d’agence expliquent en partie l’erreur moyenne de prévision des dirigeants. Notre thèse approfondit ensuite la connaissance des pratiques de signalisation des sociétés lors de leur introduction en bourse. Selon leur âge, leur secteur d’activité, l’année et la procédure d’introduction, les sociétés de l’échantillon semblent «se signaler» par sous-évaluation ou bien par publication volontaire de prévisions précises jointe, le cas échéant, à la participation au capital du dirigeant. L’approche multi-signaux et temporelle adoptée nous distingue des études antérieures. Nous précisons enfin comment le dirigeant et les producteurs externes d’information (les analystes) peuvent jouer des rôles complémentaires. Dans le cadre du modèle de Chemmanur (1993) revisité, nous montrons que le dirigeant peut inciter les analystes à produire des informations sur sa société en sous-évaluant le prix d’introduction. Ces informations enrichissent l’environnement informationnel de la société, dont nous proposons une définition et quatre indicateurs de mesure. La sous-évaluation délibérée du prix d’offre accroı̂t donc le nombre d’informations échangées sur la société. Son effet «momentum informationnel» n’avait jusqu’alors été attesté que sur le marché américain (Aggarwal et alii, 2002). Enfin, l’impact boursier positif des informations diffusées par les analystes s’observe plus tardivement sur notre échantillon (vingt-quatre mois) que sur celui d’Aggarwal et alii (six mois). En second lieu, nos résultats enrichissent la connaissance du métier d’analyste et la compréhension de leurs comportements au moment d’une introduction en bourse. Les études quantitatives antérieures suggéraient l’existence de conflits d’intérêts pour expliquer l’optimisme des analystes. Nous avons vérifié auprès d’analystes affiliés à l’entreprise d’investissement spécialiste la réalité des pressions Conclusion 279 qu’ils subissent, et situé celles-ci au sein du processus de suivi des introductions en bourse. Les données primaires collectées renforcent l’acceptabilité de l’hypothèse relative aux conflits d’agence. Les caractéristiques et les déterminants de la couverture des admissions à la cote française par les analystes d’I/B/E/S sont mis à jour. À notre connaissance, ils ne l’avaient pas été antérieurement. L’analyse réalisée est à la fois statique et dynamique. Elle rend en effet compte du niveau, du délai et de la probabilité instantanée de couverture des sociétés de l’échantillon. En dernier lieu, nous traitons de la régulation de l’information financière lors d’une introduction en bourse. L’action normative de la COB est tout d’abord abordée de manière descriptive. La première partie expose les règles encadrant la production et la diffusion d’information lors d’une introduction en bourse. Dans son prolongement, le chapitre 7 propose une réflexion sur les fondements historiques, institutionnels et sociologiques de l’autorité du régulateur. Cette thèse présente néanmoins des limites, ouvrant de nouvelles perspectives de recherche. En premier lieu, nous avons effectué nos études empiriques quantitatives non sur la population totale des admissions à la cote du Second Marché ou du Nouveau Marché, mais sur des échantillons. De plus, le recours à de multiples bases de données explique la taille variable des échantillons d’un chapitre à l’autre. Les résultats doivent donc être interprétés à l’aune de ces limites. Une collecte additionnelle de données permettra d’élargir la taille des échantillons utilisés. En second lieu, nos résultats éclairent de façon insatisfaisante l’influence de la structure d’actionnariat sur l’offre d’information des analystes et du dirigeant. Nous approfondissons actuellement ce sujet, dans deux études en collaboration. En troisième lieu, la publication d’informations de qualité est considérée dans le chapitre 2 comme un outil de contrôle du dirigeant. Son interdépendance avec les autres dispositifs de «gouvernance» pourrait être approfondie. Les investissements en actifs corporels, l’actionnariat institutionnel ou l’institution de comités spécialisés sont-ils souvent associés ou exclusifs d’une communication financière de qualité ? Pour quelles raisons ? En quatrième lieu, les résultats obtenus dans les chapitres 3 et 7 présentent une validité externe limitée, liée aux méthodologies qualitatives employées (enquête et étude de cas respectivement). Ils peuvent cependant être généralisés de manière analytique, idem est par multiplication des mises à l’épreuve. En cinquième lieu, dans les chapitres 5 et 6, une société performante est sup- 280 Conclusion posée signaler aux investisseurs sa qualité en publiant des prévisions précises ou via les informations des analystes. Toutefois, nous ne testons ces hypothèses de signalisation que de façon incomplète et imparfaite. Ainsi, dans le chapitre 5, nous observons que la publication volontaire de prévisions précises réduit l’incertitude des investisseurs sur le prix d’équilibre anticipé et donc le coût du capital pour la société. Mais nous ne montrons pas que les sociétés publiant volontairement des prévisions exactes sont effectivement de meilleure qualité. L’influence favorable de l’acte volontaire de publication sur les performances boursières à long terme de la société mériterait d’être vérifiée. De même, le chapitre 6 établit que les rentabilités anormales achat conservation des titres introduits, cumulées sur douze ou vingt quatre mois, augmentent avec le nombre d’estimations diffusées par les analystes. Mais nous ne déterminons pas si l’enrichissement voulu de l’environnement informationnel soutient les cours de manière artificielle, ou reflète réellement la qualité de la société. Dans les parties 2 et 3, les individus cherchent, à travers la publication d’information, à résorber soit les conflits d’intérêts, soit les asymétries d’information. Ces incitations ne nous semblent pas conduire à significativement améliorer la qualité des informations diffusées ou l’efficience des marchés. La deuxième partie montre que le dirigeant et l’analyste ajustent leur offre d’information aux intérêts de leur principal. Ils préviennent ainsi les conflits d’agence. Mais l’information alors produite peut être insatisfaisante du point de vue des tiers. Si le primat des intérêts du principal incite le dirigeant à publier des prévisions plus précises, il semble au contraire conduire les analystes à biaiser la sélection des titres suivis et les informations diffusées. Dans la troisième partie, la volonté d’éviter le problème de sélection adverse encourage le dirigeant à donner lui-même ou via les analystes, toujours plus d’informations au marché. Elle explique également une normalisation et une régulation croissantes de l’information publiée au moment d’une introduction en bourse. Cependant, nos résultats n’établissent pas clairement que les signaux émis aident effectivement les investisseurs à discriminer les introductions de qualité des autres. Quant à la COB, la littérature reconnaı̂t certes ses efforts pour mieux informer les marchés. Mais sa contribution à l’efficience des marchés n’a jamais été rigoureusement évaluée. Sa légitimité reste par ailleurs fragile, et son contrôle de l’information, formel. Au vu de nos résultats, les producteurs d’information apparaissent maximiseurs et individualistes. Ainsi, les analystes suivent les sociétés et produisent les informations maximisant le profit de leur employeur et conformes Conclusion 281 à leurs propres intérêts. La satisfaction des intérêts du dirigeant semble également déterminer sa politique informationnelle. La publication de prévisions précises lui permet en effet de se dédouaner au moindre coût. D’une part, elle rassure les parties prenantes sur les perspectives de croissance de l’entreprise. D’autre part, son coût marginal de production est nul car le dirigeant dispose souvent de ces informations en interne. Pour les mandants, la publication d’informations constitue un levier disciplinaire. De leur côté, les actionnaires originaires, en publiant volontairement des informations, réduisent le coût du capital et donc servent leurs intérêts. Ils semblent encore espérer que l’effet positif des informations produites par les outsiders sur les cours, compense la sous-évaluation coûteuse du prix d’offre. Ils escomptent se désengager du capital à un prix plus élevé qu’en l’absence de sous-évaluation. Enfin, les intéressés appelant de leurs voeux une régulation de l’information, cherchent ensuite à en restreindre les effets. L’exigence accrue de transparence apparaı̂t inconciliable avec la vision de l’homme, sous-jacente à l’approche contractuelle des organisations (Bessire, 2003). L’individu est guidé par ses seuls intérêts et entretient des rapports de méfiance avec les autres. En tant que producteur d’information, il agit donc de sorte à maximiser sa fonction de profit et à satisfaire son utilité personnelle. Parce que l’insuffisance et la mauvaise qualité de l’information sont rendues responsables de la crise de confiance des marchés, la transparence devient en retour une finalité, un objectif à atteindre. Mais elle n’est en réalité qu’une règle du jeu, interprétée, appliquée, voire contournée par les acteurs dans leur seul intérêt. Selon P. Viveret25 , «(...) on ne peut avoir une économie financière qui a besoin impérativement de fonctionner sur la transparence et la confiance, dans un système de rapports sociaux guerriers qui fonctionnent en permanence à la méfiance et à l’opacité. Il y a un moment où les fondamentaux économiques et les fondamentaux anthropologiques et sociologiques commencent à diverger (...) dans la défiance, la transparence est un jeu ; ce n’est pas une réalité». 25 cité par Bessire, 2003, page 16 ; Confédération mondiale des experts-comptables sans frontières, 2002, page 10. 282 Bibliographie Bibliographie [1] A.H. Adrem. Essays on disclosure practices in Sweden - Causes and effects. Ph.D. dissertation, Lund University, Sweden, 1999. [2] J. Affleck-Graves, L.R. Davis, and R.R. Mendenhall. Forecasts of earnings per share : Possible sources of analyst superiority and bias. Contemporary Accounting Research, 6 :501–517, 1990. [3] R. Aggarwal, L. Krigman, and K. Womack. Strategic IPO underpricing, information momentum, and lockup expiration selling. Journal of Financial Economics, 66 :105–137, 2002. [4] G.A. Akerlof. The market for «lemons» : Quality and the market mechanism. The Quarterly Journal of Economics, 84 :488–500, spring 1970. [5] A.A. Alchian and H. Demsetz. Production, information costs and economic organization. American Economic Review, 62(5) :777–795, 1972. [6] J.C. Alexander. Refining the degree of earnings surprise : a comparison of statistical and analysts’forecasts. The Financial Review, 30(3) :469– 506, août 1995. [7] F. Allen and G.A. Faulhaber. Signalling by underpricing in the IPO market. Journal of Financial Economics, 23(2) :303–323, 1989. [8] B. Amable, R. Barré, and R. Boyer. Les systèmes d’innovation à l’ère de la globalisation. Economica, Paris, mai 1997. [9] Y. Amihud, S. Hauser, and A. Kirsh. Allocations, adverse selection and cascades in IPOs : Evidence from Israel. 2001. [10] P. Ansart. Droit et Politique, chapter Durkheim, la sociologie et la science politique, pages 262–268. PUF, curap edition, 1993. [11] K.J. Arrow. Rationality of self and others in an economic system. The Journal of Business, 59 :385–399, 1986. [12] K.J. Arrow. L’économie de l’information : un exposé. 23 :119–128, 1996. 283 Empirica, 284 Bibliographie [13] K.J. Arrow. Technical information and industrial structure. Journal of Industrial and Corporate Change, 5(2) :645–652, 1996. [14] A.H. Ashton and R.H. Ashton. Aggregating subjective forecasts : Some empirical results. Management Science, 31 :1499–1508, 1985. [15] D. Bachmann, J. Elfrink, and G. Vazzana. Tracking the progress of the e-mail vs. snail mail. Marketing Research, 8(2) :30–36, 1996. [16] S.P. Baginski, E.J. Conrad, and J.M. Hassel. The effect of management forecast precision on equity pricing and the assessment of earnings uncertainty. The Accounting Review, 68(4) :913–927, octobre 1993. [17] S.P. Baginski and J.M. Hassell. Determinants of management forecast precision. The Accounting Review, 72 :303–312, april 1997. [18] S.P. Baginski, J.M. Hassell, and J.D. Neill. Predicting subsequent management forecasting behavior at the date of an initial public offering. Review of Quantitative Finance and Accounting, 12 :5–20, 1999. [19] M. Bajaj, S.C. Mazumdar, and A. Sarin. Securities class action settlements. Papier de recherche, novembre 2000. [20] B. Baldwin. Segment earnings disclosure and the ability of security analysts to forecast earnings per share. Accounting Review, pages 376– 389, juillet 1984. [21] R. Balvers, B. McDonald, and R.E. Miller. Underpricing of new issues and choice of auditor as a signal of investment banker reputation. Accounting review, 63(4) :605–622, octobre 1988. [22] S.P. Bandyopadhyay, L.D. Brown, and G.D. Richardson. The importance of analysts’earnings forecasts to their stock price forecasts. University of Waterloo, papier de recherche, 1993. [23] S. Bar-Yosef and J. Livnat. Auditor selection : an incentive-signalling approach. Accounting and Business Research, pages 301–309, automne 1984. [24] D.P. Baron. A model of the demand for investment banking advising and distribution services for new issues. Journal of Finance, 37 :955– 976, 1982. [25] C.B. Barry and S.J. Brown. Limited information as a source of risk. The Journal of Portfolio Management, pages 66–72, 1986. [26] M.E. Barth and A.P. Hutton. Information intermediaries and the pricing of accruals. Stanford University, working paper, 2000. [27] S. Basu, L. Hwang, and C.L. Jan. International variation in accounting measurement rules and analysts’earnings forecast errors. Journal of Business Finance and Accounting, 25(9-10) :1027–1247, 1998. Bibliographie 285 [28] R. Beatty. Auditor reputation and the pricing of initial public offerings. The Accounting Review, 64(4) :693–709, octobre 1989. [29] R. Beatty and J. Ritter. Investment banking, reputation, and the underpricing of initial public offerings. Journal of Financial Economics, 15 :213–232, 1986. [30] B. Belletante and R. Paliard. Does knowing who sells matter in IPO pricing ? the French second market experience. Cahier Lyonnais de recherche en gestion, 14(42-74), 1993. [31] M.D. Beneish. Stock prices and the dissemination of analysts’recommandations. Journal of Business, 64 :393–416, 1991. [32] M.D. Beneish. Incentives and penalties related to earnings overstatements that violate GAAP. The Accounting Review, 74 :425–457, 1999. [33] L. Benveniste and P. Spindt. How investment bankers determine the offer price and allocation of new issues. Journal of Financial Economics, 24 :343–361, 1989. [34] L. Benveniste and W. Wilhelm. A comparative analysis of IPO proceeds under alternative regulatory environments. Journal of Financial Economics, 28 :173–208, 1990. [35] D. Bessire. Gouvernement d’entreprise : que cache le discours sur la transparence ? Colloque gouvernement d’entreprise et nouvelle économie Mons, 19-20 mai 2003. [36] P. Bezard and P. Chaput. La COB et la protection des actionnaires minoritaires dans les groupes de sociétés. Revue des Sociétés, 1982. [37] R. Bhushan. Firm characteristics and analysts’following. Journal of Accounting and Economics, 11 :255–274, 1989. [38] S. Biggs. Financial analysts : information search in the assessment of corporate earning power. Accounting, Organization and Society, 9 :313– 323, 1984. [39] A. Blanchet and A. Gotman. L’enquête et ses méthodes : L’Entretien. Nathan, 2ème edition, octobre 2001. [40] G. Bolliger. The characteristics of individual analysts’forecasts in Europe. papier de recherche, Université de Neuchâtel et FAME, juillet 2001. [41] J.R. Booth and L. Chua. Ownership dispersion, costly information and IPO underpricing. Journal of Financial Economics, 41 :291–310, 1996. [42] C.A. Botosan. Disclosure level and the cost of equity capital. The Accounting Review, 72(3) :323–350, 1997. 286 Bibliographie [43] C.A. Botosan. Evidence that greater disclosures lowers the cost of equity capital. Bank of American Journal of Applied Corporate Finance, 12(4) :60–69, 2000. [44] C.A. Botosan and M.A. Plumlee. A re-examination of disclosure level and expected cost of capital. working paper, University of Utah, 2000. [45] P. Bourdieu. La Distinction - critique sociale du jugement. Éditions de Minuit, Paris, 1979. [46] M. Bouwman and P. Frishkoff. How do financial analysts make decisions ? A process model of the investment screening decision. Accounting, Organizations and Society, 12 :1–30, 1987. [47] L. Boy. Normes. Revue internationale de droit économique, 2, 1998. [48] M. Brennan and P. Hughes. Stock prices and the supply of information. The Journal of Finance, XLVI(5) :1665–1687, 1991. [49] M.J. Brennan and C. Tamarowksi. Investor relations, liquidity, and stock prices. Journal of Applied Corporate Finance, 12(4) :26–37, 2000. [50] M. Bromwich. Information and capital markets, chapter Financial reporting. Pitman, 1992. [51] L.D. Brown. Forecast selection when all forecasts are not equally recent. International Journal of Forecasting, 7 :349–356, 1991. [52] L.D. Brown. Earnings forecasting research : its implications for capital market research. International Journal of Forecasting, 9 :295–320, 1993. [53] L.D. Brown. Analyst forecasting errors : Additional evidence. Financial Analysts’Journal, pages 81–88, nov./déc. 1997. [54] L.D. Brown, P.A. Griffin, R.L. Hagerman, and M.E. Zmijewski. An evaluation of alternative proxies for the market’s expectations of earnings. Journal of Accounitng and Economics, 9 :159–193, 1987. [55] L.D. Brown and M.S. Rozeff. The superiority of analyst forecasts as measures of expectations. Journal of Finance, 33 :1–16, 1978. [56] G. Broye. Choix des cabinets d’audit et évaluation des titres introduits au second marché. Comptabilité Contrôle Audit, 2 :105–124, novembre 2001. [57] R. Bushman, J. Piotroski, and A. Smith. What determines corporate transparency ? University of North Carolina and University of Chicago, Papier de recherche 2001. [58] J. Campbell. Understanding risk and return. Journal of Political Economy, 104(2), 1996. Bibliographie 287 [59] J. Capstaff, K. Paudyal, and W. Rees. Revisions of earnings forecasts and security returns : evidence from three countries. Working paper, University of Strathcycle, University of Durham and University of Glasgow, 2000. [60] R. Carter and S. Manaster. Initial public offerings and underwriter reputation. Journal of Finance, 65 :1045–1067, 1990. [61] R. Castel. Savoirs d’expertise et productions de normes, page 177. F. Chazel et J. Cormail, LGDJ edition, 1991. [62] S. Chahine. Long run onderperformance after IPOs and optimistic analyst’s forecasts. Conférence de l’European Financial Management Association (EFMA), Juin 2001. Lugano. [63] S. Chahine and J.-P. Mathieu. Valorisation stratégique par contexte de valeurs : le cas des introductions sur le Nouveau Marché. Finance Contrôle et Stratégie, 6(2) :91–114, Juin 2003. [64] A.M. Chan, C.L. Sit, M.M. Tong, D.C. Wong, and R.W. Chan. Possible factors of the accuracy of prospectus earnings forecasts in Hong Kong. International Journal of Accounting, 31(3) :381–398, 1996. [65] J. Chang, T. Khana, and K. Palepu. Analyst activity around the world. Harvard Business School, working paper, Janvier 2000. [66] L.S. Chang and K.S. Most. The perceived usefulness of financial statements for investors’decisions. Gainesville, University Presses of Florida, 1985. [67] G. Chareaux. De nouvelles théories pour gérer l’entreprise du XXIème siècle, chapter 2 : La théorie positive de l’agence : lecture et relectures., pages 61–141. Economica edition, 1999. [68] G. Charreaux. Encyclopédie de gestion, volume 2, chapter Le gouvernement des entreprises : théories et faits, pages 1653–1661. Economica, 1997. [69] G. Charreaux. La théorie positive de l’agence : positionnement et apports. Revue d’économie industrielle, (92) :193–214, 2ème et 3ème trimestres 2000. [70] T. Chemmanur and P. Fulghieri. A theory of the going-public decision. Review of Financial Studies, 12 :249–279, 1999. [71] Thomas J. Chemmanur. The pricing of initial public offerings : a dynamic model with information production. The Journal of Finance, XLVIII(1) :285–304, March 1993. [72] G. Chen, M. Firth, and G.V. Krishnan. Earnings forecast errors in IPO prospectuses and their associations with initial stock return. Journal of Multinational Financial Management, 11 :225–240, 2001. 288 Bibliographie [73] H. Chen and J. Ritter. The sevent percent solution. Journal of Finance, 55 :1105–1131, 2000. [74] T. Cheng and M. Firth. An empirical analysis of the bias and rationality of profit forecasts published in new issues prospectuses. Journal of Business Finance and Accounting, 27(3-4) :423–446, 2000. [75] C.S. Cheung and I. Krinsky. Information asymmetry and the underpricing of initial public : Further empirical evidence. Journal of Business and Accounting, 21(5) :739–747, 1994. [76] J. Chevalier. Réflexion sur l’institution des autorités administratives indépendantes. JCP, I(20) :3254, 1986. [77] A.A. Christie. On cross-sectional analysis in accounting research. Journal of Accounting and Economics, 9 :231–258, 1987. [78] P. Clarkson, J. Guedes, and R. Thompson. On the diversification, observability, and measurement of estimation risk. Journal of Financial and Quantitative Analysis, pages 69–84, March 1996. [79] P. Clarkson and D. Simunic. The association between audit quality, retained ownership and firm-specific risk in US vs. Canadian IPO markets. Journal of Accounting and Economics, 17(1 et 2) :207–228, janvier 1994. [80] P.M. Clarkson, A. Dontoh, G.D. Richardson, and S.E. Sefcik. The voluntary inclusion of earnings forecasts in IPO prospectuses. Contemporary Accounting Research, 2 :601–626, spring 1992. [81] P.M. Clarkson, J.L. Kao, and G.D. Richardson. The voluntary inclusion of forecasts in the MD & A section of annual reports. Contemporary Accounting Research, 11(1) :451–488, fall 1994. [82] E. Cohen. Analyse Financière, chapter 16, page 635. Economica, 4ème edition, 1997. [83] Collectif. Analyse statistique des données de survie. Flammarion, 2ème edition, 1996. [84] R.M. Conroy and R.S. Harris. Analysts’earnings forecasts in Japan : Accuracy and sell-side optimism. Pacific-Basin Finance Journal, 3 :393–408, 1995. [85] F. Cornelli and D. Goldreich. Bookbuilding : How informative is the order book ? working paper, London Business School, 2001. [86] D.R. Cox and D. Oakes. Analysis of survival data. Chapman et Hall, Londres, 1984. [87] E.P. Cox. The optimal number of reponse alternatives for a scale : a review. Journal of Marketing Research, 17 :407–422, novembre 1980. Bibliographie 289 [88] M. Crozier. Crise et renouveau dans l’Administration française, volume 2, chapter 3, pages 56–85. Seli Arslan, 2000. [89] B. Cubertafond. La création du droit. Ellipses, 1999. [90] S. Das, R.-J. Guo, and H. Zhang. Initiation of analyst coverage and long-term performance of initial public offerings. University of Illinois at Chicago, papier de recherche, janvier 2002. [91] O. Davanne. Instabilité du système financier international. La documentation française, Conseil d’analyse économique, Paris, 1998. [92] D. de Béchillon. Qu’est-ce qu’une règle de droit. Odile Jacob, 1997. [93] E. De Leeuw and J. Van DerZouwen. La qualité de l’information dans les enquêtes, chapter Data Quality and Mode of Data Collection : Methodology and Explanatory Model, pages 11–31. Dunod, Paris, 1992. [94] F. de Singly. L’enquête et ses méthodes : Le Questionnaire. Nathan Université, 2ème edition, juillet 2001. [95] L. DeAngelo. Auditor size and audit quality. Journal of Accounting and Economics, 3 :183–199, 1981. [96] W.F. DeBondt and R.M. Thaler. Do security analysts overreact ? American Economic Review, 80 :52–57, 1990. [97] P. Dechow, A. Hutton, and R. Sloan. The relation between analysts’forecasts of long-term earnings growth and stock price performance following equity offerings. Contemporary Accounting Research, 17 :1–32, 2000. [98] P. Dechow, R. Sloan, and P. Sweeney. Causes and consequences of earnings manipulation : an analysis of firms subject to enforcement actions by the SEC. Contemporary Accounting Research, 13 :1–36, 1996. [99] N. Decoopman. La commission des opérations de bourse et le droit des sociétés. Economica, 1980. [100] F. Degeorge, J. Patel, and R. Zeckhauser. Earnings manipulation to exceed thresholds. The Journal of Business, 72(1) :1–33, January 1999. [101] F. Derrien. Issuers, underwriters and institutional investors : Why they all like the book-building IPO procedure. Papier de recherche, janvier 2002. [102] F. Derrien and F. Degeorge. IPO performance and earnings expectations : some French evidence. 29 mars 2001. Journée sur les introductions en bourse, papier de recherche. 290 Bibliographie [103] P. Dessertine. La commission de contrôle des marchés dans la normalisation comptable : comparaison entre la COB et la SEC. Comptabilité Contrôle Audit, 3(1) :69–87, mars 1997. [104] D. Dhaliwal, K. Lee, and N. Fargher. The association between unexpected earnings and abnormal security returns in the présence of financial leverage. Contemporary Accounting Research, 8 :20–41, 1991. [105] D. Diamond. Financial intermediation and delegated monitoring. Review of Economic Studies, 51(3) :393–414, juillet 1984. [106] D. Diamond and R. Verrecchia. Disclosure, liquidity and the cost of capital. Journal of Finance, 66 :1325–1355, 1991. [107] J. Donnedieu de Vabres. La COB une administration de mission. Revue administrative, mai-juin 1980. [108] du Pontavice. Les autorités boursières créatrices de droit, chapter L’évolution du droit des sociétés à travers la COB. Editions nationales administratives et juridiques, 1981. [109] A. Dugar and S. Nathan. The effect of investment banking relationships on financial analysts’earnings forecasts and investment recommandations. Contemporary Accounting Research, 12(1) :131–160, Fall 1995. [110] É. Durkheim. Le suicide. PUF, Paris, 2ème edition, 1991. [111] R. Dye. Mandatory versus voluntary disclosures : the cases of financial and real externalities. Accounting Review, 65(1) :1–24, 1990. [112] G.C. Edwards and I. Sharkansky. Les politiques publiques, élaboration et mise en oeuvre. Les éditions d’organisation, management public edition, 1981. [113] K. Eisenhardt. Building theories from case study research. Academy of management review, 14(4) :532–550, 1989. [114] R. Espahbodi, A. Dugar, and H. Tehranian. Further evidence on optimism and underreaction in analysts’forecasts. Review of Financial Economics, 10 :1–21, 2001. [115] S. Espenlaub, A. Gregory, and I. Tonks. Re-assessing the long-run underperformance of UK initial public offerings. European Financial Management, 6(3), 2000. [116] Y. Évrard, B. Pras, and E. Roux. Market, études et recherches en marketing. Dunod, Paris, 2ème edition, 2000. [117] F. Fabre-Azéma. Les pratiques d’évaluation des analystes financiers lors des introductions en bourse sur le second marché de la bourse de Paris : le retour vers des variables fondamentales. Congrès International de l’AFFI, Strasbourg, 24-26 juin 2002. Bibliographie 291 [118] E. Fama. Efficient capital markets : a review of theory and empirical work. Journal of Finance, pages 383–417, mai 1970. [119] E. Farragher, R. Kleiman, and M. Bazaz. Do investor relations make a difference ? The Quarterly Review of Economics and Finance, 34(4) :403–412, 1994. [120] A.M. Faugeron-Crouzet. Les introductions en bourse : théorie et analyse empirique du cas français. Thèse en sciences de gestion, Université de Toulouse, 1997. [121] A.M. Faugeron-Crouzet and E. Ginglinger. Introductions en bourse, signal et émissions d’actions nouvelles sur le second marché français. Finance, 22(2) :51–74, 2001. [122] M. Fereres and G. Rivière. L’introduction en bourse, mode d’emploi. Nouvelles Éditions fiduciaires, Éditions d’organisation edition, 1999. [123] M. Firth. IPO profit forecasts and their role in signalling firm value and explaining post-listing returns. Applied Financial Economics, 8(1) :29– 39, 1998. [124] M. Firth and C.K. Liau-Tan. Auditor quality, signalling and the valuation of initial public offerings. Journal of Business, Finance and Accounting, pages 145–165, janvier-mars 1998. [125] M. Firth and A. Smith. Selection of audit firms by companies in the new issue markets. Applied Economics, 24 :247–255, 1992. [126] L. Fontowicz. Facteurs de révision des prévisions et rémunération des analystes financiers - les résultats d’une enquête réalisée auprès des membres de la SFAF. Journée de recherche : Qualité de l’information et marchés financiers, Lille, mars 1999. [127] L. Fontowicz. Incertitude et optimisme des analystes financiers, une approche du cas français à partir du consensus I/B/E/S. Journée de recherche : Qualité de l’information et marchés financiers, Lille, mars 1999. [128] G. Foster. Externalities and financial reporting. Journal of Finance, mai 1980. [129] J. Francis and D. Philbrick. Analysts’decision as products of a multitask environment. Journal of Accounting Research, 31(2) :216–230, automne 1993. [130] R. Frankel, M. McNichols, and G.P. Wilson. Discretionary disclosure and external financing. Accounting Review, 70(1) :135–150, 1995. [131] D. Fried and D. Givoly. Financial analysts’forecasts of earnings : a better surrogate for market expectations. Journal of Accounting and Economics, 4 :85–107, 1982. 292 Bibliographie [132] M.-A. Frison-Roche. Le droit de la régulation. Le Dalloz, (7) :610–616, 2001. [133] C. Frost. Organisation et qualité des marchés financiers, chapter VII, La communication prévisionnelle, pages 131–155. PUF, Paris, décembre 1997. [134] E. Garaud. La transparence en matière commerciale. Thèse de doctorat en droit, Université de Limoges, 1995. [135] M. Garcia. L’impact de la mise en place des contrats d’animation de marché : une étude événement sur les réunions d’information organisées par la SFAF. papier de recherche, GERME, 1996. [136] D. Gelb and P. Zarowin. Corporate disclosure policy and the informativeness of stock prices. New York University, papier de recherche, 2000. [137] J.-L. Gianelloni and E. Vernette. Études de marché. 1995. [138] M. Gibbins, A. Richardson, and J. Waterhouse. The management of financial disclosure : Theory and perspectives. monographie de recherche 20, La Fondation de recherche de l’Association des comptables généraux licenciés du Canada, 1992. [139] G. Gniewosz. The share investment decision process and information use : an exploratory case study. Accounting and Business Research, 20(79) :223–230, 1990. [140] L. Godard and D. Poincelot. Performances boursières et conflits d’intérêts après l’introduction : le cas français. Congrès AFFI Strasbourg, juin 2002. [141] E. Goffman. La mise en scène de la vie quotidienne, volume 1. La présentation de soi. Éditions de Minuit, Paris, traduction française edition, 1973. [142] P. Gompers and J. Lerner. The really long-term performance of initial public offerings : the pre-NASDAQ evidence. Harvard Business School, papier de recherche, 2001. [143] P. Gompers and A. Metrick. Institutional investors and equity price. Quarterly Journal of Economics, 1999. [144] N. Gonedes, N. Dopuch, and S. Penman. Disclosure rules, informationproduction, and capital market equilibrium : the case of forecast disclosure rules. Journal of Accounting Research, printemps 1976. [145] V. Govindarajan. The objectives of financial statements : an empirical study of the use of cash flow and earnings by security analysts. Accounting, Organizations and Society, 5 :383–392, 1980. Bibliographie 293 [146] J.S. Goyder. The silent majority : non respondents on sample surveys. Boulder, CO, 1987. [147] P. Grandin. Production d’informations privées et gestion de portefeuille. PUF, Paris, 1995. [148] M. Granovetter. Economic action and social structure : the problem of embeddedness. American Journal of Sociology, 91(3) :481–510, 1985. [149] J. Grant, R. Bricker, T. Fogarty, and G. Previts. Determinants of analyst following. Journal of Corporate Communication, août 1999. [150] J. Grant, R. Bricker, T. Fogarty, and G. Previts. Complexity and analyst following of multinational firms. Case Western Reserve University, mai 2000. [151] M. Grawitz. Méthodes des sciences sociales. Dalloz, Paris, 10ème edition, juin 1996. [152] J.-P. Grémy. Trente ans d’enquête par sondage : bilan d’une évolution. Actes du colloque «Trente ans de sociologie», Lille :23–25 octobre, 1996. [153] J.M. Griffin and G.A. Karolyi. Another look at the role of the industrial structure of markets for international diversification strategies. Journal of Financial Economics, 50 :351–373, 1998. [154] M. Grinblatt and C. Hwang. Signalling and the pricing of new issues. Journal of Finance, 44(2) :393–420, 1989. [155] J.M. Grobras. Méthodes statistiques des sondages. Économica, Paris, 1987. [156] S. Grossman and O. Hart. Corporate financial structure and managerial incentives. Economic Theory Discussion Paper, février 1980. [157] R.M. Groves and R. Kahn. Survey Research by Telephone. New york, 1979. [158] M. Guillaume-Hoffnung. Les actes juridiques de la COB. Actualité juridiques, droit administratif, 1982. [159] M. Guillaume-Hoffnung. Réflexions sur la nature juridique de la COB. Revue du droit public, Octobre 1982. [160] Y. Guyon. Droit des affaires. Economica, 4ème edition, 1986. [161] N. Hakansson. Interim and public forecast : an economic analysis and a framework for choice. The Accounting Review, avril 1977. [162] F. Hamon and H. Maisl. Droit, chapter L’urgence et la protection des libertés contre l’administration, page 49. 1982. [163] P. Handa and S. Linn. Arbitrage pricing with estimation risk. Journal of Financial Economics, pages 81–1000, March 1993. 294 Bibliographie [164] K.W. Hanley. Underpricing of initial public offerings and the partial adjustment phenomenon. Journal of Financial Economics, 34 :231– 250, 1993. [165] R.A. Hansen. A self perception interpretation of the effect of monetary and non monetary incentives on mail survey respondent behavior. Journal of the Market Research Society, 17(1) :63–68, 1980. [166] R.S. Hansen and A. Sarin. Is honesty the best policy ? An examination of security analyst behavior around seasoned equity offerings. working parper, Pamplin College of Business, 1996. [167] N. Hartnett and Römcke. Normalised historic financial data and naı̈ve forecast modelling in the context of IPO disclosure. working paper, The University of Newcastle, 2002. [168] F.A. Hayek. Droit, législation et libertés. PUF, 1979. [169] R.M. Hayes. The impact of trading commission incentives on stock coverage and earnings forecast decisions by security analysts. Northwestern University, 1998. [170] C. Hayn. The information content of losses. Journal of Accounting and Economics, 20 :125–153, septembre 1995. [171] P.M. Healy, K. Palepu, and A.P. Hutton. Stock performance and intermediation changes surrounding sustained increases in disclosure. Contemporary Accounting Research, 16(3) :485–520, 1999. [172] P.M. Healy, K. Palepu, and A. Sweeney. Disclosure strategy changes : what prompts them and what are their capital market consequences ? Harvard University, papier de recherche, 1994. [173] P.M. Healy and K.G. Palepu. Information asymetry, corporate disclosure and the capital markets : a review of the empirical disclosure literature. Journal of Accounting and Economics, 31 :405–440, 2001. [174] J.J. Heckman. Sample selection bias as a specification error. Econometrica, 47(1) :153–161, janvier 1979. [175] F. Héran. L’assise statistique de la sociologie. Économie et Statistique, (169) :23–36, 1984. [176] K.A. Hickman and G.H. Petry. Comparison of stock price prediction using court accepted formulas, dividend discount and P/E models. Financial Management, pages 76–85, Summer 1990. [177] J. Holland. Private disclosure and financial reporting. Accounting and Business Research, 28(4) :255–269, 1998. Bibliographie 295 [178] K.M. Holland and J.G. Horton. Initial public offerings on the unlisted securities market : the impact of professional advisers. Accounting and Business Research, 24(93) :19–34, winter 1993. [179] B. Holmström and P. Milgrom. The firm as an incentive system. American Economic Review, 84(4) :972–991, 1994. [180] O. Hope. The relation between accounting and institutional factors and analysts’s forcasts : an international study. Working paper,Kellogg Graduate School of Mangement, 2001. Working paper. [181] O.-K. Hope. Disclosure practices, enforcement of accounting standards and analysts’forecast accuracy : an international study. novembre 2002. [182] A.G. Hopwood. On trying to study accounting in the contexts in which it operates. Accounting, Organizations and Society, 8(2/3) :287–305, 1983. [183] S. Hubac and E. Pisier. Les autorités administratives indépendantes, chapter Chapitre IV, Les autorités face aux pouvoirs, pages 117–131. 1988. [184] P.J. Hughes. Signalling by direct disclosure under asymmetric information. Journal of Accounting and Economics, 8(2) :119–143, june 1986. [185] L.S. Hwang, C.J. Jan, and S. Basu. International variation in accounting measurement rules and analysts’earnings forecast errors. Journal of Business, Finance and Accounting, 25(9/10) :1207–1247, 1998. [186] R. Ibbotson, J.L. Sindelar, and J. Ritter. Initial public offerings. Journal of Applied Corporate Finance, 1 :37–45, 1988. [187] R. Ibbotson, J.L. Sindelar, and J. Ritter. The market problems with the pricing of initial public offerings. Journal of Applied Corporate Finance, 6 :66–74, 1994. [188] R.G. Ibbotson. Price performance of common stock new issues. Journal of Financial Economics, 3 :235–272, 1975. [189] R.G. Ibbotson and J.F. Jaffe. ”hot issue” markets. Journal of Finance, 30 :1027–1042, 1975. [190] R.G. Ibbotson and J.R. Ritter. Initial Public Offerings, volume 9, pages 993–1016. R. Jarrow et al. Eds, Handbooks in OR and MS, Elsevier Science B.V., 1995. [191] J.R. Imhoff and P.V. Pare. Analysis and comparison of earnings forecasts vis a vis analysts’forecasts agents. Journal of Accounting Research, 20, automne 1982. 296 Bibliographie [192] A.J. Irani. Ex post bias in management earnings forecasts : A study of potential determinants. University of New Hampshire, papier de recherche, septembre 1999. [193] B. Jacquillat and M. Levasseur. Signaux, mandats et gestion financière : une synthèse de la littérature. Finance, (5) :7–83, 1984. [194] C. Jaffeux. Bourse et financement des entreprises, page 125. Précis Dalloz, Paris, 1994. [195] B. Jaggi. Accuracy of forecast information disclosed in the IPO prospectuses of Hong Kong companies. The International Journal of Accounting, 32(3) :301–319, 1997. [196] D. Jeffers, E. et Plihon. Investisseurs institutionnels et gouvernance des entreprises. Revue d’Économie Financière, 63, 2002. [197] N. Jegadeesh, M. Weinstein, and I. Welch. An empirical investigation of IPO returns and subsequent equity offerings. Journal of Financial Economics, 34 :153–175, 1993. [198] R. Jelic, B. Saadouni, and R. Briston. The accuracy of earnings forecasts in IPO prospectuses on the Kuala Lumpur stock exchange. Accounting and Business Research, 29(1) :57–72, 1998. [199] M. Jensen and W. Meckling. Theory of the firm : Managerial behavior, agency costs and ownership structure. Journal of Financial Economics, 3(4) :305–360, 1976. [200] M. Jensen and W. Meckling. The nature of man. Journal of Applied Corporate Finance, page 38, été 1994. [201] M.C. Jensen. Organization theory and methodology. Accounting Review, 58 :319–339, april 1983. [202] M.C. Jensen. Free cash flow and the effects of mergers and acquisitions on the economy. In The merger Boom, volume 31. Federal Reserve Bank of Boston, janvier 1988. [203] M.C. Jensen and E.F. Fama. Agency problems and residual claims. Journal of Law and Economics, 26 :327–350, june 1983a. [204] M.C. Jensen and E.F. Fama. Separation of ownership and control. Journal of Law and Economics, 26 :301–326, june 1983b. [205] V. Jog and B.J. McConomy. Voluntary disclosure of management earnings forecasts in IPO prospectuses. november 2000. [206] J. Johnson and R. Miller. Investment banker prestige and the underpricing of initial public offerings. Financial Management, 16 :19–29, 1988. Bibliographie 297 [207] W. Jordan. Producer protection, prior market structure and the effects of government regulation. Journal of Law and Economics, avril 1972. [208] F. Jullien. Traité de l’efficacité. Grasset, 1996. [209] D. Kahneman and D. Lovallo. Timid choices and bold forecasts : A cognitive perspective on risk taking. Management Science, 39 :17–31, 1993. [210] D. Kahneman and A. Tversky. On the psychology of prediction. Psychological Review, 80 :237–251, 1973. [211] K. Keasey and P. Mac-Guiness. An empirical investigation of the role of signalling in the valuation of unseasoned equity issued. Accounting and Business Research, 22(86) :133–142, spring 1992. [212] K. Keasey and P. McGuinness. Prospectus earnings forecasts and the pricing of new issues on the unlisted securities market. Accounting and Business Research, 21(82) :133–145, 1991. [213] M. Kim and J.R. Ritter. Valuing IPOs. Journal of Financial Economics, 53 :409–437, 1999. [214] O. Kim and R. Verrecchia. Market liquidity and volume around earnings announcements. Journal of Accounting and Economics, 17 :41– 68, 1994. [215] M.J. Kittleson. An assessment of the response rate via the postal service and e-mail. Health Values, 18 :27–29, 1995. [216] R. Klein and V. Bawa. The effects of estimation risk on optimal portofolio choice. Journal of Financial Economics, 3(2) :215–231, 1976. [217] (coordonné par)G. Koenig. De nouvelles théories pour gérer l’entreprise du XXIème siècle. Économica, Paris, 1999. [218] S.P. Kothari. The role of financial reporting in reducing financial risks in the market. Federal Reserve Bank of Boston Conference series 44, juin 2000. [219] S.P. Kothari and J.B. Warner. Measuring long-horizon security price performance. Journal of Financial Economics, 43 :301–339, 1997. [220] L. Krigman, W.H Shaw, and K.L. Womack. The persistence of IPO mispricing and the predictive power of flipping. Journal of Finance, 54 :1015–1044, 1999. [221] L. Krigman, W.H Shaw, and K.L. Womack. Why do firms switch underwriters ? Journal of Financial Economics, 60 :245–284, 2001. [222] R. La Porta, F. Lopez-de Silanes, A. Shleifer, and R. Vishny. Legal determinants of external finance. Journal of Finance, 52 :1131–1150, 1997. 298 Bibliographie [223] R. La Porta, F. Lopez-de Silanes, A. Shleifer, and R. Vishny. Law and finance. Journal of Political Economy, 106 :113–1155, 1998. [224] M. Lang, K. Lins, and D. Miller. Do analysts matter most when investors are protected least ? International evidence. papier de recherche, septembre 2002. [225] M. Lang and R. Lundholm. Cross-sectional determinants of analyst ratings of corporate disclosures. Journal of Accounting Research, 31(2) :246–271, automne 1993. [226] M. Lang and R. Lundholm. Corporate disclosure policy and analyst behavior. The Accounting Review, 71(4) :467–492, octobre 1996. [227] M. Lang and R. Lundholm. The relation between security returns, firm earnings and industry earnings. Contemporary Accounting Research, 13(2) :607–629, fall 1996. [228] M. Lang and R. Lundholm. Voluntary disclosure and equity offerings : reducing information asymmetry or hyping the stock ? Contemporary Accounting Research, 17(4) :623–662, hiver 2000. [229] L. Law and C. Callum. A legal analysis of disclosure of earnings forecasts in prospectuses. The University of Queensland, Australia, 2002. [230] L. Lebart. La qualité de l’information dans les enquêtes. Dunod, Paris, 1992. [231] P. Lee, S. Taylor, and T. Walter. IPO underpricing explanations : Implications from investor application and allocation schedules. Journal of Financial and Quantitative Analysis, 34 :425–444, 1999. [232] P. Lee, C. Yee, and M. Yee. Prospectus earnings forecasts : Evidence and explanations. Australian Accounting Review, pages 31–32, 1993. [233] R. Leftwich. Market failure fallacies and accounting information. Journal of Accounting and Economics, 2 :193–211, 1980. [234] M. Lejeune and E. Bied-Charrenton. La qualité de l’information dans les enquêtes, chapter Comparaison des modes postal et en face à face dans une enquête lourde. Dunod, Paris, 1992. [235] H. Leland and D. Pyle. Informational asymmetries, financial structure, and financial intermediation. Journal of Finance, 32(2) :371–387, mai 1977. [236] B.F. Leleux. Post-IPO performance : a French appraisal. Finance, 14(2) :79–106, 1993. [237] C. Leuz and R. Verrecchia. The economic consequences of increased disclosure. Journal of Accounting Research, à paraı̂tre, 2000. Bibliographie 299 [238] B. Lev and S. Penman. Voluntary forecast disclosure, nondisclosure, and stock prices. Journal of Accounting Research, 28 :49–76, spring 1990. [239] M. Levasseur, J.-F. L’Her, and J.-M. Suret. Anticipations hétérogènes et rendements boursiers : le cas du marché français. papier de recherche, Lille 2, 1999. [240] M. Levis. The long-run performance of initial public offerings : The UK experience 1980-1988. Financial Management, 22 :22–41, 1993. [241] H. Lin and M. McNichols. Underwriting relationships and analysts’forecasts and investment recommendations. Journal of Accounting and Economics, 25 :101–127, 1998. [242] F. Lordon. Les illusions de la transparence. (3) :39–43, 2002. Analyse Financière, [243] T. Loughran and J.R. Ritter. The new issues puzzle. Journal of Finance, 50(1) :23–51, 1995. [244] M. Lowry and G.W. Schwert. IPO market cycles : Bubbles or sequential learning ? Journal of Finance, 57(3) :1171–1200, 2002. [245] T. Lys and S. Sohn. The association between revisions of financial analysts’earnings forecasts and security price changes. Journal of Accounting and Economics, 13 :341–364, 1990. [246] M. Mahérault. Des caractéristiques financières spécifiques aux entreprises familiales non cotées. Revue du Financier, (114) :59–74, 1998. [247] Y.T. Mak. The voluntary review of earnings forecasts disclosed in IPOs’prospectuses. Journal of Accounting and Public Policy, 13(2) :141–158, 1994. [248] C. Marston. Firm characteristics and analyst following in the UK. British Accounting Review, 29(4) :335–347, 1997. [249] D. Matsumoto. Management’s incentives to avoid negative earnings surprises. Harvard Business School, papier de recherche, 2000. [250] P. McCullagh. Regression models for ordinal data. Journal of the royal statistical society, 42 :109–142, 1980. [251] M. McNichols. Evidence on informational asymmetries from management earnings forecasts and stock returns. The Accounting Review, 64 :1–27, janvier 1989. [252] M. Mcnichols and P.C. O’Brien. Self-selection and analyst coverage. Journal of Accounting Research, 35(supplément) :167–199, 1997. 300 Bibliographie [253] M. McNichols and B. Trueman. Public disclosure, private information collection, and short-term trading. Journal of accounting and economics, 17 :69–94, january 1994. [254] R. Mehta and E. Sivadas. Comparing response rates and response content in mail versus electronic mail surveys. Journal of the Market Research Society, 37 :429–439, 1995. [255] Y.M. Mensah, X. Song, and S. Ho. The long-term payoff from increased corporate disclosures. Journal of Accounting and Public Policy, 22 :107–150, 2003. [256] R. Michaely and K.L. Womack. Conflicts of interest and the credibility of underwriter analyst recommandations. Review of Financial Studies, 12(4) :653–686, 1999. [257] C. Michaı̈lesco. Une étude empirique des déterminants de la qualité de l’information diffusée par les entreprises françaises au cours de la période 1991-1995. Comptabilité Contrôle Audit, 5(1) :83–108, 1999. [258] C. Michaı̈lesco. Perspectives pour la recherche sur les déterminants de l’offre d’information des entreprises. Comptabilité Contrôle Audit, (numéro spécial) :83–94, décembre 2000. [259] F. Moderne. Les autorités administratives indépendantes, chapter Les modèles étrangers : étude comparée. PUF,Les voies du droit, 1988. [260] P. Moiser. Auditor reputation : the international empirical evidence. International Journal of Auditing, 1(1) :61–74, 1997. [261] Banque Mondiale. The road to recovery : East Asia after the crisis. Oxford, 1998. [262] Montesquieu. L’esprit des lois. Garnier Flammarion. [263] N. Mottis and J.-P. Ponssard. L’influence des investisseurs institutionnels sur le pilotage des entreprises. papier de recherche, ESSEC, 2002. [264] R.C. Moyer, R.E. Chatfield, and P.M. Sisneros. Security analyst monitoring activity : agency costs and information demands. Journal of Financial and quantitative analysis, 24(4) :503–512, décembre 1989. [265] C.J. Muscarella and M.R. Vetsuypens. The underpricing of second initial public offering. Journal of Financial Research, 12(3) :183–192, 1989. [266] S. Myers. Determinants of corporate borrowing. Journal of Financial Economics, (5) :147–175, 1977. [267] C. Nobes. The causes of financial reporting differences. Issues in Multinational Accounting, 1988. Bibliographie 301 [268] P. O’Brien and R. Bhushan. Analyst following and institutional ownership. Journal of Accounting Research, 28(supplément) :55–76, 1990. [269] P.C. O’Brien. Analysts’forecasts as earnings expectations. Journal of Accounting and Economics, 10 :53–83, 1988. [270] P. Ogan and D. Ziebart. Corporate reporting and the accounting profession : an interpretive appraisal. Journal of Accounting, Auditing and Finance, 6(3) :387–406, été 1991. [271] A. Orléan. Le pouvoir de la finance. éditions Odile Jacob, Paris, octobre 1999. [272] K. Ota. The usefulness of management forecast information. Kansai University Graduate School, février 2002. [273] J.M. Patell. Corporate forecasts of earnings per share and stock price behavior : Empirical tests. Journal of Accounting Research, 14 :246– 276, fall 1976. [274] S.H. Penman. The predictive content of forecast and dividends. The Journal of Finance, 38(4) :1385–1399, September 1983. [275] D. Philbrick and W.E. Ricks. Using value line and I/B/E/S analysts forecasts in accounting research. Journal of Accounting Research, 29 :397–417, automne 1991. [276] E. Picard. La notion de police administrative, volume 3. LGDJ, 1984. [277] J. Piotroski. Discretionary segment reporting decision and the precision of investor beliefs. papier de recherche, University of Chicago 1999. [278] R. Posner. Theories of economic regulation. Bell Journal of Economics and Management Science, automne 1974. [279] J. Pound. Proxy contests and the efficiency of shareholder oversight. Journal of Financial Economics, 20 :237–265, 1988. [280] G. Pownall, C. Wasley, and G. Waymire. The stock price effects of alternative types of management earnings forecasts. Accounting Review, 68(4) :896–912, october 1993. [281] G. Pownall and G. Waymire. Voluntary disclosure credibility and security prices : évidence from management earnings forecasts 1969-1973. Journal of Accounting Research, 27(2) :85–105, fall 1989. [282] S. Press and S. Wilson. Choosing between logistic regression and discriminant analysis. Journal of the American Statistical association, 73 :699–705, 1978. [283] A.K. Purnanandam and B. Swaminathan. Are IPOs underpriced ? Cornell University, papier de recherche, 2001. 302 Bibliographie [284] Rajan R. and H. Servaes. Analyst following of initial public offerings. The Journal of Finance, LII(2) :507–529, juin 1997. [285] P. Rabinow. Un ethnologue au Maroc. Reflexions sur une enquête de terrain. traduction française. Hachette, Paris, 1988. [286] S. Rajgopal, M. Venkatachalam, and J. Jiambalvo. Is institutional ownership associated with earnings management and the extent to which stock prices reflect future earnings ? University of Washington and Stanford University, papier de recherche, 1999. [287] S. Rangan. Earnings management and the performance of seasoned equity offerings. Journal of financial economics, 50(1) :101–122, 1998. [288] B. Raybaud-Turrillo. Les processus de normalisation comptable : de la hiérarchie au marché ?, volume 10 of Collection histoire, gestion, organisations, chapter 4, pages 511–527. Presse de l’Université Toulouse 1 Sciences Sociales, 2002. [289] J. Riley. Competitive signalling. Journal of Economic Theory, avril 1975. [290] G. Ripert. Les forces créatrices du droit. LGDJ, 1955. [291] J. Ritter and I. Welch. A review of IPO activity, pricing, and allocations. Journal of Finance, 57(4) :31795–1828–27, August 2002. [292] J.R. Ritter. The ”hot issue” market of 1980. Journal of Business, 57(2) :215–240, 1984. [293] J.R. Ritter. The long-run performance of initial public offerings. Journal of Finance, 46(1) :3–27, 1991. [294] M.C. Robert and Viandier A. La surveillance des placements et des marchés. JCP, II, Janvier 1983. [295] K. Rock. Why new issues are underpriced. Journal of Financial Economics, 15 :187–212, 1986. [296] S. Sabherwal and S. Smith. Concentrated shareholdings and the number of outside analysts. Federal reserve bank of Atlanta, juillet 1999. [297] P. Sabourin. Les autorités administratives indépendantes. AJDA, page 275, Mai 1983. [298] J. Schaaper. La qualité de l’information dans une enquête par sondage menée sur internet. Cahier CEREGE IAE de Poitiers, (171) :24, janvier 1999. [299] D.R. Schaefer and D.A. Dillman. Development of a standard e-mail methodology : Results of an experiment. Public Opinion Quarterly, 62(3) :378–397, automne 1998. Bibliographie 303 [300] A. Schatt and T. Roy. Modification de la structure de propriété et valorisation des entreprises introduites en bourse. Banque et Marchés, (55) :19–29, 2001. [301] A. Schatt and T. Roy. Analyse empirique des écarts de prévisions de bénéfices dans prospectus d’introduction : le cas français. Congrès de l’AFC, mai 2002. [302] N. Schillewaert, F. Langerak, and T. Duhamel. Non probability sampling for www surveys : a comparison of methods. Journal of the Market Research Society, 40(4) :307–322, octobre 1998. [303] K. Schipper. Analysts’forecasts. Accounting Horizons, pages 105–119, décembre 1991. [304] H. Sender. Smoke and mirrors. Far Eastern Economic Review, 30 :34– 38, septembre 1999. [305] P. Sengupta. Corporate disclosure quality and the cost of debt. The Accounting Review, 73 :459–474, October 1998. [306] P. Sentis. Performances opérationnelles et boursières des introductions en bourse : le cas français 1991-1995. Finance, pages 87–117, 2001. [307] A.E. Sherman and S. Titman. Building the IPO order book : Underpricing and participation limits with costly information. Journal of Financial Economics, 2002. à paraı̂tre. [308] A. Shleifer and R. Vishny. A survey of corporate governance. Journal of Finance, 52 :737–783, 1997. [309] C. Spatt and S. Srivastava. Preplay communication, participation restrictions and efficiency in initial public offerings. Review of Financial Studies, 4 :709–726, 1991. [310] M. Spence. Competitive and optimal responses to signals : an analysis of efficiency and distribution. Journal of Economic Theory, pages 296– 332, mars 1974. [311] D.K. Spiess and R.H. Pettway. The IPO and the first seasoned equity sale : Issue proceeds, owner/manager’s wealth, and the underpricing signal. Journal of Banking and Finance, 21 :967–988, 1997. [312] L. Sproull. Using electronic mail for data collection in organizational research. Academy of Management Journal, 29(1) :159–169, 1986. [313] C. Sranan-Boiteau. Le métier d’analyste financier en France. Thèse en Sciences de Gestion, Université de Paris IX, 1999. [314] R. Stehle, O. Ehrhardt, and R. Przyborowsky. Long-run stock performance of german initial public offerings and seasoned equity issues. European Financial Management, 6(2), 2000. 304 Bibliographie [315] G. Stigler. Public regulation of the securities markets. Journal of Business, avril 1964a. [316] G. Stigler. Comment. Journal of Business, 1964b. [317] A. Subrahmanyam and S. Titman. The going public decision and the development of financial markets. Journal of Finance, 54(3) :1045– 1082, juin 1999. [318] S. Swaminathan. The impact of SEC mandated segment data on price volatility. Accounting Review, pages 23–41, janvier 1991. [319] T.M. Tan. Some evidence on the reliability of profits and dividends forecasts in prospectuses. Singapore Accountant, pages 21–26, 1987. [320] É. Tchemini. Les prévisions de résultats des entreprises cotées par les dirigeants et les analystes financiers : analyse et comparaison. Thèse de doctorat, 1991. Université de Lille 2. [321] C. Teitgen Colly. Les instances de régulation et la constitution. Revue du droit public, pages 160–161, 1990. [322] S. Teoh, I. Welch, and T. Wong. Earnings management and the longrun performance of initial public offerings. The Journal of Finance, 53 :1935–1974, 1998b. [323] S. Teoh, T.J. Wong, and G. Rao. Are actuals during an initial public offering opportunistic ? Review of Accounting Studies, pages 175–208, May 1998a. [324] G. Timsit. Les figures du jugement. PUF, 1993. Collection les voies du droit. [325] G. Timsit. L’archipel de la norme, les voies du droit Chapitre 6, La régulation : naissance d’une notion, pages 161–231. PUF, Mars 1997. [326] S.M. Tinic. Anatomy of initial public offerings of common stocks. Journal of Finance, 43 :789–822, 1988. [327] S. Titman and B. Trueman. Information quality and the valuation of new issues. Journal of Accounting and Economics, 8(2) :159–172, juin 1986. [328] B. Trueman. Why do managers voluntarily release earnings forecasts ? Journal of Accounting and Economics, 8 :53–71, 1986. [329] B. Trueman. Analyst forecast and herding behavior. The Review of Financial Studies, 7(1) :97–124, 1994. [330] A. Tunc. La lutte contre les opérations d’initiés, neuf ans d’expérience. Dalloz, 1982. Etudes R. Rodière. Bibliographie 305 [331] M. Turin. La planète bourse - De bas en hauts. Découverte Gallimard Histoire, 1993. [332] J.-C. Usunier and M. Easterby-Smith. Introduction à la recherche en gestion. Economica (Gestion), 2000. [333] J. Van Bommel, B. Leleux, and D. Leshinskii. Hot information markets for initial public offerings. Journée sur les introductions en bourse, IRG-ESA, Université Paris XII, 2001. working paper. [334] H. Van Greuning and M. Koen. Normes internationales comptables. Guide pratique de la banque mondiale, ESCP-EAP, FIDEF, 2000. [335] G. Vedel and P. Delvolvé. Droit administratif. PUF, 8ème edition, 1982. [336] R.G.A. Vergoossen. The use and perceived importance of annual reports by investment analysts in the Netherlands. European Accounting Review, 2/3 :219–244, 1993. [337] E. Vernette. L’efficacité des instruments d’études : évaluation des échelles de mesure. Recherche et Applications en Marketing, 6(2) :43– 63, 1991. [338] R. Verrecchia. Discretionary disclosure. Journal of Accounting and Economics, pages 179–194, décembre 1983. [339] R. Verrecchia. Information quality and discretionary disclosure. Journal of Accounting and Economics, 12(4) :365–380, 1990. [340] R. Verrecchia. Essays on disclosure. Journal of Accounting and Economics, 32 :97–180, 2001. [341] F. Wacheux. Méthodes Qualitatives et Recherche en Gestion. Économica, Paris, 1ère edition, mars 1996. [342] A. Wagenhofer. Voluntary disclosure with strategic opponent. Journal of Accounting and Economics, 12(4) :341–363, 1990. [343] R.G. Walker. A case study of political activity and regulatory capture. Accounting and business research, 17(67) :269–286, 1987. [344] S. Walker and D. Duncan. Estimation of the probability of an event as a function of several independent variables. Biometrics, 54 :167–179, 1967. [345] R. Watts and J. Zimmerman. Positive accounting theory. Prentice Hall, 1986. [346] R. Watts and J. Zimmerman. Positive accounting theory : a ten year perspective. The Accounting Review, 65 :131–157, 1990. [347] G. Waymire. Earnings volatility and voluntary management forecast disclosure. Journal of Accounting Research, 23 :268–295, spring 1986. 306 [348] M. Weber. Economie et société, volume 1. Gallimard, pocket edition, 1995. [349] N. Weinstein. Unrealistic optimism about future life events. Journal of Personality and Social Psychology, pages 806–820, 1980. [350] I. Welch. Seasoned offerings and the pricing of new issues. Journal of Finance, pages 421–450, 1989. [351] M. Welker. Disclosure policy, information asymmetry and liquidity in equity markets. Contemporary Accounting Research, 11 :801–828, 1995. [352] P.A. Williams, G.D. Moyes, and K. Park. Factors affecting earnings forecast revisions for the buy-side and sell-side analyst. Accounting Horizons, 10(3) :112–121, septembre 1996. [353] O.E. Williamson. The Economic Institutions of Capitalism. Free Press, 1985. traduction française, Les institutions de l’économie, Interéditions, 1994. [354] O.E. Williamson. Corporate finance and corporate governance. The Journal of Finance, 43(3) :567–591, juillet 1988. [355] P. Wirtz. L’étude de cas : réflexions méthodologiques pour une meilleure compréhension du rôle de la compatibilité financière dans le gouvernement d’entreprise. Comptabilité Contrôle Audit, pages 121– 135, décembre 2000. [356] K. Wruck. Equity ownership concentration and firm value : Evidence from private equity financings. Journal of Financial Economics, 23 :3– 28, 1989. [357] R. Yin. Case study research : design and methods. SAGE, 2ème edition, 1989. [358] D. Zéghal. L’effet de l’information non comptable sur la valeur informationnelle des états financiers dans le marché des capitaux. Canadian Journal of Economics, 14(2) :298–312, mai 1981. [359] M.E. Zmijewski. Comments on ’earnings forecasting research’. International Journal of Forecasting, 9 :337–342, 1993. [360] E. Zola. L’Argent. Livre de poche. Table des matières I Le paradoxe de l’environnement informationnel des introductions en bourse 7 1 Présentation de l’environnement informationnel des introduction en bourse 1.1 L’environnement informationnel d’une introduction en bourse : une revue de la littérature . . . . . . . . . . . . . . . . . . . . 1.1.1 La chaı̂ne de production et de diffusion de l’information 1.1.2 L’unité d’analyse . . . . . . . . . . . . . . . . . . . . . 1.1.3 La qualité de l’environnement informationnel . . . . . . 1.2 L’imperfection des informations : un paradoxe . . . . . . . . . 1.2.1 Impact de la qualité de l’information sur la fonction d’utilité des producteurs . . . . . . . . . . . . . . . . . 1.2.2 Impact de la qualité de l’information sur le marché financier . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Le protocole de recherche . . . . . . . . . . . . . . . . . . . . . 1.3.1 Les choix théoriques . . . . . . . . . . . . . . . . . . . 1.3.2 Les choix empiriques . . . . . . . . . . . . . . . . . . . 9 11 11 14 21 26 26 28 34 34 45 II Explication de la richesse de l’environnement informationnel des introductions en bourse 59 2 Qualité des prévisions publiées par le dirigeant et conflits d’agence 2.1 La publication d’informations de qualité dans le cadre de la théorie de l’agence . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 La théorie de l’agence : principes généraux . . . . . . . 2.1.2 La publication d’informations de qualité, un mode de gouvernance . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Application au contexte de l’introduction en bourse . . 2.2 La méthodologie et les variables . . . . . . . . . . . . . . . . . 307 63 65 65 66 67 70 308 2.3 2.2.1 Méthodologie adoptée . . . . . . . . . . . . . . . . . . 2.2.2 Variables utilisées . . . . . . . . . . . . . . . . . . . . . 2.2.3 Les données . . . . . . . . . . . . . . . . . . . . . . . . Résultats empiriques et discussion . . . . . . . . . . . . . . . . 2.3.1 Mesure de la qualité des prévisions du dirigeant . . . . 2.3.2 Explication de la qualité des prévisions du dirigeant . . 2.3.3 Qualité des prévisions publiées et performances boursières 71 71 73 75 76 78 85 3 Enquête sur l’indépendance des analystes de l’entreprise d’investissement 91 3.1 Les conflits d’agence entre l’analyste et son employeur : fondements empiriques et théoriques . . . . . . . . . . . . . . . . 93 3.2 La méthodologie retenue . . . . . . . . . . . . . . . . . . . . . 99 3.2.1 Justification . . . . . . . . . . . . . . . . . . . . . . . . 99 3.2.2 Les limites d’une méthodologie par questionnaire . . . 101 3.2.3 Le protocole expérimental suivi . . . . . . . . . . . . . 102 3.3 Analyse des réponses au questionnaire . . . . . . . . . . . . . 105 3.3.1 Profil des répondants . . . . . . . . . . . . . . . . . . . 105 3.3.2 Perception par les analystes de leur métier . . . . . . . 107 3.3.3 L’indépendance des analystes . . . . . . . . . . . . . . 108 3.3.4 Les sources d’information des analystes . . . . . . . . . 109 3.4 La qualité des données primaires : Internet versus poste . . . . 114 3.4.1 Efficacité comparée des deux modes d’enquête . . . . . 114 3.4.2 L’utilité d’une enquête Internet en finance d’entreprise 116 4 Les déterminants du suivi d’une introduction en bourse par les analystes d’I/B/E/S 125 4.1 Revue de littérature et hypothèses . . . . . . . . . . . . . . . . 127 4.1.1 Les critères de suivi des analystes dans la littérature . . 127 4.1.2 Modélisation du comportement des analystes . . . . . . 131 4.2 La méthodologie, les données et l’échantillon . . . . . . . . . . 136 4.2.1 La méthodologie adoptée . . . . . . . . . . . . . . . . . 136 4.2.2 Les variables . . . . . . . . . . . . . . . . . . . . . . . 137 4.2.3 Les données . . . . . . . . . . . . . . . . . . . . . . . . 139 4.2.4 L’échantillon . . . . . . . . . . . . . . . . . . . . . . . 140 4.3 Les résultats de l’étude empirique . . . . . . . . . . . . . . . . 144 4.3.1 Les résultats des tests univariés . . . . . . . . . . . . . 144 4.3.2 Les résultats des tests multivariés . . . . . . . . . . . . 147 309 III L’enrichissement de l’environnement informationnel des introductions en bourse 165 5 La signalisation par publication volontaire de prévisions 5.1 Les modèles de signalisation par publication de prévision et leurs implications . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Le cadre théorique . . . . . . . . . . . . . . . . . . . 5.1.2 Les implications des modèles de signal . . . . . . . . 5.1.3 Publication de prévision et procédure . . . . . . . . . 5.2 Présentation de la méthodologie et de l’échantillon . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 La méthodologie adoptée . . . . . . . . . . . . . . . . 5.2.2 Les variables retenues . . . . . . . . . . . . . . . . . . 5.2.3 Présentation de l’échantillon . . . . . . . . . . . . . . 5.3 Les résultats de l’étude empirique . . . . . . . . . . . . . . . 5.3.1 Les résultats des tests univariés . . . . . . . . . . . . 5.3.2 Les résultats des tests multivariés . . . . . . . . . . . . . . . 172 172 175 177 . . . . . . . 177 177 178 181 183 184 187 6 L’intermédiation de la production d’information 6.1 Le cadre théorique : présentation et implications . . . . 6.1.1 Le modèle de Chemmanur (1993) . . . . . . . . 6.1.2 Implications . . . . . . . . . . . . . . . . . . . . 6.2 Présentation de la méthodologie adoptée et des données 6.2.1 La méthodologie adoptée . . . . . . . . . . . . . 6.2.2 L’origine des données . . . . . . . . . . . . . . . 6.2.3 Les variables retenues . . . . . . . . . . . . . . . 6.2.4 L’échantillon . . . . . . . . . . . . . . . . . . . 6.3 Les résultats de l’étude empirique . . . . . . . . . . . . 6.3.1 Les résultats des tests univariés . . . . . . . . . 6.3.2 Les résultats des tests multivariés . . . . . . . . . . . . . . . . . . . 205 207 207 210 212 212 213 213 217 220 220 223 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 La régulation de l’information financière 7.1 Une légitimité historique et institutionnelle . . . . . . . . . . 7.1.1 Un enracinement historique . . . . . . . . . . . . . . 7.1.2 L’inadaptation des pouvoirs traditionnels aux besoins de régulation . . . . . . . . . . . . . . . . . . . . . . 7.1.3 Une légitimité institutionnelle . . . . . . . . . . . . . 7.2 Une autorité «sociologique» . . . . . . . . . . . . . . . . . . 7.2.1 Un mode différent d’exercice du pouvoir . . . . . . . 7.2.2 Le procès de création du droit par le régulateur . . . 7.3 Obstacles à la légitimité du régulateur et perspectives . . . . 169 239 . 242 . 243 . . . . . . 244 246 249 249 255 260 310 7.3.1 7.3.2 Un déficit de légitimité . . . . . . . . . . . . . . . . . . 261 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . 264 Table des figures 1.1 Rentabilités anormales achat-conservation . . . . . . . . . . . 56 3.1 Satisfaction des analystes à l’égard de leurs sources d’information . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Utilité perçue des chapitres du prospectus . . . . . . . . . . . 112 Processus d’élaboration d’un questionnaire web . . . . . . . . 121 3.2 3.3 4.1 4.2 6.1 6.2 Représentation 1-fonction de survie estimée par la méthode de Kaplan-Meier . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 Représentation 1 - fonction de survie estimée par la méthode de Cox . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 6.3 Le modèle théorique testé dans le chapitre 5 . . . . . . . . . . 212 Rentabilités anormales achat conservation des titres introduits en bourse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 Marché de l’information et marché primaire . . . . . . . . . . 237 7.1 7.2 Le procès de création de normes par le régulateur . . . . . . . 271 Composition envisagée de l’Autorité des Marchés Financiers . 272 311 312 Liste des tableaux 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 2.1 2.2 2.3 2.4 2.5 2.6 2.7 3.1 3.2 3.3 3.4 3.5 3.6 Communication d’introduction : calendrier indicatif . . . . . Exactitude et biais des prévisions publiées lors d’une introduction en bourse dans la littérature . . . . . . . . . . . . . . . Valeur informative des prévisions du dirigeant ou des analystes, dans la littérature . . . . . . . . . . . . . . . . . . . . Données extraites de la note d’information . . . . . . . . . . Origines des prévisions des analystes dans la littérature . . Statistiques descriptives calculées sur le maximum d’observations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tests de différences de moyennes . . . . . . . . . . . . . . . Taille des échantillons utilisés dans la partie empirique . . . Statistiques descriptives : échantillon du chapitre 2 . . . . . Comparaison des erreurs de prévision . . . . . . . . . . . . . Distribution des erreurs de prévision . . . . . . . . . . . . . Impact de la précision et du biais des prévisions du dirigeant Explication de l’erreur de prévision du dirigeant par les variables d’agence . . . . . . . . . . . . . . . . . . . . . . . . . Explication de la sous-évaluation par l’erreur de prévision du dirigeant, des variables d’asymétrie et/ou d’agence . . . . . . Erreurs de prévision du dirigeant selon le marché d’introduction et l’horizon . . . . . . . . . . . . . . . . . . . . . . . . Erreur moyenne de prévision des analystes selon leur affiliation (Dechow et al., 2000) . . . . . . . . . . . . . . . . . . . . . Erreur moyenne de prévision des analystes selon leur affiliation (Derrien et Degeorge, 2001) . . . . . . . . . . . . . . . . . . Coefficients de corrélation entre les prévisions d’I/B/E/S et celles de l’étude financière (Derrien et Degeorge, 2001) . . . Répartition de la population enquêtée et des répondants . . Sources d’information des analystes . . . . . . . . . . . . . Qualité comparée des médias de recueil utilisés . . . . . . . . 313 . 19 . 24 . 25 . 46 . 48 . 50 . 57 . 58 . 75 . 77 . 77 79 . 80 . 81 . 84 . 96 . 97 . . . . 98 102 110 117 314 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 4.11 4.12 4.13 4.14 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 6.1 6.2 6.3 6.4 Représentativité de l’échantillon du chapitre 4 . . . . . . . . Statistiques descriptives du chapitre 4 . . . . . . . . . . . . . Couverture des sociétés de l’échantillon par année . . . . . . Nombre d’analystes dans les bases d’I/B/E/S . . . . . . . . Distribution délai de couverture . . . . . . . . . . . . . . . . Rhô de Spearman - chapitre 4 . . . . . . . . . . . . . . . . . Caractéristiques des sociétés selon leur marché d’introduction et leur suivi par les analystes . . . . . . . . . . . . . . . . . . Explication du niveau et du délai de couverture d’une société nouvellement cotée . . . . . . . . . . . . . . . . . . . . . . . Probabilité de couverture d’une société : modèles logit . . . Modèle de Cox . . . . . . . . . . . . . . . . . . . . . . . . . Synthèse revue de littérature (1) . . . . . . . . . . . . . . . Synthèse revue de littérature (2) . . . . . . . . . . . . . . . Exemple de données de survie . . . . . . . . . . . . . . . . . Exemple de tableau de survie . . . . . . . . . . . . . . . . . . . . . . . 140 141 142 143 144 145 Statistiques descriptives de l’échantillon du chapitre 5 . . . . Explication de la sous-évaluation par l’erreur de prévision du dirigeant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La valeur informative de l’acte volontaire de publication et de la précision des prévisions du dirigeant pour les analystes . L’efficacité d’une signalisation par publication volontaire de prévisions avant 1996 / après 1996 . . . . . . . . . . . . . . Probabilité d’une publication de prévisions dans le prospectus d’introduction . . . . . . . . . . . . . . . . . . . . . . . . . . tests de différences de moyennes - chapitre 5 . . . . . . . . . Tests du Chi-deux - chapitre 5 . . . . . . . . . . . . . . . . . Impact de la procédure sur la publication de prévision et la sous-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . Utilité des prévisions du dirigeant pour les investisseurs . . Corrélations bi-variées : Rhô de Spearman - chapitre 5 . . . . 182 . 146 . . . . . . . 148 151 154 159 160 161 162 . 189 . 190 . 194 . 196 . 199 . 200 . 201 . 202 . 203 Statistiques descriptives calculées sur l’échantillon du chapitre 6217 Performances boursières à long terme pour différentes périodes calculées sur l’échantillon du chapitre 6 . . . . . . . . . . . . . 219 Impact du secteur et du marché sur la sous-évaluation et la richesse de l’environnement informationnel . . . . . . . . . . . 221 Lien entre la réalisation d’une augmentation de capital post introduction, la sous-évaluation et la richesse de l’environnement informationnel . . . . . . . . . . . . . . . . . . . . . . . 222 315 6.5 6.6 6.7 6.8 6.9 6.10 6.11 6.12 6.13 6.14 7.1 7.2 7.3 7.4 7.5 Influence du degré de sous-évaluation sur la richesse de l’environnement informationnel et la réalisation d’une augmentation de capital post introduction . . . . . . . . . . . . . . . . . . . 223 Explication de la richesse de l’environnement informationnel par la sous-évaluation . . . . . . . . . . . . . . . . . . . . . . . 224 Explication de la richesse informationnelle par la sous-évaluation et le niveau d’asymétrie sur l’échantillon total . . . . . . . . . 225 Nouveau Marché : explication de la richesse informationnelle par la sous-évaluation et le niveau d’asymétrie . . . . . . . . . 226 Second Marché : explication de la richesse informationnelle par la sous-évaluation et le niveau d’asymétrie . . . . . . . . . . . 227 Explication de la sous-évaluation par le niveau d’asymétrie . . 228 Probabilité d’une augmentation de capital dans l’année suivant l’introduction . . . . . . . . . . . . . . . . . . . . . . . . 230 Probabilité d’une augmentation de capital dans les deux ans suivant l’introduction . . . . . . . . . . . . . . . . . . . . . . . 231 Explication des performances boursières à long terme par la sous-évaluation initiale, le nombre et la qualité des informations disponibles la première année de cotation . . . . . . . . . 232 Rhô de Spearman - chapitre 6 . . . . . . . . . . . . . . . . . . 236 Bilan de l’action de la COB (1999-2002) . . . . . . . . . . . . 251 Exactitude des prévisions NM-SM . . . . . . . . . . . . . . . 253 Valeur informative des prévisions contenues dans les prospectus d’introduction au NM et SM . . . . . . . . . . . . . . . . 253 Publication de prévision par les sociétés du Second Marché dans leur prospectus . . . . . . . . . . . . . . . . . . . . . . . 254 Comparaison des normes élaborées par le législateur et le régulateur267