repères - La Jaune et la Rouge
Transcription
repères - La Jaune et la Rouge
MAI 2012 - 8 e - n° 675 REVUE MENSUELLE DE L’ASSOCIATION DES ANCIENS ÉLÈVES ET DIPLÔMÉS DE L’ÉCOLE dOSSIER ÉcoNoMIE NuMÉRIQuE lEs succès ➔ Big data, un nouvel or noir ➔ Vers un nomadisme des identités ? ➔ Protéger les données personnelles Focus G R O U P E X - PAY S - B A S : L A T U L I P E N O I R E JR675-COUV.indd 1 26/04/12 06:57 P.2-3 Sommaire 27/04/12 6:56 Page 2 Sommaire GRAND ANGLE mai 2012 – n° 675 5 > Éditorial Aider l’École à aller de l’avant par Laurent Billès-Garabédian (83) Économie numérique : les succès 6 > Introduction par Jean-Pierre Dardayrol (72) 7 > Résumé des articles 8 > Entreprendre dans le logiciel par Pierre Haren (73) 10 > La fiscalité au cœur des stratégies par Loïc Rivière 13 > Les données massives du big data, un nouvel or noir par Michel Crestin et Hervé Dhelin 16 > Qualité des données et échanges d’affaires par Pierre Georget 18 > Comprendre la volatilité des marchés financiers par Patrice Fontaine et Bernard Rapacchi 20 > Riposter contre la cybercriminalité par Adeline Champagnat 22 > Smart grids : le logiciel au cœur des systèmes électriques par Hervé Rannou 26 > L’entreprise doit protéger les données personnelles par Jean-Marc Goetz 28 > Nomadisme informatique, nomadisme des identités ? par Philippe Laurier et Claire Dufetrelle (2009) 32 > Open savoir-faire, une innovation radicale inspirée de l’open source par Tru Dô-Khac (79) 34 > Nouveaux modes de paiement : quatre prévisions pour 2012 par Alexandre Hoffmann 36 > Stratégies pour l’innovation par Sandrine Murcia 38 > Logistique et livraison, clés du e-commerce POUR EN par François Copigneaux SAVOIR + Rendez-vous sur le site de La Jaune et la Rouge pour accéder aux informations complémentaires, réagir sur les forums et consulter les numéros déjà parus. http://www.lajauneetlarouge.com Courriel : [email protected] P.2-3 Sommaire 27/04/12 6:56 Page 3 EXPRESSIONS Revue mensuelle de l’Association des anciens élèves et diplômés de l’École polytechnique PORTRAIT 42 > Louis Vicat (1786-1861) Le père d’un nouvel art de construire par Anne Bernard-Gély (74) et Laurent Izoret RÉDACTION EN CHEF : Jean-Marc CHABANAS (58), Hubert JACQUET (64) IN MEMORIAM SECRÉTAIRE DE RÉDACTION : Anne-Béatrice MULLER ASSISTANTE : Françoise BOURRIGAULT 46 > Robert Bonnal (36) Apôtre de la coopération française par Jacques Bourdillon (45) RENCONTRES 47 > Sept promotions sous le signe des neutrons par Daniel Suchet (2008) FORUM SOCIAL 48 > Composer des classes raisonnablement hétérogènes par François Carn ANNIVERSAIRE HENRI POINCARÉ 61 > Hommage numismatique par Claude Gondard (65) 50 > Michel Bertrandias (81), président du groupe X-Pays-Bas « Un réseau convivial d’échanges culturels » propos recueillis par Jean-Marc Chabanas (58) COMITÉ ÉDITORIAL : Christian MARBACH (56), président, Pierre LASZLO, Philippe LAURIER, Denys ROBERT (E.P.), JEAN DESCHARD (E.P.), Gérard PILÉ (41), Maurice BERNARD (48), Serge RAFFET (50), Jean DUQUESNE (52), Michel HENRY (53), Michel GÉRARD (55), Charles-Henri PIN (56), Jacques-Charles FLANDIN (59), Jacques PARENT (61), François Xavier MARTIN (63), Gérard BLANC (68), Alexandre MOATTI (78), Jérôme DUPONT de DINECHIN (84) Jean-Philippe PAPILLON (90) ABONNEMENTS, ANNUAIRE, COTISATIONS : Tél. : 01.56.81.11.05 ou 01.56.81.11.15 [email protected] COMMUNICATION : Régine LOMBARD [email protected] ANNONCES IMMOBILIÈRES : Tél. : 01.56.81.11.11 – Fax : 01.56.81.11.01 BUREAU DES CARRIÈRES : Tél. : 01.56.81.11.14 – Fax : 01.56.81.11.03 P OINT G AMMA 53 > Le 2 juin, je serai au Point Gamma par Pauline Métivier (2010) 57 > Notice sur la Fête Extraits d’une Notice rédigée en 1901 58 > Éclipse de soleil ARTS, ÉDITEUR : Association des anciens élèves et diplômés de l’École polytechnique 5, rue Descartes, 75005 Paris Tél. : 01.56.81.11.00 Courriel : [email protected] Fax : 01.56.81.11.01 WEBMESTRE : Jean-Pierre HENRY (64) [email protected] X-Pays-Bas : la tulipe noire Extraits d’un article du début du CORRECTRICE : Catherine AUGÉ RÉDACTION DE LA JAUNE ET LA ROUGE : 5, rue Descartes, 75005 Paris Tél. : 01.56.81.11.13 Courriel : [email protected] FOCUS TARIFS 2012 : Prix du numéro : 8 euros Abonnements : 10 numéros par an, 40 euros Promos 2000 à 2003 : 30 euros Promos postérieures : 01.56.81.11.15 PUBLICITÉ : FFE, 15, rue des Sablons – 75116 Paris Tél. : 01.53.36.20.40 CONCEPTION, RÉALISATION : KEY GRAPHIC XXe siècle LETTRES ET SCIENCES 62 > Musique en images par Marc Darmon (83) Récréations scientifiques par Jean Moreau de Saint-Martin (56) Bridge par Gaston Méjane (62) 63 > Discographie par Jean Salmona (56) 64 > Magnan par Lady GastronomiX Livres 66 > Solutions des Récréations scientifiques et du Bridge VIE DIRECTEUR DE LA PUBLICATION : Laurent BILLÈS-GARABÉDIAN (83) DES ENTREPRISES 67 > Dossier spécial réalisé par FFE pour le service commercial de La Jaune et la Rouge IMPRESSION : GROUPE MAURY IMPRIMEUR COMMISSION PARITAIRE n° 0114 G 84221 ISSN n° 0021-5554 TIRAGE : 11 750 exemplaires N ° 675 – MAI 2012 PHOTO DE COUVERTURE : © ISTOCK PAG E 85 RAPPORT MORAL SUR L’ANNÉE 2011 INTRODUCTION X.org ; dossiers thématiques de La Sur plus de 20 000 Jaune et la Rouge – l’agrément par élèves, étudiants l’Assemblée géné; participation au , anciens élèves et groupe «Grandes rale de cinq nouveaux diplômés de l’École Écoles au féminin» groupes poly; polytechnique près liens avec la Kès techniciens : X-Tunisie des élèves ; liens de 70 % font par, X-Suisse, Xtie de l’Association, avec la FX… Œnologie, X-Chili et X-Start up. Et ce qui place l’AX la au premier rang – enfin, analyses mise en place d’un parmi , propositi groupe de réflexion tions d’anciens élèves les associacipations à des groupes ons, partiau niveau du Conseil comparables. de l’AX sur son de travail, au On constate cependan sein de la commun articulation avec les auté polytechnit une baisse des groupes X et l’animembres cotisants cienne ou de façon mation de ceux-ci . Des efforts contiplus élargie, sur les ; nuent d’être menés missions de l’École – la décision d’une pour rapprocher et sur son organigestion plus prude l’Association sation, de sorte que dentiell e des actifs les jeunes l’École s’adapte financie rs de et mieux la faire connaître anciens, en permanence aux l’Association ; besoins des élèves de l’écoet étudiants présents nomie et à ceux de – la participation très la Nation. sur active et vigilante Les activités de l’Associa le Plateau. Parmi les tendance de l’AX, notamm ent au niveau de s et réalisations de tion, qui sont sa détaillées ci-après 2011, quelques points présidence, quant , se répartissent aux réflexions sur sont à souligner : en trois grandes – les nombreuses l’évolution de l’École, familles dispositions prises à travers : 1) les – d’une part des actions : en réaction au contexte réunions de travail avec l’École, la FX, de solidarité, de difficultés menées principal économ iques : la Fondation de coopérat ement à l’attentio ainsi, la Caisse ion scientide n des élèves, anciens Secours, rebaptisé fique de Saclay, le ministère e Caisse de Solidarité élèves et diplômés , , qu’ils soient ou non a étendu son soutien et le cabinet du Premier de tutelle adhérents de l’AX, à de ministre ; 2) mais aussi au profit rades provisoirement jeunes camala résolution importan de leurs proches en difficulté ; le te du Conseil de : dons, prêts et autres Bureau des Carrières l’AX du 5 juillet 2011 appuis de la Caisse précisant la posia considérablede Secours; conseils ment développé tion de l’AX sur les sa communication et séances de forobjectifs de l’École mation du Bureau dans La Jaune et la et l’articulation avec des Carrières... Rouge les projets de cam– d’autre part des des nouveaux utilisateu et le nombre pus de Saclay et 3) initiatives destinées le groupe de travail rs de ses serà resserrer les liens vices a fortement AX-FX, incluant augmenté ; des membres de entre les membres la de l’Associ ation – l’organisation de direction générale et à mieux faire la « journée polyde l’École, présidé connaître les points technicienne» annuelle par François LUREAU forts distinctifs . lors de l’AG du de notre commun 14 juin 2011 au cours Toutes ces activités auté, tout en contrisont décrites plus de laquelle ont buant à l’informa été organisés une précisément dans tion et table ronde « Les les trois chapitres sur de grandes question à la réflexion polytechniciens et qui suivent. Par ailleurs, quelque l’entreprenariat » s l’ensemble de la société. s intéressant et un atelier « Groupes informations intéressa Par exemple : nt les membres contacts internatio et au cours de laquelle régionaux », de l’Association, en particulie naux et accueil des a été remis le r un point élèves étrangers prix Dargelos ; sur le développement ; élaboration d’une de l’École et un politique de commun – la poursuite de compte rendu la rénovation de de l’action de ication; analyses la la portant sur la mission version électron Fondation de l’X, ique de La Jaune sont rassemblées et regard des besoins de l’École au la Rouge ; dans une annexe. de la Nation ; annuaire et outils – la mise en place de réseau inford’un groupe de matique en liaison réflexion X-Jeunes Le Rapport complet avec l’Association au sein du Conseil avec ses annexes est de l’AX ; consultable sur le site Internet de l’Associatio http://www.polytech n: niciens.com LA JAUNE ET LA ROUGE • MAI 2012 ➤ 85 P.5 Edito-Billès-Garabédian 27/04/12 7:04 Page 5 ÉDITORIAL D.R. par Laurent Billès-Garabédian (83), président de l’AX Aider l’École à aller de l’avant Notre École est au cœur de réflexions importantes pour sa stratégie et sa gouvernance, en tant qu’École polytechnique et dans le cadre de l’université Paris-Saclay. Notre Association se tient aux côtés de l’École et souhaite l’aider à rester visionnaire et force de proposition pour son évolution et soutient la formidable opportunité d’avoir un nouveau mode de gouvernance avec un président à temps plein et un directeur général. Pour l’appuyer, le Conseil de l’AX a voté le 11 avril 2012 à l’unanimité le texte suivant qu’il a partagé avec le Conseil d’administration de l’École. ■ Dans la continuité de la motion votée à l’unanimité par son Conseil d’administration du 5 juillet 2011, l’AX affirme à nouveau que l’École polytechnique est au service de l’intérêt général de la Nation, de son économie, de ses intérêts stratégiques et de la Défense. Il est donc nécessaire qu’elle conserve de manière pérenne sa spécificité et son identité, c’est-à-dire son statut d’établissement public et son rattachement au ministère de la Défense. Dans cet esprit, elle se réjouit de la signature avec le ministre de la Défense le 21 mars dernier du contrat d’objectifs et de performance pour la période 2012-2016 dont elle soutient les objectifs et les orientations. La mission de l’École est de former des ingénieurs et des scientifiques de haut niveau destinés aux corps de l’État, à l’économie française, à son industrie et à son rayonnement international. L’AX tient tout particulièrement au modèle original de formation de l’École, pluridisciplinaire, associant science, ingénierie et formation humaine avec une double vocation d’interdisciplinarité et d’innovation, assurant une forte intégration entre ses trois cycles de formation et avec son centre de recherche. L’École doit poursuivre la mise en œuvre déterminée de son évolution engagée avec la réforme X2000, essentiellement son ouverture vers l’international et vers les entreprises et la spécialisation de ses élèves en partenariat avec de nombreuses institutions françaises et étrangères. L’AX soutient la contribution active de l’École polytechnique à la création de l’université de Paris-Saclay et la poursuite des nombreuses coopérations déjà largement amorcées tant avec l’Université, qu’avec les centres de recherche et qu’avec les grandes écoles présentes et à venir sur son campus à Saclay. L’AX contribuera à bâtir une gouvernance efficace de cet ensemble. Mais elle demande à l’École polytechnique de faire reconnaître et de préserver les spécificités et les orientations évoquées ci-dessus. À cet effet, les discussions en cours pour contractualiser, dans les années à venir, les engagements pris par la Fondation de coopération scientifique exigent une vraie concertation dans les formes requises et une validation formelle par le Conseil d’administration de l’École. Consciente de l’enjeu que représente l’université de Paris-Saclay pour la France et des atouts qu’apportent à cet ensemble la notoriété existante et les spécificités de l’École polytechnique, la communauté polytechnicienne représentée par l’AX entend être un soutien actif et vigilant pour aider l’École à se renforcer et à jouer le rôle moteur qui doit être le sien, tout particulièrement auprès des autres écoles d’ingénieurs qui sont et seront sur le campus de Saclay. Elle souhaite en particulier que les grandes lignes de gouvernance de l’université de Paris-Saclay qui s’esquissent pour l’horizon 2016 soient l’occasion pour l’École polytechnique de garder la maîtrise de ses formations, de développer ses atouts et de les apporter à l’ensemble pour contribuer à son rayonnement international. ■ LA JAUNE ET LA ROUGE • MAI 2012 5 P.6 Intro Dardayrol 24/04/12 16:23 Page 6 GRAND ANGLE par Jean-Pierre Dardayrol (72), ingénieur général des Mines, président de l’AFNIC* ■ Haut débit, très haut débit, 4G, 5G, dividende numérique, cloud rebaptisé « infonuagique », malwares et botnets, fractures numériques multiples, neutralité, gouvernance, nouveaux gTLD : un grand nombre de débats, de polémiques aussi, caractérisent la (longue) phase de développement du monde de l’Internet, structurent et soutiennent sa formidable croissance, font la Une des grands médias ou le buzz de multiples communautés. La couverture de ces débats est ample dans notre pays, même si certains d’entre eux peuvent apparaître comme trop minorés – par exemple ceux relatifs à la cybercriminalité, aux avatars futurs de l’Internet des objets et à l’immobilier pour les entreprises du secteur –, ou au contraire trop hégémoniques. Cependant, l’un d’entre eux mériterait une attention plus globale au-delà des réflexions, riches et multiples, et des actions, souvent réussies, qui le concernent : les données, ou plus exactement la valorisation des données. On pourrait penser que les données à valoriser sont celles du Web immergé, c’est-à-dire celles qui, pour de multiples raisons, notamment leurs protections techniques, ne sont pas accessibles. Elles représenteraient plus de 90 % des informations, ce qui fait souvent comparer le Web à un iceberg. Heureusement, le trésor caché de l’Internet est constitué de données et d’informations accessibles directement. Cependant, des politiques visant à lever les obstacles juridiques, 6 LA JAUNE ET LA ROUGE • MAI 2012 DR Un trésor est caché culturels ou économiques à l’utilisation «optimale » de certaines informations sont nécessaires parce que porteuses de création d’activités et d’emplois. Ces données constituent un foncier fondamental pour l’économie numérique, une des grandes ressources du XXIe siècle, à l’égal des matières minérales, énergétiques ou de l’eau. La capacité de chacun à les mettre en valeur pèsera dans la compétitivité des entreprises et des collectivités : les États-Unis, l’Australie, le Royaume-Uni ou les Pays-Bas montrent la voie en adoptant des politiques volontaristes et pragmatiques. Pour des raisons historiques, ce foncier est malheureusement grevé de nombreuses servitudes et de contraintes, toujours justifiées au moment où elles ont été retenues mais hétérogènes et parfois devenues inadaptées. Si beaucoup a été fait en ce qui concerne la modernisation du droit des œuvres de l’esprit, des données publiques et des données personnelles, il reste encore à faire dans ces secteurs tout en abordant d’autres sujets comme celui des données attachées aux objets. À moyen terme, le mouvement des big data, c’est-à-dire l’exploitation des grands ensembles hétérogènes de données – vidéo, sons, etc. – contraindra à une approche unifiée et à une politique d’ensemble. C’est ce travail qui livrera aux laboureurs de l’Internet son trésor caché. * Association française pour le nommage Internet coopératif. P.7 Résumés 24/04/12 7:48 Page 7 DES ARTICLES Économie numérique : les succès DOSSIER COORDONNÉ PAR JEAN-PIERRE DARDAYROL (72) Après avoir évalué, dans son numéro précédent, les enjeux liés à l’économie numérique, La Jaune et la Rouge en analyse ici les succès. Entreprendre dans le logiciel par Pierre Haren (73) p. 8 Sans amélioration de sa performance collective, qui ne peut passer que par une plus grande utilisation de l’informatique et par une bonne dose d’innovation, la France ne pourra maintenir ni sa place dans le monde, ni son niveau de vie. La fiscalité au centre des stratégies par Loïc Rivière p. 10 En France, la fiscalité a longtemps constitué un instrument majeur entre les mains de l’action publique pour assurer l’efficacité de notre modèle républicain. L’économie numérique, de par son caractère transnational et immatériel, s’accommode mal des exigences de ce modèle. Les données massives du big data, un nouvel or noir par Michel Crestin et Hervé Dhelin p. 13 Comment traiter des masses considérables de données? Un investissement massif et de nouvelles stratégies d’entreprise accompagnent création de valeur et rapidité de service. Une tendance lourde qui porte à considérer les données massives, ou big data, comme un nouvel or noir pour les entreprises. Qualité des données et échanges d’affaires par Pierre Georget p. 16 Aujourd’hui, 95% des transactions sont menées de façon électronique dans les diverses chaînes d’approvisionnement françaises. La qualité des données est devenue un enjeu majeur. L’entreprise doit protéger les données personnelles parJean-Marc Goetz p. 26 L’actualité présente de plus en plus de cas de sociétés confrontées à des pertes de données, ou à des transferts d’informations personnelles mal contrôlés ; des réseaux sociaux invitent leurs abonnés à fournir des données qu’ils ne maîtriseront plus. Que faire face à cette situation ? GRAND ANGLE RÉSUMÉ Nomadisme informatique, nomadisme des identités ? par Philippe Laurier et Claire Dufetrelle (2009) p. 28 Mémoire de nos identités, de nos moyens de la confirmer, de nos habitudes, de nos mouvements : les objets intelligents se multiplient dans notre environnement immédiat, mais aussi jusque dans notre corps ou dans l’isoloir du bureau de vote. Tandis que notre intimité numérique rétrécit à l’instar d’une peau de chagrin, il s’instaure une logique qui échappe à l’individu, alors pourtant qu’elle touche à l’individu. Open savoir-faire, une innovation radicale inspirée de l’open source par Tru Dô-Khac (79) p. 32 Le numérique pose un défi sans précédent à la conservation du savoir-faire. Mais, avec de nouveaux usages du droit d’auteur en entreprise, ce savoir-faire est source de modèles d’affaires numériques inédits que nous désignons par open savoir-faire. Comprendre la volatilité des marchés financiers par Patrice Fontaine et Bernard Rapacchi p. 18 Mieux étudier les marchés financiers est indispensable pour en comprendre le fonctionnement et, en particulier, l’impact des outils de trading automatiques. Cela implique de garder trace des cours boursiers à des fréquences élevées. Nouveaux modes de paiement : quatre prévisions pour 2012 par Alexandre Hoffmann p. 34 Quatre évolutions vont marquer le monde du paiement : l’ascension fulgurante du «m-commerce»; la multiplication des appareils connectés, suscitant le besoin d’un portefeuille de paiement «dans le nuage»; l’avènement du «t-commerce»; et la disparition de la frontière entre commerce traditionnel et commerce en ligne. Riposter contre la cybercriminalité par Adeline Champagnat p. 20 L’essor du numérique rend indispensable l’adaptation des outils législatifs, répressifs et de coopération internationale. En France, cette action est confiée à l’OCLCTIC. Stratégies pour l’innovation par Sandrine Murcia p. 36 En matière d’innovation et d’accompagnement de l’innovation, les échanges d’expérience au sein d’un réseau d’entreprises sont irremplaçables. Le logiciel au cœur des systèmes électriques par Hervé Rannou p. 22 Les réseaux intelligents d’énergie font partie de ces sujets qui semblent éloignés des préoccupations politiques ou stratégiques. Pourtant, c’est l’un des véritables sujets des prochaines années tant leur impact sera majeur. Logistique et livraison, clés du e-commerce par François Copigneaux p. 38 L’Internet a permis un essor extraordinaire de la vente à distance. Mais cet essor implique en aval la mise en place de solutions logistiques fiables et performantes pour livrer au consommateur sa commande. LA JAUNE ET LA ROUGE • MAI 2012 7 P.8 Haren 24/04/12 7:43 Page 8 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR PIERRE HAREN (73) Entreprendre dans le logiciel vice-président ILOG chez IBM Sans amélioration de sa performance collective, qui ne peut passer que par une plus grande utilisation de l’informatique et par une bonne dose d’innovation entrepreneuriale, la France ne pourra maintenir ni sa place dans le monde, ni son niveau de vie. L’entreprise informatique a ici un rôle essentiel à jouer. ■ Notre vie quotidienne est dépendante de l’industrie du logiciel. Qui s’étonne encore de pouvoir parler par Skype à un membre de sa famille à l’autre bout de la planète, ou de regarder une vidéo en temps réel, alors que toute la conversation ou la vidéo est tronçonnée en petits paquets de données qui voyagent tous indépendamment et sont reconstitués à l’autre bout avec une qualité ahurissante? Acheter par Internet en se faisant livrer le colis à sa porte est souvent moins onéreux que d’aller chercher soi-même l’objet dans un magasin. Planète intelligente Les appareils qui nous entourent sont de plus en plus intelligents, interconnectés et autonomes Tous les appareils qui nous entourent sont de plus en plus intelligents, interconnectés et autonomes grâce à des millions de lignes de logiciel. IBM promeut le concept de « planète intelligente», qui rassemble les concepts d’instrumentation, de télécommunications et de traitement intelligent pour fusionner et interpréter d’immenses quantités de données sur différents systèmes afin d’optimiser leur per- REPÈRES Toutes les télécommunications par téléphone ou Internet n’existent que parce que des millions de lignes de code fonctionnent correctement dans les commutateurs et tout au long du réseau pour acheminer nos conversations. Tout le commerce électronique dépend de chaînes logistiques d’une grande complexité, gérées par informatique, au niveau de l’usine produisant les biens commandés, puis dans les différentes étapes de transport : l’ubiquité du logiciel est une évidence. formance : villes intelligentes, systèmes de distribution d’énergie plus efficaces, amélioration des systèmes de santé, etc. Cependant, l’ubiquité actuelle du logiciel ne garantit pas pour autant l’égalité des différents acteurs devant les avantages qui peuvent être retirés de celui-ci. Le logiciel apporte au contraire un formidable potentiel de différenciation de performance entre les entreprises, voire les sociétés. Omniprésente, déterminant la performance de nos sociétés, l’informatique est aussi une extraordinaire source d’aventures. D’abord, parce que l’informatique elle-même évolue en permanence, et exige une attitude d’apprentissage permanent, mais aussi parce qu’elle mêle de plus en plus étroitement technologie et savoir dans la gestion de nos sociétés complexes. Performance et qualité de vie Prenons l’exemple de Singapour, petit pays de 5 millions d’habitants situé sous l’équateur, sans aucune ressource naturelle, dont le PNB par habitant a dépassé celui de la France dans la fin des années 1990 en grande partie du fait de la qualité de l’usage de l’informatique par la société singapourienne. Cette société est en permanence à la recherche d’améliorations de la performance individuelle et collective par un usage plus poussé et plus intelligent de l’informatique : qu’il s’agisse de l’aéroport qui optimise en permanence les flux de passagers et de bagages pour minimiser les attentes, du port qui est le plus grand port de transbordement de conteneurs au monde grâce à un usage très avancé de l’informatique, de l’automatisation de la validation des permis de construire des bâtiments, qui réduit les délais d’attente et d’immobilisation du capital, de la gestion des infrastructures de transport collectif, ou du péage variable pour les véhicules individuels, qui minimisent les embouteillages tout en maximisant le confort collectif. 8 LA JAUNE ET LA ROUGE • MAI 2012 P.8 Haren 24/04/12 6:48 Page 9 GRAND ANGLE Une aventure du savoir Jusqu'à la fin des années 1950, le savoir était uniquement présent dans des livres ainsi que dans le cerveau des professeurs, étudiants et praticiens qui appliquaient un savoir technique ou réglementaire. De nos jours, ce savoir est plus en plus intégré de manière active dans des logiciels qui effectuent des tâches de routine à la place des opérateurs. Par exemple, le site d’enchères privées eBay n’aurait jamais pu voir le jour sans une infrastructure informatique avancée, notamment en détection de fraude, nécessaire pour garantir à tous ses utilisateurs un niveau acceptable de sécurité du système. Analyser différents savoirs pour les intégrer dans des systèmes servant des millions d’utilisateurs en temps réel est une aventure extraordinaire. dement avec les meilleurs Indiens, Chinois ou Américains, ce qui devrait plaire à l’esprit compétitif français. Réseaux sociaux Un levier indispensable Une nouvelle dimension dans la gestion du savoir est en train d’émerger rapidement sous nos yeux : celle de l’informatique des réseaux sociaux. Depuis l’émergence du Web, l’espèce humaine se transforme rapidement pour devenir une espèce collective, dans un mouvement incroyablement audacieux similaire à celui du passage des organismes unicellulaires aux organismes pluricellulaires. Nous n’en sommes encore qu’au début des bouleversements qu’induira ce changement de nature. Aujourd’hui, les groupes d’amis favorisent l’émergence d’un produit plutôt que d’un autre grâce à l’usage que nous faisons des recommandations de ces réseaux sociaux. Demain, les fonctionnalités de ces produits seront définies par avance par des groupes d’utilisateurs qui influenceront en temps réel les concepteurs des produits. La gestion du savoir et la résolution de problèmes complexes migrent ainsi de l’individuel au collectif. Pour une jeune pousse, le terreau initial est déterminant. L’informatique est un levier indispensable pour l’administration, qui doit fournir le meilleur service possible aux citoyens au coût le plus faible, et pour les entreprises, qui doivent en permanence offrir des services ou des produits de meilleure qualité au meilleur prix. L’intégration de produits et services innovants issus de jeunes pousses françaises représente pour les utilisateurs une opportunité unique de détenir un atout de performance, et pour ces start-ups une nécessité absolue. La position de la France en tant que « terreau de jeunes pousses » est mitigée. La taille du marché français permet de soutenir le développement d’une première phase de croissance, mais requiert aussi de développer rapidement l’international afin de financer l’adaptation des produits aux autres langues et cultures, notamment anglaises et chinoises, et de créer un réseau de distribution. Évolution de l’humanité Position concurrentielle Dans ce contexte, l’informatique fournit à la fois le moyen de communication et une contribution unique à notre intelligence collective. Entreprendre dans l’informatique, c’est donc apporter sa pierre à cette phase essentielle de l’évolution de l’humanité, pour créer de nouveaux produits, services, résultats. Du fait de l’intérêt financier d’un succès industriel en informatique, qui attire les meilleurs esprits de la planète, créer une entreprise informatique, c’est aussi choisir d’entrer en compétition rapi- Notre position concurrentielle dans l’informatique a été longuement analysée ailleurs, avec des points extrêmement positifs tels que le crédit d’impôt recherche et la qualité de nos ingénieurs, ainsi que l’appétence du grand public pour les technologies nouvelles démontrée par des succès tels que ceux du Minitel et du GSM, mais aussi des obstacles, tels que celui de la langue ainsi que certaines lourdeurs administratives et une image souvent négative des entreprises et des entrepreneurs. ■ Quand l’informatique réinvente la médecine C’est le sens de l’évolution du système Watson d’IBM, qui va soutenir les médecins comme source additionnelle de conseil dans les diagnostics difficiles et complexes. Watson est une source connectée en permanence, disposant d’une mémoire infinie, d’une capacité toujours croissante à détecter des similarités avec d’autres cas déjà en mémoire, et d’une constance dans la performance bien supérieure à celle que nos cerveaux humains peuvent atteindre. L’informatique évolue en permanence et exige une attitude d’apprentissage permanent LA JAUNE ET LA ROUGE • MAI 2012 9 P.10 Rivière 24/04/12 16:24 Page 10 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR LOÏC RIVIÈRE délégué général de l’Association française des éditeurs de logiciels et solutions Internet (AFDEL) Le business model de l’Internet est celui d’un marché biface La fiscalité au centre des stratégies En France, la fiscalité a historiquement joué un rôle de premier plan : redistributive, compensatrice ou régulatoire, elle a longtemps constitué un instrument majeur entre les mains de l’action publique pour assurer l’efficacité de notre modèle républicain. L’économie numérique, de par son caractère transnational et immatériel, s’accommode mal, à l’instar de la finance, des exigences de ce modèle. L’élaboration de taxes sectorielles n’est ici finalement qu’un autre symptôme du même mal : notre difficulté à assurer la pérennité de notre modèle dans un contexte mondialisé. ■ Le 14 février dernier, le sénateur Philippe Marini et la Fédération française des télécoms avaient convié, avec le soutien du Conseil national du numérique, l’ensemble des représentants de l’économie numérique pour leur présenter leurs propositions en faveur d’une fiscalité du numérique rénovée. En cause, la distorsion fiscale entre secteur numérique et secteur traditionnel, mais surtout entre opérateurs d’infrastructures et fournisseurs de contenus ou encore entre acteurs locaux de l’Internet et grands acteurs transnationaux tels Google, Amazon, Apple ou Facebook. Quand l’industrie réclame des taxes… pour les autres Si bien que c’est une forme d’unanimité qui prévalait devant la nécessité de corriger ce déséquilibre fiscal, voire de créer de nouvelles taxes. Devant le parterre de spécialistes et journalistes réunis, les organisateurs démontrèrent en effet de façon étonnante leur inventivité à concevoir de nouvelles taxes destinées à l’économie numérique. Non pas des ajustements de taxes existantes, mais bien de nouvelles taxes jusqu’alors inexistantes. L’exercice était pour le moins cocasse et inédit : une 10 LA JAUNE ET LA ROUGE • MAI 2012 REPÈRES La formidable création de richesses suscitée par le développement d’Internet a bousculé les chaînes de valeur existantes et remis en cause les positions acquises. Et dans ce grand chambardement, les opérateurs télécoms ont l’impression d’être les oubliés de la croissance. Leurs revenus d’infrastructures se tassent, les nécessités d’investir dans le très haut débit se font pressantes et ils versent chaque année des contributions significatives au financement de la création. Les opérateurs font de cette situation un diagnostic sans appel : « Des géants mondiaux cherchent à conquérir de nouveaux marchés en sortant de leurs métiers d’origine et en venant concurrencer directement les activités des opérateurs, mais en échappant totalement à l’arsenal fiscal et réglementaire. » industrie dénonçant sa «surfiscalisation» et proposant, dans le même temps, de nouveaux mécanismes élaborés par des fiscalistes pour taxer l’industrie numérique. Cocasse en effet, mais sans motifs sérieux certainement pas. Dans une tribune du journal Le Monde, les dirigeants des opérateurs Orange, Bouygues Telecom et Free s’étaient peu auparavant prononcés à l’unisson pour une nouvelle fiscalité numérique, en déplorant que des géants mondiaux les concurrencent sur les mêmes marchés « en échappant totalement à l’arsenal fiscal et réglementaire ». Taxes en cascade Depuis 2008 les opérateurs ont été « successivement assujettis à la taxe sur les services de télévision (qui alimente un compte de soutien à l’industrie de programmes [Cosip], dont les ressources ont crû de 50 % en trois ans), la taxe visant à financer France Télévisions, ou encore l’impôt forfaitaire sur les entreprises de réseaux (IFER) ». P.10 Rivière 27/04/12 12:25 Page 11 L’absence de relation économique caractérisée entre infrastructures et contenus (quoique remise en cause par l’évolution de l’interconnexion) a mis de facto tous les fournisseurs de contenus et services sur un pied d’égalité potentiel dans leur capacité à accéder au marché, c’est-à-dire aux internautes sans discrimination. C’est ce modèle qui a assuré jusqu’à présent le formidable développement du réseau, son foisonnement de contenus et de services innovants. C’est également ce modèle qui a encouragé l’équipement massif des internautes en box et services triple play. C’était dit. Et les acteurs visés, sans être nommés, étaient bien identifiables. Les opérateurs souhaitent donc que les fournisseurs de contenus participent notamment au financement de la création. Ils pointent ainsi du doigt en particulier la fiscalité des grands acteurs de l’Internet, dits Over the top, qui ne participent pas à ce financement et assument une fiscalité très allégée des revenus retirés de leurs activités commerciales en Europe. Bien plus, les opérateurs remettent véritablement en cause le business model historique d’Internet et la place qui leur est réservée. Business model remis en cause ? Le business model de l’Internet est grossièrement celui d’un marché biface, composé d’une part d’une face contenus et services, et d’autre part d’une face utilisateurs-internautes. Ces deux faces sont a priori économiquement découplées, les internautes rémunérant en fait les opérateurs d’infrastructures pour pouvoir accéder aux contenus. Il y a donc un phénomène de subvention croisée, les opérateurs d’infrastructures pouvant vendre l’accès à des contenus et services qu’ils n’ont pas à produire et les fournisseurs de contenus et services pouvant distribuer les contenus sans en assumer l’acheminement. Aujourd’hui, les opérateurs d’infrastructures constatent un tassement de leurs revenus de bande passante dans les pays industrialisés et dans le même temps un essor continu de la création de valeur sur le réseau qu’ils administrent par les fournisseurs de contenus et services. Les opérateurs souhaitent donc remédier à cette situation selon deux axes stratégiques. Le premier consiste à développer leurs propres offres de services (musique, vidéo, etc.) sur le GRAND ANGLE Un modèle unique réseau, quitte à les intégrer de façon préférentielle au sein de leur offre généraliste. Le second axe consiste à remettre en question le business model historique d’Internet en proposant d’instaurer un Internet à péage, visant à monétiser aussi la seconde face (les fournisseurs de contenus) en leur demandant de payer pour accéder au réseau (outre les frais d’hébergement dont ils s’acquittent déjà). Ce deuxième axe s’est cristallisé autour des débats sur la neutralité du Net, car l’instauration d’un Internet à péage aurait créé de facto des phénomènes d’exclusivité et de discrimination sur le réseau. Les opérateurs n’ayant pu, à ce jour, modifier cette relation dans ce qu’elle a de plus visible, ils se sont résolus à transposer sur le terrain de la fiscalité le sujet du déséquilibre de revenus qu’ils dénoncent. De la difficulté de taxer le numérique Le caractère immatériel de l’économie numérique lui confère la possibilité d’être commercialisée de façon abstraite depuis n’importe quel territoire, avec une qualité de service constante. Il lui vaut aussi d’être assimilée à une prestation de service immatérielle, et donc de se voir appliquer une TVA en conséquence, et non celle qui s’applique aux biens culturels matériels comme le livre (avant la réforme du 1er janvier 2012). Son caractère transnational en découle et conduit les prestataires de services électroniques à localiser leurs plates-formes en fonction des contraintes fiscales et réglementaires appliquées. Le dumping fiscal européen en cause Actuellement, le taux de TVA applicable en Europe aux services électroniques (musique, vidéo, logiciels, etc.) est celui du pays de localisation du prestataire. Si bien que de nombreux prestataires de services électroniques se sont installés, à l’instar d’Apple, au Luxembourg, qui pratique l’un des taux les plus bas d’Europe avec 15 % et n’applique qu’un La création de valeur est multiforme et transnationale sur Internet ➤ Comment taxer ? A priori, l’économie numérique a vocation à être taxée comme les autres. Mais elle possède trois caractéristiques qui pourraient y contrevenir et rendent en tout cas son appréhension complexe : elle est immatérielle, transnationale et difficile à valoriser. LA JAUNE ET LA ROUGE • MAI 2012 11 P.10 Rivière 27/04/12 12:26 Page 12 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS 200 millions d’euros Ce serait le montant du manque à gagner en TVA pour les économies européennes du fait de l’installation au Luxembourg de grands acteurs du Web. Une situation qui devrait connaître un terme car, à partir de 2015, la TVA sera progressivement appliquée et collectée dans le pays preneur du service. ➤ taux de 3% sur la partie droit d’auteur (75% de Faire de notre projet européen le héraut de notre exception culturelle la valeur). Concernant l’impôt sur les sociétés, de nombreuses voix se sont élevées pour dénoncer les niveaux d’imposition des géants du Web, avoisinant pour certains les 3 % seulement de leurs bénéfices. Ces cris d’orfraie laissent perplexe quand on sait que ces niveaux sont le résultat des mécanismes d’optimisation fiscale légaux, mis en place par les gouvernements eux-mêmes, et qui bénéficient également aux acteurs du CAC 40 qui ne se privent pas d’en user. En outre, le pays qui fait les frais de cette collecte d’impôts réduite est en réalité les États-Unis, pays d’origine des acteurs visés, contraint de voter des exonérations massives pour obtenir le rapatriement des capitaux de ses acteurs. Enfin, si ces acteurs ne paient pour ainsi dire pas d’impôts sur les sociétés en France, en dépit des bénéfices qu’ils y engrangent, c’est l’application mécanique des conventions fiscales qui ne permettent pas à l’État où le service est consommé de taxer. Là encore, c’est le défaut d’harmonisation fiscale européenne qui est en cause et qui fait que certains de nos voisins pratiquent un dumping préjudiciable aux finances publiques françaises. L’inventivité française à l’œuvre Toujours est-il que la France s’est faite championne d’une fiscalité sectorielle vouée à préserver, à stimuler ou à corriger les évolutions économiques souhaitées. Ce fut bien entendu le cas pour préserver son exception culturelle. Selon l’étude comparative des systèmes fiscaux dans le domaine de la culture réalisée par le cabinet Ernst & Young, la France arrive en tête, de très loin, avec 14 taxes de nature culturelle et 48 mesures fiscales incitatives. Il n’y avait donc pas de raison que la distorsion que vit notre économie numérique y échappe. D’aucuns échafaudent alors des dispositifs censés remédier à cette situation, tel « l’octroi numérique ». Le Conseil national du numérique s’est également penché sur la question, proposant la création d’un établissement stable virtuel. Une proposition qui laisse perplexe Me Franck Le Mentec : « Pourquoi ne pas dénoncer unilatéralement les conventions fiscales si elles nous déplaisent? Ça s’est déjà vu entre le Danemark et la France en 2008. » L’enjeu de notre projet européen Aujourd’hui mis à mal par les conséquences de la mondialisation, le modèle fiscal français ne peut plus se penser de façon autonome. L’économie numérique ne peut échapper à cette exigence, soulignant même, à l’instar de la finance, nos incohérences et inconsistances de façon éclatante. L’élaboration de taxes sectorielles, plus ou moins alambiquées, n’est ici qu’un autre symptôme du même mal : notre difficulté à assurer la pérennité de notre modèle dans un contexte mondialisé. En voulant soutenir à tout prix les économies de rentes de nos acteurs historiques, nous empêchons la nouvelle génération innovante d’éclore. En stigmatisant les acteurs mondiaux qui profitent de l’inconsistance de notre projet européen, nous manquons une nouvelle occasion de le réformer et d’en faire non pas le garant, mais le héraut de notre exception culturelle. ■ « Taxe Google » Défendue en 2010 par le sénateur Philippe Marini, cette taxe improprement dénommée visait d’une part à remédier à la distorsion avec le secteur des médias traditionnels dont les activités publicitaires sont spécifiquement taxées, et d’autre part à imposer les revenus tirés des activités de publicité en ligne par les grands acteurs du Web. Il s’agissait de taxer les annonceurs, et non pas les régies, pour plus de simplicité de collecte. Il est apparu rapidement que seuls les annonceurs disposant d’un établissement stable en France s’en acquitteraient et que, concernant les acteurs du Web, seuls les acteurs français risquaient d’être pénalisés. Une taxe qui générait d’importants risques de délocalisation d’activité et corrélativement une perte importante de recettes de TVA pour l’État français, et donc une perte de recettes plus importantes que ce qu’elle rapporterait. 12 LA JAUNE ET LA ROUGE • MAI 2012 P.13 Crestin et Dhelin 24/04/12 16:26 Page 13 ÉCONOMIE NUMÉRIQUE : LES SUCCÈS Les données massives du big data, un nouvel or noir partner de LOBI Comment traiter les masses considérables de données qui apparaissent aujourd’hui ? Un investissement massif et de nouvelles stratégies d’entreprise accompagnent création de valeur et rapidité de service. C’est une tendance lourde qui porte à considérer les données massives, parfois appelées big data, comme un nouvel « or noir » pour les entreprises. ■ La croissance des volumes d’informations numériques est telle que les bases de données qui les gèrent ne suffisent plus. Il faut donc imaginer de nouvelles architectures (logicielles et matérielles) pour traiter ces masses considérables de données. Un investissement massif L’évolution technologique se traduit par une diminution drastique des coûts de stockage des données. Par exemple, chacun peut acquérir une capacité de stockage d’un téraoctet pour seulement quelques centaines d’euros. Le coût d’un gigabit de stockage s’élevait à environ 20 dollars en 2005, à nettement moins d’un dollar aujourd’hui. À cet aspect purement matériel s’ajoute la diminution du coût de création, capture et duplication des données. Les investissements consentis par les entreprises dans l’univers numérique (cloud computing, équipement informatique, logiciels, REPÈRES En 2011, on a crŽŽ et rŽpliquŽ 1,8 zettaoctet (cÕest-ˆ-dire1 800 milliards de gigaoctets), neuf fois plus quÕen 2005, soit une croissance dŽpassant les prŽdictions de la loi de Moore. DÕici la prochaine dŽcennie, la quantitŽ de donnŽes gŽrŽe par les entreprises pourrait •tre multipliŽe par cinquante, et la taille des fichiers par soixante-quinze. Concr•tement, un volume de 1,8 zettaoctet de donnŽes Žquivaut au volume de plus de 200 milliards de film HD (dÕune durŽe moyenne de deux heures). Il faudrait ˆ un individu pas moins de 47 millions dÕannŽes pour en visionner lÕintŽgralitŽ, si tant est quÕil sÕy consacre vingt-quatre heures sur vingt-quatre et sept jours sur sept. ET HERVƒ DHELIN GRAND ANGLE PAR MICHEL CRESTIN Ajuster ses prix en temps rŽel Une entreprise amŽricaine de grande distribution a constatŽ une baisse de ses parts de marchŽ. Elle sÕest aper•ue que son principal concurrent avait lourdement investi dans des outils de collecte, dÕintŽgration et dÕanalyses de donnŽes, de sorte quÕil Žtait capable dÕajuster en temps rŽel ses prix, dÕarbitrer lÕapprovisionnement entre ses diffŽrents magasins et de reconstituer ses stocks gr‰ce ˆ une Žtroite intŽgration de son syst•me dÕinformation avec ceux de ses fournisseurs. administrateur du Club des directeurs marketing des TIC services et personnel dédié à la création, gestion, stockage et exploitation des informations) ont augmenté de 50% entre 2005 et 2011, pour atteindre les 4000 milliards de dollars au niveau mondial. En 2012, 90 % des sociétés du classement Fortune 500 auront lancé un grand chantier de gestion des données. Les entreprises américaines de plus de mille salariés stockent, en moyenne, l’équivalent de 235 terabytes de données. L’évolution technologique se traduit par une diminution drastique des coûts Une nouvelle stratŽgie dÕentreprise La valeur des données, et notamment la perde stockage tinence de leur exploitation, devient très impordes données tante. Une habile exploitation de ces gisements d’information contribue à accroître les avantages compétitifs. Au-delà de ces aspects économiques, la croissance des volumes de données remet en cause le management des entreprises et des organisations. Les dirigeants peuvent ainsi légitimement se poser les questions suivantes. Sur le plan managérial : s’il était possible de tester toutes les décisions, cela changerait-il la stratégie de l’entreprise ? Probablement, ➤ LA JAUNE ET LA ROUGE • MAI 2012 13 P.13 Crestin et Dhelin 24/04/12 6:54 Page 14 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS L’analyse prédictive En se fondant sur un historique des informations disponibles sur les clients, l’analyse prédictive établit, avec une analyse statistique des relations entre les données disponibles, si elles sont de nature à prédire, avec la meilleure fiabilité possible, le futur comportement d’un individu. Retenons seulement deux domaines dans lesquels l’analyse prédictive se révèle particulièrement pertinente : la détection de la fraude et le marketing. ➤ car les managers pourraient mieux identifier L’analyse prédictive se révèle particulièrement pertinente dans la détection des fraudes les causes d’un phénomène et les conséquences de leurs décisions, en fonction de différents scénarios, au-delà de l’analyse de simples corrélations, et adapter leur stratégie en conséquence. Sur le plan opérationnel : dans quelle mesure les offres d’une entreprise seraient-elles transformées si les énormes volumes de données disponibles étaient utilisés pour personnaliser en temps réel les solutions proposées aux consommateurs et prévoir leur comportement d’achat? Par exemple, un e-commerçant pourrait traquer en temps réel le comportement de ses prospects et identifier le moment où ils vont s’engager dans l’acte d’achat. Et, ainsi, pousser des offres à plus fortes marges. La grande distribution constitue un secteur privilégié d’expérimentation dans la mesure où foisonnent les informations issues des achats sur le Web, des réseaux sociaux et, aujourd’hui, de plus en plus, les données de géolocalisation des smartphones. Sur le plan stratégique : l’exploitation des gisements de données peut-elle donner lieu à de nouveaux modèles d’affaires ? Probablement pour des entreprises qui se positionneraient Éviter l’effet domino Une grande banque européenne a mis en place un système d’analyse prédictive pour détecter les risques de faillites parmi ses entreprises clientes, en particulier en intégrant des informations relatives au contexte économique. Concrètement, la banque est également en mesure d’anticiper les conséquences d’une défaillance, pour elle, d’un client majeur, de manière à éviter les conséquences néfastes d’un « effet domino » sur d’autres clients. 14 LA JAUNE ET LA ROUGE • MAI 2012 comme intermédiaires dans la chaîne de valeur pour gérer des données transactionnelles de manière exhaustive. Une création de valeur La profusion de données génère des opportunités nouvelles pour les entreprises, même s’il faut demeurer conscient des risques induits (intégrité des informations, menaces sur la vie privée, droit à l’oubli, piratage, atteinte à l’image, vol d’identité, fraude, etc.). L’une des révolutions concerne l’analyse prédictive, approche qui étudie les données et les caractéristiques comportementales des individus pour en tirer des modèles prédictifs en vue d’optimiser la relation avec les clients. Mieux détecter les fraudes Pour réussir sur un marché dominé par des grands noms de l’assurance, la société américaine Infinity, spécialisée dans l’assurance des conducteurs à risques élevés, avait besoin d’accroître son parc de clients et d’améliorer son efficacité opérationnelle, notamment pour la gestion des sinistres et la réduction de la fraude. Des techniques d’analyse prédictive ont été mises en œuvre. L’objectif était, sur le modèle des crédits bancaires, de « scorer » les sinistres de manière à mieux identifier la probabilité de fraude. Récupérer ses fonds Il s’agissait également d’optimiser la collecte dite de subrogation, c’est-à-dire lorsque l’assureur se retourne vers des tiers pour récupérer des fonds, quand son assuré n’est pas responsable. En un mois, la solution mise en œuvre par Infinity a permis d’augmenter les fonds collectés d’un million de dollars et de douze millions de dollars en six mois, uniquement par une meilleure analyse des données. La prochaine étape, elle aussi fondée sur l’analyse de volumes importants de données, consistera à étudier le contenu des documents liés aux règlements des sinistres, par exemple les comptes rendus d’accidents, les rapports médicaux ou les témoignages, autant d’éléments qui sont susceptibles d’améliorer la détection de la fraude le plus en amont possible. Lutter contre la criminalité L’analyse de grandes masses de données est également très utile pour lutter contre la criminalité. Par exemple, la police de New York P.13 Crestin et Dhelin 24/04/12 6:54 Page 15 GRAND ANGLE dispose d’un logiciel d’analyse prédictive de la criminalité. Baptisée Crush (Criminal reduction utilizing statistical history), cette application regroupe une vingtaine d’années d’archives et de statistiques liées à la délinquance et à la criminalité, avec toutes les caractéristiques des délits : lieu, heure, mode opératoire, etc. L’analyse de ces données est assurée par un programme mathématique conçu par les chercheurs de l’université de Californie. Elle permet de localiser les endroits à risque de la ville, d’identifier les types de délits qui y sont commis, en fonction de critères tels que le moment de la journée ou le jour de la semaine. Concrètement, la police peut alors agir et envoyer des effectifs avant que le crime ou le délit ne soient commis. qui constituera des incertitudes susceptibles de freiner, mais pas d’annihiler, la tendance lourde à considérer les données, surtout si elles sont massives, comme un nouvel « or noir » pour les entreprises et les organisations. L’analyse des données Du côté des certitudes, on retiendra une croissance continue des volumes de données, d’autant que se profilent l’Internet des objets et la civilisation des capteurs, producteurs d’énormes quantités d’informations ; une transformation profonde des modèles d’affaires et, de fait, des stratégies des entreprises ; des investissements massifs en outils d’analyse de données à mesure que les entreprises vont prendre conscience de la valeur de leurs données. Le rejet des intrusions L’exemple de Memphis Déjà déployé au sein de la police de Memphis (Tennessee), le logiciel Crush a permis de réduire la criminalité de 30 % et la criminalité violente de 15 % par rapport à 2006. En janvier 2010, la police a lancé plusieurs opérations dans un quartier de la ville, en se fondant sur les indications du logiciel Crush. Résultat : plus de cinquante arrestations de trafiquants de drogue et une réduction de près de 40 % de la criminalité. Du côté des incertitudes, on retiendra les inquiétudes sur le respect de la vie privée, l’éventuelle montée en puissance de sentiments de rejet face à ce qui peut être considéré comme des intrusions de messages commerciaux dans la sphère privée. De même, nous n’avons pas de certitudes sur les problématiques de sécurité associées au big data. Enfin, un frein potentiel réside dans l’évolution de la législation, susceptible de devenir plus restrictive. Entre ces puissants facteurs accélérateurs et les éventuels freins, les entreprises devront trouver un équilibre de manière à concilier création de valeur et éthique. ■ Améliorer le marketing L’une des difficultés pour les entreprises qui s’adressent à des millions de clients est de fidéliser ceux-ci et d’en conquérir d’autres. Dans les banques anglo-saxonnes par exemple, le taux de rotation des clients atteint facilement 10% à 20% par an, avec un coût par client s’élevant entre 200 et 3500 dollars. Une banque néerlandaise, grâce à l’analyse prédictive, a réussi à accroître l’efficacité de ses campagnes marketing avec un taux de réponse passé de 4 % à 12 %, d’où un retour sur investissement de ses actions amélioré de 10 % à 20 %. Une tendance lourde On pourrait multiplier les exemples de création d’avantages compétitifs grâce à une exploitation intelligente de volumes de données. Le phénomène du big data va impulser un élan supplémentaire. À moyen ou long terme, on peut discerner ce qui relève de certitudes et ce La rapidité du service Le loueur de véhicules Avis a amélioré le résultat en Europe de ses campagnes de marketing par courriel et divisé ses coûts par deux. En analysant les données sur ses clients, Avis propose des offres personnalisées dans plus de 18 millions d’envois de courriels chaque année. Avec une meilleure connaissance de l’activité des clients grâce à l’historique des clics dans les courriels et des transactions, Avis personnalise tous les courriels. Par exemple, le loueur dispose d’une base de données de « clients privilégiés » à qui elle promet une prise en charge dans un délai de trois minutes (ils sont assurés de recevoir la clef de leur véhicule dans un délai de trois minutes à partir du moment où ils se présentent au guichet). La rapidité de service étant essentielle pour fidéliser les clients. Des inquiétudes sur le respect de la vie privée et le droit à l’oubli LA JAUNE ET LA ROUGE • MAI 2012 15 P.16 Georget 24/04/12 6:56 Page 16 PAR PIERRE GEORGET © STEVE MUREZ GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS directeur général de Global Standard One (GS1) France Aujourd’hui, 95 % des transactions sont conduites de façon électronique dans les diverses chaînes d’approvisionnement. Le coût du ticket d’entrée s’est considérablement élevé. La qualité des données est devenue un enjeu majeur. La relation de machine à machine exige une rigoureuse chorégraphie des flux 16 Qualité des données et échanges d’affaires ■ Le commerce électronique s’est installé peu à peu dans les entreprises. Les processus d’affaires opérés par les industriels de l’automobile, de l’agroalimentaire, de la pharmacie et de l’aéronautique, les transporteurs et les prestataires logistiques, les banques, les assurances, les grossistes et les détaillants aujourd’hui n’ont rien à voir avec ceux des années 1990. Les échanges d’affaires sont massivement numériques : 95% des transactions sont conduites de façon électronique dans les diverses chaînes d’approvisionnement françaises. Cette numérisation a deux conséquences pour les entreprises : le coût du ticket d’entrée dans une relation d’affaires s’est considérablement élevé, et la qualité des données est devenue un enjeu majeur. Une hausse du ticket d’entrée Le coût unitaire d’une relation d’affaires a baissé dans un rapport de dix. Cette réduction a des conséquences très diverses comme la multiplication du nombre de références dans les supermarchés, à surface constante, ou l’approvisionnement en flux tendu. Les transactions financières à haute fréquence en sont l’extrême illustration. Mais cette relation de machine à machine nécessite une structuration des échanges, une définition et une mise en place rigoureuse de la chorégraphie des flux. Pour l’entreprise candidate à l’établissement d’une telle relation, il faut un apprentissage, un pilotage et une industrialisation qui ne s’improvisent pas. C’est pourquoi l’analyse de la population des fournisseurs connectés en échanges électroniques de l’automobile ou de la grande distribution montre qu’un minimum LA JAUNE ET LA ROUGE • MAI 2012 REPÈRES La numérisation de la relation d’affaires n’a pas eu comme conséquence, comme certains ont pu le craindre, une déshumanisation de la relation. Le business reste le business, mais il est soutenu par une relation forte « machine à machine » des systèmes d’information entre eux. Cette relation numérique a pour but de réduire le coût de chaque transaction. Le ratio généralement admis est celui d’un rapport de coût unitaire de un à dix entre la conduite électronique d’une relation (commande-paiement, par exemple) et sa réalisation sous forme papier. de transactions ou de chiffre d’affaires est nécessaire pour établir la liaison électronique. Et cela est vrai même si les outils d’échanges sont mis à disposition par le donneur d’ordre. La maintenance des compétences internes présente une difficulté plus grande pour la PME que l’acquisition des outils. Une relation plus stable Le corollaire de l’augmentation du ticket d’entrée est la plus grande stabilité de la relation. Ceux qui ont déjà leur «ticket électronique» sont privilégiés par rapport aux autres. Les quelques jours passés à « l’embarquement » d’un nouveau partenaire comptent dans l’économie du choix d’un nouveau fournisseur, tout autant que le délai de six à neuf mois pour rendre la liaison électronique réellement opérationnelle. Cette solidité de la relation va croissant avec la sophistication de la collaboration, par exemple si la transaction simple commande-livraison-facture-paiement se complète par la mise à disposition d’états de consommation ou de ventes et d’états de stocks permettant une gestion partagée des flux. La part numérique de la transaction devient une condition de la qualité de service. Le développement du numérique en entreprise a facilité la mise en place d’une infrastructure d’échanges. Celle-ci est loin d’être unifiée, elle est P.16 Georget 24/04/12 6:56 Page 17 GRAND ANGLE Un risque d’atteinte à l’image Au royaume du zettaoctet L’information produite par les entreprises a augmenté de 67 % chaque année de 2007 à 2011, pour atteindre 580 exaoctets (1 milliard de gigaoctets). À l’horizon 2020, la quantité d’informations numériques créée ou répliquée annuellement va être multipliée par 44 par rapport à son niveau de 2009, pour atteindre 35 zettaoctets (1 000 milliards de gigaoctets). souvent faite de bric et de broc, mais elle permet de faire circuler toujours plus de données, d’en stocker et d’en traiter toujours plus. Ce phénomène s’est amplifié avec la prolifération des cartes de fidélité, le commerce en ligne, les réseaux sociaux qui sont des sources infinies de données sur les consommateurs et leurs comportements d’achat. De la productivité à la visibilité Cette masse de données fait naître d’énormes espoirs. Un nouveau champ d’investigation pour la productivité a émergé, la visibilité. Tout dans la vie d’un produit, d’une entreprise ou d’un client peut s’analyser comme une suite de microévénements. La visibilité, c’est, par exemple, l’e-pedigree des produits de santé. C’est la traçabilité des produits de grande consommation, ou l’analyse du parcours d’un client sur un site de commerce en ligne. La qualité des données Pour être exploitable, cette accumulation de données événementielles doit s’appuyer sur des «données de bases structurées» (master data). La qualité de ces données est le défi le plus important lancé aux entreprises pour les cinq prochaines années. L’enjeu n’est pas seulement dans l’entreprise mais aussi et surtout « interentreprises ». Si la qualité des données de base n’est pas assurée, alors les données transactionnelles sont fausses et les dysfonctionnements apparaissent à tous les stades de la vie de l’entreprise, de la prévision hasardeuse au litige de facturation, de l’affrètement de transport incohérent au calcul de longueur de facing (nombre de produits faisant face au consommateur) aberrant. Les coûts de la mauvaise qualité des données se répartissent entre des opérations manuelles inutiles (5 %), des dysfonctionnements administratifs (30 %) et surtout des pertes de chiffre d’affaires (65 %). Dans la relation B2B (business to business ; en français : commerce interentreprises), la qualité des données est un enjeu de productivité. Dans la relation B2C (business to consumer [ou customer] ; en français : des entreprises au particulier), elle est un enjeu de confiance et d’image de marque. Elle est souvent un risque de défiance et d’atteinte à l’image. En dépit de la forte demande, le consommateur ne trouvera aucune information disponible en ligne pour plus de 90 % des articles commercialisés dans la grande distribution. Et s’il trouve des informations, aucune ne proviendra d’une source autorisée. Elles auront toutes été mises en ligne par une tierce partie, soit un consommateur dans un réseau social, soit une start-up des applications mobiles. Des organisations nouvelles Interrogées sur leur absence sur ce terrain de la communication directe avec le consommateur, les marques doivent reconnaître que c’est l’absence de confiance dans la qualité de leurs propres données qui les incite à la prudence dans l’investissement du champ de la communication mobile. Il existe, bien sûr, des solutions, mais elles requièrent la mise en place d’organisations nouvelles pour concentrer des données éparses dans les multiples services de l’entreprise, pour gérer la validation de ces données et en contrôler la diffusion. Les ERP (Enterprise resource planning ; en français : progiciel de gestion intégré) doivent être complétés de modules de gestion de données de base dont la mission est de rassembler, de qualifier et de valider les données. ■ Des données dissemblables IBM a conduit avec Global Standard One, organisation mondiale de standardisation des technologies dans la chaîne d’approvisionnement, des études sur la qualité des données, dite Data Crunch. L’indicateur de mesure est l’alignement des données, c’est-àdire la similitude des descriptions des produits entre fournisseurs et distributeurs. Les résultats sont sans appel : 80 % des données sont dissemblables entre les partenaires pour le même produit. C’est particulièrement vrai pour la désignation, les dimensions, les conditions logistiques de transport et de stockage. L’enjeu de la qualité des données compte surtout dans les relations « interentreprises » LA JAUNE ET LA ROUGE • MAI 2012 17 P.18 Fontaine et Rapacchi 24/04/12 7:06 Page 18 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR PATRICE FONTAINE professeur à l’université Pierre-Mendès-France de Grenoble (UPMF) Comprendre la volatilité des marchés financiers ET BERNARD RAPACCHI responsable des systèmes d’information du laboratoire Eurofidai Les crises financières ont souligné la fragilité des modèles économiques Mieux étudier les marchés financiers est indispensable pour en comprendre le fonctionnement et, en particulier, l’impact des outils de trading automatiques. Cela implique de garder trace des cours boursiers à des fréquences élevées (plusieurs fois par seconde). Après avoir été en retard sur les États-Unis, l’Europe a lancé un projet qui doit lui permettre de disposer des bases de données indispensables aux chercheurs. ■ L’Europe, et la France en particulier, ont un énorme potentiel de recherche en économie et finance, grâce à une tradition d’excellence en mathématiques et en statistiques. Ce potentiel n’est pas encore pleinement exploité en raison d’un manque de travaux empiriques se concentrant sur les marchés financiers européens. Les récentes crises financières ont souligné la fragilité des bases empiriques des modèles économiques et financiers d’analyse utilisés pour construire les prévisions des acteurs, les innovations financières ou les modalités de régulation. Ce déficit est particulièrement fort au niveau européen. REPÈRES Aujourd’hui, les chercheurs ont à leur disposition les bases de données américaines produites par le Center for Research on Security Prices (université de Chicago). Ces bases enregistrent tous les jours les prix et les dividendes pour les actions cotées sur la Bourse New York Stock Exchange et les autres marchés boursiers des États-Unis depuis 1926. Les chercheurs ne disposent pas d’un équivalent sur les marchés européens, ce qui emp•che toute compréhension des particularités de ces marchés et le développement des modèles analytiques et des produits financiers adaptés. 18 LA JAUNE ET LA ROUGE • MAI 2012 Agrégateur de données Eurofidai est impliquée dans un agrégateur de données financières au niveau européen récemment mis en place par la société IODS. Le projet, soutenu par le p™le de compétitivité mondial Finance Innovation, tend à recréer au niveau européen l’initiative développée par la Wharton School de l’université de Pennsylvanie. Une seule et m•me plate-forme réunit des données sur le marché européen des actions (fournies par Eurofidai), sur les entreprises, sur les fonds d’investissement et sur l’intermédiation financière, avec pour objectif de les mettre à disposition des projets de R & D. Bases de données homogènes Plusieurs initiatives au niveau européen ont été développées pour remédier à ce problème, notamment par l’Association française de finance, avec la création d’une base de données française quotidienne des Bourses, ainsi que par différents centres de recherche à Anvers, Berlin et Londres avec le développement de bases nationales de données de marché sur les actions. L’objectif d’Eurofidai (European Financial Data Institute, unité propre de service du CNRS) est de constituer des bases de données boursières européennes homogènes. Eurofidai joue le rôle d’intermédiaire entre les fournisseurs privés de données et les chercheurs, en négociant le coût d’acquisition des données et en contrôlant et vérifiant toutes les données fournies afin de les rendre exploitables dans un but de recherche. Eurofidai propose actuellement, via un abonnement sur son site Web (www.eurofidai.org), différentes bases de données quotidiennes sur les actions et indices européens, les cours de change, les fonds mutuels et les opérations sur titres. Ces premières réalisations ont été réalisées grâce à l’aide fournie par le CNRS et le programme de financement à long P.18 Fontaine et Rapacchi 24/04/12 7:06 Page 19 Fréquence insuffisante La fréquence de toutes ces bases de données est au mieux quotidienne. Or, souhaitant étudier au plus près la volatilité des marchés financiers, un nombre croissant de chercheurs européens comme américains ressentent aujourd’hui le besoin de se fonder sur des données à haute fréquence (à une fraction de seconde ou mieux encore). Ces données sont en effet l’un des moyens les plus efficaces pour évaluer avec précision la façon dont fonctionnent les marchés de titres. Elles seront également utiles pour les responsables gouvernementaux et les autorités réglementaires pour les aider à réguler les marchés à la lumière des récentes crises financières. Malheureusement, les données de ce type sont encore rarement disponibles et ne sont pas stockées sur de longues périodes en raison du volume énorme de stockage nécessaire à long terme. C’est dans ce contexte qu’Eurofidai a initié le projet BEDOFIH (Base européenne de données financières à haute fréquence), qui vise à créer une base de données à haute fréquence européenne des valeurs mobilières de marchés (pour les actions ordinaires, mais aussi pour d’autres titres tels que les options et contrats à terme). L’objectif principal du projet est de stocker des données, de les structurer et de les mettre à disposition des chercheurs. Un progrès considérable Pour le monde académique et les autorités de marché, la disponibilité de ces données représente un progrès considérable vers la compréhension de la façon dont fonctionnent les marchés. Entre autres, cela permettrait d’évaluer l’impact de l’emploi croissant d’outils automatiques de trading utilisés dans le cadre d’activités d’arbitrage et de trading haute fréquence. Les transactions générées par ces automates représentent plus de la moitié de toutes les transactions effectuées sur les marchés réglementés. L’utilisation de ces automates a souvent été soupçonnée GRAND ANGLE terme du ministère français de la Recherche (PPF), dans le cadre de différents accords passés avec des fournisseurs de données financières tels que la Bourse NYSE-Euronext pour les marchés belges, français, néerlandais et portugais, et la société financière suisse Telekurs. Première mondiale Les bases de données à haute fréquence du projet BEDOFIH seraient uniques puisque même CRSP, qui est la référence dans ce domaine, ne fournit pas encore de données historiques à haute fréquence (intraday). Quelques initiatives privées recensent des données à haute fréquence mais il y manque de nombreuses variables utiles pour les chercheurs universitaires et les autorités réglementaires. d’être à l’origine de processus de cotation divergents menant à des variations excessives des prix, mais il n’y a pas de preuve formelle à ce jour. Par exemple, l’analyse des événements du 6 mai 2010, qui ont induit en quelques minutes seulement une chute de 5,7 % de l’indice Dow Jones, ne peut être réalisée que si l’on possède des données historiques à haute fréquence. Une base de données telle que BEDOFIH devrait permettre de répondre à un grand nombre des questions posées par cette déstabilisation brusque d’un marché et d’évaluer les risques de propagation. Ce projet rejoint les priorités de plusieurs gouvernements européens sur la mise en œuvre d’un cadre de régulation des marchés financiers. Il s’intègre également aux réflexions en cours sur une meilleure régulation du High Frequency Trading dans le cadre de la révision des directives européennes sur les marchés d’instruments financiers et sur les abus de marché. Cela explique que des institutions de régulation telles que l’Autorité des marchés financiers et la direction générale du Trésor du ministère de l’Économie, des Finances et de l’Industrie soient intéressées par ce projet. ■ Les chercheurs ressentent le besoin de se fonder sur des données à haute fréquence Investissement d’avenir Le projet BEDOFIH a été retenu par le gouvernement comme un des 36 lauréats de la seconde vague des Equipex (Équipements d’excellence), projets financés dans le cadre du programme Investissements d’avenir par le grand emprunt national. LA JAUNE ET LA ROUGE • MAI 2012 19 P.20 Champagnat 25/04/12 6:46 Page 20 PAR ADELINE CHAMPAGNAT © CAROLINE MONTAGNÉ GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS présidente de l’OCLCTIC Riposter contre la cybercriminalité L’essor du numérique rend indispensable l’adaptation des outils législatifs, répressifs et de coopération internationale. En France, cette action est confiée à l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication. ■ Le cyberespace a généré de nouvelles formes de délinquance d’autant plus difficiles à cerner qu’elles se manifestent dans la virtualité et dans la mondialisation des échanges par le Web. Les nouvelles attaques massives contre des sites, institutionnels ou de grandes entreprises, créent de nouveaux problèmes. Atteintes et fraudes L’Office peut effectuer une surveillance active des réseaux et procéder à la localisation de serveurs L’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC) traite les affaires judiciaires concernant les atteintes aux systèmes de traitement automatisé de données, les fraudes aux télécommunications, aux cartes de paiement et aux microprocesseurs, ainsi que toutes les formes de criminalité liées aux nouvelles technologies (piratage informatique, phishing, piratage des distributeurs de billets ou de carburant, etc.). Il est également compétent en matière de lutte contre les atteintes aux systèmes d’information gouvernementaux ou de sociétés sensibles économiquement ou techniquement. En fonction des nécessités, l’Office peut effectuer une surveil- lance active des réseaux (sites Web, forums de discussions, etc.) et procéder à la localisation de serveurs ainsi qu’à toute vérification utile. Pour remplir ces missions, le service est composé de 52 policiers et gendarmes à compétence nationale. Un ingénieur des télécommunications le conseille en matière d’interceptions et de projets technologiques. Quatre groupes d’enquêtes La section opérationnelle traite soit d’affaires particulièrement techniques ou sensibles dans lesquelles il convient d’explorer un nouveau type de délit, soit d’affaires à caractère national et international dans lesquelles sont impliquées des équipes relevant de la criminalité organisée. Elle est composée de quatre groupes d’enquête qui œuvrent, sur délégation judiciaire ou d’initiative, chacun dans un domaine spécialisé : atteintes aux cartes de paiement et aux systèmes virtuels de paiement ; fraudes aux opérateurs de communication électronique ; piratage ; escroqueries sur Internet. La section technique, spécialement équipée de matériels et de logiciels d’investigations de haut niveau technologique, assure l’assistance aux services d’enquête, la formation d’enquêteurs spécialisés en criminalité informatique répartis sur l’ensemble du territoire national, la veille technologique et les interceptions judiciaires sur Internet. La section de traitement des signalements est composée de deux platesformes. La Plate-forme d’harmonisation, d’ana- REPÈRES Dès 1990, la Direction centrale de la police judiciaire (DCPJ) a pris la mesure de la « cybersécurité » comme enjeu véritable de sécurité nationale, en proposant la création d’un office central dédié à la lutte contre la criminalité liée aux technologies de l’information et de la communication. Cette structure nationale unique, à vocation interministérielle, est chargée d’animer et de coordonner la lutte contre les auteurs et complices d’infractions spécifiques à la criminalité liée à ces technologies ; de procéder à tous actes d’enquête et de travaux techniques d’investigations ; d’apporter une assistance aux services de police, de gendarmerie et de douane ; d’intervenir chaque fois que les circonstances l’exigent pour s’informer sur place des faits relatifs aux investigations conduites ; de centraliser et diffuser l’information sur les infractions technologiques à l’ensemble des services répressifs. L’Office apporte également son soutien technique aux enquêteurs en charge des perquisitions informatiques. 20 LA JAUNE ET LA ROUGE • MAI 2012 P.20 Champagnat 25/04/12 6:46 Page 21 L’expérience acquise permet de dresser une analyse des phénomènes et de situer les principaux réseaux criminels agissant dans ces domaines en Afrique de l’Ouest, en Asie, en Europe de l’Est et plus particulièrement en Roumanie, ce pays constituant un centre névralgique européen pour la cybercriminalité. lyse, de recoupement et d’orientation des signalements (Pharos) a pour mission de recueillir, traiter et rediriger vers les services compétents les traitements des particuliers et des fournisseurs d’accès. Elle permet aux internautes de signaler les contenus ou les comportements présumés illicites au regard du droit pénal. Ce service a reçu, en 2011, la visite de près de 2 500 000 internautes. En 2011, plus de 100 000 signalements de contenus illicites ont été traités. La plate-forme téléphonique d’information et de prévention sur les escroqueries sur Internet, dite «info-escroqueries», est destinée aux victimes d’escroqueries, réelles ou potentielles, qui peuvent recevoir des conseils en termes d’information et de prévention. En 2011, elle a enregistré plus de 26 000 appels, soit en moyenne 2 200 appels par mois. Des affaires transnationales L’Office centralise l’ensemble des demandes de renseignement en matière de nouvelles technologies. Il représente la France dans diverses enceintes européennes et internationales spécialisées. Il est associé aux négociations de textes européens relatifs à son domaine d’action. Au regard du caractère transnational des affaires judiciaires qui lui sont confiées, il a régulièrement recours à des demandes d’entraide judiciaire internationale, dont l’exécution peut être facilitée grâce à une coopération policière privilégiée instaurée avec certains pays. Sa mission de coordination et d’animation de la lutte Un réseau de 58 pays La section des relations internationales est le point de contact d’un réseau qui permet, dans l’urgence et dans l’attente de la mise en œuvre de l’entraide judiciaire conventionnelle, le gel et la conservation de données électroniques dans l’un des 58 pays membres. GRAND ANGLE La Roumanie montrée du doigt contre la cybercriminalité positionne également l’Office dans le partenariat avec l’ensemble des acteurs institutionnels, concernés par le phénomène. Une progression des affaires financières L’Office voit son activité augmenter et se diversifier. On constate une importante progression des affaires à connotation financière, notamment en matière d’escroqueries via Internet, ainsi qu’une plus grande utilisation de l’informatique dans le domaine du grand banditisme et des stupéfiants. Les délinquants du cyberespace utilisent parfaitement toutes les caractéristiques de l’environnement numérique (anonymisation, extraterritorialité, difficultés d’harmonisation des législations au plan international, etc.). L’emploi de l’informatique déborde désormais largement le cadre des piratages individuels ou autres hackings par «de jeunes internautes passionnés». La cybercriminalité est une source de revenus du crime organisé et constitue une forme de criminalité organisée à part entière. 400 enquêteurs spécialisés L’Office a mis en place avec l’ensemble des directions de la Police nationale un réseau d’investigateurs en cybercriminalité (ICC), actuellement au nombre de 330. Dans le courant de l’année, ce nombre sera porté à plus de 400. Les axes de riposte La riposte consiste à suivre l’évolution des nouvelles formes de criminalité parallèlement à celle des nouvelles technologies. Il convient de maintenir un haut niveau de formation technique spécialisée des investigateurs en cybercriminalité, de favoriser des propositions d’évolutions réglementaires ou législatives pour adapter les outils juridiques aux évolutions de la cybercriminalité, de renforcer la coopération policière internationale avec le soutien des actions et des groupes de travail spécialisés mis en œuvre par Europol et Interpol, de participer aux actions de sensibilisation développées tant pour tout public que pour des publics ciblés en fonction des infractions; et enfin de développer des partenariats public-privé nécessaires pour unifier les efforts contre la cybercriminalité. ■ En 2011, plus de 100 000 signalements de contenus illicites ont été traités LA JAUNE ET LA ROUGE • MAI 2012 21 P.22 Rannou 24/04/12 16:28 Page 22 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR HERVÉ RANNOU CEO d’ITEMS International (Smart Grids Consulting Consortium) Smart grids : le logiciel au cœur des systèmes électriques Les réseaux intelligents d’énergie (smart grids) font partie de ces sujets qui semblent éloignés des préoccupations politiques ou stratégiques. Pourtant, c‘est l‘un des véritables sujets des prochaines années tant leur impact sera prégnant dans le secteur de l’énergie électrique comme dans celui du numérique. Le sujet touchera aussi les collectivités et les citoyens. Enfin, il accompagnera de manière indissociable le développement et la maîtrise des nouvelles énergies. REPÈRES Bien plus qu’une simple évolution technologique, les smart grids associent deux mondes : l’un, l’énergie, fait d’enjeux stratégiques structurants avec des cycles longs et des investissements lourds ; l’autre, le numérique, tendu vers un univers flexible en perpétuel changement associant infrastructures concurrentielles, composants logiciels, applications et services allant du fixe vers une mobilité étendue. Opérateurs locaux Un monde de l’énergie très divers Les énergéticiens doivent gérer en temps réel l’équilibre du réseau De par la nature et les contraintes des flux électriques, les énergéticiens ont toujours été amenés à devoir gérer en temps réel l’équilibre du réseau. De la production à la consommation, ils ont mis en place des systèmes toujours plus élaborés pour assurer cet équilibre. Les équipements informatiques et les réseaux de communication ont ainsi pris une place de plus en plus importante dans les années 1980 et surtout lors de la décennie suivante. La France est souvent apparue comme un modèle avec une capacité à gérer les grands équilibres à l’échelle nationale. Oligopoles européens La plupart des autres pays européens ont des acteurs majeurs, lesquels ne sont généralement dominants que sur une partie de leur territoire. C’est le cas en Allemagne, en Espagne, en Italie, en Grande-Bretagne. Souvent dotés d’une forte culture d’investissement, ces acteurs ont, à l’instar d’EDF, modernisé leurs réseaux, mais dans les limites que leur imposait leur présence géographique. De sorte que les relations entre ces opérateurs existent naturellement, mais ne sont pas toujours des plus fluides puisque les échanges d’énergie sont sous-tendus par des mécanismes de marché. 22 LA JAUNE ET LA ROUGE • MAI 2012 Certains pays – notamment l’Allemagne et les États-Unis – vont plus loin dans la décentralisation avec des sociétés locales de distribution et de commercialisation dont une part significative appartient aux collectivités. Certes, cela renforce la diversité des acteurs, mais, d’un autre côté, cette situation crée des petits monopoles locaux dont la taille rend illusoire une quelconque segmentation entre distribution et commercialisation. Il n’en reste pas moins vrai que nombre d’entre eux ne sont pas en reste en matière de numérique. Diversification Plusieurs local utilities (opérateurs locaux) ont été en pointe, non pas nécessairement dans le pilotage numérique de leur infrastructure, mais dans les services aux usagers et aussi… dans le déploiement du haut débit. Ce fut par exemple le cas de RheinEnergie avec sa filiale NetCologne qui exploite le réseau haut débit de la ville de Cologne, ou encore des sociétés locales de Floride qui, au sein de la Florida Municipal Power Agency, sont impliquées dans le développement des infrastructures et des services haut débit. P.22 Rannou 20/04/12 8:14 Page 23 GRAND ANGLE Consommateur et acteur Référendum La ville de Boulder, pionnière en matière de smart grids, a dû organiser, en raison de dépassements budgétaires, un référendum pour poursuivre ou non sa politique d’investissement dans les smart grids. Celle-ci n’ayant été validée qu’à 52 %, une faible majorité, la ville a estimé qu’elle ne disposait plus de la légitimité suffisante et a révisé sa politique. Le poids des consommateurs Aux États-Unis, le consommateur final est, de fait, au cœur des préoccupations des local utilities. C’est à partir de ses besoins (et de ce qu’on va pouvoir lui vendre) que s’agencent les stratégies d’investissement. Beaucoup de public utilities ne considèrent pas que les séparations entre services énergétiques, services de télécoms, service de télévision, services Internet sont structurantes. Soumises au contrôle exercé par les public utility commissions (dont les membres sont élus), les local utilities disposent cependant d’une marge de manœuvre limitée en matière d’investissements lourds. Les citoyens y ont leur mot à dire. Et, dans de nombreux cas, ces derniers freinent les investissements qui ont plus vite fait de leur faire perdre leur siège que de leur assurer leur réélection. À l’autre bout de la chaîne, le consommateur va aussi prendre part à l’évolution qui se prépare. Il va en devenir de plus en plus acteur. Ce dernier ne perçoit pas toujours les vertus du compteur intelligent. Les économies d’énergie ont finalement un impact limité sur sa facture et seuls des services véritablement innovants pourront l’amener à réduire sa consommation. À l’inverse, des systèmes semi-automatiques peuvent permettre d’assister l’usager dans cette marche vers l’efficacité énergétique. Et surtout, le compteur intelligent va progressivement devenir le composant du bout de chaîne de la gestion en temps réel de l’équilibre, permettant d’anticiper des périodes à risque. Cette évolution des réseaux énergétiques ne concerne pas directement les infrastructures électriques mais la manière dont elles vont être opérées en temps réel au niveau de chaque composant et optimiser leur fonctionnement. Le numérique va s’insérer dans les parties les plus techniques de la gestion de l’énergie jusqu’à tout ce qui a trait à la mise en œuvre de services proposés aux utilisateurs. Cette réalité pose immanquablement la question du déplacement de la chaîne de valeur. Alors que l’électricité était un marché essentiellement vertical, le numérique et ses logiques d’interface vont conduire vers un système plus horizontal et segmenté. Garantir la stabilité des réseaux L’émergence des énergies renouvelables oblige d’ores et déjà les différents acteurs de la chaîne à repenser les réseaux. Du fait de leur caractère intermittent, ces nouvelles énergies peuvent mettre en péril la stabilité du réseau. Un plafond de 30 % – défini de manière plus ou moins empirique à partir de travaux menés en Grèce – limite ainsi la puissance instantanée issue des énergies renouvelables dans le réseau. Cette contrainte peut être dépassée dans les faits en stabilisant localement les sources d’énergies renouvelables par des sources de production stable. Une deuxième option consiste à développer les capacités de stockage. Une troisième, qui peut se combiner avec la précédente, est de gérer ce risque en mode temps réel à partir de systèmes de contrôle-commande numériques à grande échelle. Les grandes ambitions des acteurs du numérique Les acteurs des télécoms et des logiciels ne se limitent pas aux smart grids. Ces groupes entendent investir le champ de la ville intelligente. Le consommateur va prendre part à l’évolution qui se prépare Controverse En Allemagne et dans les pays nordiques, le développement des énergies renouvelables amène la construction de centrales thermiques fortement polluantes pour pallier les baisses de production inhérentes aux éoliennes ou aux panneaux solaires. D’où une controverse en raison des rejets de CO2 induits. ➤ LA JAUNE ET LA ROUGE • MAI 2012 23 P.22 Rannou 20/04/12 7:36 Page 24 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS Compteurs intelligents Deux exemples illustrent les nouveaux services qu’on peut attendre des compteurs intelligents. L’effacement est un service de pilotage intelligent des coupures d’énergie, sur des périodes prédéterminées, éventuellement modifiables. L’opérateur intermédiaire qui commercialise ce service à un client peut alors revendre un potentiel d’énergie disponible à un opérateur de réseau lorsque celui-ci en a besoin en cas de surcharge. Quant au thermostat intelligent, il est déjà très présent sur le marché. L’un d’entre eux a été créé par le fondateur de l’iPod, Tony Faddel. Simple et ergonomique, il apprend surtout le comportement de l’usager et agit automatiquement en conséquence. L’utilisateur peut contrôler son thermostat manuellement ou sur iPhone, et disposer de données sur son historique de consommation ou ses dépenses. ➤ IBM a ainsi lancé en 2010 sa stratégie «Smarter L’Europe souffre d’un déficit d’acteurs majeurs de l’industrie du logiciel City » qui met la gestion des données (transports, énergie, circulation, déchets, eau, etc.), au cœur des pilotages opérationnel et prévisionnel de la ville de demain. Orange lui a emboîté le pas avec une démarche analogue. D’autres, enfin, issus de l’électronique – ST Microelectronics, Texas Instruments, Intel, Sagemcom – développent des familles de produits avec des investissements significatifs dans le logiciel. Sans oublier les coréens LG et Samsung, qui abordent le marché en partant de l’habitat intelligent. Les acteurs de l’énergie considèrent avant tout les TIC comme un outil. S’ils perçoivent très bien que cet outil affecte les aspects les plus stratégiques de leur métier, ils continuent de les voir comme un secteur technologique collatéral. Ce n’est pas nécessairement la vision des acteurs du numérique, qui appréhendent les smart grids comme un marché très prometteur. Le poids croissant du logiciel Un peu comme le secteur des télécommunications l’a connue et comme celui de la télévision la vit actuellement, nous allons vers une « logicialisation » des systèmes techniques intermédiaires. L’Europe pourrait être mal armée pour relever ce défi, car elle souffre d’un déficit d’acteurs majeurs de l’industrie du logiciel. Depuis environ deux ans, les industriels européens de l’énergie affichent leur volonté d’acquérir une expertise logicielle. L’acquisition en juin 2011 de la société de logiciel Telvent par Schneider Electric et celle de la société américaine UISOL par Alstom en mars 2011 sont des exemples parmi d’autres. Outre-Atlantique, GE a créé une offre Smart Grid as a Service. En partenariat avec IBM, SAP et Teradata, ITRON lance Active Smart Grid Analytics, qui met en avant la terminologie big data, très en vogue en ce moment dans le numérique. La mise au point de nouveaux outils pour naviguer et exploiter les déluges de données bientôt disponibles devient une nécessité. Le logiciel va prendre une part majeure dans les architectures des infrastructures énergétiques. Cette évolution aura des conséquences importantes sur la régulation du secteur (montée en puissance des interfaces numériques) et sur les modèles économiques. Guerre des standards Des milliards de dollars investis China’s State Grid Corporation, le gestionnaire du réseau électrique en Chine, va investir 250 milliards de dollars dans les infrastructures énergétiques dont 45 pour les smart grids. Cette somme, qui semble énorme, est relativement faible par rapport aux 7 200 milliards d’investissements (dont 480 milliards en Europe) annoncés sur les seules infrastructures électriques dans le monde jusqu’à 2035 (source World Energy Outlook 2011). 24 LA JAUNE ET LA ROUGE • MAI 2012 Les standards vont jouer un rôle essentiel dans la compétition internationale qui se met en place. L’International Electrotechnical Commission joue un rôle incontestable pour harmoniser la normalisation à l’échelle mondiale. Le CEN, le CENELEC et l’ETSI semblent vouloir de manière assez concrète y apporter leur pierre tout en souhaitant faire exister l’Europe. Mais la normalisation reste un domaine complexe où intérêts nationaux, poids de gros acteurs et stratégies de valorisation des brevets se mélangent, sans oublier les velléités de P.22 Rannou 20/04/12 7:30 Page 25 GRAND ANGLE Enjeux essentiels 1 800 milliards de relevés Les 35 millions de compteurs intelligents qui seront installés en France dans les années à venir devraient générer 1 800 milliards de relevés par an, soit de l’ordre de plusieurs pétaoctets (1015), et probablement bien plus à moyen ou long terme. Cette masse de données intéresse les grands noms de l’informatique, tout comme les opérateurs télécoms qui misent, d’un côté, sur leur « box » pour développer des services multimédias chez le client – et pourquoi pas, demain, comme passerelle de gestion des données énergétiques – et, de l’autre, sur le cloud computing pour la gestion des contenus qui y seront liés. la Chine à s’imposer aujourd’hui en misant sur le poids de son marché intérieur. Un jeu d’autant plus complexe que les cultures en matière de standardisation sont très différentes dans l’énergie et dans le numérique. États et secteur privé Tandis que le secteur de l’énergie reste plutôt dans un marché marqué par une gouvernance de la standardisation pilotée par les États, celui du numérique a migré progressivement vers des structures non étatiques (ETSI, IEEE, W3C, etc.). Mais celles-ci sont débordées par la standardisation de facto qui est au cœur de la bataille entre les grands acteurs. Le logiciel, et en particulier l’open source, sont par leur caractère viral bien plus efficaces que des tampons d’organismes de normalisation qui ne sont sollicités qu’a posteriori. Domination américaine En matière de standards de fait, Microsoft, Apple, Google, Amazon et d’autres préemptent le marché au travers des API (application program interface). L’Europe est la grande perdante de cette évolution dans les télécommunications. Alors qu’elle dominait la standardisation, elle peine à trouver sa place dans ce marché des API. Quelques signes peuvent conduire à penser que ce champ concurrentiel va s’étendre aux smart grids. Pendant que les uns s’intéressent aux prises des véhicules électriques et aux interfaces physiques des compteurs, d’autres pensent déjà aux API de demain dans l’énergie. Cette évolution masque des enjeux essentiels auxquels l’Europe devrait être attentive si elle ne veut pas voir, demain, émerger un Google de l’énergie. Cybersécurité La question de la sécurité des réseaux électriques face aux cyberattaques est désormais considérée comme l’un des sujets majeurs des smart grids. Des rapports soulignent les risques d’ores et déjà encourus. Aux États-Unis, le Congrès, le Département de l’Énergie, le NIST et d’autres institutions se sont emparés du sujet. L’Europe s’y intéresse, mais les initiatives de l’ENISA (European Network and Information Security Agency) sont peu visibles. Si les énergéticiens ne sont pas en train de découvrir les questions de cybersécurité, le degré d’interconnexion croissant des composants logiciels, des équipements, couplés à des automates, crée de nouvelles vulnérabilités, comme le soulignait récemment un rapport du MIT. Ce sujet, traité au sein de plusieurs projets nationaux ou européens, nécessitera des investissements spécifiques encore relativement peu programmés. Des filières amenées à coopérer En France, les filières énergétiques et numériques commencent véritablement à vouloir collaborer en matière de R & D. Les rapprochements esquissés entre les pôles Cap Énergie et SCS dans le Sud, Minalogic et Tenerrdis en Rhône-Alpes ou la création d’un groupe de travail sur les smart grids dans Systématic en témoignent. Une coordination entre filières est en train de se mettre en place. Espérons que les financements de projets soient à la hauteur des enjeux pour la France. Notre pays, et plus globalement l’Europe, doivent trouver leur place sur ce marché de l’énergie dont les contours et les modèles économiques risquent d’être structurellement affectés par le développement actuel des smart grids. ■ La sécurité des réseaux électriques face aux cyberattaques est un sujet majeur LA JAUNE ET LA ROUGE • MAI 2012 25 P.26 Goetz 24/04/12 7:10 Page 26 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR JEAN-MARC GOETZ consultant senior chez Parker & Williborg L’entreprise doit protéger les données personnelles L’actualité présente de plus en plus de cas de sociétés confrontées à des pertes de données, ou à des transferts d’informations personnelles mal contrôlés ; des réseaux sociaux invitent leurs abonnés à fournir des données qu’ils ne maîtriseront plus. Face à cette situation, quelle est la bonne attitude ? Des dispositifs de suivi et de marquage des données apportent une première réponse. L’Union européenne applique une politique de protection des données des plus rigoureuses ■ Nous sommes à tout moment amenés à fournir des données personnelles, parfois confidentielles, que ce soit volontairement ou non. Or, l’actualité présente de plus en plus de cas de sociétés confrontées à des pertes de données, ou encore à des transferts d’informations personnelles mal contrôlés ; par ailleurs, des réseaux sociaux invitent leurs abonnés à fournir des données sans nécessairement leur donner les moyens de les retirer ou, au minimum, de les suivre. Face à cette situation, quelle est la bonne réponse individuelle et collective ? Faut-il adopter la position du « laisser faire» pour la plus grande satisfaction d’un Big Brother ? Faut-il être suspicieux à la limite de la paranoïa et ne rien fournir ? Dans cette chaîne de responsabilités, qui doit faire quoi, quelles sont les responsabilités respectives de l’individu et de l’entreprise ? REPÈRES La réglementation protégeant les données personnelles se met en place et se renforce dans de nombreux pays. Les autorités de contrôle et notamment la CNIL (Commission nationale Informatique et Libertés) en France se montrent de plus en plus actives et les particuliers font davantage valoir leurs droits. Dans ce paysage, l’entreprise joue un rôle essentiel. 26 LA JAUNE ET LA ROUGE • MAI 2012 Un arsenal complexe La Directive européenne 95/46/CE constitue le cadre juridique de la protection des données personnelles et limite fortement l’accès à ces données en dehors du périmètre de l’Union européenne, en interdisant les transferts de ces données hors de l’Union. Les évolutions pressenties de ce texte visent à encadrer plus strictement le traitement de données personnelles : obligation de désignation d’un correspondant Informatique et Libertés, alourdissement des sanctions, etc. Une situation contrastée Le paysage international est pour le moins contrasté. L’Union européenne applique une politique de protection des données considérée comme une des plus rigoureuses, or les entreprises, notamment les multinationales, vivent constamment des situations incompatibles avec ces obligations réglementaires : comment accéder, à partir des États-Unis, à un annuaire électronique de personnes d’un groupe d’origine allemande dans le respect de ces obligations ? Aussi existe-t-il un système dérogatoire admis par les autorités de contrôle si un arsenal juridique ad hoc est instauré au sein de l’entreprise : les Binding Corporate Rules pour l’Union européenne, le Safe Harbor pour les États-Unis. La réglementation internationale évolue également avec des initiatives qui rapprochent différentes zones géographiques de la position européenne. Cloud computing et dématérialisation Si les données sont soumises à la réglementation en vigueur sur le lieu et le pays d’hébergement, le cloud computing vient brouiller les cartes en donnant peu ou pas d’indications sur la localisation de l’hébergement des données et, qui plus est, sur la nature de l’hébergement : s’agit-il d’un hébergement permanent ou provisoire ? Sommes-nous dans une situation où il n’existe qu’une seule source de production P.26 Goetz 24/04/12 7:10 Page 27 GRAND ANGLE Règles internationales Les Binding Corporate Rules (BCR) constituent un code de conduite définissant la politique d’une entreprise en matière de transferts de données. Elles offrent une protection adéquate aux données transférées depuis l’Union européenne vers des pays tiers à l’Union européenne au sein d’une même entreprise ou d’un même groupe. Le Safe Harbor est un ensemble de principes de protection des données personnelles, négociés entre les autorités américaines et la Commission européenne en 2001. Les entreprises établies aux ÉtatsUnis adhèrent à ces principes auprès du Département du Commerce américain. Cette adhésion les autorise à recevoir des données en provenance de l’Union européenne. de la donnée, avec un seul hébergement? Quel est le statut des données de sauvegarde ? Mais le cloud non maîtrisé n’est pas une fatalité : les entreprises peuvent continuer à internaliser leurs ressources d’hébergement de données sensibles, quitte à mettre en place un environnement de cloud computing privé. L’entreprise, acteur clé Nous sommes encore loin d’un accord mondial pour la gestion et la circulation des données personnelles ; d’autre part, l’individu ne peut pas éternellement faire de la résistance quant à la fourniture de ses données. L’entreprise a donc un rôle majeur à jouer car ses activités impliquent le traitement de données personnelles de collaborateurs, de clients, de fournisseurs et autres tiers. Son rôle se révèle déterminant pour différentes raisons. Elle collecte et gère des données personnelles, elle peut être à même de transférer ces données audelà des frontières; elle doit donc présenter toutes les garanties de conformité à la réglementation du pays. Elle doit aussi maîtriser la chaîne de traitement des données personnelles : s’assurer de la finalité des données, garantir l’usage prévu sans détournement, gérer la sécurité des données personnelles avec les règles de confidentialité appropriées, ainsi que leur durée de conservation. Enfin, elle doit assurer la meilleure transparence en informant les personnes, en leur proposant des droits d’accès, de modification, voire d’opposition sur les informations personnelles communiquées. Opacité Si l’entreprise garde la maîtrise de ses données, en revanche l’individu a de moins en moins le choix : une situation de recherche d’emploi l’invite à fournir sans réserve des données privées ; les e-services et téléprocédures viennent l’encourager à formuler ses demandes bien fournies en données personnelles via Internet parfois sans indication sur la localisation ni le sort de ces informations. Impact large Un programme de protection des données personnelles a un impact sur un large ensemble de processus de l’entreprise : les ressources humaines, le juridique, mais aussi les achats, la sûreté, les systèmes d’informations, etc. Son application peut prendre diverses formes. D’abord, assurer des formations, des actions de sensibilisation auprès des collaborateurs amenés à traiter régulièrement des données personnelles. Ensuite, définir des clauses et des mentions types concernant la protection des données personnelles à intégrer dans les contrats. Enfin, définir un cadre méthodologique pour la conception des processus et applications d’entreprise, avec l’application de règles pour le respect de la vie privée dès la phase de conception des processus et applications d’entreprise. Is Big Brother still watching you 1 ? Certes, ce type de programme, mis en place par de plus en plus d’entreprises, permet de donner une réponse aux enjeux réglementaires de la protection des données personnelles, mais il constitue aussi une opportunité intéressante pour l’analyse du système d’information existant et de ses données. Il offre également un cadre méthodologique de gestion de la traçabilité, en permettant de répondre au mieux aux questions posées sur le stockage et l’historique des données personnelles. Il permet enfin une politique de communication interne et externe axée sur la transparence et la confiance. Ainsi, avec ce type de programme, l’entreprise assure pleinement son rôle dans cette chaîne de responsabilités, dans un contexte où les autorités de contrôle montent en puissance et où les réglementations se durcissent. Si Big Brother nous regarde, peut-être commencera-t-il cependant à craindre ces dispositifs de suivi et de marquage des données qui apportent une meilleure traçabilité. ■ LÕindividu ne peut pas Žternellement refuser de fournir ses donnŽes 1. « Big Brother vous regarde-t-il toujours ? » LA JAUNE ET LA ROUGE • MAI 2012 27 P.28 Laurier 24/04/12 16:30 Page 28 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR PHILIPPE LAURIER enseignant à l’École polytechnique Nomadisme informatique, nomadisme des identités? ET CLAIRE DUFETRELLE (2009) Mémoire de nos identités, de nos moyens de la confirmer, de nos habitudes, de nos mouvements : les objets intelligents ou communicants se multiplient dans notre environnement immédiat, mais aussi jusque dans notre corps ou dans l’isoloir du bureau de vote. Tandis que notre intimité numérique rétrécit à l’instar d’une peau de chagrin, il s’instaure une logique qui échappe à l’individu, alors pourtant qu’elle touche à l’individu. Nous ne sommes plus le centre ■ Une bande dessinée d’anticipation éditée il y a une quarantaine d’années imaginait la civilisation de l’autoroute (en prolongement de l’ère Pompidou avec son fameux « les Français aiment la bagnole », et autres voies express sur berges) où l’être humain adoptait définitivement le camping-car, renonçait aux maisons pour devenir éternel voyageur sur des autoroutes sans fin, déléguant la production de biens aux robots. Cette bande dessinée imaginait une sorte d’ordinateur central avec lequel nous serions en correspondance pour nos affaires administratives et comptables. Parfois survenait quelque dysfonctionnement tel ce conducteur solitaire retrouvé par la police motorisée dans son véhicule, mort de faim, après que l’ordinateur eut par erreur perdu toute trace de son identité, donc de son existence, et lui eut par conséquent refusé le moindre débit bancaire, donc l’ultime moyen d’acheter l’essentiel alimentaire. Deux points semblaient évidents au dessinateur, qui l’un et l’autre pourtant recelaient des ambiguïtés de vocabulaire. Une civilisation de la mobilité qui recrée un centre D’abord, le grand ordinateur serait central, chose banale dans l’informatique des années 1970. Sans comprendre que cette position ne tiendrait pas tant à la technique mais, par une voie détournée, au simple fait qu’en être gestionnaire vous attribue cette place stratégique. Les autres étant alors « terminaux ». Il est regrettable que nous utilisions ce mot, terminaux, pour désigner trivialement nos téléphones ou nos ordinateurs sans prendre conscience de son sens spatial : nous ne sommes plus le centre (peut-être ne l’avons-nous jamais été, mais en des temps où le centre ne se matérialisait pas avec sa puissance de calcul actuelle). REPÈRES Dans l’avant-numérique, c’est-à-dire il y a peu d’années, nous pouvions nous définir en tant qu’individus à qui il était parfois demandé de justifier de leur identité, souvent par le recours à une carte ou à un certificat dont nous serions alors porteur, dûment agrémenté de coups de tampons ou de filigranes ; nous étions l’alpha et l’oméga, l’existant et sa preuve (les registres paroissiaux ou administratifs traçaient des chronologies et des filiations mais ne constituaient pas de véritables supports d’identification pour l’immédiateté). Demain, il nous sera demandé de correspondre à une identité préenregistrée, mais désormais vivante hors de nous, binaire. Binaire car inscrite sur mémoire informatique. Vivante car en croissance, faite d’ajouts tantôt par des données personnelles, y compris biométriques, tantôt par notre profil comportemental qui est partie prenante de notre identité globale, avec nos préférences, nos déplacements journaliers, nos adresses. 28 LA JAUNE ET LA ROUGE • MAI 2012 P.28 Laurier 20/04/12 7:59 Page 29 Google ou Facebook rivalisent de discrétion pour placer des pions dans les secteurs technologiques de la biométrie ou de la reconnaissance faciale, à coup de rachats si besoin, tel que l’an passé celui de la jeune entreprise PittPatt (Pittsburgh Pattern Recognition), essaimée en 2004 de l’université Carnegie Mellon. Ensuite, chaque voyageur se trouverait en correspondance avec cet ordinateur, au sens de dialogue administratif, par ce terme de correspondance désignant un courrier. Or correspondance avec l’ordinateur renverra dans les faits à une seconde acception du mot : être en conformité avec. Être nomadisé, être en conformité Sur un mode plus humoristique que dramatique, cette bande dessinée se livrait à ce que l’on supposait à l’époque être caricatural, simple exercice intellectuel, du sous-Orwell. Pourtant, elle dressait par avance le constat majeur que l’être nomadisé – avec ses téléphones mobiles, son PC portable, ses tablettes électroniques, ses puces RFID de métro – se trouve en partie dépossédé de la gestion de son identité. Laquelle échoit à une ou plusieurs autorités privées ou publiques, commerciales souvent, qui nous connaissaient initialement par un identifiant et un authentifiant (un mot de passe par exemple). Mais qui progressivement, au motif d’une insécurité qu’elles sont du reste parfois les premières à avoir créée ou à tout le moins tolérée, nous expliquent que notre sécurité impliquera davantage de délégation du contrôle sur notre identité, avec la biométrie ou avec la reconnaissance faciale. Être copie conforme de notre propre copie L’axe suivi par cette trajectoire technologique est l’obligation progressive de prouver que l’on est soi, mais par le contresens de devoir montrer que l’on correspond à ce qu’une base de données connaît de nous : notre ADN, notre iris est-il conforme à la mémoire numérique, notre visage est-il tel que répertorié ? Ce n’est GRAND ANGLE Contrôle d’identité plus la mémoire qui doit correspondre à la réalité, mais bien nous, réels, qui devons être similaires en tout point à notre propre identité clonée et virtuelle. Une seconde contradiction tient à l’effet de mode autour des télécommunications, où nous nous proclamons soudainement nomades alors que la « mémoire de nous » reste grandement statique, hébergée sur des fermes de serveurs. Elle est sédentaire, oserait-on dire. Vieille lutte qui renvoie aux origines du néolithique, mais où le vainqueur final est généralement le sédentaire, c’est-à-dire pour l’occasion le propriétaire des ordinateurs (pour nos données archivées, la traduction en bon français du concept marketing de cloud serait « écran de fumée » plutôt que « nuage »). Localisation géographique Outre les dispositifs de reconnaissance biométrique intervient la localisation géographique. En 2011, deux chercheurs ont montré que l’iPhone stockait des données récoltées sur nos déplacements géographiques, sans que l’utilisateur en ait été informé. Dans une étude menée peu après, la CNIL – Commission nationale de l’informatique et des libertés – précisait que «l’observation du téléphone pen- ➤ Voiture indiscrète On se souvient de cette mésaventure en Malaisie d’un propriétaire de grosse cylindrée allemande équipée d’un système antivol par lecture d’empreinte digitale, dont les voleurs auraient pris soin de couper le doigt pour activer le démarrage. Depuis lors, la recherche allemande s’attelle à déterminer si un doigt qui est présenté au coupe-circuit revêt ou non les caractéristiques d’un tissu vivant. De même, plusieurs constructeurs automobiles achèvent de mettre au point des sièges bardés de capteurs et aptes à détecter un endormissement ou un malaise. Chose qui intéressera à terme les assureurs. Avec pour capacité collatérale tôt ou tard de pouvoir identifier un conducteur par divers signes physiologiques, dont son rythme cardiaque, propre à chacun. Performance à portée de main et qui fera naître des envies d’antivols ou mille autres usages, car on saura le qui, le où et la vitesse. Un jour peut-être aussi le « avec qui » si le siège passager bénéficie de la même instrumentation. L’être nomadisé se trouve en partie dépossédé de la gestion de son identité LA JAUNE ET LA ROUGE • MAI 2012 29 P.28 Laurier 20/04/12 8:00 Page 30 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS ➤ dant plusieurs nuits a permis de découvrir que l’iPhone contacte les serveurs de géolocalisation d’Apple ponctuellement sans aucune intervention de l’utilisateur, dès lors qu’il est allumé et connecté à un point d’accès Wifi ». Recours potentiels à la localisation dont il est à craindre donc qu’elle s’accomplira non seulement sur l’instant, mais également par une trace conservée de nos précédents itinéraires : je suis Untel car présent ici et passé par là, sans usurpation car toujours resté sous l’œil ; veuillez donc autoriser mon actuel paiement électronique dans cette boutique. Les paiements par nos téléphones portables répondront peu à peu à cette logique. Dérives du télépaiement La prochaine étape est effectivement la monnaie, via le paiement depuis nos terminaux mobiles : monnaies publiques ou nouvelles monnaies privatives proposées par les réseaux sociaux, avec de leur part un désir de présenter ces monnaies qui sont leur propriété comme plus sécurisées car émises et validées sur leur univers virtuel où nos identités sont peu à peu présentes – ces acteurs économiques deviennent l’alpha et l’oméga que nous ne sommes plus. La traditionnelle carte à puce était en comparaison plus discrète, qui certes indiquait où nous – par notre authentifiant – nous trouvions à un moment donné – par le Les objets intelligents vont dialoguer sans nécessairement requérir notre autorisation 30 Les vraies pratiques de Google Alex Türk, président de la CNIL, s’était dit « inquiet de ce qu’un célèbre moteur de recherche soit capable d’agréger des données éparses pour établir un profil détaillé de millions de personnes (parcours professionnel et personnel, habitudes de consultation d’Internet, participation à des forums…) », proclamation qui date de 2007. En 2012, lorsque la même entreprise annonce lancer la refonte de sa « politique de confidentialité » en croisant plus de données issues de son moteur de recherche, de la messagerie Gmail et du site de vidéo Youtube, la CNIL déclare à propos de « la formulation des nouvelles règles et la possibilité de combiner des données issues de différents services » qu’elles soulèvent « des inquiétudes et des interrogations sur les pratiques réelles de Google ». LA JAUNE ET LA ROUGE • MAI 2012 terminal de paiement –, mais qui n’avait pas le moyen ni le besoin de savoir nos pérégrinations entre-temps. Certains paiements sur Internet, y compris depuis nos terminaux fixes, ne conservent d’autorisation que si notre téléphone mobile confirme que nous sommes bien au même instant au lieu déclaré. En attendant une couche supplémentaire qui nous demandera de prouver à notre propre téléphone et à ses capteurs que nous sommes nous, tels qu’enregistrés par la grande mémoire sédentaire. Les objets intelligents, entre devoir de mémoire et droit à l’oubli Mémoire de nos identités, de nos moyens de la confirmer (depuis le mot de passe jusqu’à la génétique), de nos habitudes, nos mouvements : les objets intelligents ou communicants vont se multiplier dans notre environnement immédiat, notre maison, notre voiture, mais aussi des lieux aussi intimes que notre corps (capteurs à usage médical) voire l’isoloir du bureau de vote. Ces objets intelligents vont dialoguer sans nécessairement requérir notre autorisation. Qui sera le réceptionnaire, l’héritier et le gestionnaire de cette masse de données intimes ? Une intimité en forme de peau de chagrin Notre intimité numérique s’apparente à une peau de chagrin, rétrécissant non pas du fait des technologies mais de l’usage qu’on en permet. Les récentes cartes de transport pour les abonnés du métro ne nous démentiraient guère, qui de manière fréquente nous connaissent conjointement à travers notre identité, notre photo numérisée archivable, un paiement mensuel usuellement effectué par carte bancaire, et nos récents passages aux bornes. À nouveau la CNIL s’était émue de ce que la RATP ait, lors de son lancement en 2009, fait bien peu de publicité au Navigo Découverte, l’équivalent anonyme du Passe Navigo ; dont la délivrance était quant à ce dernier gratuite, tandis que la version anonyme était facturée 5 euros. Il s’agit là de choix volontaires. Au nom officiellement d’une bonne gestion de la relation au client, à des fins publicitaires, policières ou autres, s’instaure une logique qui échappe à l’individu, alors pourtant qu’elle touche à l’individu. ■ P.28 Laurier 24/04/12 16:30 Page 31 GRAND ANGLE Le vote électronique, ou l’improbable mariage de la transparence et du secret © JEAN-CHRISTOPHE JARDIN Le vote électronique, ou e-vote, pose la question de la faisabilité d’un vote sûr. Il recouvre : – le vote à domicile, sur ordinateur, via une plateforme sur laquelle chacun s’identifie, choisit le candidat et valide son vote. Ce vote à distance n’est pas entièrement fiable au niveau technique, car il n’existe pas de système parfaitement robuste aux infections. De plus perdure une difficulté inhérente à l’utilisation d’ordinateurs personnels puisqu’il est impossible d’établir un lien sécurisé entre le terminal du réseau physique et le dernier maillon qu’est l’utilisateur humain. Faute d’authentification par pièce d’identité, deux options demeurent : utiliser une information connue uniquement de la personne ou utiliser une donnée biométrique. Cependant aucune d’elles n’est satisfaisante : la première permettrait de voter pour autrui en connaissant son information secrète (avec risque d’extorsion par la force) et la deuxième soustend la possession par l’institution étatique d’un fichier exhaustif des données biométriques ; – les machines pour recueillir les suffrages des votants qui se déplacent jusqu’au bureau de vote. Leur unique avantage est de permettre un dépouillement Boîtiers individuels de vote électronique plus rapide, or cette même étape constitue un point à l’Assemblée nationale française. faible. Pour que la machine soit utilisable, il importe qu’elle soit scellée mais, à l’image de l’urne transparente 1, que son fonctionnement soit visible de tous. Dans les faits, cela reviendrait à créer des appareils dont le code soit lisible par tous, consultable sur demande. Un premier problème est qu’il n’est pas possible de s’assurer soi-même du fonctionnement de la machine : « l’urne » n’est pas transparente. Une conséquence de cette opacité est que nul ne peut être certain que son vote ait été correctement enregistré. Quand bien même émettrait-elle un reçu en papier, il n’est pas assuré que celui-ci reflète ce qui existe dans la mémoire de l’ordinateur. Dans le dépouillement électronique, le comptage des voix se fait de manière opaque envers l’humain. Même un homme connaissant (et comprenant) le code de la machine ne peut être garant qu’elle donnera le résultat exact, et une erreur informatique demeure possible 2. De même qu’existent des sources de fraude. De plus, le choix de l’équipe vérificatrice est d’ordre politique : comment la choisir pour donner confiance à tous ? Comment s’assurer que la machine sera bien configurée et pas modifiée avant le scrutin ? Un cas intéressant est fourni par les Pays-Bas. Alors que la quasi-totalité des votes se déroulait sur machines à voter, une commission mise en place pour étudier la question a prouvé la trop grande possibilité de fraude 3. Finalement le vote électronique a été abandonné en mai 2008. Décision principalement motivée par le fait que la machine ne produit aucune preuve papier permettant de vérifier que le vote enregistré correspond à la volonté du votant. De surcroît, selon cette commission, le secret du vote ne peut être garanti. Un paradoxe est résumé ici, d’une machine dont on attend de la transparence mais tout en nous garantissant le principe du secret, et dont on attend une preuve du fidèle enregistrement de notre vote mais tout en nous garantissant que cette trace restera confidentielle. La suppression du caractère humain de la procédure empêche le citoyen de se forger l’intime conviction qu’elle reste juste, que ce sont bien des hommes libres et conscients qui choisissent leurs représentants par une voie éprouvée, et renouvelée à travers le temps. L’outil informatique doit rester sous l’égide du sens critique. Le secret du vote électronique ne peut être garanti 1. Le code électoral spécifie que l’urne doit posséder au moins quatre côtés transparents. 2. Se référer au fameux théorème de Gödel et aux travaux de calculabilité de Hilbert, qui prouvent l’impossibilité de montrer qu’un programme informatique renvoie la réponse exacte en un temps fini. 3. Commission Korthals-Altes, 2007. LA JAUNE ET LA ROUGE • MAI 2012 31 P.32 Tru Dô-Khac 24/04/12 16:34 Page 32 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR TRU DÔ-KHAC (79) président du groupe XPropriété intellectuelle Open savoir-faire, une innovation radicale inspirée de l’open source Le numérique pose un défi sans précédent à la conservation du savoir-faire. Mais, avec de nouveaux usages du droit d’auteur en entreprise, ce savoir-faire est source de modèles d’affaires numériques inédits que nous désignons par open savoir-faire. Une démarche qui pourrait procurer des avantages analogues à ceux de l‘open source. Les entreprises de services doivent imaginer des politiques alternatives ■ Le savoir-faire d’une entreprise est source d’avantages compétitifs durables. Objet de convoitise de la part de la concurrence, le savoir-faire est protégé par le secret, une qualité qui lui est consubstantielle. Pour une entreprise manufacturant des produits, on imagine aisément que l’on puisse mener une politique de non-divulgation de savoir-faire. L’achat d’un produit manufacturé n’emporte généralement pas l’accès à la conception ou au procédé de fabrication, et l’entreprise peut tenir contractuellement ses salariés au secret des affaires et à un devoir de réserve pendant et après leur collaboration. Le savoir-faire en services professionnels En revanche, on voit plus difficilement quels dispositifs de protection mettre en place lors de la fourniture de services professionnels tels que le conseil en gestion des affaires ou l’ingénierie de systèmes d’information. Tout d’abord, le client bénéficiaire d’un service peut directement observer le savoir-faire mis en œuvre lors des prestations. Puis il peut même participer à cette mise en œuvre lors de pilotage conjoint et des phases de conception. Ensuite, il impose souvent des clauses de transfert de savoir-faire. Enfin, quand bien même les deux parties en conviendraient-elles, il est problématique de réserver l’accès au 32 LA JAUNE ET LA ROUGE • MAI 2012 REPÈRES « Un savoir-faire se définit comme un ensemble d’informations pratiques non brevetées, résultantes de l’expérience et testées qui est : – secret, c’est-à-dire qu’il n’est pas généralement connu ou facilement accessible ; – substantiel, c’est-à-dire important et utile pour la production des résultats ; – identifié, c’est-à-dire décrit d’une façon suffisamment complète pour permettre de vérifier qu’il remplit les conditions de secret et de substantialité. » (Cahier des clauses administratives générales applicable aux marchés publics de prestations intellectuelles, 2009.) savoir-faire aux seuls collaborateurs habilités du client alors que des fournisseurs tiers concurrents du détenteur du savoir-faire sont concomitamment employés. Ainsi, une entreprise innovante de service est condamnée, à terme, à perdre cet avantage compétitif par l’effet même de son succès. Encore récemment, ce terme était de plusieurs années. Avec les réseaux sociaux numériques, il se réduit à quelques clics de souris. Face à ce défi inédit, les entreprises de services professionnels porteuses de savoir-faire doivent imaginer des politiques alternatives. Troc entre savoir-faire et réputation Premier exemple, élémentaire, celui d’un expert divulguant son savoir-faire dans un ouvrage. Outre une communication de savoirfaire, cet ouvrage en propose des représentations stylisées originales et dès lors porteuses de droits d’auteur. Leur utilisation impliquant la citation de l’auteur et de la source, l’expert offre ainsi un troc entre savoir-faire et réputation. En cas d’emprunt notable à des fins commerciales, une compensation financière est possible. P.32 Tru Dô-Khac 24/04/12 7:34 Page 33 Un open savoir-faire est un savoir-faire divulgué. Sa formulation, nouvelle et stylisée, est une création originale et dès lors porteuse de droits d’auteur. Nous exposons ici « HORIT ». Cette création, qui avance une figure de l’immatériel à cinq composantes, est protégée par le droit d’auteur. « Référentiels SI » sous copyright Second exemple, complexe, celui des « référentiels SI », ouvrages en gestion informatique publiés sous copyright. Présentés souvent comme des « meilleures pratiques » par leurs promoteurs, ce sont des produits immatériels. On peut faire remonter leur essor au début des années 2000. À l’époque, une poignée d’entreprises internationales domine de leur savoir-faire le marché des prestations informatiques. Opérant globalement, ces entreprises aux marques prestigieuses mettent en œuvre des méthodes qu’elles ont éprouvées sur le marché nord-américain et qu’elles protègent jalousement par le secret des affaires et le copyright. Pour leurs concurrents locaux n’ayant ni la surface financière ni le temps d’investir dans le développement et la promotion d’un savoirfaire compétitif, il s’agit de trouver une riposte. Or, outre-Manche, il existe une offre de savoirfaire informatique. Pilotée par l’Office Government of Commerce (OGC), celle-ci confère un avantage compétitif certain à ses souscripteurs. Le savoir-faire en question est celui de la Central Computer and Telecommunications Agency (CCTA). La CCTA a consigné ses pratiques en gestion de systèmes d’information dans des ouvrages, et les prestataires informatiques anglais les utilisent comme un guide qualité pour répondre à des consultations. Comme ces ouvrages sont rassemblés sous une marque, leurs souscripteurs en tirent un signe distinctif de reconnaissance ; et ces derniers ont commencé à s’organiser en ligue GRAND ANGLE Protection juridique internationale. Pour des prestataires informatiques débutants, c’est une opportunité stratégique. Mais, pour l’OGC, c’est une opération de valorisation de savoir-faire par la collecte de royalties de copyright. Les stratégies open savoir-faire Pour éclairer les alternatives stratégiques au savoir-faire, nous avançons une matrice à deux dimensions : la première, désignée par share, adresse l’exposition de l’expression du savoirfaire ; la seconde, désignée par protect, adresse la concession des droits afférents à l’expression du savoir-faire. Pour chaque dimension, nous posons deux directions : pour la dimension share, cela sera non divulgué-publié; pour la dimension protect, cela sera copyright-open. Ainsi configurées, ces dimensions sont croisées, faisant apparaître en damier quatre stratégies de savoir-faire : le «secret d’entreprise », qui est un savoir-faire Les stratégies open savoir-faire. exclusif parfois objet de titres de propriété industrielle, le «pragmatisme stylisé », ouvrages publiés sous copyright par des professionnels expérimentés aux talents d’écrivain et de graphiste, les « ligues de pratique », associations développant sous des processus analogues à ceux du logiciel des pratiques professionnelles sous copyright et signées par des marques, et les « communautés de pratique », dont l’expérience est partagée librement et licitement via les réseaux sociaux numériques professionnels publics et des régimes de droits d’auteur permissifs tels que les licences Creative Commons ou les licences Libres Savoirs ParisTech. Maintenu enfermé dans l’entreprise, le savoirfaire est sous-tendu par une stratégie d’exclusion. Cette stratégie est celle des éditeurs de logiciels propriétaires qui bloquent l’accès aux sources et à leur savoir-faire. Inspiré par l’open source, on peut opter pour une stratégie d’ouverture que nous avons désignée par open savoir-faire. Cette stratégie permet de bénéficier du retour d’expérience et des enrichissements apportés par des partenaires ou des concurrents. ■ Une expérience peut être partagée librement et licitement LA JAUNE ET LA ROUGE • MAI 2012 33 P.34 Hoffmann 24/04/12 10:21 Page 34 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR ALEXANDRE HOFFMANN directeur général de PayPal France Quatre évolutions vont marquer le monde du paiement : l’ascension fulgurante du « m-commerce » (commerce mobile), familiarisant des millions d’utilisateurs avec l’utilisation de leur téléphone mobile pour acheter et payer ; la multiplication des appareils connectés, suscitant le besoin d’un portefeuille de paiement « dans le nuage » ; l’avènement du « t-commerce » (commerce par télévision) ; et la disparition de la frontière entre commerce traditionnel et commerce en ligne. Acheter et payer avec son appareil mobile est devenu simple et sécurisé 34 Nouveaux modes de paiement : quatre prévisions pour 2012 ■ Difficile de se faire une idée précise de ce qui façonnera l’avenir du paiement, et avec lui de notre quotidien. Il est toutefois possible d’en préciser les contours, en étudiant en profondeur les «grappes d’innovation», ces points d’intersection entre nouvelles technologies et simplicité d’utilisation. Ces signes tangibles qui montrent que l’innovation du paiement est prête à occuper le devant de la scène. L’ascension fulgurante des paiements mobiles L’industrie du mobile est en train de passer un nouveau cap, avec l’adoption massive des téléphones intelligents, appelés à devenir en quelques années le périphérique connecté dominant pour plus de deux milliards de personnes dans le monde. Le véritable pouvoir des appareils mobiles connectés réside dans la manière dont ils changent radicalement le comportement d’achat des consommateurs, qui désormais saisissent la vente flash de leur marque préférée dans le métro matinal, achètent leur ticket de cinéma au café, ou paient leur repas avant même de pénétrer dans leur fast food favori. Grâce à son ergonomie revue et fluidifiée, le paiement mobile contribue au cercle vertueux de l’innovation : acheter et payer avec son appareil mobile est devenu LA JAUNE ET LA ROUGE • MAI 2012 REPÈRES Jour après jour, nous sommes témoins de nouveaux comportements des consommateurs et découvrons de nouvelles innovations technologiques pour y répondre, mais il est souvent difficile de distinguer les effets de mode des réelles innovations. Cette tendance générale s’affirme en particulier dans l’industrie des paiements : les initiatives se multiplient, venant d’horizons les plus divers. Si beaucoup d’idées paraissent séduisantes à première vue, peu possèdent la combinaison gagnante pour susciter rapidement l’adoption d’une masse critique d’acheteurs et de vendeurs. simple et sécurisé, augmentant le taux de conversion pour le marchand. Plus fondamentalement, le m-commerce se révèle être un puissant catalyseur pour familiariser à brève échéance des millions de consommateurs avec l’utilisation de leur mobile pour payer à distance – vecteur de l’indispensable confiance pour ensuite susciter l’utilisation de ce même portable pour acheter et payer dans le monde physique. 2011, année clé 2011 a marqué le démarrage du commerce et paiement sur mobile à une échelle industrielle : plus de 17 millions d’utilisateurs ont payé sur leur mobile avec PayPal en 2011 (générant un volume de 4 milliards de dollars). Rien qu’en France, c’est plus de 3 500 commerçants qui ont vendu sur le mobile grâce à PayPal l’an dernier. Pour des e-commerçants comme eBay ou ShowroomPrivé.com, le « m-commerce » représente désormais près de 10 % des ventes. Cette tendance va encore s’accélérer en 2012 : PayPal prévoit de pratiquement doubler son volume de paiement sur mobile, visant 7 milliards de dollars. P.34 Hoffmann 24/04/12 10:21 Page 35 GRAND ANGLE Réinventer la distribution Nouveaux « terminaux » Nous assistons à un véritable foisonnement de nouveaux appareils connectés : l’iPad d’Apple, le réfrigérateur Wifi de Samsung, les voitures connectées conçues par Audi ou Cadillac sont des exemples bien réels. Et nous observons également des projets novateurs qui repensent entièrement la chaîne de valeur, comme ces machines à laver proposées gratuitement et qui « facturent » le consommateur à chaque lessive (à l’instar des fabricants de photocopieurs qui se rémunèrent sur le toner). Un « portefeuille dans le nuage » L’arrivée de nouveaux appareils connectés va multiplier les opportunités de monétisation et susciter le besoin d’un « portefeuille dans le nuage». La multiplicité de terminaux intelligents et connectés favorise la création de nouveaux modèles économiques, dès lors que presque tout ce qui possède une adresse IP et un bouton marche-arrêt pourra intégrer un module de paiement. Pour le consommateur, la gestion de cette multiplicité de points d’accès et de paiement engendrera inévitablement une forte demande de solutions de paiement unifiées, avec un «portefeuille universel » donnant accès à une expérience de paiement cohérente, simple et sécurisée dans l’ensemble de sa vie numérique. En 2012, les paiements se déplacent vers le «nuage». La frontière entre commerce traditionnel et commerce online va disparaître, forçant la distribution à se réinventer. Les nouvelles technologies mobiles, couplées à l’explosion des réseaux sociaux, bouleversent à nouveau le paradigme de la distribution. Celles-ci font converger les canaux jadis cloisonnés vers des comportements consommateurs « multicanaux » : donnant la possibilité pour les consommateurs d’accéder à distance au stock d’un magasin, de géolocaliser sur iPhone les points de vente et de détecter les bonnes affaires, de scanner un produit dans un magasin puis de l’acheter en ligne, ou encore de se prendre en photo dans la cabine d’essayage pour demander l’avis de ses amies sur Facebook. Le « social commerce » est un bon indicateur de cette tendance, et plusieurs initiatives ont été lancées l’année dernière, telle la boutique La Redoute sur Facebook. Comparer les prix Depuis décembre dernier, la « bataille du commerce » est devenue une réalité pour de nombreux petits commerçants face à Amazon et son application « Amazon Price Check ». Le géant de l’e-commerce n’a-t-il pas offert à ses clients un crédit de 5 dollars s’ils utilisaient son application pour scanner le prix d’un article dans un point de vente ? L’avènement du t-commerce Il n’y a qu’un pas de «permettre l’accès à Internet» à « permettre le paiement sur Internet ». Un pas déjà franchi par plusieurs fabricants de téléviseurs, lançant du même coup l’ère du t-commerce (commerce électronique depuis sa télévision). Si l’on en parle depuis longtemps, les pièces et les acteurs du t-commerce se mettront en place en 2012. Dans ce contexte, eBay a récemment mis à jour son application mobile pour iPad en donnant la possibilité de «voir avec eBay » : regarder son équipe de foot préférée jouer un match et acheter en même temps son écharpe de supporter, sans bouger de son canapé. Depuis peu, la console XboX de Microsoft permet également l’achat de biens virtuels tels que talismans magiques pourfendeurs de dragons, ou semences pour sa ferme, sans devoir quitter son jeu vidéo. Au mois de mai 2013, il sera possible d’acheter depuis sa télévision aussi facilement que de changer de chaîne. Et tout cela n’est qu’un début : les marchands vont devoir s’adapter vite. Est-il encore imaginable en 2012 de mettre des brouilleurs de GSM dans les magasins pour y empêcher l’utilisation d’un téléphone et comparer les prix en ligne? Trouvera-t-on encore des acheteurs potentiels pour se présenter en magasin et acheter un téléviseur à écran plasma sans avoir, au préalable ou en temps réel, comparé des offres sur leur iPad ou téléphone ? Les marques et les distributeurs qui parleront directement à leurs clients ou leurs fans, les soutiendront dans leur démarche de quête d’informations et de dialogue, gagneront. Ceux qui garderont la tête dans le sable, sans chercher à connaître leurs clients ni communiquer régulièrement avec eux, verront leurs marges reculer dans cette économie connectée. ■ Les nouvelles technologies bouleversent à nouveau le paradigme de la distribution LA JAUNE ET LA ROUGE • MAI 2012 35 P.36 Murcia 24/04/12 7:36 Page 36 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR SANDRINE MURCIA Stratégies pour l‘innovation fondatrice et DG de Spring Lab, présidente de Silicon Sentier En matière d’innovation et d’accompagnement de l’innovation, les échanges d’expérience au sein d’un réseau d’entreprises sont irremplaçables. L’expérience décrite ici permet de mesurer l’efficacité des politiques d’aide à l’innovation et de proposer de nouveaux modes d’action. Silicon Xperience constitue la première plateforme de bêta-test labellisée Living Lab. Silicon Xperience s’appuie sur un réseau de 800 bêta-testeurs issus de notre écosystème. Une équipe dédiée de chercheurs en ergonomie et sociologie des réseaux aide les porteurs de projets à identifier et cerner les besoins de leurs futurs clients. REPÈRES Le développement de la croissance et de l’emploi en Île-de-France nécessite des dispositifs conçus par des entrepreneurs pour les entrepreneurs selon quatre principes d’action : favoriser les échanges entre les acteurs du numérique ; soutenir l’innovation ; accroître la visibilité des entreprises et communautés émergentes, et enfin diffuser la culture du numérique. Au départ très marqué développement Web et applications open source, « l’écosystème » s’est rapidement élargi aux technologies mobiles, outils collaboratifs, réseaux sociaux, open data et jeux vidéo. Accompagner les entreprises depuis la génération d’idées jusqu’à la mise sur le marché 36 Tests précoces d’usage ■ Depuis dix ans a été développée, avec l’aide de Silicon Sentier, une vision dynamique de l’innovation des NTIC (nouvelles technologies de l’information et de la communication) et de l’accompagnement des entreprises de la génération d’idées jusqu’à la mise sur le marché. Avec le label European Living Lab (2005) ont été lancés des dispositifs à succès créés par des entrepreneurs pour des entrepreneurs. La Cantine est un des premiers espaces mondiaux de travail collaboratif (coworking) et de mutualisation de ressources hybrides. Chaque année, elle accueille et accompagne plus de 750 coworkers, plus de 400 événements et plus de 16 000 visiteurs. C’est le creuset où se structurent et s’animent les communautés autour de thématiques technologiques pour permettre la rencontre des acteurs, la génération d’idées et le travail collaboratif. Autre dispositif mis en place : le Camping, premier accélérateur de start-ups en France. Plus de 600 projets ont été déposés, 25 d’entre eux ont été retenus et « accélérés ». En mobilisant un réseau de 60 mentors, le Camping accé- LA JAUNE ET LA ROUGE • MAI 2012 lère le passage de l’idée au prototype, sans perdre de vue les impératifs du développement business (clients et partenaires). Enfin, Silicon Maniacs, média de diffusion et d’information (radio et Webzine), sensibilise aux nouveaux usages et technologies, augmente la visibilité des acteurs et des projets d’innovation et diffuse la culture numérique. Faire émerger l’innovation L’expérience de terrain, au contact des besoins de l’écosystème, et les conclusions tirées des différents dispositifs ont amené – un peu à la façon des sciences expérimentales – à formuler un certain nombre d’observations utiles dans le cadre d’une réflexion générale sur les leviers de l’innovation numérique. Ce que dix ans au carrefour de l’innovation et de l’entrepreneuriat nous apprennent tous les jours : encourager l’innovation, c’est favoriser ses conditions d’émergence. Reconnaître l’innovation d’usage L’innovation ne se limite pas à la technologie, à la R & D. La diffusion et l’adoption des NTIC sont rendues possibles par une appropriation de ces mêmes technologies grâce à des usages plus rapidement adoptés par un plus grand nombre. Faire évoluer le modèle actuel Actuellement, en France, les actions dites de soutien-financement de l’innovation sont en fait centrées sur la R & D et visent à augmenter la performance du service. Mais ces financements ne sont accessibles qu’à des projets déjà matures, qui peuvent s’engager dans la P.36 Murcia 24/04/12 7:36 Page 37 Dans la filière numérique, la technologie reste un vecteur majeur d’innovation, de rupture. Cependant, le succès d’une innovation est de plus en plus évalué à l’aune de son adoption par son marché. La question « combien d’utilisateurs ? » vient avant « combien de brevets ? ». Les réussites de Facebook, Twitter, Instagram, airBnB et Google, au-delà des algorithmes, des data centers et des ingénieurs, sont dues à leurs utilisateurs. durée. Ils ne sont pas taillés pour les startups. Dans le modèle proposé, l’action de soutien est centrée sur l’usage. Car soutenir l’innovation d’usage, c’est permettre aux start-ups d’augmenter rapidement leur valeur et donc de mettre toutes les chances de leur côté en se lançant sur le marché. L’expérimentation avec les utilisateurs a un rôle central. Il suffit de quelques utilisateurs coconcepteurs en phase de création et d’évaluation pour permettre au service de s’améliorer rapidement et de voir en retour sa base d’utilisateurs se développer. Dans ce cas, le cycle de production devient également beaucoup plus rapide, favorisant une mise sur le marché accélérée. Redéfinir les rôles Les pouvoirs publics et les acteurs de terrain doivent agir ensemble, dans une vraie démarche de partenariat. À l’État de créer les environnements où peuvent s’élaborer, se tester les nouveaux modes d’organisation sociétale et entrepreneuriale ; de favoriser les démarches multiacteurs. Et surtout, de responsabiliser les acteurs de terrain en les associant aux initiatives. Sur le terrain, il faut mettre en place les interfaces entre acteurs, État et marché ; mobiliser les savoirs et expériences ; et enfin faire GRAND ANGLE Combien d’utilisateurs ? remonter les sujets en avance de phase, étape essentielle pour le développement d’une compétitivité internationale. Un exemple nous est donné par le mouvement open data, enjeu majeur du développement de l’économie numérique : quelles sont ces conditions qui permettront d’accélérer le développement des futurs services ? Au cœur de l’open data – et dans une semblable mesure pour les big data –, la valeur est dans l’interfaçage des acteurs, la capacité de collaboration : l’auteur n’est plus unique mais multiple. Les acteurs de terrain ont la capacité de s’organiser pour élaborer des licences collectives qui prennent en compte la collaboration et de les proposer à la puissance publique pour les faire reconnaître. Il faut mettre en place les conditions d’échange et de collaboration entre ces différents types d’acteurs. 27 milliards d’euros Open data désigne un mouvement de libération des données. La richesse des informations détenues combinée à la puissance de traitement de ces mêmes informations fait entrevoir un large potentiel de développement des technologies et des usages associés. Dès l’année 2005, un rapport financé par la Commission européenne évaluait à 27 milliards d’euros le marché européen lié à la réutilisation des informations publiques. Open data est au cœur de l’innovation et de l’économie numérique de demain. Nouveaux modèles d’échanges de savoirs Le soutien à la formation et au transfert intergénérationnel et interdisciplinaire des savoirs est indispensable. La rapidité de progression des technologies et des usages nécessite une formation continue et un transfert permanent des savoirs. ■ L’innovation ne se limite pas à la technologie, à la R & D Silicon Sentier Silicon Sentier est un réseau français de clusters de ressources au service des entrepreneurs des NTIC. Association d’entreprises regroupant cent soixante-quinze PME et TPE qui se développent dans le domaine des technologies numériques, Silicon Sentier possède une équipe de vingt-deux permanents, avec un budget annuel de 2,2 millions d’euros (soit 56 % de fonds publics, 44 % de partenariats privés). Cette équipe anime un écosystème intégré de plus de 12 000 contacts mobilisés pour soutenir activement les porteurs de projets, les créateurs d’entreprises à fort potentiel et les communautés de pratiques. Elle s’appuie sur des infrastructures mutualisées, mais aussi sur un réseau de mentors experts (entreprises membres, associations liées, grandes entreprises partenaires, acteurs publics) et d’investisseurs internationaux. LA JAUNE ET LA ROUGE • MAI 2012 37 P.38 Copigneaux 24/04/12 16:35 Page 38 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS PAR FRANÇOIS COPIGNEAUX directeur général de La Poste-ColiPoste Logistique et livraison, clés du e-commerce L’Internet a permis un essor extraordinaire de la vente à distance en créant un lien fort entre vendeurs et clients. Mais cet essor implique en aval la mise en place de solutions logistiques fiables et performantes pour livrer au consommateur sa commande, dont l’existence stimule en retour le développement d’un monde commercial radicalement nouveau. La révolution de la vente à distance L’arrivée d’Internet a pris tous les acteurs au dépourvu Après la Seconde Guerre mondiale, la vente par correspondance (VPC) s’est développée, essentiellement à partir de l’industrie textile du nord de la France, et La Poste a proposé des services de livraison de colis à domicile. Le modèle économique reposait sur la constitution de deux collections par an, sur la diffusion en grand nombre d’un catalogue illustré, sur des remises accordées en fonction du niveau de vente de chaque article, sur des prises de commande d’abord par courrier puis par téléphone, sur des soldes pour liquider les invendus et sur une livraison en 5 à 10 jours. REPÈRES Plus de 30 millions de Français ont réalisé un achat sur Internet en 2011. Le commerce en ligne est devenu en dix ans un mode de consommation courant. Mais, pour les biens physiques, un achat en ligne n’est réussi que lorsque le consommateur peut prendre possession de son acquisition rapidement et sans mauvaise surprise. La logistique et la livraison constituent ainsi des conditions clefs du développement du commerce sur Internet. Et les opérateurs postaux se sont ainsi trouvés au début des années 2000 sur le chemin critique du développement de ce nouveau mode de commercialisation. 38 LA JAUNE ET LA ROUGE • MAI 2012 Au Bonheur des dames La vente à distance est une pratique qui était autrefois fondée sur la diffusion de catalogues et la communication par courrier. Émile Zola décrit comment les premiers grands magasins parisiens recevaient et honoraient les commandes de leurs clientes de province. À l’époque, les colis étaient transportés par les compagnies de chemins de fer jusqu’à la gare la plus proche de l’adresse du destinataire, où des petits transporteurs, les « messagers », prenaient le relais, en facturant souvent cette prestation « des derniers kilomètres » au destinataire. De grandes enseignes comme La Redoute, Les 3 Suisses ou la CAMIF ont fait la renommée de ce mode de commercialisation. L’arrivée d’Internet a pris tous ces acteurs au dépourvu. Les nouveaux arrivants qui n’utilisaient que le canal de l’Internet (les pure players) ont proposé plus de choix, des stocks en temps réel permettant de ne pas décevoir les acheteurs par des délais de réassort, et ils ont réduit leurs charges en s’affranchissant du coûteux catalogue ou en n’acceptant que les commandes payées en ligne par carte bancaire. Ils se sont également efforcés de préparer rapidement les commandes et ont tous opté pour une livraison rapide. Des spécialistes aux généralistes Certains de ces nouveaux vendeurs à distance ont commencé par un positionnement de spécialistes (Amazon sur les livres, Pixmania sur les appareils photo numériques, CDiscount sur les DVD) avant de devenir généralistes en faisant bénéficier d’autres petits vendeurs de l’audience de leurs sites à travers des « galeries marchandes », comme les hypermarchés ont en leur temps attiré d’autres commerces. D’autres ont découvert comment Internet pouvait étendre au monde entier leur zone de cha- P.38 Copigneaux 24/04/12 16:43 Page 39 GRAND ANGLE D.R. la difficulté à répondre toujours rapidement aux commandes enregistrées. Et ils ont bien sûr immédiatement réalisé que leur activité dépendait intégralement de la livraison et donc du prestataire capable de l’assurer. landise, et qu’ils pouvaient ainsi devenir des spécialistes mondiaux du matériel de pêche, de broderie ou des équipements de moto. Pour certains articles, Internet a permis de compenser la faible efficacité de la distribution traditionnelle : le succès de la vente de chaussures en ligne s’explique ainsi en grande partie par le fait qu’un client qui entre dans un magasin de chaussures a une chance sur deux de ne pas trouver chaussure à son pied. De même, pour l’électroménager, vendre en ligne permet d’économiser des surfaces d’exposition coûteuses et bien peu utilisées. En quelques années, même chez des enseignes historiques de la vente à distance, la commande en ligne est devenue majoritaire et les principes du ecommerce se sont imposés. Boîtes normalisées L’e-commerce français bénéficie de l’initiative prise par l’administration postale à la fin des années 1970 : la boîte aux lettres normalisée (NF D 27 404 ou 405), obligatoire pour toute construction autorisée depuis le 12 juillet 1979, a un format qui permet la livraison de colis de 260 x 260 x 340 mm même en l’absence du destinataire. Grâce à ces boîtes aux lettres qui équipent 70 % des adresses françaises, La Poste arrive à livrer directement plus de 70 % des colis qui lui sont confiés. Cette méthode de distribution est évidemment particulièrement adaptée aux petits objets de faible valeur. Les points relais, une solution Une livraison en toute confiance Les e-commerçants ont redécouvert les impératifs de la préparation de commande depuis longtemps maîtrisés par leurs prédécesseurs de la VPC : optimisation du stockage et du parcours de constitution du colis (picking), sécurisation des entrepôts et du processus de transport, problématique des retours et de leur gestion, coût des emballages de transport, nécessité de disposer d’un bon service client, etc. En effet, un client qui attend son colis ou, pire, qui ne le reçoit pas, risque évidemment de ne pas refaire d’achat en ligne. Les e-commerçants ont également découvert la variabilité du rythme des commandes (saisonnalité, effet des campagnes de promotion, charge du lundi suite aux commandes du week-end, etc.) et Ventes événementielles Grâce à Internet, le métier traditionnel de la braderie, filière historique d’écoulements des invendus, a même donné naissance au secteur florissant des « ventes événementielles » avec le français Vente-Privée.com comme leader mondial. Parallèlement, les spécialistes historiques de la vente à distance ont développé en France la livraison en « points relais », c’est-à-dire dans des commerces de proximité. Cette solution a d’abord été développée pour s’affranchir des risques liés aux grèves des services publics, alors que le conflit de 1995 avait été dévastateur pour la vente à distance. Mais ce mode de livraison a très vite répondu aux attentes de certains consommateurs rarement présents chez eux lorsque les livreurs peuvent s’y présenter. Par ailleurs, la livraison en un même point de plusieurs colis et le dédommagement fort modeste versé au commerçant en ont fait un mode de livraison low-cost. Livrer à domicile, un travail de spécialiste La livraison aux particuliers à leur domicile se révèle en effet beaucoup plus compliquée que celle des entreprises. Localiser un logement précis dans un ensemble peut prendre du temps et le destinataire d’un envoi n’est pas toujours chez lui. Les spécialistes de la livraison des entreprises ont donc souvent évité de prendre des flux à destination des particuliers et La Poste a longtemps conforté sa position de spécialiste de livraison des particuliers à domicile. Ses facteurs disposent Un client qui attend son colis ou ne le reçoit pas risque de ne pas refaire d’achat en ligne ➤ LA JAUNE ET LA ROUGE • MAI 2012 39 P.38 Copigneaux 24/04/12 16:43 Page 40 GRAND ANGLE ÉCONOMIE NUMÉRIQUE : LES SUCCÈS Il n’est donc pas étonnant que plus de 97 % des acheteurs en ligne se soient déclarés satisfaits de leur achat en 2011. Moins de CO2 D.R. La vente à distance est fondamentalement favorable à la préservation de notre environnement. Une étude réalisée par la Fédération des entreprises de vente à distance (FEVAD) auprès de plus de 6 000 acheteurs à distance a démontré que ce mode de consommation permettait d’éviter des déplacements et pouvait conduire à quatre fois moins d’émissions de CO2 que l’achat en magasin. Aujourd’hui, tout le monde ou presque achète en ligne et, avec Internet, chacun peut vendre de partout et vers le monde entier, à peu près n’importe quoi. ➤ en effet d’une connaissance intime de leurs circuits de livraison, au point de s’adapter parfois aux habitudes des habitants et de pouvoir identifier un voisin de confiance pour lui demander de prendre en charge un envoi. Moins de déplacements La Poste mutualise fortement les livraisons de colis et de courrier : lorsqu’une camionnette jaune livre 100 colis, ce sont peut-être 100 particuliers qui n’ont pas eu à se déplacer. L’e-commerce contribue ainsi à limiter la congestion urbaine. Cinq modes de livraison Internet a créé de nouvelles opportunités commerciales La Poste peut maintenant offrir le choix entre cinq modes de livraison : la livraison à domicile ou au bureau, la livraison le soir sur rendez-vous à Paris, la livraison dans une consigne automatique accessible 24 heures sur 24, la livraison dans l’un des 10 000 bureaux de poste proposés ou dans plus de 3 500 commerces de proximité. Des transporteurs spécialisés effectuent par ailleurs sur toute la France les livraisons sur rendez-vous des objets lourds et encombrants, le cas échéant avec des prestations annexes d’installation. Réseau de proximité La Poste bénéficie, avec son réseau de plus de 17 000 points de contact, d’une solution de grande proximité pour mettre à disposition les colis qu’elle n’a pas été en mesure de livrer à domicile, faute de présence du destinataire. En 2011, plus de 88 % des envois ont été effectivement livrés à l’adresse de destination, et plus de 80 % des destinataires ayant retiré un envoi dans un bureau de poste se sont déclarés satisfaits ou très satisfaits de cette solution. 40 LA JAUNE ET LA ROUGE • MAI 2012 Chaque consommateur peut devenir e-commerçant Internet a non seulement permis à de nouveaux acteurs pure players de développer leur activité, mais concourt aujourd’hui au développement d’un commerce « multicanal ». On peut choisir son produit en ligne et l’acheter en magasin, ou repérer un modèle en magasin sans trouver la bonne taille et finalement la recevoir en 48 heures à domicile. Si Internet a facilité la désintermédiation et ouvert la voie à un contact direct entre consommateur et producteur ou distributeur, sans passer par des commerces locaux, il a surtout créé de nouvelles opportunités commerciales. Tout un chacun peut ainsi proposer sur la Toile ses créations ou ses objets inutilisés. Ce commerce entre particuliers se développe et remplace les brocantes d’autrefois tout en favorisant le recyclage ou l’usage multiple de certains objets, comme les livres, par exemple. Il peut même constituer une solution pour monétiser ses possessions dans un moment difficile, remplaçant ainsi le prêt sur gage de « Ma Tante ». ■ P.42 Bernard-Gely Vicat 24/04/12 8:05 Page 42 PORTRAIT PAR ANNE BERNARD-GÉLY (74) ET LAURENT IZORET déléguée générale du Syndicat français de l’industrie cimentière directeur de l’École française du béton Louis Vicat (1786-1861) Le père d’un nouvel art de construire Le nom de Louis Vicat a été inscrit une nouvelle fois, en 2011, dans la liste des personnalités honorées, dans le cadre des commémorations nationales à l’occasion du 150e anniversaire de sa mort. Cet article rappelle l’importance de sa découverte scientifique et technique. À la recherche de nouvelles techniques Nommé en 1809 ingénieur ordinaire de deuxième classe à Périgueux, il participe aux travaux d’aménagement du département et se voit confier la construction du pont de Souillac. Celle-ci avait été suspendue, l’Empire napoléonien étant financièrement exsangue. Ce concours de cir- constances va inciter Louis Vicat à rechercher de nouvelles techniques pour assurer le plus économiquement, et le plus solidement possible, les fondations du pont. En 1817, il isole un liant artificiel, le « ciment », et élabore la théorie de l’hydraulicité des chaux Ce n’est qu’en 1817 qu’il redécouvre, grâce à sa curiosité scientifique et sa culture technologique, les propriétés hydrauliques des liants : en cherchant un mortier de pouzzolane capable d’améliorer la construction du pont de Souillac dont il a la D.R. ■ Louis Vicat se présente à l’École polytechnique en 1804, à l’âge de dix-huit ans, sur les conseils du mathématicien Joseph Fourier, alors préfet de l’Isère, et réussit le concours d’entrée. En 1806, son rang de classement lui permet d’intégrer l’École des ponts et chaussées. charge, il isole un liant artificiel, le « ciment », et élabore la théorie de l’hydraulicité des chaux. On pense bien sûr au Panthéon de Rome, au Colisée ou au Pont du Gard qui témoignent, aujourd’hui encore, de la durabilité de ce premier matériau composite. Mais ce principe resta inexpliqué et la technologie du béton se perdit complètement. Une révolution dans l’art de construire Une technique perdue Les Chinois, les Grecs, les Égyptiens, les Mayas élevaient des constructions avec des mortiers à base d’une chaux obtenue par cuisson de roches calcaires, suivie d’une extinction à l’eau. Les Romains fabriquaient des liants hydrauliques, comme en témoigne Vitruve dans ses dix livres d’architecture. Ils mélangeaient de la chaux à des cendres volcaniques de la région de Pouzzoles qui, en présence d’eau, fixaient la chaux pour constituer un liant susceptible avec le sable de former un mortier, et inventèrent ainsi le « béton romain » qu’ils coulaient dans des coffrages en bois. 42 LA JAUNE ET LA ROUGE • MAI 2012 Cette découverte est à la base de la production industrielle du ciment qui a marqué une ère nouvelle révolutionnant complètement l’art de construire. Près de deux cents ans plus tard, ces découvertes demeurent le socle à partir duquel se développent les plus récents progrès en matière de liant hydraulique et de béton. P.42 Bernard-Gely Vicat 24/04/12 8:05 Page 43 Jusque-là, les fondations des piles de ponts étaient réalisées empiriquement selon un procédé coûteux à partir de poudre de tuileaux ou de pouzzolane et de chaux pour former un mortier propre à durcir sous l’eau. Face à ces questions à la fois économiques et techniques, Louis Vicat entreprend une série d’études sur les mortiers, au cours desquelles il fait de manière systématique l’analyse chimique des roches susceptibles de donner par cuisson un bon liant. D.R. En suivant de près la construction du pont de Souillac et en contrôlant avec minutie les gâchées des ouvriers maçons, Vicat a pu montrer que le bon dosage en eau conditionnait la qualité du mortier. Il a même inventé un instrument de mesure pour tester la résistance du produit qui devint « l’aiguille Vicat ». En 1822, le pont de Souillac est achevé et entre dans l’histoire : première construction au monde réalisée avec du ciment artificiel, il mesure 180 mètres de long sur 9 mètres de large et compte 7 arches surbaissées reposant sur 6 piles. Le pont de Souillac, première construction au monde réalisée avec du ciment artificiel. Louis Vicat applique ensuite ces principes en vraie grandeur; il montre alors sa qualité d’entrepreneur en contrôlant en permanence les coûts de fabrication et poursuit la mise au point de la fabrication avec le souci constant d’en minimiser le coût. Il préféra la gloire d’être utile à celle d’être riche Les ciments artificiels Un principe encore appliqué De cette approche, il tire un indice hydraulique (dit de Vicat), rapport des éléments acides aux éléments basiques : il permet de composer des mélanges de roches qui donneront par cuisson un produit qui, finement broyé, durcira sous l’eau. Ce principe de composition quantitative des matières premières de cimenterie est encore appliqué aujourd’hui. Portland et la suite En 1824, à la suite de la découverte de Louis Vicat, l’Écossais Joseph Aspdin dépose un brevet de ciment artificiel, appelé Portland (comme la roche grise extraite de la presqu’île de Portland). Puis, en 1833, un polytechnicien, Léon Pavin de Lafarge, installe des fours à chaux au Teil en Ardèche, et en 1848, la première usine de ciment, créée par Dupont et Demarle, s’installe à Boulognesur-Mer. Le résultat de ces études lui permet de découvrir en 1817 de nouvelles chaux, les chaux hydrauliques artificielles, qui peuvent à volonté surpasser en qualité les meilleures chaux naturelles, et d’établir la loi de la fabrication du ciment artificiel : l’hydraulicité des chaux, c’est-à-dire le durcissement des liants sous l’eau, est due aux proportions d’argiles contenues dans les calcaires et à la température de cuisson, ce que vingt siècles d’usage n’étaient pas parvenus à élucider. Pas de brevets Durant plus de quarante ans de carrière, Louis Vicat, précurseur de la recherche expérimentale, poursuivit son œuvre scientifique. Chez lui, le savant rejoint réellement l’ingénieur, l’observation et l’interprétation se renforcent d’indications pratiques rigoureuses. Louis Vicat ne déposa pas de brevet, considérant qu’il était redevable à la collectivité de sa formation d’ingénieur, donc de son invention. La reconnaissance du monde littéraire EXPRESSIONS Le bon dosage Tous les rapports ont mis en exergue le caractère durable et économique des inventions de Vicat et les possibilités offertes aux concepteurs, architectes et ingénieurs par le matériau naissant, le béton. Même le monde littéraire s’intéressa à ces découvertes, puisqu’en 1839 Honoré de Balzac écrivit dans Le Curé de village : « Quelle sera la récompense de Vicat, celui d’entre nous qui a fait faire le seul progrès réel à la science pratique des constructions ? » Une reconnaissance scientifique et historique La publication du travail de Vicat eut un très grand retentissement. Aussi, le Conseil général des ponts et chaussées et l’Académie royale des sciences, après avoir chargé de son examen certains de leurs membres qui, par leurs travaux antérieurs, semblaient les plus aptes à apprécier le mérite des découvertes annoncées par Louis Vicat, permirent une reconnaissance scientifique et honorifique de son œuvre. Le béton armé En 1853, son fils, Joseph Vicat, également polytechnicien (1841), crée la société Vicat et se lance dans la production industrielle du ciment artificiel inventé par son père. Parallèlement, la production industrielle ➤ LA JAUNE ET LA ROUGE • MAI 2012 43 P.42 Bernard-Gely Vicat 24/04/12 8:05 Page 44 PORTRAIT Hennebique et le bureau d’études En matière de ponts, le démarrage fut plus tardif et les premiers ouvrages d’art en béton armé datent de l’extrême fin du XIXe siècle ; c’est à François Hennebique que l’on doit la construction d’un premier grand pont, celui de Châtellerault sur la Vienne avec ses 144 mètres de long. Après des années de conception empirique, Hennebique met au point des règles de dimensionnement du béton armé et ouvre la voie du calcul et de la conception modernes. En se concentrant sur les études et la rationalisation du béton armé, il professionnalise la conception des structures et crée le bureau d’études, figure dominante de la maîtrise d’œuvre française. ➤ d’acier débute avec l’invention du four Bessemer, permettant ainsi le mariage des qualités de traction de l’acier et de compression du béton. Le béton armé naît d’abord avec la barque expérimentale de Joseph Lambot en 1848 et les caisses horticoles du jardinier paysagiste Joseph Monier en 1849, puis avec François Coignet en 1852 qui réalise les premières applications en bâtiment à Saint-Denis. L’Exposition universelle de 1900 consacre le « béton armé » Comprimer le béton de façon artificielle et permanente L’administration française accompagne cette tendance et publie en 1906 le premier règlement de calcul, officialisant ainsi la technique du béton armé dans la construction qui trouve ainsi son plein épanouissement dans la première moitié du XX e siècle, avant d’être fortement concurrencée par la technique du béton précontraint. son brevet furent la fabrication de poteaux électriques puis la consolidation de la gare maritime du Havre, dont le succès entraîna la diffusion rapide de la précontrainte dans les ouvrages d’art. Les bétons à hautes performances C’est dans les années 1980 qu’un nouveau saut technologique permet de donner de nouvelles propriétés constructives au béton, matériau désormais devenu universel. Ainsi apparaît une nouvelle génération de bétons, appelés pour la première fois bétons à hautes performances (BHP) par Roger Lacroix, lui aussi polytechnicien (46) et ingénieur des Ponts et Chaussées, et le professeur Yves Malier, précurseurs reconnus en Europe et aux États-Unis de ces nouveaux bétons, utilisés ensuite largement et en particulier dans la construction d’ouvrages emblématiques comme le pont de l’île de Ré ou la Grande Arche de La Défense. La précontrainte Le symbole de la modernité D.R. Alors que l’Exposition universelle de 1889 était celle du métal, celle de 1900 consacre le béton armé et son application généralisée dans le monde de la construction. Le béton devient alors le symbole de la modernité. Le viaduc des Usses (A 41) avec ses piles majestueuses. 44 LA JAUNE ET LA ROUGE • MAI 2012 Le principe même de la précontrainte est très ancien puisque les Égyptiens construisaient déjà des coques de bateaux constituées de planches de bois dont les joints étaient serrés sous l’effet du refroidissement de lames de fer posées à chaud. Dans les années 1900, l’idée vint aux ingénieurs d’appliquer ce principe au béton qui ne résiste guère à la traction pour limiter les fissurations : aux endroits où les charges développeront des tractions, il s’agit de comprimer le béton de façon artificielle, préalable et permanente. Les premières recherches échouèrent et ce n’est que vers 1930 qu’un autre polytechnicien, Eugène Freyssinet (18791962), également ingénieur des Ponts – et, comme Vicat, à la fois théoricien, scientifique et praticien – sut appliquer ce principe de la précontrainte au béton et mettre au point des procédés visant à donner une redistribution intelligente des sollicitations dans la matière. Les premières applications de Les débuts du béton précontraint Le phénomène de la précontrainte est apparu à Eugène Freyssinet en 1912 au pont du Veurdre, ouvrage audacieux en béton armé sur l’Allier. Peu de temps après sa construction, la voûte s’abaissait progressivement et ce déplacement devenait si dangereux que Freyssinet décida en pleine nuit de relever, avec quelques ouvriers, les arcs sans faire interrompre la circulation. Cet incident lui permit de comprendre les déformations différées du béton et de déposer en 1928 son premier brevet de précontrainte en utilisant des câbles en acier pouvant supporter des tensions initiales élevées. La course à la résistance mécanique Aujourd’hui, les progrès dans les bétons ne se situent plus seulement dans la course à la résistance mécanique mais se déclinent à l’échelle globale de la construction, en pre- P.42 Bernard-Gely Vicat 24/04/12 8:05 Un jeu de construction Pour l’architecte et le concepteur d’ouvrages, c’est un véritable jeu de construction qui s’offre à eux, jeu complexe mais pour des solutions multiples et adaptées avec l’aide des maîtres de l’art (ingénieurs, fournisseurs de matériaux, entreprises, etc.). Bétons modernes Les bétons modernes sont formulés par extension de la notion de composite : par association avec les molécules organiques qui apportent des qualités de plus en plus spécifiques comme la rhéologie ou l’incorporation de fibres de natures variées, on maîtrise aujourd’hui des bétons qui se mettent en place sous le simple effet de la gravité sans avoir recours à la vibration bruyante et pénible (bétons autoplaçants), ceux devenus ductiles par l’utilisation d’une large gamme de granulométrie de leurs composants, les « autonettoyants » par action photocatalytique de microparticules, les bétons dépolluants qui purifient l’air, les bétons phoniques destinés aux écrans acoustiques, les bétons isolants, les bétons drainants, les bétons isolants qui laissent passer la lumière, ceux à faible niveau d’émissions, les bétons de granulats légers, ceux qui résistent à de très hautes températures et même des bétons flexibles, voire rebondissants. Toujours plus d’audace dans la conception des ouvrages et des bâtiments La communauté polytechnicienne est très largement impliquée dans cet art de la conception, que ce soit pour des constructions « courantes » qui consomment plus de 85 % du béton produit, ou d’autres constructions plus exceptionnelles – comme le viaduc de Millau, l’opéra de Pékin ou d’autres ouvrages remarquables pour lesquels nos camarades Michel Virlogeux, Paul Andreu et tous les concepteurs innovants orchestrent l’utilisation de ces nouveaux matériaux. D.R. De la résistance à la performance La tour Oxygène à Lyon, réalisée suivant la démarche Haute Qualité Environnementale. Toute cette nouvelle génération de bétons a profondément modifié la construction non seulement dans son aspect technologique, réduction des coûts et des délais de mise en œuvre, qualités environnementales et sanitaires, mais aussi dans son aspect humain et social comme l’amélioration du confort et l’augmentation du niveau de qualification des opérateurs. Le béton n’est plus seulement « résistance », il est maintenant « performances », intégrant les défis de la construction durable, soutenant toujours plus d’audace dans la conception des ouvrages et des bâtiments. Et son histoire n’est pas finie, un autre saut technologique est probablement en train de s’amorcer avec les nouvelles approches du béton à l’échelle nanométrique qui permettront d’encore mieux maîtriser la rhéologie du matériau et d’en optimiser la formulation pour continuer sur les traces de Louis Vicat à s’adapter aux nouveaux défis de notre société. ■ EXPRESSIONS nant en compte son utilisation et son analyse de cycle de vie, depuis la conception, la réalisation jusqu’à la démolition. À partir d’une large gamme de ciments que l’on compose à l’aide d’ajouts maîtrisés en cimenterie, la formulation de ces bétons modernes permet, en plus des aspects de résistance mécanique, de créer des matériaux et des systèmes constructifs aux qualités adaptées aux besoins : ductilité, esthétique jusqu’à la transparence, durabilité, isolation et inertie thermique, performances environnementales et sanitaires, efficacité énergétique, réduction des consommations de matières et des coûts de la construction. Page 45 Le groupe cimentier international Vicat, entreprise française, a su garder à la fois une tradition familiale, une vocation industrielle et un management humain tout en réussissant à s’implanter dans onze pays à travers le monde et à s’imposer comme un des fleurons français à l’international. L’École polytechnique compte Louis Vicat parmi ses élèves qui ont fait honneur à la France entre 1794 et 1994 en le représentant aux côtés de Cauchy sur le triptyque du Bicentenaire de l’École situé dans le grand hall à Palaiseau. LA JAUNE ET LA ROUGE • MAI 2012 45 P.46 Bonnal 24/04/12 IN 10:22 Page 46 MEMORIAM PAR JACQUES BOURDILLON (45) Robert Bonnal (36) Apôtre de la coopération française Nous venons de perdre l’un de nos prestigieux amis en la personne de Robert Bonnal (36), Ponts 42, qui joua un rôle fondamental dans l’histoire des relations franco-africaines au même titre qu’Olivier Bigorgne, Roger Lantenois, André Lauraint et Jean Millier. De la Guinée à la rue Monsieur Ceux qui ont lu le livre de Roland Pré écrit au début des années 1950 L’avenir de la Guinée française savent que ce pays avait (et a toujours) d’immenses ressources potentielles dans les domaines les plus divers (riz, bananes, quinquina, fer, bauxite, or, diamant, énergie hydraulique). Point de vue confirmé vingt ans après par le gouverneur Masson, patron de l’éphémère MARG (Mission d’aménagement régionale en Guinée). Ceux qui ont lu le livre de Claude Abou Diakité La Guinée enchaînée, le livre noir de Sékou Touré savent que ce dictateur a non seulement massacré nombre de ses concitoyens, mais aussi compromis pour longtemps le développement exceptionnel de ce pays. Robert Bonnal savait tout cela lorsqu’il a commencé une seconde carrière en s’installant à Paris, rue Monsieur, pour devenir le pilier de la coopération de la France en faveur de ses anciennes colonies, à un triple titre : ministère de la Coopération, ministère de l’Équipement, et BCEOM (dont il était devenu président). 46 LA JAUNE ET LA ROUGE • MAI 2012 « La France s’est portée aux premières lignes de front en faveur du Tiers monde » Trente ans au service d’une cause Robert Bonnal consacre quelques pages aux trois décennies de coopération : « Pendant les années soixante, le taux de croissance est bon, voire brillant (plus de 5 % en moyenne), le développement paraît bien parti (malgré le cri d’alarme de René Dumont L’Afrique noire est mal partie), il y a l’euphorie des indépendances […]. Au seuil des années soixante-dix, les défauts structurels des États, plus ou moins masqués jusque-là, apparaissent au grand jour, il devient clair que la majorité d’entre eux fonctionnent à un train de vie qui excède leurs moyens […]. À partir des années quatre-vingt, les choses se gâtent sérieusement pour tout le monde (ou presque) à cause notamment des effets du 2e choc pétrolier (1979), les pays qui s’étaient mis à vivre sur un grand pied ne sont plus en état d’honorer le remboursement des emprunts et sont obligés de freiner brutalement. » Je terminerai par quelques mots de Robert Bonnal sur la coopération française : «Il faut d’abord dire sans faire preuve de fierté nationale déplacée que la France s’est constamment portée aux premières lignes de front en faveur du Tiers monde […] un des points sensibles du D.R. ■ Après un bref séjour en Tunisie, Robert Bonnal, mobilisé à la fin de la Seconde Guerre mondiale, arrive à Dakar en 1947. Olivier Bigorgne lui offre le poste de directeur des travaux publics de la Guinée française ; il rejoint donc Conakry et devient l’un des principaux collaborateurs du gouverneur Roland Pré dont il restera un ami fidèle. débat : monoculture ou diversification? Il ne s’agit pas d’opposer l’une à l’autre, il faut au contraire combiner partout où on le peut cultures de rente et cultures vivrières […]. La coopération française s’est toujours imposé comme ligne de conduite de ne pas discriminer ses interventions en fonction des régimes politiques adoptés par les pays partenaires […]. ■ L’amour de l’Afrique Robert Bonnal se caractérisait par de solides convictions religieuses qui lui faisaient considérer son métier comme un apostolat, un amour de l’Afrique dont il a souhaité le développement harmonieux au-delà des indépendances qu’il a toujours souhaitées, un sens aigu des réalités (il était parfaitement conscient des défauts et des qualités des hommes avec qui il travaillait), une grande générosité à l’égard de ses collaborateurs, une volonté farouche d’améliorer le vaste domaine qui lui était confié. P.47 Suchet 24/04/12 16:38 Page 47 RENCONTRES D.R. Sept promotions sous le signe des neutrons La dernière expédition insolite organisée par le binet Boson a permis à sept promotions de polytechniciens de se retrouver au polygone scientifique de Grenoble pour une plongée dans le royaume des neutrons et des rayons X. ■ La passion pour la science n’a pas d’âge et s’il fallait encore le prouver, la visite à Grenoble du binet Boson, dont l’objectif est de rapprocher étudiants et chercheurs, en serait une démonstration irréfutable. Invités par Yves Bréchet (81) et encadrés par leurs anciens de la 2006, des élèves des promotions 2008, 2009 et 2010 ont eu la chance de pouvoir visiter l’Institut Laue Langevin et l’European synchrotron radiation facility en compagnie de Frédéric Livet (67), membre de la Société française de physique, et de Robert Dautray (49), membre de l’Académie des sciences. Aussi unique que son concepteur L’Institut Laue Langevin (ILL) est né d’une collaboration franco-allemande dans le milieu des années soixante et compte aujourd’hui plus d’une trentaine de nationalités parmi ses utilisateurs. Il permet à des équipes de recherche de sonder et d’analyser des échantillons de matière grâce à un flux de neutrons généré par un réacteur nucléaire. Ces expériences couvrent un spectre extrêmement large entre physique fondamentale et diagnostic industriel. Comme l’ont expliqué J.-L. Martinez, directeur adjoint de l’ILL, et H. Guyon, chef de la division réac- teur, l’ensemble représente une véritable prouesse technique, non seulement sur le plan du génie nucléaire (l’ILL délivre le flux de neutrons le plus intense dans le monde de la recherche) mais aussi sur le plan du génie civil (il est situé au confluent de l’Isère et du Drac et subit les efforts des massifs de la Chartreuse, de Belledonne et du Vercors). Malgré cela, il peine à étonner autant que son concepteur, Robert Dautray, dont les explications et les commentaires tout au long de la visite ont vivement impressionné l’auditoire. Quarante ans après les derniers coups de crayons sur les plans du réacteur, Robert Dautray est, à 80 ans passés, toujours animé d’une même passion communicative, voire contagieuse. Des polytechniciens sous rayons X L’European synchrotron radiation facility propose lui aussi de sonder la matière, mais avec des photons plutôt qu’avec des neutrons. Un anneau long d’un kilomètre accélère des électrons dont le rayonnement est utilisé pour étudier des structures de protéines, analyser des œuvres d’art ou déterminer les propriétés d’un métal. Guidés par Frédéric Livet, Guillaume Beutier et Jean Toute particule chargée accélérée dans un champ électromagnétique émet un rayonnement ; cÕest sur cette propriété fondamentale que repose un synchrotron. EXPRESSIONS PAR DANIEL SUCHET (2008) François Bérar, les visiteurs ont pu explorer l’intérieur du long tunnel circulaire du synchrotron ainsi qu’une des lignes de lumière utilisée pour la recherche, avant de rejoindre Philippe Nozières, de l’Académie des sciences, pour un passionnant échange de physique théorique. Un passage de relais Cette visite marque également le passage de relais du binet Boson de la promotion 2009 à la promotion 2010 : c’est à présent Loïc Herviou et Thomas Strebler qui reprennent le flambeau et seront en charge d’assurer les liens entre polytechniciens et monde de la recherche. Ils ont d’ores et déjà prévu d’organiser, dans la voie ouverte par Georges Charpak, une séance de démystification des superstitions par la prestidigitation. ■ Aussi massifs que les noyaux atomiques et dépourvus dÕinteractions électromagnétiques, les neutrons sont des sondes privilégiées pour analyser, non seulement la composition structurale, mais aussi la dynamique de la matière condensée sous toutes ses formes. LA JAUNE ET LA ROUGE • MAI 2012 47 P.48 Forum social 24/04/12 16:39 FORUM Page 48 SOCIAL PAR FRANÇOIS CARN principal du collège René-Descartes (Le Blanc-Mesnil – 93), établissement classé en ZEP et RAR L’envers du décor Composer des classes raisonnablement hétérogènes Le collège unique est-il, comme l’écrivait l’an dernier un de nos auteurs, « une création utopique dont le maintien revêt le caractère d’un crime », les victimes étant à la fois les mauvais élèves, écrasés par la supériorité des bons, et ces derniers pénalisés par la nullité des mauvais ? Le problème n’est-il pas, plutôt, celui de la concentration dans certaines classes d’élèves de très faible niveau, l’hétérogénéité des classes restant maîtrisable en prenant certaines précautions ? ■ Il est évidemment plus facile d’enseigner dans une classe homogène d’élèves ayant un bon niveau mais, confronté à une classe hétérogène, il est illusoire de penser à des solutions consistant à singulariser les élèves en grande difficulté en les faisant bénéficier de mesures individuelles. En effet, ces mesures sont perçues comme des stigmatisations qui les isolent de leurs camarades, de sorte que les intéressés n’en veulent pas. Il ne peut non plus être question de regrouper ces élèves dans des classes de relégation qui les marginaliseraient définitivement. Il faut donc maîtriser l’hétérogénéité pour la rendre gérable par les enseignants, une première mesure étant de se donner les moyens de constituer des classes raisonnablement hétérogènes. Il faut maîtriser l’hétérogénéité pour la rendre gérable par les enseignants Le collège René-Descartes a défini trois critères lui permettant de classer les élèves : le comportement studieux ; la motivation et la capa- Voir aussi : « Violences scolaires : responsables et coupables » par Gilbert Castellanet (52), dans le n° 663 de mars 2011 et « La ségrégation scolaire : responsables et coupables », par François Gaudel (66), dans le n° 666 de juin-juillet 2011. cité cognitive. Chaque élève est classé sur une échelle à cinq niveaux pour chacun de ces critères. Au troisième trimestre de chaque année, les professeurs principaux sont invités à les utiliser pour préparer la composition des classes de la rentrée suivante. L’utilisation de ces critères est également recommandée aux écoles primaires du secteur, avec lesquelles des réunions sont organisées au troisième trimestre Au lieu de laisser les classes se constituer au hasard, il faut organiser leur hétérogénéité. 48 LA JAUNE ET LA ROUGE • MAI 2012 D.R. Les trois critères de l’organisation Le collège René-Descartes, Le Blanc-Mesnil (Seine-Saint-Denis). P.48 Forum social 24/04/12 16:39 Page 49 D.R. À la demande des parents, le collège maintient deux classes bilingues dans chaque niveau, lesquelles n’accueillent que des bons élèves. Cette exception nécessaire signifie une ouverture du collège vers l’excellence. Tous les deux ans, en moyenne, un élève de troisième est admis au lycée Henri-IV. Les outils numériques jouent un rôle important dans la participation des élèves. Susciter la participation de tous les élèves à la vie de leur classe D.R. S’insérer dans le milieu urbain CDI. Tous les deux ans en moyenne, un élève de troisième est admis au lycée Henri-IV. pour préparer les affectations des élèves de CM2 dans les neuf classes de sixième du collège. Pour l’ensemble des classes, le collège impose une parité entre garçons et filles et un équilibre sur les trois critères. Les enseignants sont associés à la procédure de composition de ces classes hétérogènes. L’équité de participation Il faut ensuite se donner les moyens d’enseigner efficacement dans les classes ainsi constituées. Il faut insister sur «l’équité de participation». Il s’agit de susciter la participation de tous les élèves à la vie de leur classe. Les outils numériques jouent un rôle important. D’une part les tableaux numériques interactifs (TNI) avec répondeurs, présentés dans un précédent article de La Jaune et la Rouge, mais surtout les vidéoprojecteurs à commande numérique qui sont installés dans toutes les classes et qui, déroulant le cours, permettent au professeur de s’occuper des élèves qu’il voit en difficulté. EXPRESSIONS Deux classes bilingues Une autre dimension du fonctionnement du collège est son insertion dans le milieu local urbain. Le Principal se rend disponible pour accueillir les parents. À l’initiative des conseils de parents d’élèves, ceux-ci sont appelés chaque fois qu’un incident de discipline le justifie. Chaque année, tous les parents d’élèves de troisième sont individuellement contactés pour préparer l’orientation de leurs enfants. De façon plus générale, le collège réunit régulièrement son « Comité d’éducation à la santé et à la citoyenneté» auquel participent notamment les représentants d’associations œuvrant dans le quartier. L’instauration d’un meilleur climat dans le collège a coïncidé avec la fin d’une « situation de guerre » entre deux quartiers qui sévissait il y a quatre ans. ■ Propos recueillis par Jacques Denantes (49) ZEP et RAR Les zones d’éducation prioritaires (ZEP), créées en 1981, sont des zones dans lesquelles sont situés des établissements scolaires (écoles ou collèges) dotés de moyens supplémentaires et d’une plus grande autonomie pour faire face à des difficultés d’ordre scolaire et social. En 2007, le Réseau ambition réussite (RAR) a été mis en place. Il s’agit d’un plan de relance à l’éducation prioritaire, disposant de moyens renforcés. On comptait en 2011 plus de 250 réseaux. À la rentrée 2011, ils ont été intégrés dans le programme Éclair (Écoles, collèges, lycées pour l’ambition, l’innovation et la réussite). LA JAUNE ET LA ROUGE • MAI 2012 49 P.50 Focus 24/04/12 16:45 Page 50 F OCUS X-Pays-Bas : la tulipe noire PORTRAIT Michel Bertrandias (81), président du groupe X-Pays-Bas « Un réseau convivial d’échanges culturels » Le groupe X-Pays-Bas, à vocation essentiellement culturelle et festive, s’adosse à un réseau plus large d’anciens de grandes écoles françaises. Il permet aux camarades qui résident là-bas, pour des périodes plus ou moins longues, d’être bien accueillis et de se rencontrer dans des endroits sympathiques. ■ Comment échanger dans un pays étranger entre camarades, alors que ceux-ci sont souvent de passage pour quelques années seulement ? Avec la patience et la foi de Cornelius Van Baerle, le héros de Dumas en quête de la tulipe noire, Michel Bertrandias (81) œuvre depuis sept ans au développement du groupe X-Pays-Bas, en association avec d’autres grandes écoles. Le triangle d’or « Le groupe compte en moyenne une quinzaine de camarades répartis sur tout le territoire néerlandais, dont les promos s’échelonnent entre 1970 et 2008. Les pôles d’attraction sont Amsterdam et La Haye, où je réside moi-même. Même si le pays n’est pas très grand, les déplacements peuvent prendre pas mal de temps. La plupart des manifestations sont organisées dans le Randstad (triangle Amsterdam-Rotterdam-Utrecht, incluant La Haye). « Les camarades peuvent être ici pour de longues durées, comme ceux qui travaillent à l’Office européen des brevets ou à l’Estec (European space research and tech- « C’est à l’occasion de la création du réseau Grandes Écoles PaysBas (GEPB), en 2004, que j’ai pris la décision de fonder un groupe X aux Pays-Bas, rappelle-t-il. « En effet, je connaissais d’autres groupes d’anciens de grandes écoles, comme HEC, et l’adhésion au GEPB devait se faire via un groupe existant et non en tant qu’individu. « Ce groupement a vu le jour car la plupart des écoles comptent peu d’anciens élèves ici et les groupes n’atteignent pas une taille critique suffisante pour fonctionner régulièrement. » 50 LA JAUNE ET LA ROUGE • MAI 2012 © J.-M. CHABANAS Une taille critique Le musée Frans-Hals à Haarlem, Pays-Bas. P.50 Focus 24/04/12 16:45 Page 51 FOCUS X-Pays-Bas Président : Michel Bertrandias (81) Paulinaastraat 19 2595 GG Den Haag Tél. : 00 31 (70) 382 5937 michel.bertrandias@ polytechnique.org © J.-M. CHABANAS D.R. Michel Bertrandias (81) choisit le corps de l’armement à la sortie de l’X. Après l’Ensta, travaillant dans le domaine de la simulation, il a l’opportunité de partir aux Pays-Bas en tant qu’officier de liaison et expert à l’Otan. En 1998, il est embauché à l’Otan pour travailler sur les systèmes d’information. Marié depuis vingt-sept ans, il a trois enfants dont deux résident actuellement en France pour leurs études supérieures. Joueur de football durant l’année, sa grande passion est le ski nautique qu’il pratique à un bon niveau l’été. « À cet égard, dit-il, la Floride serait plus adaptée que les Pays-Bas ! » La Haye (Den Haag). Grandes Écoles aux Pays-Bas Le réseau Grandes Écoles Pays-Bas (GEPB) regroupe des anciens élèves de Centrale, l’ENA, l’ESCP, HEC, l’Insead, les Mines, Polytechnique, Sciences-po, etc. Dans une perspective interculturelle et européenne, il propose chaque année un certain nombre de rencontres et de visites. Avec 41 528 km2, dont le quart en dessous du niveau de la mer, les Pays-Bas comptent environ 16,5 millions d‘habitants. © J.-M. CHABANAS nology Centre), Centre européen de recherche et de technologie spatiales, situé à Noordwijk. « D’autres ne restent que quelques années, trois ans en moyenne, comme ceux travaillant chez les pétroliers. Enfin, nous accueillons de jeunes camarades venant en stage pour une année environ. » Réseau et relais « Les contacts se font presque exclusivement par courriel, car nous fonctionnons à budget et cotisation zéro. Les activités sont doubles : il y a celles, peu nombreuses, organisées en propre et celles du groupe GEPB que nous relayons auprès des membres du groupe X. «Récemment, une partie des X présents aux PaysBas s’est retrouvée à l’occasion de la Chandeleur dans une crêperie à Noordwijk. Noordwijk, haut lieu de la recherche spatiale. « Quand un camarade arrive et me contacte, je m’efforce de l’aider et de répondre à ses questions. J’habite en effet à La Haye depuis dixhuit ans et mon épouse est viceprésidente de l’Accueil des Francophones de La Haye. Nous connaissons donc assez bien ce pays et de nombreuses personnes.» Trop proche de la France « Les deux principales difficultés, estime Michel Bertrandias, sont la petite taille du groupe et le turnover des membres. Certains ne découvrent l’existence du groupe que peu de temps avant de repartir. La proximité de la France fait aussi que bon nombre de membres, surtout ceux qui sont ici pour un temps relativement court, partent facilement en week-end, soit aux Pays-Bas pour visiter, soit en France. Il est parfois difficile de trouver une date commune. » Des satisfactions ? « J’aime bien rencontrer de jeunes camarades car cela me permet, en échangeant avec eux, de suivre les évolutions de l’École. » ■ Propos recueillis par Jean-Marc Chabanas (58) LA JAUNE ET LA ROUGE • MAI 2012 51 P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:49 Page53 Le 2 juin, je serai au Point Gamma Pauline Métivier, trésorière du Point Gamma 2012 Le Point Gamma, événement phare pour les promotions en place sur le campus, se déroulera cette année encore en plein cœur de l’École polytechnique. Il marque de son sceau le court mais intense passage des polytechniciens au sein de l’institution. Regroupant plus de 7 000 personnes, le gala de l’X est la plus grande soirée étudiante de France. Les Spectos sont chargés de la programmation musicale (que vous découvrirez page suivante) ainsi que des activités lors de la soirée (saut à l’élastique, combat de catch, espace mousse, etc.). Les Sponsos doivent trouver les fonds nécessaires pour assurer le caractère grandiose et unique de la soirée tout en maintenant un prix d’entrée abordable pour les étudiants. La cellule Sécu a la lourde responsabilité d’éviter tout débordement pendant la soirée et d’assurer la sécurité de chacun. Elle supervise l’ensemble du dispositif déployé pour permettre à tous de profiter pleinement de l’événement. La Technique transforme le Grand Hall en véritable discothèque et la cour Vaneau en espace musical de plein air. La BarBouffe est responsable du ravitaillement en boissons et nourriture de tous les bars, très actifs pen- © COLLECTIONS ÉCOLE POLYTECHNIQUE ■ Organiser un événement d’une telle ampleur requiert de multiples moyens. Le binet Point Gamma est composé de trente étudiants qui ne comptent pas leur temps pour permettre aux milliers de participants de passer une soirée inoubliable. Chacun joue un rôle particulier au sein du binet ; voici ces postes en quelques mots. dant la soirée. Elle sera appuyée par près de quatre cents X de la promo 2011 pour servir dans ces bars. La Manute supervise l’installation de tout le matériel non technique de la soirée, mais aussi et surtout la préparation des trente bars. Elle met en place un défilé de chars en plein cœur de Paris, le 24 mai, auquel participeront activement les X 2011 nouvellement arrivés. La Com' doit faire en sorte que tous les étudiants de la région parisienne entendent parler du Point Gamma. Ses membres sont res- ponsables de l’impression et de la distribution des affiches, des partenariats publicitaires, du site Internet et de la promotion de l’événement en général. Ils sont ceux qui doivent faire le plus avec le moins d’argent ; leur rôle est capital. Enfin le Bureau, composé du président, du vice-président et de la trésorière, est chargé de coordonner le travail de toutes les cellules et des relations avec les différents services de l’École, l’AX, ainsi qu’avec les autorités publiques. Vous l’aurez compris, le Point Gamma est l’accomplissement d’un grand projet (plus de 300 000 euros de budget) et la suite de longs mois de préparation intense. Son déroulement sur le campus même de l’École est l’un de ses points forts et un atout majeur pour que les promotions puissent s’y investir fermement. Son organisation sur le site de l’École dans les années à venir est pour autant remise en question. Nous avons besoin du soutien de la communauté polytechnicienne pour que cet événement majeur demeure à l’École, garde son empreinte polytechnicienne et ne devienne pas une simple soirée étudiante. ■ CETTE ANNÉE ENCORE, VENEZ NOMBREUX LE 2 JUIN AU POINT GAMMA LA JAUNE ET LA ROUGE • MAI 2012 53 P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:50 Page54 P OINT G AMMA Bob Sinclar D.R. Christophe Le Friant, alias Bob Sinclar, a produit des tubes dancefloor d’envergure internationale. Né en 1967 en Bretagne, il fait ses premières armes dans des clubs parisiens au début des années quatre-vingt-dix. Après un album remarqué en hommage au pape de l’electrodance Cerrone, sorti en 2000, Bob Sinclar produit les DJ’s Kid Loco ou Dimitri from Paris, et s’impose comme un fleuron de la french touch avec l’album III, qui contient les tubes The Beat Goes on et Kiss my Eyes. Bob Sinclar le Magnifique donne une suite à son célèbre album Africanism, en y apportant les beats afro susceptibles de compléter la panoplie funk et soul qui a contribué à sa notoriété. Le king de la disco soul compose le générique de la Star Academy 2006, Love Generation, avant de livrer le mix Soundz of Freedom et de réaliser la compilation Dancefloor FG Winter 2008. Le lundi 30 janvier 2012, Bob Sinclar sort son nouvel album intitulé Disco Crash. Dans cet album il est en featuring avec de nombreux artistes : Sean Paul, Snoop Dogg, Sophie Ellis Bextor et Pitbull entre autres. Michael Calfan D.R. Michael Calfan, la nouvelle priorité du label Yellow Productions, est un condensé de talent, de créativité et un travailleur acharné. « Cela faisait longtemps que je n’avais pas ressenti un tel talent chez un jeune artiste », dixit Bob Sinclar. Michael Calfan dévoile en 2011 son tube Resurrection, produit par Axwell. Le succès est immédiat et la chanson se hisse en tête de toutes les playlists électro. Pablo Denois D.R. Venu tout droit de Leverkusen, Pablo Denois fait partie de la nouvelle vague de DJ’s allemands qui déferle sur l’Europe. À tout juste 19 ans, il s’est déjà forgé une véritable identité à travers des tubes comme Shunky Fit ou Rockin’Well. Majoritairement influencé par Hardwell et Nicky Romero, Pablo Denois mêle à la fois mélodies entraînantes et beats dévastateurs dans ses chansons. 54 LA JAUNE ET LA ROUGE • MAI 2012 P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:51 Page55 POINT GAMMA Alexandra Stan D.R. Jeune artiste roumaine pleine de talent, Alexandra Stan est née le 10 juin 1989 à Constanta. Elle participe à différentes compétitions de chanson, pour finalement sortir en 2009 son premier single, Lollipop. Elle connaît ensuite un succès planétaire avec ses tubes Mr Saxobeat et Get Back. Sa musique sensuelle, aussi envoûtante que son physique doré, rencontre un triomphe fracassant dans les clubs à travers l’Europe. Example D.R. Elliot John Gleave, plus connu sous le pseudonyme Example (né le 20 juin 1982), est un rappeur britannique. Chanteur aux influences rap-électro-pop, il se démarque en 2009 avec le tube Watch the Sun Come Up qui le place numéro un des charts en Angleterre. Son troisième album, Playing in the Shadows, sorti en septembre 2011, se propulse directement en tête des charts britanniques, avec notamment deux singles classés numéro un, dont le célèbre Changed the Way You Kiss Me. Uffie D.R. Uffie est une chanteuse de musique électronique américaine. La jeune artiste est devenue presque malgré elle une égérie de sa génération. Révélée sur Internet, l’Américaine née en Floride n’est pas, comme beaucoup aujourd’hui, un symptôme de l’époque, elle en est un visage. Et la sortie de Sex Dreams & Denim Jeans vient brillamment le prouver. Avec cet album, Uffie signe le manifeste d’une jeunesse dont elle saisit mieux que personne les espoirs et les doutes. Electric Suicide Club D.R. Vitesse et légèreté : voilà qui pourrait bien qualifier le rock débridé d’Electric Suicide Club. Et de cet esprit frondeur et agité, le groupe n’en manque pas sur scène. Un vrai bonheur à partager sans modération tant leur Indie punk s’approche de l’essence même du rock : à fond et en deux minutes chrono. LA JAUNE ET LA ROUGE • MAI 2012 55 P. 56 Point Gamma_essai_JR Focus.indd 27/04/12 13:42 Page56 © COLLECTIONS ÉCOLE POLYTECHNIQUE P OINT G AMMA 56 LA JAUNE ET LA ROUGE • MAI 2012 P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:53 Page57 Par Émile Lemoine (1860), premier organisateur du Point γ Extraits d’une Notice rédigée en 1901. Le choix des passages et les intertitres sont de l’actuelle Rédaction. À mes chers camarades, à leurs dames, à leurs demoiselles, etc. Le soleil passe ordinairement au point vernal sur l’équateur, c’est-à-dire au point γ, à l’équinoxe de printemps. Cette année, c’est le 21 mars à 7 h 32 min 11 s, temps moyen civil de Paris ; mais les polytechniciens sont assez forts, par définition, en astronomie, pour modifier cette date avec effet rétroactif, s’il en est besoin, voilà pourquoi nous pouvons célébrer la fête du Point γ le 24 avril. ■ En 1861, j’étais jeune et beau, la jeunesse n’est plus, j’aime à croire en revanche que personne ne me démentira quand je dis que la beauté est restée, tout en changeant légèrement de caractère, donc j’étais jeune et beau, et de plus j’avais pour professeur de géodésie, ainsi qu’à peu près tous mes cocons d’ailleurs, le capitaine Laussedat (depuis colonel et ancien directeur du Conservatoire, sinon de Musique, au moins des Arts et Métiers), savant bien connu et que j’ai l’honneur de compter parmi mes meilleurs amis. Il avait trente-cinq ans environ, ce qui ne nous empêchait pas de l’appeler le Père Laussedat. De l’ennui à la fête Ne digressons pas trop. La géodésie est une noble science, captivante quand on la cultive, utile entre toutes, seulement l’apprendre au tableau en trente leçons, se mettre dans la tête des formules, les repères, les précautions de la pratique, etc., oh ! Jamais pour autre chose l’ennui ne se concentre à un tel degré. Le point γ avait un beau rôle dans toute une partie du cours où cette lettre fatidique apparaissait à chaque instant, et je ne sais quelle idée me vint (par antinomie sans doute, puisqu’il nous avait tant ennuyés) de célébrer le passage de Phoebus Apollon au point γ par une fête renouvelée des peuples adorateurs du soleil. S’amuser le plus possible Je précisai mon idée, elle mûrit rapidement dans l’austérité silencieuse de mes méditations, j’esquissai un plan, je fis passer un topo, d’abord dans notre promotion où la proposition eut le succès qu’elle méritait; puis nous honorâmes nos conscrards, ces conspuables glands jaunes, en leur communiquant le projet ; ils n’avaient qu’à s’incliner respectueusement, mais ils le firent avec enthousiasme. Le plan était simple : s’amuser le plus possible dans le cadre d’une fête avec ouverture musicale, chansons, grand défilé costumé, bannières illustrées et danses. Le père et la mouche C’était donc décidé, mais de la coupe aux lèvres quelle distance ! Obtenir l’autorisation pour une chose sans précédent et aussi peu réglementaire, ou au moins avoir l’assurance de l’obturation oculaire de l’autorité de l’École pour les préparatifs et pour l’exécution ; trouver les éléments d’un orchestre dans les deux promotions, avoir une POINT GAMMA Notice sur la Fête musique originale pour l’ouverture, répéter, fournir aux camarades les moyens de se costumer en les leur présentant de manière qu’ils n’aient plus qu’à les mettre en œuvre, préciser tous les détails, etc. C’était ma besogne obligatoire, car dans toute chose qui se crée, il faut une mouche du coche qui bourdonne sans relâche et surtout agisse. Père du Point γ , j’en fus aussi la mouche. Un costume pour chacun Pendant cinq semaines, à toutes les sorties du mercredi et du dimanche, je me fis courtier ; je prenais les commandes des cocons et des conscrits : masques, papiers dorés, chinés, gaufrés, coloriés, oripeaux, étoffes, objets biscornus, selon la fantaisie de chacun. Je les cherchais dans Paris aux endroits idoines et je les rapportais à l’École où je les livrais aux clients le lendemain dans leurs salles respectives. Avec cela et divers objets empruntés au matériel de l’École, grands rideaux rayés de bleu qui entouraient les lits, rideaux gris des fenêtres, abat-jour des lampes, etc., chacun de nous se composa un costume. Cornu se chargea de composer l’ouverture, un pot-pourri des airs de l’École. LA JAUNE ET LA ROUGE • MAI 2012 ➤ 57 P. 53-60 Point Gamma_JR Focus.indd 26/04/12 07:02 Page58 P OINT G AMMA ➤ Cueille le jour présent J’aurais été heureux aussi de reprendre mon bâton de chef d’orchestre et de conduire devant vous, à trente-neuf ans de distance, l’ouverture du Point γ. Mais il y a pour moi, dans ce rôle, des impossibilités de santé devant lesquelles je m’incline avec philosophie (ne pouvant faire autrement) ; je cède la place au jeune Protée, réincarné sous les apparences de notre ami Gariel, j’admirerai sa maestria et vous vous direz : voilà comment était jadis le comparable Lemoine. Je ne suis pas du tout de l’avis de Boileau quand il prétend que le moi est haïssable ; je m’aime beaucoup et je juge le mien tout à fait charmant. J’espère d’ailleurs trouver près de vous de l’indulgence, parce que je suis persuadé que ceux qui me connaissent pensent de moi beaucoup de bien que je n’en puis dire, tant à cause de ma modestie que pour ne pas humilier les camarades. Sur ce, je vous confie comme conclusion ma maxime favorite : … dum loquimur fugerit invida Aetas, carpe diem, quam minimum credula postero 1. ■ 1. « Pendant que nous parlons, le temps jaloux s’enfuit. Cueille le jour présent sans trop croire à l’avenir » (Horace, Odes). Éclipse de soleil Extraits d’un article du début du XXe siècle. Le choix des passages et les intertitres sont de l’actuelle Rédaction. Lancé en 1862, le Point γ fut interrompu en 1870. Il fit sa réapparition en 1877, pour être de nouveau suspendu en 1880, au motif du temps excessif que les élèves y consacraient. Nous décrivons ici les deux dernières éditions de 1878 et 1879. La tradition fut reprise quelques années plus tard. ■ En 1878, Dou représentait le soleil, Humbert était chef d’orchestre, la paysanne court-vêtue était Homolle. Ces trois camarades sont aujourd’hui ingénieurs des Ponts et Chaussées. Quant à la séduisante Italienne, elle est devenue le révérend père Marchal, de la Compagnie de Jésus. 58 vêtus, de défroques bigarrées. Leur chef seul portait correctement l’habit noir. C’est ainsi qu’on va se tenir en joie jusqu’à l’heure du souper, auquel l’indulgence paternelle du général permet d’ajouter quelques douceurs, douceurs militaires bien entendu. sur les autres pour mieux voir. Mais le soleil est deux fois de la fête. À l’heure où il ira se coucher, son substitut terrestre aura encore quelques heures de royauté éphémère. Le bal se prolonge jusque bien avant dans la soirée, dans une tente construite ad hoc et décorée de pochades fantaisies. Premières lampes électriques Deux ou trois cents costumes Trop, c’est trop Les salles de billard, transformées pour la circonstance en galerie des glaces, sont éclairées par la lumière électrique. Signalons, parmi les principaux travestissements, le vrai kiosque à journaux de la salle 16, un majestueux grand prêtre, un sous-préfet, un artilleur de la garde, un juge, un postillon, un officier de marine, un zouave, un pompier, un jockey et la foule des pierrots, débardeurs, gentilles soubrettes, élégants toréadors, etc. Ajoutons que les musiciens de l’orchestre étaient couverts, plutôt que En 1879, le soleil était Belot, ingénieur des tabacs ; le chef d’orchestre Vallet, capitaine d’artillerie. Citons, parmi les nouveaux costumes, un véritable cardinal sur sa mule, un obélisque couvert de hiéroglyphes, un poireau monstre accompagné d’une carotte géante, de vrais pauvres en haillons, une immense cocotte en papier, des astrologues, des magiciens, etc. Deux ou trois cents costumes tourbillonnent dans la cour. Les maisons voisines, avec leurs façades roussies et lézardées qui surplombent, semblent grimper les unes Maintenant, faut-il le dire? Les premiers essais de Point γ nous paraissaient plus gais. C’était l’enfance de l’art, mais l’enfance avec ses jolies naïvetés et son rire sonore. Le bal du 15 mars 1879 rappelle ses aînés, comme l’arlequin moderne, brodé et passementé rappelle le héros de la comédie italienne dans ses loques bigarrées. Trop de soie, trop de perruques blondes, trop de lumière. À force de vouloir se surpasser, on en était arrivé à des excès. L’autorité s’émut et la fête du Point γ fut interdite. ■ LA JAUNE ET LA ROUGE • MAI 2012 P.61 Poincaré 24/04/12 16:56 Page 61 CENTENAIRE DE LA DISPARITION D’HENRI POINCARÉ NANCY 1854 – PARIS 1912 Hommage numismatique DE M ÉD AIL LE C’est une médaille qui a fait connaître Henri Poincaré au public : la médaille en or attribuée en 1889 au lauréat du concours organisé par le roi de Suède Oscar II sur la stabilité du Système solaire. DU ROI DE È SU ZE , Plus récemment, Raymond Corbin (1907-2002) a gravé une médaille qui représente Henri Poincaré de face, à l’avers, et, au revers, la porte de sa maison natale à Nancy ; y figure également cette belle citation : « La pensée n’est qu’un éclair au milieu d’une longue nuit… mais c’est cet éclair qui est tout. » RB IN (1971), BRON N D GON ORT 1 M M. ,4 O (1954), BR EC H G UZ MA N ZE ,6 00M M. CO 72 MM. PRUD’HOMME (1934), BRONZE, ENV. 58 X 78 MM. Bien entendu, la notoriété de cet immense savant a été honorée de plusieurs médailles ou plaques en bronze. Celles que je connais ont été frappées ou fondues par la Monnaie de Paris. Georges-Henri Prud’homme (1873-1947) a réalisé une jolie plaquette, de style Art nouveau, qui montre, à l’avers, Poincaré de profil et, au revers, la Science éplorée qui dépose une gerbe de fleurs sur une stèle funéraire qui porte l’inscription : « À Henri Poincaré la science reconnaissante, MDCCCCXII. » AR L D( 1993 ), MAI L Mentionnons également l’important médaillon, d’une soixantaine de centimètres de diamètre, modelé par Aleth Guzman-Nageotte (1904-1978), sans doute pour le centenaire de la naissance de Poincaré qui est, ici aussi, représenté de profil. Ce médaillon se trouve à l’entrée de l’Institut Henri Poincaré. Pour ma part, j’ai eu l’honneur de me voir confier plusieurs commandes de travaux en hommage à Henri Poincaré. En 1993, tout d’abord, à l’occasion du Bicentenaire de l’École polytechnique, j’ai réalisé une série de douze petites médailles en maillechort (frappe monétaire, qualité épreuve) consacrées à des polytechniciens qui ont marqué leur époque. Bien entendu, Henri Poincaré était l’un d’eux. En 2010, l’Institut Henri Poincaré m’a commandé une grande plaque en bronze pour son entrée. Elle représente Henri Poincaré au milieu d’une évocation de ses travaux : le problème des trois corps, la topologie, les probabilités, la théorie du chaos, etc. G O ND N ZE , 72 MM. GONDARD (2010), BRONZE, 410 X 500 MM. O BR ARD (2012), Aujourd’hui, la célébration du centenaire de sa disparition me donne l’occasion de créer une nouvelle médaille, en bronze, qui s’inscrit dans une collection consacrée aux grands mathématiciens. À l’avers de ces médailles figure une effigie du mathématicien dont les œuvres sont évoquées au revers. Claude Gondard (65), artiste médailleur LA JAUNE ET LA ROUGE • MAI 2012 61 P.62-66 Arts et Lettre 26/04/12 7:34 Page 62 ARTS, LETTRES ET SCIENCES MUSIQUE EN IMAGES BÉLA BARTÓK : CONCERTO POUR ORCHESTRE Orchestre philharmonique de Radio France, dir. Myung-Whun Chung Présenté par Jean-François Zygel, « Les clés de l’orchestre » 1 DVD Naïve ■ Les talents de pédagogue de JeanFrançois Zygel sont désormais unanimement connus. Avec ses conférences tout d’abord, rapidement filmées et diffusées à la télévision et en DVD, puis ses émissions didactiques également à la télévision, il est devenu le symbole de la musique classique « expliquée », et donc de la musique classique rendue accessible à tous. Après une série consacrée aux plus grands compositeurs (tous ses DVD sont à conseiller, mais ses analyses des Français Debussy et César Franck nous paraissent particulièrement passionnantes), Zygel a entamé une belle collection plus ambitieuse qui consiste à décortiquer une œuvre symphonique, avec l’appui de l’Orchestre philharmonique de Radio France et de son chef coréen MyungWhun Chung. Après la Symphonie du Nouveau Monde, la Symphonie pastorale, le Boléro de Ravel, Zygel nous présente ici le Concerto pour orchestre de Béla Bartók. Ayant fui le nazisme aux États-Unis, Bartók, à soixante-deux ans, est malade et sans subsistance à partir de 1942. La Société des auteurs américains, sous l’influence du chef d’orchestre Serge Koussevitzky, lui commande ce Concerto pour orchestre. Le titre Concerto pour orchestre est évidemment un oxymore, puisque habituellement un concerto fait intervenir un ou plusieurs solistes pour concerter justement avec l’orchestre. Le titre montre le besoin de vir62 LA JAUNE ET LA ROUGE • MAI 2012 tuosité de l’orchestre dans cet œuvre, virtuosité comme celle d’un soliste de concerto, et signifie aussi que Bartók fait intervenir des soli de la plupart des instruments, ou même de pupitres entiers, tout au long de l’exécution. Les explications linéaires de Zygel, avec le soutien de son piano ou de tout l’orchestre, maintiennent l’intérêt et restent continûment pertinentes. Elles analysent notamment les thèmes du Concerto, et mettent l’accent sur les signes reconnaissables du style de Bartók, tels que les mélanges de rythmes et d’atmosphères, thèmes folkloriques, et son constant hommage à Bach (ostinato, contrepoint, canons et fugue, choral, etc.). Ces explications sont parfois agrémentées des commentaires de Myung-Whun Chung qui parle un français parfait (il dut remplacer Daniel Barenboïm à la tête de l’Opéra Bastille à la fin des années 1980). De plus, les commentaires du livret, très riches et très documentés, permettent d’aller encore plus loin dans l’analyse du contexte de composition de l’œuvre. Le DVD contient naturellement aussi l’exécution intégrale de l’œuvre. Grâce aux images très bien réalisées, avec des gros plans pertinents (les bois, les pupitres de cordes) et aux explications de Zygel, cette œuvre emblématique devient aussi accessible que du Beethoven ou du Mozart. ■ RÉCRÉATIONS SCIENTIFIQUES Jean Moreau de Saint-Martin (56) [email protected] 1) POSITIF EN TOUT ESPACE Montrer que AB 2 + BC 2 + CD 2 + DA 2 – AC 2 – BD 2 ≥ 0, quels que soient les points donnés A, B, C, D, pas nécessairement dans le même plan. 2) D‘UNE DIFFÉRENTIELLE L‘AUTRE Soit y une solution de l'équation différentielle ay'' + by' + cy = 0, où a, b, c sont des fonctions données de x. Montrer que z = y 2 vérifie une équation différentielle Az''' + Bz'' + Cz' + Dz = 0, A, B, C, D étant des fonctions de x, les mêmes quelle que soit la façon dont on a choisi y. 3) COMBINAISON CACHÉE Dans une variante simplifiée d'un jeu de réflexion bien connu, Jules doit deviner une combinaison de 5 couleurs choisie par Romain (sans répétition) dans un ensemble de 8 couleurs. Jules propose des combinaisons de 5 couleurs, et obtient de Romain, en réponse, les scores correspondants (nombre de couleurs de la combinaison proposée qui sont présentes dans la combinaison à deviner). De combien d'essais Jules a-t-il besoin pour être sûr d'identifier la combinaison cherchée parmi les C 58 = 56 possibles? a) s'il doit donner un programme complet de combinaisons avant que Romain commence à répondre, b) s'il obtient les réponses une à une et peut ajuster la question suivante en fonction des réponses reçues. Solutions page 66 BRIDGE Gaston Méjane (62) 1) ÉNONCÉS Ce mois-ci une donne de la division nationale par paires 2. LES ENCHÈRES O N E 1♥ – X – – – S 3SA Ouest entame le 7 de ♦. Quel est votre plan de jeu? Solutions page 66 Marc Darmon (83) SUD ♠ V ♥ A ♦ 8 ♣ A NORD ♠ D 8 6 3 ♥ 5 ♦ A R D 10 9 ♣ V 7 4 10 2 D 9 5 9 8 6 3 P.62-66 Arts et Lettre 26/04/12 7:34 Page 63 ARTISTES INSPIRÉS OU ARTISANS APPLIQUÉS La sincérité est un calcul comme un autre. JEAN ANOUILH, Becket ■ Il est tentant de distinguer celui qu’une force irrépressible pousse à créer sans souci de trouver un public, comme Rimbaud, Van Gogh ou Monk, de celui dont le but premier est de parvenir à vendre le produit de son travail, comme Monet, Balzac ou Ellington. Mais y a-t-il une réelle opposition entre les œuvres « spontanées » et les œuvres dites alimentaires ? À l’écoute, peut-on faire la différence entre un interprète habité par ce qu’il joue et un autre dont le jeu est dicté par le souci de séduire le public ? Une œuvre de commande est-elle moins sincère qu’une pièce composée pour soi-même ? Bach Pour Bach, cette distinction est vaine, comme le montre un enregistrement récent de l’ensemble Le Banquet céleste dirigé par le contre-ténor Damien Guillon : deux très belles cantates avec voix d’alto solo, Geist und Seele wird verwirret et Vergnügte ruh, beliebte Seelenlust, compositions hebd o m a d a i re s auxquelles Bach était tenu par son contrat de maître de chapelle de Leipzig ; la monumentale Fantaisie et fugue pour orgue en sol mineur, écrite sans doute en mémoire de sa femme Maria Barbara, et la transcription pour orgue de la Sonate en trio n° 3, avec Maude Gratton à l’orgue de l’église réformée du Bouclier à Strasbourg 1. Aucune différence de niveau, est-il besoin de le dire, entre ces quatre œuvres – mais peut-on parler de niveau pour Bach ? Les Variations Goldberg sont l’exemple même de l’œuvre de commande – pour meubler, dit-on, les insomnies du comte de Kaiserling – qui est en même temps un chef-d’œuvre intemporel. Le claveciniste français Frédérick Haas les a enregistrées sur un clavecin Hemsch de 1751 pour l’ambitieuse collection La Dolce Volta 2, qui veut faire du CD un objet de luxe, démarche courageuse pour renouveler et sauver l’édition phonographique menacée par les téléchargements et le piratage. Comparée aux versions de référence jouées au piano par Glenn Gould et Murray Perahia, cette interprétation sur un clavecin d’époque se situe sur un autre registre, si l’on peut dire, moins abstraite, plus fragile, plus humaine. Exceptions John Cage aurait eu cent ans cette année. Schoenberg, dont il fut l’élève, ne le considérait pas comme un compositeur, mais comme un « inventeur de génie ». Cédric Pescia vient d’enregistrer l’intégrale des Sonates et Interludes pour piano préparé 3, pièces qui méritent la découverte pour ceux qui ne sont pas familiers de la musique de cet artisan minutieux et profondément original, qui occupe une place à part dans la musique du XXe siècle. Il s’agit de pièces très courtes (de deux à quatre minutes en général), qui mettent à profit les timbres multiples que l’on peut extraire des cordes du piano en le préparant. Le résultat est une musique au pouvoir apaisant et presque hypnotique, semblable, d’une cer- ARTS, LETTRES ET SCIENCES DISCOGRAPHIE taine manière, aux musiques traditionnelles tibétaines ou balinaises. Avec l’album Va et reviens , notre camarade pianiste François de Larrard (78) a enregistré le troisième et dernier opus de son quintette de jazz contemporain Rose Vocat 4. Les aficionados du jazz, les familiers des concerts Jazz X connaissent bien le jeu aérien et rigoureux de notre camarade (qui touche également du clavecin et joue aussi bien Couperin). Ce dernier disque, qui rassemble des compositions de François de Larrard et de son trompettiste Evans Gouno, a les mêmes caractéristiques que les précédents : arrangements rigoureux, rythmes complexes, structures modales, un jazz sans concession, presque austère, plus proche de Bartók que des Jazz Messengers, et qui surtout est parfaitement original, même s’il avoue quelques emprunts à Monk. Enfin un interprète qui ne se prend pas au sérieux et qui nous donne une petite merveille de musique pure, sans ambition autre que de réjouir l’âme : sous le titre Banalités, le ténor Thomas Blondelle, accompagné au piano par Daniel Blumenthal, a enregistré trente et une chansons de Poulenc, Satie, Ravel, Rossini, Brahms, Mahler et bien d’autres, en passant par Richard Strauss, Copland, Berio 5, sans oublier l’inoubliable Cathy Berberian et son Stripsody, hilarante plaisanterie musicale. Des pièces exquises et jubilatoires, sur des textes qui se veulent banals : Hôtel, Sur l’herbe, Lob des hohen Verstandes, Schlechtes Wetter, The Lady who Loved a Pig , Red Roses and Red Noses, Amor marinato, etc. Au fond, si l’on excepte quelques rares moments d’exaltation ou de gravité, que nous soyons artistes ou artisans, nos vies elles-mêmes ne sont-elles pas tissées de ces banalités que nous pouvons, pour peu que nous ayons la grâce, sublimer en autant de petits bonheurs ? ■ Jean Salmona (56) 1. 1 CD ZIG ZAG. 2. 1 CD DOLCE VOLTA. 3. 1 CD AEON. 4. 1 CD [email protected]. 5. 1 CD FUGA LIBERA. LA JAUNE ET LA ROUGE • MAI 2012 ➤ 63 P.62-66 Arts et Lettre 26/04/12 7:34 Page 64 ARTS, LETTRES ET SCIENCES ➤ MAGNAN CARTOUCHE D’ENCRE LIVRES LES GRANDS ENSEMBLES Pierre Merlin (57) Paris – La Documentation française, direction de l’information légale et administrative – 2010 On parle aujourd’hui des cités ou des quartiers sensibles. Ils ont été construits pendant les trente glorieuses et on les appelait alors les grands ensembles. Ils constituaient la principale réponse à la crise du logement de 64 LA JAUNE ET LA ROUGE • MAI 2012 tes, propices à séduire aussi bien nos solides gaillards que les inoffensifs convives que nous sommes. Dans une carte aux plats variés, évoquant un terroir dompté par les idées modernes, je choisis une terrine de veau qui malheureusement ne tiendra pas tout à fait ses promesses (un peu trop grasse, comme devaient l’apprécier, sans doute, les bandits d’antan). Je regrette de ne pas avoir choisi (goûtée dans l’assiette de ma voisine) la grecque tiède de champignons à la coriandre, plus subtile. Heureusement, le sancerre me trouble et m’enivre de sa gouleyante palette et le pain, un campagnard à la parisienne, est délicieux. Soucieux d’échapper à la crise de goutte, nous continuons par un filet de bar de ligne sur son lit de betteraves râpées, honorable. Malgré ces agapes, je n’ai pas pu résister à l’élégance sucrée du macaron blanc orné Le Repaire de Cartouche, 8, bd des Filles-du-Calvaire, Paris XIe. Vendredi 30 mars 2012. l’après-guerre. Pour la première fois, l’État investissait massivement dans le logement social. Les architectes prétendaient mettre en œuvre la charte d’Athènes (inspirée par Le Corbusier). Les premiers habitants y ont trouvé un logement correspondant à la taille de leur famille et doté de tout le confort sanitaire, ce qui n’était le cas que de 2 % des logements français au sortir de la guerre. Dès les années 1960, on a fustigé la monotonie de l’architecture, l’absence d’emplois, de commerces et d’équipements à proximité, etc. À partir de 1978, la réforme du financement du logement incita les ménages à revenus moyens à acquérir une maison individuelle en périphérie des villes. Ils furent remplacés par des familles plus pauvres, souvent d’origine étrangère (on était à l’époque de la résorption des bidonvilles et du regroupement familial). On connaît la suite : paupérisation, chômage, montée du racisme, sentiment d’exclusion, trafics, violence, émeutes. Depuis les années 1970, les gouvernements ont multiplié les plans, tantôt pour améliorer le cadre bâti, tantôt pour aider à créer des emplois. Ces plans, dont le dernier avatar est le programme national de rénovation urbaine, n’ont pas été inutiles. Ils ont ralenti la spirale négative, mais sans l’interrompre. D.R. ■ Le magnan de La Jaune et la Rouge, ça se passe chez Cartouche. Aussi ai-je suivi le bouclage du journal qui s’achève, chaque dernier vendredi du mois, dans ce restaurant pour un rituel de détente. Il va sans dire que ce nom de Cartouche n’est pas sans provoquer une certaine appréhension de ma part : repaire de brigands? Tire-laine prêts à dérober mon portefeuille ? Gargote à étouffe-chrétiens? Notre arrivée dans la sombre taverne évoque un refuge confortable et discret, à la mesure de personnages ambigus tel notre terrible Rédac-Chef. Dans ce monde d’hommes, la secrétaire de rédaction, aux yeux innocents et cheveux blonds, fait figure de Constance parmi les mousquetaires. Le tavernier (comment l’appeler autrement) nous accueille de sa haute taille chaleureuse, on sent les habitués. Dès que nous sommes installés, une accorte servante nous apporte un vin blanc qui chatouille agréablement le palais. Il est accompagné d’amusegueule, crème de pissenlits et rillet- de quartiers de mandarine, qui m’est servi en fin de repas ; très spectaculaire à l’œil, un peu moins au palais. En sortant du lieu, un peu étourdie, je me dis que l’essentiel de ce repaire, c’est la gentillesse de l’accueil, le caractère reposant du lieu, la bonne humeur du groupe avec lequel j’ai déjeuné – et la bonne tenue des vins. Après cette halte conviviale, j’ai décidé de mettre mon grain de sel dans tous vos repas de groupes. Alors chers X gourmands ou gourmets, n’hésitez donc pas à m’inviter. ■ Lady GastronomiX P.62-66 Arts et Lettre 26/04/12 7:34 Page 65 André Grimaldi, Didier Tabuteau (78), François Bourdillon, Frédéric Pierru, Olivier Lyon-Caen Odile Jacob – 2011 Le système français de santé était classé premier dans le monde en 2000, une nouvelle analyse a été faite en 2011. En une décennie, nous avons subi plusieurs crises : crise économique 2008-2011 (ralentissement de la croissance mondiale), crise de la santé en France (sang contaminé, canicule 2003, hormone de croissance et on oublie la prévention), crise d’identité professionnelle (accroissement de l’écart entre mission et moyens, coût des moyens), crise démographique (réduction de 1970 à 1990 du nombre des médecins formés). Nous avons subi une déconstruction des services publics de santé (les sept points suivants) : la distinction public-privé est progressivement effacée ; la tarification à l’acte a eu des inconvénients (aggravation des inégalités) ; la dérive des dépassements d’honoraires ; des hésitations entre avancées et renoncements : pas assez de sécurité routière et d’IVG, trop d’alcool et de tabac ; l’insuffisance de la place accordée aux associations de patients ; l’augmentation du « reste à la charge du patient » (forfaits, franchises, dépassement d’honoraires) ; le débat sur la « dépendance » est enfin amorcé mais il l’est à peine. Six propositions en vue d’une nouvelle politique : solidarité (entre malades et bien portants, riches et pauvres) ; égalité (accès à des prestations identiques) ; prévention (nous n’y consacrons que 7 % des dépenses de santé ; domaines à développer) ; qualité des soins (d’abord guidage par les généralistes et les pharmaciens, évaluation des résultats) ; éthique médicale (autonomie du médecin, prescription du juste soin au juste coût) ; démocratie sanitaire (la part des richesses à consacrer à la santé peut résulter d’un choix démocratique). Il faut donc conforter et développer les quatre services publics de santé : – service public d’assurance maladie (pour un accès universel) : améliorer les remboursements, – service public de médecine de proximité à reconstruire (délégué aux médecins libéraux éventuellement regroupés), – service public hospitalier à refonder (réduit aux hôpitaux et aux cliniques avec des dépassements), – service public de sécurité sanitaire et de prévention collective à instituer (police sanitaire, veille épidémiologique, vigilance sanitaire, médecine du travail, médecine scolaire, médecine de PMI, promotion de la santé). Nous ne pouvons, faute de place, citer les 123 signataires, mais nous croyons utile cependant d’évoquer : Olivier Bernard (Médecins du monde), François Bourdillon, Rony Brauman, André Grimaldi, Stéphane Hessel, Évelyne Lenoble, Olivier Lyon-Caen, Frédéric Pierru, Didier Tabuteau (78), Pierre Tartakowsky (droits de l’homme), Michel Tubiana. Jacques Bourdillon (45) 15, rue Soufflot, 75005 Paris. www.odilejacob.fr Le livre de Pierre Merlin replace ces quartiers en difficulté dans la longue durée. Ils sont nés d’un mouvement d’idée (le mouvement moderne) né entre les deux guerres, qui a rallié tous les acteurs après la guerre. Après la satisfaction des débuts, ils ont subi une longue descente aux enfers. La crise des grands ensembles ne serait que le reflet exacerbé de la crise actuelle de la société française. Une solution est-elle possible ? Il faudra beaucoup d’argent, beaucoup de temps (au moins une génération) et surtout beaucoup de volonté collective. Madeleine Jullien Conservatrice générale des bibliothèques 29, quai Voltaire, 75007 Paris. www.ladocumentationfrançaise.fr. LA ONZIÈME HEURE Isabelle Pestre épouse de Gilles Pestre (76) et mère de Renaud Pestre (2008) Belfond – 2011 Ce premier roman est de ceux dont le souvenir vous habite longtemps après l’avoir refermé. L’histoire est simple, sinon ténue. Lisbeth a onze ans, ce sont les vacances au bord de la mer. Elle est sensible et délaissée par son entourage. Une amitié comme un coup de foudre la lie à un jeune homme étrange; l’enfance bascule à jamais. Elle deviendra une femme secrète, insaisie (selon le mot du poète), au seuil d’elle-même. Lisbeth vit sans exister, comme ces ouvriers de la parabole qui attendent avant d’être embauchés par le Maître de la vigne. (La parabole se trouve dans le Nouveau Testament au chapitre 20, versets 1 à 16 de l'Évangile selon saint Matthieu.) Certains sont pris dès le matin, d’autres plus tard. Quand arrive le soir, à la onzième heure, alors qu’il ne reste plus qu’une heure de travail, le Maître vient encore une fois chercher des ouvriers. Bien des hommes sont partis, certains n’y croient plus, d’autres refusent son appel. De même, quand sonnera pour Lisbeth « la onzième heure », l’ac- LA JAUNE ET LA ROUGE • MAI 2012 ARTS, LETTRES ET SCIENCES MANIFESTE POUR UNE SANTÉ ÉGALITAIRE ET SOLIDAIRE ➤ 65 P.62-66 Arts et Lettre 26/04/12 7:34 Page 66 ARTS, LETTRES ET SCIENCES ➤ cueillera-t-elle ? Consentira-t-elle enfin à vivre ? Isabelle Pestre écrit ici son premier livre. Dans ce roman, elle donne libre cours à un authentique talent d’écrivain. L’histoire est menée solidement, l’écriture magique, profuse, bouleversante. Le lecteur aimera ce livre, je le lui promets. Henri Brunel, écrivain Belfond, 12, avenue d’Italie, 75013 Paris. ANTOINE-RÉMY POLONCEAU (1778-1847) Un homme libre Un ingénieur au parcours éclectique Denis Hannotin et Christine Moissinac Presses des Ponts – 2011 Que faut-il au fond transmettre, et cela, quelle que soit l’époque, il y a deux cents ans comme maintenant, sinon la force d’imaginer, la capacité d’analyse, la volonté d’entreprendre et de servir, la force d’initiative, même dans des domaines hors des compétences initiales, et enfin l’esprit de rigueur ? Telle est la question, plus que jamais d’actualité, que pose Claude Martinand (64) dans l’introduction de cette biographie. X1796, une des toutes premières promotions de l’École polytechnique, Antoine-Rémy Polonceau, ingénieur du corps des Ponts et Chaussées, personnifie la réussite de cet objectif. Ce livre très documenté s’apparente à un travail universitaire par sa rigueur et ses sources mais c’est, surtout, le récit d’aventures d’un ingénieur haut fonctionnaire n’hésitant pas à intervenir dans le développement du paysage industriel français : intro66 LA JAUNE ET LA ROUGE • MAI 2012 SOLUTIONS DES RÉCRÉATIONS SCIENTIFIQUES 1) POSITIF EN TOUT ESPACE Factorisons les éléments de la somme comme produit scalaire de vecteurs, dans un espace (à 2 ou 3 dimensions) contenant les 4 points. AB 2 – BD 2 = (AB + BD) (AB – BD) = AD (AB – BD), CD 2 – AC 2 = (CD + AC) (CD – AC) = AD (CD – AC), d'où la somme BC 2 + DA 2 + AD (AB – BD + CD – AC) = CB 2 + AD 2 + AD (2CB) = (CB + AD) 2. C'est le carré d'un vecteur CB + AD = AB + CD qui s'annule si et seulement si ABCD est un parallélogramme, cas où l'inégalité de l'énoncé devient égalité. 2) D‘UNE DIFFÉRENTIELLE L‘AUTRE Notons F l'expression ay'' + by' + cy. Les 7 expressions z, z', z'', z''', yF, y'F, yF' sont fonctions linéaires des 6 monômes y 2, yy', yy'', yy''', y' 2, y' y''. Éliminant ces derniers, on obtient a 2z''' + 3abz'' + (4ac + ab' +2b 2 – ba' ) z' + 2(2bc – a'c + ac' ) z = 2ayF' + 6ay'F + 2yF (2b – a' ) d'où l'équation différentielle demandée, le second membre étant nul. 3) COMBINAISON CACHÉE Notant abcdefgh les 8 couleurs, on peut tester abcde, puis (si le score n'est pas 5) remplacer successivement a, b, c,... par h : dès qu'apparaît un changement du score initial, on connaît la nature (bon ou mauvais) de h, de la couleur que h remplace à ce moment, et des couleurs déjà comparées à h. Un 6e test peut être nécessaire pour connaître la nature de f et g. Mais on peut faire mieux : 5 questions bien choisies suffisent, dans le cas a) comme dans le cas b). Solution dans un prochain numéro. POST-SCRIPTUM À POLYGONE EN RÉSEAU (LA JAUNE ET LA ROUGE DE FÉVRIER 2012) Christian Stéfani (69) et Pierre Ranvier (47) forment, à partir d'un polygone régulier convexe A 1 A 2 ... Ap de p > 4 côtés, le polygone B 1 B 2 ... Bp dans lequel Bi complète le parallélogramme Ai –1 Ai Ai +1 et appartient au réseau si c'est le cas des Ai. Ce polygone est homothétique au premier par rapport au centre O, dans le rapport 2cos(2π/p) –1 (strictement compris entre –1 et 1), et ne se réduit pas au point O si p ≠ 6. D'où, en répétant l'opération, une infinité de polygones de plus en plus petits, impossibles à inscrire dans un réseau sauf si p = 3, 4 ou 6. POST-SCRIPTUM À INTÉGRITÉ HYPERBOLIQUE (LA JAUNE ET LA ROUGE DE FÉVRIER 2012) Roger Lassiaille (54) a étendu l'étude de la récurrence des coordonnées au cas de d non entier. Quand 0 < |d| < 2, la courbe est une ellipse où la suite des coordonnées peut être (ou non) périodique. duction en France de techniques routières (de Mac Adam), création de routes et de canaux, développement de voies ferrées, conception de ponts en fonte, création de la première école d’agriculture de France (Grignon). Sa marque reste visible : viaduc de Meudon, tracé de la route du Simplon, conception du pont de Triana à Séville, itinéraire des voies Paris-Versailles et Paris-Rouen et, bien sûr, l’Agro où la grange Polonceau existe toujours. Charles-Henri Pin (56) 15, rue de la Fontaine-au-Roi, 75127 Paris Cedex 11. SOLUTIONS DU BRIDGE Il faut jouer ♣ du mort et couvrir la carte d’Est. Ouest est en main et n’a pas de retour, vous allez faire 5 ♦, 3 ♣ et 1 ♥. OUEST ♠ A ♥ R ♦ 7 ♣ D R 9 V 7 6 4 6 4 2 EST ♠ 7 ♥ 10 ♦ V ♣ R 5 8 3 10 4 3 2 2 5 Malheureusement mon partenaire Dumazet a joué ♠ et a fini par chuter d’une – il ira cependant en DN1 l’an prochain.